

Per funzionalità simili a Amazon Timestream for, prendi in considerazione Amazon Timestream LiveAnalytics per InfluxDB. Offre un'acquisizione semplificata dei dati e tempi di risposta alle query di una sola cifra di millisecondi per analisi in tempo reale. [Scopri](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) di più qui.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo del caricamento in batch in Timestream per LiveAnalytics
<a name="batch-load"></a>

Con *il caricamento in batch* per Amazon Timestream LiveAnalytics for, puoi importare file CSV archiviati in Amazon S3 in Timestream in batch. Con questa nuova funzionalità, puoi conservare i tuoi dati in Timestream LiveAnalytics senza dover fare affidamento su altri strumenti o scrivere codice personalizzato. Puoi utilizzare il caricamento in batch per completare i dati con tempi di attesa flessibili, ad esempio dati che non sono immediatamente necessari per l'interrogazione o l'analisi. 

È possibile creare attività di caricamento in batch utilizzando Console di gestione AWS AWS CLI, the e. AWS SDKs Per ulteriori informazioni, consultare [Utilizzo del caricamento in batch con la console](batch-load-using-console.md), [Utilizzo del caricamento in batch con AWS CLI](batch-load-using-cli.md) e [Utilizzo del caricamento in batch con AWS SDKs](batch-load-using-sdk.md).

Oltre al caricamento in batch, è possibile scrivere più record contemporaneamente con l'operazione WriteRecords API. Per indicazioni su quale usare, consulta[Scelta tra il funzionamento dell' WriteRecords API e il caricamento in batch](writes.writes-or-batch-load.md).

**Topics**
+ [Concetti di caricamento in batch in Timestream](batch-load-concepts.md)
+ [Prerequisiti per il caricamento in batch](batch-load-prerequisites.md)
+ [Procedure ottimali per il caricamento in batch](batch-load-best-practices.md)
+ [Preparazione di un file di dati di caricamento in batch](batch-load-preparing-data-file.md)
+ [Mappature dei modelli di dati per il caricamento in batch](batch-load-data-model-mappings.md)
+ [Utilizzo del caricamento in batch con la console](batch-load-using-console.md)
+ [Utilizzo del caricamento in batch con AWS CLI](batch-load-using-cli.md)
+ [Utilizzo del caricamento in batch con AWS SDKs](batch-load-using-sdk.md)
+ [Utilizzo dei report sugli errori di caricamento in batch](batch-load-using-error-reports.md)

# Concetti di caricamento in batch in Timestream
<a name="batch-load-concepts"></a>

Esamina i seguenti concetti per comprendere meglio la funzionalità di caricamento in batch. 

**Attività di caricamento in batch**: l'attività che definisce i dati di origine e la destinazione in Amazon Timestream. Quando crei l'attività di caricamento in batch, specifichi una configurazione aggiuntiva come il modello di dati. È possibile creare attività di caricamento in batch tramite Console di gestione AWS AWS CLI, the e AWS SDKs. 

**Destinazione di importazione**: il database e la tabella di destinazione in Timestream. Per informazioni sulla creazione di database e tabelle, consulta [Creazione di un database](console_timestream.md#console_timestream.db.using-console) e. [Creare una tabella](console_timestream.md#console_timestream.table.using-console)

**Origine dati**: il file CSV di origine archiviato in un bucket S3. Per informazioni sulla preparazione del file di dati, consulta. [Preparazione di un file di dati di caricamento in batch](batch-load-preparing-data-file.md) Per informazioni sui prezzi di S3, consulta i prezzi di [Amazon S3](https://aws.amazon.com/s3/pricing/).

**Rapporto sugli errori di caricamento in batch**: un rapporto che memorizza le informazioni sugli errori di un'operazione di caricamento in batch. La posizione S3 per i report sugli errori di caricamento in batch viene definita come parte di un'attività di caricamento in batch. Per informazioni sulle informazioni contenute nei report, vedere[Utilizzo dei report sugli errori di caricamento in batch](batch-load-using-error-reports.md).

**Mappatura del modello di dati**: una mappatura del carico in batch per tempo, dimensioni e misure che parte da un'origine dati in una posizione S3 a un Timestream di destinazione per la tabella. LiveAnalytics Per ulteriori informazioni, consulta [Mappature dei modelli di dati per il caricamento in batch](batch-load-data-model-mappings.md).

# Prerequisiti per il caricamento in batch
<a name="batch-load-prerequisites"></a>

Questo è un elenco di prerequisiti per l'utilizzo del caricamento in batch. Per le best practice, consulta [Procedure ottimali per il caricamento in batch](batch-load-best-practices.md).
+ I dati di origine del caricamento in batch vengono archiviati in Amazon S3 in formato CSV con intestazioni.
+ Per ogni bucket di origine Amazon S3, devi disporre delle seguenti autorizzazioni in una policy allegata:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Analogamente, per ogni bucket di output di Amazon S3 in cui vengono scritti i report, è necessario disporre delle seguenti autorizzazioni in una policy allegata:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Esempio:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream for LiveAnalytics analizza il file CSV mappando le informazioni fornite nel modello di dati alle intestazioni CSV. I dati devono avere una colonna che rappresenti il timestamp, almeno una colonna di dimensione e almeno una colonna di misura.
+ I bucket S3 utilizzati con il caricamento in batch devono trovarsi nella stessa regione e provenire dallo stesso account della LiveAnalytics tabella Timestream for utilizzata nel caricamento in batch.
+ La `timestamp` colonna deve essere un tipo di dati lungo che rappresenta il tempo trascorso dall'epoca Unix. Ad esempio, il timestamp `2021-03-25T08:45:21Z` sarebbe rappresentato come. `1616661921` Timestream supporta secondi, millisecondi, microsecondi e nanosecondi per la precisione del timestamp. Quando si utilizza il linguaggio di interrogazione, è possibile eseguire la conversione tra formati con funzioni come. `to_unixtime` Per ulteriori informazioni, consulta [Funzioni data/ora](date-time-functions.md).
+ Timestream supporta il tipo di dati stringa per i valori delle dimensioni. Supporta tipi di dati long, double, string e booleani per le colonne di misura.

Per i limiti e le quote di carico in batch, vedere. [Caricamento in batch](ts-limits.md#limits.batch-load)

# Procedure ottimali per il caricamento in batch
<a name="batch-load-best-practices"></a>

Il carico in batch funziona al meglio (produttività elevata) se si rispettano le seguenti condizioni e raccomandazioni:

1. I file CSV inviati per l'ingestione sono di piccole dimensioni, in particolare con una dimensione compresa tra 100 MB e 1 GB, per migliorare il parallelismo e la velocità di inserimento.

1. Evita di importare contemporaneamente i dati nella stessa tabella (ad esempio utilizzando l'operazione WriteRecords API o una query pianificata) quando è in corso il caricamento del batch. Ciò potrebbe causare rallentamenti e l'operazione di caricamento in batch potrebbe fallire.

1. Non aggiungere, modificare o rimuovere file dal bucket S3 utilizzato nel caricamento in batch mentre l'attività di caricamento in batch è in esecuzione.

1. Non eliminate o revocate le autorizzazioni dalle tabelle o dall'origine e non segnalate i bucket S3 con attività di caricamento batch pianificate o in corso.

1. Quando si importano dati con un set di valori di dimensione ad alta cardinalità, segui le indicazioni riportate in. [Consigli per il partizionamento di record multimisura](data-modeling.md#data-modeling-multi-measure-partitioning)

1. Assicurati di verificare la correttezza dei dati inviando un file di piccole dimensioni. Tutti i dati inviati al caricamento in batch ti verranno addebitati indipendentemente dalla correttezza. Per ulteriori informazioni sui prezzi, consulta i prezzi di [Amazon Timestream](https://aws.amazon.com/timestream/pricing/).

1. Non riprendere un'attività di caricamento in batch a meno che `ActiveMagneticStorePartitions` il numero non sia inferiore a 250. Il processo potrebbe essere rallentato e fallire. L'invio di più lavori contemporaneamente per lo stesso database dovrebbe ridurre il numero.

Di seguito sono riportate le best practice relative alla console:

1. Utilizza il [generatore](batch-load-using-console.md#batch-load-using-visual-builder) solo per una modellazione dei dati più semplice che utilizza un solo nome di misura per i record di più misure.

1. Per una modellazione dei dati più complessa, usa JSON. Ad esempio, usa JSON quando usi più nomi di misure quando usi record con più misure. 

Per ulteriori informazioni su Timestream relative alle LiveAnalytics best practice, consulta. [Best practice](best-practices.md)

# Preparazione di un file di dati di caricamento in batch
<a name="batch-load-preparing-data-file"></a>

Un file di dati di origine ha valori separati da delimitatori. Il termine più specifico, valori separati da virgole (CSV) viene utilizzato genericamente. I separatori di colonna validi includono virgole e pipe. I record sono separati da nuove righe. I file devono essere archiviati in Amazon S3. Quando si crea una nuova attività di caricamento in batch, la posizione dei dati di origine viene specificata da un ARN per il file. Un file contiene intestazioni. Una colonna rappresenta il timestamp. Almeno un'altra colonna rappresenta una misura.

I bucket S3 utilizzati con il caricamento in batch devono trovarsi nella stessa area del Timestream per la LiveAnalytics tabella utilizzata nel caricamento in batch. Non aggiungere o rimuovere file dal bucket S3 utilizzato nel caricamento in batch dopo l'invio dell'attività di caricamento in batch. Per informazioni sull'utilizzo dei bucket S3, consulta [Guida introduttiva ad Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**Nota**  
I file CSV generati da alcune applicazioni come Excel potrebbero contenere un byte order mark (BOM) che è in conflitto con la codifica prevista. Il flusso temporale per le attività di caricamento LiveAnalytics in batch che fanno riferimento a un file CSV con un BOM genera un errore quando vengono elaborate a livello di codice. Per evitare ciò, puoi rimuovere il BOM, che è un carattere invisibile.  
Ad esempio, è possibile salvare il file da un'applicazione come Notepad\$1\$1 che consente di specificare una nuova codifica. È inoltre possibile utilizzare un'opzione programmatica che legge la prima riga, rimuove il carattere dalla riga e scrive il nuovo valore sulla prima riga del file.  
Quando si salva da Excel, sono disponibili diverse opzioni CSV. Il salvataggio con un'opzione CSV diversa potrebbe prevenire il problema descritto. Ma dovresti controllare il risultato perché un cambiamento nella codifica può influire su alcuni caratteri.

## Parametri del formato CSV
<a name="batch-load-data-file-options"></a>

Utilizzate i caratteri di escape quando rappresentate un valore altrimenti riservato dai parametri di formato. Ad esempio, se il carattere delle virgolette è composto da virgolette doppie, per rappresentare una virgoletta doppia nei dati, posiziona il carattere di escape prima delle virgolette doppie.

Per informazioni su quando specificarli durante la creazione di un'operazione di caricamento in batch, vedere[Creare un'attività di caricamento in batch](batch-load-using-console.md#console_timestream.create-batch-load.using-console).


| Parametro | Opzioni | 
| --- | --- | 
| Separatore di colonne | (Virgola (',') \$1 Pipe ('\$1') \$1 Punto e virgola (';') \$1 Tab ('/t') \$1 Spazio vuoto ('')) | 
| Personaggio di fuga | nessuno | 
| Cita il personaggio | Console: (Virgolette doppie («) \$1 Virgolette singole (')) | 
| Valore nullo | Spazio vuoto ('') | 
| Taglia lo spazio bianco | Console: (No \$1 Sì) | 

# Mappature dei modelli di dati per il caricamento in batch
<a name="batch-load-data-model-mappings"></a>

Di seguito viene illustrato lo schema per le mappature dei modelli di dati e viene fornito un esempio.

## Schema di mappatura del modello di dati
<a name="batch-load-data-model-mappings-schema"></a>

La sintassi della `CreateBatchLoadTask` richiesta e un `BatchLoadTaskDescription` oggetto restituito da una chiamata per `DescribeBatchLoadTask` includere un `DataModelConfiguration` oggetto che include il `DataModel` caricamento in batch. `DataModel`Definisce le mappature dai dati di origine archiviati in formato CSV in una posizione S3 a un Timestream di destinazione per database e tabella. LiveAnalytics 

Il `TimeColumn` campo indica la posizione dei dati di origine per il valore da mappare alla colonna della tabella di destinazione in Timestream for. `time` LiveAnalytics `TimeUnit`Speciifica l'unità per`TimeColumn`, e può essere una delle`MILLISECONDS`,, `SECONDS` o. `MICROSECONDS` `NANOSECONDS` Sono disponibili anche mappature per dimensioni e misure. Le mappature delle dimensioni sono composte da colonne di origine e campi di destinazione. 

Per ulteriori informazioni, consulta [DimensionMapping](https://docs.aws.amazon.com/timestream/latest/developerguide/API_DimensionMapping). Le mappature per le misure hanno due opzioni: e. `MixedMeasureMappings` `MultiMeasureMappings`

Per riassumere, a `DataModel` contiene le mappature da un'origine dati in una posizione S3 a un Timestream di destinazione per la tabella per quanto segue. LiveAnalytics 
+ Orario
+ Dimensioni
+ Misure

Se possibile, ti consigliamo di mappare i dati di misura su record multimisura in Timestream for. LiveAnalytics Per informazioni sui vantaggi dei record multimisura, consulta. [Record multimisura](writes.md#writes.writing-data-multi-measure) 

Se più misure nei dati di origine sono memorizzate in una riga, puoi mappare tali misure su record di più misure in Timestream per utilizzarle. LiveAnalytics `MultiMeasureMappings` Se ci sono valori che devono essere mappati a un record a misura singola, puoi usare. `MixedMeasureMappings` 

`MixedMeasureMappings`ed `MultiMeasureMappings` entrambi includono`MultiMeasureAttributeMappings`. I record a più misure sono supportati indipendentemente dal fatto che siano necessari record a misura singola.

Se in Timestream for sono necessari solo record di destinazione a più misure LiveAnalytics, è possibile definire le mappature delle misure nella seguente struttura.

```
CreateBatchLoadTask
    MeasureNameColumn
    MultiMeasureMappings
        TargetMultiMeasureName
        MultiMeasureAttributeMappings array
```

**Nota**  
Si consiglia di utilizzarlo quando possibile. `MultiMeasureMappings`

Se sono necessari record di destinazione a misura singola in Timestream for LiveAnalytics, puoi definire le mappature delle misure nella seguente struttura.

```
CreateBatchLoadTask
    MeasureNameColumn
    MixedMeasureMappings array
        MixedMeasureMapping
            MeasureName
            MeasureValueType
            SourceColumn
            TargetMeasureName
            MultiMeasureAttributeMappings array
```

Quando si utilizza`MultiMeasureMappings`, l'array è sempre necessario. `MultiMeasureAttributeMappings` Quando si utilizza l'`MixedMeasureMappings`array, se si `MeasureValueType` tratta `MULTI` di un dato elemento`MixedMeasureMapping`, `MultiMeasureAttributeMappings` è necessario a tal fine`MixedMeasureMapping`. Altrimenti, `MeasureValueType` indica il tipo di misura per il record a misura singola.

In entrambi i casi, ce n'è una serie di `MultiMeasureAttributeMapping` opzioni disponibili. Le mappature su record multimisura in ciascuno `MultiMeasureAttributeMapping` di essi vengono definite nel modo seguente:

`SourceColumn`  
La colonna dei dati di origine che si trova in Amazon S3.

`TargetMultiMeasureAttributeName`  
Il nome del nome multimisura di destinazione nella tabella di destinazione. Questo input è obbligatorio quando non `MeasureNameColumn` viene fornito. Se `MeasureNameColumn` fornito, il valore di quella colonna viene utilizzato come nome multimisura.

`MeasureValueType`  
Uno di`DOUBLE`, `BIGINT` `BOOLEAN``VARCHAR`, o`TIMESTAMP`.

## Mappature di modelli di dati con esempio `MultiMeasureMappings`
<a name="batch-load-data-model-mappings-example-multi"></a>

Questo esempio dimostra la mappatura su record multimisura, l'approccio preferito, che memorizza ogni valore di misura in una colonna dedicata. [Puoi scaricare un file CSV di esempio da sample CSV.](samples/batch-load-sample-file.csv.zip) L'esempio ha i seguenti titoli da mappare a una colonna di destinazione in un Timestream per tabella. LiveAnalytics 
+ `time`
+ `measure_name`
+ `region`
+ `location`
+ `hostname`
+ `memory_utilization`
+ `cpu_utilization`

Identifica le `measure_name` colonne `time` and nel file CSV. In questo caso vengono mappate direttamente al Timestream per le colonne della LiveAnalytics tabella con lo stesso nome.
+ `time`mappe per `time`
+ `measure_name`mappa a `measure_name` (o al valore scelto)

Quando si utilizza l'API, si specifica `time` nel `TimeColumn` campo e un valore di unità di tempo supportato, ad esempio `MILLISECONDS` nel `TimeUnit` campo. Questi corrispondono al **nome della colonna di origine** e all'**ora del timestamp immessi** nella console. È possibile raggruppare o partizionare i record utilizzando la `measure_name` chiave definita. `MeasureNameColumn`

Nell'esempio, `region``location`, e `hostname` sono dimensioni. Le dimensioni sono mappate in una serie di `DimensionMapping` oggetti.

Per le misure, il valore `TargetMultiMeasureAttributeName` diventerà una colonna nel Timestream for table. LiveAnalytics È possibile mantenere lo stesso nome come in questo esempio. Oppure puoi specificarne uno nuovo. `MeasureValueType`è uno dei `DOUBLE``BIGINT`,`BOOLEAN`,`VARCHAR`, o`TIMESTAMP`. 

```
{
  "TimeColumn": "time",
  "TimeUnit": "MILLISECONDS",
  "DimensionMappings": [
    {
      "SourceColumn": "region",
      "DestinationColumn": "region"
    },
    {
      "SourceColumn": "location",
      "DestinationColumn": "location"
    },
    {
      "SourceColumn": "hostname",
      "DestinationColumn": "hostname"
    }
  ],
  "MeasureNameColumn": "measure_name",
  "MultiMeasureMappings": {
    "MultiMeasureAttributeMappings": [
      {
        "SourceColumn": "memory_utilization",
        "TargetMultiMeasureAttributeName": "memory_utilization",
        "MeasureValueType": "DOUBLE"
      },
      {
        "SourceColumn": "cpu_utilization",
        "TargetMultiMeasureAttributeName": "cpu_utilization",
        "MeasureValueType": "DOUBLE"
      }
    ]
  }
}
```

![\[Visual builder interface showing column mappings for timestream data attributes and types.\]](http://docs.aws.amazon.com/it_it/timestream/latest/developerguide/images/column-mapping.jpg)


## mappature di modelli di dati con esempio `MixedMeasureMappings`
<a name="batch-load-data-model-mappings-example-mixed"></a>

Ti consigliamo di utilizzare questo approccio solo quando devi mappare record a misura singola in Timestream for. LiveAnalytics

# Utilizzo del caricamento in batch con la console
<a name="batch-load-using-console"></a>

Di seguito sono riportati i passaggi per utilizzare il caricamento in batch con Console di gestione AWS. Puoi scaricare un file CSV di esempio dal file CSV di [esempio](samples/batch-load-sample-file.csv.zip).

**Topics**
+ [Accedi al caricamento in batch](#console_timestream.access-batch-load.using-console)
+ [Creare un'attività di caricamento in batch](#console_timestream.create-batch-load.using-console)
+ [Riprendi un'attività di caricamento in batch](#console_timestream.resume-batch-load.using-console)
+ [Utilizzando il visual builder](#batch-load-using-visual-builder)

## Accedi al caricamento in batch
<a name="console_timestream.access-batch-load.using-console"></a>

Segui questi passaggi per accedere al caricamento in batch utilizzando Console di gestione AWS.

1. Apri la console [Amazon Timestream](https://console.aws.amazon.com/timestream).

1. Nel riquadro di navigazione, scegli **Strumenti di gestione**, quindi scegli **Attività di caricamento in Batch**.

1. Da qui, puoi visualizzare l'elenco delle attività di caricamento in batch e approfondire una determinata attività per maggiori dettagli. È inoltre possibile creare e riprendere le attività.

## Creare un'attività di caricamento in batch
<a name="console_timestream.create-batch-load.using-console"></a>

Segui questi passaggi per creare un'attività di caricamento in batch utilizzando Console di gestione AWS.

1. Apri la console [Amazon Timestream](https://console.aws.amazon.com/timestream).

1. Nel riquadro di navigazione, scegli **Strumenti di gestione**, quindi scegli **Attività di caricamento in Batch**.

1. Scegli **Crea attività di caricamento in batch**.

1. In **Destinazione di importazione**, scegli quanto segue.
   + **Database di destinazione**: seleziona il nome del database creato in[Creazione di un database](console_timestream.md#console_timestream.db.using-console).
   + **Tabella di destinazione**: seleziona il nome della tabella creata in[Creare una tabella](console_timestream.md#console_timestream.table.using-console).

   Se necessario, puoi aggiungere una tabella da questo pannello con il pulsante **Crea nuova tabella**.

1. Dalla **posizione Data source S3** in **Data source**, seleziona il bucket S3 in cui sono archiviati i dati di origine. Usa il pulsante **Sfoglia S3** per visualizzare le risorse S3 a cui ha accesso l' AWS account attivo o inserisci l'URL della posizione S3. L'origine dati deve trovarsi nella stessa regione.

1. Nelle **impostazioni del formato del file** (sezione espandibile), è possibile utilizzare le impostazioni predefinite per analizzare i dati di input. **Puoi anche scegliere Impostazioni avanzate.** Da lì puoi scegliere i **parametri del formato CSV** e selezionare i parametri per analizzare i dati di input. Per informazioni su questi parametri, vedere. [Parametri del formato CSV](batch-load-preparing-data-file.md#batch-load-data-file-options)

1. Da **Configura la mappatura del modello di dati**, configura il modello di dati. Per ulteriori indicazioni sul modello di dati, vedere [Mappature dei modelli di dati per il caricamento in batch](batch-load-data-model-mappings.md)
   + Da **Mappatura del modello di dati**, scegli **Mappatura dell'input di configurazione** e scegli una delle seguenti opzioni.
     + **Visual Builder**: per mappare visivamente i dati, scegli o. **TargetMultiMeasureName**MeasureNameColumn**** Quindi, da **Visual Builder**, mappa le colonne.

       Visual Builder rileva e carica automaticamente le intestazioni delle colonne di origine dal file di origine dati quando viene selezionato un singolo file CSV come origine dati. Scegli l'attributo e il tipo di dati per creare la mappatura.

       Per informazioni sull'utilizzo del Visual Builder, consulta. [Utilizzando il visual builder](#batch-load-using-visual-builder)
     + Editor **JSON: un editor** JSON in formato libero per configurare il modello di dati. Scegli questa opzione se conosci Timestream for LiveAnalytics e desideri creare mappature avanzate di modelli di dati.
     + **File JSON da S3**: seleziona un file modello JSON che hai archiviato in S3. Scegli questa opzione se hai già configurato un modello di dati e desideri riutilizzarlo per caricamenti batch aggiuntivi.

1. Dalla **posizione S3 dei registri** di **errore nel rapporto del registro degli errori**, seleziona la posizione S3 che verrà utilizzata per segnalare gli errori. Per informazioni su come utilizzare questo rapporto, consulta. [Utilizzo dei report sugli errori di caricamento in batch](batch-load-using-error-reports.md)

1. Per **Tipo di chiave di crittografia**, scegli una delle seguenti opzioni.
   + **Chiave gestita da Amazon S3 (SSE-S3): una chiave** di crittografia che Amazon S3 crea, gestisce e utilizza per te.
   + **AWS KMS key (SSE-KMS): una chiave di crittografia protetta da ().** AWS Key Management Service AWS KMS

1. Scegli **Next (Successivo)**.

1. Nella **pagina Rivedi e crea**, rivedi le impostazioni e modificale se necessario.
**Nota**  
Non è possibile modificare le impostazioni dell'attività di caricamento in batch dopo la creazione dell'attività. I tempi di completamento delle attività variano in base alla quantità di dati importati.

1. Scegli **Crea attività di caricamento in batch**.

## Riprendi un'attività di caricamento in batch
<a name="console_timestream.resume-batch-load.using-console"></a>

Quando si seleziona un'operazione di caricamento in batch con lo stato «Progresso interrotto» che è ancora ripristinabile, viene richiesto di riprendere l'operazione. C'è anche un banner con il pulsante **Riprendi attività** quando visualizzi i dettagli di tali attività. Le attività riprendibili hanno una data di scadenza. Dopo la scadenza di tale data, le attività non possono essere riprese.

## Utilizzando il visual builder
<a name="batch-load-using-visual-builder"></a>

Puoi utilizzare il visual builder per mappare le colonne di dati di origine di uno o più file CSV archiviati in un bucket S3 alle colonne di destinazione in un Timestream per tabella. LiveAnalytics 

**Nota**  
Il tuo ruolo avrà bisogno dell'autorizzazione per il file. `SelectObjectContent` In caso contrario, dovrai aggiungere ed eliminare le colonne manualmente.

### Modalità di caricamento automatico delle colonne di origine
<a name="batch-load-using-visual-builder-auto-load"></a>

Timestream for LiveAnalytics può scansionare automaticamente il file CSV di origine per i nomi delle colonne se si specifica un solo bucket. **Quando non ci sono mappature esistenti, puoi scegliere Importa colonne di origine.**

1. Con l'opzione **Visual Builder** selezionata dalle **impostazioni di input della configurazione di mappatura, imposta l'input temporale** Timestamp. `Milliseconds`è l'impostazione predefinita.

1. Fate clic sul pulsante **Carica colonne di origine** per importare le intestazioni di colonna presenti nel file di dati di origine. La tabella verrà compilata con i nomi delle intestazioni delle colonne di origine provenienti dal file di origine dati.

1. Scegli il **nome della colonna della tabella Target, il** tipo di **attributo Timestream e il tipo di** **dati per ogni colonna di** origine.

   Per informazioni dettagliate su queste colonne e sui possibili valori, consulta. [Mappatura dei campi](#batch-load-using-visual-builder-mapping-fields)

1. Usa la drag-to-fill funzione per impostare il valore per più colonne contemporaneamente.

### Aggiungi manualmente le colonne sorgente
<a name="batch-load-using-visual-builder-manually-add"></a>

**Se utilizzi un bucket o un prefisso CSV e non un singolo CSV, puoi aggiungere ed eliminare le mappature delle colonne dall'editor visivo con i pulsanti Aggiungi mappatura delle colonne ed Elimina **mappatura delle colonne**.** C'è anche un pulsante per ripristinare le mappature.

### Mappatura dei campi
<a name="batch-load-using-visual-builder-mapping-fields"></a>
+ **Nome della colonna di origine**: il nome di una colonna nel file di origine che rappresenta una misura da importare. Timestream for LiveAnalytics può compilare questo valore automaticamente quando si utilizzano le colonne di origine di **importazione**.
+ **Nome della colonna della tabella di destinazione**: input opzionale che indica il nome della colonna per la misura nella tabella di destinazione.
+ **Tipo di attributo Timestream**: il tipo di attributo dei dati nella colonna di origine specificata, ad esempio. `DIMENSION`
  + **TIMESTAMP**: specifica quando è stata raccolta una misura.
  + **MULTI** — Sono rappresentate più misure.
  + **DIMENSION** — Metadati delle serie temporali.
  + **MEASURE\$1NAME** — Per i record a misura singola, questo è il nome della misura.
+ **Tipo di dati**: il tipo di colonna Timestream, ad esempio. `BOOLEAN`
  + **BIGINT**: un numero intero a 64 bit.
  + **BOOLEAN** — I due valori di verità della logica: vero e falso.
  + **DOUBLE**: numero a precisione variabile a 64 bit.
  + **TIMESTAMP**: un'istanza temporale che utilizza l'ora di precisione in nanosecondi in UTC e tiene traccia del tempo dall'epoca Unix.

# Utilizzo del caricamento in batch con AWS CLI
<a name="batch-load-using-cli"></a>

**Configurazione**

Per iniziare a utilizzare il caricamento in batch, procedi nel seguente modo.

1. Installa il AWS CLI utilizzando le istruzioni riportate all'indirizzo[Accesso ad Amazon Timestream LiveAnalytics per l'utilizzo di AWS CLI](Tools.CLI.md).

1. Esegui il comando seguente per verificare che i comandi CLI di Timestream siano stati aggiornati. Verifica che create-batch-load-task sia nell'elenco.

   `aws timestream-write help`

1. Prepara una fonte di dati seguendo le istruzioni riportate in[Preparazione di un file di dati di caricamento in batch](batch-load-preparing-data-file.md).

1. Crea un database e una tabella seguendo le istruzioni riportate in[Accesso ad Amazon Timestream LiveAnalytics per l'utilizzo di AWS CLI](Tools.CLI.md).

1. Crea un bucket S3 per l'output dei report. Il bucket deve trovarsi nella stessa regione. Per ulteriori informazioni sui bucket, consulta [Creazione, configurazione e utilizzo dei bucket Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-buckets-s3.html).

1. Crea un'attività di caricamento in batch. Per le fasi, consulta [Crea un'attività di caricamento in batch](#batch-load-using-cli-create-task).

1. Conferma lo stato dell'attività. Per le fasi, consulta [Descrivi l'operazione di caricamento batch](#batch-load-using-cli-describe-task).

## Crea un'attività di caricamento in batch
<a name="batch-load-using-cli-create-task"></a>

È possibile creare un'attività di caricamento in batch con il `create-batch-load-task` comando. Quando si crea un'attività di caricamento in batch utilizzando la CLI, è possibile utilizzare un parametro JSON`cli-input-json`, che consente di aggregare i parametri in un singolo frammento JSON. È inoltre possibile suddividere questi dettagli utilizzando diversi altri parametri`data-model-configuration`,,, `data-source-configuration` e. `report-configuration` `target-database-name` `target-table-name`

Per un esempio, consulta [Crea un esempio di attività di caricamento in batch](#batch-load-using-cli-example)

## Descrivi l'operazione di caricamento batch
<a name="batch-load-using-cli-describe-task"></a>

È possibile recuperare la descrizione dell'attività di caricamento in batch come segue.

```
aws timestream-write describe-batch-load-task --task-id <value>
```

Di seguito è riportata una risposta di esempio:

```
{
    "BatchLoadTaskDescription": {
        "TaskId": "<TaskId>",
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "sample.csv"
            },
            "CsvConfiguration": {},
            "DataFormat": "CSV"
        },
        "ProgressReport": {
            "RecordsProcessed": 2,
            "RecordsIngested": 0,
            "FileParseFailures": 0,
            "RecordIngestionFailures": 2,
            "FileFailures": 0,
            "BytesIngested": 119
        },
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "<ObjectKeyPrefix>",
                "EncryptionOption": "SSE_S3"
            }
        },
        "DataModelConfiguration": {
            "DataModel": {
                "TimeColumn": "timestamp",
                "TimeUnit": "SECONDS",
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "MultiMeasureMappings": {
                    "TargetMultiMeasureName": "test",
                    "MultiMeasureAttributeMappings": [
                        {
                            "SourceColumn": "wgt",
                            "TargetMultiMeasureAttributeName": "weight",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "spd",
                            "TargetMultiMeasureAttributeName": "speed",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "fuel",
                            "TargetMultiMeasureAttributeName": "fuel",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "miles",
                            "TargetMultiMeasureAttributeName": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ]
                }
            }
        },
        "TargetDatabaseName": "BatchLoadExampleDatabase",
        "TargetTableName": "BatchLoadExampleTable",
        "TaskStatus": "FAILED",
        "RecordVersion": 1,
        "CreationTime": 1677167593.266,
        "LastUpdatedTime": 1677167602.38
    }
}
```

## Elenca le attività di caricamento in batch
<a name="batch-load-using-cli-list-tasks"></a>

È possibile elencare le attività di caricamento in batch come segue.

```
aws timestream-write list-batch-load-tasks
```

L'output viene visualizzato come segue.

```
{
    "BatchLoadTasks": [
        {
            "TaskId": "<TaskId>",
            "TaskStatus": "FAILED",
            "DatabaseName": "BatchLoadExampleDatabase",
            "TableName": "BatchLoadExampleTable",
            "CreationTime": 1677167593.266,
            "LastUpdatedTime": 1677167602.38
        }
    ]
}
```

## Riprendi l'operazione di caricamento in batch
<a name="batch-load-using-cli-resume-task"></a>

È possibile riprendere un'attività di caricamento in batch come segue.

```
aws timestream-write resume-batch-load-task --task-id <value>
```

Una risposta può indicare un successo o contenere informazioni sull'errore.

## Crea un esempio di attività di caricamento in batch
<a name="batch-load-using-cli-example"></a>

**Example**  

1. Crea un flusso temporale per il LiveAnalytics database denominato `BatchLoad` e una tabella denominata. `BatchLoadTest` Verificate e, se necessario, regolate i valori di `MemoryStoreRetentionPeriodInHours` e. `MagneticStoreRetentionPeriodInDays`

   ```
   aws timestream-write create-database --database-name BatchLoad \
   
   aws timestream-write create-table --database-name BatchLoad \
   --table-name BatchLoadTest \
   --retention-properties "{\"MemoryStoreRetentionPeriodInHours\": 12, \"MagneticStoreRetentionPeriodInDays\": 100}"
   ```

1. Utilizzando la console, crea un bucket S3 e copia il `sample.csv` file in quella posizione. [Puoi scaricare un file CSV di esempio dalla pagina Sample CSV.](samples/batch-load-sample-file.csv.zip)

1. Utilizzando la console, crea un bucket S3 per Timestream per scrivere un rapporto se l' LiveAnalytics attività di caricamento in batch viene completata con errori.

1. Crea un'attività di caricamento in batch. Assicurati di sostituire *\$1INPUT\$1BUCKET* e *\$1REPORT\$1BUCKET* con i bucket che hai creato nei passaggi precedenti.

   ```
   aws timestream-write create-batch-load-task \
   --data-model-configuration "{\
               \"DataModel\": {\
                 \"TimeColumn\": \"timestamp\",\
                 \"TimeUnit\": \"SECONDS\",\
                 \"DimensionMappings\": [\
                   {\
                     \"SourceColumn\": \"vehicle\"\
                   },\
                   {\
                     \"SourceColumn\": \"registration\",\
                     \"DestinationColumn\": \"license\"\
                   }\
                 ],
                 \"MultiMeasureMappings\": {\
                   \"TargetMultiMeasureName\": \"mva_measure_name\",\
                   \"MultiMeasureAttributeMappings\": [\
                     {\
                       \"SourceColumn\": \"wgt\",\
                       \"TargetMultiMeasureAttributeName\": \"weight\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"spd\",\
                       \"TargetMultiMeasureAttributeName\": \"speed\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"fuel_consumption\",\
                       \"TargetMultiMeasureAttributeName\": \"fuel\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"miles\",\
                       \"MeasureValueType\": \"BIGINT\"\
                     }\
                   ]\
                 }\
               }\
             }" \
   --data-source-configuration "{
               \"DataSourceS3Configuration\": {\
                 \"BucketName\": \"$INPUT_BUCKET\",\
                 \"ObjectKeyPrefix\": \"$INPUT_OBJECT_KEY_PREFIX\"
               },\
               \"DataFormat\": \"CSV\"\
             }" \
   --report-configuration "{\
               \"ReportS3Configuration\": {\
                 \"BucketName\": \"$REPORT_BUCKET\",\
                 \"EncryptionOption\": \"SSE_S3\"\
               }\
             }" \
   --target-database-name BatchLoad \
   --target-table-name BatchLoadTest
   ```

   Il comando precedente restituisce l'output seguente.

   ```
   {
       "TaskId": "TaskId "
   }
   ```

1. Controlla lo stato di avanzamento dell'operazione. Assicurati di sostituirlo *\$1TASK\$1ID* con l'ID dell'attività restituito nel passaggio precedente.

   ```
   aws timestream-write describe-batch-load-task --task-id $TASK_ID 
   ```
**Output di esempio**  

```
{
    "BatchLoadTaskDescription": {
        "ProgressReport": {
            "BytesIngested": 1024,
            "RecordsIngested": 2,
            "FileFailures": 0,
            "RecordIngestionFailures": 0,
            "RecordsProcessed": 2,
            "FileParseFailures": 0
        },
        "DataModelConfiguration": {
            "DataModel": {
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "TimeUnit": "SECONDS",
                "TimeColumn": "timestamp",
                "MultiMeasureMappings": {
                    "MultiMeasureAttributeMappings": [
                        {
                            "TargetMultiMeasureAttributeName": "weight",
                            "SourceColumn": "wgt",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "speed",
                            "SourceColumn": "spd",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "fuel",
                            "SourceColumn": "fuel_consumption",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "miles",
                            "SourceColumn": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ],
                    "TargetMultiMeasureName": "mva_measure_name"
                }
            }
        },
        "TargetDatabaseName": "BatchLoad",
        "CreationTime": 1672960381.735,
        "TaskStatus": "SUCCEEDED",
        "RecordVersion": 1,
        "TaskId": "TaskId ",
        "TargetTableName": "BatchLoadTest",
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "EncryptionOption": "SSE_S3",
                "ObjectKeyPrefix": "ObjectKeyPrefix ",
                "BucketName": "amzn-s3-demo-bucket"
            }
        },
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "ObjectKeyPrefix": "sample.csv",
                "BucketName": "amzn-s3-demo-source-bucket"
            },
            "DataFormat": "CSV",
            "CsvConfiguration": {}
        },
        "LastUpdatedTime": 1672960387.334
    }
}
```

# Utilizzo del caricamento in batch con AWS SDKs
<a name="batch-load-using-sdk"></a>

Per esempi su come creare, descrivere ed elencare le attività di caricamento in batch con AWS SDKs[Crea attività di caricamento in batch](code-samples.create-batch-load.md), vedere[Descrizione dell'attività di caricamento in batch](code-samples.describe-batch-load.md),[Elenca le attività di caricamento in batch](code-samples.list-batch-load-tasks.md), e[Riprendi l'operazione di caricamento in batch](code-samples.resume-batch-load-task.md).

# Utilizzo dei report sugli errori di caricamento in batch
<a name="batch-load-using-error-reports"></a>

Le attività di caricamento in batch hanno uno dei seguenti valori di stato:
+ `CREATED`(**Creato**): l'attività viene creata.
+ `IN_PROGRESS`(**In corso**): l'attività è in corso.
+ `FAILED`(**Non riuscito**): l'attività è stata completata. Ma sono stati rilevati uno o più errori.
+ `SUCCEEDED`(**Completata**): l'attività è stata completata senza errori.
+ `PROGRESS_STOPPED`(**Progresso interrotto**): l'attività è stata interrotta ma non completata. È possibile tentare di riprendere l'attività.
+ `PENDING_RESUME`(**Curriculum in sospeso**): l'attività è in attesa di ripresa.

In caso di errori, viene creato un report di registro degli errori nel bucket S3 definito a tale scopo. Gli errori sono classificati come TaskErrors o FileErrors in matrici separate. Di seguito è riportato un esempio di segnalazione di errori.

```
{
    "taskId": "9367BE28418C5EF902676482220B631C",
    "taskErrors": [],
    "fileErrors": [
        {
            "fileName": "example.csv",
            "errors": [
                {
                    "reason": "The record timestamp is outside the time range of the data ingestion window.",
                    "lineRanges": [
                        [
                            2,
                            3
                        ]
                    ]
                }
            ]
        }
    ]
}
```