

Per funzionalità simili a Amazon Timestream for, prendi in considerazione Amazon Timestream LiveAnalytics per InfluxDB. Offre un'acquisizione semplificata dei dati e tempi di risposta alle query di una sola cifra di millisecondi per analisi in tempo reale. [Scopri](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) di più qui.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Accesso ad Amazon Timestream LiveAnalytics per l'utilizzo di AWS CLI
<a name="Tools.CLI"></a>

 È possibile utilizzare il AWS Command Line Interface (AWS CLI) per controllare più AWS servizi dalla riga di comando e automatizzarli tramite script. È possibile utilizzare il AWS CLI per operazioni ad hoc. Puoi anche usarlo per incorporare Amazon LiveAnalytics Timestream for operations all'interno di script di utilità.

 Prima di poterlo utilizzare AWS CLI con Timestream per LiveAnalytics, devi configurare l'accesso programmatico. Per ulteriori informazioni, consulta [Concessione dell'accesso programmatico](accessing.md#programmatic-access). 

[Per un elenco completo di tutti i comandi disponibili per l'API Timestream for LiveAnalytics Query in AWS CLI, consulta il Command Reference.AWS CLI](https://docs.aws.amazon.com/cli/latest/reference/timestream-query/index.html)

[Per un elenco completo di tutti i comandi disponibili per l'API Timestream for LiveAnalytics Write in AWS CLI, consulta il Command Reference.AWS CLI](https://docs.aws.amazon.com/cli/latest/reference/timestream-write/index.html)

**Topics**
+ [Scaricamento e configurazione di AWS CLI](#Tools.CLI.DownloadingAndRunning)
+ [Utilizzo di con Timestream per AWS CLI LiveAnalytics](#Tools.CLI.UsingWithQLDB)

## Scaricamento e configurazione di AWS CLI
<a name="Tools.CLI.DownloadingAndRunning"></a>

 AWS CLI Funziona su Windows, macOS o Linux. Per scaricarlo, installarlo e configurarlo, procedi nel seguente modo:

1. Scaricala AWS CLI da [http://aws.amazon.com/cli](https://aws.amazon.com/cli).

1. *Segui le istruzioni per l'[installazione della AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/installing.html) e la [configurazione della AWS CLI nella Guida](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) per l'utente.AWS Command Line Interface *

## Utilizzo di con Timestream per AWS CLI LiveAnalytics
<a name="Tools.CLI.UsingWithQLDB"></a>

Il formato della riga di comando è costituito da un Amazon Timestream LiveAnalytics per il nome dell'operazione, seguito dai parametri per tale operazione. AWS CLI Supporta una sintassi abbreviata per i valori dei parametri, oltre a JSON.

 Usa `help` per elencare tutti i comandi disponibili in Timestream per. LiveAnalytics Esempio: 

```
aws timestream-write help
```

```
aws timestream-query help
```

 Puoi anche usare `help` per descrivere un comando specifico e saperne di più sul suo utilizzo: 

```
aws timestream-write create-database help
```

 Ad esempio, per creare un database: 

```
aws timestream-write create-database --database-name myFirstDatabase
```

 Per creare una tabella con le scritture magnetiche abilitate: 

```
aws timestream-write create-table \
--database-name metricsdb \
--table-name metrics \
--magnetic-store-write-properties "{\"EnableMagneticStoreWrites\": true}"
```

Per scrivere dati utilizzando record a misura singola:

```
aws timestream-write write-records \
--database-name metricsdb \
--table-name metrics \
--common-attributes "{\"Dimensions\":[{\"Name\":\"asset_id\", \"Value\":\"100\"}], \"Time\":\"1631051324000\",\"TimeUnit\":\"MILLISECONDS\"}" \
--records "[{\"MeasureName\":\"temperature\", \"MeasureValueType\":\"DOUBLE\",\"MeasureValue\":\"30\"},{\"MeasureName\":\"windspeed\", \"MeasureValueType\":\"DOUBLE\",\"MeasureValue\":\"7\"},{\"MeasureName\":\"humidity\", \"MeasureValueType\":\"DOUBLE\",\"MeasureValue\":\"15\"},{\"MeasureName\":\"brightness\", \"MeasureValueType\":\"DOUBLE\",\"MeasureValue\":\"17\"}]"
```

Per scrivere dati utilizzando record a più misure:

```
# wide model helper method to create Multi-measure records
function ingest_multi_measure_records {
  epoch=`date +%s`
  epoch+=$i

  # multi-measure records
  aws timestream-write write-records \
  --database-name $src_db_wide \
  --table-name $src_tbl_wide \
  --common-attributes "{\"Dimensions\":[{\"Name\":\"device_id\", \
              \"Value\":\"12345678\"},\
            {\"Name\":\"device_type\", \"Value\":\"iPhone\"}, \
            {\"Name\":\"os_version\", \"Value\":\"14.8\"}, \
            {\"Name\":\"region\", \"Value\":\"us-east-1\"} ], \
            \"Time\":\"$epoch\",\"TimeUnit\":\"MILLISECONDS\"}" \
--records "[{\"MeasureName\":\"video_metrics\", \"MeasureValueType\":\"MULTI\", \
  \"MeasureValues\": \
  [{\"Name\":\"video_startup_time\",\"Value\":\"0\",\"Type\":\"BIGINT\"}, \
  {\"Name\":\"rebuffering_ratio\",\"Value\":\"0.5\",\"Type\":\"DOUBLE\"}, \
  {\"Name\":\"video_playback_failures\",\"Value\":\"0\",\"Type\":\"BIGINT\"}, \
  {\"Name\":\"average_frame_rate\",\"Value\":\"0.5\",\"Type\":\"DOUBLE\"}]}]" \
--endpoint-url $ingest_endpoint \
  --region  $region
}

# create 5 records
for i in {100..105};
  do ingest_multi_measure_records $i;
done
```

Esecuzione di query su una tabella: 

```
aws timestream-query query \
--query-string "SELECT time, device_id, device_type, os_version, 
region, video_startup_time, rebuffering_ratio, video_playback_failures, \
average_frame_rate \
FROM metricsdb.metrics \
where time >= ago (15m)"
```

Per creare un'interrogazione pianificata: 

```
aws timestream-query create-scheduled-query \
  --name scheduled_query_name \
  --query-string "select bin(time, 1m) as time, \
          avg(measure_value::double) as avg_cpu, min(measure_value::double) as min_cpu, region \
          from $src_db.$src_tbl where measure_name = 'cpu' \
          and time BETWEEN @scheduled_runtime - (interval '5' minute)  AND @scheduled_runtime \
          group by region, bin(time, 1m)" \
  --schedule-configuration "{\"ScheduleExpression\":\"$cron_exp\"}" \
  --notification-configuration "{\"SnsConfiguration\":{\"TopicArn\":\"$sns_topic_arn\"}}" \
  --scheduled-query-execution-role-arn "arn:aws:iam::452360119086:role/TimestreamSQExecutionRole" \
  --target-configuration "{\"TimestreamConfiguration\":{\
          \"DatabaseName\": \"$dest_db\",\
          \"TableName\": \"$dest_tbl\",\
          \"TimeColumn\":\"time\",\
          \"DimensionMappings\":[{\
            \"Name\": \"region\", \"DimensionValueType\": \"VARCHAR\"
          }],\
          \"MultiMeasureMappings\":{\
            \"TargetMultiMeasureName\": \"mma_name\",
            \"MultiMeasureAttributeMappings\":[{\
              \"SourceColumn\": \"avg_cpu\", \"MeasureValueType\": \"DOUBLE\", \"TargetMultiMeasureAttributeName\": \"target_avg_cpu\"
            },\
            { \
              \"SourceColumn\": \"min_cpu\", \"MeasureValueType\": \"DOUBLE\", \"TargetMultiMeasureAttributeName\": \"target_min_cpu\"
            }] \
          }\
          }}" \
  --error-report-configuration "{\"S3Configuration\": {\
        \"BucketName\": \"$s3_err_bucket\",\
        \"ObjectKeyPrefix\": \"scherrors\",\
        \"EncryptionOption\": \"SSE_S3\"\
        }\
      }"
```