

Per funzionalità simili a Amazon Timestream for, prendi in considerazione Amazon Timestream LiveAnalytics per InfluxDB. Offre un'acquisizione semplificata dei dati e tempi di risposta alle query di una sola cifra di millisecondi per analisi in tempo reale. [Scopri](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) di più qui.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Puoi usare Amazon SageMaker Notebooks per integrare i tuoi modelli di machine learning con Amazon Timestream. Per aiutarti a iniziare, abbiamo creato un esempio di SageMaker Notebook che elabora i dati di Timestream. I dati vengono inseriti in Timestream da un'applicazione Python multithread che invia continuamente dati. Il codice sorgente per l'esempio SageMaker Notebook e l'applicazione Python di esempio sono disponibili in. GitHub 

1. Create un database e una tabella seguendo le istruzioni descritte in [Creazione di un database](console_timestream.md#console_timestream.db.using-console) and[Creare una tabella](console_timestream.md#console_timestream.table.using-console). 

1. Clona il GitHub repository per l'applicazione di [esempio Python multithread](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor) seguendo le istruzioni di. [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository)

1. Clona il GitHub repository per il Timestream Notebook di [esempio seguendo le istruzioni di](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker). SageMaker [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) 

1. [Esegui l'applicazione per l'inserimento continuo di dati in Timestream seguendo le istruzioni nel README.](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md)

1. [Segui le istruzioni per creare un bucket Amazon S3 per Amazon SageMaker come descritto qui.](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html)

1. Crea un' SageMaker istanza Amazon con l'ultima versione di boto3 installata: oltre alle istruzioni descritte [qui](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html), segui i passaggi seguenti: 

   1. **Nella pagina **Crea un'istanza notebook**, fai clic su Configurazione aggiuntiva**

   1. Fai clic su **Configurazione del ciclo di vita *(opzionale)*** e seleziona **Crea una nuova** configurazione del ciclo di vita

   1. Nella casella *Create lifecycle configuration* wizard, effettuate le seguenti operazioni:

      1. Inserisci il nome desiderato per la configurazione, ad es. `on-start`

      1. [Nello script Start Notebook, copia e incolla il contenuto dello script da Github](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh) 

      1. Sostituisci `PACKAGE=scipy` con `PACKAGE=boto3` nello script incollato.

1. Fai clic su **Crea configurazione**

1. Vai al servizio IAM nella console di AWS gestione e trova il ruolo di SageMaker esecuzione appena creato per l'istanza del notebook.

1. Allega la policy IAM for `AmazonTimestreamFullAccess` al ruolo di esecuzione.
**Nota**  
La policy `AmazonTimestreamFullAccess` IAM non è limitata a risorse specifiche e non è adatta all'uso in produzione. Per un sistema di produzione, prendi in considerazione l'utilizzo di politiche che limitano l'accesso a risorse specifiche.

1. Quando lo stato dell'istanza del notebook è **InService**, scegli **Open Jupyter** per avviare un SageMaker Notebook per l'istanza

1.  **Carica i file `timestreamquery.py` e `Timestream_SageMaker_Demo.ipynb` inseriscili nel Notebook selezionando il pulsante Carica**

1. Scegliere `Timestream_SageMaker_Demo.ipynb`
**Nota**  
**Se vedi un pop-up con **Kernel not found**, scegli **conda\$1python3** e fai clic su Set Kernel.**

1. Modifica`DB_NAME`, `TABLE_NAME``bucket`, e in modo che corrispondano al nome del database, `ENDPOINT` al nome della tabella, al nome del bucket S3 e alla regione per i modelli di addestramento.

1. Scegli l'icona di **riproduzione** per eseguire le singole celle

1. Quando arrivi alla cella`Leverage Timestream to find hosts with average CPU utilization across the fleet`, assicurati che l'output restituisca almeno 2 nomi host.
**Nota**  
Se nell'output sono presenti meno di 2 nomi host, potrebbe essere necessario rieseguire l'applicazione Python di esempio che inserisce i dati in Timestream con un numero maggiore di thread e su scala host. 

1. Quando arrivate alla cella, modificatela in base alle risorse richieste per il vostro `Train a Random Cut Forest (RCF) model using the CPU utilization history` lavoro di formazione `train_instance_type`

1. Quando arrivi alla cella`Deploy the model for inference`, modificala in `instance_type` base ai requisiti di risorse per il tuo lavoro di inferenza
**Nota**  
Potrebbero essere necessari alcuni minuti per addestrare il modello. Al termine dell'addestramento, nell'output della cella verrà visualizzato il messaggio **Completato - Training job completato**.

1. Esegui la cella `Stop and delete the endpoint` per ripulire le risorse. Puoi anche interrompere ed eliminare l'istanza dalla SageMaker console