

Para recursos semelhantes aos do Amazon Timestream para, considere o Amazon Timestream LiveAnalytics para InfluxDB. Ele oferece ingestão de dados simplificada e tempos de resposta de consulta de um dígito em milissegundos para análises em tempo real. Saiba mais [aqui](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Você pode usar os notebooks do Amazon SageMaker para integrar seus modelos de machine learning com o Amazon Timestream. Para ajudar você a começar, nós criamos um exemplo do SageMaker Notebook que processa os dados do Timestream. Os dados são inseridos no Timestream a partir de um aplicativo Python multiencadeado que envia dados continuamente. O código-fonte do exemplo do SageMaker Notebook e do aplicativo Python de amostra está disponível no GitHub. 

1. Crie um banco de dados e uma tabela seguindo as instruções descritas em [Criar um banco de dados](console_timestream.md#console_timestream.db.using-console) e [Criar uma tabela](console_timestream.md#console_timestream.table.using-console). 

1. Clone o repositório do GitHub para o [aplicativo de amostra Python](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor) com vários segmentos seguindo as instruções do [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository).

1. Clone o repositório do GitHub para a [amostra do Timestream SageMaker Notebook](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker) seguindo as instruções do [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository). 

1. Execute o aplicativo para ingerir dados continuamente no Timestream seguindo as instruções no [README](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md).

1. Siga as instruções para criar um bucket do Amazon S3 para o Amazon SageMaker conforme descrito [aqui](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html).

1. Crie uma instância do Amazon SageMaker com o boto3 mais recente instalado: além das instruções descritas [aqui](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html), siga as etapas abaixo: 

   1. Na página **Criar instância do notebook**, clique em **Configuração adicional**

   1. Clique em **Configuração do ciclo de vida - *opcional*** e selecione **Criar uma nova configuração do ciclo de vida**

   1. Na caixa do assistente *Criar configuração do ciclo de vida*, faça o seguinte:

      1. Preencha o nome desejado para a configuração, por exemplo `on-start`

      1. Em Iniciar script do notebook, copie e cole o conteúdo do script do [ Github](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh) 

      1. Substitua `PACKAGE=scipy` por `PACKAGE=boto3` no script colado.

1. Clique em **Criar configuração**.

1. Acesse o serviço IAM no console de gerenciamento AWS e encontre a função de execução recém-criada do SageMaker para a instância do notebook.

1. Anexar a política do IAM para `AmazonTimestreamFullAccess` à execução.
**nota**  
A política do IAM `AmazonTimestreamFullAccess` não está restrita a recursos específicos e não é adequada para uso em produção. Para um sistema de produção, pense em adotar políticas que limitem o acesso a determinados recursos.

1. Quando o status da instância do notebook for **InService**, escolha a ação **Open Jupyter** para sua instância de notebook SageMaker.

1.  Faça upload dos arquivos `timestreamquery.py` e `Timestream_SageMaker_Demo.ipynb` para o notebook selecionando o botão **Carregar**

1. Selecione `Timestream_SageMaker_Demo.ipynb`
**nota**  
Se você ver um pop-up com **Kernel não encontrado**, escolha **conda\$1python3** e clique em **Definir Kernel**.

1. Modifique `DB_NAME`, `TABLE_NAME`,`bucket`, e `ENDPOINT` para corresponder ao nome do banco de dados, nome da tabela, nome do bucket do S3 e região dos modelos de treinamento.

1. Escolha o ícone de **reprodução** para executar as células individuais

1. Ao chegar à célula `Leverage Timestream to find hosts with average CPU utilization across the fleet`, certifique-se de que a saída retorne pelo menos dois nomes de host.
**nota**  
Se houver menos de dois nomes de host na saída, talvez seja necessário executar novamente o aplicativo Python de amostra que ingere dados no Timestream com um número maior de threads e escala de host. 

1. Ao chegar à célula `Train a Random Cut Forest (RCF) model using the CPU utilization history`, altere o `train_instance_type` com base nos requisitos de recursos para sua tarefa de treinamento

1. Ao chegar à célula `Deploy the model for inference`, altere a `instance_type` com base nos requisitos de recursos para seu trabalho de inferência
**nota**  
Pode levar alguns minutos para treinar o modelo. Quando o treinamento for concluído, você verá a mensagem **Concluído - Tarefa de treinamento concluída** na saída da célula.

1. Execute a célula `Stop and delete the endpoint` para limpar os recursos. Você também pode parar e excluir a instância do console do SageMaker.