

Para obtener capacidades similares a las de Amazon Timestream, considere Amazon Timestream LiveAnalytics para InfluxDB. Ofrece una ingesta de datos simplificada y tiempos de respuesta a las consultas en milisegundos de un solo dígito para realizar análisis en tiempo real. Obtenga más información [aquí](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Puede utilizar los blocs de notas de Amazon SageMaker para integrar los modelos de machine learning con Amazon Timestream. Para empezar, creamos un ejemplo de bloc de notas de SageMaker que procesa los datos de Timestream. Los datos se insertan en Timestream desde una aplicación Python de subprocesos múltiples que envía datos de manera continua. El código de origen del ejemplo del bloc de notas de SageMaker y de la aplicación Python de ejemplo están disponibles en GitHub. 

1. Cree una base de datos y una tabla según las instrucciones descritas en [Creación de una base de datos de](console_timestream.md#console_timestream.db.using-console) y [Creación de una tabla](console_timestream.md#console_timestream.table.using-console). 

1. Clone el repositorio de GitHub para la [aplicación de muestra de Python de subprocesos múltiples](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor) según las instrucciones de [GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository).

1. Clone el repositorio de GitHubv para el [bloc de notas de muestra de SageMaker de Timestream](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker) según las instrucciones de [GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository). 

1. Ejecute la aplicación para incorporar datos de manera continua a Timestream según las instrucciones del archivo [README](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md).

1. Siga las instrucciones para crear un bucket de Amazon S3 para Amazon SageMaker como se describe [aquí](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html).

1. Cree una instancia de Amazon SageMaker con la última versión de boto3 instalada: además de las instrucciones que se describen [aquí](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html), siga los pasos que se indican a continuación: 

   1. En la página de la instancia **Crear un bloc de notas**, haga clic en **Configuración adicional**.

   1. Haga clic en **Configuración del ciclo de vida: *(opcional)*** y seleccione **Crear una nueva configuración del ciclo de vida**.

   1. En el cuadro asistente *Crear la configuración del ciclo de vida*, realice lo siguiente:

      1. Ingrese el nombre que desee en la configuración, por ejemplo, `on-start`.

      1. En el script del bloc de notas de Start, copie y pegue el contenido del script de [Github](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh). 

      1. Reemplace `PACKAGE=scipy` con `PACKAGE=boto3` en el script que pegó.

1. Haga clic en **Crear configuración**.

1. Diríjase al servicio de IAM en la consola de administración de AWS y busque el rol de ejecución de SageMaker recién creado para la instancia del bloc de notas.

1. Asocie la política de IAM para `AmazonTimestreamFullAccess` al rol de ejecución.
**nota**  
La política de IAM de `AmazonTimestreamFullAccess` no se limita a recursos específicos y no es adecuada para su uso en producción. En el caso de un sistema de producción, considere la posibilidad de utilizar políticas que limiten el acceso a recursos específicos.

1. Cuando el estado de la instancia del bloc de notas sea **InService**, elija **Abrir Jupyter** para iniciar un bloc de notas de SageMaker para la instancia.

1.  Cargue los archivos `timestreamquery.py` y `Timestream_SageMaker_Demo.ipynb` en el bloc de notas con el botón **Cargar**.

1. Elegir `Timestream_SageMaker_Demo.ipynb`
**nota**  
Si aparece una ventana emergente que indica que **no se encontró Kernel**, elija **conda\$1python3** y haga clic en **Establecer Kernel**.

1. Modifique `DB_NAME`, `TABLE_NAME`, `bucket` y `ENDPOINT` para que coincidan el nombre de la base de datos, el nombre de la tabla, el nombre del bucket de S3 y la región de los modelos de entrenamiento.

1. Elija el icono de **reproducir** para ejecutar las celdas individuales

1. Cuando llegue a la celda `Leverage Timestream to find hosts with average CPU utilization across the fleet`, asegúrese de que el resultado muestre al menos 2 nombres de host.
**nota**  
Si hay menos de 2 nombres de host en el resultado, es posible que deba volver a ejecutar la aplicación Python de ejemplo que ingiere datos en Timestream con una cantidad mayor de subprocesos y a escala de host. 

1. Cuando llegue a la celda `Train a Random Cut Forest (RCF) model using the CPU utilization history`, cambie `train_instance_type` según los requisitos de los recursos para el trabajo de entrenamiento.

1. Cuando llegue a la celda `Deploy the model for inference`, cambie `instance_type` según los requisitos de los recursos para el trabajo de interfaz.
**nota**  
El entrenamiento del modelo puede demorar unos minutos. Cuando se complete el entrenamiento, verá el mensaje **Completado: se completó el trabajo de entrenamiento** en el resultado de la celda.

1. Ejecute la celda `Stop and delete the endpoint` para limpiar los recursos. También puede detener y eliminar la instancia de la consola de SageMaker.