

Für ähnliche Funktionen wie Amazon Timestream für sollten Sie Amazon Timestream for LiveAnalytics InfluxDB in Betracht ziehen. Es bietet eine vereinfachte Datenaufnahme und Antwortzeiten im einstelligen Millisekundenbereich für Analysen in Echtzeit. [Erfahren](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) Sie hier mehr.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon SageMaker KI
<a name="Sagemaker"></a>

 Sie können Amazon SageMaker Notebooks verwenden, um Ihre Machine-Learning-Modelle in Amazon Timestream zu integrieren. Um Ihnen den Einstieg zu erleichtern, haben wir ein SageMaker Beispiel-Notebook erstellt, das Daten aus Timestream verarbeitet. Die Daten werden von einer Python-Anwendung mit mehreren Threads in Timestream eingefügt, die kontinuierlich Daten sendet. Der Quellcode für das SageMaker Beispiel-Notebook und die Python-Beispielanwendung sind verfügbar in GitHub. 

1. Erstellen Sie eine Datenbank und eine Tabelle gemäß den unter [Erstellen einer -Datenbank](console_timestream.md#console_timestream.db.using-console) und beschriebenen Anweisungen[Erstellen einer Tabelle](console_timestream.md#console_timestream.table.using-console). 

1. Klonen Sie das GitHub Repository für die [Python-Beispielanwendung mit mehreren Threads](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor) gemäß den Anweisungen von [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository).

1. Klonen Sie das GitHub Repository für das [ SageMaker Timestream-Beispiel-Notebook](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker) gemäß den Anweisungen von. [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) 

1. [Führen Sie die Anwendung zur kontinuierlichen Aufnahme von Daten in Timestream aus, indem Sie den Anweisungen in der README-Datei folgen.](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md)

1. Folgen Sie den Anweisungen, um einen Amazon S3 S3-Bucket für Amazon zu erstellen, SageMaker wie [hier](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html) beschrieben.

1. Erstellen Sie eine SageMaker Amazon-Instance mit der neuesten Version von boto3: Gehen Sie zusätzlich zu den [hier](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html) beschriebenen Anweisungen wie folgt vor: 

   1. **Klicken Sie auf der Seite **Notebook-Instance erstellen** auf Zusätzliche Konfiguration**

   1. Klicken Sie auf **Lifecycle-Konfiguration — *optional*** und wählen Sie **Neue Lebenszykluskonfiguration erstellen**

   1. Gehen *Sie im Feld Assistent zum Erstellen einer Lebenszykluskonfiguration* wie folgt vor:

      1. Geben Sie einen gewünschten Namen für die Konfiguration ein, z. B. `on-start`

      1. [Kopieren Sie unter Notebook-Skript starten den Skriptinhalt von Github und fügen Sie ihn ein](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh) 

      1. Ersetzen Sie `PACKAGE=scipy` durch `PACKAGE=boto3` im eingefügten Skript.

1. Klicken Sie auf Konfiguration **erstellen**

1. Gehen Sie in der AWS Management Console zum IAM-Dienst und suchen Sie nach der neu erstellten SageMaker Ausführungsrolle für die Notebook-Instanz.

1. Hängen Sie die IAM-Richtlinie für `AmazonTimestreamFullAccess` an die Ausführungsrolle an.
**Anmerkung**  
Die `AmazonTimestreamFullAccess` IAM-Richtlinie ist nicht auf bestimmte Ressourcen beschränkt und für den Produktionseinsatz ungeeignet. Erwägen Sie für ein Produktionssystem die Verwendung von Richtlinien, die den Zugriff auf bestimmte Ressourcen einschränken.

1. Wenn der Status der Notebook-Instanz lautet **InService**, wählen Sie **Open Jupyter**, um ein SageMaker Notebook für die Instance zu starten

1.  **Laden Sie die Dateien hoch `timestreamquery.py` und `Timestream_SageMaker_Demo.ipynb` in das Notebook, indem Sie auf die Schaltfläche Hochladen klicken**

1. Wählen Sie `Timestream_SageMaker_Demo.ipynb` aus.
**Anmerkung**  
**Wenn Sie ein Popup-Fenster mit der Meldung „**Kernel nicht gefunden**“ sehen, wählen Sie **conda\$1python3** und klicken Sie auf Kernel festlegen.**

1. Ändern Sie`DB_NAME`,`TABLE_NAME`, und so`bucket`, `ENDPOINT` dass sie dem Datenbanknamen, dem Tabellennamen, dem S3-Bucket-Namen und der Region für die Trainingsmodelle entsprechen.

1. Wählen Sie das **Play-Symbol**, um die einzelnen Zellen auszuführen

1. Wenn Sie zu der Zelle gelangen`Leverage Timestream to find hosts with average CPU utilization across the fleet`, stellen Sie sicher, dass die Ausgabe mindestens 2 Hostnamen zurückgibt.
**Anmerkung**  
Wenn die Ausgabe weniger als 2 Hostnamen enthält, müssen Sie möglicherweise die Python-Beispielanwendung erneut ausführen, die Daten mit einer größeren Anzahl von Threads und auf Host-Skala in Timestream aufnimmt. 

1. Wenn Sie zu der Zelle kommen`Train a Random Cut Forest (RCF) model using the CPU utilization history`, ändern Sie sie `train_instance_type` je nach den Ressourcenanforderungen für Ihre Ausbildungsstelle

1. Wenn Sie zu der Zelle gelangen`Deploy the model for inference`, ändern Sie die `instance_type` anhand des Ressourcenbedarfs für Ihren Inferenzjob
**Anmerkung**  
Das Trainieren des Modells kann einige Minuten dauern. Wenn das Training abgeschlossen ist, wird in der Ausgabe der Zelle die Meldung Abgeschlossen **— Trainingsjob abgeschlossen** angezeigt.

1. Führen Sie die Zelle aus`Stop and delete the endpoint`, um die Ressourcen zu bereinigen. Sie können die Instanz auch von der SageMaker Konsole aus beenden und löschen