

Amazon Timestream for LiveAnalytics に類似した機能をご希望の場合は Amazon Timestream for InfluxDB をご検討ください。リアルタイム分析に適した、シンプルなデータインジェストと 1 桁ミリ秒のクエリ応答時間を特徴としています。詳細については、[こちら](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)を参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Amazon SageMaker ノートブックを使用して、機械学習モデルを Amazon Timestream と統合できます。この処理を開始しやすいように、Timestream からのデータを処理するサンプル SageMaker ノートブックを作成しました。データは、マルチスレッド Python アプリケーションから Timestream に挿入され、継続的に送信されます。サンプル SageMaker ノートブックとサンプル Python アプリケーションのソースコードは、GitHub で入手できます。

1. 「[データベースを作成する](console_timestream.md#console_timestream.db.using-console)」および「[テーブルを作成する](console_timestream.md#console_timestream.table.using-console)」で説明されている手順に従って、データベースとテーブルを作成します。

1. [GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) の手順に従って、[マルチスレッド Python サンプルアプリケーション](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor)向けの GitHub リポジトリのクローンを作成します。

1. [サンプル Timestream SageMaker ノートブック](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker)向けの GitHub リポジトリのクローンを、[GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) の手順に従って作成します。

1. [README](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md) の指示に従って、Timestream にデータを継続的に取り込むアプリケーションを実行します。

1. [こちら](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html)で説明されているように、手順に従って Amazon SageMaker 用の Amazon S3 バケットを作成します。

1. 最新の boto3 がインストールされた Amazon SageMaker インスタンスを作成します。[こちら](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html)で説明されている手順に加えて、以下の手順に従います。

   1. **[ノートブックの作成]** インスタンスページで、**[追加設定]** をクリックします。

   1. **[ライフサイクル設定 – *オプション*]** をクリックし、**[新しいライフサイクル設定の作成]** を選択します。

   1. *[ライフサイクル設定の作成]* ウィザードボックスで、次の操作を行います。

      1. 設定に対して任意の名前を入力します (例: `on-start`)。

      1. [ノートブックの開始] スクリプトで、スクリプトコンテンツを [GitHub](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh) からコピーして貼り付けます。

      1. 貼り付けたスクリプトで、`PACKAGE=scipy` を `PACKAGE=boto3` に置き換えます。

1. **[設定の作成]** をクリックします。

1. AWS マネジメントコンソールの IAM サービスに移動し、ノートブックインスタンス用に新しく作成された SageMaker 実行ロールを見つけます。

1. `AmazonTimestreamFullAccess` の IAM ポリシーを実行ロールにアタッチします。
**注記**  
`AmazonTimestreamFullAccess` IAM ポリシーは特定のリソースに限定されず、本番環境での使用には適していません。本番稼働システムについては、特定のリソースへのアクセスを制限するポリシーの使用を検討してください。

1. ノートブックインスタンスのステータスが **[InService]** の場合、**[Jupyter を開く]** を選択し、インスタンスの SageMaker ノートブックを起動します。

1.  **[アップロード]** ボタンを選択して、ファイル `timestreamquery.py` と `Timestream_SageMaker_Demo.ipynb` をノートブックにアップロードします。

1. [] を選択する`Timestream_SageMaker_Demo.ipynb`
**注記**  
**[カーネルが見つかりません]** というポップアップが表示された場合は、**conda\$1python3** を選択し、**[カーネルを設定]** をクリックします。

1. `DB_NAME`、`TABLE_NAME`、`bucket`、および `ENDPOINT` を変更して、トレーニングモデルのデータベース名、テーブル名、S3 バケット名、リージョンと一致させます。

1. **再生**アイコンを選択して個々のセルを実行します。

1. セル `Leverage Timestream to find hosts with average CPU utilization across the fleet` に達したら、出力が少なくとも 2 つのホスト名を返すことを確認します。
**注記**  
出力のホスト名が 2 つ未満の場合、状況によっては、より多くのスレッドとホストスケールで Timestream にデータを取り込むサンプル Python アプリケーションを再実行する必要があります。

1. セル `Train a Random Cut Forest (RCF) model using the CPU utilization history` に移動したら、トレーニングジョブのリソース要件に基づいて `train_instance_type` を変更します。

1. セル `Deploy the model for inference` に移動したら、推論ジョブのリソース要件に基づいて `instance_type` を変更します。
**注記**  
モデルのトレーニングには数分かかる場合があります。トレーニングが完了すると、セルの出力に **Completed – Training job completed** というメッセージが表示されます。

1. セル `Stop and delete the endpoint` を実行してリソースをクリーンアップします。SageMaker コンソールからインスタンスを停止および削除することもできます。