

Untuk kemampuan serupa dengan Amazon Timestream LiveAnalytics, pertimbangkan Amazon Timestream untuk InfluxDB. Ini menawarkan konsumsi data yang disederhanakan dan waktu respons kueri milidetik satu digit untuk analitik waktu nyata. Pelajari lebih lanjut [di sini](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Anda dapat menggunakan SageMaker Notebook Amazon untuk mengintegrasikan model pembelajaran mesin Anda dengan Amazon Timestream. Untuk membantu Anda memulai, kami telah membuat contoh SageMaker Notebook yang memproses data dari Timestream. Data dimasukkan ke Timestream dari aplikasi Python multi-threaded yang terus mengirim data. Kode sumber untuk SageMaker Notebook sampel dan contoh aplikasi Python tersedia di. GitHub 

1. Buat database dan tabel mengikuti petunjuk yang dijelaskan dalam [Buat database](console_timestream.md#console_timestream.db.using-console) dan[Membuat tabel](console_timestream.md#console_timestream.table.using-console). 

1. Kloning GitHub repositori untuk aplikasi sampel [Python multi-threaded mengikuti instruksi](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor) dari. [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository)

1. Kloning GitHub repositori untuk [contoh Timestream SageMaker Notebook mengikuti instruksi](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker) dari. [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) 

1. [Jalankan aplikasi untuk terus menelan data ke Timestream mengikuti instruksi di README.](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md)

1. [Ikuti petunjuk untuk membuat bucket Amazon S3 untuk Amazon SageMaker seperti yang dijelaskan di sini.](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html)

1. Buat SageMaker instance Amazon dengan boto3 terbaru yang diinstal: Selain petunjuk yang dijelaskan di [sini](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html), ikuti langkah-langkah di bawah ini: 

   1. Pada halaman **Create notebook** instance, klik pada **Additional Configuration**

   1. Klik pada **konfigurasi Siklus Hidup - *opsional*** dan pilih **Buat konfigurasi siklus hidup baru**

   1. Pada kotak *Create lifecycle configuration* wizard, lakukan hal berikut:

      1. Isi nama yang diinginkan ke konfigurasi, mis. `on-start`

      1. [Di skrip Start Notebook, salin-tempel konten skrip dari Github](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh) 

      1. Ganti `PACKAGE=scipy` dengan `PACKAGE=boto3` skrip yang disisipkan.

1. Klik **Buat konfigurasi**

1. Buka layanan IAM di AWS Management Console dan temukan peran SageMaker eksekusi yang baru dibuat untuk instance notebook.

1. Lampirkan kebijakan IAM `AmazonTimestreamFullAccess` untuk peran eksekusi.
**catatan**  
Kebijakan `AmazonTimestreamFullAccess` IAM tidak terbatas pada sumber daya tertentu dan tidak cocok untuk penggunaan produksi. Untuk sistem produksi, pertimbangkan untuk menggunakan kebijakan yang membatasi akses ke sumber daya tertentu.

1. Ketika status instance notebook **InService**, pilih **Open Jupyter** untuk meluncurkan SageMaker Notebook untuk instance

1.  Unggah file `timestreamquery.py` dan `Timestream_SageMaker_Demo.ipynb` masuk ke Notebook dengan memilih tombol **Unggah**

1. Pilih `Timestream_SageMaker_Demo.ipynb`
**catatan**  
**Jika Anda melihat pop up dengan **Kernel tidak ditemukan**, pilih **conda\$1python3** dan klik Set Kernel.**

1. Ubah `DB_NAME``TABLE_NAME`,`bucket`,, dan `ENDPOINT` untuk mencocokkan nama database, nama tabel, nama bucket S3, dan wilayah untuk model pelatihan.

1. Pilih ikon **putar** untuk menjalankan sel individual

1. Saat Anda masuk ke sel`Leverage Timestream to find hosts with average CPU utilization across the fleet`, pastikan bahwa output mengembalikan setidaknya 2 nama host.
**catatan**  
Jika ada kurang dari 2 nama host dalam output, Anda mungkin perlu menjalankan kembali contoh aplikasi Python yang menyerap data ke Timestream dengan jumlah thread dan skala host yang lebih besar. 

1. Saat Anda sampai di sel`Train a Random Cut Forest (RCF) model using the CPU utilization history`, ubah `train_instance_type` berdasarkan persyaratan sumber daya untuk pekerjaan pelatihan Anda

1. Saat Anda sampai di sel`Deploy the model for inference`, ubah `instance_type` berdasarkan persyaratan sumber daya untuk pekerjaan inferensi Anda
**catatan**  
Mungkin perlu beberapa menit untuk melatih model. Ketika pelatihan selesai, Anda akan melihat pesan **Selesai - Pekerjaan pelatihan selesai** dalam output sel.

1. Jalankan sel `Stop and delete the endpoint` untuk membersihkan sumber daya. Anda juga dapat menghentikan dan menghapus instance dari SageMaker konsol