Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Tahapan pemrosesan Neptunus ML yang berbeda menggunakan SageMaker instance AI yang berbeda. Di sini, kita membahas bagaimana memilih jenis instance yang tepat untuk setiap tahap. Anda dapat menemukan informasi tentang jenis dan harga instans SageMaker AI di Amazon SageMaker Pricing
Memilih instance untuk pemrosesan data
Langkah pemrosesan data SageMaker AI memerlukan instance pemrosesan yang memiliki memori dan penyimpanan disk yang cukup untuk data input, perantara, dan output. Jumlah memori dan penyimpanan disk tertentu yang diperlukan tergantung pada karakteristik grafik Neptune ML dan fitur yang diekspor.
Secara default, Neptunus ML memilih instance ml.r5
terkecil yang memorinya sepuluh kali lebih besar dari ukuran data grafik yang diekspor pada disk.
Memilih contoh untuk pelatihan model dan transformasi model
Memilih jenis instans yang tepat untuk pelatihan model atau transformasi model bergantung pada jenis tugas, ukuran grafik, dan persyaratan putaran Anda. Instans GPU memberikan kinerja terbaik. Kami biasanya merekomendasikan p3
dan contoh g4dn
serial. Anda juga dapat menggunakan p2
atau p4d
contoh.
Secara default, Neptunus ML memilih instans GPU terkecil dengan lebih banyak memori daripada yang dibutuhkan pelatihan model dan transformasi model. Anda dapat menemukan pilihan apa yang ada di train_instance_recommendation.json
file, di lokasi keluaran pemrosesan data Amazon S3. Berikut adalah contoh isi train_instance_recommendation.json
file:
{
"instance": "(the recommended instance type for model training and transform)
",
"cpu_instance": "(the recommended instance type for base processing instance)
",
"disk_size": "(the estimated disk space required)
",
"mem_size": "(the estimated memory required)
"
}
Memilih instance untuk titik akhir inferensi
Memilih jenis instans yang tepat untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Secara default, Neptunus ML memilih instance ml.m5d
terkecil dengan lebih banyak memori yang dibutuhkan titik akhir inferensi.
catatan
Jika lebih dari 384 GB memori diperlukan, Neptunus ML menggunakan sebuah instance. ml.r5d.24xlarge
Anda dapat melihat jenis instance apa yang direkomendasikan Neptunus ML dalam file infer_instance_recommendation.json
yang terletak di lokasi Amazon S3 yang Anda gunakan untuk pelatihan model. Berikut adalah contoh isi file itu:
{
"instance" : "(the recommended instance type for an inference endpoint)
",
"disk_size" : "(the estimated disk space required)
",
"mem_size" : "(the estimated memory required)
"
}