Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Buat pekerjaan inferensi batch
Setelah menyiapkan bucket Amazon S3 dengan file untuk menjalankan inferensi model, Anda dapat membuat pekerjaan inferensi batch. Sebelum Anda mulai, periksa apakah Anda mengatur file sesuai dengan instruksi yang dijelaskan dalamFormat dan unggah data inferensi batch Anda.
catatan
Untuk mengirimkan pekerjaan inferensi batch menggunakan VPC, Anda harus menggunakan API. Pilih tab API untuk mempelajari cara menyertakan konfigurasi VPC.
Untuk mempelajari cara membuat pekerjaan inferensi batch, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
- Console
-
Untuk membuat pekerjaan inferensi batch
-
Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di. https://console.aws.amazon.com/bedrock/
-
Dari panel navigasi kiri, pilih Inferensi Batch.
-
Di bagian pekerjaan inferensi Batch, pilih Buat pekerjaan.
-
Di bagian Job details, berikan nama Job pada pekerjaan inferensi batch dan pilih model yang akan digunakan untuk pekerjaan inferensi batch dengan memilih Select model.
-
Di bagian Input data, pilih Browse S3 dan pilih lokasi S3 untuk pekerjaan inferensi batch Anda. Inferensi Batch memproses semua JSONL dan file konten yang menyertainya di lokasi S3 itu, apakah lokasinya adalah folder S3 atau satu file JSONL.
catatan
Jika data masukan ada di bucket S3 milik akun yang berbeda dari akun tempat Anda mengirimkan pekerjaan, Anda harus menggunakan API untuk mengirimkan pekerjaan inferensi batch. Untuk mempelajari cara melakukannya, pilih tab API di atas.
-
Di bagian Output data, pilih Browse S3 dan pilih lokasi S3 untuk menyimpan file output dari pekerjaan inferensi batch Anda. Secara default, data output akan dienkripsi oleh file. Kunci yang dikelola AWS Untuk memilih kunci KMS kustom, pilih Sesuaikan pengaturan enkripsi (lanjutan) dan pilih kunci. Untuk informasi selengkapnya tentang enkripsi sumber daya Amazon Bedrock dan menyiapkan kunci KMS kustom, lihat. Enkripsi data
catatan
Jika Anda berencana untuk menulis data keluaran ke bucket S3 yang termasuk dalam akun berbeda dari akun tempat Anda mengirimkan pekerjaan, Anda harus menggunakan API untuk mengirimkan pekerjaan inferensi batch. Untuk mempelajari cara melakukannya, pilih tab API di atas.
-
Di bagian Akses layanan, pilih salah satu opsi berikut:
-
Gunakan peran layanan yang ada — Pilih peran layanan dari daftar drop-down. Untuk informasi selengkapnya tentang menyiapkan peran kustom dengan izin yang sesuai, lihatIzin yang diperlukan untuk inferensi batch.
-
Membuat dan menggunakan peran layanan baru — Masukkan nama untuk peran layanan.
-
-
(Opsional) Untuk mengaitkan tag dengan pekerjaan inferensi batch, perluas bagian Tag dan tambahkan kunci dan nilai opsional untuk setiap tag. Untuk informasi selengkapnya, lihat Menandai sumber daya Amazon Bedrock.
-
Pilih Buat pekerjaan inferensi batch.
-
- API
-
Untuk membuat pekerjaan inferensi batch, kirim CreateModelInvocationJobpermintaan dengan titik akhir bidang kontrol Amazon Bedrock.
Bidang berikut diperlukan:
Bidang Kasus penggunaan jobName Untuk menentukan nama untuk pekerjaan itu. roleArn Untuk menentukan Nama Sumber Daya Amazon (ARN) peran layanan dengan izin untuk membuat dan mengelola pekerjaan. Untuk informasi selengkapnya, lihat Buat peran layanan khusus untuk inferensi batch. modelId Untuk menentukan ID atau ARN model yang akan digunakan dalam inferensi. inputDataConfig Untuk menentukan lokasi S3 yang berisi data input. Inferensi Batch memproses semua JSONL dan file konten yang menyertainya di lokasi S3 itu, apakah lokasinya adalah folder S3 atau satu file JSONL. Untuk informasi selengkapnya, lihat Format dan unggah data inferensi batch Anda. outputDataConfig Untuk menentukan lokasi S3 untuk menulis tanggapan model ke. Bidang berikut adalah opsional:
Bidang Kasus penggunaan timeoutDurationInJam Untuk menentukan durasi dalam jam setelah itu pekerjaan akan habis. tag Untuk menentukan tag apa pun untuk dikaitkan dengan pekerjaan. Untuk informasi selengkapnya, lihat Menandai sumber daya Amazon Bedrock. vpcConfig Untuk menentukan konfigurasi VPC yang akan digunakan untuk melindungi data Anda selama pekerjaan. Untuk informasi selengkapnya, lihat Lindungi pekerjaan inferensi batch menggunakan VPC. clientRequestToken Untuk memastikan permintaan API selesai hanya sekali. Untuk informasi selengkapnya, lihat Memastikan idempotensi. Respons menampilkan sebuah
jobArn
yang dapat Anda gunakan untuk merujuk ke pekerjaan saat melakukan panggilan API terkait inferensi batch lainnya.