Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Kirim satu prompt dengan InvokeModel API operasi
Jalankan inferensi pada model melalui API dengan mengirim InvokeModelatau InvokeModelWithResponseStreampermintaan. Anda dapat menentukan jenis media untuk badan permintaan dan respons di accept
bidang contentType
dan. Nilai default untuk kedua bidang adalah application/json
jika Anda tidak menentukan nilai.
Streaming didukung untuk semua model keluaran teks kecuali AI21 Labs Jurassic-2 model. Untuk memeriksa apakah model mendukung streaming, kirim GetFoundationModelatau ListFoundationModelspermintaan dan periksa nilainya di responseStreamingSupported
bidang.
Tentukan bidang berikut, tergantung pada model yang Anda gunakan.
-
modelId
— Gunakan ID atau Nama Sumber Daya Amazon (ARN) dari model atau throughput. Metode untuk menemukan ID atau ARN tergantung pada jenis model atau throughput yang Anda gunakan:-
Model dasar - Lakukan salah satu hal berikut:
-
Untuk melihat daftar model IDs untuk semua model dasar yang didukung oleh Amazon Bedrock, lihatModel dasar Amazon Bedrock IDs (throughput sesuai permintaan) .
-
Kirim ListFoundationModelspermintaan dan temukan
modelId
ataumodelArn
model yang akan digunakan dalam respons. -
Di konsol Amazon Bedrock, pilih model di Penyedia dan temukan contoh APIpermintaan.
modelId
-
-
Profil inferensi — Lakukan salah satu hal berikut:
-
Kirim ListInferenceProfilespermintaan dan temukan
inferenceProfileArn
model yang akan digunakan dalam respons. -
Di konsol Amazon Bedrock, pilih Inferensi lintas wilayah dari panel navigasi kiri dan temukan ID atau profil inferensi di ARN bagian Profil inferensi.
-
-
Provisioned Throughput - Jika Anda telah membuat Provisioned Throughput untuk model dasar atau kustom, lakukan salah satu hal berikut:
-
Kirim ListProvisionedModelThroughputspermintaan dan temukan
provisionedModelArn
model yang akan digunakan dalam respons. -
Di konsol Amazon Bedrock, pilih Provisioned Throughput dari panel navigasi kiri dan pilih Provisioned Throughput di bagian Provisioned throughput. Kemudian, cari ID atau ARN Throughput yang Disediakan di bagian Detail model.
-
-
Model kustom — Beli Throughput yang Disediakan untuk model kustom (untuk informasi selengkapnya, lihatTingkatkan kapasitas pemanggilan model dengan Provisioned Throughput di Amazon Bedrock) dan temukan ID model atau model ARN yang disediakan.
-
-
body
— Setiap model dasar memiliki parameter inferensi sendiri yang Anda tetapkan dibody
lapangan. Parameter inferensi untuk model khusus atau yang disediakan tergantung pada model dasar dari mana ia dibuat. Untuk informasi selengkapnya, lihat Parameter permintaan inferensi dan bidang respons untuk model pondasi.
Memanggil contoh kode model
Contoh berikut menunjukkan bagaimana menjalankan inferensi dengan. InvokeModelAPI Untuk contoh dengan model yang berbeda, lihat referensi parameter inferensi untuk model yang diinginkan (Parameter permintaan inferensi dan bidang respons untuk model pondasi).
Memanggil model dengan contoh kode streaming
catatan
AWS CLI Tidak mendukung streaming.
Contoh berikut menunjukkan bagaimana menggunakan InvokeModelWithResponseStreamAPIuntuk menghasilkan teks streaming dengan Python menggunakan prompt write an essay for living on mars in 1000
words
.
import boto3 import json brt = boto3.client(service_name='bedrock-runtime') body = json.dumps({ 'prompt': '\n\nHuman: write an essay for living on mars in 1000 words\n\nAssistant:', 'max_tokens_to_sample': 4000 }) response = brt.invoke_model_with_response_stream( modelId='anthropic.claude-v2', body=body ) stream = response.get('body') if stream: for event in stream: chunk = event.get('chunk') if chunk: print(json.loads(chunk.get('bytes').decode()))