

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Kirim prompt dan hasilkan respons menggunakan API
<a name="inference-api"></a>

Amazon Bedrock menawarkan operasi API berikut untuk melakukan inferensi model:
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)— Kirim prompt dan hasilkan respons. Badan permintaan adalah model-spesifik. Untuk menghasilkan respons streaming, gunakan [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) — Kirim prompt dan hasilkan respons dengan struktur yang disatukan di semua model. Bidang permintaan khusus model dapat ditentukan di bidang. `additionalModelRequestFields` Anda juga dapat menyertakan prompt sistem dan percakapan sebelumnya untuk konteks. Untuk menghasilkan respons streaming, gunakan [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html).
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)— Kirim prompt dan hasilkan respons secara asinkron yang dapat diambil nanti. Digunakan untuk menghasilkan video.
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ OpenAIAPI penyelesaian obrolan — Gunakan API [Penyelesaian OpenAI Obrolan](https://platform.openai.com/docs/api-reference/chat/create) dengan model yang didukung oleh Amazon Bedrock untuk menghasilkan respons.

**catatan**  
Pembatasan berlaku untuk operasi berikut:`InvokeModel`,`InvokeModelWithResponseStream`,`Converse`, dan`ConverseStream`. Lihat [pembatasan API](inference-api-restrictions.md) untuk detailnya.

Untuk inferensi model, Anda perlu menentukan parameter berikut:
+ ID Model — ID atau Nama Sumber Daya Amazon (ARN) dari model atau profil inferensi yang akan digunakan di `modelId` bidang untuk inferensi. Tabel berikut menjelaskan cara menemukan IDs berbagai jenis sumber daya:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/inference-api.html)
+ Badan permintaan - Berisi parameter inferensi untuk model dan konfigurasi lainnya. Setiap model dasar memiliki parameter inferensi sendiri. Parameter inferensi untuk model khusus atau yang disediakan tergantung pada model dasar dari mana ia dibuat. Untuk informasi selengkapnya, lihat [Parameter permintaan inferensi dan bidang respons untuk model dasar](model-parameters.md).

Pilih topik untuk mempelajari cara menggunakan pemanggilan APIs model.

**Topics**
+ [Kirim satu prompt dengan InvokeModel](inference-invoke.md)
+ [Memanggil model dengan OpenAI Chat Completions API](inference-chat-completions.md)
+ [Melakukan percakapan dengan operasi Converse API](conversation-inference.md)
+ [Pembatasan API](inference-api-restrictions.md)