Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Mistral AI model
Bagian ini menjelaskan parameter permintaan dan bidang respons untuk Mistral AI model. Gunakan informasi ini untuk membuat panggilan inferensi ke Mistral AI model dengan operasi InvokeModeldan InvokeModelWithResponseStream(streaming). Bagian ini juga mencakup Python contoh kode yang menunjukkan cara menelepon Mistral AI model. Untuk menggunakan model dalam operasi inferensi, Anda memerlukan ID model untuk model tersebut. Untuk mendapatkan ID model, lihatModel Amazon Bedrock IDs. Beberapa model juga bekerja dengan Converse API. Untuk memeriksa apakah Converse API mendukung Mistral AI model, lihatModel dan fitur model yang didukung. Untuk contoh kode lainnya, lihatContoh kode untuk Amazon Bedrock menggunakan AWS SDKs.
Model foundation di Amazon Bedrock mendukung modalitas input dan output, yang bervariasi dari model ke model. Untuk memeriksa modalitas yang Mistral AI dukungan model, lihatModel pondasi yang didukung di Amazon Bedrock. Untuk memeriksa fitur Amazon Bedrock mana Mistral AI dukungan model, lihatDukungan model berdasarkan fitur. Untuk memeriksa AWS daerah mana yang Mistral AI model tersedia di, lihatDukungan model menurut AWS Wilayah.
Saat Anda membuat panggilan inferensi dengan Mistral AI model, Anda menyertakan prompt untuk model. Untuk informasi umum tentang membuat prompt untuk model yang didukung Amazon Bedrock, lihat. Konsep teknik yang cepat Untuk Mistral AI informasi prompt spesifik, lihat Mistral AI panduan teknik yang cepat