Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Buat prompt menggunakan manajemen Prompt
Saat Anda membuat prompt, Anda memiliki opsi berikut:
-
Tulis pesan prompt yang berfungsi sebagai input untuk FM untuk menghasilkan output.
-
Gunakan tanda kurung kurawal ganda untuk menyertakan variabel (seperti dalam
{{variable}}
) dalam pesan prompt yang dapat diisi saat Anda memanggil prompt. -
Pilih model yang dapat digunakan untuk memanggil prompt atau, jika Anda berencana untuk menggunakan prompt dengan agen, biarkan tidak ditentukan. Jika Anda memilih model, Anda juga dapat memodifikasi konfigurasi inferensi yang akan digunakan. Untuk melihat parameter inferensi untuk model yang berbeda, lihatParameter permintaan inferensi dan bidang respons untuk model pondasi.
Jika model yang Anda pilih untuk prompt mendukung Converse API (untuk informasi selengkapnya, lihatLakukan percakapan dengan Converse Operasi API), Anda dapat menyertakan yang berikut ini saat membuat prompt:
-
Prompt sistem untuk memberikan instruksi atau konteks pada model.
-
Permintaan sebelumnya (pesan pengguna) dan respons model (pesan asisten) sebagai riwayat percakapan untuk dipertimbangkan model saat menghasilkan respons untuk pesan pengguna akhir.
-
(Jika didukung oleh model) Alat untuk model yang akan digunakan saat menghasilkan respons.
Untuk mempelajari cara membuat prompt menggunakan manajemen Prompt, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
- Console
-
Untuk membuat prompt
-
Masuk ke AWS Management Console menggunakan IAMperan dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console
-
Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih Create prompt.
-
Berikan nama untuk prompt dan deskripsi opsional.
-
Untuk mengenkripsi prompt Anda dengan kunci yang dikelola pelanggan, pilih Sesuaikan pengaturan enkripsi (lanjutan) di bagian pemilihan KMS kunci. Jika Anda menghilangkan bidang ini, prompt Anda akan dienkripsi dengan file. Kunci yang dikelola AWS Untuk informasi selengkapnya, lihat AWS KMS kunci.
-
Pilih Buat prompt. Prompt Anda dibuat dan Anda akan dibawa ke pembuat Prompt untuk prompt yang baru dibuat, di mana Anda dapat mengonfigurasi prompt Anda.
-
Anda dapat melanjutkan ke prosedur berikut untuk mengonfigurasi prompt Anda atau kembali ke pembuat prompt nanti.
Untuk mengonfigurasi prompt Anda
-
Jika Anda belum berada di pembuat prompt, lakukan hal berikut:
-
Masuk ke AWS Management Console menggunakan IAMperan dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console
-
Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih prompt di bagian Prompts.
-
Di bagian Prompt draft, pilih Edit di pembangun prompt.
-
-
Gunakan panel Prompt untuk membuat prompt. Masukkan prompt di kotak pesan Pengguna terakhir. Jika model mendukung Converse API atau AnthropicClaude Pesan API, Anda juga dapat menyertakan prompt Sistem dan pesan Pengguna sebelumnya dan pesan Asisten untuk konteks.
Saat Anda menulis prompt, Anda dapat menyertakan variabel dalam kurung kurawal ganda (seperti dalam
{{variable}}
). Setiap variabel yang Anda sertakan muncul di bagian Variabel uji. -
(Opsional) Anda dapat mengubah prompt Anda dengan cara berikut:
-
Di panel Konfigurasi, lakukan hal berikut:
-
Pilih sumber daya AI Generatif untuk menjalankan inferensi.
catatan
Jika Anda memilih agen, Anda hanya dapat menguji prompt di konsol. Untuk mempelajari cara menguji prompt dengan agen diAPI, lihatUji prompt menggunakan manajemen Prompt.
-
Atur parameter Inferensi.
-
Jika model yang Anda pilih mendukung alat, pilih Konfigurasi alat untuk menggunakan alat dengan prompt.
-
-
Untuk membandingkan berbagai varian prompt Anda, pilih Tindakan dan pilih Bandingkan varian prompt. Anda dapat melakukan hal berikut di halaman perbandingan:
-
Untuk menambahkan varian, pilih tanda plus. Anda dapat menambahkan hingga tiga varian.
-
Setelah Anda menentukan detail varian, Anda dapat menentukan variabel Uji apa pun dan memilih Jalankan untuk menguji output varian.
-
Untuk menghapus varian, pilih tiga titik dan pilih Hapus dari bandingkan.
-
Untuk mengganti draf kerja dan meninggalkan mode perbandingan, pilih Simpan sebagai konsep. Semua varian lainnya akan dihapus.
-
Untuk meninggalkan mode perbandingan, pilih Keluar dari mode perbandingan.
-
-
-
Anda memiliki opsi berikut ketika Anda selesai mengonfigurasi prompt:
-
Untuk menyimpan prompt Anda, pilih Simpan draf. Untuk informasi selengkapnya tentang versi draf, lihatMenerapkan prompt ke aplikasi Anda menggunakan versi dalam manajemen Prompt.
-
Untuk menghapus prompt Anda, pilih Hapus. Untuk informasi selengkapnya, lihat Hapus prompt dalam manajemen Prompt.
-
Untuk membuat versi prompt Anda, pilih Buat versi. Untuk informasi selengkapnya tentang pembuatan versi cepat, lihat. Menerapkan prompt ke aplikasi Anda menggunakan versi dalam manajemen Prompt
-
-
- API
-
Untuk membuat prompt, kirim CreatePromptpermintaan dengan titik akhir waktu pembuatan Agen untuk Amazon Bedrock.
Bidang berikut diperlukan:
Bidang Deskripsi singkat name Nama untuk prompt. varian Daftar konfigurasi yang berbeda untuk prompt (lihat di bawah). defaultVariant Nama varian default. Setiap varian dalam
variants
daftar adalah PromptVariantobjek dari struktur umum berikut:{ "name": "string", # modelId or genAiResource (see below) "templateType": "TEXT", "templateConfiguration": # see below, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topP": float } }, "additionalModelRequestFields": { "key": "value", ... }, "metadata": [ { "key": "string", "value": "string" }, ... ] }
Isi kolom sebagai berikut:
-
name — Masukkan nama untuk varian.
-
Sertakan salah satu bidang ini, tergantung pada sumber daya pemanggilan model yang akan digunakan:
-
modelId — Untuk menentukan model pondasi atau profil inferensi yang akan digunakan dengan prompt, masukkan ID ARN atau ID-nya.
-
genAiResource — Untuk menentukan agen, masukkan ID atauARN. Nilai
genAiResource
adalah JSON objek dari format berikut:{ "genAiResource": { "agent": { "agentIdentifier": "string" } }
catatan
Jika Anda menyertakan
genAiResource
bidang, Anda hanya dapat menguji prompt di konsol. Untuk menguji prompt dengan agen diAPI, Anda harus memasukkan teks prompt langsung keinputText
bidang InvokeAgentpermintaan.
-
-
templateType — Masukkan
TEXT
atauCHAT
.CHAT
hanya kompatibel dengan model yang mendukung ConverseAPI. -
templateConfiguration — Nilai tergantung pada jenis template yang Anda tentukan:
-
Jika Anda ditentukan
TEXT
sebagai jenis template, nilainya harus berupa TextPromptTemplateConfigurationJSONobjek. -
Jika Anda ditentukan
CHAT
sebagai jenis template, nilainya harus berupa ChatPromptTemplateConfigurationJSONobjek.
-
-
inferenceConfiguration — Peta
text
lapangan ke a PromptModelInferenceConfiguration. Bidang ini berisi parameter inferensi yang umum untuk semua model. Untuk mempelajari lebih lanjut tentang parameter inferensi, lihatMempengaruhi generasi respons dengan parameter inferensi. -
additionalModelRequestBidang — Gunakan bidang ini untuk menentukan parameter inferensi yang spesifik untuk model yang Anda gunakan untuk inferensi. Untuk mempelajari lebih lanjut tentang parameter inferensi khusus model, lihat. Parameter permintaan inferensi dan bidang respons untuk model pondasi
-
metadata — Metadata untuk dikaitkan dengan varian prompt. Anda dapat menambahkan pasangan kunci-nilai ke array untuk menandai varian prompt dengan metadata.
Bidang berikut adalah opsional:
Bidang Kasus penggunaan deskripsi Untuk memberikan deskripsi untuk prompt. clientToken Untuk memastikan API permintaan selesai hanya sekali. Untuk informasi selengkapnya, lihat Memastikan idempotensi. tag Untuk mengaitkan tag dengan aliran. Untuk informasi selengkapnya, lihat Menandai sumber daya Amazon Bedrock. Respons membuat
DRAFT
versi dan mengembalikan ID dan ARN yang dapat Anda gunakan sebagai pengidentifikasi prompt untuk permintaan terkait prompt API lainnya. -