Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Saat Anda membuat prompt, Anda memiliki opsi berikut:
-
Tulis pesan prompt yang berfungsi sebagai input untuk FM untuk menghasilkan output.
-
Gunakan tanda kurung kurawal ganda untuk menyertakan variabel (seperti dalam
{{variable}}
) dalam pesan prompt yang dapat diisi saat Anda memanggil prompt. -
Pilih model yang dapat digunakan untuk memanggil prompt atau, jika Anda berencana untuk menggunakan prompt dengan agen, biarkan tidak ditentukan. Jika Anda memilih model, Anda juga dapat memodifikasi konfigurasi inferensi yang akan digunakan. Untuk melihat parameter inferensi untuk model yang berbeda, lihatParameter permintaan inferensi dan bidang respons untuk model pondasi.
Semua prompt mendukung parameter inferensi dasar berikut:
MaxTokens — Jumlah maksimum token untuk memungkinkan respons yang dihasilkan.
StopSequences — Daftar urutan berhenti. Urutan berhenti adalah urutan karakter yang menyebabkan model berhenti menghasilkan respons.
suhu — Kemungkinan model memilih opsi probabilitas yang lebih tinggi sambil menghasilkan respons.
TopP — Persentase kandidat yang paling mungkin yang dipertimbangkan model untuk token berikutnya.
Jika model mendukung parameter inferensi tambahan, Anda dapat menentukannya sebagai bidang tambahan untuk prompt Anda. Anda menyediakan bidang tambahan dalam objek JSON. Contoh berikut menunjukkan cara mengaturtop_k
, yang tersedia di Anthropic Claude model, tetapi bukan parameter inferensi dasar.
{
"top_k": 200
}
Untuk informasi tentang parameter inferensi model, lihat Parameter permintaan inferensi dan bidang respons untuk model dasar.
Jika model yang Anda pilih untuk prompt mendukung Converse API (untuk informasi selengkapnya, lihatLakukan percakapan dengan Converse Operasi API), Anda dapat menyertakan yang berikut ini saat membuat prompt:
-
Prompt sistem untuk memberikan instruksi atau konteks pada model.
-
Permintaan sebelumnya (pesan pengguna) dan respons model (pesan asisten) sebagai riwayat percakapan untuk dipertimbangkan model saat menghasilkan respons untuk pesan pengguna akhir.
-
(Jika didukung oleh model) Alat untuk model yang akan digunakan saat menghasilkan respons.
Menyetel parameter inferensi dasar sebagai bidang tambahan tidak akan mengesampingkan nilai yang Anda tetapkan di konsol.
Untuk mempelajari cara membuat prompt menggunakan manajemen Prompt, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Untuk membuat prompt
-
Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console
-
Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih Create prompt.
-
Berikan nama untuk prompt dan deskripsi opsional.
-
Untuk mengenkripsi prompt Anda dengan kunci yang dikelola pelanggan, pilih Sesuaikan pengaturan enkripsi (lanjutan) di bagian pemilihan kunci KMS. Jika Anda menghilangkan bidang ini, prompt Anda akan dienkripsi dengan file. Kunci yang dikelola AWS Untuk informasi selengkapnya, lihat AWS KMS kunci.
-
Pilih Buat prompt. Prompt Anda dibuat dan Anda akan dibawa ke pembuat Prompt untuk prompt yang baru dibuat, di mana Anda dapat mengonfigurasi prompt Anda.
-
Anda dapat melanjutkan ke prosedur berikut untuk mengonfigurasi prompt Anda atau kembali ke pembuat prompt nanti.
Untuk mengonfigurasi prompt Anda
-
Jika Anda belum berada di pembuat prompt, lakukan hal berikut:
-
Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console
-
Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih prompt di bagian Prompts.
-
Di bagian Prompt draft, pilih Edit di pembangun prompt.
-
-
Gunakan panel Prompt untuk membuat prompt. Masukkan prompt di kotak pesan Pengguna terakhir. Jika model mendukung Converse API atau AnthropicClaude Messages API, Anda juga dapat menyertakan prompt Sistem dan pesan Pengguna sebelumnya dan pesan Asisten untuk konteks.
Saat Anda menulis prompt, Anda dapat menyertakan variabel dalam kurung kurawal ganda (seperti dalam
{{variable}}
). Setiap variabel yang Anda sertakan muncul di bagian Variabel uji. -
(Opsional) Anda dapat mengubah prompt Anda dengan cara berikut:
-
Di panel Konfigurasi, lakukan hal berikut:
-
Pilih sumber daya AI Generatif untuk menjalankan inferensi.
catatan
Jika Anda memilih agen, Anda hanya dapat menguji prompt di konsol. Untuk mempelajari cara menguji prompt dengan agen di API, lihatUji prompt menggunakan manajemen Prompt.
-
Atur parameter Inferensi. Untuk menentukan parameter inferensi tambahan, buka Bidang permintaan model tambahan dan pilih Konfigurasi.
-
Jika model yang Anda pilih mendukung alat, pilih Konfigurasi alat untuk menggunakan alat dengan prompt.
-
-
Untuk membandingkan berbagai varian prompt Anda, pilih Tindakan dan pilih Bandingkan varian prompt. Anda dapat melakukan hal berikut di halaman perbandingan:
-
Untuk menambahkan varian, pilih tanda plus. Anda dapat menambahkan hingga tiga varian.
-
Setelah Anda menentukan detail varian, Anda dapat menentukan variabel Uji apa pun dan memilih Jalankan untuk menguji output varian.
-
Untuk menghapus varian, pilih tiga titik dan pilih Hapus dari bandingkan.
-
Untuk mengganti draf kerja dan meninggalkan mode perbandingan, pilih Simpan sebagai konsep. Semua varian lainnya akan dihapus.
-
Untuk meninggalkan mode perbandingan, pilih Keluar dari mode perbandingan.
-
-
-
Anda memiliki opsi berikut ketika Anda selesai mengonfigurasi prompt:
-
Untuk menyimpan prompt Anda, pilih Simpan draf. Untuk informasi selengkapnya tentang versi draf, lihatMenerapkan prompt ke aplikasi Anda menggunakan versi dalam manajemen Prompt.
-
Untuk menghapus prompt Anda, pilih Hapus. Untuk informasi selengkapnya, lihat Hapus prompt dalam manajemen Prompt.
-
Untuk membuat versi prompt Anda, pilih Buat versi. Untuk informasi selengkapnya tentang pembuatan versi cepat, lihat. Menerapkan prompt ke aplikasi Anda menggunakan versi dalam manajemen Prompt
-