Konfigurasikan petunjuk lanjutan - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Konfigurasikan petunjuk lanjutan

Anda dapat mengonfigurasi prompt lanjutan baik di AWS Management Console atau melalui. API

Console

Di konsol, Anda dapat mengonfigurasi petunjuk lanjutan setelah Anda membuat agen. Anda mengonfigurasinya saat mengedit agen.

Untuk melihat atau mengedit petunjuk lanjutan untuk agen Anda
  1. Masuk ke AWS Management Console menggunakan IAMperan dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di. https://console.aws.amazon.com/bedrock/

  2. Di panel navigasi kiri, pilih Agen. Kemudian pilih agen di bagian Agen.

  3. Pada halaman detail agen, di bagian Draf kerja, pilih Draf kerja.

  4. Pada halaman Draf kerja, di bagian Prompt lanjutan, pilih Edit.

  5. Pada halaman Edit prompt lanjutan, pilih tab yang sesuai dengan langkah urutan agen yang ingin Anda edit.

  6. Untuk mengaktifkan pengeditan template, aktifkan Override template default. Di kotak dialog Override template default, pilih Konfirmasi.

    Awas

    Jika Anda menonaktifkan default template Override atau mengubah model, template Amazon Bedrock default digunakan dan template Anda akan segera dihapus. Untuk mengonfirmasi, masukkan confirm di kotak teks untuk mengonfirmasi pesan yang muncul.

  7. Untuk mengizinkan agen menggunakan templat saat menghasilkan respons, aktifkan Aktifkan templat. Jika konfigurasi ini dimatikan, agen tidak menggunakan template.

  8. Untuk memodifikasi contoh template prompt, gunakan editor template Prompt.

  9. Di Konfigurasi, Anda dapat memodifikasi parameter inferensi untuk prompt. Untuk definisi parameter dan informasi lebih lanjut tentang parameter untuk model yang berbeda, lihatParameter permintaan inferensi dan bidang respons untuk model pondasi.

  10. (Opsional) Untuk menggunakan fungsi Lambda yang telah Anda tetapkan untuk mengurai output model dasar mentah, lakukan tindakan berikut:

    catatan

    Satu fungsi Lambda digunakan untuk semua template prompt.

    1. Di bagian Konfigurasi, pilih Gunakan fungsi Lambda untuk penguraian. Jika Anda menghapus pengaturan ini, agen Anda akan menggunakan parser default untuk prompt.

    2. Untuk fungsi Parser Lambda, pilih fungsi Lambda dari menu tarik-turun.

      catatan

      Anda harus melampirkan izin untuk agen Anda sehingga dapat mengakses fungsi Lambda. Untuk informasi selengkapnya, lihat Kebijakan berbasis sumber daya untuk mengizinkan Amazon Bedrock menjalankan fungsi Lambda grup tindakan.

  11. Untuk menyimpan pengaturan Anda, pilih salah satu opsi berikut:

    1. Untuk tetap berada di jendela yang sama sehingga Anda dapat memperbarui pengaturan prompt secara dinamis saat menguji agen Anda yang diperbarui, pilih Simpan.

    2. Untuk menyimpan pengaturan Anda dan kembali ke halaman Draf kerja, pilih Simpan dan keluar.

  12. Untuk menguji pengaturan yang diperbarui, pilih Siapkan di jendela Uji.

Menyiapkan petunjuk lanjutan di konsol.
API

Untuk mengkonfigurasi prompt lanjutan dengan menggunakan API operasi, Anda mengirim UpdateAgentpanggilan dan memodifikasi promptOverrideConfiguration objek berikut.

"promptOverrideConfiguration": { "overrideLambda": "string", "promptConfigurations": [ { "basePromptTemplate": "string", "inferenceConfiguration": { "maximumLength": int, "stopSequences": [ "string" ], "temperature": float, "topK": float, "topP": float }, "parserMode": "DEFAULT | OVERRIDDEN", "promptCreationMode": "DEFAULT | OVERRIDDEN", "promptState": "ENABLED | DISABLED", "promptType": "PRE_PROCESSING | ORCHESTRATION | KNOWLEDGE_BASE_RESPONSE_GENERATION | POST_PROCESSING" } ] }
  1. Dalam promptConfigurations daftar, sertakan promptConfiguration objek untuk setiap template prompt yang ingin Anda edit.

  2. Tentukan prompt untuk memodifikasi di promptType bidang.

  3. Ubah templat prompt melalui langkah-langkah berikut:

    1. Tentukan basePromptTemplate bidang dengan templat prompt Anda.

    2. Sertakan parameter inferensi dalam inferenceConfiguration objek. Untuk informasi selengkapnya tentang konfigurasi inferensi, lihat. Parameter permintaan inferensi dan bidang respons untuk model pondasi

  4. Untuk mengaktifkan template prompt, atur promptCreationMode keOVERRIDDEN.

  5. Untuk mengizinkan atau mencegah agen melakukan langkah di promptType lapangan, ubah promptState nilainya. Pengaturan ini dapat berguna untuk memecahkan masalah perilaku agen.

    • Jika Anda mengatur promptState DISABLED untukPRE_PROCESSING,KNOWLEDGE_BASE_RESPONSE_GENERATION, atau POST_PROCESSING langkah-langkah, agen melewatkan langkah itu.

    • Jika Anda mengatur promptState DISABLED untuk ORCHESTRATION langkah tersebut, agen hanya mengirimkan input pengguna ke model foundation dalam orkestrasi. Selain itu, agen mengembalikan respons apa adanya tanpa mengatur panggilan antara API operasi dan basis pengetahuan.

    • Secara default, POST_PROCESSING langkahnya adalahDISABLED. Secara default,, PRE_PROCESSINGORCHESTRATION, dan KNOWLEDGE_BASE_RESPONSE_GENERATION langkah-langkahnya adalahENABLED.

  6. Untuk menggunakan fungsi Lambda yang telah Anda tentukan untuk mengurai keluaran model dasar mentah, lakukan langkah-langkah berikut:

    1. Untuk setiap templat prompt yang ingin Anda aktifkan fungsi Lambda, atur parserMode ke. OVERRIDDEN

    2. Tentukan Amazon Resource Name (ARN) dari fungsi Lambda di overrideLambda bidang di objek. promptOverrideConfiguration