Buat prompt menggunakan manajemen Prompt - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Buat prompt menggunakan manajemen Prompt

catatan

Manajemen cepat dalam pratinjau dan dapat berubah sewaktu-waktu.

Saat Anda membuat prompt, Anda memiliki opsi berikut:

  • Tulis pesan prompt yang berfungsi sebagai input untuk FM untuk menghasilkan output.

  • Sertakan variabel dalam pesan prompt yang dapat diisi saat runtime.

  • Pilih model untuk menjalankan prompt atau biarkan diisi saat runtime. Jika Anda memilih model, Anda juga dapat memodifikasi konfigurasi inferensi yang akan digunakan. Untuk melihat parameter inferensi untuk model yang berbeda, lihatParameter permintaan inferensi dan bidang respons untuk model pondasi.

  • Buat varian prompt Anda yang menggunakan pesan, model, atau konfigurasi yang berbeda sehingga Anda dapat membandingkan outputnya untuk menentukan varian terbaik untuk kasus penggunaan Anda.

Untuk mempelajari cara membuat prompt menggunakan manajemen Prompt, pilih tab yang sesuai dengan metode pilihan Anda dan ikuti langkah-langkahnya:

Console
Untuk membuat prompt
  1. Masuk ke AWS Management Console menggunakan IAMperan dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

  2. Pilih Manajemen Prompt dari panel navigasi kiri. Kemudian, pilih Create prompt.

  3. (Opsional) Ubah Nama default untuk prompt dan Deskripsinya.

  4. Pilih Buat prompt. Prompt Anda dibuat dan Anda akan dibawa ke pembuat prompt untuk prompt yang baru dibuat, di mana Anda dapat mengonfigurasi prompt Anda.

  5. Anda dapat melanjutkan ke prosedur berikut untuk mengonfigurasi prompt Anda atau kembali ke pembuat prompt nanti.

Untuk mengonfigurasi prompt Anda
  1. Jika Anda belum berada di pembuat prompt, lakukan hal berikut:

    1. Masuk ke AWS Management Console menggunakan IAMperan dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

    2. Pilih Manajemen Prompt dari panel navigasi kiri. Kemudian, pilih prompt di bagian Prompts.

    3. Di bagian Prompt draft, pilih Edit di pembangun prompt.

  2. Di panel Prompt, masukkan prompt di kotak Pesan. Anda dapat menggunakan kurung kurawal ganda untuk memasukkan variabel (seperti dalam {{variable}}). Perhatikan hal berikut tentang variabel prompt:

    • Setiap variabel yang Anda sertakan muncul di bagian Variabel uji.

    • Anda dapat mengganti variabel-variabel ini dengan nilai aktual saat menguji prompt atau saat mengonfigurasi prompt dalam alur prompt.

  3. (Opsional) Anda dapat memodifikasi prompt Anda dengan cara berikut:

    • Di panel Konfigurasi, pilih Model untuk menjalankan inferensi dan atur parameter Inferensi.

    • Untuk membandingkan berbagai varian prompt Anda, pilih Tindakan dan pilih Bandingkan varian prompt. Anda dapat melakukan hal berikut di halaman perbandingan:

      • Untuk menambahkan varian, pilih tanda plus. Anda dapat menambahkan hingga tiga varian.

      • Setelah Anda menentukan detail varian, Anda dapat menentukan variabel Uji apa pun dan memilih Jalankan untuk menguji output varian.

      • Untuk menghapus varian, pilih tiga titik dan pilih Hapus dari bandingkan.

      • Untuk mengganti draf kerja dan meninggalkan mode perbandingan, pilih Simpan sebagai konsep. Semua varian lainnya akan dihapus.

      • Untuk meninggalkan mode perbandingan, pilih Keluar dari mode perbandingan.

  4. Anda memiliki opsi berikut ketika Anda selesai mengonfigurasi prompt:

API

Untuk membuat prompt, kirim CreatePromptpermintaan (lihat tautan untuk format permintaan dan respons serta detail bidang) dengan titik akhir waktu pembuatan Agen untuk Amazon Bedrock.

Bidang berikut diperlukan:

Bidang Deskripsi singkat
name Sebuah nama untuk prompt.
varian Daftar konfigurasi yang berbeda untuk prompt (lihat di bawah).
defaultVariant Nama varian default.

Setiap varian dalam variants daftar adalah PromptVariantobjek dari struktur umum berikut:

{ "name": "string", "modelId": "string", "templateType": "TEXT", "templateConfiguration": { "text": { "text": "string", "inputVariables": [ { "name": "string" }, ... ] } }, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topK": int, "topP": float } }, "metadata": [ { "key": "string", "value": "string" }, ... ] }

Isi kolom sebagai berikut:

  • name — Masukkan nama untuk varian.

  • modelId — Masukkan ID model atau profil inferensi untuk menjalankan inferensi dengan.

  • templateType — Enter TEXT (saat ini, hanya permintaan teks yang didukung).

  • templateConfiguration — Peta text lapangan ke a TextPromptTemplateConfiguration. Isi kolom berikut di dalamnya:

    • text — Pesan untuk prompt. Lampirkan variabel dalam kurung kurawal ganda: {{variable}}.

    • inputVariables — Untuk setiap objek dalam daftar, masukkan setiap variabel yang Anda buat di name bidang.

  • inferenceConfiguration — Peta text lapangan ke a PromptModelInferenceConfiguration. Untuk mempelajari lebih lanjut tentang parameter inferensi, lihatMempengaruhi generasi respons dengan parameter inferensi.

  • metadata — Metadata untuk diasosiasikan dengan varian prompt. Anda dapat menambahkan pasangan kunci-nilai ke array untuk menandai varian prompt dengan metadata.

Bidang berikut adalah opsional:

Bidang Kasus penggunaan
deskripsi Untuk memberikan deskripsi untuk prompt.
clientToken Untuk memastikan API permintaan selesai hanya sekali. Untuk informasi selengkapnya, lihat Memastikan idempotensi.
tag Untuk mengaitkan tag dengan aliran. Untuk informasi selengkapnya, lihat Menandai sumber daya Amazon Bedrock.
customerEncryptionKeyArn Untuk mengenkripsi aliran dengan KMS kunci. Untuk informasi selengkapnya, lihat Kebijakan utama untuk mengizinkan Amazon Bedrock mengenkripsi dan mendekripsi alur.

Respons membuat DRAFT versi dan mengembalikan ID dan ARN yang dapat Anda gunakan sebagai pengidentifikasi prompt untuk permintaan terkait prompt API lainnya.