Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Buat prompt menggunakan manajemen Prompt

Mode fokus
Buat prompt menggunakan manajemen Prompt - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Saat Anda membuat prompt, Anda memiliki opsi berikut:

  • Tulis pesan prompt yang berfungsi sebagai input untuk FM untuk menghasilkan output.

  • Gunakan tanda kurung kurawal ganda untuk menyertakan variabel (seperti dalam{{variable}}) dalam pesan prompt yang dapat diisi saat Anda memanggil prompt.

  • Pilih model yang dapat digunakan untuk memanggil prompt atau, jika Anda berencana untuk menggunakan prompt dengan agen, biarkan tidak ditentukan. Jika Anda memilih model, Anda juga dapat memodifikasi konfigurasi inferensi yang akan digunakan. Untuk melihat parameter inferensi untuk model yang berbeda, lihatParameter permintaan inferensi dan bidang respons untuk model pondasi.

Semua prompt mendukung parameter inferensi dasar berikut:

  • MaxTokens — Jumlah maksimum token untuk memungkinkan respons yang dihasilkan.

  • StopSequences — Daftar urutan berhenti. Urutan berhenti adalah urutan karakter yang menyebabkan model berhenti menghasilkan respons.

  • suhu — Kemungkinan model memilih opsi probabilitas yang lebih tinggi sambil menghasilkan respons.

  • TopP — Persentase kandidat yang paling mungkin yang dipertimbangkan model untuk token berikutnya.

Jika model mendukung parameter inferensi tambahan, Anda dapat menentukannya sebagai bidang tambahan untuk prompt Anda. Anda menyediakan bidang tambahan dalam objek JSON. Contoh berikut menunjukkan cara mengaturtop_k, yang tersedia di Anthropic Claude model, tetapi bukan parameter inferensi dasar.

{ "top_k": 200 }

Untuk informasi tentang parameter inferensi model, lihat Parameter permintaan inferensi dan bidang respons untuk model dasar.

Jika model yang Anda pilih untuk prompt mendukung Converse API (untuk informasi selengkapnya, lihatLakukan percakapan dengan Converse Operasi API), Anda dapat menyertakan yang berikut ini saat membuat prompt:

  • Prompt sistem untuk memberikan instruksi atau konteks pada model.

  • Permintaan sebelumnya (pesan pengguna) dan respons model (pesan asisten) sebagai riwayat percakapan untuk dipertimbangkan model saat menghasilkan respons untuk pesan pengguna akhir.

  • (Jika didukung oleh model) Alat untuk model yang akan digunakan saat menghasilkan respons.

Menyetel parameter inferensi dasar sebagai bidang tambahan tidak akan mengesampingkan nilai yang Anda tetapkan di konsol.

Untuk mempelajari cara membuat prompt menggunakan manajemen Prompt, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:

Console
Untuk membuat prompt
  1. Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

  2. Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih Create prompt.

  3. Berikan nama untuk prompt dan deskripsi opsional.

  4. Untuk mengenkripsi prompt Anda dengan kunci yang dikelola pelanggan, pilih Sesuaikan pengaturan enkripsi (lanjutan) di bagian pemilihan kunci KMS. Jika Anda menghilangkan bidang ini, prompt Anda akan dienkripsi dengan file. Kunci yang dikelola AWS Untuk informasi selengkapnya, lihat AWS KMS kunci.

  5. Pilih Buat prompt. Prompt Anda dibuat dan Anda akan dibawa ke pembuat Prompt untuk prompt yang baru dibuat, di mana Anda dapat mengonfigurasi prompt Anda.

  6. Anda dapat melanjutkan ke prosedur berikut untuk mengonfigurasi prompt Anda atau kembali ke pembuat prompt nanti.

Untuk mengonfigurasi prompt Anda
  1. Jika Anda belum berada di pembuat prompt, lakukan hal berikut:

    1. Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

    2. Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih prompt di bagian Prompts.

    3. Di bagian Prompt draft, pilih Edit di pembangun prompt.

  2. Gunakan panel Prompt untuk membuat prompt. Masukkan prompt di kotak pesan Pengguna terakhir. Jika model mendukung Converse API atau AnthropicClaude Messages API, Anda juga dapat menyertakan prompt Sistem dan pesan Pengguna sebelumnya dan pesan Asisten untuk konteks.

    Saat Anda menulis prompt, Anda dapat menyertakan variabel dalam kurung kurawal ganda (seperti dalam{{variable}}). Setiap variabel yang Anda sertakan muncul di bagian Variabel uji.

  3. (Opsional) Anda dapat mengubah prompt Anda dengan cara berikut:

    • Di panel Konfigurasi, lakukan hal berikut:

      1. Pilih sumber daya AI Generatif untuk menjalankan inferensi.

        catatan

        Jika Anda memilih agen, Anda hanya dapat menguji prompt di konsol. Untuk mempelajari cara menguji prompt dengan agen di API, lihatUji prompt menggunakan manajemen Prompt.

      2. Atur parameter Inferensi. Untuk menentukan parameter inferensi tambahan, buka Bidang permintaan model tambahan dan pilih Konfigurasi.

      3. Jika model yang Anda pilih mendukung alat, pilih Konfigurasi alat untuk menggunakan alat dengan prompt.

    • Untuk membandingkan berbagai varian prompt Anda, pilih Tindakan dan pilih Bandingkan varian prompt. Anda dapat melakukan hal berikut di halaman perbandingan:

      • Untuk menambahkan varian, pilih tanda plus. Anda dapat menambahkan hingga tiga varian.

      • Setelah Anda menentukan detail varian, Anda dapat menentukan variabel Uji apa pun dan memilih Jalankan untuk menguji output varian.

      • Untuk menghapus varian, pilih tiga titik dan pilih Hapus dari bandingkan.

      • Untuk mengganti draf kerja dan meninggalkan mode perbandingan, pilih Simpan sebagai konsep. Semua varian lainnya akan dihapus.

      • Untuk meninggalkan mode perbandingan, pilih Keluar dari mode perbandingan.

  4. Anda memiliki opsi berikut ketika Anda selesai mengonfigurasi prompt:

API

Untuk membuat prompt, kirim CreatePromptpermintaan dengan titik akhir waktu pembuatan Agen untuk Amazon Bedrock.

Bidang berikut diperlukan:

Bidang Deskripsi singkat
name Nama untuk prompt.
varian Daftar konfigurasi yang berbeda untuk prompt (lihat di bawah).
DefaultVariant Nama varian default.

Setiap varian dalam variants daftar adalah PromptVariantobjek dari struktur umum berikut:

{ "name": "string", # modelId or genAiResource (see below) "templateType": "TEXT", "templateConfiguration": # see below, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topP": float } }, "additionalModelRequestFields": { "key": "value", ... }, "metadata": [ { "key": "string", "value": "string" }, ... ] }

Isi kolom sebagai berikut:

  • name — Masukkan nama untuk varian.

  • Sertakan salah satu bidang ini, tergantung pada sumber daya pemanggilan model yang akan digunakan:

    • ModelID — Untuk menentukan model dasar atau profil inferensi yang akan digunakan dengan prompt, masukkan ARN atau ID-nya.

    • genAiResource — Untuk menentukan agen, masukkan ID atau ARN. Nilai dari genAiResource adalah objek JSON dari format berikut:

      { "genAiResource": { "agent": { "agentIdentifier": "string" } }
      catatan

      Jika Anda menyertakan genAiResource bidang, Anda hanya dapat menguji prompt di konsol. Untuk menguji prompt dengan agen di API, Anda harus memasukkan teks prompt langsung ke inputText bidang InvokeAgentpermintaan.

  • TemplateType - Masukkan atau. TEXT CHAT CHAThanya kompatibel dengan model yang mendukung Converse API.

  • TemplateConfiguration - Nilai tergantung pada jenis template yang Anda tentukan:

  • InferenceConfiguration — Bidang memetakan ke text a. PromptModelInferenceConfiguration Bidang ini berisi parameter inferensi yang umum untuk semua model. Untuk mempelajari lebih lanjut tentang parameter inferensi, lihatMempengaruhi generasi respons dengan parameter inferensi.

  • additionalModelRequestBidang — Gunakan bidang ini untuk menentukan parameter inferensi yang spesifik untuk model yang Anda gunakan untuk inferensi. Untuk mempelajari lebih lanjut tentang parameter inferensi khusus model, lihat. Parameter permintaan inferensi dan bidang respons untuk model pondasi

  • metadata — Metadata untuk dikaitkan dengan varian prompt. Anda dapat menambahkan pasangan kunci-nilai ke array untuk menandai varian prompt dengan metadata.

Bidang berikut adalah opsional:

Bidang Kasus penggunaan
deskripsi Untuk memberikan deskripsi untuk prompt.
clientToken Untuk memastikan permintaan API selesai hanya sekali. Untuk informasi selengkapnya, lihat Memastikan idempotensi.
tag Untuk mengaitkan tag dengan aliran. Untuk informasi selengkapnya, lihat Menandai sumber daya Amazon Bedrock.

Respons membuat DRAFT versi dan mengembalikan ID dan ARN yang dapat Anda gunakan sebagai pengidentifikasi prompt untuk permintaan API terkait prompt lainnya.

Untuk membuat prompt
  1. Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

  2. Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih Create prompt.

  3. Berikan nama untuk prompt dan deskripsi opsional.

  4. Untuk mengenkripsi prompt Anda dengan kunci yang dikelola pelanggan, pilih Sesuaikan pengaturan enkripsi (lanjutan) di bagian pemilihan kunci KMS. Jika Anda menghilangkan bidang ini, prompt Anda akan dienkripsi dengan file. Kunci yang dikelola AWS Untuk informasi selengkapnya, lihat AWS KMS kunci.

  5. Pilih Buat prompt. Prompt Anda dibuat dan Anda akan dibawa ke pembuat Prompt untuk prompt yang baru dibuat, di mana Anda dapat mengonfigurasi prompt Anda.

  6. Anda dapat melanjutkan ke prosedur berikut untuk mengonfigurasi prompt Anda atau kembali ke pembuat prompt nanti.

Untuk mengonfigurasi prompt Anda
  1. Jika Anda belum berada di pembuat prompt, lakukan hal berikut:

    1. Masuk ke AWS Management Console menggunakan peran IAM dengan izin Amazon Bedrock, dan buka konsol Amazon Bedrock di Memulai dengan. AWS Management Console

    2. Pilih Manajemen cepat dari panel navigasi kiri. Kemudian, pilih prompt di bagian Prompts.

    3. Di bagian Prompt draft, pilih Edit di pembangun prompt.

  2. Gunakan panel Prompt untuk membuat prompt. Masukkan prompt di kotak pesan Pengguna terakhir. Jika model mendukung Converse API atau AnthropicClaude Messages API, Anda juga dapat menyertakan prompt Sistem dan pesan Pengguna sebelumnya dan pesan Asisten untuk konteks.

    Saat Anda menulis prompt, Anda dapat menyertakan variabel dalam kurung kurawal ganda (seperti dalam{{variable}}). Setiap variabel yang Anda sertakan muncul di bagian Variabel uji.

  3. (Opsional) Anda dapat mengubah prompt Anda dengan cara berikut:

    • Di panel Konfigurasi, lakukan hal berikut:

      1. Pilih sumber daya AI Generatif untuk menjalankan inferensi.

        catatan

        Jika Anda memilih agen, Anda hanya dapat menguji prompt di konsol. Untuk mempelajari cara menguji prompt dengan agen di API, lihatUji prompt menggunakan manajemen Prompt.

      2. Atur parameter Inferensi. Untuk menentukan parameter inferensi tambahan, buka Bidang permintaan model tambahan dan pilih Konfigurasi.

      3. Jika model yang Anda pilih mendukung alat, pilih Konfigurasi alat untuk menggunakan alat dengan prompt.

    • Untuk membandingkan berbagai varian prompt Anda, pilih Tindakan dan pilih Bandingkan varian prompt. Anda dapat melakukan hal berikut di halaman perbandingan:

      • Untuk menambahkan varian, pilih tanda plus. Anda dapat menambahkan hingga tiga varian.

      • Setelah Anda menentukan detail varian, Anda dapat menentukan variabel Uji apa pun dan memilih Jalankan untuk menguji output varian.

      • Untuk menghapus varian, pilih tiga titik dan pilih Hapus dari bandingkan.

      • Untuk mengganti draf kerja dan meninggalkan mode perbandingan, pilih Simpan sebagai konsep. Semua varian lainnya akan dihapus.

      • Untuk meninggalkan mode perbandingan, pilih Keluar dari mode perbandingan.

  4. Anda memiliki opsi berikut ketika Anda selesai mengonfigurasi prompt:

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.