Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Blokir gambar berbahaya dengan filter konten gambar

Mode fokus
Blokir gambar berbahaya dengan filter konten gambar - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

catatan

Filter konten gambar pagar pembatas untuk Amazon Bedrock dalam rilis pratinjau, dan dapat berubah sewaktu-waktu.

Blokir gambar berbahaya dengan filter konten (Pratinjau)

Amazon Bedrock Guardrails dapat membantu memblokir gambar yang tidak pantas atau berbahaya dengan mengaktifkan gambar sebagai modalitas saat mengonfigurasi filter konten dalam pagar pembatas.

Prasyarat dan Batasan

  • Dukungan untuk mendeteksi dan memblokir gambar berbahaya di filter konten saat ini dalam pratinjau dan tidak direkomendasikan untuk beban kerja produksi.

  • Kemampuan ini didukung hanya untuk gambar dan tidak didukung untuk gambar dengan konten video tertanam.

  • Kemampuan ini hanya didukung untuk kategori Kebencian, Penghinaan, Seksual, dan Kekerasan dalam filter konten, dan bukan untuk kategori lain termasuk pelanggaran dan serangan cepat.

  • Pengguna dapat mengunggah gambar dengan ukuran hingga maksimal 4 MB, dengan maksimal 20 gambar untuk satu permintaan.

  • Hanya format PNG dan JPEG yang didukung untuk konten gambar.

Ikhtisar

Deteksi dan pemblokiran gambar berbahaya didukung untuk kategori Kebencian, Penghinaan, Seksual, dan Kekerasan dalam filter konten, dan untuk gambar tanpa teks apa pun di dalamnya. Selain teks, pengguna dapat memilih modalitas gambar untuk kategori di atas dalam filter konten sambil membuat pagar pembatas, dan mengatur kekuatan penyaringan masing-masing ke NONE, LOW, MEDIUM, atau HIGH. Ambang batas ini akan umum untuk konten teks dan gambar untuk kategori ini, jika teks dan gambar dipilih. Guardrails akan mengevaluasi gambar yang dikirim sebagai input oleh pengguna, atau dihasilkan sebagai output dari respons model.

Empat kategori yang didukung untuk mendeteksi konten gambar berbahaya dijelaskan di bawah ini:

  • Benci — Menjelaskan konten yang mendiskriminasi, mengkritik, menghina, mencela, atau merendahkan seseorang atau kelompok berdasarkan identitas (seperti ras, etnis, jenis kelamin, agama, orientasi seksual, kemampuan, dan asal kebangsaan). Ini juga mencakup konten visual grafis dan kehidupan nyata yang menampilkan simbol kelompok kebencian, simbol kebencian, dan citra yang terkait dengan berbagai organisasi yang mempromosikan diskriminasi, rasisme, dan intoleransi.

  • Penghinaan — Menjelaskan konten yang mencakup bahasa yang merendahkan, memalukan, mengejek, menghina, atau meremehkan. Jenis bahasa ini juga diberi label sebagai bullying. Ini juga mencakup berbagai bentuk gerakan tangan kasar, tidak sopan atau ofensif yang dimaksudkan untuk mengekspresikan penghinaan, kemarahan, atau ketidaksetujuan.

  • Seksual - Menjelaskan konten yang menunjukkan minat seksual, aktivitas, atau gairah menggunakan referensi langsung atau tidak langsung ke bagian tubuh, sifat fisik, atau jenis kelamin. Ini juga termasuk gambar yang menampilkan bagian pribadi dan aktivitas seksual yang melibatkan hubungan seksual. Kategori ini juga mencakup kartun, animasi, gambar, sketsa, dan konten bergambar lainnya dengan tema seksual.

  • Kekerasan — Menjelaskan konten yang mencakup pemuliaan atau ancaman untuk menimbulkan rasa sakit fisik, luka, atau cedera terhadap seseorang, kelompok, atau benda.

Filter konten gambar Amazon Bedrock Guardrails didukung di Wilayah berikut (untuk informasi selengkapnya tentang Wilayah yang didukung di Amazon Bedrock, lihat titik akhir dan kuota Amazon Bedrock):

  • AS Timur (N. Virginia)

  • AS Timur (Ohio)

  • AS Barat (Oregon)

  • AWS GovCloud (AS-Barat)

  • Asia Pasifik (Tokyo)

  • Asia Pacific (Seoul)

  • Asia Pacific (Mumbai)

  • Asia Pasifik (Singapura)

  • Asia Pasifik (Sydney)

  • Europe (Frankfurt)

  • Eropa (Irlandia)

  • Eropa (London)

Filter konten gambar Amazon Bedrock Guardrails didukung untuk model dasar berikut (untuk melihat Wilayah mana yang mendukung setiap model, lihat): Model pondasi yang didukung di Amazon Bedrock

  • Amazon Titan Image Generator G1 v2

  • Amazon Titan Image Generator G1

  • Anthropic Claude 3 Haiku

  • Anthropic Claude 3 Opus

  • Anthropic Claude 3 Sonnet

  • Anthropic Claude 3.5 Sonnet

  • Meta Llama 3.2 11B Instruct

  • Meta Llama 3.2 90B Instruct

  • Stability AI Stable Image Core 1.0

  • Stability AI Stable Image Ultra 1.0

Menggunakan filter konten gambar

Membuat atau memperbarui Guardrail dengan filter konten untuk gambar

Saat membuat pagar pembatas baru atau memperbarui pagar pembatas yang ada, pengguna sekarang akan melihat opsi untuk memilih gambar (dalam pratinjau) selain opsi teks yang ada. Opsi gambar tersedia untuk kategori Benci, Penghinaan, Seksual, atau Kekerasan. (Catatan: Secara default, opsi teks diaktifkan, dan opsi gambar harus diaktifkan secara eksplisit. Pengguna dapat memilih teks dan gambar atau salah satunya tergantung pada kasus penggunaan.

Klasifikasi filter dan tingkat pemblokiran

Penyaringan dilakukan berdasarkan klasifikasi kepercayaan input pengguna dan tanggapan FM. Semua input pengguna dan respons model diklasifikasikan di empat tingkat kekuatan - Tidak Ada, Rendah, Sedang, dan Tinggi. Kekuatan filter menentukan sensitivitas penyaringan konten berbahaya. Saat kekuatan filter meningkat, kemungkinan penyaringan konten berbahaya meningkat dan kemungkinan melihat konten berbahaya dalam aplikasi Anda berkurang. Ketika opsi gambar dan teks dipilih, kekuatan filter yang sama diterapkan pada kedua modalitas untuk kategori tertentu.

  1. Untuk mengonfigurasi filter gambar dan teks untuk kategori berbahaya, pilih Konfigurasi filter kategori berbahaya.

    catatan

    Filter konten gambar dalam pratinjau dan tidak akan tersedia jika model tidak menggunakan gambar untuk permintaan model atau tanggapan.

  2. Pilih Teks dan/atau Gambar untuk memfilter teks atau konten gambar dari petunjuk atau tanggapan ke dan dari model.

  3. Pilih Tidak Ada, Rendah, Sedang, atau Tinggi untuk tingkat filtrasi yang ingin Anda terapkan untuk setiap kategori. Pengaturan High membantu memblokir sebagian besar teks atau gambar yang berlaku untuk kategori filter tersebut.

  4. Pilih Gunakan filter kategori berbahaya yang sama untuk respons agar menggunakan setelan filter yang sama yang Anda gunakan untuk petunjuk. Anda juga dapat memilih untuk memiliki tingkat filter yang berbeda untuk permintaan atau tanggapan dengan tidak memilih opsi ini. Pilih Setel ulang ambang batas untuk mengatur ulang semua level filter untuk permintaan atau tanggapan.

  5. Pilih Tinjau dan buat atau Berikutnya untuk membuat pagar pembatas.

Mengkonfigurasi filter konten untuk gambar dengan API

Anda dapat menggunakan guardrail API untuk mengonfigurasi filter konten gambar di Amazon Bedrock Guardrails. Contoh di bawah ini menunjukkan filter Amazon Bedrock Guardrails dengan berbagai kategori konten berbahaya dan kekuatan filter yang diterapkan. Anda dapat menggunakan template ini sebagai contoh untuk kasus penggunaan Anda sendiri.

Dengan contentPolicyConfig operasi, filtersConfig adalah objek, seperti yang ditunjukkan pada contoh berikut.

Contoh kode Python Boto3 untuk membuat Pagar Pembatas dengan Filter Konten Gambar

import boto3 import botocore import json def main(): bedrock = boto3.client('bedrock', region_name='us-east-1') try: create_guardrail_response = bedrock.create_guardrail( name='my-image-guardrail', contentPolicyConfig={ 'filtersConfig': [ { 'type': 'SEXUAL', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'VIOLENCE', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'HATE', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'INSULTS', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'MISCONDUCT', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT'], 'outputModalities': ['TEXT'] }, { 'type': 'PROMPT_ATTACK', 'inputStrength': 'HIGH', 'outputStrength': 'NONE', 'inputModalities': ['TEXT'], 'outputModalities': ['TEXT'] } ] }, blockedInputMessaging='Sorry, the model cannot answer this question.', blockedOutputsMessaging='Sorry, the model cannot answer this question.', ) create_guardrail_response['createdAt'] = create_guardrail_response['createdAt'].strftime('%Y-%m-%d %H:%M:%S') print("Successfully created guardrail with details:") print(json.dumps(create_guardrail_response, indent=2)) except botocore.exceptions.ClientError as err: print("Failed while calling CreateGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId']) raise err if __name__ == "__main__": main()

Mengonfigurasi filter gambar agar berfungsi dengan API ApplyGuardrail

Anda dapat menggunakan filter konten untuk konten gambar dan teks menggunakan ApplyGuardrail API. Opsi ini memungkinkan Anda untuk menggunakan pengaturan filter konten tanpa menjalankan model Amazon Bedrock. Anda dapat memperbarui payload permintaan dalam skrip di bawah ini untuk berbagai model dengan mengikuti dokumentasi parameter inferensi untuk setiap model pondasi batuan dasar yang didukung oleh Amazon Bedrock Guardrails.

Anda dapat memperbarui payload permintaan dalam skrip di bawah ini untuk berbagai model dengan mengikuti dokumentasi parameter inferensi untuk setiap model pondasi batuan dasar yang didukung oleh Amazon Bedrock Guardrails.

import boto3 import botocore import json guardrail_id = 'guardrail-id' guardrail_version = 'DRAFT' content_source = 'INPUT' image_path = '/path/to/image.jpg' with open(image_path, 'rb') as image: image_bytes = image.read() content = [ { "text": { "text": "Hi, can you explain this image art to me." } }, { "image": { "format": "jpeg", "source": { "bytes": image_bytes } } } ] def main(): bedrock_runtime_client = boto3.client("bedrock-runtime", region_name="us-east-1") try: print("Making a call to ApplyGuardrail API now") response = bedrock_runtime_client.apply_guardrail( guardrailIdentifier=guardrail_id, guardrailVersion=guardrail_version, source=content_source, content=content ) print("Received response from ApplyGuardrail API:") print(json.dumps(response, indent=2)) except botocore.exceptions.ClientError as err: print("Failed while calling ApplyGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId']) raise err if __name__ == "__main__": main()
PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.