Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Mendeteksi ucapan beracun

Mode fokus
Mendeteksi ucapan beracun - Amazon Transcribe

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Deteksi ucapan beracun dirancang untuk membantu memoderasi platform media sosial yang melibatkan peer-to-peer dialog, seperti game online dan platform obrolan sosial. Penggunaan pidato beracun dapat sangat merugikan individu, kelompok sebaya, dan komunitas. Menandai bahasa berbahaya membantu organisasi menjaga percakapan tetap sipil dan menjaga lingkungan online yang aman dan inklusif bagi pengguna untuk membuat, berbagi, dan berpartisipasi secara bebas.

Amazon Transcribe Deteksi Toksisitas memanfaatkan isyarat berbasis audio dan teks untuk mengidentifikasi dan mengklasifikasikan konten beracun berbasis suara di tujuh kategori termasuk pelecehan seksual, ujaran kebencian, ancaman, pelecehan, kata-kata kotor, penghinaan, dan grafik. Selain teks, Deteksi Amazon Transcribe Toksisitas menggunakan isyarat ucapan, seperti nada dan nada untuk mengasah niat beracun dalam berbicara. Ini adalah peningkatan dari sistem moderasi konten standar yang dirancang untuk fokus hanya pada persyaratan tertentu, tanpa memperhitungkan niat.

Amazon Transcribe menandai dan mengkategorikan ucapan beracun, yang meminimalkan volume data yang harus diproses secara manual. Hal ini memungkinkan moderator konten untuk dengan cepat dan efisien mengelola wacana di platform mereka.

Kategori pidato beracun meliputi:

  • Kata-kata kotor: Pidato yang berisi kata-kata, frasa, atau akronim yang tidak sopan, vulgar, atau menyinggung.

  • Ucapan kebencian: Pidato yang mengkritik, menghina, mencela, atau merendahkan seseorang atau kelompok berdasarkan identitas (seperti ras, etnis, jenis kelamin, agama, orientasi seksual, kemampuan, dan asal kebangsaan).

  • Seksual: Pidato yang menunjukkan minat seksual, aktivitas, atau gairah menggunakan referensi langsung atau tidak langsung ke bagian tubuh, sifat fisik, atau jenis kelamin.

  • Penghinaan: Pidato yang mencakup bahasa yang merendahkan, mempermalukan, mengejek, menghina, atau meremehkan. Jenis bahasa ini juga diberi label sebagai bullying.

  • Kekerasan atau ancaman: Pidato yang mencakup ancaman yang berusaha menimbulkan rasa sakit, cedera, atau permusuhan terhadap seseorang atau kelompok.

  • Grafis: Pidato yang menggunakan citra visual deskriptif dan jelas yang tidak menyenangkan. Jenis bahasa ini sering sengaja bertele-tele untuk memperkuat ketidaknyamanan penerima.

  • Pelecehan atau pelecehan: Pidato dimaksudkan untuk memengaruhi kesejahteraan psikologis penerima, termasuk istilah yang merendahkan dan mengobjektifikasi. Jenis bahasa ini juga diberi label sebagai pelecehan.

Deteksi toksisitas menganalisis segmen bicara (ucapan antara jeda alami) dan memberikan skor kepercayaan pada segmen ini. Skor kepercayaan adalah nilai antara 0 dan 1. Skor kepercayaan yang lebih besar menunjukkan kemungkinan yang lebih besar bahwa konten tersebut adalah ucapan beracun dalam kategori terkait. Anda dapat menggunakan skor kepercayaan ini untuk menetapkan ambang batas deteksi toksisitas yang sesuai untuk kasus penggunaan Anda.

catatan

Deteksi toksisitas hanya tersedia untuk transkripsi batch dalam bahasa Inggris AS. (en-US)

Lihat contoh output dalam format JSON.

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.