Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Utilizzo del rilevamento di linguaggio tossico

Modalità Focus
Utilizzo del rilevamento di linguaggio tossico - Amazon Transcribe

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Utilizzo del rilevamento di linguaggio tossico in una trascrizione in batch

Per utilizzare il rilevamento di linguaggio tossico con una trascrizione in batch, vedi quanto segue per alcuni esempi:

  1. Accedi alla AWS Management Console.

  2. Nel riquadro di navigazione, scegli Processi di trascrizione, quindi seleziona Crea processo (in alto a destra). Si aprirà la pagina Specifica i dettagli del processo.

    Amazon Transcribe schermata della console: la pagina «specifica i dettagli del lavoro».
  3. Nella pagina Specifica i dettagli del processo, puoi anche abilitare la redazione delle PII, se lo desideri. Tieni presente che le altre opzioni elencate non sono supportate dal rilevamento della tossicità. Seleziona Avanti. Verrà visualizzata la pagina Configura processo - opzionale. Nel pannello Impostazioni audio, seleziona Rilevamento della tossicità.

    Amazon Transcribe schermata della console: la pagina «configura il lavoro».
  4. Seleziona Crea processo per eseguire il processo di trascrizione.

  5. Una volta completato il processo di trascrizione, puoi scaricare la trascrizione dal menu a discesa Scarica nella pagina dei dettagli del processo di trascrizione.

  1. Accedi alla AWS Management Console.

  2. Nel riquadro di navigazione, scegli Processi di trascrizione, quindi seleziona Crea processo (in alto a destra). Si aprirà la pagina Specifica i dettagli del processo.

    Amazon Transcribe schermata della console: la pagina «specifica i dettagli del lavoro».
  3. Nella pagina Specifica i dettagli del processo, puoi anche abilitare la redazione delle PII, se lo desideri. Tieni presente che le altre opzioni elencate non sono supportate dal rilevamento della tossicità. Seleziona Avanti. Verrà visualizzata la pagina Configura processo - opzionale. Nel pannello Impostazioni audio, seleziona Rilevamento della tossicità.

    Amazon Transcribe schermata della console: la pagina «configura il lavoro».
  4. Seleziona Crea processo per eseguire il processo di trascrizione.

  5. Una volta completato il processo di trascrizione, puoi scaricare la trascrizione dal menu a discesa Scarica nella pagina dei dettagli del processo di trascrizione.

Questo esempio utilizza il start-transcription-jobcomando e il parametro. ToxicityDetection Per ulteriori informazioni, consulta StartTranscriptionJob e ToxicityDetection.

aws transcribe start-transcription-job \ --region us-west-2 \ --transcription-job-name my-first-transcription-job \ --media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \ --output-bucket-name amzn-s3-demo-bucket \ --output-key my-output-files/ \ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL

Ecco un altro esempio di utilizzo del start-transcription-jobcomando e un corpo della richiesta che include il rilevamento della tossicità.

aws transcribe start-transcription-job \ --region us-west-2 \ --cli-input-json file://filepath/my-first-toxicity-job.json

Il file my-first-toxicity-job.json contiene il seguente corpo della richiesta.

{ "TranscriptionJobName": "my-first-transcription-job", "Media": { "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac" }, "OutputBucketName": "amzn-s3-demo-bucket", "OutputKey": "my-output-files/", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }

Questo esempio utilizza il start-transcription-jobcomando e il parametro. ToxicityDetection Per ulteriori informazioni, consulta StartTranscriptionJob e ToxicityDetection.

aws transcribe start-transcription-job \ --region us-west-2 \ --transcription-job-name my-first-transcription-job \ --media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \ --output-bucket-name amzn-s3-demo-bucket \ --output-key my-output-files/ \ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL

Ecco un altro esempio di utilizzo del start-transcription-jobcomando e un corpo della richiesta che include il rilevamento della tossicità.

aws transcribe start-transcription-job \ --region us-west-2 \ --cli-input-json file://filepath/my-first-toxicity-job.json

Il file my-first-toxicity-job.json contiene il seguente corpo della richiesta.

{ "TranscriptionJobName": "my-first-transcription-job", "Media": { "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac" }, "OutputBucketName": "amzn-s3-demo-bucket", "OutputKey": "my-output-files/", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }

Questo esempio utilizza AWS SDK for Python (Boto3) to enable ToxicityDetection per il metodo start_transcription_job. Per ulteriori informazioni, consulta StartTranscriptionJob e ToxicityDetection.

Per ulteriori esempi di utilizzo dello scenario e degli esempi tra servizi AWS SDKs, inclusi quelli relativi a specifiche funzionalità, consultate il capitolo. Esempi di codice per l'utilizzo di Amazon Transcribe AWS SDKs

from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', 'us-west-2') job_name = "my-first-transcription-job" job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'amzn-s3-demo-bucket', OutputKey = 'my-output-files/', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)

Questo esempio utilizza AWS SDK for Python (Boto3) to enable ToxicityDetection per il metodo start_transcription_job. Per ulteriori informazioni, consulta StartTranscriptionJob e ToxicityDetection.

Per ulteriori esempi di utilizzo dello scenario e degli esempi tra servizi AWS SDKs, inclusi quelli relativi a specifiche funzionalità, consultate il capitolo. Esempi di codice per l'utilizzo di Amazon Transcribe AWS SDKs

from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', 'us-west-2') job_name = "my-first-transcription-job" job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'amzn-s3-demo-bucket', OutputKey = 'my-output-files/', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)

Output di esempio

Il linguaggio tossico è etichettato e classificato nell'output della trascrizione. Ogni istanza di linguaggio tossico viene classificata e assegnato un punteggio di affidabilità (un valore compreso tra 0 e 1). Un valore di affidabilità più elevato indica una maggiore probabilità che il contenuto contenga linguaggio tossico all'interno della categoria specificata.

Di seguito è riportato un esempio di output in formato JSON che mostra linguaggio tossico classificato con punteggi di affidabilità associati.

{ "jobName": "my-toxicity-job", "accountId": "111122223333", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }

Di seguito è riportato un esempio di output in formato JSON che mostra linguaggio tossico classificato con punteggi di affidabilità associati.

{ "jobName": "my-toxicity-job", "accountId": "111122223333", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.