Rilevamento degli abusi su Amazon Bedrock - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilevamento degli abusi su Amazon Bedrock

AWS si impegna a utilizzare l'IA in modo responsabile. Per prevenire meglio potenziali abusi, Amazon Bedrock implementa meccanismi automatici di rilevamento per identificare potenziali violazioni della Policy di utilizzo accettabile (AUP) e dei Termini di servizio di AWS, inclusa la Policy sull'IA responsabile o una AUP del provider del modello di terzi.

I nostri meccanismi di rilevamento degli abusi sono completamente automatizzati, quindi non è prevista alcuna revisione umana o accesso agli input degli utenti o agli output dei modelli.

Il rilevamento automatico degli abusi include:

  • Classificazione dei contenuti: utilizziamo dei classificatori per rilevare contenuti dannosi (ad esempio contenuti che incitano alla violenza) negli input degli utenti e negli output dei modelli. Un classificatore è un algoritmo che elabora gli input e gli output del modello e che assegna il tipo di danno e il livello di confidenza. Possiamo eseguire questi classificatori sia sull'utilizzo di modelli di terze parti che su quelli Titan di terze parti. Il processo di classificazione è automatizzato e non prevede la revisione umana degli input degli utenti o degli output del modello.

  • Identificazione dei modelli: utilizziamo le metriche dei classificatori per identificare potenziali violazioni e comportamenti ricorrenti. Possiamo compilare e condividere metriche di classificazione anonime con provider di modelli di terze parti. Amazon Bedrock non memorizza l'input dell'utente o l'output del modello e non li condivide con provider di modelli di terze parti.

  • Rilevamento e blocco di materiale pedopornografico (CSAM): sei responsabile dei contenuti che tu (e i tuoi utenti finali) caricate su Amazon Bedrock e devi assicurarti che tali contenuti siano privi di immagini illegali. Per contribuire a fermare la diffusione del CSAM, Amazon Bedrock può utilizzare meccanismi automatici di rilevamento degli abusi (come la tecnologia di hash matching o i classificatori) per rilevare il CSAM apparente. Se Amazon Bedrock rileva un evidente CSAM negli input delle immagini, Amazon Bedrock bloccherà la richiesta e riceverai un messaggio di errore automatico. Amazon Bedrock può anche presentare una segnalazione al National Center for Missing and Exploited Children (NCMEC) o a un'autorità competente. Prendiamo sul serio CSAM e continueremo ad aggiornare i nostri meccanismi di rilevamento, blocco e segnalazione. Le leggi applicabili potrebbero obbligarti a intraprendere ulteriori azioni e sei responsabile di tali azioni.

Una volta che i nostri meccanismi automatici di rilevamento degli abusi identificano potenziali violazioni, possiamo richiedere informazioni sull'utilizzo di Amazon Bedrock e sulla conformità ai nostri termini di servizio o all'AUP di un fornitore terzo. Nel caso in cui tu non voglia o non sia in grado di rispettare questi termini o politiche, puoi AWS sospendere il tuo accesso ad Amazon Bedrock.

Contatta AWS l'assistenza se hai altre domande. Per ulteriori dettagli, consulta le domande frequenti su Amazon Bedrock.