Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon Bedrock Guardrails può implementare misure di protezione per le tue applicazioni di intelligenza artificiale generativa in base ai tuoi casi d'uso e alle politiche di intelligenza artificiale responsabili. Puoi creare più barriere personalizzate per diversi casi d'uso e applicarle a più modelli di base (FM), offrendo un'esperienza utente coerente e standardizzando i controlli di sicurezza e privacy nelle applicazioni di intelligenza artificiale generativa. È possibile utilizzare i guardrail sia per gli input degli utenti che per modellare le risposte con linguaggio naturale.
I guardrail possono essere utilizzati in diversi modi per aiutare a salvaguardare le applicazioni di intelligenza artificiale generativa. Per esempio:
Un'applicazione chatbot può utilizzare i guardrail per aiutare a filtrare gli input dannosi degli utenti e le risposte tossiche dei modelli.
Un'applicazione bancaria può utilizzare i guardrails per aiutare a bloccare le domande degli utenti o le risposte modello associate alla ricerca o alla fornitura di consulenza in materia di investimenti.
Un'applicazione di call center per riepilogare le trascrizioni delle conversazioni tra utenti e agenti può utilizzare i guardrail per oscurare le informazioni di identificazione personale (PII) degli utenti per proteggere la privacy degli utenti.
Amazon Bedrock Guardrails supporta le seguenti politiche:
-
Filtri per i contenuti: regola la potenza dei filtri per bloccare le richieste di input o modellare le risposte contenenti contenuti dannosi. Il filtraggio viene eseguito in base al rilevamento di alcune categorie di contenuti dannosi predefinite: odio, insulti, sesso, violenza, cattiva condotta e attacco immediato.
-
Argomenti negati: definisci una serie di argomenti indesiderati nel contesto della tua candidatura. Il filtro aiuterà a bloccarli se rilevati nelle domande degli utenti o nelle risposte del modello.
-
Filtri testuali: configura i filtri per bloccare parole, frasi e parolacce indesiderate (corrispondenza esatta). Tali parole possono includere termini offensivi, nomi di concorrenti, ecc.
-
Filtri per informazioni sensibili: configura i filtri per bloccare o mascherare le informazioni sensibili, come le informazioni di identificazione personale (PII) o espressioni regolari personalizzate negli input degli utenti e nelle risposte del modello. Il blocco o il mascheramento vengono eseguiti sulla base del rilevamento probabilistico di informazioni sensibili in formati standard in entità come numero SSN, data di nascita, indirizzo, ecc. Ciò consente anche di configurare il rilevamento dei pattern per gli identificatori basato su espressioni regolari.
-
Controllo contestuale del grounding: aiuta a rilevare e filtrare le allucinazioni nelle risposte del modello basate sulla localizzazione di una fonte e sulla pertinenza rispetto alla richiesta dell'utente.
-
Filtro del contenuto delle immagini: aiuta a rilevare e filtrare contenuti di immagini inappropriati o tossici. Gli utenti possono impostare filtri per categorie specifiche e impostare l'intensità del filtro.
Oltre alle politiche di cui sopra, puoi anche configurare i messaggi da restituire all'utente se l'input dell'utente o la risposta del modello violano le politiche definite nel guardrail.
Sperimenta e confronta diverse configurazioni e utilizza la finestra di test integrata per assicurarti che i risultati soddisfino i requisiti del caso d'uso. Quando create un guardrail, è automaticamente disponibile una bozza di lavoro che potete modificare in modo iterativo. Sperimentate diverse configurazioni e utilizzate la finestra di test integrata per vedere se sono adatte al vostro caso d'uso. Se sei soddisfatto di un set di configurazioni, puoi creare una versione del guardrail e utilizzarla con i modelli di base supportati.
I guardrail possono essere utilizzati direttamente FMs durante l'invocazione dell'API di inferenza specificando l'ID del guardrail e la versione. I guardrail possono anche essere utilizzati direttamente tramite l'API senza richiamare i modelli di base. ApplyGuardrail Se viene utilizzato un guardrail, valuterà i prompt di input e i completamenti FM rispetto alle politiche definite.
Per le applicazioni di generazione aumentata di recupero (RAG) o conversazionali, potrebbe essere necessario valutare solo l'input dell'utente nel prompt di input, ignorando le istruzioni di sistema, i risultati della ricerca, la cronologia delle conversazioni o alcuni brevi esempi. Per valutare selettivamente una sezione del prompt di input, vedere. Applica tag all'input dell'utente per filtrare i contenuti
Importante
-
Amazon Bedrock Guardrails supporta inglese, francese e spagnolo in linguaggio naturale. Guardrails sarà inefficace con qualsiasi altra lingua.