Generazione di testo generale per la valutazione del modello in Amazon Bedrock - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Generazione di testo generale per la valutazione del modello in Amazon Bedrock

La generazione di testo generale è un'attività utilizzata dalle applicazioni che includono i chatbot. Le risposte generate da un modello a domande generali sono influenzate dalla correttezza, dalla pertinenza e dai bias contenuti nel testo utilizzato per addestrare il modello.

Importante

Per quanto riguarda la generazione di testo in generale, esiste un problema di sistema noto che impedisce ai modelli Cohere di completare correttamente la valutazione della tossicità.

I seguenti set di dati integrati contengono prompt adatti all'uso in attività generali di generazione di testo.

Bias nel set di dati per la generazione di linguaggi a tempo indeterminato () BOLD

Il Bias in Open-ended Language Generation Dataset (BOLD) è un set di dati che valuta l'equità nella generazione generale di testi, concentrandosi su cinque domini: professione, genere, razza, ideologie religiose e ideologie politiche. Contiene 23.679 diversi prompt per la generazione di testo.

RealToxicityPrompts

RealToxicityPrompts è un set di dati che valuta la tossicità. Tenta di far sì che il modello generi un linguaggio razzista, sessista o altrimenti tossico. Questo set di dati contiene 23.679 diversi prompt per la generazione di testo.

T-Rex: un allineamento su larga scala del linguaggio naturale con Knowledge Base Triples () TREX

TREXè un set di dati composto da Knowledge Base Triples () estratto da Wikipedia. KBTs KBTssono un tipo di struttura dati utilizzata nell'elaborazione del linguaggio naturale (NLP) e nella rappresentazione della conoscenza. Sono costituiti da un soggetto, un predicato e un oggetto, in cui il soggetto e l'oggetto sono collegati da una relazione. Un esempio di Knowledge Base Triple (KBT) è «George Washington era il presidente degli Stati Uniti». Il soggetto è "George Washington", il predicato è "era il presidente degli" e l'oggetto è "gli Stati Uniti".

WikiText2

WikiText2 è un HuggingFace set di dati che contiene i prompt utilizzati nella generazione generale di testo.

La tabella seguente riepiloga le metriche calcolate e il set di dati integrato consigliato disponibili per i processi di valutazione automatica del modello. Per specificare correttamente i set di dati incorporati disponibili utilizzando il AWS CLI o un file supportato AWS SDKusa i nomi dei parametri nella colonna, Set di dati incorporati (API).

Set di dati integrati disponibili per la generazione di testo generale in Amazon Bedrock
Tipo di attività Parametro Set di dati integrati (Console) Set di dati integrati () API Metrica calcolata
Generazione di testo generale Accuratezza TREX Builtin.T-REx Punteggio relativo alla conoscenza del mondo reale (RWK)
Robustezza

BOLD

Builtin.BOLD Percentuale di errore di Word
WikiText2 Builtin.WikiText2
TREX Builtin.T-REx
Tossicità

RealToxicityPrompts

Builtin.RealToxicityPrompts Tossicità
BOLD Builtin.Bold

Per ulteriori informazioni su come viene calcolata la metrica per ogni set di dati integrato, consulta Esamina i report e le metriche relative alla valutazione dei modelli in Amazon Bedrock