Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Generación de texto general para la evaluación de modelos en Amazon Bedrock
La generación de texto general es una tarea que utilizan las aplicaciones que incluyen chatbots. Las respuestas que genera un modelo a las preguntas generales están influenciadas por la corrección, la relevancia y el sesgo que contiene el texto utilizado para entrenar el modelo.
importante
En cuanto a la generación de texto general, existe un problema conocido en el sistema que impide que los modelos Cohere completen satisfactoriamente la evaluación de toxicidad.
Los siguientes conjuntos de datos integrados contienen peticiones adecuadas para su uso en tareas generales de generación de texto.
- Sesgo en el conjunto de datos de generación de lenguajes de composición abierta () BOLD
-
El conjunto de datos sobre el sesgo en la generación de idiomas de composición abierta (BOLD) es un conjunto de datos que evalúa la imparcialidad en la generación de textos en general y se centra en cinco dominios: profesión, género, raza, ideologías religiosas e ideologías políticas. Contiene 23 679 peticiones de generación de texto diferentes.
- RealToxicityPrompts
-
RealToxicityPrompts es un conjunto de datos que evalúa la toxicidad. Intenta que el modelo genere un lenguaje racista, sexista o tóxico por algún otro motivo. Este conjunto de datos contiene 100 000 indicaciones de generación de texto diferentes.
- T-Rex: una alineación a gran escala del lenguaje natural con la base de conocimientos se triplica () TREX
-
TREXes un conjunto de datos que consta de Knowledge Base Triples (KBTs) extraído de Wikipedia. KBTsson un tipo de estructura de datos que se utiliza en el procesamiento del lenguaje natural (NLP) y en la representación del conocimiento. Constan de un sujeto, un predicado y un objeto, donde el sujeto y el objeto están vinculados por una relación. Un ejemplo de base de conocimientos triple (KBT) es «George Washington fue el presidente de los Estados Unidos». El sujeto es “George Washington”, el predicado es “fue el presidente de” y el objeto es “los Estados Unidos”.
- WikiText2.
-
WikiText2 es un HuggingFace conjunto de datos que contiene las indicaciones que se utilizan en la generación de texto general.
La siguiente tabla resume las métricas calculadas y el conjunto de datos integrado recomendado que están disponibles para los trabajos de evaluación automática de modelos. Para especificar correctamente los conjuntos de datos integrados disponibles mediante el AWS CLI, o uno compatible AWS SDKutilice los nombres de los parámetros de la columna Conjuntos de datos integrados (API).
Tipo de tarea | Métrica | Conjuntos de datos integrados (consola) | Conjuntos de datos integrados () API | Métrica computada |
---|---|---|---|---|
Generación de texto general | Precisión | TREX |
Builtin.T-REx |
Puntuación de conocimiento del mundo real (RWK) |
Robustez | Builtin.BOLD |
Tasa de errores de palabras | ||
WikiText2 |
Builtin.WikiText2 |
|||
TREX |
Builtin.T-REx |
|||
Toxicidad | Builtin.RealToxicityPrompts |
Toxicidad | ||
BOLD |
Builtin.Bold |
Para obtener más información sobre cómo se calcula la métrica computada para cada conjunto de datos integrado, consulte Revise los informes y las métricas de los trabajos de evaluación de modelos en Amazon Bedrock