As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Usar conjuntos de dados de prompts personalizados para avaliação de modelo no Amazon Bedrock
Para criar um trabalho de avaliação automática do modelo, você deve especificar um conjunto de dados imediato. Os prompts são então usados durante a inferência com o modelo que você selecionou para avaliar. O Amazon Bedrock fornece conjuntos de dados integrados que podem ser usados em avaliações de modelo automáticas, mas você também pode trazer seu próprio conjunto de dados de prompts.
Use as seções a seguir para saber mais sobre os conjuntos de dados de prompts integrados disponíveis e sobre como criar conjuntos de dados de prompts personalizados.
Usar conjuntos de dados de prompts integrados para avaliação de modelo automática no Amazon Bedrock
O Amazon Bedrock fornece vários conjuntos de dados de prompts integrados que é possível usar em um trabalho automático de avaliação de modelo. Cada conjunto de dados integrado é baseado em um conjunto de dados de código aberto. Reduzimos as amostras aleatoriamente de cada conjunto de dados de código aberto para incluir apenas cem prompts.
Ao criar um trabalho automático de avaliação de modelo e escolher um Tipo de tarefa, o Amazon Bedrock fornece uma lista de métricas recomendadas. Para cada métrica, o Amazon Bedrock também fornece conjuntos de dados integrados recomendados. Para saber mais sobre os tipos de tarefa disponíveis, consulte Tipos de tarefa de avaliação de modelo no Amazon Bedrock.
- Viés no conjunto de dados de geração de linguagem aberta () BOLD
-
O conjunto de dados Bias in Open-ended Language Generation (BOLD) é um conjunto de dados que avalia a justiça na geração geral de texto, com foco em cinco domínios: profissão, gênero, raça, ideologias religiosas e ideologias políticas. Ele contém 23.679 prompts diferentes de geração de texto.
- RealToxicityPrompts
-
RealToxicityPrompts é um conjunto de dados que avalia a toxicidade. Ele tenta fazer com que o modelo gere uma linguagem racista, sexista ou tóxica. Esse conjunto de dados contém 100.000 prompts diferentes de geração de texto.
- T-Rex: um alinhamento em grande escala da linguagem natural com triplos da base de conhecimento () TREX
-
TREXé um conjunto de dados que consiste em Triples (KBTs) da Base de Conhecimento extraído da Wikipedia. KBTssão um tipo de estrutura de dados usada no processamento de linguagem natural (NLP) e na representação do conhecimento. Elas consistem em um sujeito, predicado e objeto, onde o sujeito e o objeto estão ligados por uma relação. Um exemplo de base de conhecimento tripla (KBT) é “George Washington foi presidente dos Estados Unidos da América”. O sujeito é “George Washington”, o predicado é “foi presidente do” e o objeto é “os Estados Unidos”.
- WikiText2
-
WikiText2 é um HuggingFace conjunto de dados que contém avisos usados na geração geral de texto.
- Gigaword
-
O conjunto de dados Gigaword consiste em manchetes de artigos de notícias. Esse conjunto de dados é usado em tarefas de resumo de texto.
- BoolQ
-
BoolQ é um conjunto de dados que consiste em pares de perguntas e respostas sim/não. O prompt contém uma passagem curta e uma pergunta sobre a passagem. Esse conjunto de dados é recomendado para uso com o tipo de tarefa de perguntas e respostas.
- Natural Questions
-
A pergunta natural é um conjunto de dados que consiste em perguntas reais de usuários enviadas para Google pesquisar.
- TriviaQA
-
O TriviaQA é um conjunto de dados que contém mais de 650 mil. question-answer-evidence-triples Esse conjunto de dados é usado em tarefas de perguntas e respostas.
- Women's E-Commerce Clothing Reviews
-
Women's E-Commerce Clothing Reviews é um conjunto de dados que contém avaliações de roupas escritas por clientes. Esse conjunto de dados é usado em tarefas de classificação de texto.
Na tabela a seguir, é possível ver a lista de conjuntos de dados disponíveis agrupados por tipo de tarefa. Para saber mais sobre como as métricas automáticas são calculadas, consulte Analisar as métricas de um trabalho automatizado de avaliação de modelo no Amazon Bedrock (console).
Tipo de tarefa | Métrica | Conjuntos de dados integrados | Métrica computada |
---|---|---|---|
Geração de texto geral | Precisão | TREX |
Pontuação de conhecimento do mundo real (RWK) |
Robustez | Taxa de palavras erradas | ||
TREX |
|||
WikiText2 |
|||
Toxicidade | Toxicidade | ||
BOLD |
|||
Resumo de texto | Precisão | Gigaword |
BERTScore |
Toxicidade | Gigaword |
Toxicidade | |
Robustez | Gigaword |
BERTScore e deltaBERTScore | |
Pergunta e resposta | Precisão | BoolQ |
NLP-F1 |
NaturalQuestions |
|||
TriviaQA |
|||
Robustez | BoolQ |
F1 e deltaF1 | |
NaturalQuestions |
|||
TriviaQA |
|||
Toxicidade | BoolQ |
Toxicidade | |
NaturalQuestions |
|||
TriviaQA |
|||
Classificação de texto | Precisão | Women's Ecommerce Clothing Reviews |
Precisão (precisão binária de classification_accuracy_score) |
Robustez | Women's Ecommerce Clothing Reviews |
classification_accuracy_score e delta_classification_accuracy_score |
Para saber mais sobre os requisitos de criação e obter exemplos de conjuntos de dados de prompts personalizados, consulte Usar conjuntos de dados de prompts personalizados para avaliação de modelo no Amazon Bedrock.
Usar conjuntos de dados de prompts personalizados para avaliação de modelo no Amazon Bedrock
Você pode criar um conjunto de dados de prompt personalizado em trabalhos de avaliação automática de modelos. Os conjuntos de dados de prompts personalizados devem ser armazenados no Amazon S3 e usar JSON o formato de linha e usar a extensão de arquivo. .jsonl
Cada linha deve ser um JSON objeto válido. Um conjunto de dados pode ter até 1.000 prompts por trabalho de avaliação automática.
Para trabalhos criados usando o console, você deve atualizar a configuração Cross Origin Resource Sharing (CORS) no bucket do S3. Para saber mais sobre as CORS permissões necessárias, consultePermissões obrigatórias de compartilhamento de recursos entre origens (CORS) em buckets do S3.
Você deve usar os seguintes pares de valores de chaves em um conjunto de dados personalizado.
-
prompt
: necessária para indicar a entrada para as seguintes tarefas:-
O prompt ao qual o modelo deve responder em caso de geração de texto geral.
-
A pergunta que o modelo deve responder no tipo de tarefa de perguntas e respostas.
-
O texto que o modelo deve resumir na tarefa de resumo de texto.
-
O texto que o modelo deve classificar nas tarefas de classificação.
-
-
referenceResponse
: necessária para indicar a resposta real em relação à qual o modelo é avaliado para os seguintes tipos de tarefas:-
A resposta para todos os prompts em tarefas de perguntas e respostas.
-
A resposta para todas as avaliações de precisão e robustez.
-
-
(Opcional)
category
: gera pontuações de avaliação relatadas para cada categoria.
Por exemplo, a precisão exige tanto a pergunta feita quanto uma resposta para comparar a resposta do modelo. Neste exemplo, use a chave prompt
com o valor contido na pergunta e a chave referenceResponse
com o valor contido na resposta, conforme mostrado a seguir.
{ "prompt": "Bobigny is the capital of", "referenceResponse": "Seine-Saint-Denis", "category": "Capitals" }
O exemplo anterior é uma única linha de um arquivo de entrada de JSON linha que será enviada ao seu modelo como uma solicitação de inferência. O modelo será invocado para cada registro desse tipo em seu conjunto de dados JSON de linha. O exemplo de entrada de dados a seguir se refere a uma tarefa de resposta a perguntas que usa uma chave category
opcional para avaliação.
{"prompt":"Aurillac is the capital of", "category":"Capitals", "referenceResponse":"Cantal"} {"prompt":"Bamiyan city is the capital of", "category":"Capitals", "referenceResponse":"Bamiyan Province"} {"prompt":"Sokhumi is the capital of", "category":"Capitals", "referenceResponse":"Abkhazia"}