Terminologia básica - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Terminologia básica

Este capítulo explica a terminologia que ajudará você a compreender o que o Amazon Bedrock oferece e como ele funciona. Leia a seguinte lista para compreender a terminologia de IA generativa e os recursos fundamentais do Amazon Bedrock:

  • Modelo de base (FM): um modelo de IA com um grande número de parâmetros e treinado em uma grande quantidade de dados diversos. Um modelo de base pode gerar uma variedade respostas para uma ampla gama de casos de uso. Os modelos de base podem gerar texto ou imagem e também podem converter entradas em incorporações. Antes de usar um modelo de base do Amazon Bedrock, você deve solicitar acesso. Para obter mais informações sobre modelos, consulte Modelos de base compatíveis no Amazon Bedrock.

  • Modelo de base: um modelo de base que é fornecido empacotado por um fornecedor e pronto para uso. O Amazon Bedrock oferece uma variedade de modelos de base líderes do setor dos principais fornecedores. Para obter mais informações, consulte Modelos de base compatíveis no Amazon Bedrock.

  • Inferência de modelo: o processo de um modelo de base que gera uma saída (resposta) em uma determinada entrada (prompt). Para obter mais informações, consulte Envie prompts e gere respostas com a inferência de modelo.

  • Prompt: uma entrada fornecida a um modelo para que ele gere uma resposta. Por exemplo, um prompt de texto pode consistir em uma única linha para o modelo responder, ou pode detalhar instruções ou uma tarefa para o modelo executar. O prompt pode conter o contexto da tarefa, exemplos de saídas ou texto para um modelo usar em sua resposta. Os prompts podem ser usados para executar tarefas, como classificação, resposta a perguntas, geração de código, redação criativa e muito mais. Para obter mais informações, consulte Conceitos de engenharia de prompts.

  • Token: uma sequência de caracteres que um modelo pode interpretar ou prever como uma única unidade de significado. Por exemplo, com modelos de texto, um símbolo pode corresponder não apenas a uma palavra, mas também a uma parte de uma palavra com significado gramatical (como “-ed”), um sinal de pontuação (como “?”), ou uma frase comum (como “muito”).

  • Parâmetros de modelo: valores que definem um modelo e seu comportamento na interpretação de entradas e na geração de respostas. Os parâmetros de modelo são controlados e atualizados pelos provedores. Você também pode atualizar os parâmetros do modelo para criar um modelo por meio do processo de personalização do modelo.

  • Parâmetros de inferência: valores que podem ser ajustados durante a inferência do modelo para influenciar uma resposta. Os parâmetros de inferência podem afetar a variedade das respostas e o tamanho de uma resposta ou a ocorrência de sequências especificadas. Para obter mais informações e definições de parâmetros de inferência específicos, consulte Geração de resposta de influência com parâmetros de inferência..

  • Playground — Uma interface gráfica fácil de usar AWS Management Console na qual você pode experimentar a execução da inferência de modelos para se familiarizar com o Amazon Bedrock. Use o playground para testar os efeitos de diferentes modelos, configurações e parâmetros de inferência nas respostas geradas para diferentes prompts que você insere. Para obter mais informações, consulte Gerar respostas no console usando playgrounds.

  • Incorporação: o processo de condensar informações transformando a entrada em um vetor de valores numéricos, conhecido como incorporação, a fim de comparar a semelhança entre objetos diferentes usando uma representação numérica compartilhada. Por exemplo, sentenças podem ser comparadas para determinar a semelhança de significado, imagens podem ser comparadas para determinar semelhança visual ou texto e imagem podem ser comparados para ver se são relevantes um para o outro. Você também pode combinar entradas de texto e de imagem em um vetor de incorporações médias, se for relevante para o caso de uso. Para ter mais informações, consulte Envie prompts e gere respostas com a inferência de modelo e Recupere dados e gere respostas de IA com as bases de conhecimento Amazon Bedrock.

  • Orquestração: o processo de coordenação entre modelos de base e dados e aplicações corporativos para executar uma tarefa. Para obter mais informações, consulte Automatize tarefas em seu aplicativo usando agentes de IA.

  • Agente — Um aplicativo que realiza orquestrações por meio da interpretação cíclica de entradas e da produção de saídas usando um modelo básico. Um agente pode ser usado para executar as solicitações dos clientes. Para obter mais informações, consulte Automatize tarefas em seu aplicativo usando agentes de IA.

  • Geração aumentada via recuperação (RAG): o processo de consultar e recuperar informações de uma fonte de dados para aumentar a resposta gerada a um prompt. Para obter mais informações, consulte Recupere dados e gere respostas de IA com as bases de conhecimento Amazon Bedrock.

  • Personalização de modelo: o processo de usar dados de treinamento para ajustar os valores de parâmetros de modelos em um modelo de base a fim de criar um modelo personalizado. Exemplos de personalização de modelo incluem o ajuste, que usa dados rotulados (entradas e saídas correspondentes), e o Pré-treinamento contínuo, que usa dados não rotulados (somente entradas) para ajustar os parâmetros do modelo. Para obter mais informações sobre as técnicas de personalização de modelos disponíveis no Amazon Bedrock, consulte Personalizar o modelo para melhorar a performance para o caso de uso.

  • Hiperparâmetros: valores que podem ser ajustados para a personalização do modelo para controlar o processo de treinamento e, consequentemente, o modelo personalizado de saída. Para obter mais informações e definições de hiperparâmetros, consulte Hiperparâmetros de modelo personalizado.

  • Avaliação de modelo: o processo de avaliar e comparar os resultados do modelo a fim de determinar o modelo mais adequado para um caso de uso. Para obter mais informações, consulte Avalie o desempenho dos recursos do Amazon Bedrock.

  • Throughput provisionado: um nível de throughput que você compra para um modelo de base ou personalizado a fim de aumentar a quantidade e/ou a taxa de tokens processados durante a inferência do modelo. Quando você compra throughput provisionado para um modelo, é criado um modelo provisionado que pode ser usado para executar a inferência do modelo. Para obter mais informações, consulte Aumentar a capacidade de invocação do modelo com throughput provisionado no Amazon Bedrock.