As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Importe um modelo personalizado para o Amazon Bedrock
O Custom Model Import está na versão prévia do Amazon Bedrock e está sujeito a alterações. |
Você pode criar um modelo personalizado no Amazon Bedrock usando o recurso de importação de modelo personalizado para importar modelos básicos que você personalizou em outros ambientes, como a Amazon SageMaker. Por exemplo, você pode ter um modelo criado na Amazon SageMaker que tenha pesos de modelo proprietários. Agora você pode importar esse modelo para o Amazon Bedrock e depois aproveitar os recursos do Amazon Bedrock para fazer chamadas de inferência para o modelo.
Você pode usar um modelo que você importa com taxa de transferência sob demanda. Use as InvokeModelWithResponseStreamoperações InvokeModelou para fazer chamadas de inferência para o modelo. Para obter mais informações, consulte Envie uma única solicitação com as InvokeModel API operações.
nota
Para a versão prévia, a importação de modelos personalizados está disponível somente nas AWS regiões Leste dos EUA (Norte da Virgínia) e Oeste dos EUA (Oregon). Você não pode usar o Custom Model Import com os seguintes recursos do Amazon Bedrock.
Agentes Amazon Bedrock
Bases de conhecimento do Amazon Bedrock
Guarda-corpos Amazon Bedrock
Inferência em lote
AWS CloudFormation
Antes de usar a importação de modelo personalizado, você deve primeiro solicitar um aumento de cota para a Imported models per account
cota. Consulte Requesting a quota increase (Como solicitar um aumento de cota) para obter mais informações.
Com a importação de modelo personalizado, você pode criar um modelo personalizado que suporte os seguintes padrões.
-
Modelo de pré-treinamento aperfeiçoado ou contínuo — Você pode personalizar os pesos do modelo usando dados proprietários, mas manter a configuração do modelo básico.
-
Adaptação Você pode personalizar o modelo em seu domínio para casos de uso em que o modelo não se generaliza bem. A adaptação de domínio modifica um modelo para generalizar para um domínio alvo e lidar com discrepâncias entre domínios, como um setor financeiro que deseja criar um modelo que generalize bem os preços. Outro exemplo é a adaptação linguística. Por exemplo, você pode personalizar um modelo para gerar respostas em português ou tâmil. Na maioria das vezes, isso envolve alterações no vocabulário do modelo que você está usando.
-
Pré-treinado do zero — Além de personalizar os pesos e o vocabulário do modelo, você também pode alterar os parâmetros de configuração do modelo, como o número de cabeças de atenção, camadas ocultas ou comprimento do contexto.
Arquiteturas suportadas
O modelo que você importa deve estar em uma das seguintes arquiteturas.
-
Mistral— Uma arquitetura baseada em Transformer somente para decodificadores com Sliding Window Attention (SWA) e opções para Grouped Query Attention (). GQA Para ter mais informações, consulte Mistral
na documentação do Hugging Face. -
Flan — Uma versão aprimorada da arquitetura T5, um modelo de transformador baseado em codificador-decodificador. Para ter mais informações, consulte Flan T5
na documentação do Hugging Face. -
Llama 2 e Llama3— Uma versão aprimorada do Llama com Atenção de consulta agrupada (GQA). Para ter mais informações, consulte Llama 2
e Llama 3 na documentação do Hugging Face.
Importar fonte
Você importa um modelo para o Amazon Bedrock criando um trabalho de importação de modelo no console do Amazon Bedrock. No trabalho, você especifica o Amazon S3 URI para a origem dos arquivos do modelo. Como alternativa, se você criou o modelo na Amazon SageMaker, você pode especificar o SageMaker modelo. Durante o treinamento do modelo, o trabalho de importação detecta automaticamente a arquitetura do seu modelo.
Se você importar de um bucket do Amazon S3, precisará fornecer os arquivos de modelo no Hugging Face formato de pesos. Você pode criar os arquivos usando a biblioteca de transformadores Hugging Face. Para criar arquivos de modelo para um Llama modelo, consulte convert_llama_weights_to_hf.py
Para importar o modelo do Amazon S3, você precisa minimamente dos seguintes arquivos criados pela biblioteca de transformadores Hugging Face.
-
.safetensor — os pesos do modelo no formato Safetensor. Safetensors é um formato criado por Hugging Face que armazena os pesos de um modelo como tensores. Você deve armazenar os tensores do seu modelo em um arquivo com a extensão
.safetensors
. Para obter mais informações, consulte Safetensors. Para obter informações sobre como converter pesos do modelo para o formato Safetensor, consulte Converter pesos em sensores de segurança. nota
Atualmente, o Amazon Bedrock suporta apenas pesos de modelo com FP32FP16, e BF16 precisão. O Amazon Bedrock rejeitará os pesos do modelo se você os fornecer com qualquer outra precisão. Internamente, o Amazon Bedrock converterá FP32 modelos em precisão. BF16
O Amazon Bedrock não suporta a importação de modelos quantizados.
config.json — Para exemplos, veja e. LlamaConfigMistralConfig
-
tokenizer_config.json — Para um exemplo, veja. LlamaTokenizer
tokenizer.json
tokenizer.model
Importando um modelo
O procedimento a seguir mostra como criar um modelo personalizado importando um modelo que você já personalizou. O trabalho de importação do modelo pode levar vários minutos. Durante o trabalho de importação, o Amazon Bedrock valida se o modelo usa uma arquitetura de modelo compatível.
Para enviar um trabalho de importação de modelo, execute as etapas a seguir.
Solicite um aumento de cota para a
Imported models per account
cota. Consulte Requesting a quota increase (Como solicitar um aumento de cota) para obter mais informações.-
Se você estiver importando seus arquivos de modelo do Amazon S3, converta o modelo no Hugging Face format.
Se o seu modelo for um Mistral AI modelo, use convert_mistral_weights_to_hf.py
. -
Se o seu modelo for um Llama modelo, consulte convert_llama_weights_to_hf.py
. Faça upload dos arquivos do modelo em um bucket do Amazon S3 em sua AWS conta. Para obter mais informações, consulte Fazer upload de um objeto no seu bucket.
-
Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/
-
Escolha Modelos importados em Modelos básicos no painel de navegação esquerdo.
Escolha a guia Modelos.
Escolha Import model (Importar modelo).
-
Na guia Importado, escolha Importar modelo para abrir a página Importar modelo.
-
Na seção Detalhes do modelo, faça o seguinte:
-
Em Nome do modelo, insira um nome para o modelo.
-
(Opcional) Para associar tags ao modelo, expanda a seção Tags e selecione Adicionar nova tag.
-
-
Na seção Importar nome do trabalho, faça o seguinte:
-
Em Nome do trabalho, insira um nome para o trabalho de importação do modelo.
-
(Opcional) Para associar tags ao modelo personalizado, expanda a seção Tags e selecione Adicionar nova tag.
-
Em Configurações de importação do modelo, selecione as opções de importação que você deseja usar.
-
Se você estiver importando seus arquivos de modelo de um bucket do Amazon S3, escolha o bucket do Amazon S3 e insira a localização do Amazon S3 no local do S3. Opcionalmente, você pode escolher Browse S3 para escolher o local do arquivo.
-
Se você estiver importando seu modelo da Amazon SageMaker, escolha o SageMaker modelo da Amazon e, em seguida, escolha o SageMaker modelo que você deseja importar em SageMaker modelos.
-
-
Na seção Acesso ao serviço selecione uma das seguintes opções:
-
Criar e usar um perfil de serviço: insira um nome para o perfil de serviço.
-
Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para ver as permissões que sua função de serviço existente precisa, escolha Exibir detalhes da permissão.
Para obter mais informações sobre como configurar uma função de serviço com as permissões apropriadas, consulteCrie uma função de serviço para importação de modelos.
-
-
Escolha Importar.
Na página Modelos personalizados, escolha Importado.
-
Na seção Trabalhos, verifique o status do trabalho de importação. O nome do modelo que você escolheu identifica o trabalho de importação do modelo. O trabalho será concluído se o valor de Status do modelo for Concluído.
-
Obtenha o ID do modelo do seu modelo fazendo o seguinte.
-
Na página Modelos importados, escolha a guia Modelos.
-
Copie o ARN para o modelo que você deseja usar da ARNcoluna.
-
-
Use seu modelo para chamadas de inferência. Para obter mais informações, consulte Envie uma única solicitação com as InvokeModel API operações. Você pode usar o modelo com taxa de transferência sob demanda.
Você também pode usar seu modelo no playground de texto Amazon Bedrock.