Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Enviar um trabalho de importação de modelo

Modo de foco
Enviar um trabalho de importação de modelo - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Você importa um modelo para o Amazon Bedrock enviando um trabalho de importação de modelo no console do Amazon Bedrock, usando a API, usando o AWS CLI ou usando o SDK. AWS No trabalho, especifique o URI do Amazon S3 para a origem dos arquivos do modelo. Como alternativa, se você criou o modelo na Amazon SageMaker AI, você pode especificar o modelo de SageMaker IA. Durante a importação do modelo, o trabalho de importação detecta automaticamente a arquitetura do modelo. O trabalho de importação de modelo pode demorar vários minutos. Durante o trabalho, o Amazon Bedrock valida se o modelo que está sendo importado está usando uma arquitetura compatível com o modelo.

O procedimento a seguir mostra como criar um modelo personalizado importando um modelo que você já personalizou. Selecione a guia correspondente ao método de sua escolha e siga as etapas.

Console

Para enviar um trabalho de importação de modelo no console, conclua as etapas a seguir.

  1. Se você estiver importando seus arquivos de modelo do Amazon S3, converta o modelo no Hugging Face format.

    1. Se o seu modelo for um Mistral AI modelo, use convert_mistral_weights_to_hf.py.

    2. Se o seu modelo for um Llama modelo, consulte convert_llama_weights_to_hf.py.

    3. Carregue os arquivos de modelo em um bucket do Amazon S3 em sua conta da AWS . Para obter mais informações, consulte Carregar um objeto em um bucket.

    4. Se você estiver usando chaves Amazon S3 ou KMS de várias contas para importar seu modelo personalizado, dê ao Amazon Bedrock acesso à sua chave Conta da AWS Amazon S3 ou KMS. Para obter mais informações, consulte Acesso entre contas ao bucket do Amazon S3 para trabalhos de importação de modelos personalizados.

  2. No console do Amazon Bedrock, escolha Modelos importados em Modelos de base no painel de navegação à esquerda.

  3. Escolha a guia Modelos.

  4. Escolha Importar modelo.

  5. Na guia Importado, escolha Importar modelo para abrir a página Importar modelo.

  6. Na seção Detalhes do modelo, faça o seguinte:

    1. Em Nome do modelo, insira um nome para o modelo.

    2. (Opcional) Para associar tags ao modelo, expanda a seção Tags e selecione Adicionar nova tag.

  7. Na seção Importar nome do trabalho, faça o seguinte:

    1. Em Nome do trabalho, insira um nome para o trabalho de importação do modelo.

    2. (Opcional) Para associar as tags ao modelo personalizado, expanda a seção Tags e selecione Adicionar nova tag.

  8. Em Configurações de importação do modelo, selecione as opções de importação que deseja usar.

    • Selecione o bucket Amazon S3 ou o modelo Amazon SageMaker AI para especificar a fonte de importação.

    • Se estiver importando os arquivos do modelo de um bucket do Amazon S3, insira o local do Amazon S3 em Local do S3. Opcionalmente, é possível escolher Procurar no S3 para escolher o local do arquivo.

    • Se você estiver importando seu modelo da Amazon SageMaker AI, escolha o modelo Amazon SageMaker AI e, em seguida, escolha o modelo de SageMaker IA que você deseja importar nos modelos de SageMaker IA.

  9. Insira as Configurações da VPC (opcional) para escolher uma configuração de VPC para acessar a fonte de dados do Amazon S3 localizada em sua VPC. É possível criar e gerenciar uma VPC, as sub-redes e os grupos de segurança na Amazon VPC. Para obter mais informações sobre a Amazon VPC, consulte (Opcional) Proteger os trabalhos de importação de modelos personalizados usando uma VPC.

  10. Selecione Criptografia para criptografar seus dados por padrão com uma AWS chave que pertence e é gerenciada por você. Você também poderá escolher uma chave diferente se selecionar Personalizar configurações de criptografia (avançadas).

  11. Na seção Acesso ao serviço selecione uma das seguintes opções:

    • Criar e usar um perfil de serviço: insira um nome para o perfil de serviço.

    • Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para ver as permissões que o perfil de serviço atual precisa, escolha Visualizar detalhes da permissão.

      Para obter mais informações sobre como configurar um perfil de serviço com as permissões adequadas, consulte Criar um perfil de serviço para a importação de modelos.

      nota

      se você estiver usando chaves Amazon S3 ou KMS de várias contas, edite a política de função de serviço e substitua o ID da conta especificado aws:ResourceAccount pelo ID AWS da conta do proprietário do bucket.

  12. Escolha Importar.

  13. Na página Modelos personalizados, escolha Importado.

  14. Na seção Trabalhos, verifique o status do trabalho de importação. O nome do modelo escolhido identifica o trabalho de importação do modelo. O trabalho será concluído se o valor do Status do modelo for Concluído.

  15. Obtenha o ID do modelo fazendo o seguinte:

    1. Na página Modelos importados, escolha a guia Modelos.

    2. Copie o ARN do modelo que deseja usar na coluna ARN.

  16. Use o modelo para chamadas de inferência. Para obter mais informações, consulte Envie uma única solicitação com InvokeModel. É possível usar o modelo com throughput sob demanda.

    Você também pode usar o modelo no playground de texto do Amazon Bedrock.

API

Solicitação

Envie uma solicitação CreateModelImportJob(consulte o link para ver o formato da solicitação e da resposta e os detalhes do campo) com um endpoint do plano de controle Amazon Bedrock para enviar um trabalho de importação de modelo personalizado. No mínimo, forneça os campos a seguir.

  • roleArn: o ARN do perfil de serviço com permissões para importar modelos. O Amazon Bedrock pode criar automaticamente um perfil com as permissões adequadas se você usar o console, ou você pode criar uma função personalizada seguindo as etapas em Criar um perfil de serviço para a importação de modelos.

    nota

    Se você incluir um campo vpcConfig, verifique se a função tem as permissões adequadas para acessar a VPC. Para obter um exemplo, consulte Anexe as permissões da VPC a um perfil de importação de modelo personalizado.

  • importedModelName: o nome a ser fornecido ao modelo recém-importado.

  • jobName: o nome fornecido ao trabalho de importação.

  • modelDataSource: a fonte de dados do modelo importado.

Para evitar que a solicitação seja concluída mais de uma vez, inclua um clientRequestToken.

É possível incluir os campos opcionais a seguir para configurações adicionais.

Resposta

A resposta retorna um jobArn para o trabalho de importação que você usa para identificar o trabalho de importação em outras operações.

O trabalho pode demorar um pouco para ser concluído. Você pode verificar o status atual chamando a GetModelImportJoboperação e verificando o Status campo na resposta. Você pode listar os trabalhos de importação atuais com ListModelImportJobso.

Para obter uma lista dos modelos que você importou, ligue para ListImportedModels. Para obter informações sobre um modelo importado específico, ligue para GetImportedModel.

Para excluir um modelo importado, ligue para DeleteImportedModel.

Para enviar um trabalho de importação de modelo no console, conclua as etapas a seguir.

  1. Se você estiver importando seus arquivos de modelo do Amazon S3, converta o modelo no Hugging Face format.

    1. Se o seu modelo for um Mistral AI modelo, use convert_mistral_weights_to_hf.py.

    2. Se o seu modelo for um Llama modelo, consulte convert_llama_weights_to_hf.py.

    3. Carregue os arquivos de modelo em um bucket do Amazon S3 em sua conta da AWS . Para obter mais informações, consulte Carregar um objeto em um bucket.

    4. Se você estiver usando chaves Amazon S3 ou KMS de várias contas para importar seu modelo personalizado, dê ao Amazon Bedrock acesso à sua chave Conta da AWS Amazon S3 ou KMS. Para obter mais informações, consulte Acesso entre contas ao bucket do Amazon S3 para trabalhos de importação de modelos personalizados.

  2. No console do Amazon Bedrock, escolha Modelos importados em Modelos de base no painel de navegação à esquerda.

  3. Escolha a guia Modelos.

  4. Escolha Importar modelo.

  5. Na guia Importado, escolha Importar modelo para abrir a página Importar modelo.

  6. Na seção Detalhes do modelo, faça o seguinte:

    1. Em Nome do modelo, insira um nome para o modelo.

    2. (Opcional) Para associar tags ao modelo, expanda a seção Tags e selecione Adicionar nova tag.

  7. Na seção Importar nome do trabalho, faça o seguinte:

    1. Em Nome do trabalho, insira um nome para o trabalho de importação do modelo.

    2. (Opcional) Para associar as tags ao modelo personalizado, expanda a seção Tags e selecione Adicionar nova tag.

  8. Em Configurações de importação do modelo, selecione as opções de importação que deseja usar.

    • Selecione o bucket Amazon S3 ou o modelo Amazon SageMaker AI para especificar a fonte de importação.

    • Se estiver importando os arquivos do modelo de um bucket do Amazon S3, insira o local do Amazon S3 em Local do S3. Opcionalmente, é possível escolher Procurar no S3 para escolher o local do arquivo.

    • Se você estiver importando seu modelo da Amazon SageMaker AI, escolha o modelo Amazon SageMaker AI e, em seguida, escolha o modelo de SageMaker IA que você deseja importar nos modelos de SageMaker IA.

  9. Insira as Configurações da VPC (opcional) para escolher uma configuração de VPC para acessar a fonte de dados do Amazon S3 localizada em sua VPC. É possível criar e gerenciar uma VPC, as sub-redes e os grupos de segurança na Amazon VPC. Para obter mais informações sobre a Amazon VPC, consulte (Opcional) Proteger os trabalhos de importação de modelos personalizados usando uma VPC.

  10. Selecione Criptografia para criptografar seus dados por padrão com uma AWS chave que pertence e é gerenciada por você. Você também poderá escolher uma chave diferente se selecionar Personalizar configurações de criptografia (avançadas).

  11. Na seção Acesso ao serviço selecione uma das seguintes opções:

    • Criar e usar um perfil de serviço: insira um nome para o perfil de serviço.

    • Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para ver as permissões que o perfil de serviço atual precisa, escolha Visualizar detalhes da permissão.

      Para obter mais informações sobre como configurar um perfil de serviço com as permissões adequadas, consulte Criar um perfil de serviço para a importação de modelos.

      nota

      se você estiver usando chaves Amazon S3 ou KMS de várias contas, edite a política de função de serviço e substitua o ID da conta especificado aws:ResourceAccount pelo ID AWS da conta do proprietário do bucket.

  12. Escolha Importar.

  13. Na página Modelos personalizados, escolha Importado.

  14. Na seção Trabalhos, verifique o status do trabalho de importação. O nome do modelo escolhido identifica o trabalho de importação do modelo. O trabalho será concluído se o valor do Status do modelo for Concluído.

  15. Obtenha o ID do modelo fazendo o seguinte:

    1. Na página Modelos importados, escolha a guia Modelos.

    2. Copie o ARN do modelo que deseja usar na coluna ARN.

  16. Use o modelo para chamadas de inferência. Para obter mais informações, consulte Envie uma única solicitação com InvokeModel. É possível usar o modelo com throughput sob demanda.

    Você também pode usar o modelo no playground de texto do Amazon Bedrock.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.