Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

A documentação do contêiner de inferência de grandes modelos (LMI)

Modo de foco
A documentação do contêiner de inferência de grandes modelos (LMI) - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

A documentação do contêiner de inferência de grandes modelos (LMI) encontra-se no site de documentação da Deep Java Library.

A documentação foi escrita para desenvolvedores, cientistas de dados e engenheiros de aprendizado de máquina que precisam implantar e otimizar grandes modelos de linguagem (LLMs) na Amazon SageMaker AI. Ele ajuda você a usar contêineres LMI, que são contêineres Docker especializados para inferência de LLM, fornecidos pela. AWS Ela apresenta uma visão geral, guias de implantação, guias de usuário para bibliotecas de inferência compatíveis e tutoriais avançados.

Ao usar a documentação do contêiner de LMI, você consegue:

  • Compreender os componentes e a arquitetura dos contêineres de LMI

  • Saiba como selecionar o tipo de instância e o backend apropriados para seu caso de uso

  • Configure e implante LLMs em SageMaker IA usando contêineres LMI

  • Otimizar o desempenho usando atributos como quantização, paralelismo de tensores e processamentos em lotes contínuos

  • Compare e ajuste seus endpoints de SageMaker IA para otimizar a taxa de transferência e a latência

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.