Tipos e estruturas de instância compatíveis - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Tipos e estruturas de instância compatíveis

SageMaker O Amazon Neo oferece suporte a estruturas populares de aprendizado profundo para compilação e implantação. Você pode implantar seu modelo em instâncias de nuvem ou tipos de instância AWS Inferentia.

A seguir, descrevemos as estruturas suportadas pelo SageMaker Neo e as instâncias de nuvem de destino nas quais você pode compilar e implantar. Para obter informações sobre como implantar seu modelo compilado em uma instância de nuvem ou Inferentia, consulte Implantar um modelo com instâncias de nuvem.

Instâncias de nuvem

SageMaker O Neo oferece suporte às seguintes estruturas de aprendizado profundo CPU e instâncias de GPU nuvem:

Framework Versão da estrutura Versão do modelo Modelos Formatos de modelo (empacotados em *.tar.gz) Kits de ferramentas
MXNet 1.8.0 Compatível com 1.8.0 ou anterior Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) GluonCV v0.8.0
ONNX 1.7.0 Compatível com 1.7.0 ou anterior Classificação de imagens, SVM Um arquivo de modelo (.onnx)
Keras 2.2.4 Compatível com 2.2.4 ou anterior Classificação de imagens Um arquivo de definição de modelo (.h5)
PyTorch 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, ou 2.0 Compatível com 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, e 2.0

Classificação de imagens

As versões 1.13 e 2.0 suportam Detecção de Objetos, Transformador de Visão e HuggingFace

Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32
TensorFlow 1.15.3 ou 2.9 Compatível com 1.15.3 e 2.9 Classificação de imagens

Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis

Para modelos congelados, apenas um arquivo .pb ou .pbtxt

XGBoost 1.3.3 Compatível com 1.3.3 ou anterior Árvores de decisão Um arquivo de XGBoost modelo (.model) em que o número de nós em uma árvore é menor que 2^31
nota

“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.

Instance Types (Tipos de instâncias)

Você pode implantar seu modelo SageMaker compilado em uma das instâncias de nuvem listadas abaixo:

Instância Tipo de computação

ml_c4

Padrão

ml_c5

Padrão

ml_m4

Padrão

ml_m5

Padrão

ml_p2

Computação acelerada

ml_p3

Computação acelerada

ml_g4dn

Computação acelerada

Para obter informações sobre o volume disponívelCPU, a memória e o preço por hora para cada tipo de instância, consulte Amazon SageMaker Pricing.

nota

Ao compilar para ml_* instâncias usando a PyTorch estrutura, use o campo de opções do compilador na Configuração de saída para fornecer o tipo de dados correto (dtype) da entrada do modelo.

O padrão é definido como "float32".

AWS Inferência

SageMaker O Neo oferece suporte às seguintes estruturas de aprendizado profundo para o Inf1:

Framework Versão da estrutura Versão do modelo Modelos Formatos de modelo (empacotados em *.tar.gz) Kits de ferramentas
MXNet 1.5 or 1.8 Compatível com 1.8, 1.5 ou anterior Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) GluonCV v0.8.0
PyTorch 1.7, 1.8 or 1.9 Compatível com 1.9 ou anterior Classificação de imagens Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32
TensorFlow 1.15 ou 2.5 Compatível com 2.5, 1.15 ou anterior Classificação de imagens

Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis

Para modelos congelados, apenas um arquivo .pb ou .pbtxt

nota

“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.

Você pode implantar seu modelo SageMaker compilado pelo NEO em instâncias Amazon Inf1 AWS baseadas em inferência. EC2 AWS O Inferentia é o primeiro chip de silício personalizado da Amazon projetado para acelerar o aprendizado profundo. Atualmente, você pode usar a instância ml_inf1 para implantar seus modelos compilados.

AWS Inferentia2 e Trainium AWS

Atualmente, você pode implantar seu modelo SageMaker neocompilado em instâncias EC2 Amazon Inf2 AWS baseadas em Inferentia2 (na região Leste dos EUA (Ohio)) e em instâncias Amazon Trn1 AWS baseadas em Trainium (na região Leste dos EUA (Norte EC2 da Virgínia)). Para obter mais informações sobre os modelos compatíveis nessas instâncias, consulte as Diretrizes de ajuste da arquitetura de modelos na documentação do AWS Neuron e os exemplos no repositório Neuron Github.