Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Cadres et types d'instance pris en charge
Amazon SageMaker Neo prend en charge les frameworks d'apprentissage profond les plus courants pour la compilation et le déploiement. Vous pouvez déployer votre modèle sur des instances cloud ou sur des types d'instances AWS Inferentia.
Ce qui suit décrit les frameworks SageMaker pris en charge par Neo et les instances cloud cibles sur lesquelles vous pouvez compiler et déployer. Pour obtenir des informations sur le déploiement de votre modèle compilé sur une instance cloud ou Inferentia, veuillez consulter Deploy a Model with Cloud Instances (Déploiement d'un modèle avec des instances cloud).
Instances cloud
SageMaker Neo prend en charge les frameworks d'apprentissage profond CPU et les instances GPU cloud suivants :
Framework | Version du cadre | Version de modèle | Modèles | Formats de modèle (packagés dans *.tar.gz) | Boîtes à outils |
---|---|---|---|---|---|
MXNet | 1.8.0 | Prend en charge la version 1.8.0 ou antérieure | classification d'images, détection d'objets, segmentation sémantique, estimation de pose, reconnaissance d'activités | Un fichier de symboles (.json) et un fichier de paramètres (.params) | GluonCV v0.8.0 |
ONNX | 1.7.0 | Prend en charge la version 1.7.0 ou antérieure | Classification des images, SVM | Un fichier de modèle (.onnx) | |
Keras | 2.2.4 | Prend en charge la version 2.2.4 ou antérieure | Classification d’images | Un fichier de définition de modèle (.h5) | |
PyTorch | 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 ou 2.0 | Prend en charge 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 et 2.0 |
Classification d’images Les versions 1.13 et 2.0 prennent en charge la détection d'objets, le transformateur de vision et HuggingFace |
Un fichier de définition de modèle (.pt ou .pth) avec dtype d'entrée float32 | |
TensorFlow | 1.15.3 ou 2.9 | Prend en charge 1.15.3 et 2.9 | Classification d’images | Pour les modèles enregistrés, Neo attend un fichier .pb ou .pbtxt, ainsi qu'un répertoire de variables contenant des variables Pour les modèles figés, Neo attend uniquement un fichier .pb ou .pbtxt |
|
XGBoost | 1.3.3 | Prend en charge la version 1.3.3 ou antérieure | Arbres de décision | Un fichier de XGBoost modèle (.model) où le nombre de nœuds dans une arborescence est inférieur à 2^31 |
Note
« Model Version » est la version du cadre utilisé pour entraîner et exporter le modèle.
Types d'instances
Vous pouvez déployer votre modèle SageMaker compilé sur l'une des instances cloud répertoriées ci-dessous :
Instance | Type de calcul |
---|---|
|
Standard |
|
Standard |
|
Standard |
|
Standard |
|
Calcul accéléré |
|
Calcul accéléré |
|
Calcul accéléré |
Pour plus d'informations sur le v disponibleCPU, la mémoire et le prix par heure pour chaque type d'instance, consultez Amazon SageMaker Pricing
Note
Lors de la compilation pour des ml_*
instances à l'aide du PyTorch framework, utilisez le champ d'options du compilateur dans la configuration de sortie pour fournir le type de données correct (dtype
) de l'entrée du modèle.
La valeur par défaut est définie sur "float32"
.
AWS Inférentie
SageMaker Neo prend en charge les frameworks d'apprentissage profond suivants pour Inf1 :
Framework | Version du cadre | Version de modèle | Modèles | Formats de modèle (packagés dans *.tar.gz) | Boîtes à outils |
---|---|---|---|---|---|
MXNet | 1.5 ou 1.8 | Prend en charge les versions 1.8, 1.5 et antérieures | classification d'images, détection d'objets, segmentation sémantique, estimation de pose, reconnaissance d'activités | Un fichier de symboles (.json) et un fichier de paramètres (.params) | GluonCV v0.8.0 |
PyTorch | 1.7, 1.8 ou 1.9 | Prend en charge les versions 1.9 et antérieures | Classification d’images | Un fichier de définition de modèle (.pt ou .pth) avec dtype d'entrée float32 | |
TensorFlow | 1.15 ou 2.5 | Prend en charge les versions 2.5, 1.15 et antérieures | Classification d’images | Pour les modèles enregistrés, Neo attend un fichier .pb ou .pbtxt, ainsi qu'un répertoire de variables contenant des variables Pour les modèles figés, Neo attend uniquement un fichier .pb ou .pbtxt |
Note
« Model Version » est la version du cadre utilisé pour entraîner et exporter le modèle.
Vous pouvez déployer votre modèle SageMaker compilé Neo sur des instances EC2 Amazon AWS Inf1 basées sur Inferentia. AWS Inferentia est la première puce en silicone personnalisée d'Amazon conçue pour accélérer le deep learning. Actuellement, vous pouvez utiliser l'instance ml_inf1
pour déployer vos modèles compilés.
AWS Inferentia2 et Trainium AWS
Actuellement, vous pouvez déployer votre modèle SageMaker compilé Neo sur des instances EC2 Amazon AWS Inf2 basées sur Inferentia2 (dans la région USA Est (Ohio)) et sur des instances EC2 Amazon Trn1 AWS basées sur Trainium (dans la région USA Est (Virginie du Nord)). Pour plus d'informations sur les modèles pris en charge sur ces instances, consultez les directives d'ajustement de l'architecture des modèles