Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Instances cloud
Amazon SageMaker Neo fournit un support de compilation pour les frameworks d'apprentissage automatique les plus TensorFlow courants tels que PyTorch, MXnet, etc. Vous pouvez déployer votre modèle compilé sur des instances cloud et des instances AWS Inferentia. Pour obtenir la liste complète des cadres et types d'instance pris en charge, veuillez consulter Supported Instances Types and Frameworks (Cadres et types d'instances pris en charge).
Vous pouvez compiler votre modèle de trois manières : via AWS CLI la SageMaker console ou le SageMaker SDK pour Python. Pour de plus amples informations, veuillez consulter Use Neo to Compile a Model (Utiliser Neo pour compiler un modèle). Une fois vos artefacts de modèle compilés, ils sont stockés dans l'URI du compartiment Amazon S3 que vous avez spécifié lors de la tâche de compilation. Vous pouvez déployer votre modèle compilé sur des instances cloud et des instances AWS Inferentia à l'aide du SageMaker SDK pour Python, AWS SDK for Python (Boto3) AWS CLI, ou de la AWS console.
Si vous déployez votre modèle à l'aide AWS CLI de la console ou de Boto3, vous devez sélectionner une image Docker Amazon ECR URI pour votre conteneur principal. Veuillez consulter Neo Inference Container Images (Images de conteneur d'inférence Neo) pour obtenir la liste des URI Amazon ECR.