Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Déploiement d'un modèle compilé à l'aide de la console
Vous devez satisfaire à la section des prérequis si le modèle a été compilé à l'aide AWS SDK for Python (Boto3) de la AWS CLI console Amazon ou de la SageMaker console Amazon. Suivez les étapes ci-dessous pour créer et déployer un modèle SageMaker compilé au format Neo à l'aide de la SageMaker console https://console.aws.amazon.com/ SageMaker
Rubriques
Déploiement du modèle
Une fois les prérequis satisfaits, procédez comme suit pour déployer un modèle compilé avec Neo :
-
Choisissez Modèles, puis Créer des modèles depuis le groupe Déduction. Sur la page Créer un modèle, complétez le nom du modèle, IAMle rôle et VPCles champs (facultatif), si nécessaire.
-
Pour ajouter des informations sur le conteneur utilisé pour déployer votre modèle, choisissez Add container (Ajouter un conteneur), puis Next (Suivant). Renseignez les champs Container input options (Options d'entrée du conteneur), Location of inference code image (Emplacement de l'image du code d'inférence), Location of model artifacts (Emplacement des artefacts du modèle), ainsi que Container host name (Nom d'hôte du conteneur) et Environmental variables (Variables d'environnement) éventuellement.
-
Pour déployer des modèles compilés par Neo, choisissez l'une des options suivantes :
-
Container input options (Options d'entrée du conteneur) : fournissez des artefacts du modèle et une image d'inférence.
-
Emplacement de l'image du code d'inférence : choisissez l'image d'inférence dans Neo Inference Container Images, en fonction de la AWS région et du type d'application. URI
-
Emplacement de l'artefact du modèle : entrez le compartiment Amazon S3 URI de l'artefact du modèle compilé généré par la compilation Neo. API
-
Variables d'environnement :
-
Laissez ce champ vide pour SageMakerXGBoost.
-
Si vous avez entraîné votre modèle en utilisant SageMaker, spécifiez la variable d'environnement
SAGEMAKER_SUBMIT_DIRECTORY
comme étant le compartiment Amazon S3 URI qui contient le script d'entraînement. -
Si vous n'avez pas entraîné votre modèle avec SageMaker, spécifiez les variables d'environnement suivantes :
Clé Valeurs pour MXNet et PyTorch Valeurs TensorFlow SAGEMAKER_PROGRAM inference.py inference.py SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/model/code /opt/ml/model/code SAGEMAKER_CONTAINER_LOG_LEVEL 20 20 SAGEMAKER_REGION <your region> <your region> MMS_DEFAULT_RESPONSE_TIMEOUT 500 Laissez ce champ vide pour TF
-
-
-
Confirmez l'exactitude des informations des conteneurs, puis choisissez Create model (Créer un modèle). Sur la Create model landing page (page d'accueil Créer un modèle), choisissez Create endpoint (Créer un point de terminaison).
-
Sur le schéma, Créer et configurer un point de terminaison, spécifiez le Nom du point de terminaison. Pour Attach endpoint configuration (Attacher une configuration de point de terminaison) choisissez Create a new endpoint configuration (Créer une nouvelle configuration de point de terminaison).
-
Sur la page Nouvelle configuration du point de terminaison, spécifiez le Nom de configuration du point de terminaison.
-
Choisissez Edit (Modifier) en regard du nom du modèle et spécifiez le Type d'instance correct sur la page Edit Production Variant (Modifier la variante de production). Il est impératif que la valeur Type d'instance corresponde à celle spécifiée dans votre tâche de compilation.
-
Choisissez Save (Enregistrer).
-
Sur la page New endpoint configuration (Nouvelle configuration de point de terminaison), choisissez Create endpoint configuration (Créer une configuration de point de terminaison), puis choisissez Create endpoint (Créer un point de terminaison).