Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Prévisions en temps réel
Les prévisions en temps réel sont utiles lorsque vous devez générer des prédictions on-the-fly, par exemple pour les applications qui nécessitent des réponses immédiates ou lorsque vous effectuez des prévisions pour des points de données individuels.
En déployant votre modèle AutoML en tant que point de terminaison en temps réel, vous pouvez générer des prévisions à la demande et minimiser le temps de latence entre la réception de nouvelles données et l'obtention de prévisions. Les prévisions en temps réel conviennent donc parfaitement aux applications qui nécessitent des capacités de prévision immédiates, personnalisées ou basées sur des événements.
Pour les prévisions en temps réel, le jeu de données doit être un sous-ensemble du jeu de données en entrée. Le point de terminaison en temps réel a une taille de données d'entrée d'environ 6 Mo et un délai de réponse limité à 60 secondes. Nous vous recommandons d'introduire un ou plusieurs articles à la fois.
Vous pouvez l'utiliser SageMaker APIs pour récupérer le meilleur candidat pour une tâche AutoML, puis créer un point de terminaison d' SageMaker IA en utilisant ce candidat.
Vous pouvez également choisir l'option de déploiement automatique lors de la création de votre expérience Autopilot. Pour en savoir plus sur la configuration du déploiement automatique des modèles, consultez Comment activer le déploiement automatique.
Pour créer un point de terminaison SageMaker IA à l'aide de votre meilleur modèle candidat :
-
Récupérez les détails de la tâche AutoML.
L'exemple de AWS CLI commande suivant utilise l'API DescribeAutoMLJobV2 pour obtenir des détails sur la tâche AutoML, notamment des informations sur le meilleur modèle candidat.
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name
job-name
--regionregion
-
Extrayez la définition du conteneur InferenceContainerspour trouver le meilleur modèle candidat.
Une définition de conteneur est l'environnement conteneurisé utilisé pour héberger le modèle d' SageMaker IA entraîné pour effectuer des prédictions.
BEST_CANDIDATE=$(aws sagemaker describe-auto-ml-job-v2 \ --auto-ml-job-name
job-name
--regionregion
\ --query 'BestCandidate.InferenceContainers[0]' \ --output jsonCette commande extrait la définition du conteneur pour le meilleur modèle candidat et la stocke dans la
BEST_CANDIDATE
variable. -
Créez un modèle d' SageMaker IA à l'aide de la meilleure définition de conteneur candidat.
Utilisez les définitions de conteneur des étapes précédentes pour créer un modèle d' SageMaker IA à l'aide de l'CreateModelAPI.
aws sagemaker create-model \ --model-name '
your-candidate-name>
' \ --primary-container "$BEST_CANDIDATE" --execution-role-arn 'execution-role-arn>
' \ --region 'region>
Le
--execution-role-arn
paramètre indique le rôle IAM assumé par l' SageMaker IA lors de l'utilisation du modèle à des fins d'inférence. Pour plus de détails sur les autorisations requises pour ce rôle, voir CreateModel API : Autorisations du rôle d'exécution. -
Créez une configuration de point de terminaison SageMaker AI à l'aide du modèle.
La AWS CLI commande suivante utilise l'CreateEndpointConfigAPI pour créer une configuration de point de terminaison.
aws sagemaker create-endpoint-config \ --production-variants file://production-variants.json \ --region '
region
'Où le
production-variants.json
fichier contient la configuration du modèle, y compris le nom du modèle et le type d'instance.Note
Nous recommandons d'utiliser des instances m5.12xlarge
pour les prévisions en temps réel. [ { "VariantName": "
variant-name
", "ModelName": "model-name
", "InitialInstanceCount":1
, "InstanceType": "m5.12xlarge
" } ] } -
Créez le point de terminaison SageMaker AI à l'aide de la configuration du point de terminaison.
L' AWS CLI exemple suivant utilise l'CreateEndpointAPI pour créer le point de terminaison.
aws sagemaker create-endpoint \ --endpoint-name '
endpoint-name>
' \ --endpoint-config-name 'endpoint-config-name
' \ --region 'region
'Vérifiez la progression du déploiement de votre point de terminaison d'inférence en temps réel à l'aide de l'DescribeEndpointAPI. Consultez la AWS CLI commande suivante à titre d'exemple.
aws sagemaker describe-endpoint \ --endpoint-name '
endpoint-name
' \ --region 'region
'Lorsque
EndpointStatus
devientInService
, le point de terminaison est prêt à être utilisé pour l'inférence en temps réel. -
Invoquez le point de terminaison SageMaker AI pour faire des prédictions.
aws sagemaker invoke-endpoint \ --endpoint-name '
endpoint-name
' \ --region 'region
' \ --body file://input-data-in-bytes.json \ --content-type 'application/json
'outfile
Où le
input-data-in-bytes.json
fichier contient les données d'entrée pour la prédiction.