Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Gestion des points de terminaison d'inférence à l'aide de la commande endpoints
Vous utilisez la commande Neptune ML endpoints pour créer un point de terminaison d'inférence, vérifier son statut, le supprimer ou répertorier les points de terminaison d'inférence existants.
Création d'un point de terminaison d'inférence à l'aide de la commande Neptune ML endpoints
Une commande Neptune ML endpoints permettant de créer un point de terminaison d'inférence à partir d'un modèle créé par une tâche d'entraînement ressemble à ceci :
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--ml-model-training-job-id "(the model-training job-id of a completed job)"
Pour plus d'informations, consultez create-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
mlModelTrainingJobId='(the model-training job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Une commande Neptune ML endpoints permettant de mettre à jour un point de terminaison d'inférence existant à partir d'un modèle créé par une tâche d'entraînement ressemble à ceci :
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--update \
--ml-model-training-job-id "(the model-training job-id of a completed job)"
Pour plus d'informations, consultez create-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
update=True,
mlModelTrainingJobId='(the model-training job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Une commande Neptune ML endpoints permettant de créer un point de terminaison d'inférence à partir d'un modèle créé par une tâche de transformation de modèle ressemble à ceci :
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--ml-model-transform-job-id "(the model-transform job-id of a completed job)"
Pour plus d'informations, consultez create-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
mlModelTransformJobId='(the model-transform job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Une commande Neptune ML endpoints permettant de mettre à jour un point de terminaison d'inférence existant à partir d'un modèle créé par une tâche de transformation de modèle ressemble à ceci :
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--update \
--ml-model-transform-job-id "(the model-transform job-id of a completed job)"
Pour plus d'informations, consultez create-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
update=True,
mlModelTransformJobId='(the model-transform job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Paramètres de création d'un point de terminaison d'inférence endpoints
-
id : (facultatif) identifiant unique du nouveau point de terminaison d'inférence.
Type : string. Valeur par défaut : nom horodaté généré automatiquement.
-
mlModelTrainingJobId – ID de tâche de la tâche d'entraînement de modèle terminée qui a créé le modèle vers lequel le point de terminaison d'inférence pointera.
Type : string.
Remarque : Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.
-
mlModelTransformJobId – ID de tâche de la tâche de transformation de modèle terminée.
Type : string.
Remarque : Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.
-
update : (facultatif) s'il est présent, ce paramètre indique qu'il s'agit d'une demande de mise à jour.
Type : booléen. Par défaut : false
Remarque : Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.
-
neptuneIamRoleArn— (Facultatif) L'ARN d'un rôle IAM fournissant à Neptune l'accès SageMaker aux ressources AI et Amazon S3.
Type : string. Remarque : Il doit être répertorié dans le groupe de paramètres du cluster de bases de données, sans quoi une erreur sera générée.
-
modelName : (facultatif) type de modèle pour l'entraînement. Par défaut, le modèle ML est automatiquement basé sur le modelType utilisé dans le cadre du traitement de données, mais vous pouvez spécifier ici un autre type de modèle.
Type : string. Valeur par défaut : rgcn pour les graphes hétérogènes et kge pour les graphes de connaissances. Valeurs valides : pour les graphes hétérogènes : rgcn. Pour les graphes de connaissances : kge, transe, distmult ou rotate.
-
instanceType : (facultatif) type d'instance ML utilisé pour la maintenance en ligne.
Type : string. Par défaut : ml.m5.xlarge.
Remarque : Le choix de l'instance ML pour un point de terminaison d'inférence dépend du type de tâche, de la taille de graphe et de votre budget. Consultez Sélection d'une instance pour un point de terminaison d'inférence.
-
instanceCount : (facultatif) nombre minimal d'instances Amazon EC2 à déployer sur un point de terminaison à des fins de prédiction.
Type : entier. Par défaut : 1.
-
volumeEncryptionKMSKey— (Facultatif) La clé AWS Key Management Service (AWS KMS) utilisée par SageMaker AI pour chiffrer les données sur le volume de stockage attaché aux instances de calcul ML qui exécutent les points de terminaison.
Type : string. Valeur par défaut : aucune.
Obtention du statut d'un point de terminaison d'inférence à l'aide de la commande Neptune ML endpoints
Voici un exemple de commande Neptune ML endpoints pour obtenir le statut d'un point de terminaison d'instance :
- AWS CLI
-
aws neptunedata get-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)"
Pour plus d'informations, consultez get-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.get_ml_endpoint(
id='(the inference endpoint ID)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
--region us-east-1 \
--service neptune-db \
-X GET
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl -s \
"https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)" \
| python -m json.tool
Paramètres d'obtention du statut d'un point de terminaison de l'instance endpoints
-
id : (obligatoire) identifiant unique du point de terminaison d'inférence.
Type : string.
-
neptuneIamRoleArn— (Facultatif) L'ARN d'un rôle IAM fournissant à Neptune l'accès SageMaker aux ressources AI et Amazon S3.
Type : string. Remarque : Il doit être répertorié dans le groupe de paramètres du cluster de bases de données, sans quoi une erreur sera générée.
Suppression d'un point de terminaison d'instance à l'aide de la commande Neptune ML endpoints
Voici un exemple de commande Neptune ML endpoints permettant de supprimer un point de terminaison d'instance :
- AWS CLI
-
aws neptunedata delete-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)"
Pour également nettoyer les artefacts associés :
aws neptunedata delete-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)" \
--clean
Pour plus d'informations, consultez delete-ml-endpointle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.delete_ml_endpoint(
id='(the inference endpoint ID)',
clean=True
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
--region us-east-1 \
--service neptune-db \
-X DELETE
Pour également nettoyer les artefacts associés :
awscurl "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true" \
--region us-east-1 \
--service neptune-db \
-X DELETE
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl -s \
-X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)"
Ou encore :
curl -s \
-X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true"
Paramètres de suppression d'un point de terminaison d'inférence endpoints
-
id : (obligatoire) identifiant unique du point de terminaison d'inférence.
Type : string.
-
neptuneIamRoleArn— (Facultatif) L'ARN d'un rôle IAM fournissant à Neptune l'accès SageMaker aux ressources AI et Amazon S3.
Type : string. Remarque : Il doit être répertorié dans le groupe de paramètres du cluster de bases de données, sans quoi une erreur sera générée.
-
clean : (facultatif) indique que tous les artefacts liés à ce point de terminaison doivent également être supprimés.
Type : booléen. Par défaut : FALSE.
Répertorier les points de terminaison d'inférence à l'aide de la commande Neptune ML endpoints
Une commande Neptune ML endpoints pour répertorier les points de terminaison d'inférence ressemble à ceci :
- AWS CLI
-
aws neptunedata list-ml-endpoints \
--endpoint-url https://your-neptune-endpoint:port
Pour limiter le nombre de résultats :
aws neptunedata list-ml-endpoints \
--endpoint-url https://your-neptune-endpoint:port \
--max-items 3
Pour plus d'informations, consultez list-ml-endpointsle manuel de référence des AWS CLI commandes.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.list_ml_endpoints(
maxItems=3
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X GET
Pour limiter le nombre de résultats :
awscurl "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
--region us-east-1 \
--service neptune-db \
-X GET
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez us-east-1 par la région de votre cluster Neptune.
- curl
-
curl -s "https://your-neptune-endpoint:port/ml/endpoints" \
| python -m json.tool
Ou encore :
curl -s "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
| python -m json.tool
Paramètres pour répertorier les points de terminaison d'inférence dataprocessing
-
maxItems : (facultatif) nombre maximal d'éléments à renvoyer.
Type : entier. Par défaut : 10. Valeur maximale autorisée : 1024.
-
neptuneIamRoleArn— (Facultatif) L'ARN d'un rôle IAM fournissant à Neptune l'accès SageMaker aux ressources AI et Amazon S3.
Type : string. Remarque : Il doit être répertorié dans le groupe de paramètres du cluster de bases de données, sans quoi une erreur sera générée.