Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

API de point de terminaison d'inférence Neptune ML

Mode de mise au point
API de point de terminaison d'inférence Neptune ML - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Actions du point de terminaison d'inférence :

Créer MLEndpoint (action)

        Le nom de la AWS CLI pour cette API est :create-ml-endpoint.

Crée un point de terminaison d'inférence Neptune ML qui vous permet d'interroger un modèle spécifique construit par le processus d'entraînement des modèles. Consultez Gestion des points de terminaison d'inférence à l'aide de la commande endpoints.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLEndpoint Neptune-DB:Create IAM dans ce cluster.

Demande

  • id (dans la CLI : --id) : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique du nouveau point de terminaison d'inférence. Le nom par défaut est un nom horodaté généré automatiquement.

  • instanceCount (dans la CLI : --instance-count) : entier de type : integer (entier signé de 32 bits).

    Le nombre minimum d' EC2 instances Amazon à déployer sur un point de terminaison à des fins de prévision. La valeur par défaut est 1.

  • instanceType (dans la CLI : --instance-type) : chaîne de type : string (chaîne encodée en UTF-8).

    Type d'instance Neptune ML à utiliser pour la maintenance en ligne. L’argument par défaut est ml.m5.xlarge. Le choix de l'instance ML pour un point de terminaison d'inférence dépend du type de tâche, de la taille du graphe et de votre budget.

  • mlModelTrainingJobId (dans la CLI : --ml-model-training-job-id) : chaîne de type : string (chaîne encodée en UTF-8).

    ID de la tâche d'entraînement de modèle terminée qui a créé le modèle vers lequel le point final d'inférence pointera. Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.

  • mlModelTransformJobId (dans la CLI : --ml-model-transform-job-id) : chaîne de type : string (chaîne encodée en UTF-8).

    ID de la tâche de transformation de modèle terminée. Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.

  • modelName (dans la CLI : --model-name) : chaîne de type : string (chaîne encodée en UTF-8).

    Type de modèle pour l'entraînement. Par défaut, le modèle Neptune ML est automatiquement basé sur le modelType utilisé dans le traitement des données, mais vous pouvez spécifier ici un autre type de modèle. La valeur par défaut est rgcn pour les graphes hétérogènes et kge pour les graphes de connaissances. La seule valeur valide pour les graphes hétérogènes est rgcn. Les valeurs valides pour les graphes de connaissances sont kge, transe, distmult et rotate.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM fournissant à Neptune l'accès aux ressources Amazon S3 SageMaker et à celles-ci. Cela doit être indiqué dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

  • update (dans la CLI : --update) : valeur booléenne de type : boolean (valeur booléenne : true ou false).

    Si ce paramètre est défini sur true, update indique qu'il s'agit d'une demande de mise à jour. L’argument par défaut est false. Vous devez fournir mlModelTrainingJobId ou mlModelTransformJobId.

  • volumeEncryptionKMSKey (dans la CLI : --volume-encryption-kms-key) : chaîne de type : string (chaîne encodée en UTF-8).

    La clé Amazon Key Management Service (Amazon KMS) SageMaker utilisée pour chiffrer les données sur le volume de stockage attaché aux instances de calcul ML qui exécutent la tâche de formation. La valeur par défaut est Aucun.

Réponse

  • arn : chaîne de type : string (chaîne encodée en UTF-8).

    ARN du nouveau point de terminaison d'inférence.

  • creationTimeInMillis : long de type : long (entier signé de 64 bits).

    Heure de création du point de terminaison, en millisecondes.

  • id : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique du point de terminaison d'inférence.

Liste MLEndpoints (action)

        Le nom de la AWS CLI pour cette API est :list-ml-endpoints.

Répertorie les points de terminaison d'inférence existants. Consultez Gestion des points de terminaison d'inférence à l'aide de la commande endpoints.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLEndpoints Neptune-DB:list IAM dans ce cluster.

Demande

  • maxItems(dans la CLI :--max-items) — une liste MLEndpointsInputMaxItemsInteger, de type : integer (un entier signé de 32 bits), pas moins de 1 ou plus de 1024 ? 1er ? s.

    Nombre maximum d'éléments à renvoyer (compris entre 1 et 1 024, avec une valeur par défaut de 10).

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • ids : chaîne de type : string (chaîne encodée en UTF-8).

    Une page de la liste des points de terminaison IDs d'inférence.

Obtenir MLEndpoint (action)

        Le nom de la AWS CLI pour cette API est :get-ml-endpoint.

Récupère les détails d'un point de terminaison d'inférence. Consultez Gestion des points de terminaison d'inférence à l'aide de la commande endpoints.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLEndpointNeptune-DB:Get Status IAM dans ce cluster.

Demande

  • id (dans la CLI : --id) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique du point de terminaison d'inférence.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • endpoint : objet MlResourceDefinition.

    Définition du point de terminaison.

  • endpointConfig : objet MlConfigDefinition.

    Configuration du point de terminaison.

  • id : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique du point de terminaison d'inférence.

  • status : chaîne de type : string (chaîne encodée en UTF-8).

    État du point de terminaison d'inférence.

Supprimer MLEndpoint (action)

        Le nom de la AWS CLI pour cette API est :delete-ml-endpoint.

Annule la création d'un point de terminaison d'inférence Neptune ML. Consultez Gestion des points de terminaison d'inférence à l'aide de la commande endpoints.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLEndpoint Neptune-DB:Delete IAM dans ce cluster.

Demande

  • clean (dans la CLI : --clean) : valeur booléenne de type : boolean (valeur booléenne : true ou false).

    Si cet indicateur est défini sur TRUE, tous les artefacts de Neptune ML S3 doivent être supprimés à l'arrêt de la tâche. L’argument par défaut est FALSE.

  • id (dans la CLI : --id) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique du point de terminaison d'inférence.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM fournissant à Neptune l'accès aux ressources Amazon S3 SageMaker et à celles-ci. Cela doit être indiqué dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • status : chaîne de type : string (chaîne encodée en UTF-8).

    État de l'annulation.

Rubrique suivante :

Exceptions

Rubrique précédente :

Transformation de modèle ML
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.