API d'entraînement de modèle Neptune ML - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

API d'entraînement de modèle Neptune ML

Actions d'entraînement de modèle :

Structures d'entraînement des modèles :

Démarrer MLModel TrainingJob (action)

        Le nom de la AWS CLI pour cette API est :start-ml-model-training-job.

Crée une tâche d'entraînement de modèle Neptune ML. Consultez Entraînement des modèles à l'aide de la commande modeltraining.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLModel TrainingJob Neptune-DB:Start IAM dans ce cluster.

Demande

  • baseProcessingInstanceType (dans la CLI : --base-processing-instance-type) : chaîne de type : string (chaîne encodée en UTF-8).

    Type d'instance ML utilisé pour préparer et gérer l'entraînement des modèles ML. Il s'agit d'une instance de CPU choisie en fonction des besoins en mémoire pour le traitement des données et du modèle d'entraînement.

  • customModelTrainingParameters (dans la CLI : --custom-model-training-parameters) : objet CustomModelTrainingParameters.

    Configuration pour l'entraînement d'un modèle personnalisé. Il s'agit d'un objet JSON.

  • dataProcessingJobId (dans la CLI : --data-processing-job-id) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    ID de la tâche de traitement des données terminée qui a créé les données avec lesquelles l'entraînement fonctionnera.

  • enableManagedSpotTraining (dans la CLI : --enable-managed-spot-training) : valeur booléenne de type : boolean (valeur booléenne : true ou false).

    Optimise le coût d'entraînement des modèles de machine learning à l'aide d'instances Spot Amazon Elastic Compute Cloud. L’argument par défaut est False.

  • id (dans la CLI : --id) : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique de la nouvelle tâche. La valeur par défaut est un UUID généré automatiquement.

  • maxHPONumberOfTrainingJobs (dans la CLI : --max-hpo-number-of-training-jobs) : entier de type : integer (entier signé de 32 bits).

    Nombre total maximal de tâches d'entraînement à démarrer pour la tâche de réglage des hyperparamètres. La valeur par défaut est 2. Neptune ML ajuste automatiquement les hyperparamètres du modèle de machine learning. Pour obtenir un modèle performant, utilisez au moins 10 tâches (en d'autres termes, définissez la valeur maxHPONumberOfTrainingJobs sur 10). En général, plus le réglage est long, meilleurs sont les résultats.

  • maxHPOParallelTrainingJobs (dans la CLI : --max-hpo-parallel-training-jobs) : entier de type : integer (entier signé de 32 bits).

    Nombre maximal de tâches d'entraînement à démarrer pour la tâche de réglage des hyperparamètres. La valeur par défaut est 2. Le nombre de tâches parallèles que vous pouvez exécuter est limité par les ressources disponibles sur l'instance d'entraînement.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

  • previousModelTrainingJobId (dans la CLI : --previous-model-training-job-id) : chaîne de type : string (chaîne encodée en UTF-8).

    ID d'une tâche d'entraînement de modèle terminée que vous souhaitez actualiser progressivement en fonction des données mises à jour.

  • s3OutputEncryptionKMSKey (dans la CLI : --s-3-output-encryption-kms-key) : chaîne de type : string (chaîne encodée en UTF-8).

    La clé Amazon Key Management Service (KMS) SageMaker utilisée pour chiffrer le résultat de la tâche de traitement. La valeur par défaut est Aucun.

  • sagemakerIamRoleArn (dans la CLI : --sagemaker-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM à SageMaker exécuter. Il doit être répertorié dans le groupe de paramètres de votre cluster de base de données, sinon une erreur se produira.

  • securityGroupIds (dans la CLI : --security-group-ids) : chaîne de type : string (chaîne encodée en UTF-8).

    Le groupe de sécurité VPC. IDs La valeur par défaut est Aucun.

  • subnets (dans la CLI : --subnets) : chaîne de type : string (chaîne encodée en UTF-8).

    Les sous-réseaux IDs du VPC Neptune. La valeur par défaut est Aucun.

  • trainingInstanceType (dans la CLI : --training-instance-type) : chaîne de type : string (chaîne encodée en UTF-8).

    Type d'instance ML utilisé pour l'entraînement des modèles. Tous les modèles Neptune ML prennent en charge l'entraînement de CPU, de GPU et de multiGPU. L’argument par défaut est ml.p3.2xlarge. Le choix du type d'instance approprié pour l'entraînement dépend du type de tâche, de la taille du graphe et de votre budget.

  • trainingInstanceVolumeSizeInGB (dans la CLI : --training-instance-volume-size-in-gb) : entier de type : integer (entier signé de 32 bits).

    Taille du volume de disque de l'instance d'entraînement. Les données d'entrée et le modèle de sortie étant stockés sur disque, la taille du volume doit être suffisamment grande pour contenir les deux jeux de données. La valeur par défaut est 0. Si elle n'est pas spécifiée ou si elle est égale à 0, Neptune ML sélectionne une taille de volume de disque en fonction de la recommandation générée lors de l'étape de traitement des données.

  • trainingTimeOutInSeconds (dans la CLI : --training-time-out-in-seconds) : entier de type : integer (entier signé de 32 bits).

    Délai d'attente en secondes de la tâche d'entraînement. La valeur par défaut de 86 400 (1 jour).

  • trainModelS3Location (dans la CLI : --train-model-s3-location) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Emplacement dans Amazon S3 où les artefacts de modèle doivent être stockés.

  • volumeEncryptionKMSKey (dans la CLI : --volume-encryption-kms-key) : chaîne de type : string (chaîne encodée en UTF-8).

    La clé Amazon Key Management Service (KMS) SageMaker utilisée pour chiffrer les données sur le volume de stockage attaché aux instances de calcul ML qui exécutent la tâche de formation. La valeur par défaut est Aucun.

Réponse

  • arn : chaîne de type : string (chaîne encodée en UTF-8).

    ARN de la nouvelle tâche d'entraînement du modèle.

  • creationTimeInMillis : long de type : long (entier signé de 64 bits).

    Temps de création de la tâche d'entraînement du modèle, en millisecondes.

  • id : chaîne de type : string (chaîne encodée en UTF-8).

    ID unique de la nouvelle tâche d'entraînement du modèle.

Liste MLModel TrainingJobs (action)

        Le nom de la AWS CLI pour cette API est :list-ml-model-training-jobs.

Répertorie les tâches d'entraînement de modèle Neptune ML. Consultez Entraînement des modèles à l'aide de la commande modeltraining.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLModel TrainingJobs Neptune-db:neptune-db:list IAM dans ce cluster.

Demande

  • maxItems(dans la CLI :--max-items) — une liste MLModelTrainingJobsInputMaxItemsInteger, de type : integer (un entier signé de 32 bits), pas moins de 1 ou plus de 1024 ? 1er ? s.

    Nombre maximum d'éléments à récupérer (allant de 1 à 1 024, avec une valeur par défaut de 10).

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • ids : chaîne de type : string (chaîne encodée en UTF-8).

    Une page de la liste des emplois de formation modèles IDs.

Obtenir MLModel TrainingJob (action)

        Le nom de la AWS CLI pour cette API est :get-ml-model-training-job.

Récupère des informations sur une tâche d'entraînement de modèle Neptune ML. Consultez Entraînement des modèles à l'aide de la commande modeltraining.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLModel TrainingJobStatus Neptune-DB:Get IAM dans ce cluster.

Demande

  • id (dans la CLI : --id) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique de la tâche d'entraînement de modèle à récupérer.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • hpoJob : objet MlResourceDefinition.

    Tâche HPO.

  • id : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique de cette tâche d'entraînement de modèle.

  • mlModels : tableau d'objets MlConfigDefinition.

    Liste des configurations des modèles ML utilisés.

  • modelTransformJob : objet MlResourceDefinition.

    Tâche de transformation de modèle.

  • processingJob : objet MlResourceDefinition.

    Tâche de traitement des données.

  • status : chaîne de type : string (chaîne encodée en UTF-8).

    Statut de la nouvelle tâche d'entraînement du modèle.

Annuler MLModel TrainingJob (action)

        Le nom de la AWS CLI pour cette API est :cancel-ml-model-training-job.

Annule une tâche d'entraînement de modèle Neptune ML. Consultez Entraînement des modèles à l'aide de la commande modeltraining.

Lorsque vous appelez cette opération dans un cluster Neptune sur lequel l'authentification IAM est activée, l'utilisateur ou le rôle IAM à l'origine de la demande doit être associé à une politique autorisant l'action MLModel TrainingJob Neptune-DB:Cancel IAM dans ce cluster.

Demande

  • clean (dans la CLI : --clean) : valeur booléenne de type : boolean (valeur booléenne : true ou false).

    S'il est défini sur TRUE, cet indicateur indique que tous les artefacts Amazon S3 doivent être supprimés lorsque la tâche est arrêtée. L’argument par défaut est FALSE.

  • id (dans la CLI : --id) : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Identifiant unique de la tâche d'entraînement de modèle à annuler.

  • neptuneIamRoleArn (dans la CLI : --neptune-iam-role-arn) : chaîne de type : string (chaîne encodée en UTF-8).

    L'ARN d'un rôle IAM qui fournit à Neptune l'accès aux ressources Amazon S3 et SageMaker à celles-ci. Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données. Dans le cas contraire, une erreur se produira.

Réponse

  • status : chaîne de type : string (chaîne encodée en UTF-8).

    État de l'annulation.

Structures d'entraînement des modèles :

CustomModelTrainingParameters (structure)

Contient les paramètres d'entraînement personnalisés des modèles. Consultez Modèles personnalisés dans Neptune ML.

Champs
  • sourceS3DirectoryPath : obligatoire : chaîne de type : string (chaîne encodée en UTF-8).

    Chemin d'accès vers l'emplacement Amazon S3 où se trouve le module Python implémentant votre modèle. Il doit pointer vers un emplacement Amazon S3 existant valide contenant, au minimum, un script d'entraînement, un script de transformation et un fichier model-hpo-configuration.json.

  • trainingEntryPointScript : chaîne de type : string (chaîne encodée en UTF-8).

    Nom du point d'entrée dans votre module d'un script qui effectue l'entraînement du modèle et utilise des hyperparamètres comme arguments de ligne de commande, y compris des hyperparamètres fixes. L’argument par défaut est training.py.

  • transformEntryPointScript : chaîne de type : string (chaîne encodée en UTF-8).

    Nom du point d'entrée dans le module d'un script qui doit être exécuté une fois que le modèle le plus approprié issu de la recherche par hyperparamètres a été identifié, afin de calculer les artefacts nécessaires au déploiement du modèle. Il devrait pouvoir s'exécuter sans arguments de ligne de commande. La valeur par défaut est transform.py.