API de treinamento de modelos do Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

API de treinamento de modelos do Neptune ML

Ações de treinamento de modelos:

Estruturas de treinamento de modelos:

StartMLModelTrainingJob (ação)

        O nome da CLI da AWS para essa API é: start-ml-model-training-job.

Cria um trabalho de treinamento de modelos do Neptune ML. Consulte Treinamento de modelos usando o comando modeltraining.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:StartMLModelTrainingJob nesse cluster.

Solicitação

  • baseProcessingInstanceType (na CLI: --base-processing-instance-type): uma string, do tipo: string (uma string codificada em UTF-8).

    O tipo de instância de ML usada na preparação e no gerenciamento do treinamento de modelos de ML. É uma instância de CPU escolhida com base nos requisitos de memória para processar os dados e o modelo de treinamento.

  • customModelTrainingParameters (na CLI: --custom-model-training-parameters): um objeto CustomModelTrainingParameters.

    A configuração do treinamento de modelos personalizados. É um objeto JSON.

  • dataProcessingJobId (na CLI: --data-processing-job-id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O ID do trabalho de processamento de dados concluído que criou os dados com os quais o treinamento funcionará.

  • enableManagedSpotTraining (na CLI: --enable-managed-spot-training): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Otimiza o custo de treinamento de modelos de machine learning usando instâncias spot do Amazon Elastic Compute Cloud. O padrão é False.

  • id (na CLI: --id): uma string, do tipo: string (uma string codificada em UTF-8).

    Um identificador exclusivo do novo trabalho. O padrão é um UUID gerado automaticamente.

  • maxHPONumberOfTrainingJobs (na CLI: --max-hpo-number-of-training-jobs): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    Número total máximo de trabalhos de treinamento a serem iniciados para o trabalho de ajuste de hiperparâmetros. O padrão é 2. O Neptune ML ajusta automaticamente os hiperparâmetros do modelo de machine learning. Para obter um modelo com bom desempenho, use pelo menos dez trabalhos (em outras palavras, defina maxHPONumberOfTrainingJobs como dez). Em geral, quanto mais ajustes forem executados, melhores serão os resultados.

  • maxHPOParallelTrainingJobs (na CLI: --max-hpo-parallel-training-jobs): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    Número máximo de trabalhos de treinamento paralelos a serem iniciados para o trabalho de ajuste de hiperparâmetros. O padrão é 2. O número de trabalhos paralelos que você pode executar é limitado pelos recursos disponíveis na instância de treinamento.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

  • previousModelTrainingJobId (na CLI: --previous-model-training-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID de um trabalho de treinamento de modelos concluído que você deseja atualizar de modo incremental com base nos dados atualizados.

  • s3OutputEncryptionKMSKey (na CLI: --s-3-output-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (KMS) que o SageMaker usa para criptografar a saída do trabalho de processamento. O padrão é nenhum.

  • sagemakerIamRoleArn (na CLI: --sagemaker-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM para a execução do SageMaker. Ele deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

  • securityGroupIds (na CLI: --security-group-ids): uma string, do tipo: string (uma string codificada em UTF-8).

    Os IDs dos grupos de segurança da VPC. O padrão é Nenhum.

  • subnets (na CLI: --subnets): uma string, do tipo: string (uma string codificada em UTF-8).

    Os IDs das sub-redes na VPC do Neptune. O padrão é Nenhum.

  • trainingInstanceType (na CLI: --training-instance-type): uma string, do tipo: string (uma string codificada em UTF-8).

    O tipo de instância de ML usada para treinamento de modelos. Todos os modelos do Neptune ML são compatíveis com o treinamento de CPU, GPU e multiGPU. O padrão é ml.p3.2xlarge. A escolha do tipo de instância certo para treinamento depende do tipo de tarefa, do tamanho do grafo e do orçamento.

  • trainingInstanceVolumeSizeInGB (na CLI: --training-instance-volume-size-in-gb): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    O tamanho do volume do disco da instância de treinamento. Tanto os dados de entrada quanto o modelo de saída são armazenados em disco, portanto, o tamanho do volume deve ser grande o suficiente para conter os dois conjuntos de dados. O padrão é 0. Se não for especificado ou for 0, o Neptune ML selecionará um tamanho de volume de disco com base na recomendação gerada na etapa de processamento de dados.

  • trainingTimeOutInSeconds (na CLI: --training-time-out-in-seconds): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    Tempo limite em segundos do trabalho de treinamento. O padrão é 86.400 (1 dia).

  • trainModelS3Location (na CLI: --train-model-s3-location): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O local no Amazon S3 onde os artefatos do modelo devem ser armazenados.

  • volumeEncryptionKMSKey (na CLI: --volume-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (KMS) que o SageMaker utiliza para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam o trabalho de treinamento. O padrão é Nenhum.

Resposta

  • arn: uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN do novo trabalho de treinamento de modelos.

  • creationTimeInMillis: é um valor longo, do tipo: long (um valor inteiro assinado de 64 bits).

    O tempo de criação do trabalho de treinamento do modelo, em milissegundos.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O ID exclusivo do novo trabalho de treinamento de modelos.

ListMLModelTrainingJobs (ação)

        O nome da CLI da AWS para essa API é: list-ml-model-training-jobs.

Lista trabalhos de treinamento de modelos do Neptune ML. Consulte Treinamento de modelos usando o comando modeltraining.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:neptune-db:ListMLModelTrainingJobs nesse cluster.

Solicitação

  • maxItems (na CLI :--max-items): um ListMLModelTrainingJobsInputMaxItemsInteger, do tipo: integer (um valor inteiro assinado de 32 bits), no mínimo 1 e até 1.024 ?st?s.

    O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • ids: uma string, do tipo: string (uma string codificada em UTF-8).

    Uma página da lista de IDs de trabalhos de treinamento de modelos.

GetMLModelTrainingJob (ação)

        O nome da CLI da AWS para essa API é: get-ml-model-training-job.

Recupera informações sobre um trabalho de treinamento de modelos do Neptune ML. Consulte Treinamento de modelos usando o comando modeltraining.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:GetMLModelTrainingJobStatus nesse cluster.

Solicitação

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de treinamento de modelos a ser recuperado.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • hpoJob – Um objeto MlResourceDefinition.

    O trabalho HPO.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de treinamento de modelos.

  • mlModels – Uma matriz de objetos MlConfigDefinition.

    Uma lista das configurações dos modelos de ML que estão sendo usados.

  • modelTransformJob – Um objeto MlResourceDefinition.

    O trabalho de transformação de modelos.

  • processingJob – Um objeto MlResourceDefinition.

    O trabalho do processamento de dados.

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do novo trabalho de treinamento de modelos.

CancelMLModelTrainingJob (ação)

        O nome da CLI da AWS para essa API é: cancel-ml-model-training-job.

Cancela um trabalho de treinamento de modelos do Neptune ML. Consulte Treinamento de modelos usando o comando modeltraining.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:CancelMLModelTrainingJob nesse cluster.

Solicitação

  • clean (na CLI: --clean): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se definido como TRUE, esse sinalizador especifica que todos os artefatos do Amazon S3 deverão ser excluídos quando o trabalho for interrompido. O padrão é FALSE.

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de treinamento de modelos a ser cancelado.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do cancelamento.

Estruturas de treinamento de modelos:

CustomModelTrainingParameters (estrutura)

Contém parâmetros de treinamento de modelos personalizados. Consulte Modelos personalizados no Neptune ML.

Campos
  • sourceS3DirectoryPath: é obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O caminho para o local do Amazon S3 onde o módulo Python que implementa o modelo está localizado. Isso deve apontar para uma localização válida existente do Amazon S3 que contenha, no mínimo, um script de treinamento, um script de transformação e um arquivo model-hpo-configuration.json.

  • trainingEntryPointScript: é uma string, do tipo: string (uma string codificada em UTF-8).

    O nome do ponto de entrada no módulo de um script que executa o treinamento de modelos e usa hiperparâmetros como argumentos de linha de comando, incluindo hiperparâmetros fixos. O padrão é training.py.

  • transformEntryPointScript: é uma string, do tipo: string (uma string codificada em UTF-8).

    O nome do ponto de entrada no módulo de um script que deve ser executado após a identificação do melhor modelo da pesquisa de hiperparâmetros, para calcular os artefatos do modelo necessários para a implantação do modelo. Ele deve ser capaz de ser executado sem argumentos de linha de comando. O padrão é transform.py.