API de transformação de modelos do Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

API de transformação de modelos do Neptune ML

Ações de transformação de modelos:

Estruturas de transformação de modelos:

StartMLModelTransformJob (ação)

        O nome da CLI da AWS para essa API é: start-ml-model-transform-job.

Cria um trabalho de transformação de modelos. Consulte Usar um modelo treinado para gerar novos artefatos de modelo.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:StartMLModelTransformJob nesse cluster.

Solicitação

  • baseProcessingInstanceType (na CLI: --base-processing-instance-type): uma string, do tipo: string (uma string codificada em UTF-8).

    O tipo de instância de ML usada na preparação e no gerenciamento do treinamento de modelos de ML. É uma instância de computação de ML escolhida com base nos requisitos de memória para processar os dados e o modelo de treinamento.

  • baseProcessingInstanceVolumeSizeInGB (na CLI: --base-processing-instance-volume-size-in-gb): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    O tamanho do volume do disco da instância de treinamento em gigabytes. O padrão é 0. Tanto os dados de entrada quanto o modelo de saída são armazenados em disco, portanto, o tamanho do volume deve ser grande o suficiente para conter os dois conjuntos de dados. Se não for especificado ou for 0, o Neptune ML selecionará um tamanho de volume de disco com base na recomendação gerada na etapa de processamento de dados.

  • customModelTransformParameters (na CLI: --custom-model-transform-parameters): um objeto CustomModelTransformParameters.

    Informações de configuração para uma transformação de modelos usando um modelo personalizado. O objeto customModelTransformParameters contém os seguintes campos, que devem ter valores compatíveis com os parâmetros do modelo salvos do trabalho de treinamento:

  • dataProcessingJobId (na CLI: --data-processing-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID de um trabalho de processamento de dados concluído. Você deve incluir dataProcessingJobId e especificar mlModelTrainingJobId ou trainingJobName.

  • id (na CLI: --id): uma string, do tipo: string (uma string codificada em UTF-8).

    Um identificador exclusivo do novo trabalho. O padrão é um UUID gerado automaticamente.

  • mlModelTrainingJobId (na CLI: --ml-model-training-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID de um trabalho de treinamento de modelos concluído. Você deve incluir dataProcessingJobId e especificar mlModelTrainingJobId ou trainingJobName.

  • modelTransformOutputS3Location (na CLI: --model-transform-output-s3-location): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O local no Amazon S3 onde os artefatos do modelo devem ser armazenados.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

  • s3OutputEncryptionKMSKey (na CLI: --s-3-output-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (KMS) que o SageMaker usa para criptografar a saída do trabalho de processamento. O padrão é nenhum.

  • sagemakerIamRoleArn (na CLI: --sagemaker-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM para execução do SageMaker. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

  • securityGroupIds (na CLI: --security-group-ids): uma string, do tipo: string (uma string codificada em UTF-8).

    Os IDs dos grupos de segurança da VPC. O padrão é Nenhum.

  • subnets (na CLI: --subnets): uma string, do tipo: string (uma string codificada em UTF-8).

    Os IDs das sub-redes na VPC do Neptune. O padrão é Nenhum.

  • trainingJobName (na CLI: --training-job-name): uma string, do tipo: string (uma string codificada em UTF-8).

    O nome de um trabalho de treinamento concluído do SageMaker. Você deve incluir dataProcessingJobId e especificar mlModelTrainingJobId ou trainingJobName.

  • volumeEncryptionKMSKey (na CLI: --volume-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (KMS) que o SageMaker utiliza para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam o trabalho de treinamento. O padrão é Nenhum.

Resposta

  • arn: uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN do trabalho de treinamento de modelos.

  • creationTimeInMillis: é um valor longo, do tipo: long (um valor inteiro assinado de 64 bits).

    O tempo de criação do trabalho de treinamento de modelos, em milissegundos.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O ID exclusivo do novo trabalho de treinamento de modelos.

ListMLModelTransformJobs (ação)

        O nome da CLI da AWS para essa API é: list-ml-model-transform-jobs.

Exibe uma lista de IDs de trabalho de transformação de modelos. Consulte Usar um modelo treinado para gerar novos artefatos de modelo.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:ListMLModelTransformJobs nesse cluster.

Solicitação

  • maxItems (na CLI :--max-items): um ListMLModelTransformJobsInputMaxItemsInteger, do tipo: integer (um valor inteiro assinado de 32 bits), no mínimo 1 e até 1.024 ?st?s.

    O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • ids: uma string, do tipo: string (uma string codificada em UTF-8).

    Uma página da lista de IDs de transformação de modelos.

GetMLModelTransformJob (ação)

        O nome da CLI da AWS para essa API é: get-ml-model-transform-job.

Obtém informações sobre um trabalho de transformação de modelos específico. Consulte Usar um modelo treinado para gerar novos artefatos de modelo.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:GetMLModelTransformJobStatus nesse cluster.

Solicitação

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de treinamento de modelos a ser recuperado.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • baseProcessingJob – Um objeto MlResourceDefinition.

    O trabalho de processamento de dados básico.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de transformação de modelos a ser recuperado.

  • models – Uma matriz de objetos MlConfigDefinition.

    Uma lista das informações de configurações dos modelos de ML utilizados.

  • remoteModelTransformJob – Um objeto MlResourceDefinition.

    O trabalho de transformação de modelos remotos.

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do trabalho de transformação de modelos.

CancelMLModelTransformJob (ação)

        O nome da CLI da AWS para essa API é: cancel-ml-model-transform-job.

Cancela um trabalho de transformação de modelos especificado. Consulte Usar um modelo treinado para gerar novos artefatos de modelo.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:CancelMLModelTransformJob nesse cluster.

Solicitação

  • clean (na CLI: --clean): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se esse sinalizador for definido como TRUE, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão é FALSE.

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do trabalho de transformação de modelos a ser cancelado.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do cancelamento.

Estruturas de transformação de modelos:

CustomModelTransformParameters (estrutura)

Contém parâmetros de transformação de modelos personalizados. Consulte Usar um modelo treinado para gerar novos artefatos de modelo.

Campos
  • sourceS3DirectoryPath: é obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O caminho para o local do Amazon S3 onde o módulo Python que implementa o modelo está localizado. Isso deve apontar para uma localização válida existente do Amazon S3 que contenha, no mínimo, um script de treinamento, um script de transformação e um arquivo model-hpo-configuration.json.

  • transformEntryPointScript: é uma string, do tipo: string (uma string codificada em UTF-8).

    O nome do ponto de entrada no módulo de um script que deve ser executado após a identificação do melhor modelo da pesquisa de hiperparâmetros, para calcular os artefatos do modelo necessários para a implantação do modelo. Ele deve ser capaz de ser executado sem argumentos de linha de comando. O padrão é transform.py.