API de endpoint de inferência do Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

API de endpoint de inferência do Neptune ML

Ações de endpoint de inferência:

CreateMLEndpoint (ação)

        O nome da CLI da AWS para essa API é: create-ml-endpoint.

Cria um endpoint de inferência do Neptune ML que permite consultar um modelo específico que o processo de treinamento de modelos construiu. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:CreateMLEndpoint nesse cluster.

Solicitação

  • id (na CLI: --id): uma string, do tipo: string (uma string codificada em UTF-8).

    Um identificador exclusivo para o novo endpoint de inferência. O padrão é um nome com carimbo de data e hora gerado automaticamente.

  • instanceCount (na CLI: --instance-count): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    O número mínimo de instâncias do Amazon EC2 a serem implantadas em um endpoint para previsão. O padrão é 1.

  • instanceType (na CLI: --instance-type): uma string, do tipo: string (uma string codificada em UTF-8).

    O tipo de instância do Neptune ML usada para serviços on-line. O padrão é ml.m5.xlarge. Selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento.

  • mlModelTrainingJobId (na CLI: --ml-model-training-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • mlModelTransformJobId (na CLI: --ml-model-transform-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID do trabalho de transformação de modelos concluído. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • modelName (na CLI: --model-name): uma string, do tipo: string (uma string codificada em UTF-8).

    Tipo de modelo para treinamento. Por padrão, o modelo do Neptune ML é automaticamente baseado no modelType usado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui. O padrão é rgcn para grafos heterogêneos e kge para grafos de conhecimento. O único valor válido para grafos heterogêneos é rgcn. Os valores válidos para grafos de conhecimento são: kge, transe, distmult e rotate.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.

  • update (na CLI: --update): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se definido como true, update indicará que se trata de uma solicitação de atualização. O padrão é false. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • volumeEncryptionKMSKey (na CLI: --volume-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (Amazon KMS) que o SageMaker utiliza para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam o trabalho de treinamento. O padrão é Nenhum.

Resposta

  • arn: uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN do novo endpoint de inferência.

  • creationTimeInMillis: é um valor longo, do tipo: long (um valor inteiro assinado de 64 bits).

    O tempo de criação do endpoint, em milissegundos.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O ID exclusivo do novo endpoint de inferência.

ListMLEndpoints (ação)

        O nome da CLI da AWS para essa API é: list-ml-endpoints.

Lista endpoints de inferência existentes. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:ListMLEndpoints nesse cluster.

Solicitação

  • maxItems (na CLI :--max-items): um ListMLEndpointsInputMaxItemsInteger, do tipo: integer (um valor inteiro assinado de 32 bits), no mínimo 1 e até 1.024 ?st?s.

    O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • ids: uma string, do tipo: string (uma string codificada em UTF-8).

    Uma página da lista de IDs de endpoints de inferência.

GetMLEndpoint (ação)

        O nome da CLI da AWS para essa API é: get-ml-endpoint.

Recupera detalhes sobre um endpoint de inferência. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:GetMLEndpointStatus nesse cluster.

Solicitação

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • endpoint – Um objeto MlResourceDefinition.

    A definição de endpoint.

  • endpointConfig – Um objeto MlConfigDefinition.

    A configuração de endpoint.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do endpoint de inferência.

DeleteMLEndpoint (ação)

        O nome da CLI da AWS para essa API é: delete-ml-endpoint.

Cancela a criação de um endpoint de inferência do Neptune ML. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:DeleteMLEndpoint nesse cluster.

Solicitação

  • clean (na CLI: --clean): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se esse sinalizador for definido como TRUE, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão é FALSE.

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.

Resposta

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do cancelamento.