Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

API de endpoint de inferência do Neptune ML

Modo de foco
API de endpoint de inferência do Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Ações de endpoint de inferência:

Criar MLEndpoint (ação)

        O nome da AWS CLI para essa API é:. create-ml-endpoint

Cria um endpoint de inferência do Neptune ML que permite consultar um modelo específico que o processo de treinamento de modelos construiu. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação MLEndpoint Neptune-DB:create IAM nesse cluster.

Solicitação

  • id (na CLI: --id): uma string, do tipo: string (uma string codificada em UTF-8).

    Um identificador exclusivo para o novo endpoint de inferência. O padrão é um nome com carimbo de data e hora gerado automaticamente.

  • instanceCount (na CLI: --instance-count): um valor inteiro, do tipo: integer (um valor inteiro assinado de 32 bits).

    O número mínimo de EC2 instâncias da Amazon a serem implantadas em um endpoint para previsão. O padrão é 1.

  • instanceType (na CLI: --instance-type): uma string, do tipo: string (uma string codificada em UTF-8).

    O tipo de instância do Neptune ML usada para serviços on-line. O padrão é ml.m5.xlarge. Selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento.

  • mlModelTrainingJobId (na CLI: --ml-model-training-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • mlModelTransformJobId (na CLI: --ml-model-transform-job-id): uma string, do tipo: string (uma string codificada em UTF-8).

    O ID do trabalho de transformação de modelos concluído. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • modelName (na CLI: --model-name): uma string, do tipo: string (uma string codificada em UTF-8).

    Tipo de modelo para treinamento. Por padrão, o modelo do Neptune ML é automaticamente baseado no modelType usado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui. O padrão é rgcn para grafos heterogêneos e kge para grafos de conhecimento. O único valor válido para grafos heterogêneos é rgcn. Os valores válidos para grafos de conhecimento são: kge, transe, distmult e rotate.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.

  • update (na CLI: --update): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se definido como true, update indicará que se trata de uma solicitação de atualização. O padrão é false. É necessário fornecer o mlModelTrainingJobId ou o mlModelTransformJobId.

  • volumeEncryptionKMSKey (na CLI: --volume-encryption-kms-key): uma string, do tipo: string (uma string codificada em UTF-8).

    A chave do Amazon Key Management Service (Amazon KMS) SageMaker usada para criptografar dados no volume de armazenamento anexado às instâncias computacionais de ML que executam o trabalho de treinamento. O padrão é Nenhum.

Resposta

  • arn: uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN do novo endpoint de inferência.

  • creationTimeInMillis: é um valor longo, do tipo: long (um valor inteiro assinado de 64 bits).

    O tempo de criação do endpoint, em milissegundos.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O ID exclusivo do novo endpoint de inferência.

Lista MLEndpoints (ação)

        O nome da AWS CLI para essa API é:. list-ml-endpoints

Lista endpoints de inferência existentes. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação do IAM MLEndpointsNeptune-DB:list nesse cluster.

Solicitação

  • maxItems(na CLI:--max-items) — uma lista MLEndpointsInputMaxItemsInteger, do tipo: integer (um inteiro assinado de 32 bits), não inferior a 1 ou superior a 1024? st? s.

    O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • ids: uma string, do tipo: string (uma string codificada em UTF-8).

    Uma página da lista de endpoints IDs de inferência.

Obter MLEndpoint (ação)

        O nome da AWS CLI para essa API é:. get-ml-endpoint

Recupera detalhes sobre um endpoint de inferência. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação MLEndpointNeptune-DB:get Status IAM nesse cluster.

Solicitação

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.

Resposta

  • endpoint: um objeto MlResourceDefinition.

    A definição de endpoint.

  • endpointConfig: um objeto MlConfigDefinition.

    A configuração de endpoint.

  • id: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do endpoint de inferência.

Excluir MLEndpoint (ação)

        O nome da AWS CLI para essa API é:. delete-ml-endpoint

Cancela a criação de um endpoint de inferência do Neptune ML. Consulte Gerenciar endpoints de inferência usando o comando.

Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação do IAM MLEndpointNeptune-DB:delete nesse cluster.

Solicitação

  • clean (na CLI: --clean): um valor booliano, do tipo: boolean (um valor booliano (verdadeiro ou falso)).

    Se esse sinalizador for definido como TRUE, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão é FALSE.

  • id (na CLI: --id): obrigatório: uma string, do tipo: string (uma string codificada em UTF-8).

    O identificador exclusivo do endpoint de inferência.

  • neptuneIamRoleArn (na CLI: --neptune-iam-role-arn): uma string, do tipo: string (uma string codificada em UTF-8).

    O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.

Resposta

  • status: uma string, do tipo: string (uma string codificada em UTF-8).

    O status do cancelamento.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.