As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
API de endpoint de inferência do Neptune ML
Ações de endpoint de inferência:
CreateMLEndpoint (ação)
O nome da CLI da AWS para essa API é: create-ml-endpoint
.
Cria um endpoint de inferência do Neptune ML que permite consultar um modelo específico que o processo de treinamento de modelos construiu. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:CreateMLEndpoint nesse cluster.
Solicitação
-
id (na CLI:
--id
): uma string, do tipo:string
(uma string codificada em UTF-8).Um identificador exclusivo para o novo endpoint de inferência. O padrão é um nome com carimbo de data e hora gerado automaticamente.
-
instanceCount (na CLI:
--instance-count
): um valor inteiro, do tipo:integer
(um valor inteiro assinado de 32 bits).O número mínimo de instâncias do Amazon EC2 a serem implantadas em um endpoint para previsão. O padrão é 1.
-
instanceType (na CLI:
--instance-type
): uma string, do tipo:string
(uma string codificada em UTF-8).O tipo de instância do Neptune ML usada para serviços on-line. O padrão é
ml.m5.xlarge
. Selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento. -
mlModelTrainingJobId (na CLI:
--ml-model-training-job-id
): uma string, do tipo:string
(uma string codificada em UTF-8).O ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará. É necessário fornecer o
mlModelTrainingJobId
ou omlModelTransformJobId
. -
mlModelTransformJobId (na CLI:
--ml-model-transform-job-id
): uma string, do tipo:string
(uma string codificada em UTF-8).O ID do trabalho de transformação de modelos concluído. É necessário fornecer o
mlModelTrainingJobId
ou omlModelTransformJobId
. -
modelName (na CLI:
--model-name
): uma string, do tipo:string
(uma string codificada em UTF-8).Tipo de modelo para treinamento. Por padrão, o modelo do Neptune ML é automaticamente baseado no
modelType
usado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui. O padrão érgcn
para grafos heterogêneos ekge
para grafos de conhecimento. O único valor válido para grafos heterogêneos érgcn
. Os valores válidos para grafos de conhecimento são:kge
,transe
,distmult
erotate
. -
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
-
update (na CLI:
--update
): um valor booliano, do tipo:boolean
(um valor booliano (verdadeiro ou falso)).Se definido como
true
,update
indicará que se trata de uma solicitação de atualização. O padrão éfalse
. É necessário fornecer omlModelTrainingJobId
ou omlModelTransformJobId
. -
volumeEncryptionKMSKey (na CLI:
--volume-encryption-kms-key
): uma string, do tipo:string
(uma string codificada em UTF-8).A chave do Amazon Key Management Service (Amazon KMS) que o SageMaker utiliza para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam o trabalho de treinamento. O padrão é Nenhum.
Resposta
-
arn: uma string, do tipo:
string
(uma string codificada em UTF-8).O ARN do novo endpoint de inferência.
-
creationTimeInMillis: é um valor longo, do tipo:
long
(um valor inteiro assinado de 64 bits).O tempo de criação do endpoint, em milissegundos.
-
id: uma string, do tipo:
string
(uma string codificada em UTF-8).O ID exclusivo do novo endpoint de inferência.
Erros
ListMLEndpoints (ação)
O nome da CLI da AWS para essa API é: list-ml-endpoints
.
Lista endpoints de inferência existentes. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:ListMLEndpoints nesse cluster.
Solicitação
-
maxItems (na CLI :
--max-items
): um ListMLEndpointsInputMaxItemsInteger, do tipo:integer
(um valor inteiro assinado de 32 bits), no mínimo 1 e até 1.024 ?st?s.O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
ids: uma string, do tipo:
string
(uma string codificada em UTF-8).Uma página da lista de IDs de endpoints de inferência.
Erros
GetMLEndpoint (ação)
O nome da CLI da AWS para essa API é: get-ml-endpoint
.
Recupera detalhes sobre um endpoint de inferência. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:GetMLEndpointStatus nesse cluster.
Solicitação
-
id (na CLI:
--id
): obrigatório: uma string, do tipo:string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
endpoint – Um objeto MlResourceDefinition.
A definição de endpoint.
-
endpointConfig – Um objeto MlConfigDefinition.
A configuração de endpoint.
-
id: uma string, do tipo:
string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
status: uma string, do tipo:
string
(uma string codificada em UTF-8).O status do endpoint de inferência.
Erros
DeleteMLEndpoint (ação)
O nome da CLI da AWS para essa API é: delete-ml-endpoint
.
Cancela a criação de um endpoint de inferência do Neptune ML. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:DeleteMLEndpoint nesse cluster.
Solicitação
-
clean (na CLI:
--clean
): um valor booliano, do tipo:boolean
(um valor booliano (verdadeiro ou falso)).Se esse sinalizador for definido como
TRUE
, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão éFALSE
. -
id (na CLI:
--id
): obrigatório: uma string, do tipo:string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
Resposta
-
status: uma string, do tipo:
string
(uma string codificada em UTF-8).O status do cancelamento.