As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Ações de endpoint de inferência:
Criar MLEndpoint (ação)
O nome da AWS CLI para essa API é:. create-ml-endpoint
Cria um endpoint de inferência do Neptune ML que permite consultar um modelo específico que o processo de treinamento de modelos construiu. Consulte Gerenciar endpoints de inferência usando o comando.
Solicitação
-
id (na CLI:
--id
): uma string, do tipo:string
(uma string codificada em UTF-8).Um identificador exclusivo para o novo endpoint de inferência. O padrão é um nome com carimbo de data e hora gerado automaticamente.
-
instanceCount (na CLI:
--instance-count
): um valor inteiro, do tipo:integer
(um valor inteiro assinado de 32 bits).O número mínimo de EC2 instâncias da Amazon a serem implantadas em um endpoint para previsão. O padrão é 1.
-
instanceType (na CLI:
--instance-type
): uma string, do tipo:string
(uma string codificada em UTF-8).O tipo de instância do Neptune ML usada para serviços on-line. O padrão é
ml.m5.xlarge
. Selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento. -
mlModelTrainingJobId (na CLI:
--ml-model-training-job-id
): uma string, do tipo:string
(uma string codificada em UTF-8).O ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará. É necessário fornecer o
mlModelTrainingJobId
ou omlModelTransformJobId
. -
mlModelTransformJobId (na CLI:
--ml-model-transform-job-id
): uma string, do tipo:string
(uma string codificada em UTF-8).O ID do trabalho de transformação de modelos concluído. É necessário fornecer o
mlModelTrainingJobId
ou omlModelTransformJobId
. -
modelName (na CLI:
--model-name
): uma string, do tipo:string
(uma string codificada em UTF-8).Tipo de modelo para treinamento. Por padrão, o modelo do Neptune ML é automaticamente baseado no
modelType
usado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui. O padrão érgcn
para grafos heterogêneos ekge
para grafos de conhecimento. O único valor válido para grafos heterogêneos érgcn
. Os valores válidos para grafos de conhecimento são:kge
,transe
,distmult
erotate
. -
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
-
update (na CLI:
--update
): um valor booliano, do tipo:boolean
(um valor booliano (verdadeiro ou falso)).Se definido como
true
,update
indicará que se trata de uma solicitação de atualização. O padrão éfalse
. É necessário fornecer omlModelTrainingJobId
ou omlModelTransformJobId
. -
volumeEncryptionKMSKey (na CLI:
--volume-encryption-kms-key
): uma string, do tipo:string
(uma string codificada em UTF-8).A chave do Amazon Key Management Service (Amazon KMS) SageMaker usada para criptografar dados no volume de armazenamento anexado às instâncias computacionais de ML que executam o trabalho de treinamento. O padrão é Nenhum.
Resposta
-
arn: uma string, do tipo:
string
(uma string codificada em UTF-8).O ARN do novo endpoint de inferência.
-
creationTimeInMillis: é um valor longo, do tipo:
long
(um valor inteiro assinado de 64 bits).O tempo de criação do endpoint, em milissegundos.
-
id: uma string, do tipo:
string
(uma string codificada em UTF-8).O ID exclusivo do novo endpoint de inferência.
Erros
Lista MLEndpoints (ação)
O nome da AWS CLI para essa API é:. list-ml-endpoints
Lista endpoints de inferência existentes. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação do IAM MLEndpointsNeptune-DB:list nesse cluster.
Solicitação
-
maxItems(na CLI:
--max-items
) — uma lista MLEndpointsInputMaxItemsInteger, do tipo:integer
(um inteiro assinado de 32 bits), não inferior a 1 ou superior a 1024? st? s.O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
ids: uma string, do tipo:
string
(uma string codificada em UTF-8).Uma página da lista de endpoints IDs de inferência.
Erros
Obter MLEndpoint (ação)
O nome da AWS CLI para essa API é:. get-ml-endpoint
Recupera detalhes sobre um endpoint de inferência. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação MLEndpointNeptune-DB:get Status IAM nesse cluster.
Solicitação
-
id (na CLI:
--id
): obrigatório: uma string, do tipo:string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
endpoint: um objeto MlResourceDefinition.
A definição de endpoint.
-
endpointConfig: um objeto MlConfigDefinition.
A configuração de endpoint.
-
id: uma string, do tipo:
string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
status: uma string, do tipo:
string
(uma string codificada em UTF-8).O status do endpoint de inferência.
Erros
Excluir MLEndpoint (ação)
O nome da AWS CLI para essa API é:. delete-ml-endpoint
Cancela a criação de um endpoint de inferência do Neptune ML. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM ativada, o usuário ou a função do IAM que faz a solicitação deve ter uma política anexada que permita a ação do IAM MLEndpointNeptune-DB:delete nesse cluster.
Solicitação
-
clean (na CLI:
--clean
): um valor booliano, do tipo:boolean
(um valor booliano (verdadeiro ou falso)).Se esse sinalizador for definido como
TRUE
, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão éFALSE
. -
id (na CLI:
--id
): obrigatório: uma string, do tipo:string
(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn
): uma string, do tipo:string
(uma string codificada em UTF-8).O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos do Amazon S3 e aos recursos do Amazon S3. SageMaker Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
Resposta
-
status: uma string, do tipo:
string
(uma string codificada em UTF-8).O status do cancelamento.