

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Gerenciar endpoints de inferência usando o comando `endpoints`
<a name="machine-learning-api-endpoints"></a>

Use o comando `endpoints` do Neptune ML para criar um endpoint de inferência, conferir o status, excluí-lo ou listar endpoints de inferência existentes.

## Criar um endpoint de inferência usando o comando `endpoints` do Neptune ML
<a name="machine-learning-api-endpoints-create-job"></a>

Um comando `endpoints` do Neptune ML para criar um endpoint de inferência a partir de um modelo criado por um trabalho de treinamento tem a seguinte aparência:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Um comando `endpoints` do Neptune ML para atualizar um endpoint de inferência existente a partir de um modelo criado por um trabalho de treinamento tem a seguinte aparência:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Um comando `endpoints` do Neptune ML para criar um endpoint de inferência a partir de um modelo criado por um trabalho de transformação de modelos tem a seguinte aparência:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

Um comando `endpoints` do Neptune ML para atualizar um endpoint de inferência existente a partir de um modelo criado por um trabalho de transformação de modelos tem a seguinte aparência:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

**Parâmetros para criação de endpoints de inferência `endpoints`**
+ **`id`**: (*opcional*) um identificador exclusivo para o novo endpoint de inferência.

  *Tipo*: string. *Padrão*: um nome com carimbo de data e hora gerado automaticamente.
+ **`mlModelTrainingJobId`**: o ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará.

  *Tipo*: string.

  *Observação*: é necessário fornecer o `mlModelTrainingJobId` ou o `mlModelTransformJobId`.
+ **`mlModelTransformJobId`**: o ID do trabalho de transformação de modelos concluído.

  *Tipo*: string.

  *Observação*: é necessário fornecer o `mlModelTrainingJobId` ou o `mlModelTransformJobId`.
+ **`update`**: (*opcional*) se presente, esse parâmetro indica que se trata de uma solicitação de atualização.

  *Tipo*: booliano. *Padrão*: `false`

  *Observação*: é necessário fornecer o `mlModelTrainingJobId` ou o `mlModelTransformJobId`.
+ **`neptuneIamRoleArn`**— (*Opcional*) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.

  *Tipo*: string. *Observação*: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
+ **`modelName`**: (*opcional*) o tipo de modelo para treinamento. Por padrão, o modelo de ML é automaticamente baseado no `modelType` usado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui.

  *Tipo*: string. *Padrão*: `rgcn` para grafos heterogêneos e `kge` para grafos de conhecimento. *Valores válidos*: para grafos heterogêneos: `rgcn`. Para grafos de conhecimento:`kge`, `transe`, `distmult` ou `rotate`.
+ **`instanceType`**: (*opcional*) o tipo de instância de ML usada para serviços on-line.

  *Tipo*: string. *Padrão*: `ml.m5.xlarge`.

  *Observação*: selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento. Consulte [Selecionar uma instância para um endpoint de inferência](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
+ **`instanceCount`**: (*opcional*) o número mínimo de instâncias do Amazon EC2 a serem implantadas em um endpoint para previsão.

  *Tipo*: número inteiro. *Padrão*: `1`.
+ **`volumeEncryptionKMSKey`**— (*Opcional*) A chave AWS Key Management Service (AWS KMS) que a SageMaker IA usa para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam os endpoints.

  *Tipo*: string *Padrão*: *nenhum*.

## Obter o status de um endpoint de inferência usando o comando `endpoints` do Neptune ML
<a name="machine-learning-api-endpoints-get-endpoint-status"></a>

Um exemplo de comando `endpoints` do Neptune ML para o status de um endpoint de instância tem a seguinte aparência:

```
curl -s \
  "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \
  | python -m json.tool
```

**Parâmetros para o status do endpoint da instância `endpoints`**
+ **`id`**: (*obrigatório*) o identificador exclusivo do endpoint de inferência.

  *Tipo*: string.
+ **`neptuneIamRoleArn`**— (*Opcional*) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.

  *Tipo*: string. *Observação*: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.

## Excluir um endpoint de instância usando o comando `endpoints` do Neptune ML
<a name="machine-learning-api-endpoints-delete-endpoint"></a>

Um exemplo de comando `endpoints` do Neptune ML para exclusão de um endpoint de instância tem a seguinte aparência:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
```

Ou esta:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
```

**Parâmetros para exclusão `endpoints` de um endpoint de inferência**
+ **`id`**: (*obrigatório*) o identificador exclusivo do endpoint de inferência.

  *Tipo*: string.
+ **`neptuneIamRoleArn`**— (*Opcional*) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.

  *Tipo*: string. *Observação*: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
+ **`clean`**: (*opcional*) indica que todos os artefatos relacionados a esse endpoint também devem ser excluídos.

  *Tipo*: booliano. *Padrão*: `FALSE`.

## Listar endpoints de inferência usando o comando `endpoints` do Neptune ML
<a name="machine-learning-api-endpoints-list-endpoints"></a>

Um comando `endpoints` do Neptune ML para listar endpoints de inferência tem a seguinte aparência:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints" \
  | python -m json.tool
```

Ou esta:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \
  | python -m json.tool
```

**Parâmetros para listar endpoints de inferência `dataprocessing`**
+ **`maxItems`**: (*opcional*) o número máximo de itens a serem gerados.

  *Tipo*: número inteiro. *Padrão*: `10`. *Valor máximo permitido*: `1024`.
+ **`neptuneIamRoleArn`**— (*Opcional*) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.

  *Tipo*: string. *Observação*: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.