

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Solicitar inferências de um serviço implantado (CLI AWS )
<a name="neo-requests-cli"></a>

Solicitações de inferência podem ser feitas com o terminal Amazon AI [https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html](https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html)quando você tiver um endpoint `InService` de SageMaker IA da Amazon. Você pode fazer solicitações de inferência com o AWS Command Line Interface (AWS CLI). O seguinte exemplo de código mostra como enviar uma imagem para inferência: 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt
```

Um `output_file.txt` com informações sobre suas solicitações de inferência é feito se a inferência for bem-sucedida. 

 Para TensorFlow enviar uma entrada com `application/json` como tipo de conteúdo. 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt
```