

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Richiesta di inferenze da un servizio distribuito (CLI AWS )
<a name="neo-requests-cli"></a>

Le richieste di inferenza possono essere effettuate con [https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html](https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html)una volta che si dispone di un endpoint `InService` Amazon SageMaker AI. Puoi effettuare richieste di inferenza con AWS Command Line Interface (AWS CLI). L'esempio seguente mostra come inviare un'immagine per l'inferenza: 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt
```

Se l'inferenza ha avuto successo, viene effettuata una `output_file.txt` con informazioni sulle richieste di inferenza. 

 Per TensorFlow inviare un input con `application/json` come tipo di contenuto. 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt
```