Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Richiesta di inferenze da un servizio distribuito (CLI AWS )
Le richieste di inferenza possono essere effettuate con sagemaker-runtime invoke-endpoint
una volta che si dispone di un endpoint InService
Amazon SageMaker AI. Puoi effettuare richieste di inferenza con AWS Command Line Interface
(AWS CLI). L'esempio seguente mostra come inviare un'immagine per l'inferenza:
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://image.jpg --content-type=application/x-image output_file.txt
Se l'inferenza ha avuto successo, viene effettuata una output_file.txt
con informazioni sulle richieste di inferenza.
Per TensorFlow inviare un input con application/json
come tipo di contenuto.
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://input.json --content-type=application/json output_file.txt