Richiesta di inferenze da un servizio distribuito (CLI AWS ) - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Richiesta di inferenze da un servizio distribuito (CLI AWS )

Le richieste di inferenza possono essere effettuate con sagemaker-runtime invoke-endpointuna volta che si dispone di un endpoint InService Amazon SageMaker AI. Puoi effettuare richieste di inferenza con AWS Command Line Interface (AWS CLI). L'esempio seguente mostra come inviare un'immagine per l'inferenza:

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt

Se l'inferenza ha avuto successo, viene effettuata una output_file.txt con informazioni sulle richieste di inferenza.

Per TensorFlow inviare un input con application/json come tipo di contenuto.

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt