Solicitar inferências de um serviço implantado ()AWS CLI - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Solicitar inferências de um serviço implantado ()AWS CLI

Solicitações de inferência podem ser feitas com o, sagemaker-runtime invoke-endpointuma vez que você tenha um SageMaker endpoint InService da Amazon. Você pode fazer solicitações de inferência com o AWS Command Line Interface (AWS CLI). O exemplo de código a seguir mostra como enviar uma imagem para inferência:

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt

Um output_file.txt com informações sobre suas solicitações de inferência é feito se a inferência for bem-sucedida.

Para TensorFlow enviar uma entrada com application/json como tipo de conteúdo.

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt