Solicitar inferencias desde un servicio implementado (AWS CLI) - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Solicitar inferencias desde un servicio implementado (AWS CLI)

Las solicitudes de inferencia se pueden realizar con el punto final de Amazon AI sagemaker-runtime invoke-endpointuna vez que tenga un punto final InService de Amazon SageMaker AI. Puede realizar solicitudes de inferencia con AWS Command Line Interface (AWS CLI). En el siguiente ejemplo se muestra cómo enviar una imagen a modo de inferencia:

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt

Si la inferencia se realizó correctamente, se crea un output_file.txt con información sobre sus solicitudes de inferencia.

Para TensorFlow enviar una entrada con application/json el tipo de contenido.

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt