Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Solicitar inferencias desde un servicio implementado (AWS CLI)
Las solicitudes de inferencia se pueden realizar con el punto final de Amazon AI sagemaker-runtime invoke-endpoint
una vez que tenga un punto final InService
de Amazon SageMaker AI. Puede realizar solicitudes de inferencia con AWS Command Line Interface
(AWS CLI). En el siguiente ejemplo se muestra cómo enviar una imagen a modo de inferencia:
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://image.jpg --content-type=application/x-image output_file.txt
Si la inferencia se realizó correctamente, se crea un output_file.txt
con información sobre sus solicitudes de inferencia.
Para TensorFlow enviar una entrada con application/json
el tipo de contenido.
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://input.json --content-type=application/json output_file.txt