Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Inferenzanfragen können mit dem gestellt werden, sagemaker-runtime invoke-endpoint
sobald Sie einen Amazon SageMaker AI-Endpunkt InService
haben. Sie können Inferenzanfragen mit dem AWS Command Line Interface
(AWS CLI) stellen. Das folgende Beispiel zeigt, wie ein Bild zur Inferenz gesendet wird.
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://image.jpg --content-type=application/x-image output_file.txt
Eine output_file.txt
mit Informationen zu Ihren Inferenzanfragen wird gestellt, wenn die Inferenz erfolgreich war.
Um eine Eingabe mit application/json
als Inhaltstyp TensorFlow einzureichen.
aws sagemaker-runtime invoke-endpoint --endpoint-name
'insert name of your endpoint here'
--body fileb://input.json --content-type=application/json output_file.txt