Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Puoi inviare richieste di inferenza utilizzando il client e l' SageMaker API AI SDK for Python (Boto3) una volta che hai un invoke_endpoint()
InService
L'esempio di codice seguente mostra come inviare un'immagine per l'inferenza:
import boto3
import json
endpoint = 'insert name of your endpoint here'
runtime = boto3.Session().client('sagemaker-runtime')
# Read image into memory
with open(image, 'rb') as f:
payload = f.read()
# Send image via InvokeEndpoint API
response = runtime.invoke_endpoint(EndpointName=endpoint, ContentType='application/x-image', Body=payload)
# Unpack response
result = json.loads(response['Body'].read().decode())
Nota che BYOM consente un tipo di contenuto personalizzato. Per ulteriori informazioni, consulta runtime_InvokeEndpoint
.