Richiedi inferenze da un servizio distribuito (Amazon) SageMaker SDK - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Richiedi inferenze da un servizio distribuito (Amazon) SageMaker SDK

Utilizza i seguenti esempi di codice per richiedere inferenze dal servizio distribuito in base al framework utilizzato per addestrare il modello. Gli esempi di codice per i diversi framework sono simili. La differenza principale è che TensorFlow richiede application/json come tipo di contenuto.

PyTorch e MXNet

Se utilizzi la versione PyTorch 1.4 o successiva o la versione MXNet1.7.0 o successiva e disponi di un SageMaker endpoint AmazonInService, puoi effettuare richieste di inferenza utilizzando il pacchetto predictor di for Python. SageMaker SDK

Nota

Le API variabili si basano sulla SageMaker SDK versione per Python:

Il seguente esempio di codice mostra come utilizzarli per APIs inviare un'immagine per l'inferenza:

SageMaker Python SDK v1.x
from sagemaker.predictor import RealTimePredictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image') inference_response = predictor.predict(data=payload) print (inference_response)
SageMaker Python SDK v2.x
from sagemaker.predictor import Predictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = Predictor(endpoint) inference_response = predictor.predict(data=payload) print (inference_response)

TensorFlow

Il seguente esempio di codice mostra come usare SageMaker Python per inviare un'immagine SDK API per l'inferenza:

from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint = 'insert the name of your endpoint here' # Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)