Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Richiedi inferenze da un servizio distribuito (Amazon) SageMaker SDK
Utilizza i seguenti esempi di codice per richiedere inferenze dal servizio distribuito in base al framework utilizzato per addestrare il modello. Gli esempi di codice per i diversi framework sono simili. La differenza principale è che TensorFlow richiede application/json
come tipo di contenuto.
PyTorch e MXNet
Se utilizzi la versione PyTorch 1.4 o successiva o la versione MXNet1.7.0 o successiva e disponi di un SageMaker endpoint AmazonInService
, puoi effettuare richieste di inferenza utilizzando il pacchetto predictor
di for Python. SageMaker SDK
Nota
Le API variabili si basano sulla SageMaker SDK versione per Python:
-
Per la versione 1.x, usa and.
RealTimePredictor
Predict
API
Il seguente esempio di codice mostra come utilizzarli per APIs inviare un'immagine per l'inferenza:
TensorFlow
Il seguente esempio di codice mostra come usare SageMaker Python per inviare un'immagine SDK API per l'inferenza:
from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint =
'insert the name of your endpoint here'
# Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)