Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Beheben Sie Neo-Inferenz-Fehler
Dieser Abschnitt enthält Informationen darüber, wie Sie einige der häufigsten Fehler verhindern und beheben können, die beim Bereitstellen und/oder Aufrufen des Endpunkts auftreten können. Dieser Abschnitt gilt für PyTorch 1.4.0 oder höher und MXNet v1.7.0 oder höher.
-
Stellen Sie sicher, dass die erste Inferenz (Aufwärminferenz) auf gültige Eingabedaten in
model_fn()
erfolgt ist, falls Sie einmodel_fn
in Ihrem Inferenzskript definiert haben. Andernfalls wird beim Aufruf vonpredict API
möglicherweise die folgende Fehlermeldung auf dem Terminal angezeigt: An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."
-
Stellen Sie sicher, dass die Umgebungsvariablen in der folgenden Tabelle gesetzt sind. Wenn sie nicht gesetzt sind, wird möglicherweise die folgende Fehlermeldung angezeigt:
Auf dem Terminal:
An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (503) from <users-sagemaker-endpoint> with message "{ "code": 503, "type": "InternalServerException", "message": "Prediction failed" } ".
CloudWatchIn:
W-9001-model-stdout com.amazonaws.ml.mms.wlm.WorkerLifeCycle - AttributeError: 'NoneType' object has no attribute 'transform'
Schlüssel Wert SAGEMAKER_PROGRAM inference.py SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/modell/code SAGEMAKER_CONTAINER_LOG_LEVEL 20 SAGEMAKER_REGION <your region> -
Stellen Sie sicher, dass die
MMS_DEFAULT_RESPONSE_TIMEOUT
Umgebungsvariable bei der Erstellung des SageMaker Amazon-Modells auf 500 oder einen höheren Wert gesetzt ist. Andernfalls wird möglicherweise die folgende Fehlermeldung auf dem Terminal angezeigt:An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."