Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Memecahkan Masalah Kesalahan Inferensi Neo
Bagian ini berisi informasi tentang cara mencegah dan mengatasi beberapa kesalahan umum yang mungkin Anda temui saat menerapkan dan/atau memanggil titik akhir. Bagian ini berlaku untuk PyTorch 1.4.0 atau yang lebih baru dan MXNet v1.7.0 atau yang lebih baru.
-
Pastikan inferensi pertama (inferensi pemanasan) pada data input yang valid dilakukan di
model_fn()
, jika Anda mendefinisikan amodel_fn
dalam skrip inferensi Anda, jika tidak, pesan kesalahan berikut dapat dilihat di terminal saat dipanggil:predict API
An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."
-
Pastikan bahwa variabel lingkungan dalam tabel berikut diatur. Jika tidak disetel, pesan galat berikut mungkin muncul:
Di terminal:
An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (503) from <users-sagemaker-endpoint> with message "{ "code": 503, "type": "InternalServerException", "message": "Prediction failed" } ".
Dalam CloudWatch:
W-9001-model-stdout com.amazonaws.ml.mms.wlm.WorkerLifeCycle - AttributeError: 'NoneType' object has no attribute 'transform'
Kunci Nilai SAGEMAKER_PROGRAM inference.py SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/model/kode SAGEMAKER_CONTAINER_LOG_LEVEL 20 SAGEMAKER_REGION <your region> -
Pastikan variabel
MMS_DEFAULT_RESPONSE_TIMEOUT
lingkungan disetel ke 500 atau nilai yang lebih tinggi saat membuat SageMaker model Amazon; jika tidak, pesan kesalahan berikut mungkin terlihat di terminal:An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."