Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Rufen Sie einen asynchronen Endpunkt auf
Rufen Sie Rückschlüsse aus dem Modell ab, das auf Ihrem asynchronen Endpunkt mit InvokeEndpointAsync
gehostet wird.
Anmerkung
Falls Sie dies noch nicht getan haben, laden Sie Ihre Inferenzdaten (z. B. Modell für Machine Learning, Beispieldaten) auf Amazon S3 hoch.
Geben Sie in Ihrer Anfrage die folgenden Felder an:
Geben Sie für
InputLocation
den Speicherort Ihrer Inferenzdaten an.Geben Sie für
EndpointName
den Namen Ihres Endpunktes an.(Optional) Für
InvocationTimeoutSeconds
können Sie das maximale Timeout für die Anfragen festlegen. Sie können diesen Wert pro Anfrage auf ein Maximum von 3600 Sekunden (eine Stunde) festlegen. Wenn Sie dieses Feld in Ihrer Anfrage nicht angeben, wird das Zeitlimit für die Anfrage standardmäßig nach 15 Minuten überschritten.
# Create a low-level client representing Amazon SageMaker Runtime sagemaker_runtime = boto3.client("sagemaker-runtime", region_name=
<aws_region>
) # Specify the location of the input. Here, a single SVM sample input_location ="s3://bucket-name/test_point_0.libsvm"
# The name of the endpoint. The name must be unique within an AWS Region in your AWS account. endpoint_name='<endpoint-name>'
# After you deploy a model into production using SageMaker hosting # services, your client applications use this API to get inferences # from the model hosted at the specified endpoint. response = sagemaker_runtime.invoke_endpoint_async( EndpointName=endpoint_name, InputLocation=input_location, InvocationTimeoutSeconds=3600)
Sie erhalten eine Antwort als JSON Zeichenfolge mit Ihrer Anforderungs-ID und dem Namen des Amazon S3 S3-Buckets, der nach der Verarbeitung die Antwort auf den API Anruf erhalten wird.