Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Prognosen in Echtzeit
Echtzeitprognosen sind nützlich, wenn Sie Vorhersagen generieren müssen on-the-fly, z. B. für Anwendungen, die sofortige Antworten erfordern, oder wenn Sie Prognosen für einzelne Datenpunkte erstellen müssen.
Durch die Bereitstellung Ihres AutoML-Modells als Echtzeit-Endpunkt können Sie Prognosen auf Abruf erstellen und die Latenz zwischen dem Empfang neuer Daten und dem Erhalt von Prognosen minimieren. Dadurch eignen sich Prognosen in Echtzeit gut für Anwendungen, die sofortige, personalisierte oder ereignisgesteuerte Prognosefunktionen erfordern.
Für Echtzeitprognosen sollte der Datensatz eine Teilmenge des Eingabedatensatzes sein. Der Echtzeit-Endpunkt hat eine Eingabedatengröße von ca. 6 MB und die Zeitüberschreitung für die Antwort erfolgt nach 60 Sekunden. Wir empfehlen, jeweils nur einen oder wenige Artikel einzugeben.
Sie können SageMaker APIs damit den besten Kandidaten für einen AutoML-Job abrufen und dann mit diesem Kandidaten einen SageMaker KI-Endpunkt erstellen.
Alternativ können Sie bei der Erstellung Ihres Autopilot-Experiments die Option zur automatischen Bereitstellung wählen. Informationen zur Einrichtung der automatischen Bereitstellung von Modellen finden Sie unter So aktivieren Sie die automatische Bereitstellung.
So erstellen Sie einen SageMaker KI-Endpunkt mit Ihrem besten Modellkandidaten:
-
Rufen Sie die Details des AutoML-Jobs ab.
Das folgende AWS CLI Befehlsbeispiel verwendet die DescribeAutoMLJobV2-API, um Details zum AutoML-Job abzurufen, einschließlich der Informationen über den besten Modellkandidaten.
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name
job-name
--regionregion
-
Extrahieren Sie die Containerdefinition InferenceContainersfür den besten Modellkandidaten aus.
Eine Container-Definition ist die containerisierte Umgebung, in der das trainierte SageMaker KI-Modell für Vorhersagen gehostet wird.
BEST_CANDIDATE=$(aws sagemaker describe-auto-ml-job-v2 \ --auto-ml-job-name
job-name
--regionregion
\ --query 'BestCandidate.InferenceContainers[0]' \ --output jsonMit diesem Befehl wird die Containerdefinition für den besten Modellkandidaten extrahiert und in der
BEST_CANDIDATE
Variablen gespeichert. -
Erstellen Sie ein SageMaker KI-Modell mit der besten Kandidaten-Containerdefinition.
Verwenden Sie die Containerdefinitionen aus den vorherigen Schritten, um mithilfe der CreateModelAPI ein SageMaker KI-Modell zu erstellen.
aws sagemaker create-model \ --model-name '
your-candidate-name>
' \ --primary-container "$BEST_CANDIDATE" --execution-role-arn 'execution-role-arn>
' \ --region 'region>
Der
--execution-role-arn
Parameter gibt die IAM-Rolle an, die SageMaker KI annimmt, wenn das Modell für Inferenz verwendet wird. Einzelheiten zu den für diese Rolle erforderlichen Berechtigungen finden Sie unter CreateModel API: Berechtigungen für Ausführungsrollen. -
Erstellen Sie mithilfe des Modells eine SageMaker KI-Endpunktkonfiguration.
Der folgende AWS CLI Befehl verwendet die CreateEndpointConfigAPI, um eine Endpunktkonfiguration zu erstellen.
aws sagemaker create-endpoint-config \ --production-variants file://production-variants.json \ --region '
region
'Wo die
production-variants.json
Datei die Modellkonfiguration enthält, einschließlich des Modellnamens und des Instanztyps.Anmerkung
Wir empfehlen die Verwendung von m5.12xlarge-Instances für Prognosen
in Echtzeit. [ { "VariantName": "
variant-name
", "ModelName": "model-name
", "InitialInstanceCount":1
, "InstanceType": "m5.12xlarge
" } ] } -
Erstellen Sie den SageMaker KI-Endpunkt mithilfe der Endpunktkonfiguration.
Das folgende AWS CLI Beispiel verwendet die CreateEndpointAPI, um den Endpunkt zu erstellen.
aws sagemaker create-endpoint \ --endpoint-name '
endpoint-name>
' \ --endpoint-config-name 'endpoint-config-name
' \ --region 'region
'Überprüfen Sie mithilfe der DescribeEndpointAPI den Fortschritt Ihrer Implementierung von Inferenzendpunkten in Echtzeit. Sehen Sie sich den folgenden AWS CLI Befehl als Beispiel an.
aws sagemaker describe-endpoint \ --endpoint-name '
endpoint-name
' \ --region 'region
'Nach den
EndpointStatus
Änderungen anInService
ist der Endpunkt für Echtzeit-Inferences einsatzbereit. -
Rufen Sie den SageMaker KI-Endpunkt auf, um Vorhersagen zu treffen.
aws sagemaker invoke-endpoint \ --endpoint-name '
endpoint-name
' \ --region 'region
' \ --body file://input-data-in-bytes.json \ --content-type 'application/json
'outfile
Wo die
input-data-in-bytes.json
Datei die Eingabedaten für die Vorhersage enthält.