Ergebnisse der Empfehlungen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Ergebnisse der Empfehlungen

Jedes Ergebnis eines Inference Recommender-Jobs enthält InstanceType, InitialInstanceCount und EnvironmentParameters, bei denen es sich um optimierte Umgebungsvariablenparameter für Ihren Container handelt, um dessen Latenz und Durchsatz zu verbessern. Die Ergebnisse beinhalten auch Leistungs- und Kostenkennzahlen wieMaxInvocations, ModelLatency, CostPerHour, CostPerInference, CpuUtilization, und MemoryUtilization.

In der folgenden Tabelle finden Sie eine Beschreibung dieser Kennzahlen. Diese Metriken können Ihnen helfen, Ihre Suche nach der besten Endpunktkonfiguration für Ihren Anwendungsfall einzugrenzen. Wenn Ihre Motivation beispielsweise das allgemeine Preis-Leistungs-Verhältnis mit Schwerpunkt auf dem Durchsatz ist, sollten Sie sich auf Folgendes konzentrieren CostPerInference.

Metrik Beschreibung Anwendungsfall

ModelLatency

Das Zeitintervall, das ein Modell benötigt, um aus der Sicht zu reagieren SageMaker. Dieses Intervall enthält die lokale Kommunikationszeitspanne für das Senden der Anforderung und Abrufen der Antwort vom Container eines Modells sowie die Zeitspanne für das Abschließen der Inferenz im Container.

Einheiten: Millisekunden

Latenzempfindliche Workloads wie Anzeigenschaltung und medizinische Diagnose

MaximumInvocations

Die maximale Anzahl von InvokeEndpoint Anfragen, die in einer Minute an einen Modellendpunkt gesendet werden.

Einheiten: keine

Auf den Durchsatz ausgerichtete Workloads wie Videoverarbeitung oder Batch-Inferenz

CostPerHour

Die geschätzten Kosten pro Stunde für Ihren Echtzeit-Endpunkt.

Einheiten: US-Dollar

Kostensensible Workloads ohne Latenzfristen

CostPerInference

Die geschätzten Kosten pro Inferenzgespräch für Ihren Echtzeit-Endpunkt.

Einheiten: US-Dollar

Maximieren Sie das allgemeine Preis-/Leistungsverhältnis und konzentrieren Sie sich dabei auf den Durchsatz

CpuUtilization

Die erwartete CPU Auslastung bei maximalen Aufrufen pro Minute für die Endpunktinstanz.

Einheiten: Prozent

Verschaffen Sie sich beim Benchmarking einen Überblick über den Zustand der Instanz, indem Sie Einblick in die CPU Kernauslastung der Instanz haben

MemoryUtilization

Die erwartete Speicherauslastung bei maximalen Aufrufen pro Minute für die Endpunkt-Instance.

Einheiten: Prozent

Verschaffen Sie sich einen Überblick über den Zustand der Instance beim Benchmarking, indem Sie Einblick in die Kernspeichernutzung der Instance haben

In einigen Fällen möchten Sie vielleicht andere SageMaker Endpoint Invocation-Metriken untersuchen, wie z. CPUUtilization Jedes Inference Recommender-Job-Ergebnis enthält die Namen der Endpunkte, die während des Auslastungstests gestartet wurden. Sie können CloudWatch damit die Protokolle für diese Endpunkte überprüfen, auch nachdem sie gelöscht wurden.

Die folgende Abbildung zeigt ein Beispiel für CloudWatch Kennzahlen und Diagramme, die Sie anhand Ihres Empfehlungsergebnisses für einen einzelnen Endpunkt überprüfen können. Dieses Empfehlungsergebnis stammt aus einem Standardjob. Die Skalarwerte aus den Empfehlungsergebnissen lassen sich so interpretieren, dass sie auf dem Zeitpunkt basieren, zu dem sich das Aufruf-Diagramm zum ersten Mal zu nivellieren beginnt. Der gemeldete ModelLatency Wert befindet sich beispielsweise am Anfang des Plateaus um 03:00:31.

Diagramme für CloudWatch Metriken.

Vollständige Beschreibungen der in den vorherigen Diagrammen verwendeten CloudWatch Metriken finden Sie unter SageMaker Endpoint Invocation-Metriken.

Im /aws/sagemaker/InferenceRecommendationsJobs namespace finden Sie auch Leistungskennzahlen wie ClientInvocations und NumberOfUsers von Inference Recommender veröffentlicht. Eine vollständige Liste der Metriken und Beschreibungen, die von Inference Recommender veröffentlicht wurden, finden Sie unter SageMaker Kennzahlen für Jobs von Inference Recommender.

Im Notizbuch Amazon SageMaker Inference Recommender — CloudWatch Metrics Jupyter im amazon-sagemaker-examplesGithub-Repository finden Sie ein Beispiel dafür, wie Sie for Python (Boto3) verwenden können, um Metriken AWS SDK für Ihre Endgeräte zu untersuchen. CloudWatch