Ausführen eines trainierten Amazon Rekognition Custom Labels-Modells - Rekognition

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Ausführen eines trainierten Amazon Rekognition Custom Labels-Modells

Wenn Sie mit der Leistung des Modells zufrieden sind, können Sie damit beginnen, es zu verwenden. Sie können ein Modell mithilfe der Konsole oder des AWS SDK starten und beenden. Die Konsole enthält auch Beispiele für SDK-Operationen, die Sie verwenden können.

Inferenzeinheiten

Wenn Sie Ihr Modell starten, geben Sie die Anzahl der Rechenressourcen an, die als Inferenzeinheit bezeichnet werden, die das Modell verwendet.

Wichtig

Ihnen werden die Anzahl der Stunden, in denen Ihr Modell läuft, und die Anzahl der Inferenzeinheiten, die Ihr Modell während der Ausführung verwendet, in Rechnung gestellt, je nachdem, wie Sie den Betrieb Ihres Modells konfigurieren. Wenn Sie das Modell beispielsweise mit zwei Inferenzeinheiten starten und das Modell 8 Stunden lang verwenden, werden Ihnen 16 Inferenzstunden in Rechnung gestellt (8 Stunden Laufzeit x zwei Inferenzeinheiten). Weitere Informationen finden Sie unter Inferenzstunden. Wenn Sie Ihr Modell nicht ausdrücklich stoppen, werden Ihnen Gebühren berechnet, auch wenn Sie nicht aktiv Bilder mit Ihrem Modell analysieren.

Die Transaktionen pro Sekunde (TPS), die eine einzelne Inferenzeinheit unterstützt, werden durch die folgenden Faktoren beeinflusst.

  • Ein Modell, das Labels auf Bildebene erkennt (Klassifizierung), hat im Allgemeinen einen höheren TPS als ein Modell, das Objekte mit Begrenzungsrahmen erkennt und lokalisiert (Objekterkennung).

  • Die Komplexität des Modells.

  • Ein Bild mit höherer Auflösung benötigt mehr Zeit für die Analyse.

  • Mehr Objekte in einem Bild erfordern mehr Zeit für die Analyse.

  • Kleinere Bilder werden schneller analysiert als größere Bilder.

  • Ein als Bildbyte übergebenes Bild wird schneller analysiert, als das Bild zuerst in einen Amazon-S3-Bucket hochzuladen und dann auf das hochgeladene Bild zu verweisen. Bilder, die als Bildbytes übergeben werden, müssen kleiner als 4.0 MB sein. Wir empfehlen die Verwendung von Bildbytes für die Verarbeitung von Bildern nahezu in Echtzeit und bei einer Bildgröße von weniger als 4.0 MB. Zum Beispiel Bilder, die mit einer IP-Kamera aufgenommen wurden.

  • Die Verarbeitung von Bildern, die in einem Amazon-S3-Bucket gespeichert sind, ist schneller als das Herunterladen der Bilder, das Konvertieren in Bildbytes und das anschließende Übergeben der Bildbytes zur Analyse.

  • Die Analyse eines Bildes, das bereits in einem Amazon-S3-Bucket gespeichert ist, ist wahrscheinlich schneller als die Analyse desselben Bilds, das als Bildbytes übergeben wurde. Das gilt insbesondere, wenn die Bildgröße größer ist.

Wenn die Anzahl der Aufrufe von DetectCustomLabels die maximale Anzahl an TPS überschreitet, die von der Summe der von einem Modell verwendeten Inferenzeinheiten unterstützt wird, gibt Amazon Rekognition Custom Labels eine ProvisionedThroughputExceededException-Ausnahme zurück.

Verwaltung des Durchsatzes mit Inferenzeinheiten

Sie können den Durchsatz Ihres Modells je nach den Anforderungen an Ihre Anwendung erhöhen oder verringern. Verwenden Sie zusätzliche Inferenzeinheiten, um den Durchsatz zu erhöhen. Jede zusätzliche Inferenzeinheit erhöht Ihre Verarbeitungsgeschwindigkeit um eine Inferenzeinheit. Informationen zur Berechnung der Anzahl der benötigten Inferenzeinheiten finden Sie unter Berechnung von Inferenzeinheiten für Amazon Rekognition Custom Labels und Amazon Lookout für Vision-Modelle. Wenn Sie den unterstützten Durchsatz Ihres Modells ändern möchten, haben Sie zwei Möglichkeiten:

Manuelles Hinzufügen oder Entfernen von Inferenzeinheiten

Stoppen Sie das Modell und starten Sie es dann mit der erforderlichen Anzahl von Inferenzeinheiten neu. Der Nachteil dieses Ansatzes besteht darin, dass das Modell während des Neustarts keine Anfragen empfangen kann und nicht zur Bewältigung von Nachfragespitzen verwendet werden kann. Verwenden Sie diesen Ansatz, wenn Ihr Modell einen konstanten Durchsatz aufweist und Ihr Anwendungsfall Ausfallzeiten von 10-20 Minuten tolerieren kann. Ein Beispiel wäre, wenn Sie Ihr Modell mithilfe eines wöchentlichen Zeitplans stapelweise aufrufen möchten.

Automatische Skalierung von Inferenzeinheiten

Wenn Ihr Modell Nachfragespitzen bewältigen muss, kann Amazon Rekognition Custom Labels die Anzahl der Inferenzeinheiten, die Ihr Modell verwendet, automatisch skalieren. Bei steigender Nachfrage fügt Amazon Rekognition Custom Labels dem Modell zusätzliche Inferenzeinheiten hinzu und entfernt sie, wenn die Nachfrage sinkt.

Damit Amazon Rekognition Custom Labels automatisch Inferenzeinheiten für ein Modell skalieren kann, starten Sie das Modell und legen Sie mithilfe des MaxInferenceUnits-Parameters die maximale Anzahl von Inferenzeinheiten fest, die es verwenden kann. Durch die Festlegung einer maximalen Anzahl von Inferenzeinheiten können Sie die Kosten für den Betrieb des Modells verwalten, indem Sie die Anzahl der verfügbaren Inferenzeinheiten einschränken. Wenn Sie keine maximale Anzahl von Einheiten angeben, skaliert Amazon Rekognition Custom Labels Ihr Modell nicht automatisch, sondern verwendet nur die Anzahl der Inferenzeinheiten, mit der Sie begonnen haben. Informationen zur maximalen Anzahl von Inferenzeinheiten finden Sie unter Service Quotas.

Mithilfe des MinInferenceUnits-Parameters können Sie auch eine Mindestanzahl von Inferenzeinheiten angeben. Auf diese Weise können Sie den Mindestdurchsatz für Ihr Modell angeben, wobei eine einzelne Inferenzeinheit einer Stunde Verarbeitungszeit entspricht.

Anmerkung

Sie können die maximale Anzahl von Inferenzeinheiten nicht mit der Amazon Rekognition Custom Labels-Konsole festlegen. Geben Sie stattdessen den MaxInferenceUnits Eingabeparameter für den StartProjectVersion-Vorgang an.

Amazon Rekognition Custom Labels bietet die folgenden Amazon CloudWatch Logs-Metriken, anhand derer Sie den aktuellen Status der automatischen Skalierung für ein Modell ermitteln können.

Metrik Beschreibung

DesiredInferenceUnits

Die Anzahl der Inferenzeinheiten, auf die Amazon Rekognition Custom Labels nach oben oder unten skaliert.

InServiceInferenceUnits

Die Anzahl der Inferenzeinheiten, die das Modell verwendet.

Wenn DesiredInferenceUnits = InServiceInferenceUnits, skaliert Amazon Rekognition Custom Labels derzeit nicht die Anzahl der Inferenzeinheiten.

Wenn DesiredInferenceUnits > InServiceInferenceUnits, skaliert Amazon Rekognition Custom Labels auf den Wert von DesiredInferenceUnits.

Wenn DesiredInferenceUnits < InServiceInferenceUnits wird Amazon Rekognition Custom Labels auf den Wert von DesiredInferenceUnits herunterskaliert.

Weitere Informationen zu den von Amazon Rekognition Custom Labels zurückgegebenen Metriken und Filterdimensionen finden Sie unter CloudWatch Metriken für Rekognition.

Rufen Sie DescribeProjectsVersion auf und überprüfen Sie das MaxInferenceUnits-Feld in der Antwort, um die maximale Anzahl von Inferenzeinheiten zu ermitteln, die Sie für ein Modell angefordert haben. Beispielcode finden Sie unter Beschreibung eines Modells (SDK).

Availability Zones

Amazon Rekognition Custom Labels verteilt Inferenzeinheiten über mehrere Availability Zone (AZ) innerhalb einer AWS Region, um die Verfügbarkeit zu erhöhen. Weitere Informationen finden Sie unter Availability Zones (AZ). Um Ihre Produktionsmodelle vor Ausfällen in der Availability Zone (AZ) und vor Ausfällen von Inferenzeinheiten zu schützen, starten Sie Ihre Produktionsmodelle mit mindestens zwei Inferenzeinheiten.

Bei einem Ausfall der Availability Zone (AZ) sind alle Inferenzeinheiten in der Availability Zone (AZ) nicht verfügbar und die Modellkapazität wird reduziert. Aufrufe von DetectCustomLabels werden auf die verbleibenden Inferenzeinheiten umverteilt. Solche Aufrufe sind erfolgreich, wenn sie die unterstützten Transaktionen pro Sekunde (TPS) der verbleibenden Inferenzeinheiten nicht überschreiten. Nachdem AWS die Availability Zone (AZ) repariert hat, werden die Inferenzeinheiten neu gestartet und die volle Kapazität wiederhergestellt.

Wenn eine einzelne Inferenzeinheit ausfällt, startet Amazon Rekognition Custom Labels automatisch eine neue Inferenzeinheit in derselben Availability Zone (AZ). Die Modellkapazität wird reduziert, bis die neue Inferenzeinheit gestartet wird.