Hinweis zum Ende des Supports: Am 31. Oktober 2025 AWS wird der Support für Amazon Lookout for Vision eingestellt. Nach dem 31. Oktober 2025 können Sie nicht mehr auf die Lookout for Vision Vision-Konsole oder die Lookout for Vision Vision-Ressourcen zugreifen. Weitere Informationen finden Sie in diesem Blogbeitrag
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Einen Amazon Sagemaker Ground Truth Job verwenden
Das Etikettieren von Bildern kann viel Zeit in Anspruch nehmen. Es kann beispielsweise zehn Sekunden dauern, bis eine Anomalie präzise maskiert ist. Wenn Sie Hunderte von Bildern haben, kann es mehrere Stunden dauern, sie zu beschriften. Als Alternative zur eigenen Kennzeichnung der Bilder sollten Sie Amazon SageMaker Ground Truth in Betracht ziehen.
Mit Amazon SageMaker AI Ground Truth können Sie Mitarbeiter von Amazon Mechanical Turk, einem von Ihnen ausgewählten Anbieter, oder interne, private Mitarbeiter einsetzen, um einen beschrifteten Satz von Bildern zu erstellen. Weitere Informationen finden Sie unter Verwenden von Amazon SageMaker AI Ground Truth zur Kennzeichnung von Daten.
Die Nutzung von Amazon Mechanical Turk ist kostenpflichtig. Außerdem kann es mehrere Tage dauern, bis ein Amazon Ground Truth Kennzeichnungsauftrag abgeschlossen ist. Wenn die Kosten ein Problem darstellen oder wenn Sie Ihr Modell schnell trainieren müssen, empfehlen wir Ihnen, die Amazon Lookout for Vision Vision-Konsole zu verwenden, um Ihre Bilder zu beschriften.
Sie können einen Amazon SageMaker AI Ground Truth Labeling-Job verwenden, um Bilder zu kennzeichnen, die für Bildklassifizierungsmodelle und Bildsegmentierungsmodelle geeignet sind. Nach Abschluss des Jobs verwenden Sie die Ausgabe-Manifestdatei, um einen Amazon Lookout for Vision Vision-Datensatz zu erstellen.
Bildklassifizierung
Um Bilder für ein Bildklassifizierungsmodell zu kennzeichnen, erstellen Sie einen Label-Job für eine Aufgabe zur Bildklassifizierung (Single Label).
Bildsegmentierung
Um Bilder für ein Bildsegmentierungsmodell zu kennzeichnen, erstellen Sie einen Label-Job für eine Aufgabe zur Bildklassifizierung (Single Label). Verketten Sie dann den Job, um einen Label-Job für eine Aufgabe zur semantischen Bildsegmentierung zu erstellen.
Sie können einen Labeling-Job auch verwenden, um eine partielle Manifestdatei für ein Bildsegmentierungsmodell zu erstellen. Sie können Bilder beispielsweise mit einer Aufgabe zur Bildklassifizierung (Single Label) klassifizieren. Nachdem Sie einen Lookout for Vision Vision-Datensatz mit der Jobausgabe erstellt haben, verwenden Sie die Amazon Lookout for Vision Vision-Konsole, um Segmentierungsmasken und Anomalie-Labels zu den Datensatzbildern hinzuzufügen.
Bilder mit Amazon SageMaker AI Ground Truth beschriften
Das folgende Verfahren zeigt, wie Bilder mit Amazon SageMaker AI Ground Truth Bildbeschriftungsaufgaben beschriftet werden. Das Verfahren erstellt eine Manifestdatei zur Bildklassifizierung und verkettet optional die Aufgabe zur Bildbeschriftung, um eine Manifestdatei für die Bildsegmentierung zu erstellen. Wenn Sie möchten, dass Ihr Projekt über einen separaten Testdatensatz verfügt, wiederholen Sie dieses Verfahren, um die Manifestdatei für den Testdatensatz zu erstellen.
So beschriften Sie Bilder mit Amazon SageMaker AI Ground Truth (Konsole)
-
Erstellen Sie einen Ground-Truth-Job für eine Aufgabe zur Bildklassifizierung (Single Label), indem Sie den Anweisungen unter Labeling-Job erstellen (Konsole) folgen.
-
Wählen Sie für Schritt 10 im Dropdownmenü „Aufgabenkategorie“ die Option „Bild“ und als Aufgabentyp „Bildklassifizierung (Einzeletikett)“ aus.
-
Fügen Sie für Schritt 16 im Bereich Beschriftungstool zur Bildklassifizierung (Einzeletikett) zwei Beschriftungen hinzu: normal und anomal.
-
-
Warten Sie, bis die Belegschaft mit der Klassifizierung Ihrer Bilder fertig ist.
-
Wenn Sie einen Datensatz für ein Bildsegmentierungsmodell erstellen, gehen Sie wie folgt vor. Andernfalls fahren Sie mit Schritt 4 fort.
-
Öffnen Sie in der Amazon SageMaker AI Ground Truth Konsole die Seite Labeling-Jobs.
Wählen Sie den Job aus, den Sie zuvor erstellt haben. Das Menü Actions (Aktionen) wird aktiviert.
Wählen Sie im Menü Actions (Aktionen) die Option Chain (Verketten) aus. Die Seite mit den Jobdetails wird geöffnet.
Wählen Sie unter Aufgabentyp die Option Semantische Segmentierung aus.
Wählen Sie Weiter.
-
Fügen Sie im Abschnitt Kennzeichnungstool für semantische Segmentierung Anomalie-Labels für jeden Anomalie-Typ hinzu, den Ihr Modell finden soll.
Wählen Sie Create (Erstellen) aus.
Warten Sie, bis die Belegschaft Ihre Bilder beschriftet hat.
-
Öffnen Sie die Ground Truth Konsole und öffnen Sie die Seite Labeling-Jobs.
-
Wenn Sie ein Bildklassifizierungsmodell erstellen, wählen Sie den Job aus, den Sie in Schritt 1 erstellt haben. Wenn Sie ein Bildsegmentierungsmodell erstellen, wählen Sie den in Schritt 3 erstellten Job aus.
-
Öffnen Sie in der Zusammenfassung des Labeling-Jobs den Speicherort S3 unter Speicherort des Ausgabe-Datensatzes. Notieren Sie sich den Speicherort der Manifestdatei, der sein sollte
s3://
.output-dataset-location
/manifests/output/output.manifest Wiederholen Sie dieses Verfahren, wenn Sie eine Manifestdatei für einen Testdatensatz erstellen möchten. Folgen Sie andernfalls den Anweisungen unter Den Datensatz erstellen So erstellen Sie einen Datensatz mit der Manifestdatei.
Den Datensatz erstellen
Gehen Sie wie folgt vor, um einen Datensatz in einem Lookout for Vision Vision-Projekt mit der Manifestdatei zu erstellen, die Sie in Schritt 6 von Bilder mit Amazon SageMaker AI Ground Truth beschriften notiert haben. Die Manifestdatei erstellt den Trainingsdatensatz für ein einzelnes Datensatzprojekt. Wenn Sie möchten, dass Ihr Projekt über einen separaten Testdatensatz verfügt, können Sie einen weiteren Amazon SageMaker AI Ground Truth Job ausführen, um eine Manifestdatei für den Testdatensatz zu erstellen. Oder Sie können die Manifestdatei selbst erstellen. Sie können auch Bilder aus einem Amazon S3 S3-Bucket oder von Ihrem lokalen Computer in Ihren Testdatensatz importieren. (Die Bilder müssen möglicherweise beschriftet werden, bevor Sie das Modell trainieren können).
Bei diesem Verfahren wird davon ausgegangen, dass Ihr Projekt keine Datensätze enthält.
So erstellen Sie einen Datensatz mit Lookout for Vision (Konsole)
-
Öffnen Sie die Amazon Lookout for Vision Vision-Konsole unter https://console.aws.amazon.com/lookoutvision/
. -
Wählen Sie Erste Schritte.
-
Wählen Sie im linken Navigationsbereich die Option Projekte aus.
-
Wählen Sie das Projekt aus, das Sie hinzufügen möchten, um es mit der Manifestdatei zu verwenden.
-
Wählen Sie im Abschnitt So funktioniert's die Option Datensatz erstellen aus.
-
Wählen Sie die Registerkarte Einzelner Datensatz oder Separate Trainings- und Testdatensätze und folgen Sie den Schritten.
-
Wählen Sie Absenden aus.
-
Folgen Sie den Anweisungen unter Trainieren Ihres Modells, um Ihr Modell zu trainieren.