Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Identifizieren Sie Objekte mithilfe der Videorahmen-Objekterkennung
Sie können den Aufgabentyp zur Objekterkennung mit Videoframes verwenden, damit Auftragnehmer Objekte in einer Sequenz von Videoframes (aus einem Video extrahierte Bilder) mithilfe von Begrenzungsrahmen, Polylinien, Polygonen oder Werkzeugen zur Keypoint-Anmerkung identifizieren und lokalisieren können. Das von Ihnen gewählte Tool definiert den Aufgabentyp für Videoframes, den Sie erstellen. Sie können z. B. eine Aufgabe vom Typ Bounding-Box Videoframe-Objekterkennung verwenden, um verschiedene Objekte in einer Reihe von Videoframes zu identifizieren und zu lokalisieren, z. B. Autos, Fahrräder und Fußgänger. Sie können mithilfe der Amazon SageMaker Ground Truth Konsole, der und AWS SDKs sprachspezifisch einen Job zur Objekterkennung für Videorahmen erstellen. SageMaker API Weitere Informationen hierzu finden Sie unter Erstellen Sie einen Auftrag zur Erennung von Videoframe-Objekten, und wählen Sie Ihr bevorzugten Methode. Weitere Informationen zu den Annotationstools, aus denen Sie bei der Erstellung eines Beschriftungsauftrags wählen können, finden Sie unter Aufgabentypen.
Ground Truth bietet eine Benutzeroberfläche und Tools für Auftragnehmer, mit denen Sie Ihre Beschriftungsauftragsaufgaben erledigen können: Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an.
Sie können einen Auftrag zur Anpassung von Anmerkungen erstellen, die in einem Beschriftungsauftrag zur Video-Objekterkennung erstellt wurden, indem Sie den Aufgabentyp Anpassung der Video-Objekterkennung verwenden. Weitere Informationen hierzu finden Sie unter Auftrag zur Objekterkennung, -anpassung oder -verifizierung für Videoframes erstellen.
Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an
Ground Truth stellt Auftragnehmern eine Web-Benutzerschnittstelle (UI) zur Verfügung, mit der sie ihre Aufgaben zur Erkennung von Videoframe-Objekten mit Anmerkungen erledigen können. Sie können eine Vorschau anzeigen und mit der Benutzeroberfläche für Auftragnehmer interagieren, wenn Sie einen Kennzeichnungsauftrag in der Konsole erstellen. Wenn Sie ein neuer Benutzer sind, empfehlen wir Ihnen, mithilfe eines kleinen Eingabedatensatzes einen Beschriftungsauftrag über die Konsole zu erstellen, um eine Vorschau der Worker-Benutzeroberfläche anzuzeigen und sicherzustellen, dass Ihre Videoframes, Beschriftungen und Beschriftungsattribute erwartungsgemäß angezeigt werden.
Die Benutzeroberfläche bietet Auftragnehmern die folgenden unterstützenden Tools zur Beschriftung, mit denen sie ihre Aufgaben zur Objekterkennung ausführen können:
-
Für alle Aufgaben können Auftragnehmer die Funktionen In nächstes kopieren und In alle kopieren verwenden, um eine Anmerkung in den nächsten Frame bzw. in alle nachfolgenden Frames zu kopieren.
-
Für Aufgaben, die die Bounding-Box-Tools beinhalten, können Auftragnehmer die Funktion Nächstes vorhersagen verwenden, um einen Begrenzungsrahmen in einem einzigen Frame zu zeichnen, und Ground Truth dann die Position von Boxen mit derselben Beschriftungen in allen anderen Frames vorhersagen lassen. Auftragnehmer können dann Anpassungen vornehmen, um die vorhergesagte Position der Quader zu korrigieren.
Das folgende Video zeigt, wie ein Auftragnehmer die Worker-Benutzeroberfläche mit dem Bounding-Box-Tool verwenden kann, um Ihre Aufgaben zur Objekterkennung zu erledigen.
Erstellen Sie einen Auftrag zur Erennung von Videoframe-Objekten
Sie können mithilfe der SageMaker Konsole oder der CreateLabelingJob
APIOperation einen Auftrag zur Objekterkennung für Videobilder erstellen.
In diesem Abschnitt wird davon ausgegangen, dass Sie das überprüft Jobreferenz zur Etikettierung von Videoframes und den Typ der Eingabedaten und die von Ihnen verwendete Verbindung zum Eingabedatensatz ausgewählt haben.
Erstellen eines Kennzeichnungsauftrags (Konsole)
Sie können den Anweisungen unter folgenErstellen eines Kennzeichnungsauftrags (Konsole), um zu erfahren, wie Sie in der SageMaker Konsole einen Job zur Objektverfolgung für Videoframes erstellen. Wählen Sie in Schritt 10 aus der Dropdown-Liste für die Aufgabenkategorie die Option Video – Objekterkennung aus. Wählen Sie den gewünschten Aufgabentyp aus, indem Sie unter Aufgabenauswahl eine der Karten auswählen.
Einen Labeling-Job erstellen (API)
Mithilfe der SageMaker API Operation erstellen Sie einen Beschriftungsauftrag zur ObjekterkennungCreateLabelingJob
. Dadurch API wird dieser Vorgang für alle definiert AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, finden Sie im Abschnitt Siehe auch von. CreateLabelingJob
Erstellen eines Kennzeichnungsauftrags (API) bietet einen Überblick über die Operation CreateLabelingJob
. Befolgen Sie diese Anweisungen, und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren:
-
Sie müssen ein ARN für eingeben.
HumanTaskUiArn
Verwenden Siearn:aws:sagemaker:
. Ersetzen Sie<region>
:394669845002:human-task-ui/VideoObjectDetection
durch die AWS -Region, in der Sie den Kennzeichnungsauftrag erstellen.<region>
Nehmen Sie keinen Eintrag für den
UiTemplateS3Uri
Parameter auf. -
Ihr
LabelAttributeName
muss mit-ref
enden. Beispiel,
.video-od-labels
-ref -
Bei Ihrer Eingabemanifestdatei muss es sich um eine Sequenz-Manifestdatei handeln. Sie können diese Manifestdatei mit der SageMaker Konsole oder manuell erstellen und auf Amazon S3 hochladen. Weitere Informationen finden Sie unter Einrichtung der Eingabedaten.
-
Sie können nur private oder externe Arbeitsteams einsetzen, um Beschriftungsaufträge zur Objekterkennung für Videoframes zu erstellen.
-
Sie geben Ihre Beschriftungen, Beschriftungskategorie und Rahmenattribute, den Aufgabentyp und die Arbeitsanweisungen in einer Beschriftungskategorie-Konfigurationsdatei an. Geben Sie den Aufgabentyp (Begrenzungsrahmen, Polylinien, Polygone oder Schlüsselpunkt) mit
annotationType
in Ihrer Konfigurationsdatei für die Beschriftungskategorie an. Weitere Informationen finden Sie unter Konfigurationsdatei für die Beschriftungskategorie mit Referenz zu Labelkategorien und Rahmenattributen, um zu erfahren, wie Sie diese Datei erstellen. -
Sie müssen vordefinierte Lambda-Funktionen ARNs für die Pre-Annotation und Post-Annotation (ACS) angeben. Diese ARNs sind spezifisch für die AWS Region, in der Sie Ihren Labeling-Job erstellen.
-
Die Voranmerkung Lambda finden Sie ARN unter.
PreHumanTaskLambdaArn
Verwenden Sie die Region, in der Sie Ihren Labeling-Job erstellen, um die richtige Region zu findenARN, die mit endet.PRE-VideoObjectDetection
-
Das Lambda nach der Anmerkung finden Sie ARN unter.
AnnotationConsolidationLambdaArn
Verwenden Sie die Region, in der Sie Ihren Labeling-Job erstellen, um die richtige Region zu findenARN, die mit endet.ACS-VideoObjectDetection
-
-
Die Anzahl der in
NumberOfHumanWorkersPerDataObject
angegebenen Auftragnehmer muss1
sein. -
Das automatisierte Daten-Labeling wird für Beschriftungsaufträge für Videoframes nicht unterstützt. Geben Sie keine Werte für Parameter in
LabelingJobAlgorithmsConfig
an. -
Beschriftungsauftrag der Objektverfolgung von Videoframes können mehrere Stunden in Anspruch nehmen. Sie können ein längeres Zeitlimit für diese Kennzeichnungsaufträge in
TaskTimeLimitInSeconds
festlegen (bis zu 7 Tage oder 604.800 Sekunden).
Im Folgenden finden Sie ein Beispiel für eine AWS Python-Anfrage SDK (Boto3)
response = client.create_labeling_job( LabelingJobName=
'example-video-od-labeling-job
, LabelAttributeName='label'
, InputConfig={ 'DataSource': { 'S3DataSource': { 'ManifestS3Uri':'s3://amzn-s3-demo-bucket/path/video-frame-sequence-input-manifest.json'
} }, 'DataAttributes': { 'ContentClassifiers': ['FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent'
, ] } }, OutputConfig={ 'S3OutputPath':'s3://amzn-s3-demo-bucket/prefix/file-to-store-output-data'
, 'KmsKeyId':'string'
}, RoleArn='arn:aws:iam::*:role/*
, LabelCategoryConfigS3Uri='s3://bucket/prefix/label-categories.json'
, StoppingConditions={ 'MaxHumanLabeledObjectCount':123
, 'MaxPercentageOfInputDatasetLabeled':123
}, HumanTaskConfig={ 'WorkteamArn':'arn:aws:sagemaker:us-east-1:*:workteam/private-crowd/*'
, 'UiConfig': { 'HumanTaskUiArn: 'arn:aws:sagemaker:us-east-1
:394669845002:human-task-ui/VideoObjectDetection' }, 'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414
:function:PRE-VideoObjectDetection', 'TaskKeywords': ['Video Frame Object Detection'
, ], 'TaskTitle':'Video frame object detection task'
, 'TaskDescription':'Classify and identify the location of objects and people in video frames'
, 'NumberOfHumanWorkersPerDataObject':123
, 'TaskTimeLimitInSeconds':123
, 'TaskAvailabilityLifetimeInSeconds':123
, 'MaxConcurrentTaskCount':123
, 'AnnotationConsolidationConfig': { 'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414
:function:ACS-VideoObjectDetection' }, Tags=[ { 'Key':'string'
, 'Value':'string'
}, ] )
Auftrag zur Objekterkennung, -anpassung oder -verifizierung für Videoframes erstellen
Sie können mithilfe der Ground Truth Konsole oder einen Job zur Kennzeichnung von Anpassungen und Überprüfungen erstellen CreateLabelingJob
API. Weitere Informationen zu Beschriftungsaufträgen zur Anpassung und Überprüfung sowie zu deren Erstellung finden Sie unter Beschriftungsverifizierung und Anpassung.
Format der Ausgabedaten
Wenn Sie einen Vefolgungsbeschriftungsauftrag für Videoframes erstellen, werden Aufgaben an Auftragnehmer gesendet. Wenn diese Auftragnehmer ihre Aufgaben abgeschlossen haben, werden die Beschriftungen an den Amazon S3-Ausgabespeicherort geschrieben, den Sie beim Erstellen des Beschriftungsauftrags angegeben haben. Informationen über das Format der Ausgabedaten der Videoframe-Objekterkennung finden Sie unter Ausgabe zur Objekterkennung per Videoframe. Wenn Sie ein neuer Benutzer von Ground Truth sind, erfahren Sie unter Ausgabedaten des Jobs beschriften mehr über das Ausgabedatenformat von Ground Truth.