Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Überprüfung unangemessener Inhalte mit Amazon Augmented AI
Mit Amazon Augmented AI (Amazon A2I) können Sie Workflows erstellen, die für die menschliche Überprüfung von Machine-Learning-Vorhersagen erforderlich sind.
Amazon Rekognition ist direkt in Amazon A2I integriert, so dass Sie die menschliche Überprüfung für den Anwendungsfall der Erkennung unsicherer Bilder einfach implementieren können. Amazon A2I bietet einen Workflow für die menschliche Überprüfung zur Bildmoderation. Auf diese Weise können Sie die Vorhersagen von Amazon Rekognition ganz einfach überprüfen. Sie können Konfidenzschwellenwerte für Ihren Anwendungsfall definieren und diese im Laufe der Zeit anpassen. Mit Amazon A2I können Sie einen Pool von Prüfern innerhalb Ihrer eigenen Organisation oder Amazon Mechanical Turk nutzen. Sie können außerdem Personaldienstleister einsetzen, die von AWS auf Qualität und Einhaltung der Sicherheitsverfahren vorab geprüft werden.
Die folgenden Schritte führen Sie durch die Einrichtung von Amazon A2I mit Amazon Rekognition. Zuerst erstellen Sie eine Flow-Definition mit Amazon A2I, die die Bedingungen aufweist, die menschliche Überprüfungen auslösen. Anschließend übergeben Sie den Amazon-Ressourcennamen (ARN) der Flow-Definition an den Amazon Rekognition Rekognition-VorgangDetectModerationLabel
. In der DetectModerationLabel
-Antwort können Sie sehen, ob menschliche Überprüfung erforderlich ist. Die Ergebnisse der menschlichen Überprüfung sind in einem Amazon S3 S3-Bucket verfügbar, der durch die Flow-Definition festgelegt wird.
Eine end-to-end Demonstration der Verwendung von Amazon A2I mit Amazon Rekognition finden Sie in einem der folgenden Tutorials im Amazon SageMaker Developer Guide.
-
Demo: Erste Schritte mit der Amazon A2I-API
Um mit der Verwendung der API zu beginnen, können Sie auch ein Jupyter-Beispiel-Notebook ausführen. Informationen zur Verwendung der SageMaker Notebook-Instance (Amazon A2I) mit Amazon Rekognition [Beispiel] in einer Notebook-Instance finden Sie unter Verwenden einer Notebook-Instance mit Amazon A2I
Jupyter Notebook. SageMaker
DetectModerationLabels Wird mit Amazon A2I ausgeführt
Anmerkung
Erstellen Sie alle Ihre Amazon A2I- und Amazon Rekognition Rekognition-Ressourcen in derselben AWS-Region.
-
Sie müssen die Voraussetzungen erfüllen, die in Erste Schritte mit Amazon Augmented AI in der SageMaker -Dokumentation aufgelistet werden.
Denken Sie außerdem daran, Ihre IAM-Berechtigungen wie auf der Seite Berechtigungen und Sicherheit in Amazon Augmented AI in der SageMaker Dokumentation einzurichten.
-
Befolgen Sie die Anweisungen zum Erstellen eines Workflows für die manuelle Überprüfung in der SageMaker-Dokumentation.
Ein Workflow für die menschliche Überprüfung verwaltet die Verarbeitung eines Bildes. Es enthält die Bedingungen, die eine menschliche Überprüfung auslösen, das Arbeitsteam, an das das Bild gesendet wird, die UI-Vorlage, die das Arbeitsteam verwendet, und den Amazon S3 S3-Bucket, an den die Ergebnisse des Arbeitsteams gesendet werden.
In Ihrem
CreateFlowDefinition
Anruf müssen Sie das auf „HumanLoopRequestSource
AWS/Rekognition/ /Image/V3DetectModerationLabels“ setzen. Danach müssen Sie entscheiden, wie Sie Ihre Bedingungen einrichten möchten, die eine menschliche Überprüfung auslösen.Mit Amazon Rekognition haben Sie zwei Optionen für
ConditionType
:ModerationLabelConfidenceCheck
, und.Sampling
ModerationLabelConfidenceCheck
erstellt eine Schleife zur Prüfung durch Menschen (Human Loop), wenn die Zuverlässigkeit eines Moderations-Labels innerhalb eines bestimmten Bereichs liegt. Schließlich sendetSampling
einen willkürlichen Prozentsatz der verarbeiteten Dokumente an die Prüfung durch Menschen. JederConditionType
legt mittels eines anderen Satzes vonConditionParameters
fest, welche Ergebnisse zu einer Prüfung durch Menschen führen.Für
ModerationLabelConfidenceCheck
giltConditionParameters
ModerationLableName
, wodurch der Schlüssel festlegt wird, bei dem eine Prüfung durch Menschen erforderlich ist. Darüber hinaus verfügt es über Confidence, wodurch der prozentuale Bereich für das Senden an eine menschliche Bewertung mit LessThan GreaterThan, und Gleich festgelegt wird.Sampling
hatRandomSamplingPercentage
, wodurch ein Prozentsatz der Dokumente festgelegt wird, die zur Überprüfung durch einen Mitarbeiter gesendet werden.Das folgende Codebeispiel ist ein Teilaufruf von
CreateFlowDefinition
. Es sendet ein Bild zur menschlichen Überprüfung, wenn es weniger als 98 % auf dem Label „Suggestive“ und mehr als 95 % auf dem Label „Female Swimwear or Underwear“ angibt. Dies bedeutet, dass das Bild nicht als unbedingt suggestiv betrachtet wird, aber eine Frau in Unterwäsche oder Bademode zeigt; Sie können das Bild überprüfen, indem Sie menschliche Überprüfung verwenden.def create_flow_definition(): ''' Creates a Flow Definition resource Returns: struct: FlowDefinitionArn ''' humanLoopActivationConditions = json.dumps( { "Conditions": [ { "And": [ { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Suggestive", "ConfidenceLessThan": 98 } }, { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Female Swimwear Or Underwear", "ConfidenceGreaterThan": 95 } } ] } ] } )
CreateFlowDefinition
gibt eineFlowDefinitionArn
zurück, die Sie im nächsten Schritt beim Aufruf vonDetectModerationLabels
verwenden.Weitere Informationen finden Sie CreateFlowDefinitionin der SageMaker API-Referenz.
-
Legen Sie beim Aufruf von
DetectModerationLabels
den ParameterHumanLoopConfig
wie in Erkennen unangemessener Bilder gezeigt fest. In Schritt 4 finden Sie Beispiele für einenDetectModerationLabels
Aufruf mitHumanLoopConfig
set.-
Legen Sie innerhalb des
HumanLoopConfig
-Parameters denFlowDefinitionArn
auf den ARN der Flow-Definition fest, die Sie in Schritt 2 erstellt haben. -
Einstellen Ihrer
HumanLoopName
. Dies sollte innerhalb einer Region eindeutig sein und muss aus Kleinbuchstaben bestehen. -
(Optional) Mit dieser Option können
DataAttributes
Sie festlegen, ob das Bild, das Sie an Amazon Rekognition weitergegeben haben, frei von personenbezogenen Daten ist. Sie müssen diesen Parameter festlegen, um Informationen an Amazon Mechanical Turk zu senden.
-
-
Führen Sie
DetectModerationLabels
.Die folgenden Beispiele zeigen, wie Sie das AWS CLI und AWS SDK for Python (Boto3) zum Ausführen
DetectModerationLabels
mit demHumanLoopConfig
Set verwenden.Wenn Sie
DetectModerationLabels
mitHumanLoopConfig
aktivierter Option ausführen, ruft Amazon Rekognition den SageMaker API-Vorgang auf.StartHumanLoop
Dieser Befehl nimmt die Antwort vonDetectModerationLabels
und überprüft sie anhand der Bedingungen der Ablaufdefinition im Beispiel. Wenn es die Bedingungen für die Überprüfung erfüllt, wird einHumanLoopArn
zurückgegeben. Das bedeutet, dass die Mitglieder des Arbeitsteams, das Sie in Ihrer Flow-Definition festgelegt haben, das Bild jetzt überprüfen können. Der Aufruf der Amazon Augmented AI-LaufzeitoperationDescribeHumanLoop
stellt Informationen zum Ergebnis der Schleife bereit. Weitere Informationen finden Sie DescribeHumanLoopin der Referenzdokumentation zur Amazon Augmented AI API.Nachdem das Bild überprüft wurde, können Sie die Ergebnisse in dem Bucket sehen, der im Ausgabepfad der Flow-Definition angegeben ist. Amazon A2I benachrichtigt Sie auch über Amazon CloudWatch Events, wenn die Überprüfung abgeschlossen ist. Informationen darüber, nach welchen Ereignissen Sie suchen müssen, finden Sie in der SageMakerDokumentation unter CloudWatch Ereignisse.
Weitere Informationen finden Sie unter Erste Schritte mit Amazon Augmented AI in der SageMaker-Dokumentation.