Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Überprüfen unangemessener Inhalte mit Amazon Augmented AI
Mit Amazon Augmented AI (Amazon A2I) können Sie Workflows erstellen, die für die menschliche Überprüfung von Machine-Learning-Vorhersagen erforderlich sind.
Amazon Rekognition ist direkt in Amazon A2I integriert, so dass Sie die menschliche Überprüfung für den Anwendungsfall der Erkennung unsicherer Bilder einfach implementieren können. Amazon A2I bietet einen Workflow für die menschliche Überprüfung zur Bildmoderation. Auf diese Weise können Sie die Vorhersagen von Amazon Rekognition ganz einfach überprüfen. Sie können Zuverlässigkeitsschwellenwerte für Ihren Anwendungsfall definieren und diese im Laufe der Zeit anpassen. Mit Amazon A2I können Sie einen Pool von Prüfern innerhalb Ihrer eigenen Organisation oder Amazon Mechanical Turk verwenden. Sie können außerdem Personaldienstleister einsetzen, die von AWS auf Qualität und Einhaltung der Sicherheitsverfahren vorab geprüft werden.
In den folgenden Schritten erfahren Sie, wie Sie Amazon A2I mit Amazon Rekognition einrichten. Zuerst erstellen Sie eine Flow-Definition mit Amazon A2I, die die Bedingungen aufweist, die menschliche Überprüfungen auslösen. Anschließend übergeben Sie den Amazon-Ressourcennamen (ARN) der Flow-Definition an die Amazon-Rekognition-DetectModerationLabel
-Operation. In der DetectModerationLabel
-Antwort können Sie sehen, ob menschliche Überprüfung erforderlich ist. Die Ergebnisse der menschlichen Überprüfung sind in einem Amazon-S3-Bucket verfügbar, der durch die Flow-Definition festgelegt wird.
Eine end-to-end Demonstration der Verwendung von Amazon A2I mit Amazon Rekognition finden Sie in einem der folgenden Tutorials im Amazon SageMaker AI Developer Guide.
-
Demo: Erste Schritte mit der Amazon-A2I-API
Um mit der Verwendung der API zu beginnen, können Sie auch ein Beispiel-Jupyter-Notebook ausführen. Siehe Verwenden einer SageMaker Notebook-Instance mit Amazon A2I Jupyter Notebook, um die Amazon Augmented AI (Amazon A2I) -Integration mit Amazon Rekognition [Beispiel]
in einer KI-Notebook-Instance zu verwenden. SageMaker
Betrieb DetectModerationLabels mit Amazon A2I
Anmerkung
Erstellen Sie alle Ressourcen für Amazon A2I und Amazon Rekognition in derselben AWS-Region.
-
Erfüllen Sie die Voraussetzungen, die unter Erste Schritte mit Amazon Augmented AI in der SageMaker KI-Dokumentation aufgeführt sind.
Denken Sie außerdem daran, Ihre IAM-Berechtigungen wie auf der Seite Berechtigungen und Sicherheit in Amazon Augmented AI in der SageMaker KI-Dokumentation einzurichten.
-
Folgen Sie den Anweisungen zur Erstellung eines Workflows zur Überprüfung durch Mitarbeiter in der SageMaker KI-Dokumentation.
Ein Workflow für die menschliche Überprüfung verwaltet die Verarbeitung eines Bildes. Er enthält die Bedingungen, die eine menschliche Überprüfung auslösen, das Arbeitsteam, an das das Bild gesendet wird, die Benutzeroberflächenvorlage, die das Arbeitsteam verwendet, und den Amazon-S3-Bucket, an den die Ergebnisse des Arbeitsteams gesendet werden.
Innerhalb Ihres
CreateFlowDefinition
Anrufs müssen Sie den WertHumanLoopRequestSource
auf "AWS/Rekognition/DetectModerationLabels/Image/V3" setzen. Danach müssen Sie entscheiden, wie Sie Ihre Bedingungen einrichten möchten, die eine menschliche Überprüfung auslösen.Mit Amazon Rekognition haben Sie zwei Optionen für
ConditionType
:ModerationLabelConfidenceCheck
undSampling
.ModerationLabelConfidenceCheck
erstellt eine Schleife zur Prüfung durch Menschen (Human Loop), wenn die Zuverlässigkeit eines Moderations-Labels innerhalb eines bestimmten Bereichs liegt. Schließlich sendetSampling
einen willkürlichen Prozentsatz der verarbeiteten Dokumente an die Prüfung durch Menschen. JederConditionType
legt mittels eines anderen Satzes vonConditionParameters
fest, welche Ergebnisse zu einer Prüfung durch Menschen führen.Für
ModerationLabelConfidenceCheck
giltConditionParameters
ModerationLableName
, wodurch der Schlüssel festlegt wird, bei dem eine Prüfung durch Menschen erforderlich ist. Darüber hinaus gibt es Konfidenzwerte, die den prozentualen Bereich für das Senden an eine menschliche Überprüfung mit LessThan GreaterThan, und Entspricht festlegen.Sampling
hatRandomSamplingPercentage
, wodurch ein Prozentsatz der Dokumente festgelegt wird, die zur Überprüfung durch einen Mitarbeiter gesendet werden.Das folgende Codebeispiel ist ein Teilaufruf von
CreateFlowDefinition
. Es sendet ein Bild zur menschlichen Überprüfung, wenn es weniger als 98 % auf dem Label „Suggestive“ und mehr als 95 % auf dem Label „Female Swimwear or Underwear“ angibt. Dies bedeutet, dass das Bild nicht als unbedingt suggestiv betrachtet wird, aber eine Frau in Unterwäsche oder Bademode zeigt; Sie können das Bild überprüfen, indem Sie menschliche Überprüfung verwenden.def create_flow_definition(): ''' Creates a Flow Definition resource Returns: struct: FlowDefinitionArn ''' humanLoopActivationConditions = json.dumps( { "Conditions": [ { "And": [ { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Suggestive", "ConfidenceLessThan": 98 } }, { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Female Swimwear Or Underwear", "ConfidenceGreaterThan": 95 } } ] } ] } )
CreateFlowDefinition
gibt eineFlowDefinitionArn
zurück, die Sie im nächsten Schritt beim Aufruf vonDetectModerationLabels
verwenden.Weitere Informationen finden Sie CreateFlowDefinitionin der SageMaker AI-API-Referenz.
-
Legen Sie beim Aufruf von
DetectModerationLabels
den ParameterHumanLoopConfig
wie in Erkennen unangemessener Bilder gezeigt fest. In Schritt 4 finden Sie Beispiele für einenDetectModerationLabels
-Aufruf mitHumanLoopConfig
-Set.-
Legen Sie innerhalb des
HumanLoopConfig
-Parameters denFlowDefinitionArn
auf den ARN der Flow-Definition fest, die Sie in Schritt 2 erstellt haben. -
Einstellen Ihrer
HumanLoopName
. Dies sollte innerhalb einer Region eindeutig sein und muss aus Kleinbuchstaben bestehen. -
(Optional) Sie können mit
DataAttributes
festlegen, ob das Bild, das Sie an Amazon Rekognition weitergegeben haben, frei von persönlich identifizierbaren Informationen (PII) ist. Sie müssen diesen Parameter festlegen, um Informationen an Amazon Mechanical Turk zu senden.
-
-
Führen Sie
DetectModerationLabels
.Die folgenden Beispiele zeigen, wie Sie das AWS CLI und AWS SDK for Python (Boto3) zum Ausführen
DetectModerationLabels
mitHumanLoopConfig
Set verwenden.Wenn Sie
DetectModerationLabels
mitHumanLoopConfig
aktivierter Option ausführen, ruft Amazon Rekognition den SageMaker KI-API-Vorgang auf.StartHumanLoop
Dieser Befehl nimmt die Antwort vonDetectModerationLabels
und überprüft sie anhand der Bedingungen der Ablaufdefinition im Beispiel. Wenn es die Bedingungen für die Überprüfung erfüllt, wird einHumanLoopArn
zurückgegeben. Dies bedeutet, dass die Mitglieder des Arbeitsteams, die Sie in der Flow-Definition festgelegt haben, das Bild jetzt überprüfen können. Der Aufruf der Amazon Augmented AI-LaufzeitoperationDescribeHumanLoop
stellt Informationen zum Ergebnis der Schleife bereit. Weitere Informationen finden Sie DescribeHumanLoopin der Referenzdokumentation zur Amazon Augmented AI API.Nachdem das Bild überprüft wurde, können Sie die Ergebnisse in dem Bucket sehen, der im Ausgabepfad der Flow-Definition angegeben ist. Amazon A2I benachrichtigt Sie auch über Amazon CloudWatch Events, wenn die Überprüfung abgeschlossen ist. Informationen dazu, nach welchen Ereignissen Sie suchen müssen, finden Sie in der SageMaker KI-Dokumentation unter CloudWatch Ereignisse.
Weitere Informationen finden Sie unter Erste Schritte mit Amazon Augmented AI in der SageMaker KI-Dokumentation.