Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Missbrauchserkennung von Amazon Bedrock
AWS setzt sich für den verantwortungsvollen Umgang mit KI ein. Damit potenzieller Missbrauch verhindert wird, implementiert Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung, um potenzielle Verstöße gegen die Acceptable Use Policy (AUP)
Unsere Mechanismen zur Missbrauchserkennung sind vollständig automatisiert, sodass es keine menschliche Überprüfung von oder menschlichen Zugriff auf Benutzereingaben oder Modellausgaben gibt.
Die automatische Missbrauchserkennung umfasst:
-
Inhalte kategorisieren – Wir verwenden Klassifizierer, um schädliche Inhalte (z. B. Inhalte, die zu Gewalt aufrufen) in Benutzereingaben und Modellausgaben zu erkennen. Ein Klassifizierer ist ein Algorithmus, der Modellein- und -ausgaben verarbeitet und die Art des Schadens und das Maß der Zuverlässigkeit zuweist. Wir können diese Klassifikatoren auf beiden ausführen Titan und die Verwendung von Modellen von Drittanbietern. Dies kann Modelle einschließen, die mithilfe der Modellanpassung von Amazon Bedrock optimiert wurden. Der Klassifizierungsprozess ist automatisiert und umfasst keine menschliche Überprüfung von Benutzereingaben oder Modellausgaben.
-
Muster identifizieren – Wir verwenden Klassifizierermetriken, um potenzielle Verstöße und wiederkehrendes Verhalten zu identifizieren. Wir können anonymisierte Klassifizierermetriken zusammenstellen und an Drittanbieter von Modellen weitergeben. Amazon Bedrock speichert keine Benutzereingaben oder Modellausgaben und gibt diese auch nicht an Drittanbieter von Modellen weiter.
-
Erkennen und Blockieren von Material über sexuellen Missbrauch von Kindern (CSAM) — Sie sind für die Inhalte verantwortlich, die Sie (und Ihre Endbenutzer) auf Amazon Bedrock hochladen, und müssen sicherstellen, dass diese Inhalte frei von illegalen Bildern sind. Um die Verbreitung von CSAM zu verhindern, kann Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung (wie Hash-Matching-Technologie oder Klassifikatoren) einsetzen, um offensichtliche CSAMs zu erkennen. Wenn Amazon Bedrock offensichtliche CSAM in Ihren Bildeingaben erkennt, blockiert Amazon Bedrock die Anfrage und Sie erhalten eine automatische Fehlermeldung. Amazon Bedrock kann auch einen Bericht beim National Center for Missing and Exploited Children (NCMEC) oder einer zuständigen Behörde einreichen. Wir nehmen CSAM ernst und werden unsere Erkennungs-, Sperr- und Meldemechanismen weiterhin aktualisieren. Möglicherweise sind Sie nach geltendem Recht verpflichtet, zusätzliche Maßnahmen zu ergreifen, und Sie sind für diese Maßnahmen verantwortlich.
Sobald unsere automatisierten Mechanismen zur Missbrauchserkennung potenzielle Verstöße erkennen, können wir Informationen über Ihre Nutzung von Amazon Bedrock und die Einhaltung unserer Nutzungsbedingungen oder der AUP eines Drittanbieters anfordern. Falls Sie diese Bedingungen oder Richtlinien nicht einhalten möchten oder können, AWS können Sie Ihren Zugriff auf Amazon Bedrock sperren. Möglicherweise werden Ihnen auch die fehlgeschlagenen Feinabstimmungsaufträge in Rechnung gestellt, wenn unsere automatisierten Tests feststellen, dass die Antworten der Modelle nicht mit den Lizenzbedingungen und Richtlinien von Modellanbietern von Drittanbietern übereinstimmen.
Falls Sie weitere Fragen haben, wenden Sie sich an den AWS Support. Weitere Informationen finden Sie im Amazon Bedrock FAQs