Missbrauchserkennung von Amazon Bedrock - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Missbrauchserkennung von Amazon Bedrock

AWS verpflichtet sich, KI verantwortlich zu nutzen. Damit potenzieller Missbrauch verhindert wird, implementiert Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung, um potenzielle Verstöße gegen die Acceptable Use Policy (AUP) und die Servicebedingungen von AWS, einschließlich der Richtlinie für verantwortungsvolle KI oder der AUP eines Drittanbieters von Modellen, zu identifizieren und zu minimieren.

Unsere Mechanismen zur Missbrauchserkennung sind vollständig automatisiert, sodass es keine menschliche Überprüfung von oder menschlichen Zugriff auf Benutzereingaben oder Modellausgaben gibt.

Die automatische Missbrauchserkennung umfasst:

  • Inhalte kategorisieren – Wir verwenden Klassifizierer, um schädliche Inhalte (z. B. Inhalte, die zu Gewalt aufrufen) in Benutzereingaben und Modellausgaben zu erkennen. Ein Klassifizierer ist ein Algorithmus, der Modellein- und -ausgaben verarbeitet und die Art des Schadens und das Maß der Zuverlässigkeit zuweist. Wir können diese Classifier sowohl bei der Verwendung von als auch bei der Nutzung Titan von Modellen von Drittanbietern ausführen. Der Klassifizierungsprozess ist automatisiert und umfasst keine menschliche Überprüfung von Benutzereingaben oder Modellausgaben.

  • Muster identifizieren – Wir verwenden Klassifizierermetriken, um potenzielle Verstöße und wiederkehrendes Verhalten zu identifizieren. Wir können anonymisierte Klassifizierermetriken zusammenstellen und an Drittanbieter von Modellen weitergeben. Amazon Bedrock speichert keine Benutzereingaben oder Modellausgaben und gibt diese auch nicht an Drittanbieter von Modellen weiter.

  • Erkennen und Blockieren von untergeordnetem Bol Missbrauchsmaterial (CSAM) – Sie sind für den Inhalt verantwortlich, den Sie (und Ihre Endbenutzer) in Amazon Bedrock hochladen, und müssen sicherstellen, dass dieser Inhalt frei von illegalen Bildern ist. Um die Verbreitung von CSAM zu stoppen, kann Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung (wie Hash-Matching-Technologie oder Classifier) verwenden, um scheinbares CSAM zu erkennen. Wenn Amazon Bedrock scheinbares CSAM in Ihren Bildeingaben erkennt, blockiert Amazon Bedrock die Anfrage und Sie erhalten eine automatisierte Fehlermeldung. Amazon Bedrock kann auch einen Bericht beim National Center for Missing and Exploited Bol (NCMEC) oder bei einer relevanten Stelle einreichen. Wir nehmen CSAM ernst und werden unsere Erkennungs-, Blockierungs- und Berichtsmechanismen weiterhin aktualisieren. Möglicherweise müssen Sie nach den geltenden Gesetzen zusätzliche Maßnahmen ergreifen, und Sie sind für diese Maßnahmen verantwortlich.

Sobald unsere automatisierten Mechanismen zur Missbrauchserkennung potenzielle Verstöße identifizieren, können wir Informationen über Ihre Nutzung von Amazon Bedrock und die Einhaltung unserer Nutzungsbedingungen oder des AUP eines Drittanbieters anfordern. Falls Sie diese Bedingungen oder Richtlinien nicht einhalten möchten oder nicht einhalten können, AWS kann Ihren Zugriff auf Amazon Bedrock aussetzen.

Wenden Sie sich bei weiteren Fragen an den - AWS Support. Weitere Informationen finden Sie unter Amazon Bedrock – häufig gestellte Fragen.