Bewährte technische Verfahren zur Vermeidung von Prompt-Injection-Angriffen auf moderne LLMs - AWS Prescriptive Guidance

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Bewährte technische Verfahren zur Vermeidung von Prompt-Injection-Angriffen auf moderne LLMs

Ivan Cui, Andrei Ivanovic und Samantha Stuart, Amazon Web Services ()AWS

März 2024 (Geschichte der Dokumente)

Die Verbreitung großer Sprachmodelle (LLMs) in IT-Umgebungen von Unternehmen bringt neue Herausforderungen und Chancen in den Bereichen Sicherheit, verantwortungsvolle künstliche Intelligenz (KI), Datenschutz und schnelle Entwicklung mit sich. Die mit der Verwendung von LLM verbundenen Risiken, wie z. B. voreingenommene Ergebnisse, Datenschutzverletzungen und Sicherheitslücken, müssen gemindert werden. Um diesen Herausforderungen zu begegnen, müssen Unternehmen proaktiv sicherstellen, dass ihr Einsatz von LLMs den umfassenderen Prinzipien verantwortungsvoller KI entspricht und dass sie Sicherheit und Datenschutz priorisieren.

Wenn Unternehmen mit LLMs zusammenarbeiten, sollten sie Ziele definieren und Maßnahmen ergreifen, um die Sicherheit ihrer LLM-Implementierungen zu erhöhen, ebenso wie sie es mit der Einhaltung der geltenden Vorschriften tun. Dies beinhaltet den Einsatz robuster Authentifizierungsmechanismen, Verschlüsselungsprotokolle und optimierter Eingabeaufforderungsdesigns, um Prompt-Injection-Versuche zu identifizieren und ihnen entgegenzuwirken, was dazu beiträgt, die Zuverlässigkeit der KI-generierten Ausgaben in Bezug auf die Sicherheit zu erhöhen.

Von zentraler Bedeutung für den verantwortungsvollen Einsatz von LLM sind schnelles Engineering und die Abwehr von Prompt-Injection-Angriffen, die eine entscheidende Rolle bei der Aufrechterhaltung von Sicherheit, Datenschutz und ethischen KI-Praktiken spielen. Bei Prompt-Injection-Angriffen werden Eingabeaufforderungen manipuliert, um die Ergebnisse von LLM zu beeinflussen, mit der Absicht, Vorurteile oder schädliche Folgen heraufzubeschwören. Zusätzlich zur Sicherung von LLM-Implementierungen müssen Unternehmen die Prinzipien der Prompt-Engineering-Technologie in die KI-Entwicklungsprozesse integrieren, um Schwachstellen durch Prompt-Injection-Angriffe zu minimieren.

In diesem Leitfaden werden Sicherheitsvorkehrungen zur Abwehr von Prompt-Engineering- und Prompt-Injection-Angriffen beschrieben. Diese Schutzmaßnahmen sind mit verschiedenen Modellanbietern und Vorlagen für Eingabeaufforderungen kompatibel, erfordern jedoch zusätzliche Anpassungen für bestimmte Modelle.

Gezielte Geschäftsergebnisse

  • Verbessern Sie die Sicherheit auf Prompt-Ebene von LLM-gestützten RAG-Anwendungen (Retrieval-Augmented Generation) erheblich gegen eine Vielzahl gängiger Angriffsmuster und sorgen gleichzeitig für eine hohe Genauigkeit bei nicht böswilligen Abfragen.

  • Reduzieren Sie die Kosten für Inferenzen, indem Sie eine kleine Anzahl kurzer, aber effektiver Schutzmaßnahmen in der Eingabeaufforderungsvorlage verwenden. Diese Leitplanken sind mit verschiedenen Modellanbietern und Vorlagen für Eingabeaufforderungen kompatibel, erfordern jedoch zusätzliche modellspezifische Anpassungen.

  • Sorgen Sie für mehr Vertrauen und Glaubwürdigkeit beim Einsatz generativer KI-basierter Lösungen.

  • Sorgen Sie für einen unterbrechungsfreien Systembetrieb und reduzieren Sie das Risiko von Ausfallzeiten aufgrund von Sicherheitsereignissen.

  • Unterstützen Sie interne Datenwissenschaftler und kompetente Techniker dabei, verantwortungsvolle KI-Praktiken aufrechtzuerhalten.