Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So funktionieren die Amazon Bedrock-Wissensdatenbanken
Amazon Bedrock Knowledge Bases helfen Ihnen dabei, die Vorteile von Retrieval Augmented Generation (RAG) zu nutzen, einer beliebten Technik, bei der Informationen aus einem Datenspeicher abgerufen werden, um die von Large Language Models () generierten Antworten zu erweitern. LLMs Wenn Sie eine Wissensdatenbank mit Ihrer Datenquelle und Ihrem Vektorspeicher einrichten, kann Ihre Anwendung die Wissensdatenbank abfragen, um Informationen zur Beantwortung der Anfrage zurückzugeben, entweder mit direkten Zitaten aus Quellen oder mit natürlichen Antworten, die aus den Abfrageergebnissen generiert werden.
Mithilfe von Wissensdatenbanken können Sie Anwendungen erstellen, die durch den Kontext aus der Abfrage einer Wissensdatenbank bereichert werden. Es ermöglicht eine schnellere Markteinführung, da es von der aufwändigen Arbeit beim Bau von Pipelines absieht und Ihnen eine out-of-the-box RAG Lösung bietet, mit der Sie die Entwicklungszeit für Ihre Anwendung reduzieren können. Durch Hinzufügen einer Wissensdatenbank steigt auch die Kosteneffizienz, da Ihr Modell nicht kontinuierlich trainiert werden muss, um Ihre privaten Daten nutzen zu können.
Die folgenden Diagramme veranschaulichen schematisch, wie dies durchgeführt RAG wird. Die Wissensdatenbank vereinfacht die Einrichtung und Implementierung von, RAG indem mehrere Schritte dieses Prozesses automatisiert werden.
Vorverarbeitung von Daten
Um einen effektiven Abruf aus privaten Daten zu ermöglichen, besteht eine gängige Praxis darin, die Daten in Text umzuwandeln und ihn in überschaubare Teile aufzuteilen. Die Teile oder Blöcke werden dann in Einbettungen umgewandelt und in einen Vektorindex geschrieben, wobei die Zuordnung zum Originaldokument beibehalten wird. Diese Einbettungen werden verwendet, um die semantische Ähnlichkeit zwischen Abfragen und Text aus den Datenquellen zu ermitteln. Die folgende Abbildung veranschaulicht die Vorverarbeitung von Daten für die Vektordatenbank.
Ausführung zur Laufzeit
Zur Laufzeit wird ein Einbettungsmodell verwendet, um die Benutzerabfrage in einen Vektor zu konvertieren. Anschließend wird der Vektorindex abgefragt, um Blöcke zu finden, die der Benutzerabfrage ähneln, indem Dokumentvektoren mit dem Benutzerabfragevektor verglichen werden. Im letzten Schritt wird die Benutzereingabe mit zusätzlichem Kontext aus den Blöcken erweitert, die aus dem Vektorindex abgerufen werden. Die Eingabeaufforderung wird dann mit dem zusätzlichen Kontext an das Modell gesendet, um eine Antwort für den/die Benutzer:in zu generieren. Die folgende Abbildung zeigt, wie zur Laufzeit RAG die Antworten auf Benutzeranfragen verbessert werden können.