Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Retrieval-Augmented Generation (RAG) optimiert die Ausgabe eines Large Language Model (LLM), indem es auf eine maßgebliche Wissensdatenbank außerhalb der Trainingsdatenquellen verweist, bevor es eine Antwort generiert. Dieser Ansatz hilft dabei, dem Modell aktuelle Informationen zur Verfügung zu stellen und es auf domänenspezifischen oder proprietären Daten zu stützen. Es bietet auch eine kontrollierbare Informationsquelle, mit der Sie Zugriffskontrollen für bestimmte Inhalte einrichten und Probleme in den Antworten beheben können.
RAG verbindet einen Generator (häufig ein LLM) über einen Retriever mit einer Inhaltsdatenbank (z. B. einem Wissensspeicher). Der Retriever ist dafür verantwortlich, relevante Informationen zu finden. In den meisten Unternehmensanwendungen ist die Inhaltsdatenbank ein Vektorspeicher, der Retriever ein Einbettungsmodell und der Generator ein LLM. Weitere Informationen finden Sie unter Retrieval Augmented Generation
Ein RAG-System besteht aus mehreren Komponenten. Dieses Handbuch konzentriert sich auf die Verwendung von Amazon Nova als LLM in einem beliebigen RAG-System.
Sie können Amazon Nova-Modelle als LLM in einem Text RAG-System verwenden. Mit Amazon Nova-Modellen haben Sie die Flexibilität, ein RAG-System mit Amazon Bedrock Wissensdatenbanken oder Ihr eigenes RAG-System zu erstellen. Sie können Ihre Wissensdatenbank auch mit einem Agenten in Amazon Bedrock Agents verknüpfen, um dem Agenten RAG-Funktionen hinzuzufügen. Weitere Informationen finden Sie unter Automatisieren von Aufgaben in Ihrer Anwendung mithilfe von Konversationsagenten.