Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Retrieval-Augmented Generation (RAG) optimiza el resultado de un modelo de lenguaje grande (LLM) al hacer referencia a una base de conocimientos acreditada fuera de sus fuentes de datos de entrenamiento antes de generar una respuesta. Este enfoque ayuda a proporcionar al modelo información actualizada y a basarla en datos patentados o específicos de un dominio. También proporciona una fuente de información controlable, que puede utilizar para establecer controles de acceso a contenido específico y solucionar problemas en las respuestas.
El RAG funciona conectando un generador (normalmente un LLM) a una base de datos de contenido (como un almacén de conocimientos) a través de un recuperador. El recuperador es responsable de encontrar la información relevante. En la mayoría de las aplicaciones empresariales, la base de datos de contenido es un almacén vectorial, el recuperador es un modelo integrado y el generador es un LLM. Para obtener más información, consulte Retrieval Augmented Generation
Un sistema RAG tiene varios componentes. Esta guía se centra en cómo utilizar Amazon Nova como LLM en cualquier sistema RAG.
Puede utilizar los modelos Amazon Nova como LLM dentro de un sistema Text RAG. Con los modelos de Amazon Nova, tiene la flexibilidad de crear un sistema RAG con bases de Amazon Bedrock conocimiento o crear su propio sistema RAG. También puede asociar su base de conocimientos a un agente en Amazon Bedrock Agents para añadir funciones de RAG al agente. Para obtener más información, consulte Automatización de tareas de una aplicación mediante agentes conversacionales.