Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Retrieval-Augmented Generation (RAG) ottimizza l'output di un modello linguistico di grandi dimensioni (LLM) facendo riferimento a una base di conoscenze autorevole al di fuori delle relative fonti di dati di addestramento prima che generi una risposta. Questo approccio consente di fornire al modello informazioni aggiornate e di basarle su dati proprietari o specifici del dominio. Fornisce inoltre una fonte di informazioni controllabile, che è possibile utilizzare per impostare i controlli di accesso a contenuti specifici e risolvere i problemi nelle risposte.
RAG funziona collegando un generatore (spesso un LLM) a un database di contenuti (come un knowledge store) tramite un retriever. Il retriever è responsabile della ricerca delle informazioni pertinenti. Nella maggior parte delle applicazioni aziendali, il database dei contenuti è un archivio vettoriale, il retriever è un modello di incorporamento e il generatore è un LLM. Per ulteriori informazioni, vedere Retrieval Augmented
Un sistema RAG è composto da diversi componenti. Questa guida si concentra su come utilizzare Amazon Nova come LLM in qualsiasi sistema RAG.
Puoi utilizzare i modelli Amazon Nova come LLM all'interno di un sistema Text RAG. Con i modelli Amazon Nova, hai la flessibilità necessaria per creare un sistema RAG con Amazon Bedrock Knowledge base o creare il tuo sistema RAG. Puoi anche associare la tua knowledge base a un Agent in Amazon Bedrock Agents per aggiungere funzionalità RAG all'agente. Per ulteriori informazioni, consulta Automatizzare le attività nell'applicazione utilizzando agenti conversazionali.