

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Recupero di dati e generazione di risposte di IA con Knowledge Base per Amazon Bedrock
<a name="knowledge-base"></a>

Sebbene i modelli di fondazione dispongano di conoscenze generali, puoi migliorare ulteriormente le loro risposte utilizzando la generazione potenziata da recupero dati (RAG). RAG è una tecnica che utilizza le informazioni provenienti dalle origini dati per migliorare la pertinenza e l’accuratezza delle risposte generate. Con Knowledge Base per Amazon Bedrock, puoi integrare informazioni proprietarie nelle tue applicazioni di IA generativa. Quando viene effettuata una query, una knowledge base cerca i dati per trovare informazioni pertinenti e rispondere alla query. Le informazioni recuperate possono quindi essere utilizzate per migliorare le risposte generate. Puoi compilare la tua applicazione basata su RAG utilizzando le funzionalità di Knowledge Base per Amazon Bedrock.

Con Knowledge Base per Amazon Bedrock puoi:
+ Rispondere alle query degli utenti restituendo informazioni pertinenti dalle origini dati.
+ Utilizzare le informazioni recuperate dalle origini dati per generare una risposta accurata e pertinente alle query degli utenti.
+ Migliorare i tuoi prompt inserendo in essi le informazioni pertinenti restituite.
+ Includere le citazioni nella risposta generata in modo da poter fare riferimento all’origine dati originale e verificare l’accuratezza.
+ Includere documenti con numerose risorse visive da cui è possibile estrarre immagini e recuperarle nelle risposte alle query. Se si genera una risposta in base ai dati recuperati, il modello può fornire ulteriori informazioni sulla base di queste immagini.
+ Effettua ricerche utilizzando immagini come query per trovare contenuti visivamente simili oppure combina testo e immagini nelle query per risultati più precisi utilizzando modelli di incorporamento multimodali.
+ Convertire il linguaggio naturale in query (come le query SQL) personalizzate per i database strutturati. Per recuperare dati da datastore strutturati vengono utilizzate queste query.
+ Aggiornare le tue origini dati e importare le modifiche direttamente nella knowledge base in modo che sia possibile accedervi immediatamente.
+ Utilizzare i modelli di riclassificazione per influenzare i risultati recuperati dalla tua origine dati.
+ Includere la knowledge base in un flusso di lavoro di [Agent per Amazon Bedrock](agents.md).

Per configurare una knowledge base, è necessario completare le fasi generali seguenti:

1. (Opzionale) Se colleghi la knowledge base a un’origine dati non strutturata, configura il tuo [archivio vettoriale supportato](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html) per indicizzare la rappresentazione degli embedding vettoriali dei dati. Puoi saltare questo passaggio se prevedi di utilizzare la console Amazon Bedrock per creare un Amazon OpenSearch Serverless vector store per te.

1. Connetti la knowledge base a un’origine dati non strutturata o strutturata.

1. Sincronizza l’origine dati con la knowledge base.

1. Configura l’applicazione o l’agente per eseguire queste operazioni:
   + Interrogare la knowledge base e restituire le origini pertinenti.
   + Interrogare la knowledge base e generare risposte in linguaggio naturale in base ai risultati recuperati.
   + (Se interroghi una knowledge base collegata a un datastore strutturato) Trasformare una query in una query specifica per il linguaggio dei dati strutturati (ad esempio una query SQL).

**Topics**
+ [Come funzionano le knowledge base](kb-how-it-works.md)
+ [Regioni e modelli supportati](knowledge-base-supported.md)
+ [Chat con un documento senza alcuna configurazione](knowledge-base-chatdoc.md)
+ [Configurazione delle autorizzazioni per creare e gestire le knowledge base](knowledge-base-prereq-permissions-general.md)
+ [Compilazione di una knowledge base connettendola a un’origine dati](knowledge-base-build.md)
+ [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)
+ [Compilazione di una knowledge base mediante connessione a un datastore strutturato](knowledge-base-build-structured.md)
+ [Compilazione di una knowledge base con un indice GenAI di Amazon Kendra](knowledge-base-build-kendra-genai-index.md)
+ [Compilazione di una knowledge base con grafi di Analisi Amazon Neptune](knowledge-base-build-graphs.md)
+ [Test della knowledge base con query e risposte](knowledge-base-test.md)
+ [Implementazione della knowledge base per l’applicazione](knowledge-base-deploy.md)
+ [Visualizzare informazioni su una knowledge base](kb-info.md)
+ [Modificare una knowledge base](kb-update.md)
+ [Eliminazione di una knowledge base](kb-delete.md)

# Come funziona Knowledge Base per Amazon Bedrock
<a name="kb-how-it-works"></a>

Knowledge Base per Amazon Bedrock ti consente di sfruttare la generazione potenziata da recupero dati (RAG), una tecnica popolare che prevede l’estrazione di informazioni da un archivio dati per arricchire le risposte generate dai modelli linguistici di grandi dimensioni (LLM). Quando configuri una knowledge base con le tue origini dati, l’applicazione può eseguire query sulla knowledge base per restituire informazioni utili a rispondere alla query con citazioni dirette dalle origini o con risposte naturali generate dai risultati della query.

Con Knowledge Base per Amazon Bedrock, è possibile creare applicazioni arricchite dal contesto ottenuto dall’esecuzione di query su una knowledge base. Consente di accelerare il time to market astraendo dal lavoro impegnativo della creazione di pipeline e fornendo una soluzione RAG pronta all'uso per ridurre i tempi di costruzione della tua applicazione. L'aggiunta di una knowledge base aumenta anche l'efficacia dei costi, eliminando la necessità di addestrare continuamente il modello per poter sfruttare i dati privati.

I seguenti diagrammi illustrano schematicamente come viene eseguita la RAG. La knowledge base semplifica la configurazione e l'implementazione della RAG automatizzando diverse fasi di questo processo.

**Pre-elaborazione di dati non strutturati**

Una pratica comune per consentire un recupero efficace dai dati privati non strutturati (dati che non esistono in un archivio di dati strutturato) consiste nel convertire i dati in testo e dividerli in parti gestibili. Le parti o blocchi vengono quindi convertiti in embedding e scritti in un indice vettoriale, mantenendo al contempo una mappatura al documento originale. Questi incorporamenti vengono utilizzati per determinare la somiglianza semantica tra le query e il testo delle origini dati. L'immagine seguente illustra la pre-elaborazione dei dati per il database vettoriale.

![\[Pre-elaborazione dei dati per la Retrieval Augmented Generation\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/rag-preprocess.png)


Gli embedding vettoriali sono una serie di numeri che rappresentano ogni blocco di testo. Un modello converte ogni blocco di testo in serie di numeri, note come vettori, in modo che i testi possano essere confrontati matematicamente. Questi vettori possono essere numeri a virgola mobile (float32) o numeri binari. La maggior parte dei modelli di embedding supportati da Amazon Bedrock utilizza vettori a virgola mobile per impostazione predefinita. Tuttavia, alcuni modelli supportano i vettori binari. Se scegli un modello di embedding binario, devi scegliere anche un modello e un archivio vettoriale che supporti i vettori binari.

I vettori binari, che utilizzano solo 1 bit per dimensione, sono meno costosi, in termini di archiviazione, dei vettori a virgola mobile (float32), che utilizzano 32 bit per dimensione. D’altra parte, non sono precisi come i vettori a virgola mobile nella rappresentazione del testo.

L’esempio seguente mostra una parte di testo in tre rappresentazioni:


****  

| Rappresentazione | Valore | 
| --- | --- | 
| Testo | “Amazon Bedrock utilizza modelli di fondazione ad alte prestazioni delle principali aziende IA e di Amazon.” | 
| Vettore a virgola mobile | [0.041..., 0.056..., -0.018..., -0.012..., -0.020..., ...] | 
| Vettore binario | [1,1,0,0,0, ...] | 

**Esecuzione in fase di runtime**

In fase di runtime, viene utilizzato un modello di incorporamento per convertire la query dell'utente in un vettore. L'indice vettoriale viene quindi interrogato per trovare blocchi semanticamente simili alla query dell'utente confrontando i vettori del documento con il vettore di query dell'utente. Nel passaggio finale, il prompt dell'utente viene aumentato con il contesto aggiuntivo proveniente dai blocchi recuperati dall'indice vettoriale. Il prompt insieme al contesto aggiuntivo viene quindi inviato al modello per generare una risposta per l'utente. L'immagine seguente mostra come la RAG opera in fase di runtime per migliorare le risposte alle query degli utenti.

![\[Retrieval-Augmented Generation in fase di runtime\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/rag-runtime.png)


Per ulteriori informazioni su come trasformare i dati in una knowledge base, su come eseguire query sulla knowledge base dopo averla configurata e sulle personalizzazioni che è possibile applicare all’origine dati durante l’importazione, consulta i seguenti argomenti:

**Topics**
+ [Trasformazione di dati in una knowledge base](kb-how-data.md)
+ [Recupero di informazioni da origini dati utilizzando Knowledge Base per Amazon Bedrock](kb-how-retrieval.md)
+ [Personalizzazione di una knowledge base](kb-how-customization.md)

# Trasformazione di dati in una knowledge base
<a name="kb-how-data"></a>

La creazione di una knowledge base richiede la connessione a un’origine dati a cui la knowledge base deve poter accedere. La knowledge base sarà in grado di rispondere alle domande degli utenti o generare risposte in base ai dati recuperati.

 Knowledge Base per Amazon Bedrock supporta una varietà di documenti, tra cui testo, immagini o documenti multimodali che contengono tabelle, grafici, diagrammi e altre immagini. I dati *multimodali* si riferiscono a una combinazione di dati di testo e visivi. Esempi di tipi di file che contengono dati non strutturati sono text, markdown, HTML e. PDFs

Le seguenti sezioni descrivono i tipi di dati supportati da Knowledge Base per Amazon Bedrock e i servizi a cui è possibile connettere la knowledge base per ogni tipo di dati:

## Dati non strutturati
<a name="kb-how-unstructured"></a>

Per dati non strutturati si intendono dati che non sono vincolati a una struttura predefinita. Knowledge Base per Amazon Bedrock supporta la connessione ai seguenti servizi per aggiungere dati non strutturati alla knowledge base:
+ Simple Storage Service (Amazon S3)
+ Confluence (anteprima)
+ Microsoft SharePoint (anteprima)
+ Salesforce (anteprima)
+ Web Crawler (anteprima)
+ Origine dati personalizzata (consente l’importazione diretta dei dati nelle knowledge base senza bisogno di sincronizzazione)

Un’origine dati contiene la forma grezza dei documenti. Per ottimizzare il processo di query, una knowledge base converte i dati grezzi in *embedding vettoriali*, una rappresentazione numerica dei dati, per quantificare la somiglianza con le query anch’esse convertite in embedding vettoriali. Knowledge Base per Amazon Bedrock utilizza le seguenti risorse nel processo di conversione dell’origine dati:
+ Modello di embedding: un modello di fondazione che converte i dati in embedding vettoriali. Per i dati multimodali contenenti sia testo che immagini, puoi utilizzare modelli di incorporamento multimodali come Amazon Titan Multimodal Embeddings G1 o Cohere Embed v3.
+ Archivio vettoriale: servizio che archivia la rappresentazione vettoriale dei dati. Sono supportati i seguenti archivi vettoriali:
  + Amazon senza OpenSearch server
  + Amazon Neptune
  + Amazon Aurora (RDS)
  + Pinecone
  + Redis Enterprise Cloud
  + Atlante MongoDB

Il processo di conversione dei dati in embedding vettoriali si chiama *importazione*. Il processo di importazione che trasforma i dati in una knowledge base prevede le seguenti fasi::

**Importazione**

1. I dati vengono analizzati dal parser scelto. Per ulteriori informazioni sull’analisi dei dati, consultare [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

1. Ogni documento nell’origine dati viene suddiviso in *blocchi*, suddivisioni dei dati che possono essere definite in base al numero di token e ad altri parametri. Per ulteriori informazioni sul chunking, consultare [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).

1. Il modello di embedding scelto converte i dati in embedding vettoriali. Per i contenuti multimodali, le immagini sono incorporate come vettori visivi mentre il testo è incorporato come vettori di testo, consentendo la ricerca in entrambe le modalità.

1. Gli embedding vettoriali vengono scritti in un indice vettoriale nell’archivio vettoriale scelto.

Una volta completato il processo di importazione, la knowledge base è pronta per essere interrogata. Per informazioni su come interrogare e recuperare informazioni dalla knowledge base, consultare [Recupero di informazioni da origini dati utilizzando Knowledge Base per Amazon Bedrock](kb-how-retrieval.md).

Se si apportano modifiche a un’origine dati, è necessario sincronizzare le modifiche per importare nella knowledge base aggiunte, modifiche ed eliminazioni. Alcune origini dati supportano l’importazione o l’eliminazione diretta di file nella knowledge base, quindi non è più necessario gestire la modifica e l’importazione dell’origine dati come fasi separate ed eseguire sempre sincronizzazioni complete. Per informazioni su come importare i documenti direttamente nella knowledge base e le origini dati che la supportano, consultare [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).

Knowledge Base per Amazon Bedrock offre diverse opzioni per personalizzare l’importazione dei dati. Per ulteriori informazioni sulla personalizzazione di questo processo, consultare [Personalizzazione di una knowledge base](kb-how-customization.md).

## Dati strutturati
<a name="kb-how-structured"></a>

Per dati strutturati si intendono i dati tabulari in un formato predefinito dall’archivio dati in cui si trovano. Knowledge Base per Amazon Bedrock si connette agli archivi dati strutturati supportati tramite il motore di query Amazon Redshift. Knowledge Base per Amazon Bedrock fornisce un meccanismo completamente gestito che analizza i modelli di query, la cronologia delle query e i metadati dello schema per convertire le query in linguaggio naturale in query SQL. Le query convertite vengono quindi utilizzate per recuperare informazioni pertinenti dalle origini dati supportate.

Knowledge Base per Amazon Bedrock supporta la connessione ai seguenti servizi per aggiungere archivi dati strutturati alla knowledge base:
+ Amazon Redshift
+ AWS Glue Data Catalog(AWS Lake Formation)

Se la knowledge base è connessa un archivio dati strutturato, non è necessario convertire i dati in embedding vettoriali. Knowledge Base per Amazon Bedrock può interrogare direttamente l’archivio dati strutturato. Durante la procedura, Knowledge Base per Amazon Bedrock può convertire le query degli utenti in query SQL per recuperare dati pertinenti alla richiesta dell’utente e generare risposte più accurate. È anche possibile generare query SQL senza recuperare dati e utilizzarle in altri flussi di lavoro.

Ad esempio, un repository di database contiene la seguente tabella con informazioni sui clienti e i loro acquisti:


****  

| ID cliente | Importo acquisti nel 2020 | Importo acquisti nel 2021 | Importo acquisti nel 2022 | Importo totale acquisti fino ad oggi | 
| --- | --- | --- | --- | --- | 
| 1 | 200 | 300 | 500 | 1000 | 
| 2 | 150 | 100 | 120 | 370 | 
| 3 | 300 | 300 | 300 | 900 | 
| 4 | 720 | 180 | 100 | 900 | 
| 5 | 500 | 400 | 100 | 1000 | 
| 6 | 900 | 800 | 1000 | 2700 | 
| 7 | 470 | 420 | 400 | 1290 | 
| 8 | 250 | 280 | 250 | 780 | 
| 9 | 620 | 830 | 740 | 2190 | 
| 10 | 300 | 200 | 300 | 800 | 

Se una query dell’utente dice “genera un riepilogo dei 5 clienti che hanno speso di più”, la knowledge base può fare quanto segue:
+ Converte la query in una query SQL.
+ Restituisce un estratto dalla tabella che contiene quanto segue:
  + Colonne pertinenti della tabella “ID cliente” e “Importo totale acquistati fino ad oggi”
  + Righe della tabella contenenti l’importo totale degli acquisti per i 10 clienti che hanno speso di più
+ Genera una risposta che indica quali sono stati i 5 clienti che hanno speso di più e quanto hanno acquistato.

Altri esempi di query per cui una knowledge base può generare un estratto di tabella includono:
+ “5 migliori clienti per spesa nel 2020”
+ “miglior cliente per importo acquisti nel 2020"
+ “5 migliori clienti per importo acquisti in 2020-2022"
+ “5 migliori clienti per spesa in 2020-2022”
+ “clienti con importo totale acquisti inferiore a 10 \$1”
+ “5 clienti che spendono meno”

Più una query è specifica o dettagliata, più la knowledge base può restringere le informazioni esatte da restituire. Ad esempio, anziché la query “10 migliori clienti per spesa nel 2020", una query più specifica è “trova i 10 importo totale acquisti fino ad oggi più alto per i clienti nel 2020". La query specifica si riferisce al nome della colonna “Importo totale acquisti ad oggi” nella tabella del database delle spese dei clienti e indica inoltre che i dati devono essere ordinati per “più alto”.

# Recupero di informazioni da origini dati utilizzando Knowledge Base per Amazon Bedrock
<a name="kb-how-retrieval"></a>

Dopo aver configurato una knowledge base, è possibile configurare l’applicazione per interrogare le origini dati in essa contenute. Per interrogare una knowledge base, è possibile sfruttare le seguenti operazioni dell’API:
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html): recupera i blocchi o le immagini di origine dai dati più pertinenti alla query e li restituisce nella risposta come array.
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html): si unisce a `Retrieve` con l’operazione [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) in Amazon Bedrock per recuperare i blocchi di origine dai dati più pertinenti alla query e generare una risposta in linguaggio naturale. Include citazioni a blocchi di origine specifici tratti dai dati.  Se l’origine dati include elementi visivi, il modello sfrutta gli approfondimenti di queste immagini per generare una risposta in formato testo e fornire l’attribuzione dell’origine per le immagini.
+ [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html): converte le query degli utenti in linguaggio naturale in query in una forma adatta al datastore strutturato.

L’operazione `RetrieveAndGenerate` è un’azione combinata che a livello sottostante utilizza `GenerateQuery` (se la knowledge base è connessa a un datastore strutturato), `Retrieve` e `InvokeModel` per eseguire tutto il processo RAG. Poiché Knowledge Base per Amazon Bedrock fornisce anche l’accesso all’operazione `Retrieve`, consente di separare le fasi della RAG e personalizzarli per il caso d’uso specifico.

È possibile anche utilizzare un [modello di riclassificazione](rerank.md) quando si utilizza `Retrieve` o `RetrieveAndGenerate` per riclassificare la pertinenza dei documenti recuperati durante l’esecuzione della query.

Per informazioni su come utilizzare queste operazioni API per interrogare una knowledge base, consultare [Test della knowledge base con query e risposte](knowledge-base-test.md).

# Personalizzazione di una knowledge base
<a name="kb-how-customization"></a>

Knowledge Base per Amazon Bedrock offre le opzioni per personalizzare il modo in cui le origini dati vengono elaborate nella knowledge base, offrendo la flessibilità nel modo in cui i dati vengono archiviati, analizzati e restituiti agli utenti finali. Seleziona uno dei seguenti argomenti per saperne di più sulle opzioni di personalizzazione che puoi prendere in considerazione durante la configurazione della knowledge base:

**Topics**
+ [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md)
+ [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md)
+ [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md)
+ [Inclusione dei metadati in un’origine dati per migliorare la query della knowledge base](kb-metadata.md)

# Come funziona il chunking dei contenuti per le knowledge base
<a name="kb-chunking"></a>

Quando acquisisci i dati, Amazon Bedrock divide innanzitutto i documenti o i contenuti in blocchi gestibili per un recupero efficiente dei dati. I blocchi vengono quindi convertiti in embedding e scritti in un indice vettoriale (rappresentazione vettoriale dei dati), mantenendo al contempo una mappatura al documento originale. Gli embedding vettoriali consentono di confrontare quantitativamente i testi.

**Topics**
+ [Chunking standard](#kb-standard-chunking)
+ [Chunking gerarchico](#kb-hiearchical-chunking)
+ [Chunking semantico](#kb-semantic-chunking)
+ [Suddivisione multimodale dei contenuti](#kb-multimodal-chunking)

## Chunking standard
<a name="kb-standard-chunking"></a>

Amazon Bedrock supporta i seguenti approcci standard al chunking:

**Nota**  
Le strategie di suddivisione in blocchi di testo si applicano solo ai documenti di testo. Per i contenuti multimodali (audio, video, immagini), la suddivisione in blocchi avviene a livello del modello di incorporamento, non tramite queste strategie basate su testo.
+ Chunking a dimensione fissa: puoi configurare la dimensione del blocco desiderata specificando il numero di token per blocco e una percentuale di sovrapposizione, in modo da garantire la flessibilità necessaria per allinearti ai requisiti specifici. È possibile impostare il numero massimo di token che non deve essere superato per un blocco e la percentuale di sovrapposizione tra blocchi consecutivi.
**Nota**  
Per i contenuti analizzati (ad esempio contenuti che utilizzano parser avanzati o convertiti da HTML), Amazon Bedrock Knowledge Bases può suddividere i contenuti in blocchi per ottimizzarli e ottenere i migliori risultati. Il chunker rispetta i limiti logici del documento (come pagine o sezioni) e non unisce i contenuti oltre questi limiti, anche quando l'aumento della dimensione massima del token consentirebbe altrimenti l'aggiunta di blocchi più grandi.
+ Chunking predefinito: suddivide i contenuti in blocchi di testo di circa 300 token. Il processo di chunking rispetta i limiti delle frasi, garantendo che le frasi complete vengano conservate all’interno di ogni blocco.

Puoi inoltre scegliere di non applicare il chunking per i tuoi documenti. Ogni documento viene trattato come un singolo blocco di testo. Potresti voler pre-elaborare i tuoi documenti suddividendoli in file distinti prima di scegliere Nessun chunking come approccio/strategia di chunking. *Se scegli di non suddividere i documenti in blocchi, non puoi visualizzare il numero di pagina nella citazione o filtrare in base al campo/attributo - metadati. x-amz-bedrock-kb document-page-number*

## Chunking gerarchico
<a name="kb-hiearchical-chunking"></a>

Il chunking gerarchico implica l’organizzazione delle informazioni in strutture annidate di blocchi principali e secondari. Quando si crea un’origine dati, è possibile definire la dimensione del blocco principale, la dimensione del blocco secondario e il numero di token che si sovrappongono tra ogni blocco. Durante il recupero, il sistema recupera inizialmente i blocchi secondari, ma li sostituisce con blocchi principali più ampi in modo da fornire al modello un contesto più completo.

Gli embedding di testo di piccole dimensioni sono più precisi, ma il recupero mira a un contesto completo. Un sistema di chunking gerarchico bilancia queste esigenze sostituendo, se appropriato, i blocchi secondari recuperati con i blocchi principali.

**Nota**  
Poiché i blocchi secondari vengono sostituiti dai blocchi principali durante il recupero, il numero di risultati restituito potrebbe essere inferiore alla quantità richiesta.
La suddivisione in blocchi gerarchici non è consigliata quando si utilizza il bucket vettoriale S3 come archivio vettoriale. Quando si utilizza un numero elevato di token per il chunking (oltre 8000 token combinati), è possibile che si verifichino limitazioni nelle dimensioni dei metadati.

Per il chunking gerarchico, Knowledge Base per Amazon Bedrock supporta la specifica di due livelli o della seguente profondità per il chunking:
+ Principale: è stata impostata la dimensione massima dei token dei blocchi principali.
+ Secondario: è stata impostata la dimensione massima dei token dei blocchi secondari.

È inoltre possibile impostare i token di sovrapposizione tra blocchi. Si tratta del numero assoluto di token di sovrapposizione tra blocchi principali consecutivi e blocchi secondari consecutivi.

## Chunking semantico
<a name="kb-semantic-chunking"></a>

Il chunking semantico è una tecnica di elaborazione del linguaggio naturale che divide il testo in blocchi significativi per migliorare la comprensione e il recupero delle informazioni. Mira a migliorare la precisione del recupero concentrandosi sul contenuto semantico piuttosto che sulla semplice struttura sintattica. In questo modo, può facilitare con maggiore precisione l’estrazione e la manipolazione delle informazioni pertinenti.

Quando si configura il chunking semantico, è possibile specificare i seguenti iperparametri.
+ Numero massimo di token: il numero massimo di token che devono essere inclusi in un singolo blocco, rispettando i limiti delle frasi.
+ Dimensione del buffer: per una determinata frase, la dimensione del buffer definisce il numero di frasi circostanti da aggiungere per la creazione degli embedding. Ad esempio, una dimensione del buffer pari a 1 dà come risultato 3 frasi (frase corrente, precedente e successiva) da combinare e incorporare. Questo parametro può influenzare la quantità di testo esaminata insieme per determinare i limiti di ogni blocco, influendo sulla granularità e sulla coerenza dei blocchi risultanti. Una dimensione del buffer di dimensioni maggiori potrebbe acquisire più contesto, ma anche introdurre disturbi, mentre una dimensione del buffer più ridotta potrebbe non avere un contesto importante, ma garantisce un chunking più preciso.
+ Soglia percentile del punto di interruzione: la soglia percentile della frase per tracciare punti di interruzione tra le frasi. distance/dissimilarity Una soglia più alta richiede che le frasi siano più distinguibili per poter essere suddivise in blocchi diversi. Una soglia più alta si traduce in un minor numero di blocchi e in genere in una dimensione media dei blocchi maggiore.
**Nota**  
L’utilizzo del chunking semantico comporta costi aggiuntivi dovuti all’utilizzo di un modello di fondazione. Il costo dipende dalla quantità di dati di cui disponi. Consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/) per ulteriori informazioni sul costo dei modelli di fondazione.

## Suddivisione multimodale dei contenuti
<a name="kb-multimodal-chunking"></a>

Per i contenuti multimodali (audio, video, immagini), il comportamento della suddivisione in blocchi è diverso da quello dei documenti di testo:
+ **Incorporamenti multimodali Nova: il chunking avviene a livello del modello di incorporamento**. È possibile configurare la durata dei blocchi audio e video da 1 a 30 secondi (impostazione predefinita: 5 secondi). Per i file video, si applica solo la durata del blocco video, anche se il video contiene audio. La durata del blocco audio si applica solo ai file audio autonomi.
+ **Parser Bedrock Data Automation (BDA):** il contenuto viene prima convertito in testo (trascrizioni e riepiloghi delle scene), quindi al testo convertito vengono applicate le strategie standard di suddivisione in blocchi del testo.

**Nota**  
Quando si utilizzano gli incorporamenti multimodali Nova, le strategie di suddivisione in blocchi di testo configurate nella knowledge base influiscono solo sui documenti di testo nella fonte dati, non sui file audio, video o di immagine.

# Opzioni di analisi per l’origine dati
<a name="kb-advanced-parsing"></a>

L’analisi si riferisce alla comprensione e all’estrazione di contenuti dai dati grezzi. Knowledge Base per Amazon Bedrock offre le seguenti opzioni per l’analisi dell’origine dati durante l’importazione:
+ **Parser predefinito di Amazon Bedrock**: analizza solo il testo nei file di testo, inclusi i file .txt, .md, .html, .doc/.docx, .xls/.xlsx e .pdf. Questo parser non comporta alcun costo di utilizzo.
**Nota**  
Poiché il parser predefinito produce solo testo, se i documenti includono figure, grafici, tabelle o immagini, ti consigliamo di utilizzare Amazon Bedrock Data Automation o un modello di fondazione come parser al posto di quello predefinito. Amazon Bedrock Data Automation e i modelli di fondazione possono estrarre questi elementi dai documenti e restituirli come output.
+ Knowledge Base per Amazon Bedrock offre i seguenti parser per analizzare dati multimodali, tra cui figure, grafici e tabelle in file .pdf, oltre ai file di immagine .jpeg e .png. Questi parser possono anche estrarre queste figure, grafici, tabelle e immagini e archiviarli come file in una destinazione S3 specificata durante la creazione della knowledge base. Durante il recupero della knowledge base, questi file possono essere restituiti nella risposta o nell’attribuzione dell’origine.
  + **Amazon Bedrock Data Automation**: un servizio completamente gestito che elabora in modo efficace i dati multimodali, senza la necessità di fornire ulteriori prompt. Il costo di questo parser dipende dal numero di pagine del documento o dal numero di immagini da elaborare. Per ulteriori informazioni su questo servizio, consulta [Amazon Bedrock Data Automation](bda.md).
  + **Modelli di base**: elabora dati multimodali utilizzando un modello di fondazione. Questo parser offre la possibilità di personalizzare il prompt predefinito utilizzato per l’estrazione dei dati. Il costo di questo parser dipende dal numero di token di input e output elaborati dal modello di fondazione. Per un elenco di modelli che supportano l’analisi dei dati di Knowledge Base per Amazon Bedrock, consulta [Regioni e modelli supportati per l’analisi](knowledge-base-supported.md#knowledge-base-supported-parsing).

**Importante**  
Se scegli Amazon Bedrock Data Automation o modelli di fondazione come parser, il metodo scelto verrà utilizzato per analizzare tutti i file .pdf nell’origine dati, anche se i file .pdf contengono solo testo. Il parser predefinito non verrà utilizzato per analizzare questi file .pdf. L’account comporta costi per l’utilizzo di Amazon Bedrock Data Automation o del modello di fondazione per l’analisi di questi file.

Quando scegli la modalità di analisi dei dati, tieni presente quanto segue:
+ Che i dati siano puramente testuali o che contengano dati multimodali, come immagini, grafici e diagrammi, è necessario che la Knowledge Base sia in grado di eseguire query.
+ Se si desidera poter personalizzare il prompt usato per istruire il modello su come analizzare i dati.
+ Il costo del parser. Amazon Bedrock Data Automation utilizza prezzi per pagina, mentre i parser del modello di fondazione addebitano i costi in base ai token di input e output. Per maggiori informazioni, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ Il limite di dimensione totale del file. Quando si utilizzano modelli di base come parser, la dimensione totale del file in tutti i file non deve essere superiore a 100 GB.

Per informazioni su come configurare l’analisi della knowledge base, consulta la configurazione della connessione per l’origine dati in [Connettere un’origine dati alla knowledge base](data-source-connectors.md).

# Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati
<a name="kb-custom-transformation"></a>

Hai la possibilità di definire una funzione Lambda di trasformazione personalizzata per iniettare la logica personalizzata nel processo di importazione della knowledge base.

Potresti avere una logica di suddivisione in blocchi specifica, non supportata in modo nativo da Knowledge Base per Amazon Bedrock. Utilizza l’opzione Strategia di chunking, specificando una funzione Lambda che contenga la logica di chunking. Inoltre, è necessario specificare un bucket Amazon S3 affinché la knowledge base possa scrivere i file di cui eseguire il chunking dalla funzione Lambda.

Dopo il chunking, la funzione Lambda riscriverà i file suddivisi in chunk nello stesso bucket e restituirà i riferimenti alla knowledge base per ulteriori elaborazioni. Facoltativamente, hai la possibilità di fornire la chiave AWS KMS per la crittografia dei file archiviati nel bucket S3.

**Nota**  
Se si utilizzano connettori web, Lambda riceverà un testo markdown anziché HTML.

In alternativa, è possibile specificare metadati a livello di chunk, mentre la knowledge base applica una delle strategie di chunking supportate in modo nativo. In questo caso, seleziona una delle strategie di chunking predefinite (ad esempio, chunking predefinito o a dimensioni fisse), fornendo al contempo un riferimento alla funzione Lambda e al bucket S3. In questo caso, la knowledge base archivierà i file analizzati e pre-suddivisi in chunk nel bucket S3 predefinito, prima di chiamare la funzione Lambda per aggiungere ulteriori metadati a livello di chunk.

Dopo aver aggiunto i metadati a livello di chunk, la funzione Lambda riscriverà i file suddivisi in chunk nello stesso bucket e restituirà i riferimenti alla knowledge base per ulteriori elaborazioni. Tieni presente che, in caso di conflitti, i metadati a livello di chunk hanno la precedenza e sovrascrivono i metadati a livello di file.

Per un esempio di utilizzo di una funzione Lambda di Python per il chunking personalizzato, consulta [Chunking personalizzato utilizzando la funzione Lambda](https://github.com/aws-samples/amazon-bedrock-samples/blob/main/rag/knowledge-bases/features-examples/03-optimizing-accuracy-retrieved-results/advanced_chunking_options.ipynb).

Per i contratti API e file, consulta le seguenti strutture:

**Contratto API quando si aggiunge una trasformazione personalizzata utilizzando la funzione Lambda**

```
{
...
    "vectorIngestionConfiguration": {
        "customTransformationConfiguration": { // Custom transformation 
            "intermediateStorage": {
                "s3Location": { // the location where input/output of the Lambda is expected 
                    "uri": "string"
                }
            },
            "transformations": [{
                "transformationFunction": {
                    "transformationLambdaConfiguration": {
                        "lambdaArn": "string"
                    }
                },
                "stepToApply": "string" // enum of POST_CHUNKING
            }]
        },
        "chunkingConfiguration": {
            "chunkingStrategy": "string",
            "fixedSizeChunkingConfiguration": {
                "maxTokens": "number",
                "overlapPercentage": "number"
            }
            ...
        }
    }
}
```

**Formato di input personalizzato per la trasformazione Lambda**

```
{
    "version": "1.0",
    "knowledgeBaseId": "string",
    "dataSourceId": "string",
    "ingestionJobId": "string",
    "bucketName": "string",
    "priorTask": "string",
    "inputFiles": [{
        "originalFileLocation": {
            "type": "S3",
            "s3_location": {
                "uri": "string"
            }
        },
        "fileMetadata": {
            "key1": "value1",
            "key2": "value2"
        },
        "contentBatches": [{
            "key":"string"
        }]
    }]
}
```

**Formato di output personalizzato per la trasformazione Lambda**

```
{
    "outputFiles": [{
        "originalFileLocation": {
            "type": "S3",
            "s3_location": {
                "uri": "string"
            }
        },
        "fileMetadata": {
            "key1": "value1",
            "key2": "value2"
        },
        "contentBatches": [{
            "key": "string"
        }]
    }]
}
```

**Formato di file per gli oggetti a cui si fa riferimento in `fileContents`**

```
{
    "fileContents": [{
        "contentBody": "...",
        "contentType": "string", // enum of TEXT, PDF, ...
        "contentMetadata": {
            "key1": "value1",
            "key2": "value2"
        }
    }
    ...
    ]
}
```

# Inclusione dei metadati in un’origine dati per migliorare la query della knowledge base
<a name="kb-metadata"></a>

Quando si importano file CSV (valori separati da virgola), è possibile configurare la knowledge base in modo che tratti determinate colonne come campi di contenuto anziché campi di metadati. Invece di avere potenzialmente centinaia o migliaia di coppie di file di contenuto/metadati, ora è possibile avere un singolo file CSV e un file metadata.json corrispondente, che fornisce alla knowledge base suggerimenti su come trattare ogni colonna all’interno del CSV.

Esistono limiti per i campi/attributi dei metadati del documento per ogni chunk. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

Prima di importare un file CSV, assicurati che:
+ Il file CSV sia in formato RFC4180 e sia codificato in UTF-8.
+ La prima riga del file CSV includa informazioni sull’intestazione.
+ I campi di metadati forniti in metadata.json siano presenti come colonne nel file CSV.
+ Un file fileName.csv.metadata.json venga fornito con il seguente formato:

  ```
  {
      "metadataAttributes": {
          "${attribute1}": "${value1}",
          "${attribute2}": "${value2}",
          ...
      },
      "documentStructureConfiguration": {
          "type": "RECORD_BASED_STRUCTURE_METADATA",
          "recordBasedStructureMetadata": {
              "contentFields": [
                  {
                      "fieldName": "string"
                  }
              ],
              "metadataFieldsSpecification": {
                  "fieldsToInclude": [
                      {
                          "fieldName": "string"
                      }
                  ],
                  "fieldsToExclude": [
                      {
                          "fieldName": "string"
                      }
                  ]
              }
          }
      }
  }
  ```

Il file CSV venga analizzato una riga alla volta e la strategia di chunking e l’embedding vettoriale vengano applicati al campo di contenuto. Knowledge Base per Amazon Bedrock attualmente supporta un campo di contenuto. Il campo di contenuto è suddiviso in chunk e i campi di metadati (colonne) associati a ciascun chunk vengono trattati come valori di stringa.

Ad esempio, si consideri un file CSV con una colonna “Description” e una colonna “Creation\$1Date”. Il campo descrizione è il campo del contenuto e la data di creazione è un campo di metadati associato. Il testo delle descrizione viene suddiviso in chunk e convertito in embedding vettoriali per ogni riga del file CSV. Il valore della data di creazione è trattato come una rappresentazione stringa della data ed è associato a ciascun chunk della descrizione.

Se non vengono forniti campi di inclusione/esclusione, tutte le colonne vengono trattate come colonne di metadati, tranne la colonna del contenuto. Se vengono forniti solo campi di inclusione, solo le colonne fornite vengono trattate come metadati. Se vengono forniti solo campi di esclusione, tutte le colonne, tranne quelle di esclusione, vengono trattate come metadati. Se fornisci lo stesso `fieldName` in entrambi `fieldsToInclude` e `fieldsToExclude`, Amazon Bedrock genera un’eccezione di convalida. Se è presente un conflitto tra inclusione ed esclusione, si verificherà un errore.

Le righe vuote trovate all’interno di un CSV vengono ignorate o saltate.

# Regioni e modelli supportati per Knowledge Base per Amazon Bedrock
<a name="knowledge-base-supported"></a>

Amazon Bedrock Knowledge Bases supporta l'interrogazione con i seguenti modelli di base:


| Provider | Modello | ID modello | Supporto per modelli a regione singola | Supporto per profili di inferenza tra regioni | 
| --- | --- | --- | --- | --- | 
| AI21 Laboratori | Jamba 1.5 Large | ai21.jamba-1-5-large-v1:0 |  us-east-1  |  | 
| AI21 Laboratori | Jamba 1.5 Mini | ai21.jamba-1-5-mini-v1:0 |  us-east-1  |  | 
| Amazon | Nova Lite | Amazon. nova-lite-v1:0 |  ap-northeast-1 ap-southeast-2 eu-north-1 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Amazon | Nova Micro | amazzone. nova-micro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Amazon | Nova Pro | amazzone. nova-pro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-gov-west-1 us-west-2  |  eu-central-1 us-east-2 us-gov-east-1  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1  | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  |  us-east-1 us-east-2  | 
| Anthropic | Claude 3.5 Sonetto | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1 eu-central-2 us-east-1 us-gov-west-1 us-west-2  |  ap-south-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-gov-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 us-east-1 us-east-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 |  eu-west-2 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-gov-east-1 us-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  |  us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude Sonnet 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | N/D |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-2  | 
| Cohere | Comando R | coerente. command-r-v1:0 |  us-east-1 us-west-2  |  | 
| Cohere | Comando R | coerente. command-r-plus-v1:0 |  us-east-1 us-west-2  |  | 
| DeepSeek | DeepSeek-R1 | deepseek.r1-v1:0 |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3 70B Instruct | meta.llama3-70 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-gov-west-1 us-west-2  |  | 
| Meta | Llama 3 8B Instruct | meta.llama3-8 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-gov-west-1 us-west-2  |  | 
| Meta | Llama 3.1 405B Instruct | meta.llama3-1-405 1:0 b-instruct-v |  us-west-2  |  us-east-2  | 
| Meta | Llama 3.1 70B Instruct | b-instruct-vmeta.llama3-1-70 1:0 |  us-west-2  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.1 8B Instruct | b-instruct-vmeta.llama3-1-8 1:0 |  us-west-2  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.2 11B Instruct | meta.llama3-2-11 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.2 90B Instruct | meta.llama3-2-90 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.3 70B Instruct | meta.llama3-3-70 1:0 b-instruct-v |  us-east-2  |  us-east-1 us-east-2 us-west-2  | 
| Mistral AI | Mistral Large (24.02) | mistral.mistral-large-2402-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  |  | 
| Mistral AI | Mistral Small (24.02) | mistral.mistral-small-2402-v1:0 |  us-east-1  |  | 

Knowledge Base per Amazon Bedrock supporta anche l’uso di profili di inferenza per l’analisi dei dati o per la generazione di risposte. Con i profili di inferenza, puoi tenere traccia dei costi e delle metriche e puoi anche eseguire inferenze tra Regioni per distribuire le richieste di inferenza del modello su una serie di Regioni per consentire un throughput più elevato. È possibile specificare un profilo di inferenza in una richiesta or. [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) Per ulteriori informazioni, consulta [Configurare una risorsa di invocazione del modello utilizzando i profili di inferenza](inference-profiles.md).

**Importante**  
Se utilizzi l’inferenza tra Regioni, i tuoi dati possono essere condivisi tra Regioni.

Puoi anche utilizzare modelli di SageMaker intelligenza artificiale o [modelli personalizzati](custom-models.md) da addestrare sui tuoi dati.

**Nota**  
Se utilizzi un' SageMaker intelligenza artificiale o un modello personalizzato, devi specificare i prompt di orchestrazione e generazione (per ulteriori informazioni, consulta Modelli di **prompt della Knowledge Base** in). [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md) I prompt devono includere variabili di informazione per accedere al contesto e all’input dell’utente.

Il supporto per Regione e modello è diverso per alcune funzionalità di eseguire una query per Knowledge Base per Amazon Bedrock. Seleziona un argomento per visualizzare il supporto per una funzionalità:

**Topics**
+ [Modelli supportati per gli embedding vettoriali](#knowledge-base-supported-embeddings)
+ [Regioni e modelli supportati per l’analisi](#knowledge-base-supported-parsing)
+ [Regioni e modelli supportati per la riclassificazione dei risultati durante una query](#knowledge-base-supported-rerank)
+ [Regioni supportate per le knowledge base con datastore strutturati](#knowledge-base-supported-structured)

## Modelli supportati per gli embedding vettoriali
<a name="knowledge-base-supported-embeddings"></a>

Knowledge Base per Amazon Bedrock utilizza un modello di embedding per convertire i dati in embedding vettoriali e archiviarli in un database vettoriale. Per ulteriori informazioni, consulta [Trasformazione di dati in una knowledge base](kb-how-data.md).

Amazon Bedrock Knowledge Bases supporta gli incorporamenti vettoriali utilizzando i seguenti modelli di base:


| Provider | Modello | ID modello | Supporto per modelli a regione singola | 
| --- | --- | --- | --- | 
| Amazon | Titan Embeddings G1 - Text | amazon. titan-embed-text-v1 |  ap-northeast-1 eu-central-1 us-east-1 us-west-2  | 
| Amazon | Titan Text Embeddings V2 | amazzone. titan-embed-text-v2:0 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-2  | 
| Cohere | Embed English | coerente. embed-english-v3 |  ap-northeast-1 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Cohere | Embed Multilingual | coerente. embed-multilingual-v3 |  ap-northeast-1 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 

I modelli di embedding supportano i seguenti tipi di vettori.


****  

| Nome modello | Tipo di vettore supportato | Numero di dimensioni supportate | 
| --- | --- | --- | 
| Amazon Titan Embeddings G1 - Text | Virgola mobile | 1536 | 
| Embedding di testo Amazon Titan V2 | A virgola mobile, binario | 256, 512, 1.024 | 
| Cohere Embed (inglese) | A virgola mobile, binario | 1.024 | 
| Cohere Embed (multilingue) | A virgola mobile, binario | 1.024 | 
| Amazon Titan Multimodal Embeddings G1 | Virgola mobile | 1.024 | 
| CohereIncorpora v3 (multimodale) | A virgola mobile, binario | 1.024 | 

## Regioni e modelli supportati per l’analisi
<a name="knowledge-base-supported-parsing"></a>

Quando converti i dati in embedding vettoriali, hai diverse opzioni per analizzare i dati in Knowledge Base per Amazon Bedrock. Per ulteriori informazioni, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

Di seguito sono elencate le opzioni di analisi supportate:
+ Il parser Amazon Bedrock Data Automation è supportato nelle Regioni Stati Uniti occidentali (Oregon), è in anteprima ed è soggetto a modifiche.
+ Le seguenti famiglie di modelli di fondazione possono essere utilizzate come parser:
  + Modelli Claude Vision
  + Modelli Nova Vision
  + LLama 4 modelli di visione

  L'analisi dei modelli Foundation è disponibile nei Regione AWS paesi in cui tali modelli sono direttamente disponibili (non tramite inferenza tra regioni). Per conoscere la disponibilità attuale per Regioni, consulta [Modelli di fondazione supportati in Amazon Bedrock](models-supported.md).

## Regioni e modelli supportati per la riclassificazione dei risultati durante una query
<a name="knowledge-base-supported-rerank"></a>

Quando si recuperano i risultati delle query della knowledge base, è possibile utilizzare un modello di riclassificazione per riclassificare i risultati delle query della knowledge base. Per ulteriori informazioni, consultare [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) e [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md).

Per un elenco di Regioni e modelli che supportano la riclassificazione, consulta [Regioni e modelli supportati per la riclassificazione in Amazon Bedrock](rerank-supported.md).

## Regioni supportate per le knowledge base con datastore strutturati
<a name="knowledge-base-supported-structured"></a>

Le knowledge base con datastore strutturati consentono di collegare le knowledge base ai datastore strutturati e di convertire le query in linguaggio naturale in query SQL. Per ulteriori informazioni, consulta [Compilazione di una knowledge base mediante connessione a un datastore strutturato](knowledge-base-build-structured.md).

Le Knowledge Base con archivi di dati strutturati sono disponibili nelle seguenti lingue: Regioni AWS
+ Europa (Francoforte)
+ Europa (Zurigo)
+ Europa (Irlanda)
+ Europe (Londra)
+ Europa (Parigi)
+ Asia Pacifico (Tokyo)
+ Asia Pacifico (Seoul)
+ Asia Pacifico (Mumbai)
+ Asia Pacifico (Singapore)
+ Asia Pacifico (Sydney)
+ Canada (Centrale)
+ Sud America (San Paolo)
+ Stati Uniti orientali (Virginia settentrionale)
+ Stati Uniti orientali (Ohio)
+ Stati Uniti occidentali (Oregon)
+ AWSGovCloud (Stati Uniti occidentali)

# Chat con un documento senza una knowledge base configurata
<a name="knowledge-base-chatdoc"></a>

La funzionalità **Chatta con il tuo documento** nella console Amazon Bedrock consente di testare facilmente una knowledge base senza la necessità di configurarla. Puoi caricare un documento o trascinarlo nella finestra di chat della console per iniziare a porre domande. **Chatta con il documento** utilizza il documento per rispondere a domande, eseguire un’analisi, creare un riepilogo, specificare i campi in un elenco numerato o riscrivere il contenuto. **Chatta con il documento** non memorizza il documento o i relativi dati dopo l’uso.

**Nota**  
La funzionalità **Chatta con il documento** è attualmente supportata al meglio con i modelli Anthropic Sonnet. Per ulteriori informazioni su come accedere e utilizzare i modelli di knowledge base, consulta [Modelli supportati per la knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html).  
Non puoi utilizzare un modello di riclassificazione quando chatti con il tuo documento.

Puoi anche realizzare facilmente il prototipo di un’applicazione di chat o flusso senza dover configurare una knowledge base. Utilizzando [Amazon Bedrock Studio](https://docs.aws.amazon.com/bedrock/latest/userguide/br-studio.html), puoi caricare un documento dal tuo computer per fornire i dati o l’”origine dati” per la tua applicazione. Amazon Bedrock Studio, rinominato in Amazon Bedrock IDE, è ora disponibile in Amazon SageMaker Unified Studio. Per maggiori informazioni, consulta [Amazon Bedrock IDE](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/bedrock.html).

Per utilizzare la funzionalità **Chatta con il documento** come parte delle knowledge base, seleziona la scheda seguente e segui ogni fase.

------
#### [ Console ]

**Per chattare con un documento in Amazon Bedrock:**

1. Apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Dal riquadro di navigazione a sinistra, seleziona **Knowledge base**, quindi **Chatta con il tuo documento**.

1. Nella scheda **Chatta con il documento**, scegli **Seleziona un modello** nella sezione **Modello**.

1. Scegli il modello che desideri utilizzare per l’analisi del documento e seleziona **Applica**.

1. Inserisci un prompt di sistema nella scheda **Chatta con il documento**.

1. In **Dati** seleziona **Il tuo computer** o **S3**.

1. Scegli **Seleziona documento** per caricare il documento. Puoi anche trascinare il documento nella console di chat nella casella **Scrivi una query**.
**Nota**  
Tipi di file: PDF, MD, TXT, DOC, DOCX, HTML, CSV, XLS, XLSX. Esiste un limite di token fisso preimpostato quando si utilizza un file di dimensioni inferiori a 10 MB. Un file contenente una grande quantità di testo che ha dimensioni inferiori a 10 MB può potenzialmente superare il limite di token.

1. Inserisci un prompt personalizzato nella casella **Scrivi una query**. Puoi inserire un prompt personalizzato o utilizzare il prompt predefinito. Il documento caricato e il prompt vengono visualizzati nella parte inferiore della finestra di chat.

1. Seleziona **Esegui**. La risposta produce risultati di ricerca con l’opzione **Mostra blocchi di origine** che mostrano le informazioni sul materiale di origine per la risposta.

1. Per caricare un nuovo file, seleziona la X per eliminare il file corrente caricato nella finestra della chat e trascina e rilascia il nuovo file. Inserisci un nuovo prompt e seleziona **Esegui**.
**Nota**  
La selezione di un nuovo file comporta l’eliminazione delle query e delle risposte precedenti e l’avvio di una nuova sessione.

------

# Configurazione delle autorizzazioni per un utente o un ruolo per creare e gestire le knowledge base
<a name="knowledge-base-prereq-permissions-general"></a>

Per consentire a un utente o a un ruolo di eseguire azioni relative a Knowledge Base per Amazon Bedrock, è necessario allegare delle policy che concedano le autorizzazioni per eseguire tali azioni. Questa pagina descrive le autorizzazioni che consentono a un utente di recuperare informazioni da queste knowledge base e di generare risposte a partire da esse.

Espandi le seguenti sezioni per scoprire come configurare le autorizzazioni per casi d’uso specifici:

## Consentire a un ruolo di creare knowledge base e gestirle
<a name="w2aac28c10c21b7b1"></a>

Per consentire a un ruolo IAM di creare una knowledge base, connetterla a un datastore strutturato, gestirla e avviare e gestire i processi di importazione dall’origine dati alla knowledge base, devi fornire le autorizzazioni per le azioni `KnowledgeBase`, `DataSource` e `IngestionJob`. Per fornire le autorizzazioni per etichettare le knowledge base, includi le autorizzazioni per `bedrock:TagResource` e `bedrock:UntagResource`. 

**Nota**  
Se all'utente o al ruolo è associata la policy [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess) AWS gestita, puoi ignorare questo prerequisito.

Per consentire a un ruolo di eseguire queste azioni, allega la seguente policy al ruolo:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "CreateKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:CreateKnowledgeBase"
            ],
            "Resource": "*"
        },
        {
            "Sid": "KBDataSourceManagement",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase",
                "bedrock:ListKnowledgeBases",
                "bedrock:UpdateKnowledgeBase",
                "bedrock:DeleteKnowledgeBase",
                "bedrock:StartIngestionJob",
                "bedrock:GetIngestionJob",
                "bedrock:ListIngestionJobs",
                "bedrock:StopIngestionJob",
                "bedrock:TagResource",
                "bedrock:UntagResource"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/*"
            ]
        }
    ]
}
```

------

Dopo aver creato una knowledge base, ti consigliamo di ridurre l'ambito delle autorizzazioni nello `KBDataSourceManagement` statuto sostituendo la wildcard (*\$1*) con l'ID della knowledge base che hai creato.

## Consentire a un ruolo di eseguire le operazioni API della knowledge base
<a name="w2aac28c10c21b7b3"></a>

Questa sezione descrive le autorizzazioni necessarie per eseguire le operazioni API `Retrieve` e `RetrieveAndGenerate` per le knowledge base.

Allega al ruolo la policy seguente:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        },
        {
            "Sid": "Retrieve",
            "Effect": "Allow",
            "Action": [
                "bedrock:Retrieve"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        },
        {
            "Sid": "RetrieveAndGenerate",
            "Effect": "Allow",
            "Action": [
                "bedrock:RetrieveAndGenerate"
            ],
            "Resource": [
                "*"
            ]
        }
    ]
}
```

------

Puoi rimuovere le dichiarazioni non necessarie, a seconda del caso d’uso:
+ L’istruzione `GetKB` viene utilizzata per ottenere le informazioni sulla knowledge base.
+ L’istruzione `Retrieve` è necessaria per chiamare [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) per recuperare i dati dal datastore.
+ L’istruzione `RetrieveAndGenerate` è necessaria per chiamare [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) al fine di recuperare i dati dal datastore e generare risposte basate sui dati.

## Richiedi l'accesso ai modelli di base per RetrieveAndGenerate
<a name="knowledge-base-prereq-structured-model-access"></a>

Se intendi utilizzare [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per generare risposte basate sui dati recuperati dalla tua origine dati, richiedi l’accesso ai modelli di fondazione da utilizzare per la generazione seguendo la procedura riportata in [Accesso ai modelli di fondazione Amazon Bedrock](model-access.md).

Per limitare ulteriormente le autorizzazioni, puoi omettere azioni o specificare risorse e chiavi di condizione con cui filtrare le autorizzazioni. Per ulteriori informazioni su azioni, risorse e chiavi di condizione, consultare i seguenti argomenti nella *documentazione di riferimento per l’autorizzazione al servizio*:
+ [Azioni definite da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions): informazioni sulle azioni, sui tipi di risorse a cui è possibile limitare l’ambito nel campo `Resource` e sulle chiavi di condizione utilizzabili per filtrare le autorizzazioni nel campo `Condition`.
+ [Tipi di risorse definiti da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies): informazioni sui tipi di risorse in Amazon Bedrock.
+ [Chiavi di condizione per Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys): informazioni sulle chiavi di condizione in Amazon Bedrock.

# Compilazione di una knowledge base connettendola a un’origine dati
<a name="knowledge-base-build"></a>

Knowledge Base per Amazon Bedrock supporta una varietà di tipi di file archiviati in origini dati. Per interpretare i dati da un’origine dati, Knowledge Base per Amazon Bedrock richiede la conversione dei dati in embedding vettoriali, una rappresentazione numerica dei dati. Questi embedding possono essere confrontati con le rappresentazioni vettoriali di una query per valutare la somiglianza e stabilire quali origini restituire durante il recupero dei dati.

La connessione della knowledge base a un’origine dati prevede le seguenti fasi generali:

1. Connettere la knowledge base a un’origine dati supportata.

1. Se l'origine dati contiene dati multimodali, tra cui immagini, file audio e video, devi scegliere un approccio di elaborazione e un modello di incorporamento appropriati che supporti i contenuti multimodali.
**Nota**  
I dati multimodali sono supportati solo da Amazon S3 e origini dati personalizzate. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

1. Scegli un modello di embedding per convertire i dati nell’origine dati in embedding vettoriali.

1. Scegli un archivio vettoriale per archiviare la rappresentazione vettoriale dei tuoi dati.

1. Sincronizza i dati in modo che vengano convertiti in embedding vettoriali.

1. Se modifichi i dati nell’origine dati, devi risincronizzare le modifiche.

**Topics**
+ [Prerequisiti per la creazione di una knowledge base Amazon Bedrock con un'origine dati non strutturata](knowledge-base-prereq.md)
+ [Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge Bases](kb-osm-permissions-prereq.md)
+ [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md)
+ [Sincronizzare i dati con Knowledge Base per Amazon Bedrock](kb-data-source-sync-ingest.md)
+ [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md)
+ [Visualizzare le informazioni sull’origine dati per Knowledge Base per Amazon Bedrock](kb-ds-info.md)
+ [Modificare un’origine dati per Knowledge Base per Amazon Bedrock](kb-ds-update.md)
+ [Eliminare un’origine dati da Knowledge Base per Amazon Bedrock](kb-ds-delete.md)

# Prerequisiti per la creazione di una knowledge base Amazon Bedrock con un'origine dati non strutturata
<a name="knowledge-base-prereq"></a>

Le knowledge base di Amazon Bedrock richiedono dati e modelli per recuperare e generare risposte, un archivio vettoriale per archiviare la rappresentazione vettoriale dei dati e AWS Identity and Access Management autorizzazioni per accedere ai dati ed eseguire azioni.

Per poter creare una knowledge base, devono essere soddisfatti i prerequisiti seguenti. Per i requisiti generali in materia di autorizzazioni, consulta [Configurazione delle autorizzazioni per un utente o un ruolo per creare e gestire le knowledge base](knowledge-base-prereq-permissions-general.md)

1. Assicurati che i tuoi dati si trovino in un [connettore di origine dati supportato](data-source-connectors.md).

1. (Opzionale) [Configura il tuo archivio vettoriale supportato](knowledge-base-setup.md). Puoi saltare questo passaggio se prevedi di utilizzarlo per creare automaticamente un archivio Console di gestione AWS vettoriale per te.

1. (Facoltativo) Crea un [ruolo di servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) personalizzato AWS Identity and Access Management (IAM) con le autorizzazioni appropriate seguendo le istruzioni riportate all'indirizzo. [Creare un ruolo di servizio per Knowledge Base per Amazon Bedrock](kb-permissions.md) Puoi utilizzare Console di gestione AWS per creare automaticamente un ruolo di servizio.
**Nota**  
Se stai creando una knowledge base con Amazon OpenSearch Service (incluso Amazon OpenSearch Serverless), il ruolo di servizio richiede autorizzazioni aggiuntive oltre a quelle coperte dalla policy gestita da BedrockFullAccess AWS. Queste includono le autorizzazioni `aoss:CreateAccessPolicy`, `iam:CreateServiceLinkedRole` e `iam:CreateRole`.

1. (Opzionale) Configura impostazioni di sicurezza aggiuntive seguendo le fasi indicate in [Crittografia delle risorse della knowledge base](encryption-kb.md).

1. (Opzionale) Se prevedi di utilizzare l’operazione API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per generare risposte basate sulle informazioni recuperate dalla knowledge base, richiedi l’accesso ai modelli che utilizzerai nelle Regioni interessate seguendo le fasi indicate in [Accesso ai modelli di fondazione Amazon Bedrock](model-access.md).

**Topics**
+ [Prerequisiti per i dati di Knowledge Base per Amazon Bedrock](knowledge-base-ds.md)
+ [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md)

# Prerequisiti per i dati di Knowledge Base per Amazon Bedrock
<a name="knowledge-base-ds"></a>

Un’origine dati include file o contenuti con informazioni che possono essere recuperate quando si interroga la knowledge base. Devi archiviare i documenti o i contenuti in almeno una delle [origini dati supportate](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html).

## Formati di documenti supportati e limiti per i dati della knowledge base
<a name="kb-ds-supported-doc-formats-limits"></a>

Quando ti connetti a un’[origine dati supportata](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html), il contenuto viene inserito nella tua knowledge base.

Se utilizzi Amazon S3 per archiviare i file o l’origine dati include file allegati, devi prima verificare che ogni file del documento di origine sia conforme a quanto segue:
+ I file di origine sono nei seguenti formati supportati:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-ds.html)
+ La dimensione di ogni file non supera la quota di 50 MB.

Se utilizzi un’origine dati Amazon S3 o personalizzata, puoi utilizzare dati multimodali, tra cui immagini o file JPEG (.jpeg) o PNG (.png) che contengono tabelle, grafici, diagrammi o altre immagini.

**Nota**  
La dimensione massima dei file .JPEG e .PNG è 3,75 MB.

# Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base
<a name="knowledge-base-setup"></a>

Per archiviare gli embedding vettoriali in cui i tuoi documenti vengono convertiti, utilizzi un archivio vettoriale. Knowledge Base per Amazon Bedrock supporta un flusso di creazione rapida per alcuni archivi vettoriali; quindi, se preferisci che Amazon Bedrock crei automaticamente un indice vettoriale in uno di questi archivi, puoi saltare questo prerequisito e procedere con [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md).

Se desideri archiviare embedding vettoriali in formato binario invece dei tradizionali embedding vettoriali in virgola mobile (float32), devi utilizzare un archivio vettoriale che supporti i vettori binari.

**Nota**  
I cluster Amazon OpenSearch Serverless e Amazon OpenSearch Managed sono gli unici archivi vettoriali che supportano l'archiviazione di vettori binari.

Puoi configurare l’archivio vettoriale supportato per indicizzare la rappresentazione degli embedding vettoriali dei tuoi dati. Puoi creare campi per i seguenti dati:
+ Un campo per i vettori generati dal testo nella tua origine dati dal modello di embedding che scegli.
+ Un campo per i blocchi di testo estratti dai file nell’origine dati.
+ Campi per i metadati dei file di origine gestiti da Amazon Bedrock.
+ (Se utilizzi un database Amazon Aurora e desideri configurare il [filtro sui metadati](kb-test-config.md)) Campi per i metadati che associ ai tuoi file di origine. Se prevedi di configurare il filtro in altri archivi vettoriali, non devi configurare questi campi per il filtraggio.

Puoi crittografare gli archivi vettoriali di terze parti con una chiave KMS. Per ulteriori informazioni, consulta [Crittografia delle risorse della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/encryption-kb.html).

Seleziona la scheda corrispondente al servizio di archivio vettoriale che utilizzerai per creare il tuo indice vettoriale.

**Nota**  
La scelta del modello di embedding e delle dimensioni vettoriali può influire sulle scelte disponibili negli archivi vettoriali. Se non riesci a utilizzare il tuo archivio vettoriale preferito, scegli le opzioni compatibili: il modello di embedding e le dimensioni vettoriali.

------
#### [ Amazon OpenSearch Serverless ]

1. Per configurare le autorizzazioni e creare una raccolta di ricerca vettoriale in Amazon OpenSearch Serverless in Console di gestione AWS, segui i passaggi 1 e 2 in [Lavorare con le raccolte di ricerca vettoriale nella](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) Amazon OpenSearch Service Developer Guide. Tieni presenti le seguenti considerazioni durante la configurazione della raccolta:

   1. Assegna alla raccolta un nome e una descrizione a tua scelta.

   1. Per rendere privata la tua raccolta, seleziona **Creazione standard** nella sezione **Sicurezza**. Quindi, nella sezione **Impostazioni di accesso alla rete**, seleziona **VPC** come **Tipo di accesso** e scegli un endpoint VPC. Per ulteriori informazioni sulla configurazione di un endpoint VPC per una raccolta Amazon Serverless, consulta Access [Amazon OpenSearch OpenSearch Serverless using an interface endpoint ()AWS PrivateLink nella](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) Amazon Service Developer Guide. OpenSearch 

1. Una volta creata la raccolta, prendi nota dell’**ARN raccolta** quando crei la knowledge base.

1. Nel riquadro di navigazione a sinistra, seleziona **Raccolte** in **Serverless**. Quindi seleziona la tua raccolta di ricerca vettoriale.

1. Seleziona la scheda **Indici**. Quindi, scegli **Crea indice di vettore**.

1. Nella sezione **Dettagli dell’indice vettoriale**, inserisci un nome per l’indice nel campo **Nome dell’indice vettoriale**.

1. Nella sezione **Campi vettoriali**, scegli **Aggiungi campo vettoriale**. Amazon Bedrock archivia gli embedding vettoriali per l’origine dati in questo campo. Specifica le configurazioni seguenti:
   + **Nome campo vettoriale**: fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + **Motore**: il motore vettoriale utilizzato per la ricerca. Seleziona **faiss**.
   + **Dimensioni**: il numero di dimensioni nel vettore. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + **Metrica di distanza**: la metrica utilizzata per misurare la similarità tra i vettori. Ti consigliamo di utilizzare **Euclidei** per gli embedding vettoriali in virgola mobile.

1. Espandi la sezione **Gestione dei metadati** e aggiungi due campi per configurare l’indice vettoriale per archiviare altri metadati che una knowledge base può recuperare con i vettori. La tabella seguente descrive i campi e i valori da specificare per ogni campo.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

1. Prendi nota dei nomi scelti per il nome dell’indice vettoriale, il nome del campo vettoriale e i nomi dei campi di mappatura della gestione dei metadati per la creazione della knowledge base. Quindi, scegli **Crea**.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN raccolta | ARN raccolta | collectionARN | Il nome della risorsa Amazon (ARN) della raccolta ricerca vettoriale. | 
| Nome indice vettoriale | Nome indice vettoriale | vectorIndexName | Il nome dell’indice vettoriale. | 
| Nome campo vettoriale | Campo vettoriale | vectorField | Il nome del campo in cui memorizzare gli embedding vettoriali per le origini dati. | 
| Gestione dei metadati (primo campo di mappatura) | Campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock.  | 

Per una documentazione più dettagliata sulla configurazione di un archivio vettoriale in Amazon OpenSearch Serverless, consulta [Working with vector search collections](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) nella Amazon OpenSearch Service Developer Guide.

------
#### [ Amazon OpenSearch Service Managed Clusters ]

**Importante**  
Prima di utilizzare qualsiasi risorsa di dominio nei cluster OpenSearch gestiti, devi configurare determinate autorizzazioni e politiche di accesso IAM. Per ulteriori informazioni, consulta [Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge BasesPanoramica della configurazione delle autorizzazioni](kb-osm-permissions-prereq.md).
Se si verificano errori di inserimento dei dati, è possibile che la capacità del dominio sia insufficiente. OpenSearch Per risolvere questo problema, aumenta la capacità del dominio allocando IOPS più elevati e aumentando le impostazioni di throughput. Per ulteriori informazioni, consulta [Best practice operative per Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

1. Per creare un dominio e un indice vettoriale in OpenSearch Cluster in the Console di gestione AWS, segui i passaggi descritti in [Creazione e gestione dei domini di OpenSearch servizio](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) nella *Amazon OpenSearch Service Developer* Guide.

   Tieni presenti le seguenti considerazioni durante la configurazione del tuo dominio:

   1. Un nome di dominio di tua scelta.

   1. Ti consigliamo di utilizzare l’opzione **Creazione semplice** per iniziare rapidamente a creare il tuo dominio.
**Nota**  
Questa opzione ti offre un dominio con un throughput ridotto. Se hai carichi di lavoro più grandi che richiedono un throughput più elevato, scegli l’opzione **Creazione standard**. Puoi regolare la capacità in un secondo momento, se necessario. Con questa opzione, puoi iniziare con la capacità più bassa, modificabile successivamente, se necessario.

   1. Per Rete, devi scegliere Accesso **pubblico**. OpenSearch i domini che si trovano dietro un VPC non sono supportati per la tua Knowledge Base.

   1. Per la **versione**, se utilizzi embedding vettoriali binari, Knowledge Base per Amazon Bedrock richiede una versione del motore 2.16 o successiva. Inoltre, è necessaria una versione 2.13 o successiva per creare un indice k-nn. Per ulteriori informazioni, consulta [K-NN Search](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/knn.html) nella guida per *sviluppatori di Amazon OpenSearch Service*.

   1. Ti consigliamo di utilizzare la **modalità dual-stack**.

   1. Ti consigliamo di abilitare il **controllo granulare degli accessi** per proteggere i dati del tuo dominio e di controllare ulteriormente le autorizzazioni che consentono al tuo ruolo di servizio della Knowledge Base di accedere al dominio ed effettuare richieste. OpenSearch 

   1. Lascia i valori predefiniti in tutte le altre impostazioni, quindi seleziona **Crea spazio** per creare il dominio.

1. Una volta creato il dominio, fai clic su esso per prendere nota dell’**ARN del dominio** e dell’**endpoint del dominio** da utilizzare quando crei la knowledge base.

1. Dopo aver creato il dominio, puoi creare un indice vettoriale eseguendo i seguenti comandi su una OpenSearch dashboard o utilizzando i comandi curl. Per ulteriori informazioni, consulta la [documentazione relativa ad OpenSearch ](https://opensearch.org/docs/latest/search-plugins/knn/knn-index/).

   Quando esegui il comando:
   + Fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + Assicurati che il vettore utilizzato per la ricerca sia **faiss**. **nmslib** non è supportato.
   + Per il numero di dimensioni del vettore, fai riferimento alla tabella seguente per determinare quante dimensioni deve contenere il vettore:
**Nota**  
Il modello Embeddings Titan V2 - Il modello di testo supporta più dimensioni. Può anche essere 256 o 512.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + Puoi aggiungere due campi per configurare l’indice vettoriale per archiviare metadati aggiuntivi che una knowledge base può recuperare con i vettori. La tabella seguente descrive i campi e i valori da specificare per ciascuno di essi.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

   ```
   PUT /<index-name>
   {
       "settings": {
           "index": {
               "knn": true
           }
       },
       "mappings": {
           "properties": {
               "<vector-name>": {
                   "type": "knn_vector",
                   "dimension": <embedding-dimension>,
                   "data_type": "binary",          # Only needed for binary embeddings
                   "space_type": "l2" | "hamming", # Use l2 for float embeddings and hamming for binary embeddings
                   "method": {
                       "name": "hnsw",
                       "engine": "faiss",
                       "parameters": {
                           "ef_construction": 128,
                           "m": 24
                       }
                   }
               },
   
               "AMAZON_BEDROCK_METADATA": {
                   "type": "text",
                   "index": "false"
               },
               "AMAZON_BEDROCK_TEXT_CHUNK": {
                   "type": "text",
                   "index": "true"            
               }
           }
       }
   }
   ```

1. Prendi nota dell’ARN e dell’endpoint del dominio, nonché dei nomi scelti per il nome dell’indice vettoriale, il nome del campo vettoriale e i nomi dei campi di mappatura per la gestione dei metadati, da utilizzare quando crei la tua knowledge base.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN di dominio | ARN di dominio | domainARN | L'Amazon Resource Name (ARN) del OpenSearch dominio. | 
| Endpoint di dominio | Endpoint di dominio | domainEndpoint | L'endpoint per connettersi al OpenSearch dominio. | 
| Nome indice vettoriale | Nome indice vettoriale | vectorIndexName | Il nome dell’indice vettoriale. | 
| Nome campo vettoriale | Campo vettoriale | vectorField | Il nome del campo in cui memorizzare gli embedding vettoriali per le origini dati. | 
| Gestione dei metadati (primo campo di mappatura) | Campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock.  | 

------
#### [ Amazon S3 Vectors ]

Amazon S3 Vectors offre un archivio vettoriale conveniente in Amazon S3 che può essere utilizzato per archiviare e interrogare dati vettoriali. Fornisce un archivio durevole ed elastico di set di dati vettoriali di grandi dimensioni con prestazioni di query inferiori al secondo. Amazon S3 Vectors è ideale per carichi di lavoro di query poco frequenti e può aiutare a ridurre i costi se utilizzato in applicazioni di generazione potenziata da recupero dati (RAG) e di ricerca semantica.

Amazon S3 Vectors introduce i bucket vettoriali S3, che contengono indici vettoriali su cui è possibile eseguire query in base al significato semantico e alla somiglianza. Può essere utilizzato per fornire tempi di risposta alle query inferiori al secondo e ridurre i costi mentre si archiviano i dati vettoriali, si accede a essi e li si interroga su larga scala, senza dover allocare alcuna infrastruttura. In un bucket vettoriale, puoi organizzare i dati vettoriali all’interno di indici vettoriali. Il tuo bucket vettoriale può avere più indici vettoriali. Per maggiori informazioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.

**Nota**  
Puoi creare una knowledge base per Amazon S3 Vectors in tutti gli Regione AWS ambienti in cui sono disponibili sia Amazon Bedrock che Amazon S3 Vectors. Per informazioni sulla disponibilità regionale di Amazon S3 Vectors, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.
Quando utilizzi un numero di token molto elevato con suddivisione in blocchi gerarchici nelle Knowledge Base di Amazon Bedrock, puoi superare i limiti massimi di dimensione dei metadati poiché le relazioni tra blocchi padre-figlio e il contesto gerarchico vengono archiviati come metadati non filtrabili in Amazon S3 Vectors. Per ulteriori informazioni sui limiti di dimensione dei metadati per vettore, consulta [Limitazioni e restrizioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) nella Guida per l'utente di *Amazon S3*. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
<a name="metadata-support"></a>
**Supporto per metadati**  
Puoi allegare i metadati come coppie chiave-valore a ciascun vettore. Per impostazione predefinita, i metadati sono filtrabili e possono essere utilizzati nelle query di ricerca per analogia per filtrare in base a condizioni quali date, categorie o preferenze dell'utente.

Puoi anche configurare i metadati in modo che non siano filtrabili durante la creazione dell'indice vettoriale. Gli indici vettoriali di Amazon S3 supportano i tipi stringa, booleano e numero.

Quando usi Amazon S3 Vectors con Amazon Bedrock Knowledge Bases, puoi allegare fino a 1 KB di metadati personalizzati (inclusi metadati filtrabili e non filtrabili) e 35 chiavi di metadati per vettore. Per ulteriori informazioni sui limiti di dimensione dei metadati per vettore, consulta [Limitazioni e restrizioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) nella Guida per l'utente di *Amazon S3*.

Se i metadati superano questi limiti, il processo di importazione genererà un'eccezione durante la compilazione dell'indice vettoriale. Per maggiori informazioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.

**Autorizzazioni richieste**  
Assicurati che la policy IAM consenta ad Amazon Bedrock di accedere all’indice vettoriale nel bucket vettoriale S3. Per ulteriori informazioni sulle autorizzazioni richieste, consulta [Creare un ruolo di servizio per Knowledge Base per Amazon Bedrock](kb-permissions.md).

**Crea un bucket e un indice vettoriali S3**  
Per utilizzare Amazon S3 Vectors con la tua knowledge base, devi creare un bucket e un indice vettoriali S3. Puoi creare un bucket vettoriale e un indice utilizzando la console AWS CLI Amazon S3 o l'SDK. AWS Per istruzioni dettagliate, consulta [Creazione di un indice vettoriale](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-index-create.html) nella *Guida per l’utente di Amazon S3*.

Tieni presenti le seguenti considerazioni quando crei il bucket vettoriale e l’indice nella [console Amazon S3](https://console.aws.amazon.com/s3/vector-buckets#).

1. Durante la creazione del bucket vettoriale S3, considera quanto segue.
   + Fornisci un **nome univoco per il bucket vettoriale**.
   + (Opzionale) Amazon S3 crittograferà automaticamente i dati utilizzando la **crittografia lato server predefinita con chiavi gestite da Amazon S3 (SSE-S3)**. Puoi scegliere se utilizzare invece questa crittografia predefinita o la **crittografia lato server con AWS chiavi del servizio di gestione delle chiavi (SSE-KMS**).
**Nota**  
Il tipo di crittografia non può essere cambiato dopo la creazione del bucket vettoriale.

     [Per step-by-step istruzioni, consulta Crittografia con chiavi KMS. AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-bucket-encryption.html)

1. Dopo aver creato il bucket vettoriale S3, prendi nota del **nome della risorsa Amazon (ARN)** del bucket vettoriale da utilizzare quando crei la knowledge base.

1. Scegli il bucket vettoriale che hai creato, quindi crea un indice vettoriale. Durante la creazione dell’indice vettoriale, tieni presente le considerazioni seguenti.
   + **Nome indice vettoriale**: fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + **Dimensioni**: il numero di dimensioni nel vettore. Le dimensioni devono avere un valore compreso tra 1 e 4.096. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore in base alla selezione del modello di embedding:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + 
**Nota**  
Amazon S3 Vectors supporta solo gli embedding a virgola mobile. Gli embedding binari non sono supportati.

     **Metrica di distanza**: la metrica utilizzata per misurare la similarità tra i vettori. Puoi utilizzare **Coseno** o **Euclideo**.

1. Espandi le **impostazioni aggiuntive** e fornisci tutti i metadati non filtrabili nel campo **Metadati non filtrabili**.

   Puoi configurare fino a un massimo di 10 chiavi di metadati non filtrabili. Scegli **Aggiungi chiave**, quindi aggiungi `AMAZON_BEDROCK_TEXT` e `AMAZON_BEDROCK_METADATA` come chiavi.

1. In **Crittografia** scegli **Specifica il tipo di crittografia**. Hai la possibilità di **utilizzare le impostazioni del bucket per la crittografia** o sovrascrivere le impostazioni di crittografia per l'indice vettoriale. **Se sovrascrivi le impostazioni a livello di bucket, hai la possibilità di specificare il tipo di crittografia per l'indice vettoriale come crittografia lato **server con chiavi del servizio di gestione delle AWS chiavi (SSE-KMS) o crittografia lato server predefinita con chiavi gestite Amazon S3 (SSE-S3**).** Per ulteriori informazioni sull'impostazione della configurazione di crittografia per gli indici vettoriali, consulta [Protezione e crittografia dei dati in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-data-encryption.html) Vectors.

1. In **Tag (facoltativo)**, puoi aggiungere tag come coppie chiave-valore per monitorare e organizzare i costi degli indici vettoriali utilizzando AWS Billing and Cost Management. Immettere una **chiave** e un **valore**. Per aggiungere un altro tag, scegliere **Add Tag (Aggiungi tag)**. Puoi inserire fino a 50 tag per un indice vettoriale. Per ulteriori informazioni, consulta [Usare i tag con gli indici vettoriali di Amazon S3](https://docs.aws.amazon.com/console/s3/vector-index-create-with-tag).

1. Dopo aver creato il bucket vettoriale, prendi nota del **nome della risorsa Amazon (ARN)** dell’indice vettoriale da utilizzare quando crei la knowledge base.

**Creazione di una knowledge base per il bucket vettoriale S3**  
Dopo aver raccolto queste informazioni, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). Quando crei la tua knowledge base con il bucket vettoriale S3, dovrai fornire l’ARN del bucket vettoriale e l’indice vettoriale. L’indice vettoriale memorizzerà gli embedding generati dalle tue origini dati. La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni:


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN del bucket vettoriale | ARN del bucket vettoriale S3 | vectorBucketArn | Il nome della risorsa Amazon (ARN) del bucket vettoriale S3. | 
| ARN dell’indice vettoriale | ARN dell’indice vettoriale S3 | vectorIndexARN | Il nome della risorsa Amazon (ARN) dell’indice vettoriale del bucket vettoriale S3. | 

------
#### [ Amazon Aurora (RDS) ]

1. Crea un cluster di database (DB) Amazon Aurora, uno schema e una tabella seguendo i passaggi indicati in [Utilizzo di Aurora PostgreSQL come knowledge base](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.VectorDB.html). Quando crei la tabella, configurala con le seguenti colonne e tipi di dati. Puoi utilizzare i nomi delle colonne che preferisci anziché quelli elencati nella tabella seguente. Prendi nota dei nomi delle colonne che scegli in modo da poterli fornire durante la configurazione della knowledge base.

   È necessario fornire questi campi prima di creare la knowledge base. Non è possibile aggiornarli una volta creata la knowledge base.
**Importante**  
Il cluster Aurora deve risiedere nello stesso in cui viene Account AWS creata la knowledge base per Amazon Bedrock.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

1. È necessario creare un indice sulle colonne vector e text per i campi di testo e di embedding. Se utilizzi il campo di metadati personalizzato, devi anche creare un indice GIN su questa colonna. Gli indici GIN possono essere utilizzati per cercare in modo efficiente coppie chiave-valore nei documenti jsonb per il filtraggio dei metadati. Per ulteriori informazioni, consulta [Indicizzazione jsonb](https://www.postgresql.org/docs/current/datatype-json.html#JSON-INDEXING) nella *Documentazione PostgreSQL*.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
**Nota**  
Per migliorare la precisione e la latenza della ricerca ibrida con contenuti in inglese, prendi in considerazione l'utilizzo del dizionario «inglese» anziché «semplice»:  

   ```
   CREATE INDEX ON bedrock_integration.bedrock_kb USING gin (to_tsvector('english', chunks));
   ```

1. (Opzionale) Se hai [aggiunto metadati ai tuoi file per filtrarli](kb-test-config.md), ti consigliamo di fornire il nome della colonna nel campo dei metadati personalizzato per archiviare tutti i metadati in un’unica colonna. Durante l’[importazione dei dati](kb-data-source-sync-ingest.md), questa colonna verrà popolata con tutte le informazioni contenute nei file di metadati delle origini dati. Se scegli di fornire questo campo, devi creare un indice GIN su questa colonna.
**Nota**  
Se utilizzi spesso filtri di intervallo sui metadati numerici, per ottimizzare le prestazioni, crea un indice per la chiave specifica. Ad esempio, se utilizzi filtri come `"lessThan": { "key": "year", "value": 1989 }`, crea un indice di espressione sulla chiave `year`. Per ulteriori informazioni, consulta [Indici sulle espressioni](https://www.postgresql.org/docs/current/indexes-expressional.html) nella *Documentazione PostgreSQL*.  

   ```
   CREATE INDEX ON your_table ((custom_metadata->>'year')::double precision
   ```

   In alternativa, se non fornisci questo nome campo, puoi creare una colonna per ogni attributo di metadati nei tuoi file e specificare il tipo di dati (testo, numero o booleano). Ad esempio, se l’attributo `genre` esiste nell’origine dati, è necessario aggiungere una colonna denominata `genre` e specificare `text` come tipo di dati. Durante l’[importazione dei dati](kb-data-source-sync-ingest.md), queste colonne separate vengono popolate con i valori degli attributi corrispondenti.

1. Configura un Gestione dei segreti AWS segreto per il tuo cluster Aurora DB seguendo i passaggi descritti in [Gestione delle password con Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/rds-secrets-manager.html) e. Gestione dei segreti AWS

1. Prendi nota delle seguenti informazioni dopo aver creato il cluster di database e impostato il segreto.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

------
#### [ Neptune Analytics graphs (GraphRAG) ]

1. Per creare un grafo e un archivio vettoriale in Analisi Neptune in Console di gestione AWS, segui i passaggi descritti in [Indicizzazione vettoriale in Analisi Neptune](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/vector-index.html) nella *Guida per l’utente di Analisi Neptune*.
**Nota**  
Per utilizzare Neptune GraphRAG, crea un grafo di Analisi Neptune vuoto con un indice di ricerca vettoriale. L’indice di ricerca vettoriale può essere creato solo quando viene creato il grafo. Quando crei un [grafo di Analisi Neptune nella console](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/create-graph-using-console.html), specifichi la dimensione dell’indice in **Impostazioni di ricerca vettoriale** verso la fine del processo.

   Durante la creazione del grafo, tieni presenti le considerazioni seguenti:

   1. Un nome del grafo di tua scelta.

   1. In **Origine dati**, scegli **Crea grafico vuoto** e specifica il numero di m- NCUs da allocare. Ogni m-NCU dispone di circa un GiB di capacità di memoria e di elaborazione e rete corrispondenti.
**Nota**  
La capacità del grafo può essere modificata in un secondo momento. Ti consigliamo di iniziare con l’istanza più piccola e successivamente di sceglierne un’altra, se necessario.

   1. Puoi lasciare le impostazioni di connettività di rete predefinite. Amazon Bedrock crea una connessione di rete al grafo di Analisi Neptune a cui associ la knowledge base. Non è necessario configurare la connettività pubblica o gli endpoint privati per il tuo grafo.

   1. In **Impostazioni di ricerca vettoriale**, scegli **Usa dimensione vettoriale** e specifica il numero di dimensioni in ogni vettore.
**Nota**  
Il numero di dimensioni in ogni vettore deve corrispondere alle dimensioni vettoriali nel modello di embedding. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

   1. Lascia tutte le altre impostazioni ai valori predefiniti e crea il grafo.

1. Una volta creato il grafo, fai clic su esso per prendere nota dell’**ARN della risorsa** e delle **Dimensioni** vettoriali da utilizzare quando crei la knowledge base. Quando scegli il modello di embedding in Amazon Bedrock, assicurati di scegliere un modello con le stesse dimensioni delle **dimensioni vettoriali** che hai configurato sul grafo di Analisi Neptune.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN del grafo | ARN del grafo di Analisi Neptune | graphARN | Il nome della risorsa Amazon (ARN) del grafo di Analisi Neptune. | 
| Gestione dei metadati (primo campo di mappatura) | Nome del campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. Puoi fornire qualsiasi valore per questo campo, ad esempio metadati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock. Puoi fornire qualsiasi valore per questo campo, ad esempio metadati. | 

------
#### [ Pigna ]

**Nota**  
Se utilizziPinecone, accetti di autorizzare l'accesso AWS alla fonte di terze parti designata per tuo conto al fine di fornirti i servizi di vector store. Sei responsabile di rispettare tutti i termini di terze parti applicabili all'uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in Pinecone, consulta [Pinecone come Knowledge Base per Amazon Bedrock](https://docs.pinecone.io/docs/amazon-bedrock).

Mentre configuri l'archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **URL dell’endpoint**: l’URL dell’endpoint per la pagina di gestione dell’indice.
+ **ARN segreto delle credenziali**: l'Amazon Resource Name (ARN) del segreto che hai creato Gestione dei segreti AWS e che contiene il nome utente e la password per un utente del database.
+ **(Opzionale) Chiave KMS gestita dal cliente per l’ARN segreto delle credenziali**: se hai crittografato l’ARN segreto delle credenziali, fornisci la chiave KMS in modo che Amazon Bedrock possa decrittarla. 
+ **Namespace**: (Opzionale) il namespace da utilizzare per scrivere nuovi dati nel database. Per ulteriori informazioni, consulta [Utilizzo dei namespace](https://docs.pinecone.io/docs/namespaces).

Esistono altre configurazioni che devi fornire durante la creazione di un indice Pinecone:
+ **Percorso del campo di testo**: il nome del campo in cui Amazon Bedrock deve archiviare il testo grezzo in blocco.
+ **Nome del campo dei metadati**: il nome del campo in cui Amazon Bedrock deve archiviare i metadati di attribuzione dell’origine.

Per accedere all’indice Pinecone, devi fornire la chiave API Pinecone ad Amazon Bedrock tramite Gestione dei segreti AWS.

**Come impostare un segreto per la configurazione di Pinecone**

1. Segui la procedura descritta in [Crea un Gestione dei segreti AWS segreto](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html), impostando la chiave come chiave `apiKey` e il valore come chiave API per accedere al tuo indice. Pinecone

1. Per trovare la chiave API, apri la [console Pinecone](https://app.pinecone.io/) e seleziona **Chiavi API**.

1. Dopo aver creato il segreto, prendi nota dell'ARN della chiave KMS.

1. Allega le autorizzazioni al tuo ruolo di servizio per decrittare l'ARN della chiave KMS seguendo la procedura riportata in [Autorizzazioni per decrittografare un Gestione dei segreti AWS segreto per il vector store contenente la tua knowledge base](encryption-kb.md#encryption-kb-3p).

1. Successivamente, quando crei la knowledge base, inserisci l'ARN nel campo **ARN del segreto delle credenziali**.

------
#### [ Redis Enterprise Cloud ]

**Nota**  
Se utilizziRedis Enterprise Cloud, accetti di autorizzare l'accesso AWS alla fonte di terze parti designata per tuo conto al fine di fornirti i servizi di archiviazione vettoriale. Sei responsabile di rispettare tutti i termini di terze parti applicabili all’uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in Redis Enterprise Cloud, consulta [Integrazione di Redis Enterprise Cloud in Amazon Bedrock](https://docs.redis.com/latest/rc/cloud-integrations/aws-marketplace/aws-bedrock/).

Mentre configuri l'archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **URL dell’endpoint**: URL dell’endpoint pubblico per il database.
+ **Nome dell’indice vettoriale**: il nome dell’indice vettoriale per il database.
+ **Campo vettoriale**: il campo in cui verranno archiviati gli embedding vettoriali. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
+ **Campo di testo**: il nome del campo in cui Amazon Bedrock archivia il blocco di testo grezzo.
+ **Campo di metadati gestiti da Bedrock**: il nome del campo in cui Amazon Bedrock archivia i metadati relativi alla tua knowledge base.

Per accedere al cluster Redis Enterprise Cloud, devi fornire la configurazione di sicurezza Redis Enterprise Cloud ad Amazon Bedrock tramite Gestione dei segreti AWS.

**Come impostare un segreto per la configurazione di Redis Enterprise Cloud**

1. Consenti al protocollo TLS di utilizzare il tuo database con Amazon Bedrock seguendo i passaggi descritti in [Transport Layer Security (TLS)](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/).

1. Segui i passaggi indicati in [Crea un Gestione dei segreti AWS segreto](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html). Imposta le seguenti chiavi con i valori appropriati della configurazione di Redis Enterprise Cloud nel segreto:
   + `username`: il nome utente per accedere al database Redis Enterprise Cloud. Per trovare il nome utente, consulta la sezione **Security** del tuo database nella [console Redis](http://app.redislabs.com/).
   + `password`: la password per accedere al database Redis Enterprise Cloud. Per trovare la password, consulta la sezione **Security** del tuo database nella [console Redis](http://app.redislabs.com/).
   + `serverCertificate`: i contenuti del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).
   + `clientPrivateKey`: la chiave privata del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).
   + `clientCertificate`: la chiave pubblica del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).

1. Dopo aver creato il segreto, prendi nota del relativo ARN. Successivamente, quando crei la knowledge base, inserisci l'ARN nel campo **ARN del segreto delle credenziali**.

------
#### [ MongoDB Atlas ]

**Nota**  
Se utilizzi MongoDB Atlas, accetti di AWS autorizzare l'accesso alla fonte di terze parti designata per tuo conto al fine di fornirti servizi di archiviazione vettoriale. Sei responsabile di rispettare tutti i termini di terze parti applicabili all'uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in MongoDB Atlas, consulta [Avvio di un flusso di lavoro RAG completamente gestito con MongoDB Atlas e Amazon Bedrock](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/).

Mentre configuri l’archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **Endpoint: dell’URL**: l’URL dell’endpoint del cluster MongoDB Atlas.
+ **Nome del database**: il nome del database nel cluster MongoDB Atlas.
+ **Nome raccolta**: il nome della raccolta nel database.
+ **ARN segreto delle credenziali**: l'Amazon Resource Name (ARN) del segreto che hai creato Gestione dei segreti AWS e che contiene il nome utente e la password per un utente del database nel tuo cluster MongoDB Atlas. Il segreto deve contenere chiavi denominate `username` e `password`.
+ **(Opzionale) Chiave KMS gestita dal cliente per l’ARN segreto delle credenziali**: se hai crittografato l’ARN segreto delle credenziali, fornisci la chiave KMS in modo che Amazon Bedrock possa decrittarla. 

Esistono altre configurazioni per **Mappatura dei campi** che devi fornire durante la creazione di un indice MongoDB Atlas:
+ **Nome dell’indice vettoriale**: il nome dell’indice di ricerca vettoriale MongoDB Atlas nella tua raccolta.
+ **Nome del campo vettoriale**: il nome del campo in cui Amazon Bedrock deve archiviare gli embedding vettoriali.
+ **Percorso del campo di testo**: il nome del campo in cui Amazon Bedrock deve archiviare il testo grezzo in blocco.
+ **Nome del campo dei metadati**: il nome del campo in cui Amazon Bedrock deve archiviare i metadati di attribuzione dell’origine.
+ **(Opzionale) Nome dell’indice di ricerca testo**: il nome dell’indice di ricerca MongoDB Atlas nella tua raccolta.

**Importante**  
Se prevedi di utilizzare il filtro dei metadati con la knowledge base MongoDB Atlas, devi configurare manualmente i filtri nell’indice vettoriale. Il filtraggio dei metadati non funziona per impostazione predefinita e richiede una configurazione aggiuntiva nella configurazione dell’indice vettoriale MongoDB Atlas.

(Facoltativo) Per connettere Amazon Bedrock al tuo cluster MongoDB Atlas, consulta il [flusso di lavoro RAG AWS PrivateLink con MongoDB](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/) Atlas utilizzando Amazon Bedrock.

------

# Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge Bases
<a name="kb-osm-permissions-prereq"></a>

Questa sezione mostra come configurare le autorizzazioni se stai creando il tuo database vettoriale con Amazon OpenSearch Service Managed Clusters. La configurazione deve essere eseguita prima di creare la knowledge base. I passaggi presuppongono che tu abbia già creato un dominio e un indice vettoriale in Amazon OpenSearch Service. Per ulteriori informazioni, consulta [Creazione e gestione OpenSearch di domini di servizio](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) nella *guida per sviluppatori OpenSearch di Amazon Service*.

## Considerazioni chiave
<a name="kb-osm-permissions-prereq-considerations"></a>

Di seguito sono riportate alcune considerazioni chiave per l'utilizzo di Amazon Bedrock Knowledge Bases con Amazon OpenSearch Service Managed Clusters.
+ Prima di utilizzare qualsiasi risorsa di dominio nei cluster OpenSearch gestiti, devi configurare determinate autorizzazioni e politiche di accesso IAM. Per l’integrazione di Knowledge Base con i cluster gestiti e prima di eseguire i passaggi descritti in questa sezione, se per il dominio è definita una policy di accesso restrittiva è necessario concedere l’accesso IAM richiesto e configurare le policy basate sulle risorse. Si consiglia inoltre di configurare un controllo granulare degli accessi per limitare l’ambito delle autorizzazioni.
+ Quando si importano i dati per la knowledge base, se si verificano errori, ciò potrebbe indicare una capacità del OpenSearch dominio insufficiente a gestire la velocità di inserimento. Per risolvere questo problema, incrementare la capacità del dominio allocando valori di IOPS (operazioni di input/out al secondo) più elevati e aumentando le impostazioni di throughput. Attendere alcuni minuti per il provisioning della nuova capacità, quindi riprovare il processo di importazione. Per verificare che il problema sia stato risolto, è possibile monitorare le prestazioni durante l’esecuzione del nuovo tentativo. Se la limitazione (della larghezza di banda della rete) persiste, potrebbe essere necessario regolare ulteriormente la capacità per aumentare l’efficienza. Per ulteriori informazioni, consulta [Best practice operative per Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

## Panoramica della configurazione delle autorizzazioni
<a name="kb-osm-permissions-prereq-overview"></a>

Per l’integrazione di Knowledge Base con i cluster gestiti, è necessario configurare le autorizzazioni di accesso IAM e le policy basate sulle risorse seguenti. Si consiglia di abilitare policy di accesso granulari per controllare ulteriormente l’accesso degli utenti e la granularità con cui deve essere definito fino al livello di proprietà.

I passaggi seguenti offrono una panoramica generale sul modo in cui configurare le autorizzazioni.

1. 

**Creare e utilizzare il ruolo di servizio della knowledge base**

   Per le autorizzazioni da configurare, anche se è comunque possibile fornire un ruolo personalizzato, si consiglia di specificare l’opzione in modo che Knowledge Base per Amazon Bedrock crei automaticamente il ruolo di servizio per la knowledge base.

1. 

**Configurare policy basate sulle risorse**

   Il OpenSearch dominio supporta politiche basate sulle risorse, che determinano quali responsabili possono accedere al dominio e agire su di esso. Per l’uso con Knowledge Base, verificare che la configurazione delle policy basate sulle risorse per il dominio sia corretta.

1. 

***(Fortemente consigliato)* Fornire la mappatura dei ruoli per il controllo granulare degli accessi**

   Sebbene il controllo granulare degli accessi sia facoltativo, si consiglia di attivarlo per controllare la granularità con cui le autorizzazioni devono essere definite a livello di proprietà.

## Configurazione delle policy IAM
<a name="kb-osm-permissions-iam"></a>

La politica di accesso del tuo dominio deve concedere le autorizzazioni per eseguire le azioni OpenSearch API richieste dai ruoli del tuo account.

Se la policy di accesso del dominio è restrittiva, potrebbe essere necessario aggiornarla nel modo seguente:
+ Deve concedere l’accesso al servizio Amazon Bedrock e includere le azioni HTTP richieste: `GET`, `POST`, `PUT` e `DELETE`.
+ Deve inoltre concedere ad Amazon Bedrock le autorizzazioni per eseguire l’azione `es:DescribeDomain` sulla risorsa dell’indice. Ciò consente a Knowledge Base per Amazon Bedrock di eseguire le convalide richieste durante la configurazione di una knowledge base.

## (Facoltativo) Controllo granulare degli accessi
<a name="kb-osm-permissions-console-fgap"></a>

Un controllo granulare degli accessi può controllare la granularità con cui le autorizzazioni devono essere definite a livello di proprietà. È possibile configurare policy di accesso granulari per concedere le autorizzazioni di lettura/scrittura necessarie al ruolo di servizio creato da Knowledge Base.

Per configurare il controllo granulare degli accessi e fornire la mappatura dei ruoli:

1. Assicurati che il OpenSearch dominio che hai creato abbia abilitato il controllo granulare degli accessi.

1. Crea un' OpenSearch interfaccia utente (dashboard), se non l'hai già fatto. L’interfaccia verrà utilizzata per configurare la mappatura dei ruoli.

1. Nelle OpenSearch dashboard, crea un OpenSearch ruolo e specifica il nome dell'indice vettoriale e le autorizzazioni del cluster e dell'indice. Per aggiungere le autorizzazioni, è necessario creare gruppi di autorizzazioni e quindi aggiungere le autorizzazioni necessarie che concedano l’accesso per eseguire una serie di operazioni tra cui `delete`, `search`, `get` e `index` per il ruolo.

1. Dopo aver aggiunto le autorizzazioni richieste, devi inserire l'ARN del tuo ruolo di servizio di Knowledge base per OpenSearch il ruolo di back-end. L'esecuzione di questo passaggio completerà la mappatura tra il tuo ruolo di Knowledge Base Service e il OpenSearch ruolo, che quindi concede ad Amazon Bedrock Knowledge Bases le autorizzazioni per accedere all'indice vettoriale nel OpenSearch dominio ed eseguire le operazioni richieste.

**Topics**
+ [Considerazioni chiave](#kb-osm-permissions-prereq-considerations)
+ [Panoramica della configurazione delle autorizzazioni](#kb-osm-permissions-prereq-overview)
+ [Configurazione delle policy IAM](#kb-osm-permissions-iam)
+ [(Facoltativo) Controllo granulare degli accessi](#kb-osm-permissions-console-fgap)
+ [Configurazione di policy basate sulle risorse per i cluster gestiti OpenSearch](kb-osm-permissions-slr-rbp.md)
+ [Configurazione delle autorizzazioni OpenSearch con un controllo granulare degli accessi](kb-osm-permissions-console-fgap.md)

# Configurazione di policy basate sulle risorse per i cluster gestiti OpenSearch
<a name="kb-osm-permissions-slr-rbp"></a>

Durante la creazione della knowledge base, è possibile creare un ruolo personalizzato o consentire ad Amazon Bedrock di crearne uno. Il modo in cui vengono configurate le autorizzazioni dipende se si sta creando un nuovo ruolo o utilizzando un ruolo esistente. Se disponi già di un ruolo IAM, devi assicurarti che la politica di accesso del tuo dominio non impedisca ai ruoli del tuo account di eseguire le azioni API necessarie. OpenSearch 

Se scegli di lasciare che Amazon Bedrock Knowledge Bases crei il ruolo IAM per te, devi assicurarti che la politica di accesso del tuo dominio conceda le autorizzazioni per eseguire le azioni OpenSearch API richieste dai ruoli del tuo account. Se il dominio ha una policy di accesso restrittiva, può impedire al ruolo di eseguire queste azioni. Di seguito è riportato un esempio di policy restrittiva basata sulle risorse.

In questo caso, è possibile:
+ Crea la tua knowledge base utilizzando un ruolo IAM esistente a cui il tuo OpenSearch dominio può concedere l'accesso a questo ruolo per eseguire le operazioni necessarie.
+ In alternativa, è possibile consentire ad Amazon Bedrock di creare un nuovo ruolo. In questo caso, devi assicurarti che la politica di accesso del dominio conceda le autorizzazioni per eseguire le azioni OpenSearch API necessarie in base ai ruoli del tuo account.

Le sezioni seguenti mostrano un esempio di policy IAM che concede le autorizzazioni necessarie e come aggiornare la politica di accesso del dominio in modo che conceda le autorizzazioni per eseguire le operazioni API necessarie. OpenSearch 

**Topics**
+ [Esempi di policy basate sull’identità IAM e sulle risorse](#kb-osm-permissions-iam)
+ [Creazione del ruolo di servizio per Knowledge Base per Amazon Bedrock](#kb-osm-permissions-slr)
+ [Aggiornamento delle policy basate sulle risorse](#kb-osm-permissions-console-rbp)

## Esempi di policy basate sull’identità IAM e sulle risorse
<a name="kb-osm-permissions-iam"></a>

Questa sezione fornisce un esempio di policy di identità e una policy basata sulle risorse che puoi configurare per il tuo OpenSearch dominio durante l'integrazione con Amazon Bedrock Knowledge Bases. È necessario concedere ad Amazon Bedrock le autorizzazioni per eseguire queste azioni sull’indice fornito alla knowledge base.


****  

| Azione | Risorsa | Description | 
| --- | --- | --- | 
| es:ESHttpPost | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Per inserire informazioni nell’indice | 
| es:ESHttpGet |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Per cercare informazioni dall’indice. Questa azione è configurata sia a livello di domain/index che a livello di domain/index/\$1. A livello di domain/index è possibile ottenere dettagli di alto livello sull’indice, come il tipo di motore. Per recuperare i dettagli archiviati nell’indice, sono necessarie le autorizzazioni a livello di domain/index/\$1. | 
| es:ESHttpHead |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Per ottenere informazioni dall’indice. Questa azione è configurata sia a livello di domain/index che a livello di domain/index/\$1, nel caso in cui sia necessario ottenere informazioni a un livello superiore, ad esempio se esiste un particolare indice. | 
| es:ESHttpDelete | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Per eliminare informazioni dall’indice | 
| es:DescribeDomain | arn:<partition>:es:<region>:<accountId>:domain/<domainName> | Per eseguire convalide sul dominio, ad esempio la versione del motore utilizzata. | 

### Esempio di policy basata sull’identità
<a name="kb-osm-permissions-idpolicy"></a>

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "OpenSearchIndexAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpPost",
                "es:ESHttpPut",
                "es:ESHttpDelete"
            ],
            "Resource": [
                "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName/*"
            ]
        },
        {
            "Sid": "OpenSearchIndexGetAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpHead"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName"
            ]
        },
        {
            "Sid": "OpenSearchDomainValidation",
            "Effect": "Allow",
            "Action": [
                "es:DescribeDomain"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName"
            ]
        }
    ]
}
```

------

### Esempio di policy basata sulle risorse
<a name="kb-osm-permissions-rbp"></a>

**Nota**  
Assicurarsi che il ruolo di servizio sia stato creato per essere utilizzato nella policy basata sulle risorse.

## Creazione del ruolo di servizio per Knowledge Base per Amazon Bedrock
<a name="kb-osm-permissions-slr"></a>

Durante la creazione della knowledge base, è possibile scegliere l’opzione per creare e utilizzare un nuovo ruolo di servizio. Questa sezione illustra come creare il ruolo di servizio per Knowledge Base per Amazon Bedrock. Mappando le politiche basate sulle risorse e le politiche di accesso granulari a questo ruolo, concederà ad Amazon Bedrock le autorizzazioni per effettuare richieste al dominio. OpenSearch 

**Per specificare il ruolo di servizio per Knowledge Base per Amazon Bedrock:**

1. Nella console Amazon Bedrock, accedere a [Knowledge Bases](https://console.aws.amazon.com/bedrock/home#/knowledge-bases).

1. Scegliere **Crea** e poi **Knowledge base con archivio vettoriale**.

1. Scegliere **Crea e utilizza un nuovo ruolo di servizio**. È possibile utilizzare il ruolo predefinito o assegnare un nome al ruolo personalizzato. Amazon Bedrock crea automaticamente il ruolo di servizio per Knowledge Base.

1. Continuare a utilizzare la console per configurare l’origine dati e le strategie di analisi e chunking.

1. Scegli un modello Embeddings e poi, in **Scegli un negozio vettoriale esistente**, scegli **Amazon OpenSearch Managed** Cluster.

**Importante**  
Prima di procedere con la creazione della knowledge base, completare la seguente procedura per configurare le policy basate sulle risorse e le policy di accesso granulari. Per le fasi dettagliate sulla creazione della knowledge base, vedere [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md).

## Aggiornamento delle policy basate sulle risorse
<a name="kb-osm-permissions-console-rbp"></a>

Se il tuo OpenSearch dominio ha una politica di accesso restrittiva, puoi seguire le istruzioni in questa pagina per aggiornare la politica basata sulle risorse. Queste autorizzazioni consentono alle Knowledge Base di utilizzare l'indice fornito dall'utente e di recuperare la definizione del OpenSearch dominio per eseguire la convalida richiesta sul dominio.

**Per configurare le politiche basate sulle risorse da Console di gestione AWS**

1. Vai alla [console di Amazon OpenSearch Service](https://console.aws.amazon.com/aos/home?region=us-east-1#opensearch/dashboard).

1. Vai al dominio che hai creato, poi accedi a **Configurazioni di sicurezza** in cui è configurata la policy basata sulle risorse.

1. Modifica la policy nella scheda **JSON**, poi aggiorna la policy in modo simile all’[Esempio di policy basata sulle risorse](#kb-osm-permissions-rbp).

1. Ora puoi tornare alla console Amazon Bedrock e fornire i dettagli per il tuo OpenSearch dominio e indice come descritto in [Configurazione della Knowledge base per i cluster gestiti](knowledge-base-setup.md#knowledge-base-setup-osm).

# Configurazione delle autorizzazioni OpenSearch con un controllo granulare degli accessi
<a name="kb-osm-permissions-console-fgap"></a>

Sebbene facoltativo, ti consigliamo vivamente di abilitare il controllo granulare degli accessi per il tuo dominio. OpenSearch Utilizzando il controllo granulare degli accessi, è possibile utilizzare il controllo degli accessi basato sui ruoli, che consente di creare un OpenSearch ruolo con autorizzazioni specifiche e mapparlo al ruolo del servizio Knowledge Base. La mappatura concede alla Knowledge Base le autorizzazioni minime richieste che le consentono di accedere al dominio e all'indice ed eseguire operazioni sul dominio e sull'indice. OpenSearch 

Per configurare e utilizzare il controllo granulare degli accessi:

1. Assicurati che il OpenSearch dominio che stai utilizzando abbia abilitato il controllo granulare degli accessi.

1. Per il tuo dominio che utilizza un controllo granulare degli accessi, configura le autorizzazioni con politiche mirate sotto forma di ruolo. OpenSearch

1. Per il dominio per cui crei un ruolo, aggiungi una mappatura dei ruoli al ruolo di servizio per Knowledge Base.

I passaggi seguenti mostrano come configurare il OpenSearch ruolo e garantire la corretta mappatura tra il ruolo e il ruolo del servizio Knowledge Base. OpenSearch 

**Per creare un OpenSearch ruolo e configurare le autorizzazioni**  
Dopo aver abilitato il controllo granulare degli accessi e configurato Amazon Bedrock per la connessione al OpenSearch Servizio, puoi configurare le autorizzazioni utilizzando il link OpenSearch Dashboards per ogni dominio. OpenSearch 

**Per configurare le autorizzazioni per un dominio per consentire l’accesso ad Amazon Bedrock:**

1. Apri la OpenSearch dashboard per il OpenSearch dominio con cui vuoi lavorare. Per trovare il link alle dashboard, vai al dominio che hai creato nella console di OpenSearch servizio. Per i domini in esecuzione OpenSearch, l'URL ha il formato,. `domain-endpoint/_dashboards/` Per ulteriori informazioni, consulta [Dashboards](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/dashboards.html) nella *guida per sviluppatori OpenSearch di Amazon Service*.

1. Nella OpenSearch Dashboard, scegli **Sicurezza**, quindi scegli **Ruoli**.

1. Scegli **Crea ruolo**.

1. Assegna un nome al ruolo, ad esempio **kb\$1opensearch\$1role**.

1. In **Autorizzazioni cluster**, aggiungi le seguenti autorizzazioni:
   + `indices:data/read/msearch`
   + `indices:data/write/bulk*`
   + `indices:data/read/mget*`

1. In **Autorizzazioni indice**, specifica un nome per l’indice vettoriale. Scegli **Crea nuovo gruppo di autorizzazioni**, quindi scegli **Crea nuovo gruppo di azioni**. Aggiungi le seguenti autorizzazioni a un gruppo di azioni, ad esempio `KnowledgeBasesActionGroup`. Aggiungi le seguenti autorizzazioni a un gruppo di azioni.
   + `indices:admin/get`
   + `indices:data/read/msearch`
   + `indices:data/read/search`
   + `indices:data/write/index`
   + `indices:data/write/update`
   + `indices:data/write/delete`
   + `indices:data/write/delete/byquery`
   + `indices:data/write/bulk*`
   + `indices:admin/mapping/put`
   + `indices:data/read/mget*`  
![\[I gruppi di azioni da creare nelle OpenSearch dashboard per aggiungere le autorizzazioni di cluster e indice.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/kb-test-os-action-groups.png)

1. Scegli **Crea** per creare il ruolo. OpenSearch 

Di seguito viene illustrato un OpenSearch ruolo di esempio con le autorizzazioni aggiunte.

![\[Un OpenSearch ruolo di esempio nelle OpenSearch dashboard con le autorizzazioni aggiunte.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/kb-test-os-dashboards-permissions.png)


**Come creare una mappatura dei ruoli in base al ruolo di servizio per Knowledge Base**

1. Identifica il ruolo IAM da mappare.
   + Se hai creato un ruolo IAM personalizzato, puoi copiarne l’ARN dalla console IAM.
   + Se consenti a Knowledge Base di creare automaticamente il ruolo, prendi nota del ruolo ARN quando crei la knowledge base, quindi copialo.

1. Apri la OpenSearch dashboard per il OpenSearch dominio con cui vuoi lavorare. Il formato dell’URL è `domain-endpoint/_dashboards/`.

1. Nel riquadro di navigazione scegli **Sicurezza**.

1. Cerca il ruolo che hai creato nell’elenco, ad esempio **kb\$1opensearch\$1role**, e aprilo.

1. Nella scheda **Utenti mappati**, scegli **Gestisci mappatura**.

1. Nella sezione **Ruoli di backend**, inserisci l'ARN del ruolo IAM gestito per AWS le Knowledge Bases. A seconda che tu abbia creato il tuo ruolo personalizzato o lasciato che Knowledge Base creasse il ruolo per te, copia le informazioni ARN del ruolo dalla console IAM o dalla console Amazon Bedrock, quindi inserisci tali informazioni per i **ruoli di backend** nella console. OpenSearch Di seguito è riportato un esempio.

   ```
   arn:aws:iam::<accountId>:role/service-role/<knowledge-base-service-role>
   ```

1. Scegli **Mappa**.

   Il ruolo del servizio Knowledge Base può ora connettersi al OpenSearch ruolo ed eseguire le operazioni richieste sul dominio e sull'indice.

# Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock
<a name="knowledge-base-create"></a>

Quando crei una knowledge base connettendola a un’origine dati, imposta o specifica quanto segue:
+ Informazioni generali che definiscono e identificano la knowledge base.
+ Il ruolo di servizio con autorizzazioni per la knowledge base.
+ Configurazioni per la knowledge base, incluso il modello di embedding da utilizzare per la conversione dei dati dall’origine dati e le configurazioni di archiviazione per il servizio in cui archiviare gli embedding e, facoltativamente, una ubicazione S3 per l’archiviazione dei dati multimodali.

**Nota**  
Non puoi creare una knowledge base con un utente root. Accedi con un utente IAM prima di iniziare questi passaggi.

Espandi la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="knowledge-base-create-console"></a>

**Come configurare una knowledge base**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli il pulsante Crea, quindi scegli di creare una knowledge base con un archivio vettoriale.

1. (Opzionale) Modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. Scegli un ruolo AWS Identity and Access Management (IAM) che fornisca l'autorizzazione ad Amazon Bedrock per accedere ad altri AWS servizi richiesti. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere di utilizzare un [ruolo personalizzato che hai creato per Analisi Neptune](kb-permissions.md#kb-permissions-neptune).

1. Scegli un’origine dati a cui collegare la tua knowledge base.

1. (Opzionale) Aggiungi tag alla knowledge base. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md).

1. (Opzionale) Configura i servizi per i quali fornire i log delle attività per la tua knowledge base.

1. Vai alla sezione successiva e segui i passaggi illustrati in [Connettere un’origine dati alla knowledge base](data-source-connectors.md) per configurare un’origine dati.

1. Nella sezione **Modello di embedding**, procedi come segue:

   1. Scegli un modello di embedding per convertire i tuoi dati in embedding vettoriali. Per i dati multimodali (immagini, audio e video), seleziona un modello di incorporamento multimodale come Amazon Titan Multimodal Embeddings G1 o Cohere Embed v3.
**Nota**  
Quando usi Amazon Titan Multimodal Embeddings G1, devi fornire un bucket di contenuti S3 e puoi usare solo il parser predefinito. Questo modello è ottimizzato per i casi d'uso nella ricerca di immagini. Per una guida completa sulla scelta tra approcci multimodali, vedere. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

   1. (Facoltativo) Espandi la sezione **Configurazioni aggiuntive** per visualizzare le seguenti opzioni di configurazione (non tutti i modelli supportano tutte le configurazioni):
      + **Tipo di embedding**: scegli se convertire i dati in embedding vettoriali in virgola mobile (float32) (più precisi ma più costosi) o embedding vettoriali binari (meno precisi, ma meno costosi). Per scoprire quali modelli di embedding supportano i vettori binari, consulta la sezione relativa ai [modelli di embedding supportati](knowledge-base-supported.md).
      + **Dimensioni vettoriali**: valori più elevati migliorano l’accuratezza ma aumentano i costi e la latenza.

1. Nella sezione **Database vettoriale**, effettua le seguenti operazioni:

   1. Scegli un archivio vettoriale per archiviare gli embedding vettoriali che verranno utilizzati per la query. Sono disponibili le seguenti opzioni:
      + **Crea rapidamente un nuovo archivio vettoriale**: scegli uno degli archivi vettoriali disponibili per Amazon Bedrock da creare. Puoi anche configurare opzionalmente la crittografia a AWS KMS chiave per il tuo archivio vettoriale.
**Nota**  
Quando utilizzi questa opzione, Amazon Bedrock gestisce automaticamente il posizionamento dei metadati per ogni archivio vettoriale.
        + **Amazon OpenSearch Serverless** — Amazon Bedrock Knowledge Bases crea una raccolta e un indice di ricerca vettoriale Amazon OpenSearch Serverless e la configura con i campi richiesti per te.
        + **Amazon Aurora PostgreSQL Serverless**: Amazon Bedrock configura un archivio vettoriale Amazon Aurora PostgreSQL Serverless. Questo processo prende dati di testo non strutturati da un bucket Amazon S3, li trasforma in blocchi di testo e vettori, quindi li archivia in un database PostgreSQL. Per ulteriori informazioni, consulta [Creazione rapida di una Knowledge Base per Amazon Bedrock di Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.quickcreatekb.html).
        + **Analisi Amazon Neptune:** Amazon Bedrock utilizza tecniche di generazione potenziata da recupero dati (RAG) combinate con grafi per migliorare le applicazioni di IA generativa in modo che gli utenti finali possano ottenere risposte più accurate e complete.
        + **Amazon S3 Vectors:** Knowledge Base per Amazon Bedrock creano un bucket vettoriale S3 e un indice vettoriale che archivieranno gli embedding generati dalle origini dati.

          Puoi creare una knowledge base per Amazon S3 Vectors in tutti gli Regione AWS ambienti in cui sono disponibili sia Amazon Bedrock che Amazon S3 Vectors. Per informazioni sulla disponibilità delle Regioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.
**Nota**  
Quando usi Amazon S3 Vectors con Amazon Bedrock Knowledge Bases, puoi allegare fino a 1 KB di metadati personalizzati (inclusi metadati filtrabili e non filtrabili) e 35 chiavi di metadati per vettore. Per informazioni dettagliate sulle limitazioni dei metadati, consulta in. [Supporto per metadati](knowledge-base-setup.md#metadata-support) [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md)
      + **Scegli un archivio vettoriale che hai creato**: seleziona un archivio vettoriale supportato e identifica i nomi dei campi vettoriali e i nomi dei campi di metadati nell’indice vettoriale. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).
**Nota**  
Se la tua origine dati è un'istanza Confluence SharePoint, Microsoft o Salesforce, l'unico servizio di archiviazione vettoriale supportato è Amazon Serverless. OpenSearch 

   1. (Opzionale) Espandi la sezione **Configurazioni aggiuntive** e modifica le configurazioni pertinenti.

1. Se l’origine dati contiene immagini, specifica un URI Amazon S3 in cui archiviare le immagini che il parser estrarrà dai dati nella **destinazione di archiviazione multimodale**. Le immagini possono essere restituite durante la query. Opzionalmente, puoi anche scegliere una chiave gestita dal cliente anziché quella predefinita per crittografare i tuoi dati. Chiave gestita da AWS
**Nota**  
I dati multimodali sono supportati solo da Amazon S3 e origini dati personalizzate.
**Nota**  
Quando si utilizzano modelli di incorporamento multimodali:  
Amazon Titan Multimodal Embeddings G1 richiede un bucket di contenuti S3 e funziona al meglio con set di dati di sola immagine utilizzando il parser predefinito
Cohere Embed v3 supporta set di dati misti di testo e immagini e può essere utilizzato con qualsiasi configurazione del parser
Per i casi di ricerca di immagini, evita di utilizzare Bedrock Data Automation (BDA) o parser Foundation Model con Titan G1 a causa delle limitazioni dei token
La destinazione di archiviazione multimodale crea copie di file a scopo di recupero, il che può comportare costi di archiviazione aggiuntivi

1. Scegli **Avanti** e rivedi i dettagli della tua knowledge base. Puoi modificare qualsiasi sezione prima di procedere e creare la tua knowledge base.
**Nota**  
Il tempo richiesto per creare la knowledge base dipende dalle configurazioni specifiche. Una volta completata la creazione della knowledge base, lo stato della knowledge base cambia per indicare che è pronta o disponibile.  
Una volta che la knowledge base è pronta e disponibile, sincronizza l’origine dati per la prima volta e ogni volta che desideri aggiornare i contenuti. Scegli la knowledge base nella console, poi scegli **Sincronizza** nella sezione Panoramica dell’origine dati.

## Eliminare con l’API
<a name="knowledge-base-create-api"></a>

Per creare una knowledge base, invia una richiesta [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) con un [endpoint in fase di compilazione Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

**Nota**  
Se preferisci lasciare che Amazon Bedrock crei e gestisca un archivio vettoriale per tuo conto, utilizza la console. Per ulteriori informazioni, espandi la sezione **Utilizzo della console** in questo argomento.

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| nome | Un nome per la knowledge base | 
| roleArn | L’ARN di un [ruolo di servizio di Knowledge Base per Amazon Bedrock](kb-permissions.md). | 
| knowledgeBaseConfiguration | Contiene le configurazioni per la knowledge base. Fai riferimento ai dettagli riportati di seguito. | 
| storageConfiguration | (Richiesto solo se ti connetti a un’origine dati non strutturata). Contiene le configurazioni per il servizio di origine dati scelto. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Una descrizione per la knowledge base. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tag | Associare tag al flusso. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md). | 

Nel `knowledgeBaseConfiguration` campo, che corrisponde a un [KnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseConfiguration.html)oggetto, specificate `VECTOR` nel campo e includete un oggetto. `type` [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html) Nell’oggetto, includi i seguenti campi:
+ `embeddingModelArn`: l’ARN del modello di embedding da utilizzare.
+ `embeddingModelConfiguration`: le configurazioni per il modello di embedding. Per visualizzare i possibili valori che è possibile specificare per ogni modello supportato, consulta [Regioni e modelli supportati per Knowledge Base per Amazon Bedrock](knowledge-base-supported.md).
+ (Se prevedi di includere dati multimodali, che includono immagini, figure, grafici o tabelle, nella tua knowledge base), esegue il `supplementalDataStorageConfiguration` mapping su un [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)oggetto, in cui specifichi la posizione S3 in cui archiviare i dati estratti. Per ulteriori informazioni, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

Nel `storageConfiguration` campo, che corrisponde a un [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)oggetto, specifica l'archivio vettoriale a cui intendi connetterti nel `type` campo e includi il campo che corrisponde a quell'archivio vettoriale. Consulta ogni tipo di configurazione dell'archivio vettoriale all'indirizzo [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)per i dettagli sulle informazioni che devi fornire.

Di seguito viene illustrato un esempio di richiesta per creare una knowledge base connessa a una raccolta Amazon OpenSearch Serverless. I dati provenienti da fonti di dati connesse verranno convertiti in incorporamenti vettoriali binari con Amazon Titan Text Embeddings V2 e i dati multimodali estratti dal parser sono configurati per essere archiviati in un bucket chiamato. *MyBucket*

```
PUT /knowledgebases/ HTTP/1.1
Content-type: application/json

{
   "name": "MyKB",
   "description": "My knowledge base",
   "roleArn": "arn:aws:iam::111122223333:role/service-role/AmazonBedrockExecutionRoleForKnowledgeBase_123",
   "knowledgeBaseConfiguration": {
      "type": "VECTOR",
      "vectorKnowledgeBaseConfiguration": { 
         "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-embed-text-v2:0",
         "embeddingModelConfiguration": { 
            "bedrockEmbeddingModelConfiguration": { 
               "dimensions": 1024,
               "embeddingDataType": "BINARY"
            }
         },
         "supplementalDataStorageConfiguration": { 
            "storageLocations": [ 
               { 
                  "s3Location": { 
                     "uri": "arn:aws:s3:::MyBucket"
                  },
                  "type": "S3"
               }
            ]
         }
      }
   },
   "storageConfiguration": { 
      "opensearchServerlessConfiguration": { 
         "collectionArn": "arn:aws:aoss:us-east-1:111122223333:collection/abcdefghij1234567890",
         "fieldMapping": { 
            "metadataField": "metadata",
            "textField": "text",
            "vectorField": "vector"
         },
         "vectorIndexName": "MyVectorIndex"
      }
   }
}
```

**Topics**
+ [Connettere un’origine dati alla knowledge base](data-source-connectors.md)
+ [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md)
+ [Definire le configurazioni di sicurezza per una knowledge base](kb-create-security.md)

# Connettere un’origine dati alla knowledge base
<a name="data-source-connectors"></a>

Dopo aver completato le configurazioni per la knowledge base, connettere alla knowledge base un’origine dati supportata.

Knowledge Base per Amazon Bedrock supporta la connessione a origini dati non strutturate o ad archivi di dati strutturati tramite un motore di query. Selezionare un argomento per scoprire come connettersi a quel tipo di origine dati:

**Supporto di contenuti multimodali**  
I contenuti multimodali (immagini, file audio e video) sono supportati solo con Amazon S3 e origini dati personalizzate. Altri tipi di fonti di dati ignoreranno i file multimodali durante l'ingestione. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per informazioni su come connettersi a un’origine dati utilizzando la console Amazon Bedrock, selezionare l’argomento corrispondente al tipo di origine dati in fondo a questa pagina:

Per connetterti a un'origine dati utilizzando l'API Amazon Bedrock, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta con un endpoint di [runtime Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| knowledgeBaseId | L’ID della knowledge base. | 
| nome | Un nome per la knowledge base. | 
| dataSourceConfiguration | Specifica il tipo o il servizio di origine dati nel campo type e include il campo corrispondente. Per ulteriori dettagli sulle configurazioni specifiche del servizio, selezionare l’argomento relativo al servizio dagli argomenti in fondo a questa pagina. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| vectorIngestionConfiguration | Contiene configurazioni per personalizzare il processo di ingestione. Per ulteriori informazioni, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Per specificare se recuperare con RETAIN gli embedding vettoriali nell’archivio vettoriale oppure se eliminarli con DELETE. | 
| serverSideEncryptionConfigurazione | Per crittografare i dati transitori durante la sincronizzazione dei dati con una chiave gestita dal cliente, specifica il relativo ARN nel campo kmsKeyArn. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Selezionare un argomento per saperne di più su un servizio e sulla sua configurazione.

**Topics**
+ [Connettersi ad Amazon S3 per una knowledge base](s3-data-source-connector.md)
+ [Connettersi a Confluence per utilizzare la knowledge base](confluence-data-source-connector.md)
+ [Connect a Microsoft SharePoint per la tua knowledge base](sharepoint-data-source-connector.md)
+ [Connettersi a Salesforce per una knowledge base](salesforce-data-source-connector.md)
+ [Crawling di pagine web per la knowledge base](webcrawl-data-source-connector.md)
+ [Connessione della knowledge base a un’origine dati personalizzata](custom-data-source-connector.md)

# Connettersi ad Amazon S3 per una knowledge base
<a name="s3-data-source-connector"></a>

Amazon S3 è un servizio che consente di archiviare dati come oggetti nei bucket. [Puoi connetterti al tuo bucket Amazon S3 per la tua knowledge base di Amazon Bedrock utilizzando la [AWSconsole di gestione per Amazon Bedrock o l'API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)(vedi Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) supportata e). SDKs AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)

**Supporto di contenuti multimodali**  
Le sorgenti dati Amazon S3 supportano contenuti multimodali tra cui immagini, file audio e video. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Puoi caricare un batch ridotto di file in un bucket Amazon S3 utilizzando la console Amazon S3 o l’API. In alternativa, puoi [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html)utilizzarlo per caricare più file su S3 in modo continuo e trasferire file secondo una pianificazione da locale, edge, altro cloud o storage. AWS

Attualmente sono supportati solo i bucket S3 per uso generico.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-s3-connector)
+ [Prerequisiti](#prerequisites-s3-connector)
+ [Configurazione della connessione](#configuration-s3-connector)

## Funzionalità supportate
<a name="supported-features-s3-connector"></a>
+ Campi di metadati dei documenti
+ Prefissi di inclusione
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni

## Prerequisiti
<a name="prerequisites-s3-connector"></a>

**In Amazon S3, verifica quanto segue**:
+ Annota l’URI del bucket Amazon S3, il nome della risorsa Amazon (ARN) e l’ID dell’account AWS per il proprietario del bucket. Puoi trovare l’URI e l’ARN nella sezione delle proprietà della console Amazon S3. Il bucket deve trovarsi nella stessa Regione di Knowledge Base per Amazon Bedrock. È necessario disporre dell’autorizzazione per accedere al bucket.

**Nel tuo AWS account, assicurati di**:
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi creare IAM automaticamente il ruolo con tutte le autorizzazioni richieste come parte dei passaggi per la creazione di una knowledge base. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.

## Configurazione della connessione
<a name="configuration-s3-connector"></a>

Per connetterti al bucket Amazon S3, devi fornire le informazioni di configurazione necessarie per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-s3-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sui filtri di inclusione/esclusione, sui campi di metadati dei documenti, sulla sincronizzazione incrementale e sul relativo funzionamento, consulta le sezioni seguenti:

### Campi di metadati dei documenti
<a name="ds-s3-metadata-fields"></a>

Puoi includere un file separato che specifica i metadati del documento fields/attributes per ogni file nella tua origine dati Amazon S3 e se includerli negli incorporamenti durante l'indicizzazione della fonte di dati nel vector store. Ad esempio, puoi creare un file nel seguente formato, assegnargli un nome *fileName.extension.metadata.json* e caricarlo nel tuo bucket S3.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Il file di metadati deve utilizzare lo stesso nome del file del documento di origine associato, con la dicitura `.metadata.json` aggiunta alla fine del nome del file. Il file di metadati deve essere archiviato nella stessa cartella o nello stesso percorso del file di origine nel bucket Amazon S3. Il file non deve superare il limite di 10 KB. [Per informazioni sui tipi di attribute/field dati supportati e sugli operatori di filtro che puoi applicare ai campi di metadati, consulta Metadati e filtri.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Prefissi di inclusione
<a name="ds-s3-inclusion-exclusion"></a>

Puoi specificare un prefisso di inclusione, ovvero un prefisso di percorso Amazon S3, in cui utilizzare un file o una cartella S3 anziché l’intero bucket per creare il connettore delle origini dati S3.

### Sincronizzazione incrementale
<a name="ds-s3-incremental-sync"></a>

Il connettore per le sorgenti dati esegue la ricerca per indicizzazione dei contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la knowledge base. Amazon Bedrockpuò utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Come connettersi a un bucket Amazon S3 per una knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Amazon S3** come origine dati.

1. Fornisci un nome per l’origine dati.

1. Specificate se il bucket Amazon S3 si trova nel vostro AWS account corrente o in un altro account. AWS Il bucket deve trovarsi nella stessa Regione della knowledge base.

1. (Facoltativo) Se il bucket Amazon S3 è crittografato con una chiave KMS, includi la chiave. Per ulteriori informazioni, consulta [Autorizzazioni per decrittografare la AWS KMS chiave per le fonti di dati in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita o con la tua chiave KMS. Chiave gestita da AWS Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione ad Amazon S3 per Knowledge Base per Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Connettersi a Confluence per utilizzare la knowledge base
<a name="confluence-data-source-connector"></a>

Atlassian Confluence è uno strumento collaborativo di gestione del lavoro progettato per condividere, archiviare e lavorare sulla pianificazione dei progetti, sullo sviluppo del software e sulla gestione dei prodotti. Per connetterti all’istanza di Confluence corrente per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) API (consulta gli [SDK supportati e la AWS CLI di Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore dell’origine dati in Confluence è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Confluence non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze di Confluence Cloud. Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB dei file che possono essere sottoposti a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-confluence-connector)
+ [Prerequisiti](#prerequisites-confluence-connector)
+ [Configurazione della connessione](#configuration-confluence-connector)

## Funzionalità supportate
<a name="supported-features-confluence-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0 e autenticazione con token API Confluence

## Prerequisiti
<a name="prerequisites-confluence-connector"></a>

**In Confluence, assicurati di**:
+ Prendere nota dell’URL dell’istanza di Confluence, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.
+ Configurare le credenziali di autenticazione di base contenenti un nome utente (indirizzo e-mail dell’account amministratore) e una password (token API Confluence) per consentire ad Amazon Bedrock di connettersi all’istanza di Confluence Cloud corrente. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
+ (Facoltativo) Configurare un’applicazione OAuth 2.0 con le credenziali di una chiave e di un segreto dell’app, di un token di accesso e di uno di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.
+ Abilitare determinati ambiti o autorizzazioni di lettura per consentire all’app OAuth 2.0 di connettersi a Confluence.

  API Confluence:
  + offline\$1access
  + read:content:confluence: consente di visualizzare i contenuti dettagliati 
  + read:content-details:confluence: consente di visualizzare i dettagli del contenuto 
  + read:space-details:confluence: consente di visualizzare i dettagli dello spazio
  + read:audit-log:confluence: consente di visualizzare i record di audit 
  + read:page:confluence: consente di visualizzare le pagine 
  + read:attachment:confluence: consente di visualizzare e di scaricare gli allegati al contenuto 
  + read:blogpost:confluence: consente di visualizzare i post di blog 
  + read:custom-content:confluence: consente di visualizzare contenuto personalizzato 
  + read:comment:confluence: consente di visualizzare i commenti 
  + read:template:confluence: consente di visualizzare i modelli di contenuto 
  + read:label:confluence: consente di visualizzare le etichette 
  + read:watcher:confluence: consente di visualizzare gli osservatori del contenuto 
  + read:relation:confluence: consente di visualizzare le relazioni tra entità 
  + read:user:confluence: consente di visualizzare i dettagli dell’utente 
  + read:configuration:confluence: consente di visualizzare le impostazioni di Confluence 
  + read:space:confluence: consente di visualizzare i dettagli dello spazio 
  + read:space.property:confluence: consente di visualizzare le proprietà dello spazio 
  + read:user.property:confluence: consente di visualizzare le proprietà dell’utente 
  + read:space.setting:confluence: consente di visualizzare le impostazioni dello spazio 
  + read:analytics.content:confluence: consente di visualizzare l’analisi del contenuto
  + read:content.property:confluence: consente di visualizzare le proprietà del contenuto
  + read:content.metadata:confluence: consente di visualizzare i riepiloghi del contenuto 
  + read:inlinetask:confluence: consente di visualizzare le attività 
  + read:task:confluence: consente di visualizzare le attività 
  + read:whiteboard:confluence: consente di visualizzare le lavagne 
  + read:app-data:confluence: consente di leggere i dati dell’app 
  + read:folder:confluence: consente di visualizzare le cartelle
  + read:embed:confluence: consente di visualizzare i dati Smartlink

**Nell’account AWS, assicurati di**:
+ Archiviare le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e di prendere nota del nome della risorsa Amazon (ARN) del segreto stesso. Seguire le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includere le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se si utilizza la console, è possibile andare in Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Sarebbe opportuno aggiornare o ruotare regolarmente le credenziali e il segreto e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-confluence-connector"></a>

Per connettersi all’istanza di Confluence corrente, è necessario fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-confluence-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione segrete e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-confluence-document-fields"></a>

Il connettore dell’origine dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore dell’origine dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-confluence-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Space`: chiave dello spazio univoca
+ `Page`: titolo principale della pagina
+ `Blog`: titolo principale del blog
+ `Comment`: commenti che appartengono a una pagina oppure a un blog specifico. Specificare *Re: Titolo pagina/blog*
+ `Attachment`: nome del file allegato con relativa estensione

### Sincronizzazione incrementale
<a name="ds-confluence-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica della console.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-confluence-secret-auth-credentials"></a>

(Se si utilizza l’autenticazione di base) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `username`: *indirizzo e-mail dell’utente amministratore dell’account Atlassian*
+ `password`: *token API Confluence*

(Se si utilizza l’autenticazione OAuth 2.0) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `confluenceAppKey`: *chiave dell’app*
+ `confluenceAppSecret`: *segreto dell’app*
+ `confluenceAccessToken`: *token di accesso all’app*
+ `confluenceRefreshToken`: *token di aggiornamento dell’app*

**Nota**  
Il token di **accesso** OAuth2.0 per Confluence ha una scadenza predefinita di 60 minuti. Se il token di accesso scade durante la sincronizzazione dell’origine dati (processo di sincronizzazione), Amazon Bedrock utilizza il token di **aggiornamento** fornito per rigenerarlo. In questo caso vengono rigenerati sia i token di accesso sia quelli di aggiornamento. Per mantenere i token aggiornati dal processo di sincronizzazione corrente a quello successivo, Amazon Bedrock richiede le autorizzazioni di scrittura/immissione per le credenziali segrete nell’ambito del ruolo IAM della knowledge base.

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza di Confluence alla knowledge base**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Confluence** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Indica l’URL dell’istanza di Confluence corrente, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori**: è possibile crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti all’istanza di Confluence corrente:
   + Per l’autenticazione di base, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere l’indirizzo e-mail dell’utente amministratore dell’account Atlassian come nome utente e un token API Confluence come password. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
   + Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere la chiave dell’app Confluence, il segreto dell’app, il token di accesso e quello di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Confluence Cloud per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect a Microsoft SharePoint per la tua knowledge base
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint è un servizio collaborativo basato sul Web per lavorare su documenti, pagine Web, siti Web, elenchi e altro ancora. Puoi connetterti alla tua SharePoint istanza per la tua knowledge base di Amazon Bedrock utilizzando la [console di AWS gestione per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l'[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API (vedi Amazon Bedrock [supportata SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) e). AWS CLI

**Nota**  
SharePoint il connettore di origine dati è in versione di anteprima ed è soggetto a modifiche.  
Le origini SharePoint dati Microsoft non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze SharePoint online. La scansione dei OneNote documenti non è attualmente supportata. Attualmente, solo Amazon OpenSearch Serverless Vector Store è disponibile per l'uso con questa fonte di dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-sharepoint-connector)
+ [Prerequisiti](#prerequisites-sharepoint-connector)
+ [Configurazione della connessione](#configuration-sharepoint-connector)

## Funzionalità supportate
<a name="supported-features-sharepoint-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ SharePoint Autenticazione solo tramite app

## Prerequisiti
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**In SharePoint (Online), completa i seguenti passaggi per utilizzare l'autenticazione SharePoint solo per app:**
+ Prendi nota dell'URL del tuo sito SharePoint Online/. URLs Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. È possibile trovare l’ID del tenant nelle proprietà del portale di Microsoft Entra. Per i dettagli, consulta [Trova il tuo ID tenant di Microsoft 365](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Configura le SharePoint credenziali solo per le app.
+ Copia l'ID client e il valore segreto del client quando concedi l'autorizzazione a App-Only. SharePoint Per ulteriori informazioni, consulta [Concessione](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) dell'accesso tramite App-Only. SharePoint 
**Nota**  
Non è necessario configurare alcuna autorizzazione API per App-Only. SharePoint Tuttavia, è necessario configurare le autorizzazioni APP sul lato. SharePoint Per ulteriori informazioni sulle autorizzazioni APP richieste, consulta la documentazione Microsoft sulla [concessione dell'accesso tramite SharePoint ](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) App-Only.

### Account AWS
<a name="prerequisites-sharepoint-connector-account"></a>

**Nel tuo AWS account, assicurati** di:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi andare Gestione dei segreti AWS a aggiungere il tuo segreto o utilizzare un segreto esistente come parte della fase di configurazione dell'origine dati. Il IAM ruolo con tutte le autorizzazioni richieste può essere creato automaticamente come parte dei passaggi della console per la creazione di una knowledge base. Dopo aver configurato l'origine dati e altre configurazioni, il IAM ruolo con tutte le autorizzazioni richieste viene applicato alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-sharepoint-connector"></a>

Per connetterti alla tua SharePoint istanza, devi fornire le informazioni di configurazione necessarie in modo che Amazon Bedrock possa accedere ai tuoi dati ed eseguirne la scansione. nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-sharepoint-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-sharepoint-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i tuoi contenuti includono informazioni sensibili, allora Amazon Bedrock potrebbe rispondere utilizzando informazioni sensibili.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-sharepoint-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, Ad esempio, puoi specificare un modello di prefix/regular espressione di esclusione per evitare la scansione di qualsiasi file che contenga «privato» nel nome del file. È inoltre possibile specificare un modello di prefix/regular espressione di inclusione per includere determinate entità di contenuto o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

È possibile applicare inclusion/exclusion filtri ai seguenti tipi di contenuto:
+ `Page`: titolo principale della pagina
+ `Event`: nome dell’evento
+ `File`: nome del file con la relativa estensione per gli allegati e tutti i file del documento

La scansione OneNote dei documenti non è attualmente supportata.

### Sincronizzazione incrementale
<a name="ds-sharepoint-incremental-sync"></a>

Il connettore di origine dati esegue la ricerca per indicizzazione di contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la Knowledge Base. Amazon Bedrock può utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-sharepoint-secret-auth-credentials"></a>

Quando si utilizza l'autenticazione SharePoint solo per app, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Nota**  
L'accesso segreto Gestione dei segreti AWS deve utilizzare la stessa regione della knowledge base.

------
#### [ Console ]

**Connect un' SharePoint istanza alla knowledge base**<a name="connect-sharepoint-console"></a>

1. Segui i passaggi indicati [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **SharePoint**come fonte di dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l'URL SharePoint del tuo sito/URLs. Ad esempio, per SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*

1. Fornisci il nome di dominio della tua SharePoint istanza.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita Chiave gestita da AWS o con la tua chiave KMS. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza. SharePoint Per l' SharePoint autenticazione solo tramite app:

   1. Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.

   1. Vai Gestione dei segreti AWS a per aggiungere le tue credenziali segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere l'ID SharePoint cliente e il segreto SharePoint client generati quando hai registrato l'app App-Only a livello di tenant o a livello di sito, e l'ID client Entra e il segreto client Entra generati quando registri l'app in Entra.

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegliete di utilizzare modelli di filters/regular espressioni per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a SharePoint Online per la tua knowledge base Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Importante**  
L'autenticazione OAuth2 2.0 non è consigliata. Ti consigliamo di utilizzare l'autenticazione solo per SharePoint app.

## Utilizzo di 0. OAuth2
<a name="sharepoint-connector-oauth"></a>

Utilizzando OAuth 2.0, è possibile autenticare e autorizzare l'accesso alle SharePoint risorse per i SharePoint connettori integrati con le Knowledge Base.

### Prerequisiti
<a name="sharepoint-connector-oauth-prereq"></a>

**In SharePoint, per l'autenticazione OAuth 2.0, assicurati** di:
+ Prendi nota dell'URL del tuo sito SharePoint Online/URLs. Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. Puoi trovare il tuo ID tenant nelle Proprietà del tuo portale Microsoft Entra o nella tua OAuth applicazione.

  Prendi nota del nome utente e della password dell' SharePointaccount amministratore e copia l'ID cliente e il valore del segreto del cliente durante la registrazione di un'applicazione.
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Alcune autorizzazioni di lettura sono necessarie per connettersi SharePoint quando si registra un'applicazione.
  + SharePoint: AllSites .Read (delegato): legge gli elementi in tutte le raccolte del sito
+ Potrebbe essere necessario disattivare le **impostazioni di sicurezza predefinite** nel portale di Azure utilizzando un utente amministratore. Per altre informazioni sulla gestione delle impostazioni di sicurezza predefinite nel portale di Azure, consulta la [documentazione Microsoft su come impostare le impostazioni di enable/disable sicurezza predefinite](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Potrebbe essere necessario disattivare l'autenticazione a più fattori (MFA) nel SharePoint tuo account, in modo che Amazon Bedrock non sia bloccato dalla scansione dei tuoi contenuti. SharePoint 

Per completare i prerequisiti, verifica di aver completato la procedura in [Account AWS](#prerequisites-sharepoint-connector-account).

### Credenziali di autenticazione dei segreti
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Per la configurazione della connessione per OAuth2 .0, è possibile eseguire gli stessi passaggi per il rilevamento automatico dei campi del documento principale, dei inclusion/exclusion filtri e della sincronizzazione incrementale, come descritto in. [Configurazione della connessione](#configuration-sharepoint-connector)

**Per l'autenticazione OAuth 2.0, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Connect un' SharePoint istanza alla knowledge base
<a name="sharepoint-connector-oauth-using"></a>

Per connettere un' SharePoint istanza alla tua knowledge base quando usi OAuth2 .0:
+ (console) Nella console, segui gli stessi passaggi descritti in [Connect a SharePoint instance to your knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console). Quando desideri fornire le informazioni di autenticazione per connetterti alla tua SharePoint istanza.
  + Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.
  + Vai Gestione dei segreti AWS a per aggiungere le tue credenziali di autenticazione segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere il nome utente e la password dell' SharePoint amministratore, l'ID client e il segreto del client dell'app registrata. Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn.
+ (API) Di seguito è riportato un esempio di utilizzo dell'`CreateDataSource`API per creare un'origine dati con le informazioni di connessione per OAuth2 .0.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Connettersi a Salesforce per una knowledge base
<a name="salesforce-data-source-connector"></a>

Salesforce è uno strumento di gestione delle relazioni con i clienti (CRM, Customer Relationship Management) per la gestione dei team di supporto, vendita e marketing. Per connetterti all’istanza Salesforce per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (consulta gli [SDK supportati di Amazon Bedrock e la AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore delle origini dati in Salesforce è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Salesforce non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-salesforce-connector)
+ [Prerequisiti](#prerequisites-salesforce-connector)
+ [Configurazione della connessione](#configuration-salesforce-connector)

## Funzionalità supportate
<a name="supported-features-salesforce-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0

## Prerequisiti
<a name="prerequisites-salesforce-connector"></a>

**In Salesforce, verifica quanto segue**:
+ Prendi nota dell’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.
+ Crea un’app connessa Salesforce e configura le credenziali del client. Quindi, per l’app selezionata, copia la chiave utente (ID client) e il segreto utente (segreto del cliente) dalle impostazioni OAuth. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Nota**  
Per le app connesse Salesforce, in Client Credentials Flow, assicurati di cercare e selezionare il nome o l’alias dell’utente per le credenziali del client nel campo “Run As”.

**Nell’account AWS, verifica quanto segue**:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se utilizzi la console, è possibile passare ad Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-salesforce-connector"></a>

Per connetterti all’istanza di Salesforce corrente, devi fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-salesforce-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-salesforce-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-salesforce-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare le campagne che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Account`: numero/identificatore dell’account
+ `Attachment`: nome del file allegato con relativa estensione
+ `Campaign`: nome della campagna e identificatori associati
+ `ContentVersion`: versione del documento e identificatori associati
+ `Partner`: campi di informazioni partner, inclusi gli identificatori associati
+ `Pricebook2`: nome del prodotto/listino prezzi
+ `Case`: numero di richiesta/problema del cliente e altri campi informativi, compresi gli identificatori associati (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contact`: campi informativi sul cliente (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contract`: nome del contratto e identificatori associati
+ `Document`: nome del file con relativa estensione
+ `Idea`: campi informativi sull’idea e identificatori associati
+ `Lead`: campi informativi su nuovi clienti potenziali (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Opportunity`: campi informativi sulla vendita o sull’offerta in sospeso e identificatori associati
+ `Product2`: campi informativi sul prodotto e identificatori associati
+ `Solution`: nome della soluzione per la richiesta/problema di un cliente e identificatori associati
+ `Task`: campi informativi sull’attività e identificatori associati
+ `FeedItem`: identificatore del post del feed di chat
+ `FeedComment`: identificatore del post del feed di chat a cui appartengono i commenti
+ `Knowledge__kav`: titolo dell’articolo della knowledge base
+ `User`: alias utente all’interno dell’organizzazione
+ `CollaborationGroup`: nome del gruppo di chat (univoco)

### Sincronizzazione incrementale
<a name="ds-salesforce-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizza l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o seleziona la knowledge base nella console, quindi scegli **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione dei segreti
<a name="ds-salesforce-secret-auth-credentials"></a>

(Per l’autenticazione OAuth 2.0) Le credenziali di autenticazione dei segreti in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `consumerKey`: *ID del client dell’app*
+ `consumerSecret`: *segreto del client dell’app*
+ `authenticationUrl`: *URL dell’istanza Salesforce o URL da cui richiedere il token di autenticazione*

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza Salesforce alla knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Salesforce** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la chiave Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza Salesforce:

   1. Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il tuo segreto deve contenere la chiave utente (ID cliente) dell’app connessa Salesforce, il segreto utente (segreto del cliente) e l’URL dell’istanza Salesforce o l’URL da cui richiedere il token di autenticazione. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Salesforce per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawling di pagine web per la knowledge base
<a name="webcrawl-data-source-connector"></a>

Il crawler web fornito da Amazon Bedrock si connette agli URL che hai selezionato per l’uso in Knowledge Base per Amazon Bedrock e ne esegue il crawling. Puoi eseguire il crawling delle pagine del sito web in base all’ambito o ai limiti impostati per gli URL selezionati. Puoi eseguire il crawling delle pagine dei siti web utilizzando la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (vedi [SDK supportati da Amazon Bedrock e AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

**Nota**  
Il connettore dell’origine dati del crawler web è disponibile nella versione di anteprima ed è soggetto a modifiche.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling e devi rispettare le configurazioni di robots.txt.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Esistono limiti al numero di elementi di contenuto delle pagine web e ai MB per elemento di contenuto che possono essere sottoposti a crawling. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-webcrawl-connector)
+ [Prerequisiti](#prerequisites-webcrawl-connector)
+ [Configurazione della connessione](#configuration-webcrawl-connector)

## Funzionalità supportate
<a name="supported-features-webcrawl-connector"></a>

Il crawler web si connette alle pagine HTML e le scansiona a partire dall’URL iniziale, attraversando tutti i link secondari all’interno dello stesso dominio e percorso primari. Se una delle pagine HTML fa riferimento a documenti supportati, il crawler web recupererà tali documenti, indipendentemente dal fatto che si trovino all’interno dello stesso dominio primario. Puoi modificare il comportamento del crawling modificando la configurazione della scansione. Consulta [Configurazione della connessione](#configuration-webcrawl-connector).

Quanto segue è supportato per:
+ Seleziona più URL di origine da sottoporre a scansione e imposta l’ambito degli URL in modo che eseguano il crawling solo dell’host o includano anche i sottodomini.
+ Scansiona le pagine web statiche che fanno parte degli URL di origine.
+ Specifica il suffisso User Agent personalizzato per impostare le regole per il tuo crawler.
+ Includi o escludi determinati URL che corrispondono a un modello di filtro.
+ Rispetta le direttive robots.txt standard come “Allow” and “Disallow”.
+ Limita l’ambito degli URL al crawling e, facoltativamente, escludi gli URL che corrispondono a uno schema di filtro.
+ Limita la velocità di crawling degli URL e il numero massimo di pagine da sottoporre a crawling.
+ Visualizza lo stato degli URL sottoposti a crawling in Amazon CloudWatch.

## Prerequisiti
<a name="prerequisites-webcrawl-connector"></a>

**Per utilizzare il crawler web, assicurati di**:
+ Verifica di avere l’autorizzazione a eseguire la scansione degli URL di origine.
+ Verifica che il percorso di robots.txt corrispondente agli URL di origine non impedisca il crawling degli URL. Il crawler web aderisce agli standard di robots.txt: `disallow` per impostazione predefinita se robots.txt non viene trovato per il sito web. Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Puoi anche specificare il suffisso di intestazione User Agent personalizzato per impostare le regole per il tuo crawler. Per ulteriori informazioni, consulta l’accesso all’URL del crawler web nelle istruzioni [Configurazione della connessione](#configuration-webcrawl-connector) di questa pagina.
+ [Abilita la distribuzione di CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) e segui gli esempi del crawler web per visualizzare lo stato del processo di importazione dei dati per l’acquisizione di contenuti web e se determinati URL non possono essere recuperati.

**Nota**  
Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

## Configurazione della connessione
<a name="configuration-webcrawl-connector"></a>

Per ulteriori informazioni sull’ambito di sincronizzazione per il crawling degli URL, i filtri di inclusione/esclusione, l’accesso agli URL, la sincronizzazione incrementale e su come funzionano, seleziona quanto segue:

### Ambito di sincronizzazione per gli URL di crawling
<a name="ds-sync-scope"></a>

Puoi limitare l’ambito degli URL da sottoporre a crawling in base alla relazione specifica tra l’URL di ogni pagina e gli URL iniziali. Per crawling più rapidi, puoi limitare gli URL a quelli con lo stesso host e lo stesso percorso URL iniziale dell’URL iniziale. Per crawling più ampi, puoi scegliere di eseguire il crawling degli URL con lo stesso host o all’interno di qualsiasi sottodominio dell’URL iniziale.

Puoi scegliere tra le opzioni riportate di seguito.
+ Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
+ Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
+ Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.

**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

Il crawler web supporta siti web statici.

Puoi anche limitare la velocità di crawling degli URL per controllare la limitazione (della larghezza di banda della rete) della velocità di crawling. Imposti il numero massimo di URL sottoposti a crawling per host al minuto. Inoltre, puoi anche impostare il numero massimo (fino a 25.000) di pagine web totali da sottoporre a crawling. Tieni presente che se il numero totale di pagine web dagli URL di origine supera il massimo impostato, il processo di sincronizzazione/importazione dell’origine dati avrà esito negativo.

### Filtri di inclusione/esclusione
<a name="ds-inclusion-exclusion"></a>

Puoi includere o escludere determinati URL in base al tuo ambito. I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file. Se specifichi un filtro di inclusione ed esclusione ed entrambi corrispondono a un URL, il filtro di esclusione ha la precedenza e il contenuto web non viene sottoposto a crawling.

**Importante**  
Vengono rifiutati i filtri problematici basati su modelli di espressioni regolari che portano a [backtracking e previsioni catastrofici](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/).

“Esempio di pattern di filtro basato su espressione regolare per escludere gli URL con estensione “.pdf” o allegati PDF di pagine web”: *".\$1\$1.pdf\$1"*

### Accesso all’URL del crawler web
<a name="ds-webcrawl-identity-crawling"></a>

Puoi utilizzare il crawler web per eseguire il crawling delle pagine dei siti web per i quali hai l’autorizzazione a eseguire il crawling.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Puoi specificare determinati bot user agent per consentire (“Allow”) o negare (“Disallow”) al rispettivo user agent di eseguire il crawling dei tuoi URL di origine. Puoi modificare il file robots.txt del tuo sito web per controllare il modo in cui il crawler web esegue il crawling degli URL di origine. Il crawler cercherà prima le regole `bedrockbot-UUID ` e poi le regole `bedrockbot` generiche nel file robots.txt.

Puoi anche aggiungere un suffisso User-Agent che può essere utilizzato per inserire il crawler nella lista consentita nei sistemi di protezione dai bot. Nota che non è necessario aggiungere questo suffisso al file `robots.txt` per assicurarsi che nessuno possa impersonare la stringa User Agent. Ad esempio, per consentire al crawler web di eseguire il crawling di tutto il contenuto del sito web e impedire il crawling per altri robot, utilizza la seguente direttiva:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Sincronizzazione incrementale
<a name="ds-incremental-sync"></a>

Ogni volta che viene eseguito, il crawler web recupera il contenuto di tutti gli URL raggiungibili dagli URL di origine che corrispondono all’ambito e ai filtri. Per le sincronizzazioni incrementali dopo la prima sincronizzazione di tutti i contenuti, Amazon Bedrock aggiornerà la knowledge base con contenuti nuovi e modificati e rimuoverà i vecchi contenuti non più presenti. Occasionalmente, il crawler potrebbe non essere in grado di determinare se un contenuto è stato rimosso dal sito web; in tal caso, opterà per la conservazione del contenuto precedente nella tua knowledge base.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Connettiti a un’origine dati a cui collegare il crawler web per la tua knowledge base.**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Crawler web** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci gli **URL di origine** degli URL che desideri sottoporre a crawling. Puoi aggiungere fino a nove URL aggiuntivi selezionando **Aggiungi URL di origine**. Fornendo un URL di origine, confermi di avere l’autorizzazione a eseguire il crawling del relativo dominio.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. (Opzionale) Fornisci un suffisso user agent per **bedrock-UUID-**, che identifichi il crawler o il bot quando accede a un server web.

1. Configurate quanto segue nella sezione **Ambito di sincronizzazione**:

   1. Seleziona un **intervallo di domini del sito web** per il crawling degli URL di origine:
      + Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
      + Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
      + Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.
**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

   1. Immetti la **Limitazione (della larghezza di banda della rete) massima della velocità di crawling**. Importa URL compresi tra 1 e 300 URL per host al minuto. Una velocità di crawling più elevata aumenta il carico ma richiede meno tempo.

   1. Inserisci un **numero massimo di pagine per la sincronizzazione delle origini dati** compreso tra 1 e 25.000. Limita il numero massimo di pagine web sottoposta a crawling dagli URL di origine. Se le pagine web superano questo numero, la sincronizzazione delle origini dati avrà esito negativo e non verrà importata alcuna pagina web. 

   1. Per i modelli **Regex URL** (opzionale) puoi aggiungere **Includi modelli** o **Escludi modelli** inserendo il modello di espressione regolare nella casella. Puoi aggiungere fino a 25 modelli di filtro di inclusione e 25 di esclusione selezionando **Aggiungi nuovo modello**. I modelli di inclusione ed esclusione vengono sottoposti a crawling in base all’ambito. In caso di conflitto, il modello di esclusione ha la precedenza.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Per connettere una knowledge base a un’origine dati utilizzando il crawler web, invia una richiesta [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specifica `WEB` nel campo `type` di [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) e includi il campo `webConfiguration`. Di seguito è riportato un esempio di configurazione di crawler web per Knowledge Base per Amazon Bedrock.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

------

# Connessione della knowledge base a un’origine dati personalizzata
<a name="custom-data-source-connector"></a>

Invece di scegliere un servizio di origine dati supportato, puoi connetterti a un’origine dati personalizzata per ottenere i seguenti vantaggi:
+ Flessibilità e controllo sui tipi di dati a cui desideri che la tua knowledge base abbia accesso.
+ La possibilità di utilizzare le operazioni API `KnowledgeBaseDocuments` per importare o eliminare direttamente i documenti senza necessità di sincronizzare le modifiche.
+ La possibilità di visualizzare i documenti nell’origine dati direttamente tramite la console o l’API Amazon Bedrock.
+ La possibilità di caricare documenti nella fonte dati direttamente in Console di gestione AWS o di aggiungerli in linea.
+ La possibilità di aggiungere metadati direttamente a ciascun documento durante l’aggiunta o l’aggiornamento di un documento nell’origine dati. Per ulteriori informazioni su come utilizzare i metadati per il filtraggio durante il recupero di informazioni da un’origine dati, consulta la scheda **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Supporto di contenuti multimodali**  
Le fonti di dati personalizzate supportano contenuti multimodali tra cui immagini, file audio e video con codifica base64 fino a 10 MB. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per connettere una knowledge base a un'origine dati personalizzata, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta a un endpoint in fase di [costruzione di Agents for Amazon Bedrock.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) Specifica la `knowledgeBaseId` della knowledge base a cui connetterti, assegna un `name` all’origine dati e specifica il campo `type` nella `dataSourceConfiguration` come `CUSTOM`. Di seguito è riportato un esempio minimo per creare questa origine dati:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Puoi includere uno qualsiasi dei seguenti campi opzionali per configurare l’origine dati:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionConfigurazione | Per specificare una chiave KMS personalizzata per l’archiviazione di dati transitori durante la conversione dei dati in embedding. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion) | 
| dataDeletionPolicy | Per configurare cosa fare con gli embedding vettoriali per l’origine dati nel tuo archivio di vettori, se elimini l’origine dati. Specifica RETAIN per mantenere i dati nell’archivio di vettori o l’opzione predefinita di DELETE per eliminarli. | 
| vectorIngestionConfiguration | Per configurare le opzioni per l’importazione dell’origine dati. Per ulteriori informazioni, vedere di seguito. | 

Il `vectorIngestionConfiguration` campo è mappato su un [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)oggetto contenente i seguenti campi:
+ chunkingConfiguration: per configurare la strategia da utilizzare per il chunking dei documenti nell’origine dati. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
+ parsingConfiguration: per configurare la strategia da utilizzare per l’analisi dell’origine dati. Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
+ customTransformationConfiguration — Personalizzare il modo in cui i dati vengono trasformati e applicare una funzione Lambda per una maggiore personalizzazione. Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

Dopo aver configurato l’origine dati personalizzata, puoi aggiungere documenti al suo interno e importarli direttamente nella knowledge base. A differenza di altre origini dati, non è necessario sincronizzare un’origine dati personalizzata. Per informazioni su come importare direttamente i documenti, consulta [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).

# Personalizzare l’importazione per un’origine dati
<a name="kb-data-source-customize-ingestion"></a>

È possibile personalizzare l'ingestione vettoriale quando si collega un'origine dati in Console di gestione AWS o modificando il valore del `vectorIngestionConfiguration` campo quando si invia una richiesta. [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)

Selezionare un argomento per scoprire come includere configurazioni per personalizzare l’importazione durante la connessione a un’origine dati:

**Topics**
+ [Scegliere lo strumento da utilizzare per l’analisi](#kb-data-source-customize-parsing)
+ [Scegliere una strategia di chunking](#kb-data-source-customize-chunking)
+ [Utilizzare una funzione Lambda durante l’importazione](#kb-data-source-customize-lambda)

## Scegliere lo strumento da utilizzare per l’analisi
<a name="kb-data-source-customize-parsing"></a>

È possibile personalizzare il modo in cui vengono analizzati i documenti nei dati. Per ulteriori informazioni sulle opzioni per l’analisi dei dati in Knowledge Base per Amazon Bedrock, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di analisi. Per utilizzare una strategia di analisi diversa, è possibile aggiungere una nuova origine dati.  
Non è possibile aggiungere una posizione S3 per archiviare dati multimodali (tra cui immagini, figure, grafici e tabelle) dopo aver creato una knowledge base. Per includere i dati multimodali e utilizzare un parser che li supporti, è necessario creare una nuova knowledge base.

I passaggi necessari per la scelta di una strategia di analisi dipendono dal fatto che utilizzi l' Console di gestione AWS API Amazon Bedrock e dal metodo di analisi scelto. Se viene scelto un metodo di analisi che supporta i dati multimodali, è necessario specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti. Questi dati possono essere restituiti nella query della knowledge base.
+ In Console di gestione AWS, procedi come segue:

  1. Selezionare la strategia di analisi quando ci si connette a un’origine dati durante la configurazione di una knowledge base o quando si aggiunge una nuova origine dati alla knowledge base esistente.

  1. (Se si sceglie Amazon Bedrock Data Automation o un modello di fondazione come strategia di analisi) Specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti nella sezione **Destinazione di archiviazione multimodale** quando si seleziona un modello di embedding e si configura l’archivio vettoriale. In questa fase è inoltre possibile utilizzare una chiave gestita dal cliente per criptare i dati S3.
+ Nell’API Amazon Bedrock, procedere come segue:

  1. (Se prevedi di utilizzare Amazon Bedrock Data Automation o un modello base come strategia di analisi) [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html)Includi una [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)richiesta. [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)

  1. [ParsingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ParsingConfiguration.html)Includi un nel `parsingConfiguration` campo della [VectorIngestionConfiguration[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)richiesta.
**Nota**  
Se si omette questa configurazione, Knowledge Base per Amazon Bedrock utilizza il parser predefinito di Amazon Bedrock.

Per ulteriori dettagli su come specificare una strategia di analisi nell’API, espandere la sezione corrispondente alla strategia di analisi che si desidera utilizzare:

### Parser predefinito di Amazon Bedrock
<a name="w2aac28c10c23c15c17c11c13b1"></a>

Per utilizzare il parser predefinito, non includere un campo `parsingConfiguration` nella `VectorIngestionConfiguration`.

### Parser di Amazon Bedrock Data Automation (anteprima)
<a name="w2aac28c10c23c15c17c11c13b3"></a>

Per utilizzare il parser Amazon Bedrock Data Automation, specifica `BEDROCK_DATA_AUTOMATION` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockDataAutomationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockDataAutomationConfiguration.html)nel `bedrockDataAutomationConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_DATA_AUTOMATION",
    "bedrockDataAutomationConfiguration": {
        "parsingModality": "string"
    }
}
```

### Modello di fondazione
<a name="w2aac28c10c23c15c17c11c13b5"></a>

Per utilizzare un modello di base come parser, specifica il `BEDROCK_FOUNDATION_MODEL` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockFoundationModelConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockFoundationModelConfiguration.html)nel `bedrockFoundationModelConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_FOUNDATION_MODEL",
    "bedrockFoundationModelConfiguration": {
        "modelArn": "string",
        "parsingModality": "string",
        "parsingPrompt": {
            "parsingPromptText": "string"
        }
    }
}
```

## Scegliere una strategia di chunking
<a name="kb-data-source-customize-chunking"></a>

È possibile personalizzare il modo in cui i documenti contenuti nei dati vengono suddivisi in blocchi per l’archiviazione e il recupero. Per ulteriori informazioni sulle opzioni per il chunking dei dati in Knowledge Base per Amazon Bedrock, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.

Nella Console di gestione AWS scegli la strategia di suddivisione in blocchi quando ti connetti a una fonte di dati. Con l'API Amazon Bedrock, includi un [ChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChunkingConfiguration.html)nel `chunkingConfiguration` campo di [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html).

**Nota**  
Se si omette questa configurazione, Amazon Bedrock divide i contenuti in blocchi di circa 300 token, preservando i limiti delle frasi.

Espandere la sezione corrispondente alla strategia di analisi desiderata:

### Nessun chunking
<a name="w2aac28c10c23c15c17c13c13b1"></a>

Per trattare ogni documento dell’origine dati come un singolo blocco di origine, specificare `NONE` nel campo `chunkingStrategy` della `ChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "NONE"
}
```

### Chunking a dimensioni fisse
<a name="w2aac28c10c23c15c17c13c13b3"></a>

Per dividere ogni documento della tua fonte di dati in blocchi di circa le stesse dimensioni, specifica `FIXED_SIZE` nel `chunkingStrategy` campo di `ChunkingConfiguration` e includi un [FixedSizeChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_FixedSizeChunkingConfiguration.html)nel `fixedSizeChunkingConfiguration` campo, come nel seguente formato:

```
{
    "chunkingStrategy": "FIXED_SIZE",
    "fixedSizeChunkingConfiguration": {
        "maxTokens": number,
        "overlapPercentage": number
    }
}
```

### Chunking gerarchico
<a name="w2aac28c10c23c15c17c13c13b5"></a>

Per dividere ogni documento nell’origine dati in due livelli, in cui il secondo livello contiene blocchi più piccoli derivati dal primo livello, specificare `HIERARCHICAL` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo `hierarchicalChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "HIERARCHICAL",
    "hierarchicalChunkingConfiguration": {
        "levelConfigurations": [{
            "maxTokens": number
        }],
        "overlapTokens": number
    }
}
```

### Chunking semantico
<a name="w2aac28c10c23c15c17c13c13b7"></a>

Per dividere ogni documento nell’origine dati in blocchi che danno priorità al significato semantico rispetto alla struttura sintattica, specificare `SEMANTIC` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo, come `semanticChunkingConfiguration` nel seguente formato:

```
{
    "chunkingStrategy": "SEMANTIC",
    "semanticChunkingConfiguration": {
        "breakpointPercentileThreshold": number,
        "bufferSize": number,
        "maxTokens": number
    }
}
```

## Utilizzare una funzione Lambda durante l’importazione
<a name="kb-data-source-customize-lambda"></a>

È possibile post-elaborare il modo in cui i blocchi di origine dati vengono scritti nell’archivio vettoriale con una funzione Lambda nei seguenti modi:
+ Includere la logica di chunking per fornire una strategia di chunking personalizzata.
+ Includere la logica per specificare i metadati a livello di blocco.

Per ulteriori informazioni sulla creazione di una funzione Lambda; personalizzata per l’importazione, consultare [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md). Nella Console di gestione AWS scegli la funzione Lambda quando ti connetti a un'origine dati. Con l'API Amazon Bedrock, includi un [CustomTransformationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CustomTransformationConfiguration.html)nel `CustomTransformationConfiguration` campo [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)e specifichi l'ARN della Lambda, come nel seguente formato:

```
{
    "transformations": [{
        "transformationFunction": {
            "transformationLambdaConfiguration": {
                "lambdaArn": "string"
            }
        },
        "stepToApply": "POST_CHUNKING"
    }],
    "intermediateStorage": {
        "s3Location": {
            "uri": "string"
        }
    }
}
```

È inoltre necessario specificare la posizione S3 in cui archiviare l’output dopo aver applicato la funzione Lambda.

Dopo aver applicato una delle opzioni di chunking disponibili in da Amazon Bedrock, è possibile includere il campo `chunkingConfiguration` per applicare la funzione Lambda.

# Definire le configurazioni di sicurezza per una knowledge base
<a name="kb-create-security"></a>

Dopo aver creato una knowledge base, potrebbe essere necessario definire le seguenti configurazioni di sicurezza:

**Topics**
+ [Configurare policy di accesso ai dati per una knowledge base](#kb-create-security-data)
+ [Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless](#kb-create-security-network)

## Configurare policy di accesso ai dati per una knowledge base
<a name="kb-create-security-data"></a>

Se utilizzi un [ruolo personalizzato](kb-permissions.md), definisci le configurazioni di sicurezza per la tua nuova knowledge base creata. Se consenti ad Amazon Bedrock di creare un ruolo di servizio per te, puoi ignorare questa fase. Segui i passaggi nella scheda corrispondente al database che hai configurato.

------
#### [ Amazon OpenSearch Serverless ]

Per limitare l'accesso alla raccolta Amazon OpenSearch Serverless al ruolo di servizio della knowledge base, crea una policy di accesso ai dati. Questa operazione può essere eseguita nei modi seguenti:
+ Utilizza la console di Amazon OpenSearch Service seguendo i passaggi descritti in [Creazione di politiche di accesso ai dati (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-console) nella Amazon OpenSearch Service Developer Guide.
+ Usa l'AWSAPI inviando una [CreateAccessPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_CreateAccessPolicy.html)richiesta con un [endpoint OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Per un AWS CLI esempio, consulta [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

Utilizza la seguente politica di accesso ai dati, specificando la raccolta Amazon OpenSearch Serverless e il tuo ruolo di servizio:

```
[
    {
        "Description": "${data access policy description}",
        "Rules": [
          {
            "Resource": [
              "index/${collection_name}/*"
            ],
            "Permission": [
                "aoss:DescribeIndex",
                "aoss:ReadDocument",
                "aoss:WriteDocument"
            ],
            "ResourceType": "index"
          }
        ],
        "Principal": [
            "arn:aws:iam::${account-id}:role/${kb-service-role}"
        ]
    }
]
```

------
#### [ Pigna, Redis Enterprise Cloud or MongoDB Atlas ]

Per integrare un indice vettoriale MongoDB Atlas PineconeRedis Enterprise Cloud, allega la seguente politica basata sull'identità al ruolo del servizio della Knowledge Base per consentirgli di accedere al segreto per l'indice vettoriale. Gestione dei segreti AWS

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
        "Effect": "Allow",
        "Action": [
            "bedrock:AssociateThirdPartyKnowledgeBase"
        ],
        "Resource": "*",
        "Condition": {
            "StringEquals": {
                "bedrock:ThirdPartyKnowledgeBaseCredentialsSecretArn": "arn:aws:secretsmanager:us-east-1:123456789012:secret:${secret-id}"
            }
        }
    }]
}
```

------

------

## Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless
<a name="kb-create-security-network"></a>

Se utilizzi una raccolta privata Amazon OpenSearch Serverless per la tua knowledge base, è possibile accedervi solo tramite un endpoint AWS PrivateLink VPC. Puoi creare una raccolta Amazon OpenSearch Serverless privata quando [configuri la tua raccolta vettoriale Amazon OpenSearch Serverless oppure puoi rendere privata una raccolta](knowledge-base-setup.md) Amazon Serverless esistente (inclusa una raccolta Amazon OpenSearch Serverless creata per te dalla console Amazon Bedrock) quando configuri la politica di accesso alla rete.

Le seguenti risorse nell'Amazon OpenSearch Service Developer Guide ti aiuteranno a comprendere la configurazione richiesta per una raccolta Amazon OpenSearch Serverless privata:
+ Per ulteriori informazioni sulla configurazione di un endpoint VPC per una raccolta Amazon Serverless privata, consulta Accedere ad [Amazon OpenSearch OpenSearch Serverless usando un](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) endpoint di interfaccia (). AWS PrivateLink
+ Per ulteriori informazioni sulle politiche di accesso alla rete in Amazon OpenSearch Serverless, consulta [Accesso alla rete per Amazon OpenSearch Serverless](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html).

Per consentire a una knowledge base Amazon Bedrock di accedere a una raccolta Amazon OpenSearch Serverless privata, devi modificare la politica di accesso alla rete per la raccolta Amazon OpenSearch Serverless per consentire Amazon Bedrock come servizio di origine. Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

1. Apri la console Amazon OpenSearch Service all'indirizzo [https://console.aws.amazon.com/aos/](https://console.aws.amazon.com/aos/).

1. Seleziona **Raccolte** nel riquadro di navigazione a sinistra. Scegli la tua raccolta.

1. Nella sezione **Rete** seleziona la **policy associata**.

1. Scegli **Modifica**.

1. Per **Seleziona il metodo di definizione della policy**, esegui una delle seguenti operazioni:
   + Mantieni l’opzione **Seleziona il metodo di definizione della policy** impostata su **Editor visivo** e configura le seguenti impostazioni nella sezione **Regola 1**:

     1. (Facoltativo) Nel campo **Nome regola** immetti un nome per la regola di accesso alla rete.

     1. In **Accesso alle raccolte da**, seleziona **Privato (consigliato)**.

     1. Seleziona **Accesso privato al servizio AWS**. Immetti **bedrock.amazonaws.com** nella casella di testo.

     1. Deseleziona **Abilita l'accesso ai OpenSearch pannelli di controllo**.
   + Scegli **JSON** e incolla la seguente policy nell’**editor JSON**.

     ```
     [
         {                                        
             "AllowFromPublic": false,
             "Description":"${network access policy description}",
             "Rules":[
                 {
                     "ResourceType": "collection",
                     "Resource":[
                         "collection/${collection-id}"
                     ]
                 }
             ],
             "SourceServices":[
                 "bedrock.amazonaws.com"
             ]
         }
     ]
     ```

1. Scegliere **Aggiorna**.

------
#### [ API ]

Per modificare la politica di accesso alla rete per la tua raccolta Amazon OpenSearch Serverless, procedi come segue:

1. Invia una [GetSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_GetSecurityPolicy.html)richiesta con un endpoint [OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica l’elemento `name` della policy e `type` come `network`. Prendere nota dell'ID `policyVersion` nella risposta.

1. Invia una [UpdateSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_UpdateSecurityPolicy.html)richiesta con un endpoint [OpenSearch serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica almeno i seguenti campi:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-create-security.html)

   ```
   [
       {                                        
           "AllowFromPublic": false,
           "Description":"${network access policy description}",
           "Rules":[
               {
                   "ResourceType": "collection",
                   "Resource":[
                       "collection/${collection-id}"
                   ]
               }
           ],
           "SourceServices":[
               "bedrock.amazonaws.com"
           ]
       }
   ]
   ```

Per un AWS CLI esempio, vedi [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

------
+ Utilizza la console OpenSearch di Amazon Service seguendo la procedura descritta in [Creazione di politiche di rete (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html#serverless-network-console). Invece di creare una policy di rete, prendi nota della **policy associata** nella sottosezione **Rete** dei dettagli della raccolta.

# Sincronizzare i dati con Knowledge Base per Amazon Bedrock
<a name="kb-data-source-sync-ingest"></a>

Dopo aver creato la knowledge base, importare o sincronizzare i dati in modo che possano essere interrogati. L’importazione converte i dati grezzi dell’origine dati in embedding vettoriali, in base al modello di embedding vettoriali e alle configurazioni specificati.

Prima di iniziare l’importazione, verificare che l’origine dati soddisfi le seguenti condizioni:
+ Le informazioni sulla connessione dell’origine dati sono state configurate. Per configurare un connettore di origine dati per eseguire la scansione dei dati dal repository di origini dati, consultare [Connettori di origine dati supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html). La configurazione dell’origine dati viene effettuata nell’ambito della creazione della knowledge base.
+ Il modello di embedding vettoriali e l’archivio vettoriale scelti sono stati configurati. Consultare [Modelli di embedding vettoriali supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html) e [Archivi vettoriali per knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html). La configurazione degli embedding vettoriali viene effettuata nell’ambito della creazione della knowledge base.
+ I file sono nei formati supportati. Per ulteriori informazioni, consulta [Formati di documenti supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ I file non superano le **dimensioni del file del processo di importazione** specificate in [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) nei Riferimenti generali di AWS.
+ Se l’origine dati contiene file di metadati, verificare le seguenti condizioni per garantire che i file di metadati non vengano ignorati:
  + Ogni `.metadata.json` file condivide lo stesso nome e la stessa estensione del file di origine a cui è associato.
  + Se l’indice vettoriale per la knowledge base si trova in un archivio vettoriale Amazon OpenSearch Serverless, verificare che l’indice vettoriale sia configurato con il motore `faiss`. Se l’indice vettoriale è configurato con il motore `nmslib`, eseguire una delle seguenti operazioni:
    + [Creare una nuova knowledge base](knowledge-base-create.md) nella console e consentire ad Amazon Bedrock di creare automaticamente un indice vettoriale in Amazon OpenSearch Serverless.
    + [Creare un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale e selezionare `faiss` come **motore**. Poi [creare una nuova knowledge base](knowledge-base-create.md) e specificare il nuovo indice vettoriale.
  + Se l’indice vettoriale per la knowledge base si trova in un cluster di database Amazon Aurora, consigliamo di utilizzare il campo dei metadati personalizzati per archiviare tutti i metadati in un’unica colonna e creare un indice su questa colonna. Se il campo dei metadati personalizzati non è specificato, è necessario verificare che la tabella dell’indice contenga una colonna per ogni proprietà dei metadati nei file di metadati prima di iniziare l’importazione. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).

Ogni volta che vengono aggiunti, modificati o rimossi file dall’origine dati, è necessario sincronizzare l’origine dati in modo che venga reindicizzata nella knowledge base. La sincronizzazione è incrementale, quindi Amazon Bedrock elabora solo i documenti aggiunti, modificati o eliminati dall’ultima sincronizzazione.

Per sapere come inserire i dati nella tua knowledge base e sincronizzarli con i dati più recenti, scegliere la scheda corrispondente al metodo preferito, poi seguire la procedura:

------
#### [ Console ]

**Come importare i dati nella knowledge base e sincronizzarli con i dati più recenti**

1. Apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Dal riquadro di navigazione a sinistra, seleziona la tua knowledge base da **Knowledge base**.

1. Nella sezione **Origine dati**, seleziona **Sincronizza** per iniziare l’importazione dei dati o la sincronizzazione dei dati più recenti. Per interrompere la sincronizzazione di un’origine dati attualmente in corso, seleziona **Interrompi**. Per interrompere la sincronizzazione dell’origine dati, la sincronizzazione dell’origine dati deve essere attualmente in esecuzione. Puoi selezionare nuovamente **Sincronizza** per importare il resto dei tuoi dati.

1. Al termine dell’importazione dei dati, se l’operazione è riuscita, viene visualizzato un banner verde.
**Nota**  
Una volta completata la sincronizzazione dei dati, potrebbero essere necessari alcuni minuti prima che gli embedding vettoriali dei dati appena sincronizzati si riflettano nella knowledge base e siano disponibili per essere interrogati se viene utilizzato un archivio vettoriale diverso da Amazon Aurora (RDS).

1. Puoi scegliere un’origine dati per visualizzarne la **cronologia di sincronizzazione**. Seleziona **Visualizza avvisi** per scoprire perché un processo di importazione dei dati non è riuscito.

------
#### [ API ]

Per importare i dati nella knowledge base e sincronizzarli con i dati più recenti, invia una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `knowledgeBaseId` e il `dataSourceId`. Puoi anche interrompere un processo di importazione dei dati attualmente in esecuzione inviando una richiesta [StopIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html). Specifica il `dataSourceId`, il `ingestionJobId` e il `knowledgeBaseId`. Per interrompere l’importazione dei dati, il processo deve essere attualmente in esecuzione. Puoi inviare nuovamente una richiesta `StartIngestionJob` per importare il resto dei tuoi dati quando è tutto pronto.

Utilizza il `ingestionJobId` restituito nella risposta in una richiesta [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) per monitorare lo stato del processo di importazione. Inoltre, specifica il `knowledgeBaseId` e il `dataSourceId`.
+ Al termine del processo di importazione, lo `status` della risposta è `COMPLETE`.
**Nota**  
Una volta completata l’importazione dei dati, potrebbero essere necessari alcuni minuti prima che gli embedding vettoriali dei dati appena importati siano disponibili nell’archivio vettoriale per essere interrogati se viene utilizzato un archivio vettoriale diverso da Amazon Aurora (RDS).
+ L’oggetto `statistics` nella risposta restituisce informazioni sull’esito, positivo o negativo, dell’importazione dei documenti nell’origine dati.

Puoi anche visualizzare le informazioni per tutti i processi di importazione per un’origine dati inviando una richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `dataSourceId` e il `knowledgeBaseId` della knowledge base in cui vengono importati i dati.
+ Filtra i risultati specificando lo stato da cercare nell’oggetto `filters`.
+ Ordina in base all’ora di avvio del processo o allo stato di un processo specificando l’oggetto `sortBy`. Puoi scegliere l’ordinamento crescente o decrescente.
+ Puoi impostare il numero massimo di risultati che dovranno essere restituiti nella risposta nel campo `maxResults`. Se i risultati sono superiori al numero impostato, la risposta restituisce un `nextToken` che puoi inviare in un’altra richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) per visualizzare il successivo batch di processi.

------

# Importare le modifiche direttamente in una knowledge base
<a name="kb-direct-ingestion"></a>

Knowledge Base per Amazon Bedrock consente di modificare l’origine dati e sincronizzare le modifiche in un’unica fase. Puoi sfruttare questa funzionalità se la tua knowledge base è connessa a uno dei seguenti tipi di origine dati:
+ Amazon S3
+ Personalizza

Con l’importazione diretta, puoi aggiungere, aggiornare o eliminare direttamente i file in una knowledge base con un’unica azione e la knowledge base può avere accesso ai documenti senza la necessità di sincronizzarli. L’importazione diretta utilizza le operazioni API `KnowledgeBaseDocuments` per indicizzare i documenti inviati direttamente nell’archivio vettoriale configurato per la knowledge base. È inoltre possibile visualizzare i documenti della knowledge base direttamente con queste operazioni, anziché dover accedere all’origine dati connessa per visualizzarli.

## Differenze rispetto alla sincronizzazione di un’origine dati
<a name="kb-direct-ingestion-sync-diff"></a>

Knowledge Base per Amazon Bedrock offre anche una serie di operazioni API `IngestionJob` relative alla [sincronizzazione dell’origine dati](kb-data-source-sync-ingest.md). Quando sincronizzi la tua origine dati con una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html), Knowledge Base per Amazon Bedrock scansiona ogni documento nell’origine dati collegata e verifica se è già stato indicizzato nell’archivio vettoriale configurato per la knowledge base. In caso contrario, viene indicizzato nell’archivio vettoriale.

Con una richiesta [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html) si invia una serie di documenti da indicizzare direttamente nell’archivio vettoriale, ignorando, dunque, la fase di aggiunta di documenti nell’origine dati. Consulta i paragrafi seguenti per comprendere il caso d’uso di questi due set di operazioni API:

**In caso di utilizzo di un’origine dati personalizzata**  
Non è necessario sincronizzare o utilizzare le operazioni `IngestionJob`. I documenti che aggiungi, modifichi o elimini con le operazioni `KnowledgeBaseDocuments` o nella Console di gestione AWS diventano parte sia dell’origine dati personalizzata che della tua knowledge base.

**In caso di utilizzo di un’origine dati Amazon S3**  
I due set di operazioni vengono utilizzati in diversi casi d’uso:
+ Dopo aver collegato la knowledge base all’origine dati S3 per la prima volta, devi sincronizzare l’origine dati nella Console di gestione AWS o inviando una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) tramite l’API Amazon Bedrock.
+ Indicizza i documenti nell’archivio vettoriale configurato per la tua knowledge base o rimuovi i documenti indicizzati nei seguenti modi:

  1. Aggiungi documenti nella tua posizione S3 o elimina documenti dal suo interno. Sincronizza la tua origine dati nella Console di gestione AWS o invia una richiesta `StartIngestionJob` nell’API. Per informazioni dettagliate sulla sincronizzazione e sull’operazione `StartIngestionJob`, consulta [Sincronizzare i dati con Knowledge Base per Amazon Bedrock](kb-data-source-sync-ingest.md).

  1. Importa documenti S3 nella knowledge base direttamente con una richiesta `IngestKnowledgeBaseDocuments`. Per informazioni dettagliate sull’importazione diretta di documenti, consulta [Importare documenti direttamente in una knowledge base](kb-direct-ingestion-add.md).
**avvertimento**  
Per le origini dati S3, qualsiasi modifica indicizzata nella knowledge base direttamente nella Console di gestione AWS o con le operazioni API `KnowledgeBaseDocuments` non si riflette nella posizione S3. Puoi utilizzare queste operazioni API per rendere immediatamente disponibili le modifiche nella tua knowledge base in un’unica fase. Tuttavia, dovresti seguire con l’aggiornamento delle stesse modifiche nella posizione S3, in modo che non vengano sovrascritte la prossima volta che sincronizzi la tua origine dati nella Console di gestione AWS o con `StartIngestionJob`.  
Non inviare richieste `IngestKnowledgeBaseDocuments` e `StartIngestionJob` contemporaneamente.

Seleziona un argomento per scoprire come eseguire l’importazione diretta dei documenti nelle tue origini dati:

**Topics**
+ [Differenze rispetto alla sincronizzazione di un’origine dati](#kb-direct-ingestion-sync-diff)
+ [Prerequisiti per l’importazione diretta](kb-direct-ingestion-prereq.md)
+ [Importare documenti direttamente in una knowledge base](kb-direct-ingestion-add.md)
+ [Visualizzare le informazioni sui documenti nell’origine dati](kb-direct-ingestion-view.md)
+ [Eliminare documenti direttamente da una knowledge base](kb-direct-ingestion-delete.md)

# Prerequisiti per l’importazione diretta
<a name="kb-direct-ingestion-prereq"></a>

Per utilizzare l’importazione diretta, un ruolo IAM deve disporre delle autorizzazioni per utilizzare le operazioni API `KnowledgeBaseDocs`. Se al tuo ruolo IAM è allegata la policy [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSgestita, puoi saltare questa sezione.

La seguente policy può essere associata a un ruolo IAM per consentirgli di eseguire l’importazione diretta sulle knowledge base specificate nel campo `Resource`.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "DirectIngestion",
            "Effect": "Allow",
            "Action": [
                "bedrock:StartIngestionJob",
                "bedrock:IngestKnowledgeBaseDocuments",
                "bedrock:GetKnowledgeBaseDocuments",
                "bedrock:ListKnowledgeBaseDocuments",
                "bedrock:DeleteKnowledgeBaseDocuments"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        }
    ]
}
```

------

Per limitare ulteriormente le autorizzazioni, è possibile omettere azioni o specificare risorse e chiavi di condizione con cui filtrare le autorizzazioni. Per ulteriori informazioni su azioni, risorse e chiavi di condizione, consultare i seguenti argomenti nella *documentazione di riferimento per l’autorizzazione al servizio*:
+ [Azioni definite da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions): scopri le azioni, i tipi di risorsa a cui è possibile limitarle nel campo `Resource` e le chiavi di condizione in base alle quali puoi filtrare le autorizzazioni nel campo `Condition`.
+ [Tipi di risorsa definiti da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies): scopri i tipi di risorsa in Amazon Bedrock.
+ [Chiavi di condizione per Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys): scopri le chiavi di condizione in Amazon Bedrock.

# Importare documenti direttamente in una knowledge base
<a name="kb-direct-ingestion-add"></a>

Questo argomento illustra come importare documenti direttamente in una knowledge base. In base all’origine dati, si applicano restrizioni ai tipi di documenti che è possibile importare direttamente. Per le restrizioni sui metodi che si possono utilizzare per specificare i documenti da importare, consulta la tabella seguente:


****  

| Tipo di origine dati | Documento definito in linea | Documento nella posizione di Amazon S3 | 
| --- | --- | --- | 
| Simple Storage Service (Amazon S3) | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-no.png)No | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 
| Personalizzato | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 

Espandi la sezione corrispondente al caso d’uso specifico:

**Nota**  
Quando usi la console, puoi importare fino a 10 documenti direttamente nella knowledge base. Se invece utilizzi l’API `IngestKnowledgeBaseDocuments`, nella knowledge base puoi importare fino a 25 documenti. Per ulteriori informazioni sulla quota, consulta [Quote di servizio di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) nella guida *Riferimenti generali di AWS *.

## Eliminare con la console
<a name="kb-direct-ingestion-add-console"></a>

Per aggiungere o modificare documenti direttamente in Console di gestione AWS, procedi come segue:

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, seleziona la knowledge base in cui importare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati per cui desideri aggiungere, modificare o eliminare documenti.

1. Nella sezione **Documenti**, scegli **Aggiungi documenti**. Effettua quindi una delle seguenti operazioni:
   + Per aggiungere o modificare direttamente un documento, seleziona **Aggiungi documenti direttamente**. Successivamente, esegui queste operazioni:

     1. Nel campo **Identificatore del documento**, specifica un nome univoco per il documento. Se si specifica un nome già esistente nell’origine dati, il documento viene sostituito.

     1. Per caricare un documento, seleziona **Carica**. Per definire un documento in linea, seleziona **Aggiungi documento in linea**, scegli un formato e inserisci il testo del documento nella casella.

     1. (Facoltativo) Per associare i metadati al documento, seleziona **Aggiungi metadati** e immetti una chiave, un tipo e un valore.
   + Per aggiungere o modificare un documento specificandone la posizione S3, seleziona **Aggiungi documenti S3**. Successivamente, esegui queste operazioni:

     1. Nel campo **Identificatore del documento**, specifica un nome univoco per il documento. Se si specifica un nome già esistente nell’origine dati, il documento viene sostituito.

     1. Specificate se la **posizione S3** del documento si trova nel vostro AWS account corrente o in un altro. Successivamente, specifica l’URI S3 del documento.

     1. (Facoltativo) Per associare i metadati al documento, scegli un valore nel campo **Origine dei metadati**. Specifica l’URI S3 dei metadati o seleziona **Aggiungi metadati** e immetti una chiave, un tipo e un valore.

1. Per importare il documento e i metadati associati, scegli **Aggiungi**.

## Eliminare con l’API
<a name="kb-direct-ingestion-add-api"></a>

Per importare documenti direttamente in una knowledge base utilizzando l'API Amazon Bedrock, invia una [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)richiesta a un [endpoint di build Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica l'ID della knowledge base e della fonte di dati a cui è collegata.

**Nota**  
Se si specifica un identificatore del documento o una posizione S3 già esistente nella knowledge base, il documento viene sovrascritto con il nuovo contenuto.

Il corpo della richiesta contiene un campo che corrisponde a una serie di [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetti, ognuno dei quali rappresenta il contenuto e i metadati opzionali di un documento da aggiungere alla fonte di dati e da inserire nella knowledge base. `documents` Un oggetto [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html) contiene i campi seguenti:
+ contenuto: esegue il mapping su un [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto contenente informazioni sul contenuto del documento da aggiungere.
+ metadati: (Facoltativo) esegue il mapping su un [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto contenente informazioni sui metadati del documento da aggiungere. Per ulteriori informazioni sull’utilizzo dei metadati durante il recupero, consulta la sezione **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

Seleziona un argomento per scoprire come importare documenti per diversi tipi di origini dati o per visualizzare esempi:

**Topics**
+ [Importare un documento in una knowledge base connessa a un’origine dati personalizzata](#kb-direct-ingestion-add-custom)
+ [Importare un documento in una knowledge base connessa a un’origine dati Amazon S3](#kb-direct-ingestion-add-s3)
+ [Esempio di corpi della richiesta](#w2aac28c10c23c19c17c11b3c19)

### Importare un documento in una knowledge base connessa a un’origine dati personalizzata
<a name="kb-direct-ingestion-add-custom"></a>

`dataSourceId`Se l'oggetto specificato appartiene a un'origine dati personalizzata, è possibile aggiungere contenuto e metadati per ogni [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetto dell'array. `documents`

Il contenuto di un documento aggiunto a un’origine dati personalizzata può essere definito nei modi seguenti:

#### Definire il documento in linea
<a name="kb-direct-ingestion-add-custom-inline"></a>

È possibile definire i seguenti tipi di documenti in linea:

------
#### [ Text ]

Se il documento è testo, l'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto deve avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "textContent": { 
                "data": "string"
            },
            "type": "TEXT"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id` e il testo del documento nel campo `data`.

------
#### [ Bytes ]

Se il documento contiene altri elementi oltre al testo, convertilo in una stringa Base64. L'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto dovrebbe quindi avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "byteContent": { 
                "data": blob,
                "mimeType": "string"
            },
            "type": "BYTE"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id`, il documento con codifica Base64 nel `data` e il tipo MIME nel campo `mimeType`.

------

#### Importare il documento da S3
<a name="w2aac28c10c23c19c17c11b3c15b7b3"></a>

Se state importando un documento da una posizione S3, l'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto nel `content` campo deve avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "s3Location": { 
            "bucketOwnerAccountId": "string",
            "uri": "string"
        },
        "sourceType": "S3"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id`, il proprietario del bucket S3 che contiene il documento nel campo `bucketOwnerAccountId` e l’URI S3 del documento nel campo `uri`.

I metadati di un documento possono essere definiti nei modi seguenti:

#### Definire i metadati in linea
<a name="w2aac28c10c23c19c17c11b3c15c11b1"></a>

Se definisci i metadati in linea, l'[DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto nel `metadata` campo deve avere il seguente formato:

```
{ 
    "inlineAttributes": [ 
        { 
            "key": "string",
            "value": { 
                "stringValue": "string",
                "booleanValue": boolean,
                "numberValue": number,
                "stringListValue": [ "string" ],
                "type": "STRING" | "BOOLEAN" | "NUMBER" | "STRING_LIST"
            }
        }
    ],
    "type": "IN_LINE_ATTRIBUTE"
}
```

Per ogni attributo aggiunto, definisci la chiave nel campo `key`. Specifica il tipo di dati del valore nel campo `type` e includi il campo che corrisponde al tipo di dati. Ad esempio, se includi una stringa, l’attributo avrà il seguente formato:

```
{ 
    "key": "string",
    "value": { 
        "stringValue": "string",
        "type": "STRING"
    }
}
```

#### Importare i metadati da S3
<a name="w2aac28c10c23c19c17c11b3c15c11b3"></a>

Puoi anche importare i metadati da un file con estensione `.metadata.json` in una posizione S3. Per ulteriori informazioni sul formato di un file di metadati, consulta la sezione **Campi di metadati del documento** in [Connettersi ad Amazon S3 per una knowledge base](s3-data-source-connector.md).

Se i metadati provengono da un file S3, l'[DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto nel `metadata` campo deve avere il seguente formato:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

Includi il proprietario del bucket S3 che contiene il file di metadati nel campo `bucketOwnerAccountId` e l’URI S3 del file di metadati nel campo `uri`.

**avvertimento**  
Se hai definito il contenuto in linea, anche i metadati devono essere definiti in linea.

### Importare un documento in una knowledge base connessa a un’origine dati Amazon S3
<a name="kb-direct-ingestion-add-s3"></a>

`dataSourceId`Se l'oggetto specificato appartiene a un'origine dati S3, puoi aggiungere contenuti e metadati per ogni [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetto dell'array. `documents`

**Nota**  
Per le origini dati S3, puoi aggiungere contenuti e metadati solo da una posizione S3.

Il contenuto di un documento S3 da aggiungere a S3 deve essere aggiunto a un [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto nel seguente formato:

```
{ 
    "dataSourceType": "string",
    "s3": { 
        "s3Location": { 
            "uri": "string"
        }
    }
}
```

Includi il proprietario del bucket S3 che contiene il documento nel campo `bucketOwnerAccountId` e l’URI S3 del documento nel campo `uri`.

I metadati di un documento aggiunto a un’origine dati personalizzata può essere definito nel seguente formato:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

**avvertimento**  
I documenti che importi direttamente in una knowledge base connessa a un’origine dati S3 non vengono aggiunti al bucket S3. Si consiglia di aggiungere questi documenti anche all’origine dati S3 in modo che non vengano rimossi né sovrascritti se si sincronizza l’origine dati.

### Esempio di corpi della richiesta
<a name="w2aac28c10c23c19c17c11b3c19"></a>

Espandi le seguenti sezioni per visualizzare i corpi delle richieste per diversi casi d’uso con `IngestKnowledgeBaseDocuments`:

#### Aggiungere un documento di testo personalizzato a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b1"></a>

L’esempio seguente mostra l’aggiunta di un documento di testo a un’origine dati personalizzata:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento con codifica Base64 a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b3"></a>

L’esempio seguente mostra l’aggiunta di un documento PDF a un’origine dati personalizzata:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "byteContent": { 
                     "data": "<Base64-encoded string>",
                     "mimeType": "application/pdf"
                  },
                  "type": "BYTE"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento da una posizione S3 a una knowledge base connessa a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b5"></a>

L’esempio seguente mostra l’aggiunta di un documento di testo a un’origine dati personalizzata da una posizione S3:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "s3": {
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
               },
               "sourceType": "S3"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento in linea a una knowledge base connessa a un’origine dati personalizzata e includere i metadati in linea
<a name="w2aac28c10c23c19c17c11b3c19b5b7"></a>

L’esempio seguente mostra l’aggiunta in linea a un’origine dati personalizzata di un documento e di metadati contenenti due attributi:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         },
         "metadata": {
            "inlineAttributes": [ 
               { 
                  "key": "genre",
                  "value": {
                     "stringValue": "pop",
                     "type": "STRING"
                  }
               },
               { 
                  "key": "year",
                  "value": { 
                     "numberValue": 1988,
                     "type": "NUMBER"
                  }
               }
            ],
            "type": "IN_LINE_ATTRIBUTE"
         }
     }
   ]
}
```

#### Aggiungere un documento in linea a una knowledge base connessa a un’origine dati S3 e includerne i metadati
<a name="w2aac28c10c23c19c17c11b3c19b5b9"></a>

L’esempio seguente mostra l’aggiunta di un documento e dei metadati a un’origine dati S3. Puoi includere i metadati solo tramite S3:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
    "documents": [ 
        { 
            "content": { 
                "dataSourceType": "S3",
                "s3": { 
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
            }
        },
        "metadata": {
            "s3Location": {
                "bucketOwnerId": "111122223333",
                "uri": "amzn-s3-demo-bucket"
            },
                "type": "S3_LOCATION"
            }
        }
    ]
}
```

# Visualizzare le informazioni sui documenti nell’origine dati
<a name="kb-direct-ingestion-view"></a>

Negli argomenti seguenti viene descritto come visualizzare i documenti nell’origine dati. Se la knowledge base è connessa a un’origine dati Amazon S3, puoi visualizzare i documenti nel bucket S3 connesso.

**Nota**  
Se hai creato una nuova knowledge base collegandoti a un’origine dati S3, devi sincronizzare l’origine dati prima di poter utilizzare queste operazioni API sull’origine dati.

Espandi il metodo che corrisponde al tuo caso d’uso:

## Utilizzo della console
<a name="kb-direct-ingestion-view-console"></a>

Per visualizzare i documenti presenti nell’origine dati che sono stati importati in Console di gestione AWS, procedi come segue:

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base,** seleziona la knowledge base di cui desideri visualizzare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati di cui desideri visualizzare i documenti.

1. La sezione **Documenti** elenca i documenti presenti nell’origine dati. Anche questi documenti sono stati importati nella knowledge base.

## Utilizzare l’API
<a name="kb-direct-ingestion-view-api"></a>

Con l’API Amazon Bedrock, puoi visualizzare un sottoinsieme o tutti i documenti dell’origine dati che sono stati importati nella knowledge base. Seleziona l’argomento pertinente al tuo caso d’uso.

**Topics**
+ [Visualizzare le informazioni su un sottoinsieme di documenti nella knowledge base](#kb-direct-ingestion-get)
+ [Visualizzare le informazioni su tutti i documenti della knowledge base](#kb-direct-ingestion-list)

### Visualizzare le informazioni su un sottoinsieme di documenti nella knowledge base
<a name="kb-direct-ingestion-get"></a>

Per visualizzare informazioni su documenti specifici nell’origine dati, invia una richiesta [GetKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata.

Per ogni documento per il quale desideri ottenere informazioni, aggiungi un elemento [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html) nell’array `documentIdentifiers` in uno dei seguenti formati:
+ Se l’origine dati è personalizzata, specifica l’ID del documento nel campo `id`:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Se l’origine dati è Amazon S3, specifica l’URI S3 del documento nel campo `uri`:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

La risposta restituisce una serie di elementi, ognuno dei quali contiene informazioni su un documento richiesto.

### Visualizzare le informazioni su tutti i documenti della knowledge base
<a name="kb-direct-ingestion-list"></a>

Per visualizzare informazioni su tutti i documenti in un’origine dati, invia una richiesta [ListKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata. Sono anche disponibili le seguenti opzioni:
+ Specifica `maxResults` per limitare il numero di risultati da restituire.
+ Se i risultati non rientrano in una risposta, viene restituito un valore nel campo `nextToken` della risposta. È possibile utilizzare questo valore nel campo `nextToken` di una richiesta successiva per ottenere il seguente batch di risultati.

# Eliminare documenti direttamente da una knowledge base
<a name="kb-direct-ingestion-delete"></a>

Se un documento nella knowledge base non è più necessario, è possibile eliminarlo direttamente. Per informazioni su come eliminare documenti dall’origine dati e dalla knowledge base, espandere la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="kb-direct-ingestion-delete-console"></a>

Per eliminare documenti dall’origine dati e dalla knowledge base direttamente utilizzando la Console di gestione AWS, procedi come segue:

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, seleziona la knowledge base da cui eliminare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati da cui eliminare i documenti.

1. Nella sezione **Documenti**, seleziona un documento da eliminare. Poi scegli **Elimina documento**. Rivedi il messaggio e conferma.

## Eliminare con l’API
<a name="kb-direct-ingestion-delete-api"></a>

Per eliminare documenti specifici dall’origine dati tramite l’API Amazon Bedrock, invia una richiesta [DeleteKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata.

Per ogni documento che vuoi eliminare, aggiungi un elemento [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html) nell’array `documentIdentifiers` in uno dei seguenti formati:
+ Se l’origine dati è personalizzata, specifica l’ID del documento nel campo `id`:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Se l’origine dati è di Amazon S3, specifica l’URI S3 del documento nel campo `uri`:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

**avvertimento**  
I documenti che elimini direttamente da una knowledge base collegata a un’origine dati S3 non vengono eliminati dal bucket S3 stesso. Ti consigliamo di eliminare questi documenti dal bucket S3, in modo che non vengano reintrodotti se sincronizzi l’origine dati.

# Visualizzare le informazioni sull’origine dati per Knowledge Base per Amazon Bedrock
<a name="kb-ds-info"></a>

È possibile visualizzare informazioni su un’origine dati per la knowledge base, ad esempio le impostazioni e la cronologia di sincronizzazione.

Per monitorare la knowledge base, incluse tutte le origini dati per la knowledge base, consulta [Registrazione della knowledge base con Amazon CloudWatch](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html).

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come ottenere informazioni su un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Origine dati**, seleziona l’origine dati per la quale desideri visualizzare i dettagli.

1. La **Panoramica dell’origine dati** contiene dettagli sull’origine dati.

1. La **Cronologia sincronizzazione** contiene dettagli su quando l’origine dati è stata sincronizzata. Per vedere i motivi per cui un evento di sincronizzazione ha avuto esito negativo, seleziona un evento di sincronizzazione e scegli **Visualizza avvisi**.

------
#### [ API ]

Per ottenere informazioni su un’origine dati, invia una richiesta [GetDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetDataSource.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica il `dataSourceId` e il `knowledgeBaseId` della knowledge base a cui appartiene.

Per elencare informazioni sulle origini dati di una knowledge base, invia una richiesta [ListDataSources](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListDataSources.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica l’ID della knowledge base.
+ Per impostare il numero massimo di risultati da restituire in una risposta, utilizza il campo `maxResults`.
+ Se i risultati sono più numerosi del valore impostato, la risposta restituisce `nextToken`. È possibile utilizzare questo valore in un’altra richiesta `ListDataSources` per visualizzare il successivo batch di risultati.

Per ottenere informazioni su un evento di sincronizzazione per un’origine dati, invia una richiesta [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `dataSourceId`, il `knowledgeBaseId` e il `ingestionJobId`.

Per elencare la cronologia di sincronizzazione di un’origine dati in una knowledge base, invia una richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Definizione dell’ID della knowledge base e dell’origine dati. Puoi impostare le seguenti specifiche.
+ Filtra i risultati specificando lo stato da cercare nell’oggetto `filters`.
+ Ordina in base all’ora di avvio del processo o allo stato di un processo specificando l’oggetto `sortBy`. Puoi scegliere l’ordinamento crescente o decrescente.
+ Puoi impostare il numero massimo di risultati che dovranno essere restituiti nella risposta nel campo `maxResults`. Se i risultati sono superiori al numero impostato, la risposta restituisce un `nextToken` che puoi inviare in un’altra richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) per visualizzare il successivo batch di processi.

------

# Modificare un’origine dati per Knowledge Base per Amazon Bedrock
<a name="kb-ds-update"></a>

È possibile aggiornare un’origine dati per la knowledge base, ad esempio modificando le configurazioni dell’origine dati.

È possibile aggiornare un’origine dati nei seguenti modi:
+ Aggiungere, modificare o rimuovere file o contenuti dall’origine dati.
+ Modificare le configurazioni delle origini dati o la chiave KMS da utilizzare per crittografare i dati transitori durante l’importazione dei dati. Se vengono modificati i dettagli della configurazione dell’origine o dell’endpoint, è necessario aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile).
+ Impostare la policy di eliminazione dell’origine dati su “Elimina” o “Conserva”. È possibile eliminare tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. È possibile conservare tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

Ogni volta che vengono aggiunti, modificati o rimossi file dall’origine dati, è necessario sincronizzare l’origine dati in modo che venga reindicizzata nella knowledge base. La sincronizzazione è incrementale, quindi Amazon Bedrock elabora solo i documenti aggiunti, modificati o eliminati dall’ultima sincronizzazione. Prima di iniziare l’importazione, verificare che l’origine dati soddisfi le seguenti condizioni:
+ I file sono nei formati supportati. Per ulteriori informazioni, consulta [Formati di documenti supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ I file non superano le **dimensioni del file del processo di importazione** specificate in [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) nei Riferimenti generali di AWS.
+ Se l’origine dati contiene file di metadati, verificare le seguenti condizioni per garantire che i file di metadati non vengano ignorati:
  + Ogni `.metadata.json` file condivide lo stesso nome e la stessa estensione del file di origine a cui è associato.
  + Se l’indice vettoriale per la knowledge base si trova in un archivio vettoriale Amazon OpenSearch Serverless, verificare che l’indice vettoriale sia configurato con il motore `faiss`. Se l’indice vettoriale è configurato con il motore `nmslib`, eseguire una delle seguenti operazioni:
    + [Creare una nuova knowledge base](knowledge-base-create.md) nella console e consentire ad Amazon Bedrock di creare automaticamente un indice vettoriale in Amazon OpenSearch Serverless.
    + [Creare un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale e selezionare `faiss` come **motore**. Poi [creare una nuova knowledge base](knowledge-base-create.md) e specificare il nuovo indice vettoriale.
  + Se l’indice vettoriale per la knowledge base si trova in un cluster di database Amazon Aurora, consigliamo di utilizzare il campo dei metadati personalizzati per archiviare tutti i metadati in un’unica colonna e creare un indice su questa colonna. Se il campo dei metadati personalizzati non è specificato, è necessario verificare che la tabella dell’indice contenga una colonna per ogni proprietà dei metadati nei file di metadati prima di iniziare l’importazione. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).

Per informazioni su come aggiornare un’origine dati, scegliere la scheda relativa al metodo preferito, poi seguire la procedura:

------
#### [ Console ]

**Come aggiornare un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Seleziona il nome della tua knowledge base.

1. Nella sezione **Origine dati**, seleziona il pulsante di opzione accanto all’origine dati che vuoi modificare e sincronizzare.

1. (Facoltativo) Scegli **Modifica**, modifica le configurazioni e seleziona **Invia**. Se vengono modificati i dettagli della configurazione dell’origine o dell’endpoint, è necessario aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile). Inoltre, tieni presente che non è possibile modificare le configurazioni di suddivisione in blocchi basate sui dati originali importati. Devi ricreare l’origine dati.
**Nota**  
Non puoi modificare le configurazioni di suddivisione in blocchi. Devi ricreare l’origine dati.

1. (Facoltativo) Scegli di modificare la policy di eliminazione dei dati dell’origine dati come parte delle impostazioni avanzate:

   Per le impostazioni della policy di eliminazione dei dati, puoi scegliere:
   + Elimina: elimina tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che **l’archivio vettoriale stesso non viene eliminato**, ma solo i dati sottostanti. Questo flag viene ignorato se un account AWS viene eliminato.
   + Retain: mantiene tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

1. Scegli **Sincronizza**.

1. Quando la sincronizzazione è completa e lo **Stato** diventa **Pronto**, viene visualizzato un banner verde.

------
#### [ API ]

**Come aggiornare un’origine dati**

1. (Facoltativo) Invia una richiesta [UpdateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), modificando eventuali configurazioni e specificando le stesse configurazioni che non vuoi modificare. Se modifichi i dettagli della configurazione dell’origine o dell’endpoint, devi aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile).
**Nota**  
Non puoi modificare la `chunkingConfiguration`. Invia la richiesta con la `chunkingConfiguration` esistente o ricrea l’origine dati.

1. (Facoltativo) Cambia la `dataDeletionPolicy` per l’origine dati. Puoi `DELETE` tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Questo flag viene ignorato se un account AWS viene eliminato. Puoi `RETAIN` tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

1. Invia una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specificando il `dataSourceId` e il `knowledgeBaseId`.

------

# Eliminare un’origine dati da Knowledge Base per Amazon Bedrock
<a name="kb-ds-delete"></a>

Puoi eliminare o rimuovere un’origine dati che non ti serve più o che non utilizzi più per la knowledge base.

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Per eliminare un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. In **Origine dati**, scegli il pulsante di opzione accanto all’origine dati da eliminare.

1. Scegli **Elimina**.

1. Quando l’origine dati viene eliminata con successo, viene visualizzato un banner verde.
**Nota**  
La policy di eliminazione dei dati per l’origine dati è impostata su “Elimina” (elimina tutti i dati quando si elimina l’origine dati, ma **non elimina l’archivio vettoriale stesso**) o “Conserva” (conserva tutti i dati quando si elimina l’origine dati). Se elimini un’origine dati o una knowledge base, l’**archivio vettoriale stesso non viene eliminato**. Se la policy di eliminazione dei dati dell’origine dati è impostata su “Elimina”, è possibile che l’origine dati completi con esito negativo il processo di eliminazione a causa di problemi di configurazione o di accesso all’archivio vettoriale. Puoi controllare lo stato “DELETE\$1UNSUCCESSFUL” per vedere il motivo per cui l’origine dati non è stata eliminata correttamente.

------
#### [ API ]

Per eliminare un’origine dati da una knowledge base, invia una richiesta [DeleteDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletDataSource.html), specificando `dataSourceId` e `knowledgeBaseId`.

**Nota**  
La policy di eliminazione dei dati per l’origine dati è impostata su `DELETE` (elimina tutti i dati quando si elimina l’origine dati, ma **non elimina l’archivio vettoriale stesso**) o `RETAIN` (conserva tutti i dati quando si elimina l’origine dati). Se elimini un’origine dati o una knowledge base, l’**archivio vettoriale stesso non viene eliminato**. Se la policy di eliminazione dei dati dell’origine dati è impostata su `DELETE`, è possibile che l’origine dati completi con esito negativo il processo di eliminazione a causa di problemi di configurazione o di accesso all’archivio vettoriale. È possibile visualizzare `failureReasons` se lo stato dell’origine dati è `DELETE_UNSUCCESSFUL` per vedere il motivo per cui l’origine dati non è stata eliminata correttamente.

------

# Crea una base di conoscenze per contenuti multimodali
<a name="kb-multimodal"></a>

Amazon Bedrock Knowledge Bases supporta contenuti multimodali tra cui immagini, file audio e video. Puoi effettuare ricerche utilizzando immagini come query, recuperare contenuti visivamente simili ed elaborare file multimediali insieme ai tradizionali documenti di testo. Questa funzionalità consente di estrarre informazioni da diversi tipi di dati: immagini autonome, registrazioni audio e file video archiviati in tutta l'organizzazione.

Le Knowledge Base di Amazon Bedrock consentono di indicizzare e recuperare informazioni da contenuti testuali, visivi e audio. Le organizzazioni possono ora cercare nei cataloghi di prodotti utilizzando immagini, trovare momenti specifici nei video di formazione e recuperare segmenti pertinenti dalle registrazioni delle chiamate all'assistenza clienti.

**Disponibilità regionale**  
Gli approcci di elaborazione multimodale hanno una disponibilità regionale diversa. Per informazioni dettagliate, consulta [Disponibilità regionale](kb-multimodal-choose-approach.md#kb-multimodal-processing-regions).

## Caratteristiche e funzionalità
<a name="kb-multimodal-features"></a>

Le basi di conoscenza multimodali forniscono le seguenti funzionalità chiave:

**Interrogazioni basate su immagini**  
Invia immagini come query di ricerca per trovare contenuti visivamente simili quando usi Nova Multimodal Embeddings. Supporta la corrispondenza dei prodotti, la ricerca di somiglianze visive e il recupero delle immagini.

**Recupero di contenuti audio**  
Cerca file audio utilizzando interrogazioni di testo. Recupera segmenti specifici dalle registrazioni con riferimenti a data e ora. La trascrizione audio consente la ricerca testuale tra i contenuti vocali, tra cui riunioni, chiamate e podcast.

**Estrazione di segmenti video**  
Individua momenti specifici all'interno dei file video utilizzando query di testo. Recupera segmenti video con timestamp precisi.

**Ricerca intermodale**  
Cerca tra diversi tipi di dati tra cui documenti di testo, immagini, audio e video. Recupera i contenuti pertinenti indipendentemente dal formato originale.

**Riferimenti alle fonti con timestamp**  
I risultati del recupero includono riferimenti a file originali con metadati temporali per audio e video. Consente una navigazione precisa verso i segmenti pertinenti all'interno dei contenuti multimediali.

**Opzioni di elaborazione flessibili**  
Scegliete tra incorporamenti multimodali nativi per la somiglianza visiva o la conversione del testo per contenuti basati sul parlato. Configura l'approccio di elaborazione in base alle caratteristiche dei contenuti e ai requisiti delle applicazioni.

## Come funziona
<a name="kb-multimodal-how-it-works"></a>

Le knowledge base multimodali elaborano e recuperano i contenuti attraverso una pipeline in più fasi che gestisce in modo appropriato diversi tipi di dati:

****Ingestione ed elaborazione****

1. **Connessione alla fonte di dati:** Collega la tua knowledge base a bucket Amazon S3 o sorgenti dati personalizzate contenenti documenti di testo, immagini, file audio e file video.

1. **Rilevamento del tipo di file:** il sistema identifica ogni tipo di file in base alla sua estensione e lo indirizza alla pipeline di elaborazione appropriata.

1. **Elaborazione del contenuto:** a seconda della configurazione, i file vengono elaborati utilizzando uno dei due approcci seguenti:
   + **Nova Multimodal Embeddings:** conserva il formato nativo per la corrispondenza delle somiglianze visive e audio. Immagini, audio e video vengono incorporati direttamente senza conversione in testo.
   + **Bedrock Data Automation (BDA):** converte i contenuti multimediali in rappresentazioni testuali. L'audio viene trascritto utilizzando il riconoscimento vocale automatico (ASR), il video viene elaborato per estrarre riassunti e trascrizioni delle scene e le immagini vengono sottoposte all'OCR e all'estrazione del contenuto visivo.

1. **Generazione di incorporamento:** i contenuti elaborati vengono convertiti in incorporamenti vettoriali utilizzando il modello di incorporamento selezionato. Questi incorporamenti catturano il significato semantico e consentono il recupero basato sulla somiglianza.

1. **Archiviazione vettoriale:** gli incorporamenti vengono archiviati nel database vettoriale configurato insieme ai metadati, tra cui riferimenti ai file, timestamp (per audio e video) e informazioni sul tipo di contenuto.

1. **Archiviazione multimodale (opzionale):** se configurata, i file multimediali originali vengono copiati su una destinazione di archiviazione multimodale dedicata per un recupero affidabile, garantendo la disponibilità anche se i file di origine vengono modificati o eliminati.

****Interrogazione e recupero****

1. **Elaborazione delle query:** le query degli utenti (testo o immagine) vengono convertite in incorporamenti utilizzando lo stesso modello di incorporamento utilizzato durante l'ingestione.

1. **Ricerca per similarità:** l'incorporamento delle query viene confrontato con gli incorporamenti memorizzati nel database vettoriale per identificare i contenuti più pertinenti.

1. **Recupero dei risultati: il sistema restituisce i** contenuti corrispondenti con i metadati, tra cui:
   + URI di origine (posizione del file originale)
   + Metadati del timestamp (per segmenti audio e video)
   + Informazioni sul tipo di contenuto e sulla modalità

1. **Generazione di risposte (opzionale):** per `RetrieveAndGenerate` le richieste, il contenuto recuperato viene passato a un modello di base per generare risposte testuali pertinenti al contesto. Questa funzionalità è supportata quando si utilizza l'elaborazione BDA o quando la knowledge base contiene contenuto testuale.

**Importante**  
Il sistema restituisce riferimenti a file completi con metadati con timestamp per contenuti audio e video. L'applicazione deve estrarre e riprodurre segmenti specifici in base ai timestamp di inizio e fine forniti. Lo Console di gestione AWS gestisce automaticamente.

**Topics**
+ [Caratteristiche e funzionalità](#kb-multimodal-features)
+ [Come funziona](#kb-multimodal-how-it-works)
+ [Scelta dell'approccio di elaborazione multimodale](kb-multimodal-choose-approach.md)
+ [Prerequisiti per basi di conoscenza multimodali](kb-multimodal-prerequisites.md)
+ [Crea una base di conoscenze per contenuti multimodali](kb-multimodal-create.md)
+ [Aggiungere fonti di dati e avviare l'inserimento](kb-multimodal-add-data-source-and-ingest.md)
+ [Test e interrogazione di basi di conoscenza multimodali](kb-multimodal-test-and-query.md)
+ [Risoluzione dei problemi relativi alle basi di conoscenza multimodali](kb-multimodal-troubleshooting.md)

# Scelta dell'approccio di elaborazione multimodale
<a name="kb-multimodal-choose-approach"></a>

Amazon Bedrock Knowledge Bases offre due approcci per l'elaborazione di contenuti multimodali: Nova Multimodal Embeddings per ricerche di similarità visiva e Bedrock Data Automation (BDA) per l'elaborazione testuale di contenuti multimediali. Puoi anche utilizzare i modelli di base come parser se la modalità di input è l'immagine ma non l'audio o il video.

Questa sezione descrive l'utilizzo di Nova Multimodal Embeddings e BDA come approccio di elaborazione per contenuti multimodali. Ogni approccio è ottimizzato per diversi casi d'uso e modelli di query.

**Topics**
+ [Approccio di elaborazione multimodale](#kb-multimodal-processing-approach)
+ [Disponibilità regionale](#kb-multimodal-processing-regions)
+ [Criteri di selezione per tipo di contenuto](#kb-multimodal-selection-guidance)
+ [Tipi di file e fonti di dati supportati](#kb-multimodal-supported-files)
+ [Funzionalità e limitazioni](#kb-multimodal-approach-details)

## Approccio di elaborazione multimodale
<a name="kb-multimodal-processing-approach"></a>

La tabella seguente mostra un confronto tra Nova Multimodal Embeddings e BDA per l'elaborazione di contenuti multimodali.


**Confronto degli approcci di elaborazione**  

| Caratteristica | Incorporamenti multimodali Nova | Bedrock Data Automation (BDA) | 
| --- | --- | --- | 
| Metodo di elaborazione | Genera incorporamenti senza conversione intermedia del testo | Converte i file multimediali in testo, quindi crea incorporamenti | 
| Tipi di query supportati | Interrogazioni di testo o di immagini | Solo interrogazioni di testo | 
| Casi d'uso primari | Ricerca di somiglianze visive, abbinamento dei prodotti, scoperta di immagini | Trascrizione vocale, ricerca testuale, analisi dei contenuti | 
| Funzionalità RAG | Limitato al solo contenuto testuale | RetrieveAndGenerateSupporto completo | 
| Requisiti di storage | È richiesta una destinazione di archiviazione multimodale | Destinazione di archiviazione multimodale facoltativa, ma se non specificata, solo i dati di testo verranno elaborati da BDA. Per l'immissione non testuale, è necessario specificare una destinazione di archiviazione multimodale. | 

## Disponibilità regionale
<a name="kb-multimodal-processing-regions"></a>


**Disponibilità regionale**  

| Incorporamenti multimodali Nova | Bedrock Data Automation (BDA) | 
| --- | --- | 
| Solo Stati Uniti orientali (Virginia settentrionale) |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-multimodal-choose-approach.html)  | 

## Criteri di selezione per tipo di contenuto
<a name="kb-multimodal-selection-guidance"></a>

Utilizza questa matrice decisionale per scegliere l'approccio di elaborazione appropriato in base ai requisiti dei contenuti e dei casi d'uso:

**Nota**  
Se utilizzi il parser BDA con il modello Amazon Nova Multimodal Embeddings, il modello di incorporamento funzionerà come un modello di incorporamento di testo. Quando lavori con contenuti multimodali, utilizza uno degli approcci di elaborazione per ottenere i migliori risultati a seconda del caso d'uso.


**Suggerimenti sull'approccio di elaborazione per tipo di contenuto**  

| Content Type | Incorporamenti multimodali Nova | Bedrock Data Automation (BDA) | 
| --- | --- | --- | 
| Cataloghi e immagini dei prodotti | Consigliato: consente la corrispondenza delle somiglianze visive e le interrogazioni basate su immagini | Limitato: estrae solo il testo tramite OCR | 
| Registrazioni e chiamate delle riunioni | Non è possibile elaborare i contenuti vocali in modo significativo | Consigliato: fornisce la trascrizione completa del parlato e un testo ricercabile | 
| Video formativi e didattici | Parziale: gestisce i contenuti visivi ma non la voce | Consigliato: acquisisce sia le trascrizioni vocali che le descrizioni visive | 
| Registrazioni dell'assistenza clienti | Non consigliato: i contenuti vocali non possono essere elaborati in modo efficace | Consigliato: crea trascrizioni di conversazioni complete e ricercabili | 
| Diagrammi e diagrammi tecnici | Consigliato: eccellente per la somiglianza visiva e la corrispondenza dei modelli | Limitato: estrae le etichette di testo ma non le relazioni visive | 

## Tipi di file e fonti di dati supportati
<a name="kb-multimodal-supported-files"></a>

I tipi di file supportati dipendono dall'approccio di elaborazione scelto:


**Tipi di file supportati in base all'approccio di elaborazione**  

| Tipo di file | Incorporamenti multimodali Nova | Bedrock Data Automation (BDA) | 
| --- | --- | --- | 
| Immagini | .png, .jpg, .jpeg, .gif, .webp | .png, .jpg, .jpeg | 
| Audio | .mp3, .ogg, .wav | .amr, .flac, .m4a, .mp3, .ogg, .wav | 
| Video | .mp4, .mov, .mkv, .webm, .flv, .mpeg, .mpg, .wmv, .3gp | .mp4, .mov | 
| Documenti | Elaborato come testo | .pdf (più l'estrazione del testo dalle immagini) | 

****Fonti di dati supportate****  
I contenuti multimodali sono supportati con le seguenti fonti di dati:
+ **Amazon S3:** supporto completo per tutti i tipi di file multimodali
+ **Fonti dati personalizzate:** Supporto per contenuti in linea con codifica base64 fino a 10 MB

**Importante**  
Il recupero multimodale è attualmente disponibile solo per le fonti di dati Amazon S3. Altre fonti di dati (Confluence, Salesforce SharePoint, Web Crawler) non elaborano i file multimodali durante l'ingestione. Questi file vengono ignorati e non saranno disponibili per le query multimodali.

## Funzionalità e limitazioni
<a name="kb-multimodal-approach-details"></a>

**Incorporamenti multimodali Nova**  
**Funzionalità chiave:**  
+ L'elaborazione multimodale nativa preserva il formato del contenuto originale per una corrispondenza ottimale delle somiglianze visive
+ Le query basate su immagini consentono agli utenti di caricare immagini e trovare contenuti visivamente simili
+ Prestazioni eccellenti per cataloghi di prodotti, ricerca visiva e applicazioni di scoperta dei contenuti
**Limitazioni:**  
+ Impossibile elaborare efficacemente contenuti vocali o audio: le informazioni vocali non sono ricercabili
+ `RetrieveAndGenerate`e riordina la funzionalità limitata ai soli contenuti testuali
+ Richiede la configurazione di una destinazione di archiviazione multimodale dedicata

**Bedrock Data Automation (BDA)**  
**Funzionalità chiave:**  
+ Trascrizione vocale completa utilizzando la tecnologia di riconoscimento vocale automatico (ASR)
+ L'analisi del contenuto visivo genera testo descrittivo per immagini e scene video
+ Il `RetrieveAndGenerate` supporto completo consente la funzionalità RAG completa su tutti i contenuti
+ La ricerca basata su testo funziona in modo uniforme su tutti i tipi di contenuti multimediali
**Limitazioni:**  
+ Nessun supporto per le query basate su immagini se utilizzate senza Nova Multimodal Embeddings: tutte le ricerche devono utilizzare l'immissione di testo
+ Impossibile eseguire corrispondenze o ricerche di somiglianza visiva image-to-image
+ Tempi di elaborazione dell'ingestione più lunghi a causa dei requisiti di conversione dei contenuti
+ Supporta un numero inferiore di formati di file multimediali rispetto a Nova Multimodal Embeddings

**Elaborazione dei contenuti vocali**  
Nova Multimodal Embeddings non è in grado di elaborare efficacemente i contenuti vocali nei file audio o video. Se i tuoi contenuti multimediali contengono importanti informazioni vocali che gli utenti devono cercare, scegli l'approccio BDA per garantire la trascrizione e la ricercabilità complete.

# Prerequisiti per basi di conoscenza multimodali
<a name="kb-multimodal-prerequisites"></a>

Le knowledge base multimodali di Amazon Bedrock richiedono una configurazione aggiuntiva rispetto alle knowledge base standard per elaborare immagini, audio e contenuti video. I prerequisiti specifici dipendono dall'approccio di elaborazione e dalla configurazione di storage scelti.

Prima di poter creare una knowledge base multimodale, è necessario soddisfare i seguenti prerequisiti:

**Topics**
+ [Prerequisiti](#kb-multimodal-prerequisites)
+ [Autorizzazioni per contenuti multimodali](#kb-multimodal-prerequisites-permissions)

## Prerequisiti
<a name="kb-multimodal-prerequisites"></a>

1. Assicurati che i tuoi dati si trovino in un [connettore di origine dati supportato](data-source-connectors.md). I contenuti multimodali sono supportati solo con Amazon S3 e fonti di dati personalizzate.

1. (Opzionale) [Configura il tuo archivio vettoriale supportato](knowledge-base-setup.md). Se prevedi di utilizzare Console di gestione AWS per creare automaticamente un archivio vettoriale, puoi saltare questa fase.

1. Crea un [ruolo di servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) personalizzato AWS Identity and Access Management (IAM) con le autorizzazioni appropriate per l'elaborazione multimodale. Per informazioni dettagliate, vedi [Autorizzazioni per contenuti multimodali](#kb-multimodal-prerequisites-permissions).
**Nota**  
Se utilizzi la console, Amazon Bedrock Knowledge Bases configurerà automaticamente le autorizzazioni per te.

1. (Opzionale) Configura impostazioni di sicurezza aggiuntive seguendo le fasi indicate in [Crittografia delle risorse della knowledge base](encryption-kb.md).

1. Se prevedi di utilizzare il funzionamento dell'[https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)API con contenuti elaborati da BDA, richiedi l'accesso ai modelli che utilizzerai nelle regioni in cui li utilizzerai seguendo la procedura riportata qui. [Accesso ai modelli di fondazione Amazon Bedrock](model-access.md)

## Autorizzazioni per contenuti multimodali
<a name="kb-multimodal-prerequisites-permissions"></a>

Le knowledge base multimodali richiedono autorizzazioni aggiuntive oltre alle autorizzazioni standard della knowledge base. Le autorizzazioni specifiche dipendono dall'approccio di elaborazione e dalla configurazione di archiviazione scelti.

È necessario configurare le seguenti autorizzazioni in base all'approccio di elaborazione multimodale:
+ **Autorizzazioni Nova Multimodal Embeddings: richieste** quando si utilizza Nova Multimodal Embeddings per ricerche dirette di somiglianza visiva e audio. Include le autorizzazioni per l'invocazione asincrona del modello e l'accesso allo storage multimodale.
+ Autorizzazioni **Bedrock Data Automation (BDA): necessarie quando si utilizza BDA per convertire contenuti multimodali in rappresentazioni** di testo. Include le autorizzazioni per l'invocazione dell'automazione dei dati e il monitoraggio dello stato.
+ **Autorizzazioni per chiavi KMS gestite dal cliente: richieste quando si utilizzano chiavi** di crittografia gestite dal cliente con elaborazione BDA. Include le autorizzazioni per le operazioni chiave e la creazione di concessioni.
+ **Autorizzazioni di archiviazione multimodale: richieste** per la configurazione di una destinazione di archiviazione multimodale. Include le autorizzazioni S3 standard per il bucket di archiviazione.

Per le policy IAM dettagliate e la configurazione delle step-by-step autorizzazioni, consulta. [Autorizzazioni per contenuti multimodali](kb-permissions.md#kb-permissions-multimodal)

### Requisiti di storage
<a name="kb-multimodal-storage-requirements"></a>

**Incorporamenti multimodali Nova**  
**Obbligatorio:** è necessario configurare una destinazione di archiviazione multimodale. Questa destinazione archivia le copie dei file multimediali per il recupero e ne garantisce la disponibilità anche se i file sorgente vengono modificati o eliminati.

**Bedrock Data Automation (BDA)**  
**Facoltativo:** è possibile configurare un bucket di archiviazione multimodale per una maggiore affidabilità e anche per recuperare il file in fase di esecuzione. Tuttavia, non è necessario poiché BDA converte il contenuto in testo.  
Se si seleziona il parser BDA senza configurare un bucket di archiviazione multimodale, sarà disponibile solo l'analisi del testo. Per sfruttare le funzionalità di analisi multimodale con BDA (elaborazione di immagini, audio e video), è necessario configurare una destinazione di archiviazione multimodale.

**Configurazione della destinazione di archiviazione multimodale**  
Quando configuri la destinazione di archiviazione multimodale, considera quanto segue:
+ **Usa bucket separati (consigliato):** configura diversi bucket Amazon S3 per l'origine dati e la destinazione di storage multimodale. Ciò fornisce la configurazione più semplice ed evita potenziali conflitti.
+ **Se si utilizza lo stesso bucket:** è necessario specificare un prefisso di inclusione per l'origine dati che limiti il contenuto da importare. Ciò impedisce di reimportare i file multimediali estratti.
+ **Evita il prefisso «aws/»:** quando usi lo stesso bucket sia per l'origine dati che per la destinazione di archiviazione multimodale, non utilizzare prefissi di inclusione che iniziano con «aws/» poiché questo percorso è riservato all'archiviazione dei media estratti.

# Crea una base di conoscenze per contenuti multimodali
<a name="kb-multimodal-create"></a>

È possibile creare basi di conoscenza multimodali utilizzando la console o l'API. Scegli il tuo approccio in base alle tue esigenze di elaborazione multimodale.

**Importante**  
Il supporto multimodale è disponibile solo quando si crea una knowledge base con fonti di dati non strutturate. Le fonti di dati strutturate non supportano l'elaborazione multimodale dei contenuti.

------
#### [ Console ]

**Per creare una knowledge base multimodale dalla console**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli **Crea**, quindi scegli **Knowledge base con archivio vettoriale**.

1. (Opzionale) In **Dettagli della knowledge base**, modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. In **Autorizzazioni IAM**, scegli un ruolo IAM che fornisca ad Amazon Bedrock l’autorizzazione per accedere ad altri servizi Servizi AWS necessari. Puoi fare in modo che Amazon Bedrock crei il ruolo di servizio per te oppure puoi scegliere di utilizzare il tuo ruolo personalizzato. Per le autorizzazioni multimodali, consulta. [Autorizzazioni per contenuti multimodali](kb-permissions.md#kb-permissions-multimodal)

1. Scegli **Amazon S3** come origine dati e scegli **Avanti** per configurare la tua origine dati.
**Nota**  
Puoi aggiungere fino a 5 sorgenti dati Amazon S3 durante la creazione della knowledge base. È possibile aggiungere ulteriori fonti di dati dopo la creazione della knowledge base.

1. Fornisci l'**URI S3** del bucket contenente il contenuto multimodale e configura un prefisso di inclusione, se necessario. Il prefisso di inclusione è un percorso di cartella che può essere utilizzato per limitare il contenuto che viene importato.

1. In **Configurazioni di suddivisione in blocchi e analisi, scegli la tua strategia di analisi**:
   + **Parser predefinito Bedrock**: consigliato per l'elaborazione di contenuti di solo testo. Questo parser elabora i formati di testo più comuni ignorando i file multimodali. Supporta documenti di testo tra cui file Word, Excel, HTML, Markdown, TXT e CSV.
   + **Bedrock Data Automation (BDA):** converte i contenuti multimodali in rappresentazioni di testo ricercabili. PDFsElabora, immagini, file audio e video per estrarre testo, generare descrizioni per contenuti visivi e creare trascrizioni per contenuti audio e video.
   + **Foundation Model Parser:** fornisce funzionalità di analisi avanzate per strutture di documenti complesse. Processi PDFs, immagini, documenti strutturati, tabelle e contenuti visivamente ricchi per estrarre testo e generare descrizioni per elementi visivi.

1. Scegli **Next** e seleziona il modello di incorporamento e l'approccio di elaborazione multimodale. 
   + **Amazon Nova Multimodal Embeddings V1.0: scegli** **Amazon Nova embedding V1.0** per ricerche dirette di somiglianza visiva e audio. Configura la durata dei blocchi audio e video (1-30 secondi, impostazione predefinita 5 secondi) per controllare la segmentazione dei contenuti.
**Nota**  
I parametri di suddivisione in blocchi audio e video sono configurati a livello di modello di incorporamento, non a livello di origine dati. Si verifica un’eccezione di convalida se si fornisce questa configurazione per modelli di embedding non multimodali. Configura la durata dei blocchi audio e video (impostazione predefinita: 5 secondi, intervallo: 1-30 secondi) per controllare la segmentazione dei contenuti. I blocchi più brevi consentono un recupero preciso dei contenuti, mentre i blocchi più lunghi conservano un contesto più semantico.
**Importante**  
Amazon Nova embedding v1.0 offre un supporto limitato per la ricerca di contenuti vocali nei audio/video dati. Se hai bisogno di supportare il riconoscimento vocale, usa Bedrock Data Automation come parser.
   + **Incorporamenti di testo con BDA:** scegli un modello di incorporamento del testo (come Titan Text Embeddings v2) quando utilizzi l'elaborazione BDA. I modelli di incorporamento del testo limitano il recupero ai contenuti di solo testo, ma puoi abilitare il recupero multimodale selezionando Amazon Bedrock Data Automation o Foundation Model come parser.
**Nota**  
Se utilizzi il parser BDA con Nova Multimodal Embeddings, Amazon Bedrock Knowledge Bases utilizzerà prima l'analisi BDA. In questo caso, il modello di incorporamento non genererà incorporamenti multimodali nativi per immagini, audio e video poiché BDA li converte in rappresentazioni di testo.

1. Se utilizzi Nova Multimodal Embeddings, configura la **destinazione di storage multimodale** specificando un bucket Amazon S3 in cui archiviare i file elaborati per il recupero. Le Knowledge Base memorizzeranno le immagini analizzate in un singolo bucket Amazon S3 con una cartella creata.bda per un facile accesso.
**Raccomandazione sulla politica relativa al ciclo di vita**  
Quando si utilizza Nova Multimodal Embeddings, Amazon Bedrock archivia i dati transitori nella destinazione di archiviazione multimodale e tenta di eliminarli una volta completata l'elaborazione. Ti consigliamo di applicare una politica del ciclo di vita sul percorso temporaneo dei dati per garantire una pulizia adeguata. Per istruzioni dettagliate, vedi [Gestione dei dati transitori con le policy del ciclo di vita di Amazon S3](kb-multimodal-troubleshooting.md#kb-multimodal-lifecycle-policy).

1. Nella sezione **Database Vector**, scegli il metodo di archiviazione vettoriale e configura le dimensioni appropriate in base al modello di incorporamento selezionato.

1. Scegli **Avanti** e rivedi i dettagli della configurazione della tua knowledge base, quindi scegli **Crea** knowledge base.

------
#### [ CLI ]

**Per creare una knowledge base multimodale utilizzando AWS CLI**
+ Crea una knowledge base con Nova Multimodal Embeddings. Invia una richiesta: [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)

  ```
  aws bedrock-agent create-knowledge-base \
  --cli-input-json file://kb-nova-mme.json
  ```

  Contenuto di `kb-nova-mme.json` (sostituisci i valori segnaposto con la tua configurazione specifica):

  ```
  {
      "knowledgeBaseConfiguration": {
          "vectorKnowledgeBaseConfiguration": {
              "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0",
              "supplementalDataStorageConfiguration": {
                  "storageLocations": [
                      {
                          "type": "S3",
                          "s3Location": {
                              "uri": "s3://<multimodal-storage-bucket>/"
                          }
                      }
                  ]
              }
          },
          "type": "VECTOR"
      },
      "storageConfiguration": {
          "opensearchServerlessConfiguration": {
              "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>",
              "vectorIndexName": "<index-name>",
              "fieldMapping": {
                  "vectorField": "<vector-field>",
                  "textField": "<text-field>",
                  "metadataField": "<metadata-field>"
              }
          },
          "type": "OPENSEARCH_SERVERLESS"
      },
      "name": "<knowledge-base-name>",
      "description": "Multimodal knowledge base with Nova Multimodal Embeddings"
  }
  ```

  Sostituire i seguenti segnaposto:
  + `<multimodal-storage-bucket>`- Bucket S3 per l'archiviazione di file multimodali
  + `<account-id>`- L'ID del tuo account AWS
  + `<collection-id>`- ID di raccolta OpenSearch serverless
  + `<index-name>`- Nome dell'indice vettoriale nella OpenSearch raccolta (configurato con le dimensioni appropriate per il modello di incorporamento scelto)
  + `<vector-field>`- Nome del campo per la memorizzazione degli incorporamenti
  + `<text-field>`- Nome del campo per la memorizzazione del contenuto testuale
  + `<metadata-field>`- Nome del campo per la memorizzazione dei metadati

------

# Aggiungere fonti di dati e avviare l'inserimento
<a name="kb-multimodal-add-data-source-and-ingest"></a>

Dopo aver creato la tua knowledge base, aggiungi fonti di dati contenenti i contenuti multimodali e avvia i processi di inserimento per elaborare e indicizzare i contenuti.

**Comportamento di eliminazione delle fonti di dati**  
Quando si elimina un'origine dati con la politica di eliminazione impostata su RETAIN, il contenuto importato rimane nel database vettoriale e continuerà a essere utilizzato per il recupero. Il contenuto viene rimosso solo se si sincronizza esplicitamente la knowledge base dopo aver eliminato l'origine dati. Le fonti di dati con la politica DELETE predefinita rimuoveranno automaticamente il contenuto dal database vettoriale e dallo spazio di archiviazione supplementare durante l'eliminazione. Ciò garantisce che la tua knowledge base continui a funzionare anche se i file di origine vengono modificati o eliminati, ma tieni presente che le fonti di dati eliminate con la politica RETAIN possono comunque contribuire ai risultati della ricerca.

## Aggiungi fonti di dati
<a name="kb-multimodal-add-data-source"></a>

Aggiungi fonti di dati contenenti i tuoi contenuti multimodali alla tua knowledge base.

**Importante**  
Per le fonti di dati BDA: solo le fonti di dati create dopo l'avvio del audio/video supporto elaboreranno i file audio e video. Le sorgenti dati BDA esistenti create prima del lancio di questa funzionalità continueranno a ignorare i file audio e video. Per abilitare audio/video l'elaborazione per le knowledge base esistenti, crea nuove fonti di dati.

------
#### [ Console ]

**Per aggiungere una fonte di dati dalla console**

1. Dalla pagina dei dettagli della knowledge base, scegli **Aggiungi origine dati**.

1. Scegli **Amazon S3 come tipo** di origine dati.

1. Fornisci un nome e una descrizione per la tua fonte di dati.

1. Configura la posizione Amazon S3 contenente i tuoi file multimodali fornendo l'URI del bucket e gli eventuali prefissi di inclusione.

1. In Analisi e **suddivisione in blocchi dei contenuti, configura i metodi di analisi e suddivisione in blocchi**:
**Nota**  
I modelli di incorporamento del testo limitano il recupero ai contenuti di solo testo, ma puoi abilitare il recupero multimodale tramite testo selezionando Amazon Bedrock Data Automation (per audio, video e immagini) o Foundation Model come parser (per immagini).

   Scegli tra tre strategie di analisi:
   + **Parser predefinito Bedrock:** consigliato per l'analisi di solo testo. Questo parser ignora il contenuto multimodale ed è comunemente usato con modelli di incorporamento multimodali.
   + **Bedrock Data Automation come parser:** consente l'analisi e l'archiviazione di contenuti multimodali come file di testo, supporto, immagini, audio e video. PDFs
   + **Modello Foundation come parser:** fornisce un'analisi avanzata di immagini e documenti strutturati, supporta immagini, tabelle e documenti PDFs visivamente ricchi.

1. Scegli **Aggiungi origine dati** per creare l'origine dati.

------
#### [ CLI ]

**Per aggiungere una fonte di dati utilizzando il AWS CLI**
+ Crea una fonte di dati per i tuoi contenuti multimodali. Invia una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta:

  ```
  aws bedrock-agent create-data-source \
  --knowledge-base-id <knowledge-base-id> \
  --cli-input-json file://ds-multimodal.json
  ```

  Per Nova Multimodal Embeddings (non è necessaria alcuna configurazione di analisi speciale), usa questo contenuto: `ds-multimodal.json`

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source",
      "description": "Data source with multimodal content",
      "dataDeletionPolicy": "RETAIN"
  }
  ```

  Per l'approccio di analisi BDA, usa questa configurazione:

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source_bda",
      "description": "Data source with BDA multimodal parsing",
      "dataDeletionPolicy": "RETAIN",
      "vectorIngestionConfiguration": {
          "parsingConfiguration": {
              "bedrockDataAutomationConfiguration": {
                  "parsingModality": "MULTIMODAL"
              }
          }
      }
  }
  ```

------

## Avvio di un processo di importazione
<a name="kb-multimodal-start-ingestion"></a>

Dopo aver aggiunto le fonti di dati, avvia un processo di inserimento per elaborare e indicizzare i contenuti multimodali.

------
#### [ Console ]

**Per avviare l'importazione dalla console**

1. **Dalla pagina dei dettagli dell'origine dati, scegli Sincronizza.**

1. Monitora lo stato di sincronizzazione nella pagina dell'origine dati. L'ingestione può richiedere diversi minuti a seconda delle dimensioni e del numero dei file multimodali.

1. Una volta completata correttamente la sincronizzazione, il contenuto multimodale è pronto per l'interrogazione.

------
#### [ CLI ]

**Per iniziare l'ingestione, utilizzare il AWS CLI**

1. Avviare un processo di ingestione. Invia una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)richiesta:

   ```
   aws bedrock-agent start-ingestion-job \
   --knowledge-base-id <knowledge-base-id> \
   --data-source-id <data-source-id>
   ```

   Sostituisci i segnaposto con:
   + `<knowledge-base-id>`- ID derivante dalla creazione della knowledge base
   + `<data-source-id>`- ID derivante dalla creazione della fonte di dati

1. Monitora lo stato del processo di importazione utilizzando. [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)

------

## Risincronizzazione dopo l'eliminazione della fonte di dati
<a name="kb-multimodal-resync-after-deletion"></a>

Se elimini un'origine dati e desideri rimuoverne il contenuto dalla knowledge base, devi risincronizzare esplicitamente la knowledge base:

**Per rimuovere il contenuto di una fonte di dati eliminato**

1. Elimina l'origine dati utilizzando la console o l'[https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html)API.

1. Avvia un nuovo processo di inserimento su tutte le fonti di dati rimanenti per aggiornare il database vettoriale e rimuovere il contenuto dall'origine dati eliminata.

1. Verifica che le query non restituiscano più risultati dall'origine dati eliminata.

**Nota**  
Senza risincronizzazione, il contenuto delle fonti di dati eliminate continuerà a essere visualizzato nei risultati di ricerca anche se l'origine dati non esiste più.

# Test e interrogazione di basi di conoscenza multimodali
<a name="kb-multimodal-test-and-query"></a>

Dopo aver acquisito i contenuti multimodali, puoi testare e interrogare la tua knowledge base utilizzando la console o l'API. I tipi di query disponibili dipendono dall'approccio di elaborazione scelto.

------
#### [ Console ]

**Per testare la tua knowledge base dalla console**

1. Dalla pagina dei dettagli della knowledge base, scorri fino alla sezione **Test knowledge base**.

1. Scegli il tipo di query:
   + **Solo recupero standard:** interroga e recupera informazioni da fonti di dati in un'unica Knowledge Base.
   + **Recupero e generazione di risposte:** interroga una singola Knowledge Base e genera risposte basate sui risultati recuperati utilizzando un modello di base.
**Nota**  
Se si dispone di contenuti multimodali, è necessario utilizzare il parser BDA per il recupero e la generazione di risposte.

1. Configura le opzioni aggiuntive in base alle esigenze:
   + **Chunk di origine:** specifica il numero massimo di blocchi di origine da restituire
   + **Tipo di ricerca: seleziona il tipo di** ricerca per personalizzare la strategia di interrogazione
   + Filtri per **metadati: applica filtri** per restringere i risultati della ricerca
   + **Guardrail:** seleziona un guardrail esistente o creane uno nuovo

1. Inserisci una query di testo o carica un'immagine (solo Nova Multimodal Embeddings) per cercare i tuoi contenuti multimodali. Utilizzate il pulsante degli allegati per caricare immagini per la ricerca di somiglianze visive.

1. Esamina i risultati, che includono:
   + Blocchi di contenuto recuperati con punteggi di pertinenza
   + Riferimenti e timestamp dei file di origine (per audio/video)
   + Metadati, inclusi tipi di file e informazioni di elaborazione
   + Per i contenuti multimediali, controlli di riproduzione con posizionamento automatico dei segmenti in base ai timestamp recuperati

------
#### [ API ]

Gli esempi seguenti mostrano come utilizzare l'API Amazon Bedrock Agent Runtime per interrogare la tua knowledge base multimodale a livello di codice:

**Esempio di interrogazione testuale**  
Ricerca utilizzando l'immissione di testo:

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <knowledge-base-id> \
--retrieval-query text="robot automation in manufacturing"
```

**Esempio di interrogazione di immagini (solo Nova Multimodal Embeddings)**  
Cerca utilizzando un'immagine caricata:

```
{
    "knowledgeBaseId": "<knowledge-base-id>",
    "retrievalQuery": {
        "imageQuery": {
            "inlineContent": {
                "mimeType": "image/jpeg",
                "data": "<base64-encoded-image>"
            }
        }
    }
}
```

------

## Tipi di query supportati
<a name="kb-multimodal-query-types"></a>

**Interrogazioni di testo**  
Supportato con gli approcci Nova Multimodal Embeddings e BDA. Effettua ricerche utilizzando testo in linguaggio naturale per trovare contenuti pertinenti su tutti i tipi di media.

**Richieste di immagini**  
Supportato solo con Nova Multimodal Embeddings. Carica immagini per trovare contenuti visivamente simili nella tua knowledge base.

## Comprendere i metadati di risposta
<a name="kb-multimodal-response-metadata"></a>

Le risposte alle interrogazioni multimodali includono metadati aggiuntivi per i contenuti multimediali:

**Attribuzione della fonte**  
Posizione del file originale (sourceURI) e posizione di archiviazione multimodale (SupplementalURI) per un accesso affidabile

**Metadati temporali**  
Timestamp di inizio e fine per i segmenti audio e video, che consentono una navigazione precisa verso i contenuti pertinenti

**Informazioni sul tipo di contenuto**  
Indicatori di formato di file, metodo di elaborazione e modalità per aiutare le applicazioni a gestire i diversi tipi di contenuto in modo appropriato

**Struttura dei metadati del database vettoriale**  
Quando il contenuto multimodale viene elaborato e archiviato, nel database vettoriale viene utilizzata la seguente struttura di metadati:
+ **campo di testo:** per i file multimediali elaborati con Nova Multimodal Embeddings, questo campo contiene una stringa vuota poiché il contenuto è incorporato come contenuto multimediale nativo anziché come testo
+ **campo di metadati:** contiene informazioni strutturate tra cui dettagli sulla fonte e riferimenti ai contenuti correlati:

  ```
  {
    "source": {
      "sourceType": "S3",
      "s3Location": {
        "uri": "s3://source-bucket/path/to/file.mp4"
      }
    },
    "relatedContent": [{
      "type": "S3",
      "s3Location": {
        "uri": "s3://multimodal-storage-bucket/processed/file.mp4"
      }
    }]
  }
  ```
+ **Campi creati automaticamente: campi** aggiuntivi per il filtraggio e l'identificazione:
  + `x-amz-bedrock-kb-source-uri`: URI di origine originale per le operazioni di filtraggio
  + `x-amz-bedrock-kb-data-source-id`: identificatore della fonte di dati per tracciare l'origine dei contenuti
  + `x-amz-bedrock-kb-chunk-start-time-in-millis`: data e ora di inizio in millisecondi per i segmenti audio e video
  + `x-amz-bedrock-kb-chunk-end-time-in-millis`: data e ora di fine in millisecondi per i segmenti audio e video
  + `x-amz-bedrock-kb-source-file-mime-type`: tipo MIME del file sorgente
  + `x-amz-bedrock-kb-source-file-modality`: modalità del file sorgente (TESTO, IMMAGINE, AUDIO, VIDEO)

**Importante**  
Le applicazioni devono utilizzare i timestamp forniti per estrarre e riprodurre segmenti specifici da file audio e video. La knowledge base restituisce riferimenti a file completi, non a clip presegmentate.

# Risoluzione dei problemi relativi alle basi di conoscenza multimodali
<a name="kb-multimodal-troubleshooting"></a>

Questa sezione fornisce una guida per risolvere i problemi più comuni riscontrati quando si lavora con le basi di conoscenza multimodali. Le informazioni sulla risoluzione dei problemi sono organizzate in base a limitazioni generali, scenari di errore comuni con relative cause e soluzioni e raccomandazioni per l'ottimizzazione delle prestazioni. Utilizzate queste informazioni per diagnosticare e risolvere problemi durante la configurazione, l'inserimento o l'interrogazione dei contenuti multimodali.

## Limitazioni generali
<a name="kb-multimodal-general-limitations"></a>

Siate consapevoli di queste limitazioni attuali quando lavorate con le knowledge base multimodali:
+ **Limiti di dimensione dei file:** massimo 1,5 GB per file video, 1 GB per file audio (Nova Multimodal Embeddings) o 1,5 GB per file (BDA)
+ **File per processo di inserimento: massimo 15.000 file per processo** (Nova Multimodal Embeddings) o 1.000 file per processo (BDA)
+ **Limiti di interrogazione**: massimo un'immagine per query
+ **Restrizioni alle origini dati:** solo Amazon S3 e le origini dati personalizzate supportano contenuti multimodali
+ **Limitazioni della suddivisione in blocchi BDA:** quando si utilizza Bedrock Data Automation con suddivisione in blocchi a dimensione fissa, le impostazioni della percentuale di sovrapposizione non vengono applicate ai contenuti audio e video
+ Limiti di lavori **BDA simultanei: limite predefinito di 20 lavori BDA simultanei**. Per l'elaborazione su larga scala, prendi in considerazione la possibilità di richiedere un aumento della quota di servizio
+ **Limitazioni del modello Reranker: i modelli** Reranker non sono supportati per i contenuti multimodali
+ **Limiti di riepilogo: il riepilogo** delle risposte di recupero contenenti contenuto non testuale non è supportato
+ **Limitazioni all'immissione delle query:** l'input contenente sia testo che immagine non è attualmente supportato. È possibile utilizzare query di testo o immagini, ma non entrambe contemporaneamente.
+ **Filtri di contenuto di immagini Guardrail:** quando si utilizzano query di immagini con un guardrail in cui sono configurati filtri per il contenuto delle immagini, l'immagine di input verrà valutata rispetto al guardrail e potrebbe essere bloccata se viola le soglie di filtro configurate
+ **Mancata corrispondenza tra input e tipo:** per impostazione predefinita, si presume che l'input sia testo quando il tipo non è specificato. Quando si utilizzano modalità diverse dal testo, è necessario specificare il tipo corretto

## Errori e soluzioni comuni
<a name="kb-multimodal-common-errors"></a>

Se riscontri problemi con la tua knowledge base multimodale, esamina questi scenari comuni:

**Errore 4xx quando si utilizzano interrogazioni di immagini**  
**Causa:** tentativo di utilizzare query di immagini con modelli di incorporamento di solo testo o knowledge base elaborate da BDA.  
**Soluzione:** scegli Amazon Nova Multimodal Embeddings quando crei la tua knowledge base per il supporto delle query di immagini.

**RAG restituisce un errore 4xx con contenuto multimodale**  
**Causa:** utilizzo `RetrieveAndGenerate` con una knowledge base contenente solo contenuti multimodali e il modello Amazon Nova Multimodal Embeddings.  
**Soluzione:** usa il parser BDA per la funzionalità RAG o assicurati che la tua knowledge base contenga contenuti testuali.

**Errore richiesto nella destinazione di archiviazione multimodale**  
**Causa:** utilizzo di Nova Multimodal Embeddings senza configurare una destinazione di archiviazione multimodale.  
**Soluzione:** specificare una destinazione di archiviazione multimodale quando si utilizza Nova Multimodal Embeddings.

**L'origine dei dati e lo storage multimodale utilizzano lo stesso bucket S3**  
**Causa:** configurazione dell'origine dati e della destinazione di storage multimodale per utilizzare lo stesso bucket Amazon S3 senza prefissi di inclusione appropriati.  
**Soluzione:** utilizza bucket separati per l'origine dei dati e lo storage multimodale oppure configura i prefissi di inclusione per impedire la reingestione dei file multimediali estratti.

**Il prefisso di inclusione non può iniziare con «aws/»**  
**Causa:** utilizzo di un prefisso di inclusione che inizia con «aws/» quando l'origine dati e la destinazione di storage multimodale condividono lo stesso bucket Amazon S3.  
**Soluzione**: specifica un prefisso di inclusione diverso. Il percorso «aws/» è riservato all'archiviazione dei file multimediali estratti e non può essere utilizzato come prefisso di inclusione per evitare di reimportare il contenuto elaborato.

**L'ingestione di BDA ignora i contenuti multimodali**  
**Causa: la** Knowledge Base è stata creata senza una destinazione di archiviazione multimodale, quindi è stata aggiunta l'origine dati BDA con contenuto multimodale.  
**Soluzione:** ricrea la knowledge base con una destinazione di archiviazione multimodale configurata per consentire l'elaborazione BDA di file audio, video e immagini.

**Knowledge base creata senza un modello di incorporamento multimodale**  
**Causa: la** Knowledge base è stata creata con un modello di incorporamento di solo testo, che limita le funzionalità multimodali.  
**Soluzione:** create una nuova knowledge base con Nova Multimodal Embeddings per abilitare l'elaborazione multimodale nativa e le query basate su immagini.

## Gestione dei dati transitori con le policy del ciclo di vita di Amazon S3
<a name="kb-multimodal-lifecycle-policy"></a>

Quando si utilizza Nova Multimodal Embeddings, Amazon Bedrock archivia i dati transitori nella destinazione di archiviazione multimodale e tenta di eliminarli una volta completata l'elaborazione. Ti consigliamo di applicare una politica del ciclo di vita sul percorso temporaneo dei dati per garantire che sia scaduto correttamente.

------
#### [ Console ]

**Per creare una regola del ciclo di vita utilizzando la console**

1. Apri la [console Amazon S3](https://console.aws.amazon.com/s3).

1. Passa alla destinazione di archiviazione multimodale che hai configurato per la tua Knowledge Base.

1. Scegli la scheda **Gestione** e seleziona **Crea regola del ciclo di vita**.

1. Per il nome **della regola del ciclo di vita**, immettere. **Transient Data Deletion**

1. In **Tipo di filtro**, scegli **Limita l'ambito di questa regola utilizzando uno o più** filtri.

1. In **Prefix**, inserisci il percorso dei dati temporanei per la tua knowledge base e la tua fonte di dati.

   Sostituisci i valori segnaposto nel seguente prefisso con i tuoi identificatori effettivi:

   ```
   aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data
   ```
**Importante**  
Non applicate le policy relative al ciclo di vita all'intero bucket o al prefisso «aws/», poiché ciò eliminerebbe il contenuto multimodale e causerebbe errori di recupero. Utilizza solo lo specifico percorso dei dati transitori mostrato sopra.

1. In **Azioni relative alle regole del ciclo** di vita, seleziona Fai **scadere** le versioni correnti degli oggetti.

1. Per **Giorni dopo la creazione dell'oggetto**, inserisci. **1**

1. Scegli **Crea regola**.

------
#### [ AWS CLI ]

**Per creare una regola del ciclo di vita utilizzando AWS CLI**

1. Crea un file JSON denominato `lifecycle-policy.json` con il seguente contenuto.

   Sostituisci i valori segnaposto con i tuoi identificatori effettivi:
   + *knowledge-base-id*- Il tuo identificatore della knowledge base
   + *data-source-id*- Il tuo identificatore della fonte di dati

   ```
   {
       "Rules": [
           {
               "ID": "TransientDataDeletion",
               "Status": "Enabled",
               "Filter": {
                   "Prefix": "aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data"
               },
               "Expiration": {
                   "Days": 1
               }
           }
       ]
   }
   ```

1. Applica la politica del ciclo di vita al tuo bucket. Sostituisci *your-multimodal-storage-bucket* con il nome effettivo del bucket:

   ```
   aws s3api put-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket \
       --lifecycle-configuration file://lifecycle-policy.json
   ```

1. Verifica che sia stata applicata la politica del ciclo di vita:

   ```
   aws s3api get-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket
   ```

------

*Per ulteriori informazioni sulle politiche del ciclo di vita di Amazon S3, consulta [Managing the lifecycle of objects nella Amazon S3 User Guide](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html).*

## Considerazioni sulle prestazioni
<a name="kb-multimodal-performance-considerations"></a>

Per prestazioni ottimali con la tua knowledge base multimodale, considera questi fattori:
+ **Tempo di elaborazione:** l'elaborazione BDA richiede più tempo a causa della conversione dei contenuti
+ **Latenza delle query:** le query di immagini possono avere una latenza maggiore rispetto alle query di testo
+ **Durata della suddivisione in blocchi: durate** più lunghe dei blocchi audio/video aumentano il tempo di elaborazione ma possono migliorare la precisione

# Compilazione di una knowledge base mediante connessione a un datastore strutturato
<a name="knowledge-base-build-structured"></a>

Knowledge Base per Amazon Bedrock consente di effettuare la connessione a datastore strutturati che contengono dati conformi a uno schema predefinito. Esempi di datastore strutturati includono tabelle e database. Knowledge Base per Amazon Bedrock può convertire le query degli utenti in un linguaggio adatto all’estrazione di dati dai datastore strutturati supportati. Possono quindi utilizzare la query convertita per recuperare i dati pertinenti alla query e generare risposte appropriate. Ciò consente di utilizzare direttamente i dati strutturati esistenti senza doverli convertire in un formato diverso o generare query SQL personalizzate.

Dopo aver configurato la knowledge base, è possibile inviare query per recuperare i dati da essa tramite l’operazione [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) o generare risposte dai dati recuperati tramite l’operazione [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html). Queste operazioni convertono fondamentalmente le query degli utenti in richieste appropriate per il datastore strutturato collegato alla knowledge base.

È inoltre possibile convertire le query indipendentemente dal recupero dei dati utilizzando l’operazione API [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html). Questa operazione converte le query in linguaggio naturale in query SQL appropriate all’origine dati interrogata. È possibile utilizzare questa operazione in modo indipendente e inserirla nel flusso di lavoro.

Seleziona un argomento per conoscere i prerequisiti e la procedura per connettere la tua knowledge base a un datastore strutturato.

**Topics**
+ [Configurazione del motore di query e delle autorizzazioni per la creazione di una knowledge base con un datastore strutturato](knowledge-base-prereq-structured.md)
+ [Creazione di una knowledge base connettendola a un datastore strutturato](knowledge-base-structured-create.md)
+ [Sincronizzare il data store strutturato con Knowledge Base per Amazon Bedrock](kb-data-source-structured-sync-ingest.md)

# Configurazione del motore di query e delle autorizzazioni per la creazione di una knowledge base con un datastore strutturato
<a name="knowledge-base-prereq-structured"></a>

Questo argomento descrive le autorizzazioni necessarie per connettere la knowledge base a un datastore strutturato. Se prevedi di connettere Knowledge Base per Amazon Bedrock a un datastore strutturato, devi soddisfare i prerequisiti. Per i requisiti generali di autorizzazione da soddisfare, consulta [Configurazione delle autorizzazioni per un utente o un ruolo per creare e gestire le knowledge base](knowledge-base-prereq-permissions-general.md).

**Importante**  
L'esecuzione di query SQL arbitrarie può rappresentare un rischio per la sicurezza di qualsiasi Text-to-SQL applicazione. È consigliabile adottare le precauzioni necessarie, ad esempio utilizzare ruoli limitati, database di sola lettura e sandboxing.

Knowledge Base per Amazon Bedrock supporta Amazon Redshift come motore di query per interrogare il tuo datastore. Un motore di query accede ai metadati da un datastore strutturato e li utilizza per generare query SQL. Amazon Redshift è un servizio di data warehouse che utilizza SQL per analizzare dati strutturati in data warehouse, database e data lake.

## Creazione del motore di query Amazon Redshift
<a name="kb-query-engine-setup-create"></a>

Puoi utilizzare Amazon Redshift serverless o Amazon Redshift con provisioning in base al caso d’uso e connetterti a gruppi di lavoro o a cluster per il tuo data warehouse. I dati sottostanti che il motore di Amazon Redshift può interrogare possono essere dati archiviati nativamente in cluster Amazon Redshift o dati che si trovano in modalità predefinita (ad AWS Glue Data Catalog esempio in Amazon S3, tra gli altri).

Se hai già creato un motore di query, puoi ignorare questo prerequisito. Altrimenti, attieniti ai seguenti passaggi per configurare il tuo motore di query Amazon Redshift con provisioning o Amazon Redshift serverless:

**Come configurare un motore di query in Amazon Redshift con provisioning**

1. Segui la procedura riportata in [Fase 1: Creazione di un cluster Amazon Redshift di esempio](https://docs.aws.amazon.com/redshift/latest/gsg/new-user.html#rs-gsg-launch-sample-cluster) nella Guida alle operazioni di base di Amazon Redshift.

1. Annota l’ID cluster.

1. (Opzionale) Per ulteriori informazioni riguardanti snapshot cluster Amazon Redshift allocati, consulta [Cluster Amazon Redshift allocati](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-clusters.html) nella Guida alla gestione di Amazon Redshift.

**Come configurare un motore di query in Amazon Redshift serverless**

1. Segui solo la procedura di configurazione descritta in [Creazione di un data warehouse con Amazon Redshift serverless](https://docs.aws.amazon.com/redshift/latest/gsg/new-user-serverless.html#serverless-console-resource-creation) nella Guida alle operazioni di base di Amazon Redshift e configuralo con le impostazioni predefinite.

1. Nota l’ARN del gruppo di lavoro.

1. (Opzionale) Per ulteriori informazioni sui gruppi di lavoro Amazon Redshift serverless, consulta [Gruppi di lavoro e namespace](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-workgroup-namespace.html) nella Guida alla gestione di Amazon Redshift.

## Configurazione delle autorizzazioni del motore di query Amazon Redshift
<a name="kb-query-engine-setup-redshift-permissions"></a>

A seconda del motore di query Amazon Redshift che scegli, puoi configurare determinate autorizzazioni. Le autorizzazioni che configuri dipendono dal metodo di autenticazione. La tabella seguente mostra i metodi di autenticazione che possono essere utilizzati per diversi motori di query:


****  

| Metodo di autenticazione | Amazon Redshift con provisioning | Amazon Redshift Serverless | 
| --- | --- | --- | 
| IAM | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 
| Nome utente database | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-no.png)No | 
| Gestione dei segreti AWS | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 

Knowledge Base per Amazon Bedrock utilizza un [ruolo di servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) per connettere le knowledge base ai datastore strutturati, recuperare dati da questi datastore e generare query SQL in base alle query degli utenti e alla struttura dei datastore.

**Nota**  
Se prevedi di utilizzare il per Console di gestione AWS creare una knowledge base, puoi ignorare questo prerequisito. La console crea un ruolo di servizio di Knowledge Base per Amazon Bedrock con le autorizzazioni appropriate.

Per creare un ruolo di servizio IAM personalizzato con le autorizzazioni appropriate, segui i passaggi in [Creazione di un ruolo per delegare le autorizzazioni a un Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) e allegare la relazione di attendibilità definita in [Relazione di attendibilità](kb-permissions.md#kb-permissions-trust).

Quindi, aggiungi le autorizzazioni per la knowledge base per accedere al motore di query e ai database di Amazon Redshift. Espandi la sezione applicabile al tuo caso d’uso:

### Il tuo motore di query è Amazon Redshift con provisioning
<a name="w2aac28c10c27c13c11c15b1"></a>

Allega la seguente policy al ruolo di servizio personalizzato affinché tale ruolo possa accedere ai tuoi dati e generare query utilizzandoli:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "RedshiftDataAPIStatementPermissions",
            "Effect": "Allow",
            "Action": [
                "redshift-data:GetStatementResult",
                "redshift-data:DescribeStatement",
                "redshift-data:CancelStatement"
            ],
            "Resource": [
                "*"
            ],
            "Condition": {
                "StringEquals": {
                    "redshift-data:statement-owner-iam-userid": "${aws:userid}"
                }
            }
        },
        {
            "Sid": "RedshiftDataAPIExecutePermissions",
            "Effect": "Allow",
            "Action": [
                "redshift-data:ExecuteStatement"
            ],
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:cluster:${Cluster}"
            ]
        },
        {
            "Sid": "SqlWorkbenchAccess",
            "Effect": "Allow",
            "Action": [
                "sqlworkbench:GetSqlRecommendations",
                "sqlworkbench:PutSqlGenerationContext",
                "sqlworkbench:GetSqlGenerationContext",
                "sqlworkbench:DeleteSqlGenerationContext"
            ],
            "Resource": "*"
        },
        {
            "Sid": "GenerateQueryAccess",
            "Effect": "Allow",
            "Action": [
                "bedrock:GenerateQuery"
            ],
            "Resource": "*"
        }
    ]
}
```

------

È inoltre necessario aggiungere le autorizzazioni per consentire al ruolo di servizio di eseguire l’autenticazione al motore di query. Espandi una sezione per visualizzare le autorizzazioni per quel metodo.

------
#### [ IAM ]

Per consentire al tuo ruolo di servizio di eseguire l’autenticazione al motore di query Amazon Redshift con provisioning con IAM, associa la seguente policy al ruolo di servizio personalizzato:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetCredentialsWithFederatedIAMCredentials",
            "Effect": "Allow",
            "Action": "redshift:GetClusterCredentialsWithIAM",
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:dbname:Cluster/database"
            ]
        }
    ]
}
```

------

------
#### [ Database user ]

Per eseguire l’autenticazione come un utente del database Amazon Redshift, allega la seguente policy al ruolo di servizio:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetCredentialsWithClusterCredentials",
            "Effect": "Allow",
            "Action": [
                "redshift:GetClusterCredentials"
            ],
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:dbuser:${cluster}/${dbuser}",
                "arn:aws:redshift:us-east-1:123456789012:dbname:${cluster}/${database}"
            ]
        }
    ]
}
```

------

------
#### [ Gestione dei segreti AWS ]

Per consentire al tuo ruolo di servizio di autenticarsi sul motore di query fornito da Amazon Redshift con Gestione dei segreti AWS un segreto, procedi come segue:
+ Allega al ruolo la policy seguente:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "GetSecretPermissions",
              "Effect": "Allow",
              "Action": [
                  "secretsmanager:GetSecretValue"
              ],
              "Resource": [
                  "arn:aws:secretsmanager:${region}:${account}:secret:${secretName}"
              ]
          }
      ]
  }
  ```

------

### Il tuo motore di query è Amazon Redshift serverless
<a name="w2aac28c10c27c13c11c15b3"></a>

Le autorizzazioni da allegare dipendono dal metodo di autenticazione utilizzato. Espandi una sezione per visualizzare le autorizzazioni per un metodo.

------
#### [ IAM ]

Per consentire al tuo ruolo di servizio di eseguire l’autenticazione al motore di query Amazon Redshift serverless con IAM, associa la seguente policy al ruolo di servizio personalizzato:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "RedshiftServerlessGetCredentials",
            "Effect": "Allow",
            "Action": "redshift-serverless:GetCredentials",
            "Resource": [
                "arn:aws:redshift-serverless:us-east-1:123456789012:workgroup/WorkgroupId"
            ]
        }
    ]
}
```

------

------
#### [ Gestione dei segreti AWS ]

Per consentire al tuo ruolo di servizio di autenticarsi sul motore di query fornito da Amazon Redshift con Gestione dei segreti AWS un segreto, procedi come segue:
+ Allega al ruolo la policy seguente:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "GetSecretPermissions",
              "Effect": "Allow",
              "Action": [
                  "secretsmanager:GetSecretValue"
              ],
              "Resource": [
                  "arn:aws:secretsmanager:${region}:${account}:secret:${secretName}"
              ]
          }
      ]
  }
  ```

------

## Consenti al ruolo di servizio della knowledge base di accedere al tuo datastore
<a name="knowledge-base-prereq-structured-db-access"></a>

Assicurati che i tuoi dati siano archiviati in uno dei seguenti [datastore strutturati supportati](knowledge-base-structured-create.md):
+ Amazon Redshift
+ AWS Glue Data Catalog (AWS Lake Formation)

La tabella seguente riassume i metodi di autenticazione disponibili per il motore di query, a seconda del data store in uso:


****  

| Metodo di autenticazione | Amazon Redshift | AWS Glue Data Catalog (AWS Lake Formation) | 
| --- | --- | --- | 
| IAM | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 
| Nome utente database | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-no.png)No | 
| Gestione dei segreti AWS | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-no.png)No | 

Per informazioni su come configurare le autorizzazioni per il tuo ruolo di servizio di Knowledge Base per Amazon Bedrock per accedere al datastore e generare query basate su esso, espandi la sezione corrispondente al servizio in cui si trova il datastore:

### Amazon Redshift
<a name="w2aac28c10c27c13c13c13b1"></a>

Per concedere al ruolo di servizio di Knowledge Base per Amazon Bedrock l’accesso al tuo database Amazon Redshift, utilizza [Amazon Redshift Query Editor v2](https://docs.aws.amazon.com/redshift/latest/mgmt/query-editor-v2.html) ed esegui questi comandi SQL:

1. (Se esegui l'autenticazione con IAM e non è già stato creato un utente per il tuo database) Esegui il comando seguente, che utilizza [CREATE USER per creare un utente](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_USER.html) del database e consentirgli di autenticarsi tramite IAM, sostituendolo *\$1\$1service-role\$1* con il nome del ruolo di servizio Amazon Bedrock Knowledge Bases personalizzato che hai creato:

   ```
   CREATE USER "IAMR:${service-role}" WITH PASSWORD DISABLE;
   ```
**Importante**  
Se utilizzi il ruolo di servizio di Knowledge Base per Amazon Bedrock creato per te nella console e poi [sincronizzi il tuo datastore](kb-data-source-structured-sync-ingest.md) prima di eseguire questa fase, l’utente viene creato, ma la sincronizzazione ha esito negativo perché all’utente non sono state concesse le autorizzazioni per accedere al tuo datastore. Prima della sincronizzazione, devi completare la fase seguente.

1. Concedi a un’identità le autorizzazioni per recuperare informazioni dal tuo database eseguendo il comando [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html).

------
#### [ IAM ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "IAMR:${serviceRole}";
   ```

------
#### [ Database user ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "${dbUser}";
   ```

------
#### [ Gestione dei segreti AWS username ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "${secretsUsername}";
   ```

------
**Importante**  
Non concedere un accesso `CREATE`, `UPDATE` o `DELETE`. La concessione di queste azioni può comportare una modifica involontaria dei dati.

   Per un controllo più preciso sulle tabelle a cui è possibile accedere, puoi sostituire nomi di tabelle `ALL TABLES` specifici con la seguente notazione:. *\$1\$1schemaName\$1* *\$1\$1tableName\$1* Per ulteriori informazioni su questa notazione, consulta la sezione **Oggetti di query** in [Query tra database](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html).

------
#### [ IAM ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "IAMR:${serviceRole}";
   ```

------
#### [ Database user ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "${dbUser}";
   ```

------
#### [ Gestione dei segreti AWS username ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "${secretsUsername}";
   ```

------

1. Se hai creato un nuovo schema nel database Redshift, esegui il comando seguente per concedere a un’identità le autorizzazioni per il nuovo schema.

   ```
   GRANT USAGE ON SCHEMA ${schemaName} TO "IAMR:${serviceRole}";
   ```

### AWS Glue Data Catalog
<a name="w2aac28c10c27c13c13c13b3"></a>

Per concedere al ruolo del servizio Amazon Bedrock Knowledge Bases l'accesso al tuo AWS Glue Data Catalog data store, usa l'[editor di query di Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/query-editor-v2.html) v2 ed esegui i seguenti comandi SQL:

1. Esegui il comando seguente, che utilizza [CREATE USER](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_USER.html) per creare un utente del database e consentirgli l'autenticazione tramite IAM, sostituendolo *\$1\$1service-role\$1* con il nome del ruolo di servizio Amazon Bedrock Knowledge Bases personalizzato che hai creato:

   ```
   CREATE USER "IAMR:${service-role}" WITH PASSWORD DISABLE;
   ```
**Importante**  
Se utilizzi il ruolo di servizio di Knowledge Base per Amazon Bedrock creato per te nella console e poi [sincronizzi il tuo datastore](kb-data-source-structured-sync-ingest.md) prima di eseguire questa fase, l’utente viene creato, ma la sincronizzazione ha esito negativo perché all’utente non sono state concesse le autorizzazioni per accedere al tuo datastore. Prima della sincronizzazione, devi completare la fase seguente.

1. Concedi a un ruolo di servizio le autorizzazioni per recuperare informazioni dal tuo database eseguendo il comando [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html).

   ```
   GRANT USAGE ON DATABASE awsdatacatalog TO "IAMR:${serviceRole}";
   ```
**Importante**  
Non concedere un accesso `CREATE`, `UPDATE` o `DELETE`. La concessione di queste azioni può comportare una modifica involontaria dei dati.

1. Per consentire l'accesso ai tuoi AWS Glue Data Catalog database, assegna le seguenti autorizzazioni al ruolo di servizio:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "VisualEditor0",
               "Effect": "Allow",
               "Action": [
                   "glue:GetDatabases",
                   "glue:GetDatabase",
                   "glue:GetTables",
                   "glue:GetTable",
                   "glue:GetPartitions",
                   "glue:GetPartition",
                   "glue:SearchTables"
               ],
               "Resource": [
                   "arn:aws:glue:us-east-1:123456789012:table/${DatabaseName}/${TableName}",
                   "arn:aws:glue:us-east-1:123456789012:database/${DatabaseName}",
                   "arn:aws:glue:us-east-1:123456789012:catalog"
               ]
           }
       ]
   }
   ```

------

1. Concedi le autorizzazioni per il tuo ruolo di servizio tramite AWS Lake Formation (per ulteriori informazioni su Lake Formation e sulla sua relazione con Amazon Redshift, [consulta Fonti di dati per Redshift](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source.html)) procedendo come segue:

   1. Accedi a Console di gestione AWS, e apri la console Lake Formation all'indirizzo [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/).

   1. Seleziona **Autorizzazioni dati** nel riquadro di navigazione a sinistra.

   1. Concedi le autorizzazioni per il ruolo di servizio che utilizzi per Knowledge Base per Amazon Bedrock.

   1. Concedi le autorizzazioni **Describe** e **Select** per i tuoi database e tabelle.

1. A seconda dell'origine dati utilizzata AWS Glue Data Catalog, potrebbe essere necessario aggiungere le autorizzazioni per accedere a tale fonte di dati (per ulteriori informazioni, consulta la sezione [AWS Glue Dipendenza da altro Servizi AWS](https://docs.aws.amazon.com/glue/latest/dg/dependency-on-other-services.html)). Ad esempio, se la tua origine dati si trova in una ubicazione Amazon S3, devi aggiungere la seguente dichiarazione alla policy di cui sopra.

   ```
   {
       "Sid": "Statement1",
       "Effect": "Allow",
       "Action": [
           "s3:ListBucket",
           "s3:GetObject"
       ],
       "Resource": [
           "arn:aws:s3:::${BucketName}",
           "arn:aws:s3:::${BucketName}/*"
       ]
   }
   ```

1. (Facoltativo) Se lo utilizzi AWS KMS per crittografare i dati in Amazon S3 AWS Glue Data Catalog oppure, devi aggiungere le autorizzazioni al ruolo per decrittografare i dati sulla chiave KMS.

   ```
   {
       "Action": [
           "kms:Decrypt"
       ],
       "Resource": [
           "arn:aws:kms:${Region}:${Account}:key/{KmsId}",
           "arn:aws:kms:${Region}:${Account}:key/{KmsId}"
       ],
       "Effect": "Allow"
   }
   ```

# Creazione di una knowledge base connettendola a un datastore strutturato
<a name="knowledge-base-structured-create"></a>

Per connettere una knowledge base a un datastore strutturato, specifica i seguenti componenti:
+ 

**Configurazione del motore di query**  
La configurazione per il servizio di calcolo che eseguirà le query SQL generate. Il motore di query viene utilizzato per convertire le query degli utenti in linguaggio naturale in query SQL che possono essere utilizzate per estrarre dati dal datastore. Puoi scegliere Amazon Redshift come motore di query. Quando scegli questa configurazione, devi specificare:
  + I metadati della connessione di calcolo come l’ID del cluster o l’ARN del gruppo di lavoro a seconda del motore di query scelto.
  + Il metodo di autenticazione per l'utilizzo del motore di query, che può utilizzare un ruolo del servizio IAM con le autorizzazioni appropriate, un utente del database del motore di query o un Gestione dei segreti AWS segreto collegato alle credenziali del database.
+ 

**Configurazione di archiviazione**  
La configurazione per il datastore contenente i tuoi dati. Puoi connetterti ad Amazon Redshift Provisioned o Amazon Redshift Serverless e utilizzare Amazon Redshift o come archivio dati. AWS Glue Data Catalog 
+ 

**(Opzionale) Configurazioni delle query**  
È possibile utilizzare configurazioni di query opzionali per migliorare l’accuratezza della generazione di SQL:
  + **Tempo massimo di query**: il periodo di tempo trascorso il quale la query scade.
  + **Descrizioni**: fornisce metadati o informazioni supplementari su tabelle o colonne. Puoi includere descrizioni delle tabelle o delle colonne, note di utilizzo o qualsiasi attributo aggiuntivo. Le descrizioni aggiunte possono migliorare la generazione di query SQL fornendo informazioni e contesto aggiuntivi sulla struttura delle tabelle o delle colonne.
  + **Inclusioni ed esclusioni**: specifica un set di tabelle o colonne da includere o escludere per la generazione SQL. Questo campo è fondamentale se desideri limitare l’ambito delle query SQL a un sottoinsieme definito di tabelle o colonne disponibili. Questa opzione può aiutare a ottimizzare il processo di generazione riducendo i riferimenti a tabelle o colonne non necessari.

    Se si specificano le inclusioni, tutte le altre tabelle e colonne vengono ignorate. Se si specificano le esclusioni, le tabelle e le colonne specificate vengono ignorate.
**Nota**  
Le inclusioni e le esclusioni non sostituiscono i guardrail e sono destinate esclusivamente a migliorare la precisione del modello.
  + **Query selezionate**: una serie di esempi di domande e risposte predefiniti. Le domande sono scritte come query in linguaggio naturale (NLQ) e le risposte sono le query SQL corrispondenti. Questi esempi aiutano il processo di generazione di SQL fornendo esempi dei tipi di query da generare. Servono come punti di riferimento per migliorare l’accuratezza e la pertinenza degli output di SQL generativo.

Espandi la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="knowledge-base-structured-create-console"></a>

Per connetterti a un data store strutturato utilizzando il Console di gestione AWS, procedi come segue:

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli **Crea**, quindi seleziona **Knowledge base con archivio dati strutturato**.

1. Configura i seguenti dettagli per la knowledge base:

   1. (Opzionale) Modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

   1. Seleziona il motore di query da utilizzare per recuperare i dati dal tuo datastore.

   1. Scegli un ruolo di servizio IAM con le autorizzazioni appropriate per creare e gestire questa knowledge base. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere un ruolo personalizzato che hai creato. Per ulteriori informazioni sulla creazione di un ruolo personalizzato, consulta [Configurazione del motore di query e delle autorizzazioni per la creazione di una knowledge base con un datastore strutturato](knowledge-base-prereq-structured.md).

   1. (Opzionale) Aggiungi tag da associare alla knowledge base. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md).

   1. Scegli **Next (Successivo)**.

1. Configura il tuo motore di query:

   1. Seleziona il servizio in cui hai creato un cluster o un gruppo di lavoro. Scegli il cluster o il gruppo di lavoro da utilizzare.

   1. Seleziona il metodo di autenticazione e fornisci i campi necessari.

   1. Seleziona il datastore in cui archiviare i metadati. Quindi scegli o immetti il nome del database.

   1. (Opzionale) Modifica le configurazioni delle query in base alle esigenze. Fai riferimento alla parte iniziale di questo argomento per ulteriori informazioni sulle diverse configurazioni.

   1. Scegli **Next (Successivo)**.

1. Esamina le configurazioni della knowledge base e modifica le sezioni come necessario. Conferma per creare la tua knowledge base.

## Eliminare con l’API
<a name="knowledge-base-structured-create-api"></a>

Per connetterti a un data store strutturato utilizzando l'API Amazon Bedrock, invia una [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)richiesta a un [endpoint di build Agents for Amazon Bedrock con il seguente](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) corpo di richiesta generale:

```
{
    "name": "string",
    "roleArn": "string",
    "knowledgeBaseConfiguration": {
        "type": "SQL",
        "sqlKnowledgeBaseConfiguration": [SqlKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SqlKnowledgeBaseConfiguration.html)
    },
    "description": "string",
    "clientToken": "string",
    "tags": {
        "string": "string"
    }
}
```

I seguenti campi sono obbligatori.


****  

| Campo | Descrizione di base | 
| --- | --- | 
| Name | Un nome per la knowledge base | 
| roleArn | Un [ruolo di servizio della knowledge base](kb-permissions.md) con autorizzazioni appropriate. È possibile utilizzare la console per creare automaticamente un ruolo di servizio con le autorizzazioni appropriate. | 
| knowledgeBaseConfiguration | Contiene le configurazioni per la knowledge base. Per un database strutturato, specifica SQL come type e includi il campo sqlKnowledgeBaseConfiguration. | 

I seguenti campi sono opzionali.


****  

| Campo | Utilizzo | 
| --- | --- | 
| description | Per includere una descrizione per la knowledge base. | 
| clientToken | Per garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tag | Associare tag al flusso. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md). | 

`SQLKnowledgeBaseConfiguration` dipende dal motore di query utilizzato. Per Amazon Redshift, specifica il `type` campo come `REDSHIFT` e includi il `redshiftConfiguration` campo, che corrisponde a un. [RedshiftConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftConfiguration.html) Per il [RedshiftConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftConfiguration.html), configuri i seguenti campi:

### queryEngineConfiguration
<a name="w2aac28c10c27c15b9b3c17b1"></a>

Puoi configurare i seguenti tipi di motore di query:

#### Amazon Redshift con provisioning
<a name="w2aac28c10c27c15b9b3c17b1b5b1"></a>

Se i database Amazon Redshift vengono forniti su nodi di calcolo dedicati, il valore del `queryEngineConfiguration` campo deve essere a [RedshiftQueryEngineConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineConfiguration.html)nel seguente formato:

```
{
    "type": "PROVISIONED",
    "provisionedConfiguration": {
        "clusterIdentifier": "string",
        "authConfiguration": [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html)
    },
}
```

Specifica l’ID del cluster nel campo `clusterIdentifier`. [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html)Dipende dal tipo di autorizzazione che stai utilizzando. Seleziona la scheda che corrisponde al tuo metodo di autorizzazione:

------
#### [ IAM role ]

Se autorizzi con il tuo ruolo IAM, devi specificare solo `IAM` come tipo in [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html) senza ulteriori campi.

```
{
    "type": "IAM"
}
```

------
#### [ Temporary credentials user name ]

Se autorizzi con il nome utente del database, specifica `type` come `USERNAME` e specifica il nome utente nel campo `databaseUser` in `RedshiftProvisionedAuthConfig`:

```
{
    "type": "USERNAME",
    "databaseUser": "string"
}
```

------
#### [ Gestione dei segreti AWS ]

Se autorizzi con Gestione dei segreti AWS, specifica `type` as `USERNAME_PASSWORD` e specifica l'ARN del segreto `usernamePasswordSecretArn` nel campo in: `RedshiftProvisionedAuthConfig`

```
{
    "type": "USERNAME_PASSWORD",
    "usernamePasswordSecretArn": "string"
}
```

------

#### Amazon Redshift Serverless
<a name="w2aac28c10c27c15b9b3c17b1b5b3"></a>

Se utilizzi Amazon Redshift Serverless, il valore del `queryConfiguration` campo deve essere [RedshiftQueryEngineConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineConfiguration.html)nel seguente formato:

```
{
    "type": "SERVERLESS",
    "serverlessConfiguration": {
        "workgroupArn": "string",
        "authConfiguration": 
    }
}
```

Specifica l’ARN del tuo gruppo di lavoro nel campo `workgroupArn`. [RedshiftServerlessAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftServerlessAuthConfiguration.html)Dipende dal tipo di autorizzazione che stai utilizzando. Seleziona la scheda che corrisponde al tuo metodo di autorizzazione:

------
#### [ IAM role ]

Se autorizzi con il tuo ruolo IAM, devi specificare solo `IAM` come tipo in `RedshiftServerlessAuthConfiguration` senza ulteriori campi.

```
{
    "type": "IAM"
}
```

------
#### [ Gestione dei segreti AWS ]

Se autorizzi con Gestione dei segreti AWS, specifica `type` as `USERNAME_PASSWORD` e specifica l'ARN del segreto `usernamePasswordSecretArn` nel campo in: `RedshiftServerlessAuthConfiguration`

```
{
    "type": "USERNAME_PASSWORD",
    "usernamePasswordSecretArn": "string"
}
```

------

### storageConfigurations
<a name="w2aac28c10c27c15b9b3c17b3"></a>

Questo campo viene mappato su un array contenente un singolo [RedshiftQueryEngineStorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineStorageConfiguration.html), il cui formato dipende da dove sono archiviati i dati.

#### AWS Glue Data Catalog
<a name="w2aac28c10c27c15b9b3c17b3b5b1"></a>

Se i dati sono archiviati in AWS Glue Data Catalog, `RedshiftQueryEngineStorageConfiguration` devono essere nel seguente formato:

```
{
    "type": "AWS_DATA_CATALOG",
    "awsDataCatalogConfiguration": {
        "tableNames": ["string"]
    }
}
```

Aggiungi il nome di ogni tabella a cui desideri connettere la tua knowledge base nell’array a cui mappare `tableNames`.

**Nota**  
Immetti i nomi delle tabelle nello schema descritto in [Query tra database](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html) (`${databaseName}.${tableName}`). Puoi includere tutte le tabelle specificando `${databaseName.*}`.

#### Database Amazon Redshift
<a name="w2aac28c10c27c15b9b3c17b3b5b3"></a>

Se i dati sono archiviati in un database Amazon Redshift, `RedshiftQueryEngineStorageConfiguration` deve essere nel seguente formato:

```
{
    "type": "string",
    "redshiftConfiguration": {
        "databaseName": "string"
    }
}
```

Specifica il nome del database Amazon Redshift nel campo `databaseName`.

**Nota**  
Immetti i nomi delle tabelle nello schema descritto in [Query tra database](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html) (`${databaseName}.${tableName}`). Puoi includere tutte le tabelle specificando `${databaseName.*}`.

Se il database è montato tramite Amazon SageMaker AI Lakehouse, il nome del database è nel formato. *\$1\$1db\$1@\$1\$1schema\$1*

### queryGenerationConfiguration
<a name="w2aac28c10c27c15b9b3c17b5"></a>

Questo campo corrisponde ai seguenti elementi [QueryGenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationConfiguration.html)che puoi utilizzare per configurare la modalità di interrogazione dei dati:

```
{
    "executionTimeoutSeconds": number,
    "generationContext": {
        "tables": [
            {
                "name": "string",
                "description": "string",
                "inclusion": "string",
                "columns": [
                    {
                        "name": "string",
                        "description": "string",
                        "inclusion": "string"
                    },
                    ...
                ]
            },
            ...
        ],
        "curatedQueries": [
            {
                "naturalLanguage": "string",
                "sql": "string"
            },
            ...
        ]
    }
}
```

Se desideri che la query scada, specifica la durata del timeout in secondi nel campo `executionTimeoutSeconds`.

Il `generationContext` campo è mappato su un [QueryGenerationContext](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationContext.html)oggetto in cui è possibile configurare tutte le opzioni seguenti necessarie.

**Importante**  
Se includi un contesto di generazione, il motore di query fa del suo meglio per applicarlo durante la generazione di SQL. Il contesto di generazione non è deterministico e serve solo a migliorare la precisione del modello. Per garantire l’accuratezza, verifica le query SQL generate.

Per informazioni sui contesti di generazione che puoi includere, espandi le seguenti sezioni:

#### Aggiunta di descrizioni per tabelle o colonne nel database
<a name="w2aac28c10c27c15b9b3c17b5c15b1"></a>

Per migliorare l’accuratezza della generazione di SQL per l’interrogazione del database, è possibile fornire una descrizione della tabella o della colonna che fornisca un contesto più ampio rispetto a un nome breve di tabella o colonna. Puoi fare quanto segue:
+ Per aggiungere una descrizione per una tabella, includete un [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)oggetto nell'`tables`array. In quell’oggetto, specifica il nome della tabella nel campo `name` e una descrizione nel campo `description`, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "description": "Description for Table A"
  }
  ```
+ Per aggiungere una descrizione per una colonna, includete un [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)oggetto nell'`tables`array. In quell'oggetto, specificate il nome della tabella nel `name` campo e includete il `columns` campo, che corrisponde a una matrice di [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html). Nell’oggetto `QueryGenerationColumn`, specifica il nome della tabella nel campo `name` e una descrizione nel campo `description`, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "columns": [
          {
              "name": "Column A",
              "description": "Description for Column A"
          }
      ]
  }
  ```
+ È possibile aggiungere una descrizione sia per una tabella che per una colonna al suo interno, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "description": "Description for Table A",
      "columns": [
          {
              "name": "columnA",
              "description": "Description for Column A"
          }
      ]
  }
  ```
**Nota**  
Immetti i nomi delle tabelle e delle colonne nello schema descritto in [Query tra database](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html). Se il database è in AWS Glue Data Catalog, il formato è`awsdatacatalog.gluedatabase.table`.

#### Includi o escludi tabelle o colonne nel database
<a name="w2aac28c10c27c15b9b3c17b5c15b3"></a>

È possibile suggerire tabelle o colonne da includere o escludere durante la generazione di SQL utilizzando il `inclusion` campo negli [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html)oggetti [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)and. È possibile specificare uno dei seguenti valori nel campo `inclusion`:
+ INCLUDE: solo le tabelle o le colonne specificate vengono incluse come contesto durante la generazione di SQL.
+ EXCLUDE: solo le tabelle o le colonne specificate vengono escluse come contesto durante la generazione di SQL.

È possibile specificare se includere o escludere tabelle o colonne nei seguenti modi:
+ Per includere o escludere una tabella, includete un [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)oggetto nell'`tables`array. In quell’oggetto, specifica il nome della tabella nel campo `name` e se includerlo o escluderlo nel campo `inclusion`, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "inclusion": "EXCLUDE"
  }
  ```

  Il motore di query non aggiunge `Table A` nel contesto aggiuntivo per la generazione di SQL.
+ Per includere o escludere una colonna, includete un [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)oggetto nell'`tables`array. In quell'oggetto, specificate il nome della tabella nel `name` campo e includete il `columns` campo, che corrisponde a una matrice di [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html). Nell’oggetto `QueryGenerationColumn`, includi il nome della colonna nel campo `name` e se includerlo o escluderlo nel campo `inclusion`, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "columns": [
          {
              "name": "database.schema.tableA.columnA",
              "inclusion": "EXCLUDE"
          }
      ]
  }
  ```

  La generazione SQL ignora `Column A` in `Table A` nel contesto durante la generazione di SQL.
+ È possibile combinare tabelle e colonne quando si specificano inclusioni o esclusioni, come nell’esempio seguente:

  ```
  {
      "name": "database.schema.tableA",
      "inclusion": "INCLUDE",
      "columns": [
          {
              "name": "database.schema.tableA.columnA",
              "inclusion": "EXCLUDE"
          }
      ]
  }
  ```

  La generazione SQL include `Table A`, ma esclude `Column A` al suo interno quando si aggiunge un contesto per la generazione di SQL.

**Importante**  
Le esclusioni di tabelle e colonne non sostituiscono i guardrail. Queste inclusioni ed esclusioni di tabelle e colonne vengono utilizzate come contesto aggiuntivo per il modello da considerare durante la generazione di SQL.

#### Fornisci al motore di query esempi di mappature dal linguaggio naturale alle query SQL.
<a name="w2aac28c10c27c15b9b3c17b5c15b5"></a>

Per migliorare la precisione di un motore di query nella conversione delle query degli utenti in query SQL, potete fornire degli esempi nel `curatedQueries` campo dell'[QueryGenerationContext](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationContext.html)oggetto, che corrisponde a una matrice di oggetti. [CuratedQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CuratedQuery.html) Ogni oggetto include i seguenti campi:
+ naturalLanguage: un esempio di query in linguaggio naturale.
+ sql: la query SQL che corrisponde alla query in linguaggio naturale.

# Sincronizzare il data store strutturato con Knowledge Base per Amazon Bedrock
<a name="kb-data-source-structured-sync-ingest"></a>

Dopo aver collegato la knowledge base a un data store strutturato, esegui una sincronizzazione per avviare il processo di importazione dei metadati, in modo che i dati possano essere recuperati. I metadati consentono a Knowledge Base per Amazon Bedrock di tradurre i prompt degli utenti in una query per il database connesso.

Ogni volta che apporti modifiche allo schema del database, devi sincronizzarle.

Per sapere come importare i metadati nella knowledge base e sincronizzarli con i dati più recenti, scegli la scheda corrispondente al metodo preferito, quindi segui i passaggi:

------
#### [ Console ]

**Come importare i dati nella knowledge base e sincronizzarli con i dati più recenti**

1. Apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Dal riquadro di navigazione a sinistra, seleziona la tua knowledge base da **Knowledge base**.

1. Nella sezione **Origine dati**, seleziona **Sincronizza** per iniziare il processo di importazione dei metadati. Per interrompere la sincronizzazione di un’origine dati attualmente in corso, seleziona **Interrompi**. Per interrompere la sincronizzazione dell’origine dati, la sincronizzazione dell’origine dati deve essere attualmente in esecuzione. Puoi selezionare nuovamente **Sincronizza** per importare il resto dei tuoi dati.

1. Al termine dell’importazione di dati, se l’operazione è riuscita, viene visualizzato un banner verde di successo.

1. Puoi scegliere un’origine dati per visualizzarne la **cronologia di sincronizzazione**. Seleziona **Visualizza avvisi** per scoprire perché un processo di importazione di dati non è riuscito.

------
#### [ API ]

Per importare i dati nella knowledge base e sincronizzarli con i dati più recenti, invia una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Utilizza il `ingestionJobId` restituito nella risposta in una richiesta [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) per monitorare lo stato del processo di importazione.

Puoi visualizzare le informazioni per tutti i processi di importazione per un’origine dati inviando una richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Per interrompere un processo di importazione dei dati attualmente in esecuzione, invia una richiesta [StopIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Puoi inviare nuovamente una richiesta `StartIngestionJob` per importare il resto dei dati quando è tutto pronto.

------

**Importante**  
Se utilizzi il ruolo di servizio di Knowledge Base per Amazon Bedrock creato per te nella console e poi sincronizzi il tuo datastore prima di concedere l’accesso al database al ruolo di autenticazione che utilizzi, la sincronizzazione avrà esito negativo perché all’utente non sono state concesse le autorizzazioni per accedere al tuo datastore. Per informazioni sulla concessione delle autorizzazioni a un ruolo per accedere al tuo datastore, consulta [Consenti al ruolo di servizio della knowledge base di accedere al tuo datastore](knowledge-base-prereq-structured.md#knowledge-base-prereq-structured-db-access).

# Compilazione di una knowledge base di Amazon Bedrock con un indice GenAI di Amazon Kendra
<a name="knowledge-base-build-kendra-genai-index"></a>

Con Knowledge Base per Amazon Bedrock, puoi compilare una knowledge base a partire da un indice GenAI di Amazon Kendra per creare assistenti digitali più sofisticati e accurati basati sulla generazione potenziata da recupero dati (RAG). Combinando un indice GenAI di Amazon Kendra con Knowledge Base per Amazon Bedrock, puoi:
+ Riutilizzare i contenuti indicizzati su più applicazioni Amazon Bedrock senza ricompilare gli indici o reinserire i dati.
+ Sfruttare le funzionalità GenAI avanzate di Amazon Bedrock beneficiando al contempo del recupero delle informazioni ad alta precisione di Amazon Kendra.
+ Personalizzare il comportamento del tuo assistente digitale utilizzando gli strumenti di Amazon Bedrock e mantenendo al contempo la precisione semantica di un indice GenAI di Amazon Kendra.

Per ulteriori informazioni sull’utilizzo di un indice GenAI di Amazon Kendra, consulta [Indice GenAI di Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/hiw-index-types.html#kendra-gen-ai-index) nella *Guida per gli sviluppatori di Amazon Kendra*.

**Topics**
+ [Creazione di una knowledge base di Amazon Bedrock con un indice GenAI di Amazon Kendra](knowledge-base-kendra-genai-index-create.md)

# Creazione di una knowledge base di Amazon Bedrock con un indice GenAI di Amazon Kendra
<a name="knowledge-base-kendra-genai-index-create"></a>

 Per ulteriori informazioni sull’utilizzo di un indice GenAI di Amazon Kendra, consulta [Indice GenAI di Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/hiw-index-types.html#kendra-gen-ai-index) nella *Guida per gli sviluppatori di Amazon Kendra*.

Puoi creare una knowledge base di Amazon Bedrock con un indice GenAI di Amazon Kendra utilizzando la console Amazon Bedrock o l’API Amazon Bedrock. Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

**Nota**  
Non puoi creare una knowledge base con un utente root. Prima di iniziare, accedi con un utente AWS Identity and Access Management (IAM).

**Importante**  
Per creare una knowledge base con un indice GenAI di Amazon Kendra utilizzando l’API, devi disporre di un indice esistente. Con l’API, non puoi creare un indice mentre crei una knowledge base. Se desideri creare un indice mentre crei una knowledge base, devi utilizzare la console.

------
#### [ Console ]

**Come creare una knowledge base con un indice GenAI di Amazon Kendra**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli **Crea**.

1. Scegli **Knowledge base con indice GenAI di Kendra**.

1. (Opzionale) In **Dettagli della knowledge base**, modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. In **Autorizzazioni IAM**, scegli un ruolo IAM che fornisca ad Amazon Bedrock l’autorizzazione per accedere ad altri servizi Servizi AWS necessari. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere un [ruolo personalizzato che hai creato](kb-permissions.md).

1. Scegli di **creare e utilizzare un nuovo ruolo di servizio** o di **utilizzare un ruolo di servizio esistente**.

1. Scegli di **creare un nuovo indice GenAI di Amazon Kendra** o di utilizzare **un indice GenAI di Amazon Kendra esistente**.

1. (Opzionale) In **Configurazioni aggiuntive**, esegui queste operazioni:
   + Configura una chiave AWS Key Management Service (AWS KMS) gestita dal cliente per crittografare la tua knowledge base.
   + Aggiungi tag alla knowledge base. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md).

   

   

1. Scegli **Crea knowledge base**. Quando Amazon Bedrock crea la knowledge base, deve essere visibile lo stato **In corso**. Prima di poter aggiungere e sincronizzare un’origine dati, devi attendere il completamento della creazione.

1. Quando Amazon Bedrock termina la creazione della knowledge base, segui le istruzioni in [Connettere un’origine dati alla knowledge base](data-source-connectors.md) per configurare un’origine dati.

------
#### [ API ]

**Come creare una knowledge base con un indice GenAI di Amazon Kendra**

Per creare una knowledge base, invia una [ CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)richiesta (consulta il link per i formati di richiesta e risposta e i dettagli sui campi) con un endpoint in fase di [costruzione di Agents for Amazon Bedrock.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt)
+ Nel campo `roleArn`, fornisci il nome della risorsa Amazon (ARN) di un ruolo IAM che dispone delle autorizzazioni per creare una knowledge base di Amazon Bedrock.
+ Per utilizzare un modello supportato per le knowledge base, devi [abilitare l’accesso al modello](model-access.md). Prendi nota dell’ARN del modello necessario per convertire i dati in embedding vettoriali. Copia l’ID modello (risorsa) per il modello scelto da utilizzare con le knowledge base. Quindi, costruisci l’ARN del modello con l’ID modello seguendo gli esempi ARN forniti in [Tipi di risorsa definiti da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) nella *Guida di riferimento per l’autorizzazione al servizio*. Fai riferimento agli esempi relativi al tipo di risorsa del modello.

  Nel campo `embeddingModelArn`, nell’oggetto `knowledgeBaseConfiguration`, fornisci l’ARN del modello di embedding vettoriali che desideri utilizzare. Per ulteriori informazioni, consulta [Regioni e modelli supportati per Knowledge Base per Amazon Bedrock](knowledge-base-supported.md).
+ Per creare una knowledge base con un indice GenAI di Amazon Kendra, fornisci l’ARN del tuo indice GenAI di Amazon Kendra 
+ Dopo aver creato una knowledge base, crea un’origine dati che contenga i documenti o i contenuti della knowledge base. Tieni presente che non puoi creare un’origine dati utilizzando le operazioni API di Amazon Bedrock. È necessario farlo con la console Amazon Bedrock o il funzionamento dell'API [CreateDataSource](https://docs.aws.amazon.com/kendra/latest/APIReference/API_CreateDataSource.html)Amazon Kendra. Per ulteriori informazioni sulla scelta di un’origine dati e per esempi di configurazione della connessione API, consulta [Connettere un’origine dati alla knowledge base](data-source-connectors.md).

------

# Compilazione di una knowledge base con grafi di Analisi Amazon Neptune
<a name="knowledge-base-build-graphs"></a>

Knowledge Base per Amazon Bedrock offre una funzionalità GraphRAG completamente gestita con Amazon Neptune. GraphRAG è una funzionalità fornita con Knowledge Base per Amazon Bedrock che combina la modellazione di grafi con l’IA generativa per migliorare la generazione potenziata da recupero dati (RAG). Questa funzionalità combina la ricerca vettoriale con la capacità di analizzare rapidamente grandi quantità di dati di grafi da Amazon Neptune nelle applicazioni RAG.

GraphRAG identifica e sfrutta automaticamente le relazioni tra entità ed elementi strutturali all’interno dei documenti inseriti nelle knowledge base. Ciò consente risposte più complete e contestualmente pertinenti a partire dai modelli di fondazione, in particolare quando le informazioni devono essere collegate attraverso più passaggi logici. Ciò significa che le applicazioni di IA generativa possono fornire risposte più pertinenti nei casi in cui sia necessario collegare dati e ragionamenti su più blocchi di documenti. Ciò consente ad applicazioni come i chatbot di fornire risposte più pertinenti dai modelli di base (FMs) nei casi in cui per rispondere alle domande siano necessari fatti, entità e relazioni correlati derivati da più fonti documentali

## Disponibilità di GraphRAG nelle Regioni
<a name="knowledge-base-build-graphs-regions"></a>

GraphRAG è disponibile nelle seguenti Regioni AWS:
+ Europa (Francoforte)
+ Europa (Londra)
+ Europa (Irlanda)
+ Stati Uniti occidentali (Oregon)
+ Stati Uniti orientali (Virginia settentrionale)
+ Asia Pacifico (Tokyo)
+ Asia Pacifico (Singapore)

## Vantaggi dell’utilizzo di GraphRAG
<a name="knowledge-base-build-graphs-benefits"></a>

Knowledge Base per Amazon Bedrock con GraphRAG offre i seguenti vantaggi:
+ Risposte più pertinenti e complete identificando e sfruttando automaticamente le relazioni tra entità ed elementi strutturali (come i titoli delle sezioni) su più fonti di documenti che vengono inserite in Knowledge Base per Amazon Bedrock.
+ Migliore capacità di eseguire ricerche esaustive che collegano diverse parti di contenuto attraverso più fasi logiche, migliorando le tecniche RAG tradizionali.
+ Migliori capacità di ragionamento tra documenti, che consentono di ottenere risposte più precise e contestualmente accurate collegando le informazioni tra varie fonti, il che aiuta a migliorare ulteriormente l’accuratezza e ridurre al minimo le allucinazioni.

## Come funziona GraphRAG
<a name="knowledge-base-build-graphs-works"></a>

Dopo aver eseguito una ricerca vettoriale iniziale dei nodi pertinenti, GraphRAG di Knowledge Base per Amazon Bedrock applica i seguenti passaggi per generare una risposta migliore:

1. Recupera i nodi dei grafi o gli identificatori dei blocchi correlati che sono collegati ai blocchi di documento recuperati.

1. Espande questi blocchi correlati attraversando il grafo e recuperandone i dettagli dal database a grafi.

1. Fornisce risposte più significative comprendendo le entità pertinenti e concentrandosi sulle connessioni chiave mediante questo contesto arricchito.

## Considerazioni e limitazioni GraphRAG
<a name="knowledge-base-build-graphs-considerations"></a>

Di seguito sono riportate alcune limitazioni che si applicano quando si utilizza Knowledge Base per Amazon Bedrock con GraphRAG
+ Le opzioni di configurazione per personalizzare la compilazione del grafo non sono supportate.
+ Il dimensionamento automatico non è supportato per i grafi di Analisi Amazon Neptune.
+ GraphRAG supporta solo Amazon S3 come origine dati.
+ Claude 3 Haiku viene scelto come modello di fondazione per compilare automaticamente i grafi per la tua knowledge base. Ciò abilita automaticamente l’arricchimento contestuale.
+ Ogni origine dati può avere fino a 1.000 file. Puoi richiedere di aumentare questo limite fino a un massimo di 10.000 file per origine dati. In alternativa, puoi partizionare il tuo bucket Amazon S3 in cartelle, dove ogni cartella può contenere fino a 1.000 file.
+ Se utilizzi la suddivisione in blocchi gerarchici come strategia di suddivisione in blocchi, GraphRAG recupera solo i blocchi secondari durante l’operazione di ricerca. Non sostituisce i blocchi secondari con i blocchi principali corrispondenti. Ciò significa che i risultati della ricerca riportano il contenuto specifico e dettagliato dei blocchi secondari anziché il contesto più ampio dei blocchi principali.

**Nota**  
Quando elimini una knowledge base che utilizza Analisi Amazon Neptune, elimina prima la knowledge base, quindi elimina il grafo di Analisi Amazon Neptune. L’eliminazione di una knowledge base non elimina automaticamente il grafo sottostante. Fino a quando non si elimina esplicitamente il grafo, possono essere addebitati costi aggiuntivi. In alternativa, imposta la policy di eliminazione dell’origine dati in modalità RETAIN per eliminare prima il grafo senza causare errori. Per ulteriori informazioni, consulta [Eliminare un’origine dati da Knowledge Base per Amazon Bedrock](kb-ds-delete.md).

# Creazione di una knowledge base di Amazon Bedrock con i grafi di Analisi Amazon Neptune
<a name="knowledge-base-build-graphs-build"></a>

GraphRAG è completamente integrato in Knowledge Base per Amazon Bedrock e utilizza Analisi Amazon Neptune per l’archiviazione di grafi e vettori. Puoi iniziare a utilizzare GraphRag nelle tue knowledge base con il Console di gestione AWS AWS CLI, o l' AWS SDK.

Non è necessaria alcuna infrastruttura basata su grafi esistente per iniziare a utilizzare GraphRAG. Knowledge Base per Amazon Bedrock gestisce automaticamente la creazione e la manutenzione dei grafi da Amazon Neptune. Il sistema crea e aggiorna automaticamente un grafo estraendo entità, fatti e relazioni dai documenti che carichi nel tuo bucket Amazon S3, in modo da poter fornire risposte pertinenti agli utenti finali, senza alcuna conoscenza preliminare della modellazione dei grafi. Il grafo verrà archiviato in Analisi Amazon Neptune.

Quando crei una knowledge base, imposta o specifica quanto segue:
+ Informazioni generali che definiscono e identificano la knowledge base.
+ Il ruolo di servizio con autorizzazioni per la knowledge base.
+ Configurazioni per la knowledge base, incluso il modello di embedding da utilizzare per la conversione dei dati dall’origine dati e le configurazioni di archiviazione per il servizio in cui archiviare gli embedding.

**Nota**  
Non puoi creare una knowledge base con un utente root. Accedi con un utente IAM prima di iniziare questi passaggi.

Di seguito viene illustrato come creare una knowledge base per l’utilizzo di Neptune GraphRAG dalla console e utilizzando la CLI.

------
#### [ Console ]

**Come creare una knowledge base per Analisi Neptune dalla console**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli **Crea**, quindi scegli **Knowledge base con archivio vettoriale**.

1. (Opzionale) In **Dettagli della knowledge base**, modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. In **Autorizzazioni IAM**, scegli un ruolo IAM che fornisca ad Amazon Bedrock l’autorizzazione per accedere ad altri servizi Servizi AWS necessari. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere di utilizzare un ruolo personalizzato che hai creato per Analisi Neptune. Per vedere un esempio, consulta [Autorizzazioni per accedere al database vettoriale in Analisi Amazon Neptune](kb-permissions.md#kb-permissions-neptune).

1. Assicurati di scegliere **Amazon S3** come origine dati e scegli **Avanti** per configurare la tua origine dati.

1. Fornisci l’**URI S3** del file che verrà utilizzato come origine dati per connettere la tua knowledge base e per l’integrazione con Analisi Amazon Neptune. Per ulteriori passaggi e informazioni opzionali che puoi fornire, consulta [Connettere un’origine dati alla knowledge base](data-source-connectors.md).

1. Nella sezione **Modello di embedding**, scegli un modello di embedding per convertire i tuoi dati in embedding vettoriali. Facoltativamente, puoi utilizzare la sezione **Configurazioni aggiuntive** per specificare le dimensioni vettoriali. Per il tipo di incorporamento, si consiglia di utilizzare embedding vettoriali a virgola mobile.
**Nota**  
Le dimensioni vettoriali del modello di embedding devono corrispondere alle dimensioni vettoriali specificate durante la creazione del grafo di Analisi Neptune.

1. Nella sezione **Database vettoriale**, scegli il metodo per creare l’archivio vettoriale, quindi scegli **Analisi Amazon Neptune (GraphRAG)** come archivio di vettoriale per archiviare gli embedding che verranno utilizzati per la query. Per creare il tuo archivio vettoriale, puoi utilizzare uno dei metodi seguenti:
   + Ti consigliamo di utilizzare il metodo **Crea rapidamente un nuovo archivio vettoriale** per iniziare rapidamente a creare il tuo archivio vettoriale. Scegli **Analisi Amazon Neptune (GraphRAG)** come archivio vettoriale. Questa opzione non richiede la disponibilità di risorse di Analisi Neptune esistenti. La knowledge base genera e archivia automaticamente gli embedding di documenti in Amazon Neptune, insieme a una rappresentazione a grafi delle entità e delle loro relazioni derivate dal corpus di documenti.
   + In alternativa, se hai già creato il grafo e l’indice vettoriale di Analisi Neptune, puoi utilizzare l’opzione **Scegli un archivio vettoriale che hai creato**. Scegli **Analisi Amazon Neptune (GraphRAG)** come archivio vettoriale e identifica l’ARN del grafo, i nomi dei campi vettoriali e i nomi dei campi di metadati nell’indice vettoriale. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).

1. Scegli **Avanti** e rivedi i dettagli della tua knowledge base. Puoi modificare qualsiasi sezione prima di procedere e creare la tua knowledge base.
**Nota**  
Il tempo richiesto per creare la knowledge base dipende dalle configurazioni specifiche. Una volta completata la creazione della knowledge base, lo stato della knowledge base cambia per indicare che è pronta o disponibile.  
Una volta che la knowledge base è pronta e disponibile, sincronizza l’origine dati per la prima volta e ogni volta che desideri aggiornare i contenuti. Scegli la knowledge base nella console, poi scegli **Sincronizza** nella sezione Panoramica dell’origine dati.

1. Scegli **Crea knowledge base**. Quando Amazon Bedrock crea la knowledge base, deve essere visibile lo stato **In corso**. Devi attendere il completamento della creazione prima di poter sincronizzare un’origine dati.

1. Quando Amazon Bedrock termina la creazione della knowledge base, segui le istruzioni in [Connettere un’origine dati alla knowledge base](data-source-connectors.md) per configurare un’origine dati.

------
#### [ API ]

**Per creare una base di conoscenze per Neptune Analytics utilizzando AWS CLI**

1. Per prima cosa crea un’origine dati utilizzando la configurazione di arricchimento del contesto. Per eseguire questa operazione, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) a un [endpoint in fase di compilazione Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Di seguito viene illustrato un esempio del comando dell'interfaccia a riga di comando.

   ```
   aws bedrock-agent create-data-source \
       --name graph_rag_source \
       --description data_source_for_graph_rag \
       --knowledge-base-id LDBBY2K5AG \
       --cli-input-json "file://input.json"
   ```

   Il seguente codice mostra il contenuto del file `input.json`.

   ```
   {
       "dataSourceConfiguration": { 
           "s3Configuration": { 
               "bucketArn": "arn:aws:s3:::<example-graphrag-datasets>",
               "bucketOwnerAccountId": "<ABCDEFGHIJ>",
               "inclusionPrefixes": [ <"example-dataset"> ]
           },
           "type": "S3",
       },
       "VectorIngestionConfiguration": {
           "contextEnrichmentConfiguration":
               "type": "BEDROCK_FOUNDATION_MODEL",
               "bedrockFoundationModelConfiguration": {
                   "modelArn": "arn:aws:bedrock:<region>::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                   "enrichmentStrategyConfiguration": {
                       "method": "CHUNK_ENTITY_EXTRACTION"
               }
           }
       }
   }
   ```

   Per creare il `modelArn` grafico a partire dai tuoi documenti, puoi usare Claude 3 Haiku (come mostrato nell'esempio precedente), Claude Haiku 4.5 e la famiglia Amazon Nova (inclusi i modelli Nova 2 e Nova con modalità di immissione di testo). Per vedere i modelli di base disponibili nella tua regione, consulta [Modelli di base supportati in Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html).
**Nota**  
Alcuni modelli sono supportati solo tramite profili di inferenza interregionali. Quando richiami un profilo di inferenza interregionale in Amazon Bedrock, la richiesta e i dati da importare provengono da una regione di origine e vengono automaticamente indirizzati verso una delle regioni di destinazione definite in quel profilo, ottimizzando le prestazioni. Le Regioni di destinazione per i profili di inferenza tra Regioni globali includono tutte le Regioni commerciali. Ad esempio, è possibile specificare il `modelArn` per una chiamata interregionale basata sugli Stati Uniti dalla regione us-west-2 utilizzando il formato. `arn:aws:bedrock:us-west-2:account-id:inference-profile/us.anthropic.claude-haiku-4-5-20251001-v1:0`

   Per conoscere i requisiti politici relativi al ruolo di utilizzo dei profili di inferenza, consulta [Prerequisiti](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-profiles-prereq.html) per i profili di inferenza tra aree geografiche. Per indicazioni su come utilizzare i profili di inferenza per selezionare le regioni di origine e di destinazione, consulta Regioni e modelli [supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-profiles-support.html) per i profili di inferenza. I dati vengono archiviati solo nella regione di origine corrispondente alla knowledge base di Amazon Bedrock e all'istanza di Amazon Neptune Analytics. La regione di destinazione viene utilizzata solo per l'inferenza.

1. Per creare una knowledge base, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) con un [endpoint in fase di compilazione Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Di seguito viene illustrato un esempio del comando dell'interfaccia a riga di comando.

   ```
   aws bi create-knowledge-base \
   --name <"knowledge-base-graphrag"> \
   --role-arn arn:aws:iam::<accountId>:role/<BedrockExecutionRoleForKnowledgeBase> \
   --cli-input-json "file://input.json"
   ```

   Nell'esempio seguente viene mostrato il contenuto del file `input.json`.

   ```
   {
       "storageConfiguration": {
           "type": "NEPTUNE_ANALYTICS"
           "neptuneAnalyticsConfiguration": {
               "graphArn": "arn:aws:neptune-graph:<region>:<>:graph/<graphID>",
               "fieldMapping": {
                   "metadataField": "metadata",
                   "textField": "text"
               },
           }
       },
       "knowledgeBaseConfiguration": {
           "type": "VECTOR",
           "vectorKnowledgeBaseConfiguration": {
               "embeddingModelArn": "arn:aws:bedrock:<region>::foundation-model/cohere.embed-english-v3"
           }
       }
   }
   ```

1. Quando l’applicazione basata su GraphRAG è in esecuzione, puoi continuare a utilizzare le operazioni dell’API delle knowledge Base per fornire agli utenti finali risposte più complete, pertinenti e spiegabili. Nelle sezioni seguenti viene illustrato come avviare l’importazione ed eseguire query di recupero utilizzando i comandi CLI.

------

## Sincronizza l’origine dati
<a name="knowledge-base-build-graphs-sync"></a>

Dopo aver creato la knowledge base, importa o sincronizza i dati in modo che possano essere interrogati. L’importazione estrae la struttura basata su grafi e converte i dati grezzi dell’origine dati in embedding vettoriali, in base al modello di embedding vettoriali e alle configurazioni specificati.

Il seguente comando mostra un esempio di come avviare un processo di importazione tramite CLI.

```
aws bedrock-agent start-ingestion-job \
--data-source-id <"ABCDEFGHIJ"> \
--knowledge-base-id <"EFGHIJKLMN">
```

Per ulteriori informazioni e per dettagli su come sincronizzare l’origine dati utilizzando la console e l’API, consulta [Sincronizzare i dati con Knowledge Base per Amazon Bedrock](kb-data-source-sync-ingest.md).

## Importa le modifiche nella tua knowledge base
<a name="knowledge-base-build-graphs-ingest"></a>

Quando utilizzi Amazon S3 come origine dati, puoi modificare la tua origine dati e sincronizzare le modifiche in un’unica fase. Con l’importazione diretta, puoi aggiungere, aggiornare o eliminare direttamente i file in una knowledge base con un’unica azione e la knowledge base può avere accesso ai documenti senza la necessità di sincronizzarli. L’importazione diretta utilizza le operazioni API `KnowledgeBaseDocuments` per indicizzare i documenti inviati direttamente nell’archivio vettoriale configurato per la knowledge base. È inoltre possibile visualizzare i documenti della knowledge base direttamente con queste operazioni, anziché dover accedere all’origine dati connessa per visualizzarli. Per ulteriori informazioni, consulta [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).

## Test della tua knowledge base
<a name="knowledge-base-build-graphs-test"></a>

Dopo aver configurato la knowledge base, puoi testarla inviando query e generando risposte.

l codice riportato di seguito costituisce un esempio di comando CLI.

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <"ABCDEFGHIJ"> \
--retrieval-query="{\"text\": \"What are the top three video games available now?\"}"
```

Per ulteriori informazioni, consulta [Interrogare una knowledge base collegata a un grafico di Analisi Amazon Neptune](kb-test-neptune.md).

# Test della knowledge base con query e risposte
<a name="knowledge-base-test"></a>

Dopo aver configurato la knowledge base, puoi testarne il comportamento nei seguenti modi:
+ Invia query e recupera le informazioni pertinenti dalle tue origini dati utilizzando l’operazione [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html).
+ Invia query e genera risposte alle query in base alle informazioni recuperate dalle tue origini dati, utilizzando l’operazione [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html).
+ Utilizza un modello di riclassificazione rispetto al modello di riclassificazione predefinito di Knowledge Base per Amazon Bedrock per recuperare origini più pertinenti quando utilizzi [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) o [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html).
+ Utilizza filtri di metadati opzionali con l’API `Retrieve` o `RetrieveAndGenerate` per specificare quali documenti della tua origine dati possono essere utilizzati.

Quando il comportamento della knowledge base risulta soddisfacente, puoi configurare la tua applicazione in modo che la interroghi oppure collegare la knowledge base a un agente procedendo con [Implementazione della knowledge base per un’applicazione di IA](knowledge-base-deploy.md).

Seleziona un argomento per avere ulteriori informazioni in merito.

**Topics**
+ [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md)
+ [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md)
+ [Generazione di una query per dati strutturati](knowledge-base-generate-query.md)
+ [Interrogare una knowledge base connessa a un indice GenAI di Amazon Kendra](kb-test-kendra.md)
+ [Interrogare una knowledge base collegata a un grafico di Analisi Amazon Neptune](kb-test-neptune.md)
+ [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md)
+ [Configurare la generazione di risposte per modelli di ragionamento con Knowledge Bases](kb-test-configure-reasoning.md)

# Interrogare una knowledge base e recuperare dei dati
<a name="kb-test-retrieve"></a>

**Importante**  
I guardrail vengono applicati solo all’input e alla risposta generata dal LLM. Non vengono applicati ai riferimenti recuperati dalle knowledge base in fase di runtime.

Dopo aver configurato la knowledge base, è possibile interrogarla e recuperare dai dati di origine blocchi pertinenti alla query utilizzando l’operazione dell’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html). È possibile anche [utilizzare un modello di riclassificazione](rerank.md) al posto del ranker predefinito di Knowledge Base per Amazon Bedrock per classificare i blocchi di origine in base alla pertinenza durante il recupero.

Per informazioni su come interrogare la knowledge base, scegliere la scheda relativa al metodo preferito, poi seguire la procedura:

------
#### [ Console ]

**Come testare la knowledge base**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base** esegui una delle azioni seguenti:
   + Scegli il pulsante di opzione accanto alla knowledge base che desideri testare e seleziona **Testa knowledge base**. Una finestra di test si espande da destra.
   + Scegli la knowledge base da testare. Una finestra di test si espande da destra.

1. Per restituire informazioni recuperate direttamente dalla tua knowledge base, disattiva **Genera risposte per la tua query** nella finestra di test.

1. (Facoltativo) Seleziona l’icona delle configurazioni (![\[Three horizontal sliders with adjustable circular controls for settings or parameters.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/configurations.png)) per aprire **Configurazioni**. Per informazioni sulle configurazioni, consulta [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

1. Inserisci una query nella casella di testo della finestra di chat e seleziona **Esegui** per restituire le risposte dalla knowledge base.

1. I blocchi di origine vengono restituiti direttamente in ordine di pertinenza. Le immagini estratte dall’origine dati possono anche essere restituite come blocco di origine.

1. Per visualizzare i dettagli sui blocchi restituiti, seleziona **Mostra i dettagli dell’origine**.
   + Per visualizzare le configurazioni impostate per la query, espandi **Configurazioni delle query**.
   + Per visualizzare i dettagli su un blocco di origine, espandilo scegliendo la freccia destra (![\[Play button icon with a triangular shape pointing to the right.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/caret-right-filled.png)) accanto ad esso. Puoi visualizzare le seguenti informazioni:
     + Il testo non elaborato dal blocco di origine. Per copiare questo testo, scegli l’icona di copia (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/copy.png)). Se hai utilizzato Amazon S3 per archiviare i dati, scegli l’icona del link esterno (![\[Icon of a square with an arrow pointing outward from its top-right corner.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/external.png)) per accedere all’oggetto S3 contenente il file.
     + I metadati associati al blocco di origine, se hai utilizzato Amazon S3 per archiviare i dati. Le attribute/field chiavi e i valori sono definiti nel `.metadata.json` file associato al documento di origine. Per ulteriori informazioni, consulta la sezione **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Opzioni di chat**
+ Passa alla generazione di risposte in base ai blocchi di origine recuperati attivando **Genera risposte**. Se modifichi l’impostazione, il testo nella finestra della chat verrà completamente cancellato.
+ Per cancellare la finestra della chat, seleziona l’icona a forma di scopa (![\[Magnifying glass icon with a checkmark inside, symbolizing search or inspection.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/broom.png)).
+ Per copiare tutto l’output nella finestra della chat, seleziona l’icona di copia (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/copy.png)).

------
#### [ API ]

Per interrogare una knowledge base e restituire solo il testo pertinente dalle origini dati, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) con un [endpoint di runtime di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| knowledgeBaseId | Consente di specificare la knowledge base da interrogare. | 
| retrievalQuery | Contiene un campo text per specificare la query. | 
| guardrailsConfiguration | Includi campi guardrailsConfiguration come guardrailsId e guardrailsVersion per utilizzare il guardrail nella richiesta | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| nextToken | Consente di restituire il batch di risposte successivo (vedi campi di risposta di seguito). | 
| retrievalConfiguration | Per includere [configurazioni di query](kb-test-config.md) per personalizzare la ricerca vettoriale. Per ulteriori informazioni, consulta [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html). | 

Puoi utilizzare un modello di riclassificazione rispetto al modello di classificazione predefinito di Amazon Bedrock Knowledge Bases includendo il `rerankingConfiguration` campo nel. [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html) Il `rerankingConfiguration` campo è mappato su un [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html)oggetto, in cui è possibile specificare il modello di riclassificazione da utilizzare, eventuali campi di richiesta aggiuntivi da includere, gli attributi dei metadati per filtrare i documenti durante la nuova classificazione e il numero di risultati da restituire dopo la nuova classificazione. Per ulteriori informazioni, consulta [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html).

**Nota**  
Se il `numberOfRerankedResults` valore specificato è maggiore del valore in [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html), il numero massimo di risultati che verranno restituiti è il `numberOfResults` valore per. `numberOfResults` Un’eccezione è rappresentata dall’utilizzo della decomposizione delle query. Per ulteriori informazioni, vedere la sezione **Modifiche alle query** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md). Se si utilizza la decomposizione delle query, `numberOfRerankedResults` può essere fino a cinque volte superiore rispetto a `numberOfResults`.

La risposta restituisce i blocchi di origine dall'origine dati come matrice di [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html)oggetti nel `retrievalResults` campo. Ciascuno [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html)contiene i seguenti campi:


****  

| Campo | Description | 
| --- | --- | 
| contenuto | Contiene un blocco di origine di testo in text o un blocco di origine di immagine nel campo byteContent. Se il contenuto è un’immagine, l’URI dei dati del contenuto codificato in base64 viene restituito nel seguente formato: data:image/jpeg;base64,\$1\$1base64-encoded string\$1. | 
| metadati | Contiene ogni attributo di metadati come chiave e il valore dei metadati come valore JSON a cui la chiave è mappata. | 
| location | Contiene l’URI o l’URL del documento a cui appartiene il blocco di origine. | 
| score | Il punteggio di pertinenza del documento. utilizzabile per analizzare la classifica dei risultati. | 

Se il numero di blocchi di origine supera quello che può essere contenuto nella risposta, nel campo `nextToken` viene restituito un valore. Usa quel valore in un’altra richiesta per restituire il successivo batch di risultati.

Se i dati recuperati contengono immagini, la risposta restituisce anche le seguenti intestazioni di risposta, che contengono i metadati per i blocchi di origine restituiti nella risposta:
+ `x-amz-bedrock-kb-byte-content-source`: contiene l’URI Amazon S3 dell’immagine.
+ `x-amz-bedrock-kb-description`: contiene la stringa con codifica base64 per l’immagine.

**Nota**  
[Non puoi filtrare in base a queste intestazioni di risposta dei metadati durante la configurazione dei filtri dei metadati](kb-test-config.md).

**Interrogazioni multimodali**  
Per le knowledge base che utilizzano modelli di incorporamento multimodali, è possibile eseguire query con testo o immagini. Il `retrievalQuery` campo supporta un `multimodalInputList` campo per le interrogazioni sulle immagini:

**Nota**  
Per una guida completa sulla configurazione e l'utilizzo delle basi di conoscenza multimodali, inclusa la scelta tra gli approcci Nova e BDA, vedere. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

È possibile eseguire interrogazioni con immagini utilizzando il campo: `multimodalInputList`

```
{
    "knowledgeBaseId": "EXAMPLE123", 
    "retrievalQuery": {
        "multimodalInputList": [
            {
                "content": {
                    "byteContent": "base64-encoded-image-data"
                },
                "modality": "IMAGE"
            }
        ]
    }
}
```

Oppure puoi eseguire una query solo con testo utilizzando il `text` campo:

```
{
    "knowledgeBaseId": "EXAMPLE123",
    "retrievalQuery": {
        "text": "Find similar shoes"
    }
}
```

**Schemi di interrogazione multimodali comuni**  
Di seguito sono riportati alcuni modelli di interrogazione comuni:

Image-to-image ricerca  
Carica un'immagine per trovare immagini visivamente simili. Esempio: carica una foto di una scarpa Nike rossa per trovare scarpe simili nel tuo catalogo prodotti.

Ricerca basata su testo  
Utilizza le interrogazioni di testo per trovare contenuti pertinenti. Esempio: «Trova scarpe simili» per cercare nel catalogo dei prodotti utilizzando descrizioni testuali.

Ricerca visiva di documenti  
Cerca grafici, diagrammi o elementi visivi all'interno dei documenti. Esempio: carica un'immagine del grafico per trovare grafici simili nella tua raccolta di documenti.

**Scelta tra Nova e BDA per contenuti multimodali**  
Quando lavori con contenuti multimodali, scegli il tuo approccio in base al tipo di contenuto e ai modelli di query:


**Matrice decisionale Nova vs BDA**  

| Content Type | Usa Nova Multimodal Embeddings | Usa il parser Bedrock Data Automation (BDA) | 
| --- | --- | --- | 
| Contenuti video | Concentrazione sulla narrazione visiva (sport, pubblicità, dimostrazioni), domande sugli elementi visivi, contenuti vocali minimi | Domande importanti speech/narration (presentazioni, riunioni, tutorial), domande sui contenuti parlati, necessitano di trascrizioni | 
| Contenuti audio | Identificazione di musica o effetti sonori, analisi audio non vocale | Podcast, interviste, riunioni, qualsiasi contenuto il cui discorso richieda la trascrizione | 
| Contenuto dell'immagine | Ricerche per somiglianza visiva, image-to-image recupero, analisi dei contenuti visivi | Estrazione del testo dalle immagini, elaborazione dei documenti, requisiti OCR | 

**Nota**  
Gli incorporamenti multimodali Nova non possono elaborare direttamente i contenuti vocali. Se i tuoi file audio o video contengono importanti informazioni vocali, usa prima il parser BDA per convertire il parlato in testo, oppure scegli invece un modello di incorporamento del testo.

**Limitazioni delle interrogazioni multimodali**  
Di seguito sono riportate alcune limitazioni relative alle interrogazioni multimodali:
+ Massimo un'immagine per query nella versione corrente
+ Le query di immagini sono supportate solo con modelli di incorporamento multimodali (Titan G1 o Cohere Embed v3)
+ RetrieveAndGenerate L'API non è supportata per le knowledge base con modelli di incorporamento multimodali e bucket di contenuti S3
+ Se si fornisce una query di immagine a una knowledge base utilizzando modelli di incorporamento di solo testo, verrà restituito un errore 4xx

**Struttura di risposta API multimodale**  
Le risposte di recupero per i contenuti multimodali includono metadati aggiuntivi:
+ **URI di origine:** indica la posizione originale del bucket S3
+ **URI supplementare:** indica la copia nel bucket di archiviazione multimodale
+ **Metadati timestamp:** inclusi per i blocchi video e audio per consentire un posizionamento preciso della riproduzione

**Nota**  
Quando utilizzi l'API o l'SDK, dovrai gestire il recupero dei file e la navigazione con timestamp nell'applicazione. La console gestisce questa operazione automaticamente con una riproduzione video migliorata e una navigazione automatica con timestamp.

------

**Nota**  
Se ricevi un errore che indica che il prompt supera il limite di caratteri durante la generazione delle risposte, puoi abbreviare il prompt nei seguenti modi:  
Riduci il numero massimo di risultati recuperati (in questo modo si accorcia ciò che viene inserito per il segnaposto \$1search\$1results\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).
Ricrea l’origine dati con una strategia di suddivisione in blocchi che utilizza blocchi più piccoli (in questo modo si accorcia ciò che viene inserito per il segnaposto \$1search\$1results\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).
Abbrevia il modello di prompt.
Abbrevia la query dell’utente (in questo modo si accorcia ciò che viene compilato per il segnaposto \$1query\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).

# Interrogare una knowledge base e generare risposte basate sui dati recuperati
<a name="kb-test-retrieve-generate"></a>

**Importante**  
I guardrail vengono applicati solo all’input e alla risposta generata dal LLM. Non vengono applicati ai riferimenti recuperati dalle knowledge base in fase di runtime.

Dopo aver configurato la knowledge base, è possibile interrogarla e generare risposte basate sui blocchi recuperati dall’origine dati mediante l’operazione API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html). Le risposte vengono restituite con citazioni che rimandano ai dati di origine. È possibile anche [utilizzare un modello di riclassificazione](rerank.md) al posto del ranker predefinito di Knowledge Base per Amazon Bedrock per classificare i blocchi di origine in base alla pertinenza durante il recupero.

**Limitazioni dei contenuti multimodali**  
`RetrieveAndGenerate`ha un supporto limitato per i contenuti multimodali. Quando si utilizza Nova Multimodal Embeddings, la funzionalità RAG è limitata al solo contenuto testuale. Per un supporto multimodale completo, inclusa l'elaborazione audio e video, utilizzate BDA con modelli di incorporamento del testo. Per informazioni dettagliate, vedi [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md).

**Nota**  
Le immagini restituite dalla risposta di `Retrieve` durante il flusso `RetrieveAndGenerate` sono incluse nel prompt per la generazione della risposta. La risposta di `RetrieveAndGenerate` non può includere immagini, ma può citare le origini che le contengono.

Per informazioni su come interrogare la knowledge base, scegli la scheda relativa al metodo preferito, quindi segui la procedura:

------
#### [ Console ]

**Come testare la knowledge base**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base** esegui una delle azioni seguenti:
   + Scegli il pulsante di opzione accanto alla knowledge base che desideri testare e seleziona **Testa knowledge base**. Una finestra di test si espande da destra.
   + Scegli la knowledge base da testare. Una finestra di test si espande da destra.

1. Per generare risposte sulla base delle informazioni recuperate dalla tua knowledge base, attiva **Genera risposte per la tua query**. Amazon Bedrock genera risposte in base alle origini dati e cita le informazioni fornite con note a piè di pagina.

1. Per scegliere un modello da utilizzare per la generazione delle risposte, scegli **Seleziona modello**. Quindi seleziona **Applica**. 

1. (Facoltativo) Seleziona l’icona delle configurazioni (![\[Three horizontal sliders with adjustable circular controls for settings or parameters.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/configurations.png)) per aprire **Configurazioni**. Per informazioni sulle configurazioni, consulta [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

1. Inserisci una query nella casella di testo della finestra di chat e seleziona **Esegui** per restituire le risposte dalla knowledge base.

1. Seleziona una nota a piè di pagina per visualizzare un estratto dall’origine citata relativa alla parte specifica della risposta. Scegli il link per accedere all’oggetto S3 che contiene il file.

1. Per visualizzare i dettagli sui blocchi restituiti, seleziona **Mostra i dettagli dell’origine**.
   + Per visualizzare le configurazioni impostate per la query, espandi **Configurazioni delle query**.
   + Per visualizzare i dettagli su un blocco di origine, espandilo scegliendo la freccia destra (![\[Play button icon with a triangular shape pointing to the right.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/caret-right-filled.png)) accanto ad esso. Puoi visualizzare le seguenti informazioni:
     + Il testo non elaborato dal blocco di origine. Per copiare questo testo, scegli l’icona di copia (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/copy.png)). Se hai utilizzato Amazon S3 per archiviare i dati, scegli l’icona del link esterno (![\[Icon of a square with an arrow pointing outward from its top-right corner.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/external.png)) per accedere all’oggetto S3 contenente il file.
     + I metadati associati al blocco di origine, se hai utilizzato Amazon S3 per archiviare i dati. Le attribute/field chiavi e i valori sono definiti nel `.metadata.json` file associato al documento di origine. Per ulteriori informazioni, consulta la sezione **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Opzioni di chat**
+ Per utilizzare un modello diverso per la generazione delle risposte, scegli **Modifica modello**. Se modifichi il modello, il testo nella finestra della chat verrà completamente cancellato.
+ Passa al recupero diretto dei blocchi di origine deselezionando **Genera risposte**. Se modifichi l’impostazione, il testo nella finestra della chat verrà completamente cancellato.
+ Per cancellare la finestra della chat, seleziona l’icona a forma di scopa (![\[Magnifying glass icon with a checkmark inside, symbolizing search or inspection.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/broom.png)).
+ Per copiare tutto l’output nella finestra della chat, seleziona l’icona di copia (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/copy.png)).

------
#### [ API ]

Per interrogare una knowledge base e utilizzare un modello di fondazione per generare risposte basate sui risultati dalle origini dati, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) con un [endpoint di runtime Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

L’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html) restituisce i dati in un formato di streaming e consente di accedere alle risposte generate in blocchi senza attendere l’intero risultato.

I seguenti campi sono obbligatori:

**Nota**  
La risposta dell’API contiene eventi di citazione. Il membro `citation` è stato reso obsoleto. Al suo posto, ti consigliamo di utilizzare i campi `generatedResponse` e `retrievedReferences`. Come riferimento, consulta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_CitationEvent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_CitationEvent.html).


****  

| Campo | Descrizione di base | 
| --- | --- | 
| input | Contiene un campo text per specificare la query. | 
| retrieveAndGenerateConfigurazione | Contiene un [RetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateConfiguration.html), che specifica le configurazioni per il recupero e la generazione. Per ulteriori dettagli, consultare i contenuti che seguono. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| sessionId | Utilizza lo stesso valore di una sessione precedente per continuare tale sessione e mantenerne il contesto per il modello. | 
| sessionConfiguration | Per includere una chiave KMS personalizzata per la crittografia della sessione. | 

Includi il campo in. `knowledgeBaseConfiguration` [RetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateConfiguration.html) Questo campo è mappato su un [KnowledgeBaseRetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrieveAndGenerateConfiguration.html)oggetto, che contiene i seguenti campi:
+ I seguenti campi sono obbligatori:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-test-retrieve-generate.html)
+ I seguenti campi sono facoltativi:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-test-retrieve-generate.html)

Puoi utilizzare un modello di riposizionamento rispetto al modello di classificazione predefinito di Amazon Bedrock Knowledge Bases includendo il `rerankingConfiguration` campo all'interno di. [KnowledgeBaseVectorSearchConfiguration[KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html) Il `rerankingConfiguration` campo è mappato su un [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html)oggetto, in cui è possibile specificare il modello di riclassificazione da utilizzare, eventuali campi di richiesta aggiuntivi da includere, gli attributi dei metadati per filtrare i documenti durante la nuova classificazione e il numero di risultati da restituire dopo la nuova classificazione. Per ulteriori informazioni, consulta [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html).

**Nota**  
Se il `numberOfRerankedResults` valore specificato è maggiore del valore in [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html), il numero massimo di risultati che verranno restituiti è il `numberOfResults` valore per. `numberOfResults` Un’eccezione è rappresentata dall’utilizzo della decomposizione delle query. Per ulteriori informazioni, consulta la sezione **Modifiche alle query** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md). Se si utilizza la decomposizione delle query, `numberOfRerankedResults` può essere fino a cinque volte superiore rispetto a `numberOfResults`.

La risposta restituisce la risposta generata nel campo `output` e i blocchi di origine citati come matrice nel campo `citations`. Ogni oggetto [citation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Citation.html) include i seguenti campi:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| generatedResponsePart | Nel campo textResponsePart è incluso il valore text a cui si riferisce la citazione. Il campo span fornisce gli indici per l’inizio e la fine della parte dell’output che contiene una citazione. | 
| retrievedReferences | Una matrice di [RetrievedReference](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievedReference.html)oggetti, ognuno content dei quali contiene il blocco di origine metadata associato al documento e l'URI o l'URL location del documento nell'origine dati.  Se il contenuto è un’immagine, l’URI dei dati del contenuto codificato in base64 viene restituito nel seguente formato: data:image/jpeg;base64,\$1\$1base64-encoded string\$1. | 

La risposta restituisce anche un valore `sessionId` che puoi riutilizzare in un’altra richiesta per mantenere la stessa conversazione.

Se hai incluso un valore `guardrailConfiguration` nella richiesta, il campo `guardrailAction` segnala se il contenuto è stato bloccato o meno.

Se i dati recuperati contengono immagini, la risposta restituisce anche le seguenti intestazioni di risposta, che contengono i metadati per i blocchi di origine restituiti nella risposta:
+ `x-amz-bedrock-kb-byte-content-source`: contiene l’URI Amazon S3 dell’immagine.
+ `x-amz-bedrock-kb-description`: contiene la stringa con codifica base64 per l’immagine.

**Nota**  
Non puoi filtrare in base a queste intestazioni di risposta dei metadati durante la [configurazione dei filtri dei metadati](kb-test-config.md).

------

**Nota**  
Se ricevi un errore che indica che il prompt supera il limite di caratteri durante la generazione delle risposte, puoi abbreviare il prompt nei seguenti modi:  
Riduci il numero massimo di risultati recuperati (in questo modo si abbrevia ciò che viene inserito per il segnaposto \$1search\$1results\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).
Ricrea l’origine dati con una strategia di chunking che utilizza blocchi più piccoli (in questo modo si abbrevia ciò che viene inserito per il segnaposto \$1search\$1results\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).
Abbrevia il modello di prompt.
Abbrevia la query dell’utente (in questo modo si abbrevia ciò che viene compilato per il segnaposto \$1query\$1 in [Modelli di prompt della knowledge base: orchestrazione e generazione](kb-test-config.md#kb-test-config-prompt-template)).

# Generazione di una query per dati strutturati
<a name="knowledge-base-generate-query"></a>

Quando si collega un datastore strutturato alla knowledge base, quest’ultima può interrogarlo convertendo la query in linguaggio naturale fornita dall’utente in una query SQL, in base alla struttura dell’origine dati oggetto della query. Quando utilizzi:
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html): la risposta restituisce il risultato dell’esecuzione della query SQL.
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html): la risposta generata si basa sul risultato dell’esecuzione della query SQL.
+ [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html): Amazon Bedrock Knowledge Bases disaccoppia la conversione della query dal processo di recupero. Puoi utilizzare questa operazione API per trasformare una query in SQL.

## Utilizzo dell’API `GenerateQuery`
<a name="knowledge-base-generate-query-api"></a>

È possibile utilizzare la risposta dell’operazione API `GenerateQuery` con un’azione `Retrieve` o `RetrieveAndGenerate` successiva o inserirla in altri flussi di lavoro. `GenerateQuery` consente di trasformare in modo efficiente le query in query SQL prendendo in considerazione la struttura dell’origine dati della knowledge base.

Per trasformare una query in linguaggio naturale in una query SQL, invia una [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html)richiesta con un [endpoint di runtime Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt). La richiesta `GenerateQuery` contiene i seguenti campi:
+ queryGenerationInput — Specificare `TEXT` come `type` e includere la query nel `text` campo.
**Nota**  
Le query devono essere scritte in inglese.
+ transformationConfiguration: specifica `TEXT_TO_SQL` come `mode`. Nel campo `textToSqlConfiguration`, specifica `KNOWLEDGE_BASE` come `type`. Quindi, specifica l’ARN della knowledge base.

La risposta restituisce un array contenente un [GeneratedQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GeneratedQuery.html)oggetto nel `queries` campo. L’oggetto contiene una query SQL per la query nel campo `sql`.

## Considerazioni chiave
<a name="knowledge-base-generate-query-considerations"></a>

Di seguito sono riportate alcune considerazioni chiave per la generazione di una query utilizzando dati strutturati.
+ 

**Inferenza tra Regioni e recupero di dati strutturati**  
Il recupero dei dati strutturati utilizza l'inferenza interregionale per selezionare l'area geografica ottimale per Regione AWS elaborare la richiesta di inferenza. Ciò non comporta costi aggiuntivi e migliora l’esperienza del cliente massimizzando le risorse disponibili e la disponibilità del modello.

  Le richieste di inferenza incrociata vengono conservate all'interno della parte geografica in Regioni AWS cui risiedono originariamente i dati. I dati rimangono archiviati nella Regione di origine, ma i prompt di input e i risultati di output possono spostarsi al di fuori di questa Regione. Tutti i dati verranno trasmessi in modalità crittografata attraverso la rete sicura di Amazon.

  Per ulteriori informazioni, consulta [Aumentare il throughput con l’inferenza tra Regioni](cross-region-inference.md).
+ 

**Accuratezza delle query SQL generate**  
L’accuratezza di una query SQL generata può variare a seconda del contesto, degli schemi delle tabelle e dell’intento di una query utente. Valuta le query generate per assicurarti che siano adatte al tuo caso d’uso prima di utilizzarle nel tuo carico di lavoro.
+ 

**Numero di risultati recuperati**  
Le seguenti limitazioni si applicano quando si genera la risposta.
  + Quando si utilizzano le operazioni API `InvokeAgent`, `RetrieveAndGenerate` e `RetrieveAndGenerateStream`, solo 10 risultati recuperati vengono utilizzati nella generazione della risposta.
  + Quando si utilizza l’API `InvokeAgent`, se sono presenti più di 10 righe di risultati recuperati, il numero totale di righe recuperate non viene passato all’agente per la generazione della risposta. Se invece si utilizza l’API `RetrieveAndGenerate`, il numero totale di righe viene incluso nel prompt per la generazione della risposta finale.
+ 

**Quota API `GenerateQuery`**  
L’API `GenerateQuery` ha una quota di 2 richieste al secondo.

## Concedi a un ruolo le autorizzazioni per accedere alle query generate
<a name="knowledge-base-structured-permissions"></a>

Per la tua knowledge base collegata a un’origine dati strutturata, se desideri eseguire alcune operazioni aggiuntive sulle query generate, devi concedere le autorizzazioni per eseguire l’azione API `GenerateQuery`. Per consentire al tuo ruolo IAM di interrogare una knowledge base connessa a un datastore strutturato, collega la seguente policy al ruolo:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/KnowledgeBaseId"
            ]
        },
        {
            "Sid": "GenerateQueryAccess",
            "Effect": "Allow",
            "Action": [
                "bedrock:GenerateQuery",
                "sqlworkbench:GetSqlRecommendations"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Retrieve",
            "Effect": "Allow",
            "Action": [
                "bedrock:Retrieve"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/KnowledgeBaseId"
            ]
        },
        {
            "Sid": "RetrieveAndGenerate",
            "Effect": "Allow",
            "Action": [
                "bedrock:RetrieveAndGenerate"
            ],
            "Resource": [
                "*"
            ]
        }
    ]
}
```

------

Puoi rimuovere le dichiarazioni non necessarie, a seconda del caso d’uso:
+ `GenerateQuery`Le istruzioni `GetKB` and devono essere chiamate per [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html)generare query SQL che tengano conto delle query degli utenti e dell'origine dati connessa.
+ L’istruzione `Retrieve` è necessaria per chiamare [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) per recuperare i dati dal datastore strutturato.
+ L’istruzione `RetrieveAndGenerate` è necessaria per chiamare [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per recuperare i dati dal datastore strutturato e generare risposte basate sui dati.

# Interrogare una knowledge base connessa a un indice GenAI di Amazon Kendra
<a name="kb-test-kendra"></a>

È possibile interrogare una knowledge base che utilizza un indice GenAI di Amazon Kendra e restituire solo il testo pertinente dalle origini dati. Per questa query, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) con un [endpoint di runtime di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), come con una knowledge base standard.

La struttura di una risposta restituita da una knowledge base con un indice GenAI di Amazon Kendra è la stessa di un [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html) standard. Tuttavia, la risposta include anche alcuni campi aggiuntivi di Amazon Kendra.

La tabella seguente descrive i campi di Amazon Kendra che potrebbero essere visibili in una risposta restituita. Amazon Bedrock ottiene questi campi dalla risposta di Amazon Kendra. Se quella risposta non contiene questi campi, anche il risultato della query restituito da Amazon Bedrock non avrà questi campi.


| Campo | Descrizione | 
| --- | --- | 
|  x-amz-kendra-document-title  |  Il titolo del documento restituito.  | 
|  x-amz-kendra-score-confidence  |  Una classifica relativa dell’affidabilità della risposta alla query. I valori possibili sono VERY\$1HIGH, HIGH, MEDIUM, LOW e NOT\$1AVAILABLE.  | 
|  x-amz-kendra-passage-id  |  L’ID della fase restituito.  | 
|  x-amz-kendra-document-id  |  L’ID del documento restituito.  | 
|  DocumentAttributes  |  Attributi del documento o campi di metadati di Amazon Kendra. Il risultato della query restituito dalla knowledge base li memorizza come coppie chiave-valore dei metadati. È possibile filtrare i risultati con il filtraggio dei metadati di Amazon Bedrock. Per ulteriori informazioni, consulta [DocumentAttribute.](https://docs.aws.amazon.com/kendra/latest/APIReference/API_DocumentAttribute.html)  | 

# Interrogare una knowledge base collegata a un grafico di Analisi Amazon Neptune
<a name="kb-test-neptune"></a>

Puoi interrogare una knowledge base che utilizza un grafico di Analisi Amazon Neptune e restituire solo il testo pertinente dalle origini dati. Per questa query, invia una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) con un [endpoint di runtime di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), come con una knowledge base standard. Per informazioni sull’interrogazione di una knowledge base, sul recupero di dati e sulla generazione di risposte, consulta:
+  [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) 
+  [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md) 

La struttura di una risposta restituita da una knowledge base con un grafico di Analisi Amazon Neptune è la stessa di un [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html) standard. Tuttavia, la risposta include anche alcuni campi aggiuntivi di Amazon Neptune.

La tabella seguente descrive i campi di Analisi Neptune che potrebbero essere visibili in una risposta restituita. Amazon Bedrock ottiene questi campi dalla risposta di Analisi Neptune. Se quella risposta non contiene questi campi, anche il risultato della query restituito da Amazon Bedrock non avrà questi campi.


| Campo | Descrizione | 
| --- | --- | 
|  x-amz-bedrock-kb-source-uri  |  L’URL Amazon S3 del documento restituito.  | 
|  punteggio  |  Una misura della distanza che indica quanto una risposta corrisponde alla query fornita, mentre valori più bassi indicano corrispondenze migliori.  | 
|  x-amz-bedrock-kb-data-source-id  |  L’ID dell’origine dati utilizzata per la knowledge base.  | 
|  x-amz-bedrock-kb-chunk-id  |  L’ID del blocco utilizzato per recuperare le informazioni per la query e generare la risposta.  | 
|  DocumentAttributes  |  Attributi del documento o campi di metadati di Amazon Kendra. Il risultato della query restituito dalla knowledge base li memorizza come coppie chiave-valore dei metadati. È possibile filtrare i risultati con il filtraggio dei metadati di Amazon Bedrock.  | 

## Utilizzo di metadati e filtri
<a name="kb-test-neptune-metadata"></a>

Quando interroghi la knowledge base e generi risposte, puoi filtrare i metadati per trovare documenti più pertinenti. Ad esempio, puoi filtrare in base alla data di pubblicazione del documento. A tale scopo puoi utilizzare la console Amazon Bedrock o l’API di runtime [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html), che può specificare alcune condizioni generali di filtro.

Di seguito sono riportate alcune considerazioni sull’utilizzo dell’API `RetrievalFilter` per i grafici di Analisi Neptune.
+ I filtri `startsWith` e `listContains` non sono supportati.
+ La variante di elenco del filtro `stringContains` non è supportata.

Di seguito viene riportato un esempio:

```
"vectorSearchConfiguration": {
        "numberOfResults": 5,
        "filter": {
            "orAll": [
                {
                    "andAll": [
                        {
                            "equals": {
                                "key": "genre",
                                "value": "entertainment"
                            }
                        },
                        {
                            "greaterThan": {
                                "key": "year",
                                "value": 2018
                            }
                        }
                    ]
                },
                {
                    "andAll": [                        
                        {
                            "startsWith": {
                                "key": "author",
                                "value": "C"
                            }
                        }
                    ]
                }
            ]
        }
    }
}
```

# Configurare e personalizzare la generazione di query e risposte
<a name="kb-test-config"></a>

È possibile configurare e personalizzare il recupero e la generazione di risposte, migliorando ulteriormente la pertinenza delle risposte stesse. Ad esempio, puoi applicare filtri ai metadati dei documenti fields/attributes per utilizzare i documenti aggiornati più di recente o i documenti con orari di modifica più recenti.

**Nota**  
Tutte le configurazioni seguenti, ad eccezione di **orchestrazione e generazione**, sono applicabili solo alle origini dati non strutturate.

Per ulteriori informazioni su queste configurazioni nella console o nell’API, seleziona uno dei seguenti argomenti:

## Numero di blocchi di origine
<a name="kb-test-config-number"></a>

Quando si esegue una query su una knowledge base, per impostazione predefinita Amazon Bedrock restituisce fino a cinque risultati nella risposta. Ogni risultato corrisponde a un blocco di origine.

**Nota**  
Il numero effettivo di risultati nella risposta potrebbe essere inferiore al valore `numberOfResults` specificato, poiché questo parametro imposta il numero massimo di risultati da restituire. Se è stato configurato il chunking semantico per la strategia di chunking, il parametro `numberOfResults` viene mappato al numero di blocchi figlio recuperati dalla knowledge base. Poiché i blocchi figlio che condividono lo stesso blocco padre vengono sostituiti con il blocco padre nella risposta finale, il numero di risultati restituiti potrebbe essere inferiore alla quantità richiesta.

Per modificare il numero massimo di risultati da restituire, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Nel riquadro **Configurazioni**, espandi la sezione **Blocchi di origine** e immetti il numero massimo di blocchi di origine da restituire.

------
#### [ API ]

Quando crei una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)or, includi un `retrievalConfiguration` campo mappato a un [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)oggetto. Per visualizzare la posizione del campo, consulta le pagine relative ai corpi delle richieste [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) e [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nella documentazione di riferimento dell’API.

Il seguente oggetto JSON mostra i campi minimi richiesti nell'[KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)oggetto per impostare il numero massimo di risultati da restituire:

```
"retrievalConfiguration": {
    "vectorSearchConfiguration": {
        "numberOfResults": number
    }
}
```

Specificate il numero massimo di risultati recuperati (consultate il `numberOfResults` campo [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)per l'intervallo di valori accettati) da restituire nel `numberOfResults` campo.

------

## Tipo di ricerca
<a name="kb-test-config-search"></a>

Il tipo di ricerca definisce il modo in cui vengono eseguite le query sulle origini dati nella knowledge base. I tipi di ricerca possibili sono i seguenti:

**Nota**  
La ricerca ibrida è supportata solo per gli archivi vettoriali Amazon RDS, Amazon OpenSearch Serverless e MongoDB che contengono un campo di testo filtrabile. Se si utilizza un archivio vettoriale diverso o l’archivio vettoriale in uso non contiene un campo di testo filtrabile, la query utilizza la ricerca semantica.
+ **Predefinito**: Amazon Bedrock decide automaticamente la strategia di ricerca.
+ **Ibrido**: la ricerca di embedding vettoriali (ricerca semantica) viene combinata con la ricerca nel testo non elaborato.
+ **Semantico**: vengono cercati solo gli embedding vettoriali.

Per informazioni sulla definizione del tipo di ricerca, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Quando apri il riquadro **Configurazioni**, espandi la sezione **Tipo di ricerca**, attiva **Sovrascrivi la ricerca predefinita** e seleziona un’opzione.

------
#### [ API ]

Quando effettui una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)or, includi un `retrievalConfiguration` campo mappato su un oggetto. [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html) Per visualizzare la posizione del campo, consulta le pagine relative ai corpi delle richieste [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) e [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nella documentazione di riferimento dell’API.

Il seguente oggetto JSON mostra i campi minimi richiesti nell'[KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)oggetto per impostare le configurazioni dei tipi di ricerca:

```
"retrievalConfiguration": {
    "vectorSearchConfiguration": {
        "overrideSearchType": "HYBRID | SEMANTIC"
    }
}
```

Specifica il tipo di ricerca nel campo `overrideSearchType`. Sono disponibili le seguenti opzioni:
+ Se non si specifica alcun valore, Amazon Bedrock decide quale strategia di ricerca è più adatta alla configurazione dell’archivio vettoriale.
+ **IBRIDO**: Amazon Bedrock esegue query sulla knowledge base utilizzando sia gli embedding vettoriali che il testo non elaborato.
+ **SEMANTICO**: Amazon Bedrock esegue query sulla knowledge base utilizzando i propri embedding vettoriali.

------

## Streaming
<a name="kb-test-config-stream"></a>

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Quando apri il riquadro **Configurazioni**, espandi la sezione **Preferenza di streaming** e attiva **Trasmetti risposte in streaming**.

------
#### [ API ]

Per trasmettere risposte in streaming, utilizza l’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html). Per maggiori dettagli sulla compilazione dei campi, consulta la scheda **API** all’indirizzo[Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md).

------

## Filtro manuale dei metadati
<a name="kb-test-config-filters"></a>

Puoi applicare filtri al documento per aiutarti fields/attributes a migliorare ulteriormente la pertinenza delle risposte. Le fonti di dati possono includere metadati di documenti su cui attributes/fields filtrare e specificare quali campi includere negli incorporamenti.

Ad esempio, “epoch\$1modification\$1time” rappresenta il tempo in numero di secondi dal 1° gennaio 1970 (UTC), data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. I documenti più recenti possono essere utilizzati per la query.

Per utilizzare i filtri durante l’esecuzione di query su una knowledge base, verifica che quest’ultima soddisfi i seguenti requisiti:
+ Durante la configurazione del connettore dell’origine dati, la maggior parte dei connettori esegue il crawling dei campi di metadati principali dei documenti. Se si utilizza un bucket Amazon S3 come origine dati, il bucket deve includerne almeno un oggetto `fileName.extension.metadata.json` per il file o il documento a cui è associato. Per ulteriori informazioni sulla configurazione del file di metadati, consulta **Campi dei metadati dei documenti** in [Configurazione della connessione](s3-data-source-connector.md#configuration-s3-connector). 
+ Se l'indice vettoriale della tua knowledge base si trova in un archivio vettoriale Amazon OpenSearch Serverless, verifica che l'indice vettoriale sia configurato con il motore. `faiss` Se l’indice vettoriale è configurato con il motore `nmslib`, eseguire una delle seguenti operazioni:
  + [Crea una nuova knowledge base](knowledge-base-create.md) nella console e consenti ad Amazon Bedrock di creare automaticamente un indice vettoriale in Amazon OpenSearch Serverless per te.
  + [Crea un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale e seleziona `faiss` come **motore**. [Crea una nuova knowledge base](knowledge-base-create.md) e specifica il nuovo indice vettoriale.
+ Se la knowledge base utilizza un indice vettoriale in un bucket vettoriale S3, non è possibile utilizzare i filtri `startsWith` e `stringContains`.
+ Se si aggiungono metadati a un indice vettoriale esistente in un cluster di database Amazon Aurora, si consiglia di fornire il nome del campo della colonna di metadati personalizzata per archiviare tutti i metadati in un’unica colonna. Durante l’[importazione dei dati](kb-data-source-sync-ingest.md), questa colonna verrà utilizzata per popolare tutte le informazioni contenute nei file di metadati delle origini dati. Se si sceglie di fornire questo campo, è necessario creare un indice sulla colonna.
  + Quando si [crea una nuova knowledge base](knowledge-base-create.md) nella console e si consente ad Amazon Bedrock di configurare il database Amazon Aurora, viene creata automaticamente una singola colonna popolata con le informazioni contenute nel file di metadati.
  + Quando si sceglie di [creare un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale, è necessario fornire il nome del campo di metadati personalizzato per archiviare le informazioni contenute nel file di metadati. Se non si fornisce questo nome campo, è possibile creare una colonna per ogni attributo di metadati nei file e specificare il tipo di dati (testo, numero o booleano). Ad esempio, se l’attributo `genre` esiste nell’origine dati, è necessario aggiungere una colonna denominata `genre` e specificare `text` come tipo di dati. Durante l’importazione, queste colonne separate vengono popolate con i valori degli attributi corrispondenti.

*Se hai documenti PDF nella tua fonte di dati e utilizzi Amazon OpenSearch Serverless per il tuo archivio vettoriale: le knowledge base di Amazon Bedrock genereranno i numeri di pagina dei documenti e li memorizzeranno in un field/attribute metadato chiamato -. x-amz-bedrock-kb document-page-number* Tenere presente che i numeri di pagina archiviati in un campo di metadati non sono supportati qualora si scelga di non applicare il chunking per i documenti.

Per filtrare i risultati delle query, è possibile utilizzare i seguenti operatori di filtro:


**Operatori di filtro**  

| Operatore | Console | Nome del filtro API | Tipi di dati degli attributi supportati | Risultati filtrati | 
| --- | --- | --- | --- | --- | 
| Equals | = | [equals](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-equals) | stringa, numero, valore booleano | L’attributo corrisponde al valore fornito | 
| Not equals | \$1= | [notEquals](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-notEquals) | stringa, numero, valore booleano | L’attributo non corrisponde al valore fornito | 
| Greater than | > | [Maggiore di](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-greaterThan) | numero | L’attributo è maggiore del valore fornito | 
| Greater than or equals | >= | [greaterThanOrUguale a](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-greaterThanOrEquals) | numero | L’attributo è maggiore del o uguale al valore fornito | 
| Less than | < | [Meno di](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-lessThan) | numero | L’attributo è minore del valore fornito | 
| Less than or equals | <= | [lessThanOrUguale a](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-lessThanOrEquals) | numero | L’attributo è minore del o uguale al valore fornito | 
| In | : | [in](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-in) | elenco di stringhe | L'attributo è nell'elenco fornito (attualmente è meglio supportato con gli archivi vettoriali GraphRag di Amazon OpenSearch Serverless e Neptune Analytics) | 
| Non in | \$1: | [notIn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-notIn) | elenco di stringhe | L'attributo non è nell'elenco fornito (attualmente è meglio supportato con gli archivi vettoriali GraphRag di Amazon OpenSearch Serverless e Neptune Analytics) | 
| String contains | Non disponibile | [stringContains](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-stringContains) | stringa | L’attributo deve essere una stringa. Il nome dell'attributo corrisponde alla chiave e il cui valore è una stringa che contiene il valore che hai fornito come sottostringa o un elenco con un membro che contiene il valore che hai fornito come sottostringa (attualmente è meglio supportato con Amazon OpenSearch Serverless vector store). L'archivio vettoriale GraphRag di Neptune Analytics supporta la variante string (ma non la variante list di questo filtro). | 
| List contains | Non disponibile | [listContains](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-listContains) | stringa | L’attributo deve essere un elenco di stringhe. Il nome dell'attributo corrisponde alla chiave e il cui valore è un elenco che contiene il valore che hai fornito come uno dei suoi membri (attualmente è meglio supportato con Amazon OpenSearch Serverless vector stores). | 

Per combinare gli operatori di filtro, è possibile utilizzare i seguenti operatori logici:


**Operatori logici**  

| Operatore | Console | Nome del campo del filtro API | Risultati filtrati | 
| --- | --- | --- | --- | 
| And | and | [andAll](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-andAll) | I risultati soddisfano tutte le espressioni di filtro del gruppo | 
| Or | or | [orAll](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-orAll) | I risultati soddisfano almeno una delle espressioni di filtro del gruppo | 

Per informazioni su come filtrare i risultati utilizzando i metadati, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Quando apri il riquadro **Configurazioni**, viene visualizzata una **sezione Filtri**. Le procedure seguenti descrivono casi d’uso diversi:
+ Per aggiungere un filtro, crea un’espressione di filtro inserendo un attributo di metadati, un operatore di filtro e un valore nella casella. Separa ogni parte dell’espressione con uno spazio bianco. Premi **Invio** per aggiungere il filtro.

  Per un elenco degli operatori di filtro accettati, consulta la tabella **Operatori di filtro** precedente. È inoltre possibile visualizzare un elenco di operatori di filtro quando si aggiunge uno spazio bianco dopo l’attributo di metadati.
**Nota**  
È necessario racchiudere le stringhe tra virgolette.

  Ad esempio, è possibile filtrare i risultati dei documenti di origine che contengono un attributo di metadati `genre` il cui valore è `"entertainment"` aggiungendo il seguente filtro: **genre = "entertainment"**.  
![\[Aggiungere un filtro.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-one.png)
+ Per aggiungere un altro filtro, immetti un’altra espressione di filtro nella casella, quindi premi **Invio**. Puoi aggiungere fino a 5 filtri nel gruppo.  
![\[Aggiungere un altro filtro.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-more.png)
+ Per impostazione predefinita, la query restituisce risultati che soddisfano tutte le espressioni di filtro fornite. Per restituire risultati che soddisfano almeno una delle espressioni di filtro, scegli il menu a discesa **and** tra due operazioni di filtro qualsiasi e seleziona **or**.  
![\[Modificare l’operazione logica tra filtri.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-logical.png)
+ Per combinare diversi operatori logici, seleziona **\$1 Aggiungi gruppo** per aggiungere un gruppo di filtri. Immetti le espressioni di filtro nel nuovo gruppo. Puoi aggiungere fino a 5 gruppi di filtri.  
![\[Aggiungere un gruppo di filtri per combinare diversi operatori logici.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-group.png)
+ Per modificare l’operatore logico utilizzato tra tutti i gruppi di filtro, scegli il menu a discesa **AND** tra due gruppi di filtri, quindi seleziona **OR**.  
![\[Modificare l’operazione logica tra gruppi di filtri.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-group-logical.png)
+ Per modificare un filtro, selezionalo, modifica l’operazione di filtro e scegli **Applica**.  
![\[Modifica di un filtro.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-edit.png)
+ Per rimuovere un gruppo di filtri, scegli l’icona del cestino (![\[Trapezoid-shaped diagram showing data flow from source to destination through AWS Transfer Family.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/trash.png)) accanto al gruppo. Per rimuovere un filtro, scegli l’icona di eliminazione (![\[Close or cancel icon represented by an "X" symbol.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/close.png)) accanto al filtro.  
![\[Eliminare un filtro o un gruppo di filtri.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-delete.png)

L’immagine seguente mostra un esempio di configurazione del filtro che restituisce tutti i documenti scritto dopo il **2018** il cui genere è **"entertainment"**, oltre ai documenti il cui genere è **"cooking"** o **"sports"** e il cui autore inizia con**"C"**.

![\[Esempio di configurazione del filtro.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/filter-example.png)


------
#### [ API ]

Quando effettui una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)or, includi un `retrievalConfiguration` campo mappato su un oggetto. [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html) Per visualizzare la posizione del campo, consulta le pagine relative ai corpi delle richieste [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) e [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nella documentazione di riferimento dell’API.

I seguenti oggetti JSON mostrano i campi minimi richiesti nell'[KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)oggetto per impostare filtri per diversi casi d'uso:

1. Usa un operatore di filtro (consulta la tabella **Operatori di filtro** precedente).

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "<filter-type>": {
                   "key": "string",
                   "value": "string" | number | boolean | ["string", "string", ...]
               }
           }
       }
   }
   ```

1. Usa un operatore logico (consulta la tabella **Operatori logici** precedente) per combinare fino a 5 filtri.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   },
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   },
                   ...
               ]
           }
       }
   }
   ```

1. Usa un operatore logico per combinare fino a 5 operatori di filtro in un gruppo di filtri e un secondo operatore logico per combinare tale gruppo di filtri con un altro operatore di filtro.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ],
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   }
               ]
           }
       }
   }
   ```

1. Combina fino a 5 gruppi di filtri incorporandoli in un altro operatore logico. È possibile creare un livello di embedding.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ],
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ]
               ]
           }
       }
   }
   ```

Nella tabella seguente vengono descritti i tipi di filtro che è possibile utilizzare:


****  

| Campo | Tipi di dati del valore supportati | Risultati filtrati | 
| --- | --- | --- | 
| equals | stringa, numero, valore booleano | L’attributo corrisponde al valore fornito | 
| notEquals | stringa, numero, valore booleano | L’attributo non corrisponde al valore fornito  | 
| greaterThan | numero | L’attributo è maggiore del valore fornito | 
| greaterThanOrEquals | numero | L’attributo è maggiore del o uguale al valore fornito | 
| lessThan | numero | L’attributo è minore del valore fornito  | 
| lessThanOrEquals | numero | L’attributo è minore del o uguale al valore fornito | 
| in | elenco di stringhe | L’attributo è presente nell’elenco fornito | 
| notIn | elenco di stringhe | L’attributo non è presente nell’elenco fornito | 
| startsWith | stringa | L'attributo inizia con la stringa fornita (supportata solo per gli archivi vettoriali Amazon OpenSearch Serverless) | 

Per combinare gli operatori di filtro, è possibile utilizzare uno dei seguenti operatori logici:


****  

| Campo | Mappato a | Risultati filtrati | 
| --- | --- | --- | 
| andAll | Elenco di un massimo di 5 tipi di filtri | I risultati soddisfano tutte le espressioni di filtro del gruppo | 
| orAll | Elenco di un massimo di 5 tipi di filtri | I risultati soddisfano almeno una delle espressioni di filtro del gruppo | 

Per esempi, consulta [Send a query and includi filters (Retrieve)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html#API_agent-runtime_Retrieve_Example_2) e [Send a query and include filters](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html#API_agent-runtime_RetrieveAndGenerate_Example_2) (). RetrieveAndGenerate

------

## Filtro implicito dei metadati
<a name="kb-test-config-implicit"></a>

Knowledge Base per Amazon Bedrock genera e applica un filtro di recupero basato sulla query dell’utente e su uno schema di metadati.

**Nota**  
Attualmente la funzionalità è attiva solo in Anthropic Claude 3.5 Sonnet.

L’elemento `implicitFilterConfiguration` è specificato nell’oggetto `vectorSearchConfiguration` del corpo della richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html). Include i seguenti campi:
+ `metadataAttributes`: in questo array, fornisci gli schemi che descrivono gli attributi dei metadati per cui il modello genererà un filtro.
+ `modelArn`: ARN del modello da utilizzare.

Di seguito viene mostrato un esempio di schemi di metadati che è possibile aggiungere all’array in `metadataAttributes`.

```
[
    {
        "key": "company",
        "type": "STRING",
        "description": "The full name of the company. E.g. `Amazon.com, Inc.`, `Alphabet Inc.`, etc"
    },
    {
        "key": "ticker",
        "type": "STRING",
        "description": "The ticker name of a company in the stock market, e.g. AMZN, AAPL"
    },
    {
        "key": "pe_ratio",
        "type": "NUMBER",
        "description": "The price to earning ratio of the company. This is a measure of valuation of a company. The lower the pe ratio, the company stock is considered chearper."
    },
    {
        "key": "is_us_company",
        "type": "BOOLEAN",
        "description": "Indicates whether the company is a US company."
    },
    {
        "key": "tags",
        "type": "STRING_LIST",
        "description": "Tags of the company, indicating its main business. E.g. `E-commerce`, `Search engine`, `Artificial intelligence`, `Cloud computing`, etc"
    }
]
```

## Guardrail
<a name="kb-test-config-guardrails"></a>

È possibile implementare protezioni per la knowledge base per i casi d’uso specifici e le policy di IA responsabile. Si possono creare più guardrail su misura per diversi casi d’uso e applicarli a più condizioni di richiesta e risposta, fornendo un’esperienza utente coerente e standardizzando i controlli di sicurezza nella knowledge base. Si possono anche configurare argomenti da negare per impedire argomenti indesiderati e filtri di contenuto per bloccare contenuti dannosi negli input e nelle risposte dei modelli. Per ulteriori informazioni, consulta [Rilevare e filtrare contenuti dannosi utilizzando Guardrail per Amazon Bedrock](guardrails.md).

**Nota**  
L’uso di guardrail con correlazione contestuale per knowledge base non è attualmente supportato in Claude 3 Sonnet e Haiku.

Per linee guida generali sulla progettazione dei prompt, consulta [Concetti di progettazione dei prompt](prompt-engineering-guidelines.md).

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Nella finestra di test, attiva **Genera risposte**. Nel riquadro **Configurazioni**, espandi la sezione **Guardrail**.

1. Nella sezione **Guardrail**, scegli il **Nome** e la **Versione** del guardrail. Per visualizzare i dettagli del guardrail e della versioni scelti, seleziona **Visualizza**.

   In alternativa, scegli il link **Guardrail** per creare un nuovo guardrail.

1. Al termine della modifica, scegli **Salva modifiche**. Per uscire senza salvare, scegli **Ignora modifiche**.

------
#### [ API ]

Quando esegui una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html), includi il campo `guardrailConfiguration` in `generationConfiguration` per utilizzare il guardrail con la richiesta. Per visualizzare la posizione del campo, consulta la pagina relativa al corpo della richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nella documentazione di riferimento dell’API.

Il seguente oggetto JSON mostra i campi minimi richiesti [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)per impostare: `guardrailConfiguration`

```
"generationConfiguration": {
    "guardrailConfiguration": {
        "guardrailId": "string",
        "guardrailVersion": "string"
    }
}
```

Specifica i valori `guardrailVersion` e `guardrailId` dei guardrail scelti. 

------

## Riclassificazione
<a name="kb-test-config-rerank"></a>

È possibile utilizzare un modello di riclassificazione per riclassificare i risultati delle query della knowledge base. Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Quando apri il riquadro **Configurazioni**, espandi la sezione **Riclassificazione**. Seleziona un modello di riclassificazione, aggiorna le autorizzazioni, se necessario e modifica eventuali opzioni aggiuntive. Immetti un prompt e seleziona **Esegui** per testare i risultati dopo la riclassificazione.

## Scomposizione delle query
<a name="kb-test-query-modifications"></a>

La scomposizione delle query è una tecnica utilizzata per suddividere query complesse in sottoquery più piccole e più gestibili. Questo approccio consente di recuperare informazioni più precise e pertinenti, soprattutto quando la query iniziale è complessa o troppo ampia. L’attivazione di questa opzione può comportare l’esecuzione di più query sulla knowledge base e di conseguenza può contribuire a una risposta finale più accurata.

Ad esempio, per una domanda come *“Chi ha ottenuto il punteggio più alto nella Coppa del Mondo FIFA 2022, Argentina o in Francia?”*, Knowledge Base per Amazon Bedrock può generare le sottoquery seguenti prima di generare una risposta finale:

1. *Quanti gol ha segnato l’Argentina nella finale della Coppa del Mondo FIFA 2022?*

1. *Quanti gol ha segnato la Francia nella finale della Coppa del Mondo FIFA 2022?*

------
#### [ Console ]

1. Crea e sincronizza un’origine dati o usa una knowledge base esistente.

1. Vai alla finestra di test e apri il pannello di configurazione.

1. Abilita la scomposizione delle query.

------
#### [ API ]

```
POST /retrieveAndGenerate HTTP/1.1
Content-type: application/json
{
   "input": {
      "text": "string"
   },
   "retrieveAndGenerateConfiguration": {
      "knowledgeBaseConfiguration": {
         "orchestrationConfiguration": { // Query decomposition
           "queryTransformationConfiguration": {
                "type": "string" // enum of QUERY_DECOMPOSITION
           }
         },
...}
}
```

------

## Parametri di inferenza
<a name="kb-test-model-params"></a>

Quando si generano risposte basate sul recupero di informazioni, è possibile utilizzare [i parametri di inferenza](inference-parameters.md) per ottenere un maggiore controllo sul comportamento del modello durante l’inferenza e per influenzare i risultati del modello.

Per informazioni sulla modifica dei parametri di inferenza, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come modificare i parametri di inferenza durante l’esecuzione di query su una knowledge base**: segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Quando apri il riquadro **Configurazioni**, viene visualizzata una sezione **Parametri di inferenza**. Modifica i parametri in base alle esigenze.

**Come modificare i parametri di inferenza durante la chat con il documento**: segui i passaggi indicati in [Chat con un documento senza una knowledge base configurata](knowledge-base-chatdoc.md). Nel riquadro **Configurazioni**, espandi la sezione **Parametri di inferenza** e modifica i parametri in base alle esigenze.

------
#### [ API ]

I parametri del modello vengono forniti nella chiamata all’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html). È possibile personalizzare il modello fornendo parametri di inferenza nel campo `inferenceConfig` campo di `knowledgeBaseConfiguration` (se si esegue una query su una knowledge base) o del `externalSourcesConfiguration` (se si comunica [tramite chat con il documento](knowledge-base-chatdoc.md)).

Nel campo `inferenceConfig` è presente una campo `textInferenceConfig` che contiene i seguenti parametri:
+ temperature
+ topP
+ maxTokenCount
+ stopSequences

È possibile personalizzare il modello utilizzando i seguenti parametri nel campo `inferenceConfig` di `externalSourcesConfiguration` e `knowledgeBaseConfiguration`: 
+ temperature
+ topP
+ maxTokenCount
+ stopSequences

Per una spiegazione dettagliata della funzione di ciascun parametro, consulta [Influenza sulla generazione della risposta con i parametri di inferenza](inference-parameters.md).

È inoltre possibile fornire parametri personalizzati non supportati da `textInferenceConfig` tramite la mappa `additionalModelRequestFields`. È possibile fornire parametri univoci per modelli specifici con questo argomento. Per i parametri univoci, consulta [Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione](model-parameters.md).

Se si omette un parametro da `textInferenceConfig`, viene utilizzato un valore predefinito. Tutti i parametri non riconosciuti in `textInferneceConfig` vengono ignorati, mentre tutti i parametri non riconosciuti in `AdditionalModelRequestFields` generano un’eccezione. 

Viene generata un’eccezione di convalida se in `additionalModelRequestFields` e `TextInferenceConfig` è presente lo stesso parametro.

**Utilizzo dei parametri del modello in RetrieveAndGenerate**

 Di seguito è riportato un esempio della struttura per `inferenceConfig` e `additionalModelRequestFields` sotto`generationConfiguration` nel corpo della richiesta `RetrieveAndGenerate`:

```
"inferenceConfig": {
    "textInferenceConfig": {
        "temperature": 0.5,  
        "topP": 0.5,
        "maxTokens": 2048,
        "stopSequences": ["\nObservation"]
    }
},
"additionalModelRequestFields": {
    "top_k": 50
}
```

 L’esempio seguente imposta il parametro `temperature` su 0,5, il parametro `top_p` su 0,5 e il parametro `maxTokens` su 2.048, interrompe la generazione se incontra la stringa “\$1nObservation” nella risposta generata e passa un valore `top_k` personalizzato pari a 50. 

------

## Modelli di prompt della knowledge base: orchestrazione e generazione
<a name="kb-test-config-prompt-template"></a>

Quando si eseguono query su una knowledge base e si richiede la generazione della risposta, Amazon Bedrock utilizza un modello di prompt che abbina istruzioni, informazioni recuperate e contesto alla query dell’utente per creare il prompt inviato al modello per la generazione della risposta. È anche possibile personalizzare il prompt di orchestrazione, che trasforma il prompt dell’utente in una query di ricerca. Per progettare i modelli di prompt, utilizza gli strumenti seguenti:
+ **Segnaposto dei prompt**: variabili predefinite in Knowledge Base per Amazon Bedrock compilate dinamicamente in fase di runtime durante l’esecuzione della query sulla knowledge base. Nel prompt di sistema, i segnaposto circondati dal simbolo `$`. Nell’elenco seguente vengono descritti i segnaposto che è possibile utilizzare:
**Nota**  
Il segnaposto `$output_format_instructions$` è un campo obbligatorio per le citazioni da visualizzare nella risposta.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-test-config.html)
+ **Tag XML**: i modelli Anthropic supportano l’uso di tag XML per strutturare e delineare i prompt. Utilizza nomi di tag descrittivi per risultati ottimali. Ad esempio, nel prompt di sistema predefinito, il tag `<database>` viene utilizzato per delineare un database di domande poste in precedenza. Per ulteriori informazioni, consulta [Utilizzare i tag XML](https://docs.anthropic.com/claude/docs/use-xml-tags) nella [ Guida per l’utente di Anthropic](https://docs.anthropic.com/en/docs/welcome).

Per linee guida generali sulla progettazione dei prompt, consulta [Concetti di progettazione dei prompt](prompt-engineering-guidelines.md).

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Segui i passaggi per la console indicati in [Interrogare una knowledge base e recuperare dei dati](kb-test-retrieve.md) o in [Interrogare una knowledge base e generare risposte basate sui dati recuperati](kb-test-retrieve-generate.md). Nella finestra di test, attiva **Genera risposte**. Nel riquadro **Configurazioni**, espandi la sezione **Modello di prompt della knowledge base**.

1. Scegli **Modifica**.

1. Modifica il prompt di sistema nell’editor di testo, includendo i segnaposto e prompt e i tag XML, se necessario. Per ripristinare il modello di prompt predefinito, scegli **Ripristina il valore predefinito**.

1. Al termine della modifica, scegli **Salva modifiche**. Per uscire senza salvare il prompt di sistema, scegli **Ignora modifiche**.

------
#### [ API ]

Quando effettui una [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)richiesta, includi un `generationConfiguration` campo mappato su un [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)oggetto. Per visualizzare la posizione del campo, consulta la pagina relativa al corpo della richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nella documentazione di riferimento dell’API.

Il seguente oggetto JSON mostra i campi minimi richiesti nell'[GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)oggetto per impostare il numero massimo di risultati recuperati da restituire:

```
"generationConfiguration": {
    "promptTemplate": {
        "textPromptTemplate": "string"
    }
}
```

Immetti il modello di prompt personalizzato nel campo `textPromptTemplate`, inclusi i segnaposto dei prompt e i tag XML in base alle esigenze. Per il numero massimo di caratteri consentiti nel prompt di sistema, consultate il `textPromptTemplate` campo in. [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)

------

# Configurare la generazione di risposte per modelli di ragionamento con Knowledge Bases
<a name="kb-test-configure-reasoning"></a>

Alcuni modelli di fondazione sono in grado di eseguire il ragionamento basato su modello, in cui eseguono un’attività più ampia e complessa e la suddividono in fasi più piccole e più semplici. Questo processo, spesso denominato ragionamento a catena di pensiero, può migliorare la precisione del modello dando al modello la possibilità di pensare prima di rispondere. Il ragionamento basato su modello è particolarmente utile per attività come l’analisi in più fasi, problemi matematici e attività di ragionamento complesse. Per ulteriori informazioni, consulta [Migliorare le risposte del modello con il ragionamento basato su modello](inference-reasoning.md).

**Nota**  
Questa pagina descrive come utilizzare la configurazione del ragionamento specificamente per Knowledge Base per Amazon Bedrock. Per informazioni sulla configurazione del ragionamento per l’invocazione diretta del modello tramite l’API `InvokeModel`, consultare [Migliorare le risposte del modello con il ragionamento basato su modello](inference-reasoning.md).

Quando il ragionamento basato sui modelli è abilitato, può migliorare la precisione e generare risultati di citazione più accurati, ma può comportare un aumento della latenza. Di seguito sono riportate alcune considerazioni quando si interrogano le origini dati e si generano risposte utilizzando modelli di ragionamento con Knowledge Base per Amazon Bedrock.

**Topics**
+ [Modelli di ragionamento](#kb-test-reasoning-models)
+ [Utilizzo del ragionamento basato su modello per Claude 3.7 Sonnet](#kb-test-reasoning-using)
+ [Considerazioni generali](#kb-test-reasoning-general-considerations)
+ [Considerazioni sull’API RetrieveandGenerate](#kb-test-reasoning-api-considerations)

## Modelli di ragionamento
<a name="kb-test-reasoning-models"></a>

Il ragionamento basato su modello è disponibile per i seguenti modelli.


| Modello di fondazione | ID modello | Numero di token | Configurazione del ragionamento | 
| --- | --- | --- | --- | 
| Anthropic Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 | Questo modello avrà 32.768 token, che includono sia token di output che token di ragionamento. | Il ragionamento può essere abilitato o disabilitato per questo modello utilizzando un budget di token configurabile. Per impostazione predefinita, il ragionamento è disabilitato. | 
| Anthropic Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | Questo modello avrà 65.536 token, che includono sia token di output che token di ragionamento. | Il ragionamento può essere abilitato o disabilitato per questo modello utilizzando un budget di token configurabile. Per impostazione predefinita, il ragionamento è disabilitato. | 
| Anthropic Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 | Questo modello avrà 65.536 token, che includono sia token di output che token di ragionamento. | Il ragionamento può essere abilitato o disabilitato per questo modello utilizzando un budget di token configurabile. Per impostazione predefinita, il ragionamento è disabilitato. | 
| DeepSeek DeepSeek-R1 | deepseek.r1-v1:0 | Questo modello avrà 8.192 token, che includono sia token di output che token di ragionamento. Il numero di token di pensiero non può essere configurato e il numero massimo di token di output non deve essere superiore a 8.192. | Il ragionamento è sempre abilitato per questo modello. Il modello non supporta l’attivazione e la disattivazione della funzionalità di ragionamento. | 

## Utilizzo del ragionamento basato su modello per Claude 3.7 Sonnet
<a name="kb-test-reasoning-using"></a>

**Nota**  
Il ragionamento basato su modello è sempre abilitato per il modello DeepSeek-R1. Il modello non supporta l’attivazione e la disattivazione della funzionalità di ragionamento.

Quando si utilizza il modello Claude 3.7 Sonnet, il ragionamento basato su modello può essere abilitato o disabilitato utilizzando il parametro `additionalModelRequestFields` dell’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html). Questo parametro accetta qualsiasi coppia chiave-valore. Ad esempio, è possibile aggiungere un campo `reasoningConfig` e utilizzare una chiave `type` per abilitare o disabilitare il ragionamento, come mostrato di seguito.

```
{
   "input": { 
      "text": "string",
      "retrieveAndGenerateConfiguration": { 
      "knowledgeBaseConfiguration": { 
         "generationConfiguration": { 
            "additionalModelRequestFields": {
                "reasoningConfig" : {
                    "type": "enabled",
                    "budget_tokens": INT_VAL, #required when enabled
                }
            }
         },
         "knowledgeBaseId": "string",
      },
      "type": "string"
   },
   "sessionId": "string"
}
```

## Considerazioni generali
<a name="kb-test-reasoning-general-considerations"></a>

Di seguito sono riportate alcune considerazioni generali sull’utilizzo dei modelli di ragionamento per Knowledge Bases.
+ I modelli di ragionamento hanno a disposizione fino a cinque minuti per rispondere a una domanda. Se il modello impiega più di cinque minuti per rispondere alla domanda, si verifica un timeout.
+ Per evitare il superamento del timeout di cinque minuti, il ragionamento basato su modello è abilitato solo nella fase di generazione, quando si configurano le query e la generazione delle risposte. La fase di orchestrazione non può avere il ragionamento basato su modello.
+ I modelli di ragionamento possono utilizzare fino a 8192 token per rispondere alle domande, che includono sia i token di output che quelli di ragionamento. Qualsiasi richiesta che richiede un numero massimo di token di output superiore a questo limite genera un errore.

## Considerazioni sull’API RetrieveandGenerate
<a name="kb-test-reasoning-api-considerations"></a>

Di seguito sono riportate alcune considerazioni sull’utilizzo dell’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per i modelli di ragionamento.
+ Per impostazione predefinita, quando il ragionamento è disabilitato per tutti i modelli, incluso Claude 3.7 Sonnet, la temperatura è impostata su zero. Quando il ragionamento è abilitato, la temperatura deve essere impostata su uno.

  ```
  "inferenceConfig": {
      "textInferenceConfig": {
          "maxTokens": 8192,
          "temperature": 1
      }
  }
  ```
+ Il parametro Top P deve essere disabilitato quando il ragionamento è abilitato per il modello Claude 3.7 Sonnet. Top P è un campo aggiuntivo di richiesta del modello che determina il percentile di possibili token da selezionare durante la generazione. Per impostazione predefinita, il valore Top P per gli altri modelli Anthropic Claude è uno. Per il modello Claude 3.7 Sonnet, questo valore è disabilitato per impostazione predefinita.
+ Quando si utilizza il ragionamento basato su modello, può comportare un aumento della latenza. Quando si utilizza l’operazione di questa API e l’operazione dell’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html), è possibile notare un ritardo nella ricezione della risposta dall’API.

# Implementazione della knowledge base per un’applicazione di IA
<a name="knowledge-base-deploy"></a>

Per implementare una knowledge base per la tua applicazione, configurala per inviare richieste [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) o [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) alla knowledge base. Per scoprire come utilizzare queste operazioni API per interrogare e generare risposte, consulta [Test della knowledge base con query e risposte](knowledge-base-test.md).

Puoi anche associare la knowledge base a un agente e l’agente la invocherà quando necessario durante l’orchestrazione. Per ulteriori informazioni, consulta [Automazione delle attività nella propria applicazione utilizzando agenti IA](agents.md).

È necessario configurare e sincronizzare l’origine o le origini dati con la knowledge base prima di poter implementare la knowledge base. Consulta [Origini dati supportate](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html).

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come associare una knowledge base a un agente**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Seleziona **Agenti** nel riquadro di navigazione a sinistra.

1. Seleziona l’agente al quale aggiungere la knowledge base.

1. Nella sezione **Bozza di lavoro**, scegli **Bozza di lavoro**.

1. Seleziona **Aggiungi** nella sezione **Knowledge base**.

1. Seleziona una knowledge base dall’elenco a discesa in **Seleziona la knowledge base** e specifica le istruzioni per l’agente su come deve interagire con la knowledge base e restituire i risultati.

**Come dissociare una knowledge base da un agente**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Seleziona **Agenti** nel riquadro di navigazione a sinistra.

1. Seleziona l’agente al quale aggiungere la knowledge base.

1. Nella sezione **Bozza di lavoro**, scegli **Bozza di lavoro**.

1. Nella sezione **Knowledge base**, seleziona una knowledge base.

1. Seleziona **Elimina**.

------
#### [ API ]

Per associare una knowledge base a un agente, invia una richiesta [AssociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_AssociateAgentKnowledgeBase.html).
+ Includi una `description` dettagliata per fornire istruzioni sul modo in cui l’agente deve interagire con la knowledge base e restituire risultati.
+ Imposta `knowledgeBaseState` su `ENABLED` per consentire all’agente di interrogare la knowledge base.

Puoi aggiornare una knowledge base associata a un agente inviando una richiesta [UpdateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateAgentKnowledgeBase.html). Ad esempio, potresti voler impostare `knowledgeBaseState` su `ENABLED` per risolvere un problema. Poiché tutti i campi verranno sovrascritti, includi sia i campi che vuoi aggiornare sia quelli che vuoi mantenere invariati.

Per dissociare una knowledge base da un agente, invia una richiesta [DisassociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DisassociateAgentKnowledgeBase.html).

------

# Visualizzare informazioni su una knowledge base di Amazon Bedrock
<a name="kb-info"></a>

È possibile visualizzare informazioni su una knowledge base, ad esempio le impostazioni e lo stato.

Per monitorare la knowledge base utilizzando i log di Amazon CloudWatch, consulta [Registrazione della knowledge base.](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html)

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come visualizzare informazioni su una knowledge base**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Per visualizzare i dettagli di una knowledge base, seleziona il **Nome** dell’origine o scegli il pulsante di opzione accanto all’origine e seleziona **Modifica**.

1. Nella pagina dei dettagli puoi eseguire queste azioni:
   + Per modificare i dettagli della knowledge base, seleziona **Modifica** nella sezione **Panoramica della knowledge base**.
   + Per aggiornare i tag associati alla knowledge base, seleziona **Gestisci tag** nella sezione **Tag**.
   + Se aggiorni l’origine dati da cui è stata creata la knowledge base e devi sincronizzare le modifiche, seleziona **Sincronizza** nella sezione **Origine dati**.
   + Per visualizzare i dettagli di un’origine dati, seleziona un **Nome dell’origine dati**. All’interno dei dettagli, puoi scegliere il pulsante di opzione accanto a un evento di sincronizzazione nella sezione **Cronologia di sincronizzazione** e selezionare **Visualizza avvisi** per vedere perché i file nel processo di importazione dei dati non sono stati sincronizzati.
   + Per gestire il modello di embedding vettoriali utilizzato per la knowledge base, seleziona **Modifica Throughput assegnato**.
   + Al termine della modifica, scegli **Salva modifiche**.

------
#### [ API ]

Per ottenere informazioni su una knowledge base, invia una richiesta [GetKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBase.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specificando il `knowledgeBaseId`.

Per elencare le informazioni sulle tue knowledge base, invia una richiesta [ListKnowledgeBases](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBases.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Puoi impostare il numero massimo di risultati che dovranno essere restituiti nella risposta. Se i risultati sono più numerosi del valore impostato, la risposta restituisce `nextToken`. È possibile utilizzare questo valore nel campo `nextToken` di un’altra richiesta [ListKnowledgeBases](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBases.html) per visualizzare il successivo batch di risultati.

------

# Modificare una knowledge base di Amazon Bedrock
<a name="kb-update"></a>

È possibile aggiornare una knowledge base, ad esempio modificando le configurazioni della knowledge base.

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come creare una knowledge base**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Seleziona una knowledge base per visualizzarne i dettagli oppure scegli il pulsante di opzione accanto alla knowledge base e seleziona **Modifica**.

1. Puoi modificare la knowledge base nei modi seguenti.
   + Modifica le configurazioni della knowledge base scegliendo **Modifica** nella sezione **Panoramica della knowledge base**.
   + Modifica e gestisci i tag associati alla knowledge base scegliendo **Gestisci tag** nella sezione **Tag**.
   + Modifica e gestisci l’origine dati della knowledge base nella sezione **Origine dati**.

1. Al termine della modifica, scegli **Salva modifiche**.

------
#### [ API ]

Per aggiornare una knowledge base, invia una richiesta [UpdateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateKnowledgeBase.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Poiché tutti i campi verranno sovrascritti, includi sia i campi che vuoi aggiornare sia quelli che vuoi mantenere invariati.

------

# Eliminare una knowledge base di Amazon Bedrock
<a name="kb-delete"></a>

È possibile eliminare o rimuovere una knowledge base che utilizzi o non è più necessaria. Quando elimini una knowledge base, è inoltre necessario eseguire le seguenti azioni per eliminare completamente tutte le risorse associate alla knowledge base.
+ Dissocia la knowledge base da tutti gli agenti a cui è associata.
+ Elimina l’archivio vettoriale stesso dalla knowledge base.

**Nota**  
La `dataDeletionPolicy` predefinita per un’origine dati appena creata è “Elimina”, se non diversamente specificato durante la creazione dell’origine dati. La policy si applica quando si elimina una knowledge base o una risorsa di origine dati. Puoi aggiornare la policy in modo da “Conservare” i dati dall’origine dati che viene convertita in embedding vettoriali. Tieni presente che l’**archivio vettoriale stesso non viene eliminato** se elimini una knowledge base o una risorsa di origine dati.

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come eliminare una knowledge base**

1. Prima dei passaggi seguenti, assicurati di eliminare la knowledge base da tutti gli agenti a cui è associata. Per farlo, segui questi passaggi:

   1. Seleziona **Agenti** nel riquadro di navigazione a sinistra.

   1. Seleziona il **nome** dell’agente dal quale eliminare la knowledge base.

   1. Viene visualizzato un banner rosso per avvisarti di eliminare dall’agente il riferimento alla knowledge base, che non esiste più.

   1. Seleziona il pulsante di opzione accanto alla knowledge base da rimuovere. Scegli **Altro**, quindi **Elimina**.

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Scegli una knowledge base oppure seleziona il pulsante di opzione accanto a una knowledge base. Scegli **Elimina**.

1. Esamina gli avvisi relativi all’eliminazione di una knowledge base. Se accetti queste condizioni, inserisci **delete** nella casella di input e seleziona **Elimina** per confermare.
**Nota**  
L’**archivio vettoriale stesso non viene eliminato**, solo i dati sottostanti. Puoi utilizzare la console o l’SDK dell’archivio vettoriale per eliminare lo stesso. Assicurati di controllare anche tutti gli agenti di Amazon Bedrock che utilizzi con la knowledge base.

------
#### [ API ]

Per eliminare la knowledge base, invia una richiesta [DeleteKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBase.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Devi inoltre dissociare la knowledge base dagli agenti a cui è associata creando una richiesta [DisassociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DisassociateAgentKnowledgeBase.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

È inoltre necessario eliminare l’archivio vettoriale stesso utilizzando la console o l’SDK dell’archivio vettoriale per eliminare lo stesso.

------