

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Compilazione di una knowledge base connettendola a un’origine dati
<a name="knowledge-base-build"></a>

Knowledge Base per Amazon Bedrock supporta una varietà di tipi di file archiviati in origini dati. Per interpretare i dati da un’origine dati, Knowledge Base per Amazon Bedrock richiede la conversione dei dati in embedding vettoriali, una rappresentazione numerica dei dati. Questi embedding possono essere confrontati con le rappresentazioni vettoriali di una query per valutare la somiglianza e stabilire quali origini restituire durante il recupero dei dati.

La connessione della knowledge base a un’origine dati prevede le seguenti fasi generali:

1. Connettere la knowledge base a un’origine dati supportata.

1. Se l'origine dati contiene dati multimodali, tra cui immagini, file audio e video, devi scegliere un approccio di elaborazione e un modello di incorporamento appropriati che supporti i contenuti multimodali.
**Nota**  
I dati multimodali sono supportati solo da Amazon S3 e origini dati personalizzate. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

1. Scegli un modello di embedding per convertire i dati nell’origine dati in embedding vettoriali.

1. Scegli un archivio vettoriale per archiviare la rappresentazione vettoriale dei tuoi dati.

1. Sincronizza i dati in modo che vengano convertiti in embedding vettoriali.

1. Se modifichi i dati nell’origine dati, devi risincronizzare le modifiche.

**Topics**
+ [Prerequisiti per la creazione di una knowledge base Amazon Bedrock con un'origine dati non strutturata](knowledge-base-prereq.md)
+ [Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge Bases](kb-osm-permissions-prereq.md)
+ [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md)
+ [Sincronizzare i dati con Knowledge Base per Amazon Bedrock](kb-data-source-sync-ingest.md)
+ [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md)
+ [Visualizzare le informazioni sull’origine dati per Knowledge Base per Amazon Bedrock](kb-ds-info.md)
+ [Modificare un’origine dati per Knowledge Base per Amazon Bedrock](kb-ds-update.md)
+ [Eliminare un’origine dati da Knowledge Base per Amazon Bedrock](kb-ds-delete.md)

# Prerequisiti per la creazione di una knowledge base Amazon Bedrock con un'origine dati non strutturata
<a name="knowledge-base-prereq"></a>

Le knowledge base di Amazon Bedrock richiedono dati e modelli per recuperare e generare risposte, un archivio vettoriale per archiviare la rappresentazione vettoriale dei dati e AWS Identity and Access Management autorizzazioni per accedere ai dati ed eseguire azioni.

Per poter creare una knowledge base, devono essere soddisfatti i prerequisiti seguenti. Per i requisiti generali in materia di autorizzazioni, consulta [Configurazione delle autorizzazioni per un utente o un ruolo per creare e gestire le knowledge base](knowledge-base-prereq-permissions-general.md)

1. Assicurati che i tuoi dati si trovino in un [connettore di origine dati supportato](data-source-connectors.md).

1. (Opzionale) [Configura il tuo archivio vettoriale supportato](knowledge-base-setup.md). Puoi saltare questo passaggio se prevedi di utilizzarlo per creare automaticamente un archivio Console di gestione AWS vettoriale per te.

1. (Facoltativo) Crea un [ruolo di servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) personalizzato AWS Identity and Access Management (IAM) con le autorizzazioni appropriate seguendo le istruzioni riportate all'indirizzo. [Creare un ruolo di servizio per Knowledge Base per Amazon Bedrock](kb-permissions.md) Puoi utilizzare Console di gestione AWS per creare automaticamente un ruolo di servizio.
**Nota**  
Se stai creando una knowledge base con Amazon OpenSearch Service (incluso Amazon OpenSearch Serverless), il ruolo di servizio richiede autorizzazioni aggiuntive oltre a quelle coperte dalla policy gestita da BedrockFullAccess AWS. Queste includono le autorizzazioni `aoss:CreateAccessPolicy`, `iam:CreateServiceLinkedRole` e `iam:CreateRole`.

1. (Opzionale) Configura impostazioni di sicurezza aggiuntive seguendo le fasi indicate in [Crittografia delle risorse della knowledge base](encryption-kb.md).

1. (Opzionale) Se prevedi di utilizzare l’operazione API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per generare risposte basate sulle informazioni recuperate dalla knowledge base, richiedi l’accesso ai modelli che utilizzerai nelle Regioni interessate seguendo le fasi indicate in [Accesso ai modelli di fondazione Amazon Bedrock](model-access.md).

**Topics**
+ [Prerequisiti per i dati di Knowledge Base per Amazon Bedrock](knowledge-base-ds.md)
+ [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md)

# Prerequisiti per i dati di Knowledge Base per Amazon Bedrock
<a name="knowledge-base-ds"></a>

Un’origine dati include file o contenuti con informazioni che possono essere recuperate quando si interroga la knowledge base. Devi archiviare i documenti o i contenuti in almeno una delle [origini dati supportate](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html).

## Formati di documenti supportati e limiti per i dati della knowledge base
<a name="kb-ds-supported-doc-formats-limits"></a>

Quando ti connetti a un’[origine dati supportata](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html), il contenuto viene inserito nella tua knowledge base.

Se utilizzi Amazon S3 per archiviare i file o l’origine dati include file allegati, devi prima verificare che ogni file del documento di origine sia conforme a quanto segue:
+ I file di origine sono nei seguenti formati supportati:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-ds.html)
+ La dimensione di ogni file non supera la quota di 50 MB.

Se utilizzi un’origine dati Amazon S3 o personalizzata, puoi utilizzare dati multimodali, tra cui immagini o file JPEG (.jpeg) o PNG (.png) che contengono tabelle, grafici, diagrammi o altre immagini.

**Nota**  
La dimensione massima dei file .JPEG e .PNG è 3,75 MB.

# Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base
<a name="knowledge-base-setup"></a>

Per archiviare gli embedding vettoriali in cui i tuoi documenti vengono convertiti, utilizzi un archivio vettoriale. Knowledge Base per Amazon Bedrock supporta un flusso di creazione rapida per alcuni archivi vettoriali; quindi, se preferisci che Amazon Bedrock crei automaticamente un indice vettoriale in uno di questi archivi, puoi saltare questo prerequisito e procedere con [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md).

Se desideri archiviare embedding vettoriali in formato binario invece dei tradizionali embedding vettoriali in virgola mobile (float32), devi utilizzare un archivio vettoriale che supporti i vettori binari.

**Nota**  
I cluster Amazon OpenSearch Serverless e Amazon OpenSearch Managed sono gli unici archivi vettoriali che supportano l'archiviazione di vettori binari.

Puoi configurare l’archivio vettoriale supportato per indicizzare la rappresentazione degli embedding vettoriali dei tuoi dati. Puoi creare campi per i seguenti dati:
+ Un campo per i vettori generati dal testo nella tua origine dati dal modello di embedding che scegli.
+ Un campo per i blocchi di testo estratti dai file nell’origine dati.
+ Campi per i metadati dei file di origine gestiti da Amazon Bedrock.
+ (Se utilizzi un database Amazon Aurora e desideri configurare il [filtro sui metadati](kb-test-config.md)) Campi per i metadati che associ ai tuoi file di origine. Se prevedi di configurare il filtro in altri archivi vettoriali, non devi configurare questi campi per il filtraggio.

Puoi crittografare gli archivi vettoriali di terze parti con una chiave KMS. Per ulteriori informazioni, consulta [Crittografia delle risorse della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/encryption-kb.html).

Seleziona la scheda corrispondente al servizio di archivio vettoriale che utilizzerai per creare il tuo indice vettoriale.

**Nota**  
La scelta del modello di embedding e delle dimensioni vettoriali può influire sulle scelte disponibili negli archivi vettoriali. Se non riesci a utilizzare il tuo archivio vettoriale preferito, scegli le opzioni compatibili: il modello di embedding e le dimensioni vettoriali.

------
#### [ Amazon OpenSearch Serverless ]

1. Per configurare le autorizzazioni e creare una raccolta di ricerca vettoriale in Amazon OpenSearch Serverless in Console di gestione AWS, segui i passaggi 1 e 2 in [Lavorare con le raccolte di ricerca vettoriale nella](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) Amazon OpenSearch Service Developer Guide. Tieni presenti le seguenti considerazioni durante la configurazione della raccolta:

   1. Assegna alla raccolta un nome e una descrizione a tua scelta.

   1. Per rendere privata la tua raccolta, seleziona **Creazione standard** nella sezione **Sicurezza**. Quindi, nella sezione **Impostazioni di accesso alla rete**, seleziona **VPC** come **Tipo di accesso** e scegli un endpoint VPC. Per ulteriori informazioni sulla configurazione di un endpoint VPC per una raccolta Amazon Serverless, consulta Access [Amazon OpenSearch OpenSearch Serverless using an interface endpoint ()AWS PrivateLink nella](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) Amazon Service Developer Guide. OpenSearch 

1. Una volta creata la raccolta, prendi nota dell’**ARN raccolta** quando crei la knowledge base.

1. Nel riquadro di navigazione a sinistra, seleziona **Raccolte** in **Serverless**. Quindi seleziona la tua raccolta di ricerca vettoriale.

1. Seleziona la scheda **Indici**. Quindi, scegli **Crea indice di vettore**.

1. Nella sezione **Dettagli dell’indice vettoriale**, inserisci un nome per l’indice nel campo **Nome dell’indice vettoriale**.

1. Nella sezione **Campi vettoriali**, scegli **Aggiungi campo vettoriale**. Amazon Bedrock archivia gli embedding vettoriali per l’origine dati in questo campo. Specifica le configurazioni seguenti:
   + **Nome campo vettoriale**: fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + **Motore**: il motore vettoriale utilizzato per la ricerca. Seleziona **faiss**.
   + **Dimensioni**: il numero di dimensioni nel vettore. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + **Metrica di distanza**: la metrica utilizzata per misurare la similarità tra i vettori. Ti consigliamo di utilizzare **Euclidei** per gli embedding vettoriali in virgola mobile.

1. Espandi la sezione **Gestione dei metadati** e aggiungi due campi per configurare l’indice vettoriale per archiviare altri metadati che una knowledge base può recuperare con i vettori. La tabella seguente descrive i campi e i valori da specificare per ogni campo.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

1. Prendi nota dei nomi scelti per il nome dell’indice vettoriale, il nome del campo vettoriale e i nomi dei campi di mappatura della gestione dei metadati per la creazione della knowledge base. Quindi, scegli **Crea**.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN raccolta | ARN raccolta | collectionARN | Il nome della risorsa Amazon (ARN) della raccolta ricerca vettoriale. | 
| Nome indice vettoriale | Nome indice vettoriale | vectorIndexName | Il nome dell’indice vettoriale. | 
| Nome campo vettoriale | Campo vettoriale | vectorField | Il nome del campo in cui memorizzare gli embedding vettoriali per le origini dati. | 
| Gestione dei metadati (primo campo di mappatura) | Campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock.  | 

Per una documentazione più dettagliata sulla configurazione di un archivio vettoriale in Amazon OpenSearch Serverless, consulta [Working with vector search collections](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) nella Amazon OpenSearch Service Developer Guide.

------
#### [ Amazon OpenSearch Service Managed Clusters ]

**Importante**  
Prima di utilizzare qualsiasi risorsa di dominio nei cluster OpenSearch gestiti, devi configurare determinate autorizzazioni e politiche di accesso IAM. Per ulteriori informazioni, consulta [Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge BasesPanoramica della configurazione delle autorizzazioni](kb-osm-permissions-prereq.md).
Se si verificano errori di inserimento dei dati, è possibile che la capacità del dominio sia insufficiente. OpenSearch Per risolvere questo problema, aumenta la capacità del dominio allocando IOPS più elevati e aumentando le impostazioni di throughput. Per ulteriori informazioni, consulta [Best practice operative per Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

1. Per creare un dominio e un indice vettoriale in OpenSearch Cluster in the Console di gestione AWS, segui i passaggi descritti in [Creazione e gestione dei domini di OpenSearch servizio](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) nella *Amazon OpenSearch Service Developer* Guide.

   Tieni presenti le seguenti considerazioni durante la configurazione del tuo dominio:

   1. Un nome di dominio di tua scelta.

   1. Ti consigliamo di utilizzare l’opzione **Creazione semplice** per iniziare rapidamente a creare il tuo dominio.
**Nota**  
Questa opzione ti offre un dominio con un throughput ridotto. Se hai carichi di lavoro più grandi che richiedono un throughput più elevato, scegli l’opzione **Creazione standard**. Puoi regolare la capacità in un secondo momento, se necessario. Con questa opzione, puoi iniziare con la capacità più bassa, modificabile successivamente, se necessario.

   1. Per Rete, devi scegliere Accesso **pubblico**. OpenSearch i domini che si trovano dietro un VPC non sono supportati per la tua Knowledge Base.

   1. Per la **versione**, se utilizzi embedding vettoriali binari, Knowledge Base per Amazon Bedrock richiede una versione del motore 2.16 o successiva. Inoltre, è necessaria una versione 2.13 o successiva per creare un indice k-nn. Per ulteriori informazioni, consulta [K-NN Search](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/knn.html) nella guida per *sviluppatori di Amazon OpenSearch Service*.

   1. Ti consigliamo di utilizzare la **modalità dual-stack**.

   1. Ti consigliamo di abilitare il **controllo granulare degli accessi** per proteggere i dati del tuo dominio e di controllare ulteriormente le autorizzazioni che consentono al tuo ruolo di servizio della Knowledge Base di accedere al dominio ed effettuare richieste. OpenSearch 

   1. Lascia i valori predefiniti in tutte le altre impostazioni, quindi seleziona **Crea spazio** per creare il dominio.

1. Una volta creato il dominio, fai clic su esso per prendere nota dell’**ARN del dominio** e dell’**endpoint del dominio** da utilizzare quando crei la knowledge base.

1. Dopo aver creato il dominio, puoi creare un indice vettoriale eseguendo i seguenti comandi su una OpenSearch dashboard o utilizzando i comandi curl. Per ulteriori informazioni, consulta la [documentazione relativa ad OpenSearch ](https://opensearch.org/docs/latest/search-plugins/knn/knn-index/).

   Quando esegui il comando:
   + Fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + Assicurati che il vettore utilizzato per la ricerca sia **faiss**. **nmslib** non è supportato.
   + Per il numero di dimensioni del vettore, fai riferimento alla tabella seguente per determinare quante dimensioni deve contenere il vettore:
**Nota**  
Il modello Embeddings Titan V2 - Il modello di testo supporta più dimensioni. Può anche essere 256 o 512.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + Puoi aggiungere due campi per configurare l’indice vettoriale per archiviare metadati aggiuntivi che una knowledge base può recuperare con i vettori. La tabella seguente descrive i campi e i valori da specificare per ciascuno di essi.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

   ```
   PUT /<index-name>
   {
       "settings": {
           "index": {
               "knn": true
           }
       },
       "mappings": {
           "properties": {
               "<vector-name>": {
                   "type": "knn_vector",
                   "dimension": <embedding-dimension>,
                   "data_type": "binary",          # Only needed for binary embeddings
                   "space_type": "l2" | "hamming", # Use l2 for float embeddings and hamming for binary embeddings
                   "method": {
                       "name": "hnsw",
                       "engine": "faiss",
                       "parameters": {
                           "ef_construction": 128,
                           "m": 24
                       }
                   }
               },
   
               "AMAZON_BEDROCK_METADATA": {
                   "type": "text",
                   "index": "false"
               },
               "AMAZON_BEDROCK_TEXT_CHUNK": {
                   "type": "text",
                   "index": "true"            
               }
           }
       }
   }
   ```

1. Prendi nota dell’ARN e dell’endpoint del dominio, nonché dei nomi scelti per il nome dell’indice vettoriale, il nome del campo vettoriale e i nomi dei campi di mappatura per la gestione dei metadati, da utilizzare quando crei la tua knowledge base.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN di dominio | ARN di dominio | domainARN | L'Amazon Resource Name (ARN) del OpenSearch dominio. | 
| Endpoint di dominio | Endpoint di dominio | domainEndpoint | L'endpoint per connettersi al OpenSearch dominio. | 
| Nome indice vettoriale | Nome indice vettoriale | vectorIndexName | Il nome dell’indice vettoriale. | 
| Nome campo vettoriale | Campo vettoriale | vectorField | Il nome del campo in cui memorizzare gli embedding vettoriali per le origini dati. | 
| Gestione dei metadati (primo campo di mappatura) | Campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock.  | 

------
#### [ Amazon S3 Vectors ]

Amazon S3 Vectors offre un archivio vettoriale conveniente in Amazon S3 che può essere utilizzato per archiviare e interrogare dati vettoriali. Fornisce un archivio durevole ed elastico di set di dati vettoriali di grandi dimensioni con prestazioni di query inferiori al secondo. Amazon S3 Vectors è ideale per carichi di lavoro di query poco frequenti e può aiutare a ridurre i costi se utilizzato in applicazioni di generazione potenziata da recupero dati (RAG) e di ricerca semantica.

Amazon S3 Vectors introduce i bucket vettoriali S3, che contengono indici vettoriali su cui è possibile eseguire query in base al significato semantico e alla somiglianza. Può essere utilizzato per fornire tempi di risposta alle query inferiori al secondo e ridurre i costi mentre si archiviano i dati vettoriali, si accede a essi e li si interroga su larga scala, senza dover allocare alcuna infrastruttura. In un bucket vettoriale, puoi organizzare i dati vettoriali all’interno di indici vettoriali. Il tuo bucket vettoriale può avere più indici vettoriali. Per maggiori informazioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.

**Nota**  
Puoi creare una knowledge base per Amazon S3 Vectors in tutti gli Regione AWS ambienti in cui sono disponibili sia Amazon Bedrock che Amazon S3 Vectors. Per informazioni sulla disponibilità regionale di Amazon S3 Vectors, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.
Quando utilizzi un numero di token molto elevato con suddivisione in blocchi gerarchici nelle Knowledge Base di Amazon Bedrock, puoi superare i limiti massimi di dimensione dei metadati poiché le relazioni tra blocchi padre-figlio e il contesto gerarchico vengono archiviati come metadati non filtrabili in Amazon S3 Vectors. Per ulteriori informazioni sui limiti di dimensione dei metadati per vettore, consulta [Limitazioni e restrizioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) nella Guida per l'utente di *Amazon S3*. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
<a name="metadata-support"></a>
**Supporto per metadati**  
Puoi allegare i metadati come coppie chiave-valore a ciascun vettore. Per impostazione predefinita, i metadati sono filtrabili e possono essere utilizzati nelle query di ricerca per analogia per filtrare in base a condizioni quali date, categorie o preferenze dell'utente.

Puoi anche configurare i metadati in modo che non siano filtrabili durante la creazione dell'indice vettoriale. Gli indici vettoriali di Amazon S3 supportano i tipi stringa, booleano e numero.

Quando usi Amazon S3 Vectors con Amazon Bedrock Knowledge Bases, puoi allegare fino a 1 KB di metadati personalizzati (inclusi metadati filtrabili e non filtrabili) e 35 chiavi di metadati per vettore. Per ulteriori informazioni sui limiti di dimensione dei metadati per vettore, consulta [Limitazioni e restrizioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) nella Guida per l'utente di *Amazon S3*.

Se i metadati superano questi limiti, il processo di importazione genererà un'eccezione durante la compilazione dell'indice vettoriale. Per maggiori informazioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.

**Autorizzazioni richieste**  
Assicurati che la policy IAM consenta ad Amazon Bedrock di accedere all’indice vettoriale nel bucket vettoriale S3. Per ulteriori informazioni sulle autorizzazioni richieste, consulta [Creare un ruolo di servizio per Knowledge Base per Amazon Bedrock](kb-permissions.md).

**Crea un bucket e un indice vettoriali S3**  
Per utilizzare Amazon S3 Vectors con la tua knowledge base, devi creare un bucket e un indice vettoriali S3. Puoi creare un bucket vettoriale e un indice utilizzando la console AWS CLI Amazon S3 o l'SDK. AWS Per istruzioni dettagliate, consulta [Creazione di un indice vettoriale](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-index-create.html) nella *Guida per l’utente di Amazon S3*.

Tieni presenti le seguenti considerazioni quando crei il bucket vettoriale e l’indice nella [console Amazon S3](https://console.aws.amazon.com/s3/vector-buckets#).

1. Durante la creazione del bucket vettoriale S3, considera quanto segue.
   + Fornisci un **nome univoco per il bucket vettoriale**.
   + (Opzionale) Amazon S3 crittograferà automaticamente i dati utilizzando la **crittografia lato server predefinita con chiavi gestite da Amazon S3 (SSE-S3)**. Puoi scegliere se utilizzare invece questa crittografia predefinita o la **crittografia lato server con AWS chiavi del servizio di gestione delle chiavi (SSE-KMS**).
**Nota**  
Il tipo di crittografia non può essere cambiato dopo la creazione del bucket vettoriale.

     [Per step-by-step istruzioni, consulta Crittografia con chiavi KMS. AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-bucket-encryption.html)

1. Dopo aver creato il bucket vettoriale S3, prendi nota del **nome della risorsa Amazon (ARN)** del bucket vettoriale da utilizzare quando crei la knowledge base.

1. Scegli il bucket vettoriale che hai creato, quindi crea un indice vettoriale. Durante la creazione dell’indice vettoriale, tieni presente le considerazioni seguenti.
   + **Nome indice vettoriale**: fornisci un nome per il campo vettoriale (ad esempio, **embeddings**).
   + **Dimensioni**: il numero di dimensioni nel vettore. Le dimensioni devono avere un valore compreso tra 1 e 4.096. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore in base alla selezione del modello di embedding:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
   + 
**Nota**  
Amazon S3 Vectors supporta solo gli embedding a virgola mobile. Gli embedding binari non sono supportati.

     **Metrica di distanza**: la metrica utilizzata per misurare la similarità tra i vettori. Puoi utilizzare **Coseno** o **Euclideo**.

1. Espandi le **impostazioni aggiuntive** e fornisci tutti i metadati non filtrabili nel campo **Metadati non filtrabili**.

   Puoi configurare fino a un massimo di 10 chiavi di metadati non filtrabili. Scegli **Aggiungi chiave**, quindi aggiungi `AMAZON_BEDROCK_TEXT` e `AMAZON_BEDROCK_METADATA` come chiavi.

1. In **Crittografia** scegli **Specifica il tipo di crittografia**. Hai la possibilità di **utilizzare le impostazioni del bucket per la crittografia** o sovrascrivere le impostazioni di crittografia per l'indice vettoriale. **Se sovrascrivi le impostazioni a livello di bucket, hai la possibilità di specificare il tipo di crittografia per l'indice vettoriale come crittografia lato **server con chiavi del servizio di gestione delle AWS chiavi (SSE-KMS) o crittografia lato server predefinita con chiavi gestite Amazon S3 (SSE-S3**).** Per ulteriori informazioni sull'impostazione della configurazione di crittografia per gli indici vettoriali, consulta [Protezione e crittografia dei dati in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-data-encryption.html) Vectors.

1. In **Tag (facoltativo)**, puoi aggiungere tag come coppie chiave-valore per monitorare e organizzare i costi degli indici vettoriali utilizzando AWS Billing and Cost Management. Immettere una **chiave** e un **valore**. Per aggiungere un altro tag, scegliere **Add Tag (Aggiungi tag)**. Puoi inserire fino a 50 tag per un indice vettoriale. Per ulteriori informazioni, consulta [Usare i tag con gli indici vettoriali di Amazon S3](https://docs.aws.amazon.com/console/s3/vector-index-create-with-tag).

1. Dopo aver creato il bucket vettoriale, prendi nota del **nome della risorsa Amazon (ARN)** dell’indice vettoriale da utilizzare quando crei la knowledge base.

**Creazione di una knowledge base per il bucket vettoriale S3**  
Dopo aver raccolto queste informazioni, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). Quando crei la tua knowledge base con il bucket vettoriale S3, dovrai fornire l’ARN del bucket vettoriale e l’indice vettoriale. L’indice vettoriale memorizzerà gli embedding generati dalle tue origini dati. La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni:


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN del bucket vettoriale | ARN del bucket vettoriale S3 | vectorBucketArn | Il nome della risorsa Amazon (ARN) del bucket vettoriale S3. | 
| ARN dell’indice vettoriale | ARN dell’indice vettoriale S3 | vectorIndexARN | Il nome della risorsa Amazon (ARN) dell’indice vettoriale del bucket vettoriale S3. | 

------
#### [ Amazon Aurora (RDS) ]

1. Crea un cluster di database (DB) Amazon Aurora, uno schema e una tabella seguendo i passaggi indicati in [Utilizzo di Aurora PostgreSQL come knowledge base](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.VectorDB.html). Quando crei la tabella, configurala con le seguenti colonne e tipi di dati. Puoi utilizzare i nomi delle colonne che preferisci anziché quelli elencati nella tabella seguente. Prendi nota dei nomi delle colonne che scegli in modo da poterli fornire durante la configurazione della knowledge base.

   È necessario fornire questi campi prima di creare la knowledge base. Non è possibile aggiornarli una volta creata la knowledge base.
**Importante**  
Il cluster Aurora deve risiedere nello stesso in cui viene Account AWS creata la knowledge base per Amazon Bedrock.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

1. È necessario creare un indice sulle colonne vector e text per i campi di testo e di embedding. Se utilizzi il campo di metadati personalizzato, devi anche creare un indice GIN su questa colonna. Gli indici GIN possono essere utilizzati per cercare in modo efficiente coppie chiave-valore nei documenti jsonb per il filtraggio dei metadati. Per ulteriori informazioni, consulta [Indicizzazione jsonb](https://www.postgresql.org/docs/current/datatype-json.html#JSON-INDEXING) nella *Documentazione PostgreSQL*.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
**Nota**  
Per migliorare la precisione e la latenza della ricerca ibrida con contenuti in inglese, prendi in considerazione l'utilizzo del dizionario «inglese» anziché «semplice»:  

   ```
   CREATE INDEX ON bedrock_integration.bedrock_kb USING gin (to_tsvector('english', chunks));
   ```

1. (Opzionale) Se hai [aggiunto metadati ai tuoi file per filtrarli](kb-test-config.md), ti consigliamo di fornire il nome della colonna nel campo dei metadati personalizzato per archiviare tutti i metadati in un’unica colonna. Durante l’[importazione dei dati](kb-data-source-sync-ingest.md), questa colonna verrà popolata con tutte le informazioni contenute nei file di metadati delle origini dati. Se scegli di fornire questo campo, devi creare un indice GIN su questa colonna.
**Nota**  
Se utilizzi spesso filtri di intervallo sui metadati numerici, per ottimizzare le prestazioni, crea un indice per la chiave specifica. Ad esempio, se utilizzi filtri come `"lessThan": { "key": "year", "value": 1989 }`, crea un indice di espressione sulla chiave `year`. Per ulteriori informazioni, consulta [Indici sulle espressioni](https://www.postgresql.org/docs/current/indexes-expressional.html) nella *Documentazione PostgreSQL*.  

   ```
   CREATE INDEX ON your_table ((custom_metadata->>'year')::double precision
   ```

   In alternativa, se non fornisci questo nome campo, puoi creare una colonna per ogni attributo di metadati nei tuoi file e specificare il tipo di dati (testo, numero o booleano). Ad esempio, se l’attributo `genre` esiste nell’origine dati, è necessario aggiungere una colonna denominata `genre` e specificare `text` come tipo di dati. Durante l’[importazione dei dati](kb-data-source-sync-ingest.md), queste colonne separate vengono popolate con i valori degli attributi corrispondenti.

1. Configura un Gestione dei segreti AWS segreto per il tuo cluster Aurora DB seguendo i passaggi descritti in [Gestione delle password con Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/rds-secrets-manager.html) e. Gestione dei segreti AWS

1. Prendi nota delle seguenti informazioni dopo aver creato il cluster di database e impostato il segreto.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

------
#### [ Neptune Analytics graphs (GraphRAG) ]

1. Per creare un grafo e un archivio vettoriale in Analisi Neptune in Console di gestione AWS, segui i passaggi descritti in [Indicizzazione vettoriale in Analisi Neptune](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/vector-index.html) nella *Guida per l’utente di Analisi Neptune*.
**Nota**  
Per utilizzare Neptune GraphRAG, crea un grafo di Analisi Neptune vuoto con un indice di ricerca vettoriale. L’indice di ricerca vettoriale può essere creato solo quando viene creato il grafo. Quando crei un [grafo di Analisi Neptune nella console](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/create-graph-using-console.html), specifichi la dimensione dell’indice in **Impostazioni di ricerca vettoriale** verso la fine del processo.

   Durante la creazione del grafo, tieni presenti le considerazioni seguenti:

   1. Un nome del grafo di tua scelta.

   1. In **Origine dati**, scegli **Crea grafico vuoto** e specifica il numero di m- NCUs da allocare. Ogni m-NCU dispone di circa un GiB di capacità di memoria e di elaborazione e rete corrispondenti.
**Nota**  
La capacità del grafo può essere modificata in un secondo momento. Ti consigliamo di iniziare con l’istanza più piccola e successivamente di sceglierne un’altra, se necessario.

   1. Puoi lasciare le impostazioni di connettività di rete predefinite. Amazon Bedrock crea una connessione di rete al grafo di Analisi Neptune a cui associ la knowledge base. Non è necessario configurare la connettività pubblica o gli endpoint privati per il tuo grafo.

   1. In **Impostazioni di ricerca vettoriale**, scegli **Usa dimensione vettoriale** e specifica il numero di dimensioni in ogni vettore.
**Nota**  
Il numero di dimensioni in ogni vettore deve corrispondere alle dimensioni vettoriali nel modello di embedding. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)

   1. Lascia tutte le altre impostazioni ai valori predefiniti e crea il grafo.

1. Una volta creato il grafo, fai clic su esso per prendere nota dell’**ARN della risorsa** e delle **Dimensioni** vettoriali da utilizzare quando crei la knowledge base. Quando scegli il modello di embedding in Amazon Bedrock, assicurati di scegliere un modello con le stesse dimensioni delle **dimensioni vettoriali** che hai configurato sul grafo di Analisi Neptune.

Dopo aver creato l’indice vettoriale, puoi procedere con la [creazione della tua knowledge base](knowledge-base-create.md). La tabella seguente sintetizza i punti in cui devono essere inserite le informazioni annotate.


| Campo | Campo corrispondente nella configurazione della knowledge base (Console) | Campo corrispondente nella configurazione della knowledge base (API) | Description | 
| --- | --- | --- | --- | 
| ARN del grafo | ARN del grafo di Analisi Neptune | graphARN | Il nome della risorsa Amazon (ARN) del grafo di Analisi Neptune. | 
| Gestione dei metadati (primo campo di mappatura) | Nome del campo di testo | textField | Il nome del campo in cui archiviare il testo non elaborato proveniente dalle origini dati. Puoi fornire qualsiasi valore per questo campo, ad esempio metadati. | 
| Gestione dei metadati (secondo campo di mappatura) | Campo di metadati gestito da Bedrock | metadataField | Il nome del campo in cui archiviare i metadati gestiti da Amazon Bedrock. Puoi fornire qualsiasi valore per questo campo, ad esempio metadati. | 

------
#### [ Pigna ]

**Nota**  
Se utilizziPinecone, accetti di autorizzare l'accesso AWS alla fonte di terze parti designata per tuo conto al fine di fornirti i servizi di vector store. Sei responsabile di rispettare tutti i termini di terze parti applicabili all'uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in Pinecone, consulta [Pinecone come Knowledge Base per Amazon Bedrock](https://docs.pinecone.io/docs/amazon-bedrock).

Mentre configuri l'archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **URL dell’endpoint**: l’URL dell’endpoint per la pagina di gestione dell’indice.
+ **ARN segreto delle credenziali**: l'Amazon Resource Name (ARN) del segreto che hai creato Gestione dei segreti AWS e che contiene il nome utente e la password per un utente del database.
+ **(Opzionale) Chiave KMS gestita dal cliente per l’ARN segreto delle credenziali**: se hai crittografato l’ARN segreto delle credenziali, fornisci la chiave KMS in modo che Amazon Bedrock possa decrittarla. 
+ **Namespace**: (Opzionale) il namespace da utilizzare per scrivere nuovi dati nel database. Per ulteriori informazioni, consulta [Utilizzo dei namespace](https://docs.pinecone.io/docs/namespaces).

Esistono altre configurazioni che devi fornire durante la creazione di un indice Pinecone:
+ **Percorso del campo di testo**: il nome del campo in cui Amazon Bedrock deve archiviare il testo grezzo in blocco.
+ **Nome del campo dei metadati**: il nome del campo in cui Amazon Bedrock deve archiviare i metadati di attribuzione dell’origine.

Per accedere all’indice Pinecone, devi fornire la chiave API Pinecone ad Amazon Bedrock tramite Gestione dei segreti AWS.

**Come impostare un segreto per la configurazione di Pinecone**

1. Segui la procedura descritta in [Crea un Gestione dei segreti AWS segreto](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html), impostando la chiave come chiave `apiKey` e il valore come chiave API per accedere al tuo indice. Pinecone

1. Per trovare la chiave API, apri la [console Pinecone](https://app.pinecone.io/) e seleziona **Chiavi API**.

1. Dopo aver creato il segreto, prendi nota dell'ARN della chiave KMS.

1. Allega le autorizzazioni al tuo ruolo di servizio per decrittare l'ARN della chiave KMS seguendo la procedura riportata in [Autorizzazioni per decrittografare un Gestione dei segreti AWS segreto per il vector store contenente la tua knowledge base](encryption-kb.md#encryption-kb-3p).

1. Successivamente, quando crei la knowledge base, inserisci l'ARN nel campo **ARN del segreto delle credenziali**.

------
#### [ Redis Enterprise Cloud ]

**Nota**  
Se utilizziRedis Enterprise Cloud, accetti di autorizzare l'accesso AWS alla fonte di terze parti designata per tuo conto al fine di fornirti i servizi di archiviazione vettoriale. Sei responsabile di rispettare tutti i termini di terze parti applicabili all’uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in Redis Enterprise Cloud, consulta [Integrazione di Redis Enterprise Cloud in Amazon Bedrock](https://docs.redis.com/latest/rc/cloud-integrations/aws-marketplace/aws-bedrock/).

Mentre configuri l'archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **URL dell’endpoint**: URL dell’endpoint pubblico per il database.
+ **Nome dell’indice vettoriale**: il nome dell’indice vettoriale per il database.
+ **Campo vettoriale**: il campo in cui verranno archiviati gli embedding vettoriali. Fai riferimento alla tabella seguente per stabilire quante dimensioni deve contenere il vettore:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/knowledge-base-setup.html)
+ **Campo di testo**: il nome del campo in cui Amazon Bedrock archivia il blocco di testo grezzo.
+ **Campo di metadati gestiti da Bedrock**: il nome del campo in cui Amazon Bedrock archivia i metadati relativi alla tua knowledge base.

Per accedere al cluster Redis Enterprise Cloud, devi fornire la configurazione di sicurezza Redis Enterprise Cloud ad Amazon Bedrock tramite Gestione dei segreti AWS.

**Come impostare un segreto per la configurazione di Redis Enterprise Cloud**

1. Consenti al protocollo TLS di utilizzare il tuo database con Amazon Bedrock seguendo i passaggi descritti in [Transport Layer Security (TLS)](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/).

1. Segui i passaggi indicati in [Crea un Gestione dei segreti AWS segreto](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html). Imposta le seguenti chiavi con i valori appropriati della configurazione di Redis Enterprise Cloud nel segreto:
   + `username`: il nome utente per accedere al database Redis Enterprise Cloud. Per trovare il nome utente, consulta la sezione **Security** del tuo database nella [console Redis](http://app.redislabs.com/).
   + `password`: la password per accedere al database Redis Enterprise Cloud. Per trovare la password, consulta la sezione **Security** del tuo database nella [console Redis](http://app.redislabs.com/).
   + `serverCertificate`: i contenuti del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).
   + `clientPrivateKey`: la chiave privata del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).
   + `clientCertificate`: la chiave pubblica del certificato rilasciato dall'autorità di certificazione Redis Cloud. Scarica il certificato del server dalla console di amministrazione Redis seguendo i passaggi in [Download dei certificati](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates).

1. Dopo aver creato il segreto, prendi nota del relativo ARN. Successivamente, quando crei la knowledge base, inserisci l'ARN nel campo **ARN del segreto delle credenziali**.

------
#### [ MongoDB Atlas ]

**Nota**  
Se utilizzi MongoDB Atlas, accetti di AWS autorizzare l'accesso alla fonte di terze parti designata per tuo conto al fine di fornirti servizi di archiviazione vettoriale. Sei responsabile di rispettare tutti i termini di terze parti applicabili all'uso e al trasferimento dei dati dal servizio di terze parti.

Per una documentazione dettagliata su come configurare un archivio vettoriale in MongoDB Atlas, consulta [Avvio di un flusso di lavoro RAG completamente gestito con MongoDB Atlas e Amazon Bedrock](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/).

Mentre configuri l’archivio vettoriale, prendi nota delle informazioni seguenti, da inserire al momento della creazione di una knowledge base:
+ **Endpoint: dell’URL**: l’URL dell’endpoint del cluster MongoDB Atlas.
+ **Nome del database**: il nome del database nel cluster MongoDB Atlas.
+ **Nome raccolta**: il nome della raccolta nel database.
+ **ARN segreto delle credenziali**: l'Amazon Resource Name (ARN) del segreto che hai creato Gestione dei segreti AWS e che contiene il nome utente e la password per un utente del database nel tuo cluster MongoDB Atlas. Il segreto deve contenere chiavi denominate `username` e `password`.
+ **(Opzionale) Chiave KMS gestita dal cliente per l’ARN segreto delle credenziali**: se hai crittografato l’ARN segreto delle credenziali, fornisci la chiave KMS in modo che Amazon Bedrock possa decrittarla. 

Esistono altre configurazioni per **Mappatura dei campi** che devi fornire durante la creazione di un indice MongoDB Atlas:
+ **Nome dell’indice vettoriale**: il nome dell’indice di ricerca vettoriale MongoDB Atlas nella tua raccolta.
+ **Nome del campo vettoriale**: il nome del campo in cui Amazon Bedrock deve archiviare gli embedding vettoriali.
+ **Percorso del campo di testo**: il nome del campo in cui Amazon Bedrock deve archiviare il testo grezzo in blocco.
+ **Nome del campo dei metadati**: il nome del campo in cui Amazon Bedrock deve archiviare i metadati di attribuzione dell’origine.
+ **(Opzionale) Nome dell’indice di ricerca testo**: il nome dell’indice di ricerca MongoDB Atlas nella tua raccolta.

**Importante**  
Se prevedi di utilizzare il filtro dei metadati con la knowledge base MongoDB Atlas, devi configurare manualmente i filtri nell’indice vettoriale. Il filtraggio dei metadati non funziona per impostazione predefinita e richiede una configurazione aggiuntiva nella configurazione dell’indice vettoriale MongoDB Atlas.

(Facoltativo) Per connettere Amazon Bedrock al tuo cluster MongoDB Atlas, consulta il [flusso di lavoro RAG AWS PrivateLink con MongoDB](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/) Atlas utilizzando Amazon Bedrock.

------

# Prerequisiti e autorizzazioni necessari per l'utilizzo di OpenSearch Managed Clusters con Amazon Bedrock Knowledge Bases
<a name="kb-osm-permissions-prereq"></a>

Questa sezione mostra come configurare le autorizzazioni se stai creando il tuo database vettoriale con Amazon OpenSearch Service Managed Clusters. La configurazione deve essere eseguita prima di creare la knowledge base. I passaggi presuppongono che tu abbia già creato un dominio e un indice vettoriale in Amazon OpenSearch Service. Per ulteriori informazioni, consulta [Creazione e gestione OpenSearch di domini di servizio](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) nella *guida per sviluppatori OpenSearch di Amazon Service*.

## Considerazioni chiave
<a name="kb-osm-permissions-prereq-considerations"></a>

Di seguito sono riportate alcune considerazioni chiave per l'utilizzo di Amazon Bedrock Knowledge Bases con Amazon OpenSearch Service Managed Clusters.
+ Prima di utilizzare qualsiasi risorsa di dominio nei cluster OpenSearch gestiti, devi configurare determinate autorizzazioni e politiche di accesso IAM. Per l’integrazione di Knowledge Base con i cluster gestiti e prima di eseguire i passaggi descritti in questa sezione, se per il dominio è definita una policy di accesso restrittiva è necessario concedere l’accesso IAM richiesto e configurare le policy basate sulle risorse. Si consiglia inoltre di configurare un controllo granulare degli accessi per limitare l’ambito delle autorizzazioni.
+ Quando si importano i dati per la knowledge base, se si verificano errori, ciò potrebbe indicare una capacità del OpenSearch dominio insufficiente a gestire la velocità di inserimento. Per risolvere questo problema, incrementare la capacità del dominio allocando valori di IOPS (operazioni di input/out al secondo) più elevati e aumentando le impostazioni di throughput. Attendere alcuni minuti per il provisioning della nuova capacità, quindi riprovare il processo di importazione. Per verificare che il problema sia stato risolto, è possibile monitorare le prestazioni durante l’esecuzione del nuovo tentativo. Se la limitazione (della larghezza di banda della rete) persiste, potrebbe essere necessario regolare ulteriormente la capacità per aumentare l’efficienza. Per ulteriori informazioni, consulta [Best practice operative per Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

## Panoramica della configurazione delle autorizzazioni
<a name="kb-osm-permissions-prereq-overview"></a>

Per l’integrazione di Knowledge Base con i cluster gestiti, è necessario configurare le autorizzazioni di accesso IAM e le policy basate sulle risorse seguenti. Si consiglia di abilitare policy di accesso granulari per controllare ulteriormente l’accesso degli utenti e la granularità con cui deve essere definito fino al livello di proprietà.

I passaggi seguenti offrono una panoramica generale sul modo in cui configurare le autorizzazioni.

1. 

**Creare e utilizzare il ruolo di servizio della knowledge base**

   Per le autorizzazioni da configurare, anche se è comunque possibile fornire un ruolo personalizzato, si consiglia di specificare l’opzione in modo che Knowledge Base per Amazon Bedrock crei automaticamente il ruolo di servizio per la knowledge base.

1. 

**Configurare policy basate sulle risorse**

   Il OpenSearch dominio supporta politiche basate sulle risorse, che determinano quali responsabili possono accedere al dominio e agire su di esso. Per l’uso con Knowledge Base, verificare che la configurazione delle policy basate sulle risorse per il dominio sia corretta.

1. 

***(Fortemente consigliato)* Fornire la mappatura dei ruoli per il controllo granulare degli accessi**

   Sebbene il controllo granulare degli accessi sia facoltativo, si consiglia di attivarlo per controllare la granularità con cui le autorizzazioni devono essere definite a livello di proprietà.

## Configurazione delle policy IAM
<a name="kb-osm-permissions-iam"></a>

La politica di accesso del tuo dominio deve concedere le autorizzazioni per eseguire le azioni OpenSearch API richieste dai ruoli del tuo account.

Se la policy di accesso del dominio è restrittiva, potrebbe essere necessario aggiornarla nel modo seguente:
+ Deve concedere l’accesso al servizio Amazon Bedrock e includere le azioni HTTP richieste: `GET`, `POST`, `PUT` e `DELETE`.
+ Deve inoltre concedere ad Amazon Bedrock le autorizzazioni per eseguire l’azione `es:DescribeDomain` sulla risorsa dell’indice. Ciò consente a Knowledge Base per Amazon Bedrock di eseguire le convalide richieste durante la configurazione di una knowledge base.

## (Facoltativo) Controllo granulare degli accessi
<a name="kb-osm-permissions-console-fgap"></a>

Un controllo granulare degli accessi può controllare la granularità con cui le autorizzazioni devono essere definite a livello di proprietà. È possibile configurare policy di accesso granulari per concedere le autorizzazioni di lettura/scrittura necessarie al ruolo di servizio creato da Knowledge Base.

Per configurare il controllo granulare degli accessi e fornire la mappatura dei ruoli:

1. Assicurati che il OpenSearch dominio che hai creato abbia abilitato il controllo granulare degli accessi.

1. Crea un' OpenSearch interfaccia utente (dashboard), se non l'hai già fatto. L’interfaccia verrà utilizzata per configurare la mappatura dei ruoli.

1. Nelle OpenSearch dashboard, crea un OpenSearch ruolo e specifica il nome dell'indice vettoriale e le autorizzazioni del cluster e dell'indice. Per aggiungere le autorizzazioni, è necessario creare gruppi di autorizzazioni e quindi aggiungere le autorizzazioni necessarie che concedano l’accesso per eseguire una serie di operazioni tra cui `delete`, `search`, `get` e `index` per il ruolo.

1. Dopo aver aggiunto le autorizzazioni richieste, devi inserire l'ARN del tuo ruolo di servizio di Knowledge base per OpenSearch il ruolo di back-end. L'esecuzione di questo passaggio completerà la mappatura tra il tuo ruolo di Knowledge Base Service e il OpenSearch ruolo, che quindi concede ad Amazon Bedrock Knowledge Bases le autorizzazioni per accedere all'indice vettoriale nel OpenSearch dominio ed eseguire le operazioni richieste.

**Topics**
+ [Considerazioni chiave](#kb-osm-permissions-prereq-considerations)
+ [Panoramica della configurazione delle autorizzazioni](#kb-osm-permissions-prereq-overview)
+ [Configurazione delle policy IAM](#kb-osm-permissions-iam)
+ [(Facoltativo) Controllo granulare degli accessi](#kb-osm-permissions-console-fgap)
+ [Configurazione di policy basate sulle risorse per i cluster gestiti OpenSearch](kb-osm-permissions-slr-rbp.md)
+ [Configurazione delle autorizzazioni OpenSearch con un controllo granulare degli accessi](kb-osm-permissions-console-fgap.md)

# Configurazione di policy basate sulle risorse per i cluster gestiti OpenSearch
<a name="kb-osm-permissions-slr-rbp"></a>

Durante la creazione della knowledge base, è possibile creare un ruolo personalizzato o consentire ad Amazon Bedrock di crearne uno. Il modo in cui vengono configurate le autorizzazioni dipende se si sta creando un nuovo ruolo o utilizzando un ruolo esistente. Se disponi già di un ruolo IAM, devi assicurarti che la politica di accesso del tuo dominio non impedisca ai ruoli del tuo account di eseguire le azioni API necessarie. OpenSearch 

Se scegli di lasciare che Amazon Bedrock Knowledge Bases crei il ruolo IAM per te, devi assicurarti che la politica di accesso del tuo dominio conceda le autorizzazioni per eseguire le azioni OpenSearch API richieste dai ruoli del tuo account. Se il dominio ha una policy di accesso restrittiva, può impedire al ruolo di eseguire queste azioni. Di seguito è riportato un esempio di policy restrittiva basata sulle risorse.

In questo caso, è possibile:
+ Crea la tua knowledge base utilizzando un ruolo IAM esistente a cui il tuo OpenSearch dominio può concedere l'accesso a questo ruolo per eseguire le operazioni necessarie.
+ In alternativa, è possibile consentire ad Amazon Bedrock di creare un nuovo ruolo. In questo caso, devi assicurarti che la politica di accesso del dominio conceda le autorizzazioni per eseguire le azioni OpenSearch API necessarie in base ai ruoli del tuo account.

Le sezioni seguenti mostrano un esempio di policy IAM che concede le autorizzazioni necessarie e come aggiornare la politica di accesso del dominio in modo che conceda le autorizzazioni per eseguire le operazioni API necessarie. OpenSearch 

**Topics**
+ [Esempi di policy basate sull’identità IAM e sulle risorse](#kb-osm-permissions-iam)
+ [Creazione del ruolo di servizio per Knowledge Base per Amazon Bedrock](#kb-osm-permissions-slr)
+ [Aggiornamento delle policy basate sulle risorse](#kb-osm-permissions-console-rbp)

## Esempi di policy basate sull’identità IAM e sulle risorse
<a name="kb-osm-permissions-iam"></a>

Questa sezione fornisce un esempio di policy di identità e una policy basata sulle risorse che puoi configurare per il tuo OpenSearch dominio durante l'integrazione con Amazon Bedrock Knowledge Bases. È necessario concedere ad Amazon Bedrock le autorizzazioni per eseguire queste azioni sull’indice fornito alla knowledge base.


****  

| Azione | Risorsa | Description | 
| --- | --- | --- | 
| es:ESHttpPost | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Per inserire informazioni nell’indice | 
| es:ESHttpGet |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Per cercare informazioni dall’indice. Questa azione è configurata sia a livello di domain/index che a livello di domain/index/\$1. A livello di domain/index è possibile ottenere dettagli di alto livello sull’indice, come il tipo di motore. Per recuperare i dettagli archiviati nell’indice, sono necessarie le autorizzazioni a livello di domain/index/\$1. | 
| es:ESHttpHead |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Per ottenere informazioni dall’indice. Questa azione è configurata sia a livello di domain/index che a livello di domain/index/\$1, nel caso in cui sia necessario ottenere informazioni a un livello superiore, ad esempio se esiste un particolare indice. | 
| es:ESHttpDelete | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Per eliminare informazioni dall’indice | 
| es:DescribeDomain | arn:<partition>:es:<region>:<accountId>:domain/<domainName> | Per eseguire convalide sul dominio, ad esempio la versione del motore utilizzata. | 

### Esempio di policy basata sull’identità
<a name="kb-osm-permissions-idpolicy"></a>

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "OpenSearchIndexAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpPost",
                "es:ESHttpPut",
                "es:ESHttpDelete"
            ],
            "Resource": [
                "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName/*"
            ]
        },
        {
            "Sid": "OpenSearchIndexGetAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpHead"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName"
            ]
        },
        {
            "Sid": "OpenSearchDomainValidation",
            "Effect": "Allow",
            "Action": [
                "es:DescribeDomain"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName"
            ]
        }
    ]
}
```

------

### Esempio di policy basata sulle risorse
<a name="kb-osm-permissions-rbp"></a>

**Nota**  
Assicurarsi che il ruolo di servizio sia stato creato per essere utilizzato nella policy basata sulle risorse.

## Creazione del ruolo di servizio per Knowledge Base per Amazon Bedrock
<a name="kb-osm-permissions-slr"></a>

Durante la creazione della knowledge base, è possibile scegliere l’opzione per creare e utilizzare un nuovo ruolo di servizio. Questa sezione illustra come creare il ruolo di servizio per Knowledge Base per Amazon Bedrock. Mappando le politiche basate sulle risorse e le politiche di accesso granulari a questo ruolo, concederà ad Amazon Bedrock le autorizzazioni per effettuare richieste al dominio. OpenSearch 

**Per specificare il ruolo di servizio per Knowledge Base per Amazon Bedrock:**

1. Nella console Amazon Bedrock, accedere a [Knowledge Bases](https://console.aws.amazon.com/bedrock/home#/knowledge-bases).

1. Scegliere **Crea** e poi **Knowledge base con archivio vettoriale**.

1. Scegliere **Crea e utilizza un nuovo ruolo di servizio**. È possibile utilizzare il ruolo predefinito o assegnare un nome al ruolo personalizzato. Amazon Bedrock crea automaticamente il ruolo di servizio per Knowledge Base.

1. Continuare a utilizzare la console per configurare l’origine dati e le strategie di analisi e chunking.

1. Scegli un modello Embeddings e poi, in **Scegli un negozio vettoriale esistente**, scegli **Amazon OpenSearch Managed** Cluster.

**Importante**  
Prima di procedere con la creazione della knowledge base, completare la seguente procedura per configurare le policy basate sulle risorse e le policy di accesso granulari. Per le fasi dettagliate sulla creazione della knowledge base, vedere [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md).

## Aggiornamento delle policy basate sulle risorse
<a name="kb-osm-permissions-console-rbp"></a>

Se il tuo OpenSearch dominio ha una politica di accesso restrittiva, puoi seguire le istruzioni in questa pagina per aggiornare la politica basata sulle risorse. Queste autorizzazioni consentono alle Knowledge Base di utilizzare l'indice fornito dall'utente e di recuperare la definizione del OpenSearch dominio per eseguire la convalida richiesta sul dominio.

**Per configurare le politiche basate sulle risorse da Console di gestione AWS**

1. Vai alla [console di Amazon OpenSearch Service](https://console.aws.amazon.com/aos/home?region=us-east-1#opensearch/dashboard).

1. Vai al dominio che hai creato, poi accedi a **Configurazioni di sicurezza** in cui è configurata la policy basata sulle risorse.

1. Modifica la policy nella scheda **JSON**, poi aggiorna la policy in modo simile all’[Esempio di policy basata sulle risorse](#kb-osm-permissions-rbp).

1. Ora puoi tornare alla console Amazon Bedrock e fornire i dettagli per il tuo OpenSearch dominio e indice come descritto in [Configurazione della Knowledge base per i cluster gestiti](knowledge-base-setup.md#knowledge-base-setup-osm).

# Configurazione delle autorizzazioni OpenSearch con un controllo granulare degli accessi
<a name="kb-osm-permissions-console-fgap"></a>

Sebbene facoltativo, ti consigliamo vivamente di abilitare il controllo granulare degli accessi per il tuo dominio. OpenSearch Utilizzando il controllo granulare degli accessi, è possibile utilizzare il controllo degli accessi basato sui ruoli, che consente di creare un OpenSearch ruolo con autorizzazioni specifiche e mapparlo al ruolo del servizio Knowledge Base. La mappatura concede alla Knowledge Base le autorizzazioni minime richieste che le consentono di accedere al dominio e all'indice ed eseguire operazioni sul dominio e sull'indice. OpenSearch 

Per configurare e utilizzare il controllo granulare degli accessi:

1. Assicurati che il OpenSearch dominio che stai utilizzando abbia abilitato il controllo granulare degli accessi.

1. Per il tuo dominio che utilizza un controllo granulare degli accessi, configura le autorizzazioni con politiche mirate sotto forma di ruolo. OpenSearch

1. Per il dominio per cui crei un ruolo, aggiungi una mappatura dei ruoli al ruolo di servizio per Knowledge Base.

I passaggi seguenti mostrano come configurare il OpenSearch ruolo e garantire la corretta mappatura tra il ruolo e il ruolo del servizio Knowledge Base. OpenSearch 

**Per creare un OpenSearch ruolo e configurare le autorizzazioni**  
Dopo aver abilitato il controllo granulare degli accessi e configurato Amazon Bedrock per la connessione al OpenSearch Servizio, puoi configurare le autorizzazioni utilizzando il link OpenSearch Dashboards per ogni dominio. OpenSearch 

**Per configurare le autorizzazioni per un dominio per consentire l’accesso ad Amazon Bedrock:**

1. Apri la OpenSearch dashboard per il OpenSearch dominio con cui vuoi lavorare. Per trovare il link alle dashboard, vai al dominio che hai creato nella console di OpenSearch servizio. Per i domini in esecuzione OpenSearch, l'URL ha il formato,. `domain-endpoint/_dashboards/` Per ulteriori informazioni, consulta [Dashboards](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/dashboards.html) nella *guida per sviluppatori OpenSearch di Amazon Service*.

1. Nella OpenSearch Dashboard, scegli **Sicurezza**, quindi scegli **Ruoli**.

1. Scegli **Crea ruolo**.

1. Assegna un nome al ruolo, ad esempio **kb\$1opensearch\$1role**.

1. In **Autorizzazioni cluster**, aggiungi le seguenti autorizzazioni:
   + `indices:data/read/msearch`
   + `indices:data/write/bulk*`
   + `indices:data/read/mget*`

1. In **Autorizzazioni indice**, specifica un nome per l’indice vettoriale. Scegli **Crea nuovo gruppo di autorizzazioni**, quindi scegli **Crea nuovo gruppo di azioni**. Aggiungi le seguenti autorizzazioni a un gruppo di azioni, ad esempio `KnowledgeBasesActionGroup`. Aggiungi le seguenti autorizzazioni a un gruppo di azioni.
   + `indices:admin/get`
   + `indices:data/read/msearch`
   + `indices:data/read/search`
   + `indices:data/write/index`
   + `indices:data/write/update`
   + `indices:data/write/delete`
   + `indices:data/write/delete/byquery`
   + `indices:data/write/bulk*`
   + `indices:admin/mapping/put`
   + `indices:data/read/mget*`  
![\[I gruppi di azioni da creare nelle OpenSearch dashboard per aggiungere le autorizzazioni di cluster e indice.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/kb-test-os-action-groups.png)

1. Scegli **Crea** per creare il ruolo. OpenSearch 

Di seguito viene illustrato un OpenSearch ruolo di esempio con le autorizzazioni aggiunte.

![\[Un OpenSearch ruolo di esempio nelle OpenSearch dashboard con le autorizzazioni aggiunte.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/kb/kb-test-os-dashboards-permissions.png)


**Come creare una mappatura dei ruoli in base al ruolo di servizio per Knowledge Base**

1. Identifica il ruolo IAM da mappare.
   + Se hai creato un ruolo IAM personalizzato, puoi copiarne l’ARN dalla console IAM.
   + Se consenti a Knowledge Base di creare automaticamente il ruolo, prendi nota del ruolo ARN quando crei la knowledge base, quindi copialo.

1. Apri la OpenSearch dashboard per il OpenSearch dominio con cui vuoi lavorare. Il formato dell’URL è `domain-endpoint/_dashboards/`.

1. Nel riquadro di navigazione scegli **Sicurezza**.

1. Cerca il ruolo che hai creato nell’elenco, ad esempio **kb\$1opensearch\$1role**, e aprilo.

1. Nella scheda **Utenti mappati**, scegli **Gestisci mappatura**.

1. Nella sezione **Ruoli di backend**, inserisci l'ARN del ruolo IAM gestito per AWS le Knowledge Bases. A seconda che tu abbia creato il tuo ruolo personalizzato o lasciato che Knowledge Base creasse il ruolo per te, copia le informazioni ARN del ruolo dalla console IAM o dalla console Amazon Bedrock, quindi inserisci tali informazioni per i **ruoli di backend** nella console. OpenSearch Di seguito è riportato un esempio.

   ```
   arn:aws:iam::<accountId>:role/service-role/<knowledge-base-service-role>
   ```

1. Scegli **Mappa**.

   Il ruolo del servizio Knowledge Base può ora connettersi al OpenSearch ruolo ed eseguire le operazioni richieste sul dominio e sull'indice.

# Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock
<a name="knowledge-base-create"></a>

Quando crei una knowledge base connettendola a un’origine dati, imposta o specifica quanto segue:
+ Informazioni generali che definiscono e identificano la knowledge base.
+ Il ruolo di servizio con autorizzazioni per la knowledge base.
+ Configurazioni per la knowledge base, incluso il modello di embedding da utilizzare per la conversione dei dati dall’origine dati e le configurazioni di archiviazione per il servizio in cui archiviare gli embedding e, facoltativamente, una ubicazione S3 per l’archiviazione dei dati multimodali.

**Nota**  
Non puoi creare una knowledge base con un utente root. Accedi con un utente IAM prima di iniziare questi passaggi.

Espandi la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="knowledge-base-create-console"></a>

**Come configurare una knowledge base**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli il pulsante Crea, quindi scegli di creare una knowledge base con un archivio vettoriale.

1. (Opzionale) Modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. Scegli un ruolo AWS Identity and Access Management (IAM) che fornisca l'autorizzazione ad Amazon Bedrock per accedere ad altri AWS servizi richiesti. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere di utilizzare un [ruolo personalizzato che hai creato per Analisi Neptune](kb-permissions.md#kb-permissions-neptune).

1. Scegli un’origine dati a cui collegare la tua knowledge base.

1. (Opzionale) Aggiungi tag alla knowledge base. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md).

1. (Opzionale) Configura i servizi per i quali fornire i log delle attività per la tua knowledge base.

1. Vai alla sezione successiva e segui i passaggi illustrati in [Connettere un’origine dati alla knowledge base](data-source-connectors.md) per configurare un’origine dati.

1. Nella sezione **Modello di embedding**, procedi come segue:

   1. Scegli un modello di embedding per convertire i tuoi dati in embedding vettoriali. Per i dati multimodali (immagini, audio e video), seleziona un modello di incorporamento multimodale come Amazon Titan Multimodal Embeddings G1 o Cohere Embed v3.
**Nota**  
Quando usi Amazon Titan Multimodal Embeddings G1, devi fornire un bucket di contenuti S3 e puoi usare solo il parser predefinito. Questo modello è ottimizzato per i casi d'uso nella ricerca di immagini. Per una guida completa sulla scelta tra approcci multimodali, vedere. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

   1. (Facoltativo) Espandi la sezione **Configurazioni aggiuntive** per visualizzare le seguenti opzioni di configurazione (non tutti i modelli supportano tutte le configurazioni):
      + **Tipo di embedding**: scegli se convertire i dati in embedding vettoriali in virgola mobile (float32) (più precisi ma più costosi) o embedding vettoriali binari (meno precisi, ma meno costosi). Per scoprire quali modelli di embedding supportano i vettori binari, consulta la sezione relativa ai [modelli di embedding supportati](knowledge-base-supported.md).
      + **Dimensioni vettoriali**: valori più elevati migliorano l’accuratezza ma aumentano i costi e la latenza.

1. Nella sezione **Database vettoriale**, effettua le seguenti operazioni:

   1. Scegli un archivio vettoriale per archiviare gli embedding vettoriali che verranno utilizzati per la query. Sono disponibili le seguenti opzioni:
      + **Crea rapidamente un nuovo archivio vettoriale**: scegli uno degli archivi vettoriali disponibili per Amazon Bedrock da creare. Puoi anche configurare opzionalmente la crittografia a AWS KMS chiave per il tuo archivio vettoriale.
**Nota**  
Quando utilizzi questa opzione, Amazon Bedrock gestisce automaticamente il posizionamento dei metadati per ogni archivio vettoriale.
        + **Amazon OpenSearch Serverless** — Amazon Bedrock Knowledge Bases crea una raccolta e un indice di ricerca vettoriale Amazon OpenSearch Serverless e la configura con i campi richiesti per te.
        + **Amazon Aurora PostgreSQL Serverless**: Amazon Bedrock configura un archivio vettoriale Amazon Aurora PostgreSQL Serverless. Questo processo prende dati di testo non strutturati da un bucket Amazon S3, li trasforma in blocchi di testo e vettori, quindi li archivia in un database PostgreSQL. Per ulteriori informazioni, consulta [Creazione rapida di una Knowledge Base per Amazon Bedrock di Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.quickcreatekb.html).
        + **Analisi Amazon Neptune:** Amazon Bedrock utilizza tecniche di generazione potenziata da recupero dati (RAG) combinate con grafi per migliorare le applicazioni di IA generativa in modo che gli utenti finali possano ottenere risposte più accurate e complete.
        + **Amazon S3 Vectors:** Knowledge Base per Amazon Bedrock creano un bucket vettoriale S3 e un indice vettoriale che archivieranno gli embedding generati dalle origini dati.

          Puoi creare una knowledge base per Amazon S3 Vectors in tutti gli Regione AWS ambienti in cui sono disponibili sia Amazon Bedrock che Amazon S3 Vectors. Per informazioni sulla disponibilità delle Regioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.
**Nota**  
Quando usi Amazon S3 Vectors con Amazon Bedrock Knowledge Bases, puoi allegare fino a 1 KB di metadati personalizzati (inclusi metadati filtrabili e non filtrabili) e 35 chiavi di metadati per vettore. Per informazioni dettagliate sulle limitazioni dei metadati, consulta in. [Supporto per metadati](knowledge-base-setup.md#metadata-support) [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md)
      + **Scegli un archivio vettoriale che hai creato**: seleziona un archivio vettoriale supportato e identifica i nomi dei campi vettoriali e i nomi dei campi di metadati nell’indice vettoriale. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).
**Nota**  
Se la tua origine dati è un'istanza Confluence SharePoint, Microsoft o Salesforce, l'unico servizio di archiviazione vettoriale supportato è Amazon Serverless. OpenSearch 

   1. (Opzionale) Espandi la sezione **Configurazioni aggiuntive** e modifica le configurazioni pertinenti.

1. Se l’origine dati contiene immagini, specifica un URI Amazon S3 in cui archiviare le immagini che il parser estrarrà dai dati nella **destinazione di archiviazione multimodale**. Le immagini possono essere restituite durante la query. Opzionalmente, puoi anche scegliere una chiave gestita dal cliente anziché quella predefinita per crittografare i tuoi dati. Chiave gestita da AWS
**Nota**  
I dati multimodali sono supportati solo da Amazon S3 e origini dati personalizzate.
**Nota**  
Quando si utilizzano modelli di incorporamento multimodali:  
Amazon Titan Multimodal Embeddings G1 richiede un bucket di contenuti S3 e funziona al meglio con set di dati di sola immagine utilizzando il parser predefinito
Cohere Embed v3 supporta set di dati misti di testo e immagini e può essere utilizzato con qualsiasi configurazione del parser
Per i casi di ricerca di immagini, evita di utilizzare Bedrock Data Automation (BDA) o parser Foundation Model con Titan G1 a causa delle limitazioni dei token
La destinazione di archiviazione multimodale crea copie di file a scopo di recupero, il che può comportare costi di archiviazione aggiuntivi

1. Scegli **Avanti** e rivedi i dettagli della tua knowledge base. Puoi modificare qualsiasi sezione prima di procedere e creare la tua knowledge base.
**Nota**  
Il tempo richiesto per creare la knowledge base dipende dalle configurazioni specifiche. Una volta completata la creazione della knowledge base, lo stato della knowledge base cambia per indicare che è pronta o disponibile.  
Una volta che la knowledge base è pronta e disponibile, sincronizza l’origine dati per la prima volta e ogni volta che desideri aggiornare i contenuti. Scegli la knowledge base nella console, poi scegli **Sincronizza** nella sezione Panoramica dell’origine dati.

## Eliminare con l’API
<a name="knowledge-base-create-api"></a>

Per creare una knowledge base, invia una richiesta [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) con un [endpoint in fase di compilazione Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

**Nota**  
Se preferisci lasciare che Amazon Bedrock crei e gestisca un archivio vettoriale per tuo conto, utilizza la console. Per ulteriori informazioni, espandi la sezione **Utilizzo della console** in questo argomento.

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| nome | Un nome per la knowledge base | 
| roleArn | L’ARN di un [ruolo di servizio di Knowledge Base per Amazon Bedrock](kb-permissions.md). | 
| knowledgeBaseConfiguration | Contiene le configurazioni per la knowledge base. Fai riferimento ai dettagli riportati di seguito. | 
| storageConfiguration | (Richiesto solo se ti connetti a un’origine dati non strutturata). Contiene le configurazioni per il servizio di origine dati scelto. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Una descrizione per la knowledge base. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tag | Associare tag al flusso. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md). | 

Nel `knowledgeBaseConfiguration` campo, che corrisponde a un [KnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseConfiguration.html)oggetto, specificate `VECTOR` nel campo e includete un oggetto. `type` [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html) Nell’oggetto, includi i seguenti campi:
+ `embeddingModelArn`: l’ARN del modello di embedding da utilizzare.
+ `embeddingModelConfiguration`: le configurazioni per il modello di embedding. Per visualizzare i possibili valori che è possibile specificare per ogni modello supportato, consulta [Regioni e modelli supportati per Knowledge Base per Amazon Bedrock](knowledge-base-supported.md).
+ (Se prevedi di includere dati multimodali, che includono immagini, figure, grafici o tabelle, nella tua knowledge base), esegue il `supplementalDataStorageConfiguration` mapping su un [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)oggetto, in cui specifichi la posizione S3 in cui archiviare i dati estratti. Per ulteriori informazioni, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

Nel `storageConfiguration` campo, che corrisponde a un [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)oggetto, specifica l'archivio vettoriale a cui intendi connetterti nel `type` campo e includi il campo che corrisponde a quell'archivio vettoriale. Consulta ogni tipo di configurazione dell'archivio vettoriale all'indirizzo [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)per i dettagli sulle informazioni che devi fornire.

Di seguito viene illustrato un esempio di richiesta per creare una knowledge base connessa a una raccolta Amazon OpenSearch Serverless. I dati provenienti da fonti di dati connesse verranno convertiti in incorporamenti vettoriali binari con Amazon Titan Text Embeddings V2 e i dati multimodali estratti dal parser sono configurati per essere archiviati in un bucket chiamato. *MyBucket*

```
PUT /knowledgebases/ HTTP/1.1
Content-type: application/json

{
   "name": "MyKB",
   "description": "My knowledge base",
   "roleArn": "arn:aws:iam::111122223333:role/service-role/AmazonBedrockExecutionRoleForKnowledgeBase_123",
   "knowledgeBaseConfiguration": {
      "type": "VECTOR",
      "vectorKnowledgeBaseConfiguration": { 
         "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-embed-text-v2:0",
         "embeddingModelConfiguration": { 
            "bedrockEmbeddingModelConfiguration": { 
               "dimensions": 1024,
               "embeddingDataType": "BINARY"
            }
         },
         "supplementalDataStorageConfiguration": { 
            "storageLocations": [ 
               { 
                  "s3Location": { 
                     "uri": "arn:aws:s3:::MyBucket"
                  },
                  "type": "S3"
               }
            ]
         }
      }
   },
   "storageConfiguration": { 
      "opensearchServerlessConfiguration": { 
         "collectionArn": "arn:aws:aoss:us-east-1:111122223333:collection/abcdefghij1234567890",
         "fieldMapping": { 
            "metadataField": "metadata",
            "textField": "text",
            "vectorField": "vector"
         },
         "vectorIndexName": "MyVectorIndex"
      }
   }
}
```

**Topics**
+ [Connettere un’origine dati alla knowledge base](data-source-connectors.md)
+ [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md)
+ [Definire le configurazioni di sicurezza per una knowledge base](kb-create-security.md)

# Connettere un’origine dati alla knowledge base
<a name="data-source-connectors"></a>

Dopo aver completato le configurazioni per la knowledge base, connettere alla knowledge base un’origine dati supportata.

Knowledge Base per Amazon Bedrock supporta la connessione a origini dati non strutturate o ad archivi di dati strutturati tramite un motore di query. Selezionare un argomento per scoprire come connettersi a quel tipo di origine dati:

**Supporto di contenuti multimodali**  
I contenuti multimodali (immagini, file audio e video) sono supportati solo con Amazon S3 e origini dati personalizzate. Altri tipi di fonti di dati ignoreranno i file multimodali durante l'ingestione. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per informazioni su come connettersi a un’origine dati utilizzando la console Amazon Bedrock, selezionare l’argomento corrispondente al tipo di origine dati in fondo a questa pagina:

Per connetterti a un'origine dati utilizzando l'API Amazon Bedrock, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta con un endpoint di [runtime Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| knowledgeBaseId | L’ID della knowledge base. | 
| nome | Un nome per la knowledge base. | 
| dataSourceConfiguration | Specifica il tipo o il servizio di origine dati nel campo type e include il campo corrispondente. Per ulteriori dettagli sulle configurazioni specifiche del servizio, selezionare l’argomento relativo al servizio dagli argomenti in fondo a questa pagina. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| vectorIngestionConfiguration | Contiene configurazioni per personalizzare il processo di ingestione. Per ulteriori informazioni, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Per specificare se recuperare con RETAIN gli embedding vettoriali nell’archivio vettoriale oppure se eliminarli con DELETE. | 
| serverSideEncryptionConfigurazione | Per crittografare i dati transitori durante la sincronizzazione dei dati con una chiave gestita dal cliente, specifica il relativo ARN nel campo kmsKeyArn. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Selezionare un argomento per saperne di più su un servizio e sulla sua configurazione.

**Topics**
+ [Connettersi ad Amazon S3 per una knowledge base](s3-data-source-connector.md)
+ [Connettersi a Confluence per utilizzare la knowledge base](confluence-data-source-connector.md)
+ [Connect a Microsoft SharePoint per la tua knowledge base](sharepoint-data-source-connector.md)
+ [Connettersi a Salesforce per una knowledge base](salesforce-data-source-connector.md)
+ [Crawling di pagine web per la knowledge base](webcrawl-data-source-connector.md)
+ [Connessione della knowledge base a un’origine dati personalizzata](custom-data-source-connector.md)

# Connettersi ad Amazon S3 per una knowledge base
<a name="s3-data-source-connector"></a>

Amazon S3 è un servizio che consente di archiviare dati come oggetti nei bucket. [Puoi connetterti al tuo bucket Amazon S3 per la tua knowledge base di Amazon Bedrock utilizzando la [AWSconsole di gestione per Amazon Bedrock o l'API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)(vedi Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) supportata e). SDKs AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)

**Supporto di contenuti multimodali**  
Le sorgenti dati Amazon S3 supportano contenuti multimodali tra cui immagini, file audio e video. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Puoi caricare un batch ridotto di file in un bucket Amazon S3 utilizzando la console Amazon S3 o l’API. In alternativa, puoi [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html)utilizzarlo per caricare più file su S3 in modo continuo e trasferire file secondo una pianificazione da locale, edge, altro cloud o storage. AWS

Attualmente sono supportati solo i bucket S3 per uso generico.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-s3-connector)
+ [Prerequisiti](#prerequisites-s3-connector)
+ [Configurazione della connessione](#configuration-s3-connector)

## Funzionalità supportate
<a name="supported-features-s3-connector"></a>
+ Campi di metadati dei documenti
+ Prefissi di inclusione
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni

## Prerequisiti
<a name="prerequisites-s3-connector"></a>

**In Amazon S3, verifica quanto segue**:
+ Annota l’URI del bucket Amazon S3, il nome della risorsa Amazon (ARN) e l’ID dell’account AWS per il proprietario del bucket. Puoi trovare l’URI e l’ARN nella sezione delle proprietà della console Amazon S3. Il bucket deve trovarsi nella stessa Regione di Knowledge Base per Amazon Bedrock. È necessario disporre dell’autorizzazione per accedere al bucket.

**Nel tuo AWS account, assicurati di**:
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi creare IAM automaticamente il ruolo con tutte le autorizzazioni richieste come parte dei passaggi per la creazione di una knowledge base. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.

## Configurazione della connessione
<a name="configuration-s3-connector"></a>

Per connetterti al bucket Amazon S3, devi fornire le informazioni di configurazione necessarie per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-s3-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sui filtri di inclusione/esclusione, sui campi di metadati dei documenti, sulla sincronizzazione incrementale e sul relativo funzionamento, consulta le sezioni seguenti:

### Campi di metadati dei documenti
<a name="ds-s3-metadata-fields"></a>

Puoi includere un file separato che specifica i metadati del documento fields/attributes per ogni file nella tua origine dati Amazon S3 e se includerli negli incorporamenti durante l'indicizzazione della fonte di dati nel vector store. Ad esempio, puoi creare un file nel seguente formato, assegnargli un nome *fileName.extension.metadata.json* e caricarlo nel tuo bucket S3.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Il file di metadati deve utilizzare lo stesso nome del file del documento di origine associato, con la dicitura `.metadata.json` aggiunta alla fine del nome del file. Il file di metadati deve essere archiviato nella stessa cartella o nello stesso percorso del file di origine nel bucket Amazon S3. Il file non deve superare il limite di 10 KB. [Per informazioni sui tipi di attribute/field dati supportati e sugli operatori di filtro che puoi applicare ai campi di metadati, consulta Metadati e filtri.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Prefissi di inclusione
<a name="ds-s3-inclusion-exclusion"></a>

Puoi specificare un prefisso di inclusione, ovvero un prefisso di percorso Amazon S3, in cui utilizzare un file o una cartella S3 anziché l’intero bucket per creare il connettore delle origini dati S3.

### Sincronizzazione incrementale
<a name="ds-s3-incremental-sync"></a>

Il connettore per le sorgenti dati esegue la ricerca per indicizzazione dei contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la knowledge base. Amazon Bedrockpuò utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Come connettersi a un bucket Amazon S3 per una knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Amazon S3** come origine dati.

1. Fornisci un nome per l’origine dati.

1. Specificate se il bucket Amazon S3 si trova nel vostro AWS account corrente o in un altro account. AWS Il bucket deve trovarsi nella stessa Regione della knowledge base.

1. (Facoltativo) Se il bucket Amazon S3 è crittografato con una chiave KMS, includi la chiave. Per ulteriori informazioni, consulta [Autorizzazioni per decrittografare la AWS KMS chiave per le fonti di dati in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita o con la tua chiave KMS. Chiave gestita da AWS Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione ad Amazon S3 per Knowledge Base per Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Connettersi a Confluence per utilizzare la knowledge base
<a name="confluence-data-source-connector"></a>

Atlassian Confluence è uno strumento collaborativo di gestione del lavoro progettato per condividere, archiviare e lavorare sulla pianificazione dei progetti, sullo sviluppo del software e sulla gestione dei prodotti. Per connetterti all’istanza di Confluence corrente per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) API (consulta gli [SDK supportati e la AWS CLI di Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore dell’origine dati in Confluence è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Confluence non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze di Confluence Cloud. Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB dei file che possono essere sottoposti a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-confluence-connector)
+ [Prerequisiti](#prerequisites-confluence-connector)
+ [Configurazione della connessione](#configuration-confluence-connector)

## Funzionalità supportate
<a name="supported-features-confluence-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0 e autenticazione con token API Confluence

## Prerequisiti
<a name="prerequisites-confluence-connector"></a>

**In Confluence, assicurati di**:
+ Prendere nota dell’URL dell’istanza di Confluence, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.
+ Configurare le credenziali di autenticazione di base contenenti un nome utente (indirizzo e-mail dell’account amministratore) e una password (token API Confluence) per consentire ad Amazon Bedrock di connettersi all’istanza di Confluence Cloud corrente. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
+ (Facoltativo) Configurare un’applicazione OAuth 2.0 con le credenziali di una chiave e di un segreto dell’app, di un token di accesso e di uno di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.
+ Abilitare determinati ambiti o autorizzazioni di lettura per consentire all’app OAuth 2.0 di connettersi a Confluence.

  API Confluence:
  + offline\$1access
  + read:content:confluence: consente di visualizzare i contenuti dettagliati 
  + read:content-details:confluence: consente di visualizzare i dettagli del contenuto 
  + read:space-details:confluence: consente di visualizzare i dettagli dello spazio
  + read:audit-log:confluence: consente di visualizzare i record di audit 
  + read:page:confluence: consente di visualizzare le pagine 
  + read:attachment:confluence: consente di visualizzare e di scaricare gli allegati al contenuto 
  + read:blogpost:confluence: consente di visualizzare i post di blog 
  + read:custom-content:confluence: consente di visualizzare contenuto personalizzato 
  + read:comment:confluence: consente di visualizzare i commenti 
  + read:template:confluence: consente di visualizzare i modelli di contenuto 
  + read:label:confluence: consente di visualizzare le etichette 
  + read:watcher:confluence: consente di visualizzare gli osservatori del contenuto 
  + read:relation:confluence: consente di visualizzare le relazioni tra entità 
  + read:user:confluence: consente di visualizzare i dettagli dell’utente 
  + read:configuration:confluence: consente di visualizzare le impostazioni di Confluence 
  + read:space:confluence: consente di visualizzare i dettagli dello spazio 
  + read:space.property:confluence: consente di visualizzare le proprietà dello spazio 
  + read:user.property:confluence: consente di visualizzare le proprietà dell’utente 
  + read:space.setting:confluence: consente di visualizzare le impostazioni dello spazio 
  + read:analytics.content:confluence: consente di visualizzare l’analisi del contenuto
  + read:content.property:confluence: consente di visualizzare le proprietà del contenuto
  + read:content.metadata:confluence: consente di visualizzare i riepiloghi del contenuto 
  + read:inlinetask:confluence: consente di visualizzare le attività 
  + read:task:confluence: consente di visualizzare le attività 
  + read:whiteboard:confluence: consente di visualizzare le lavagne 
  + read:app-data:confluence: consente di leggere i dati dell’app 
  + read:folder:confluence: consente di visualizzare le cartelle
  + read:embed:confluence: consente di visualizzare i dati Smartlink

**Nell’account AWS, assicurati di**:
+ Archiviare le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e di prendere nota del nome della risorsa Amazon (ARN) del segreto stesso. Seguire le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includere le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se si utilizza la console, è possibile andare in Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Sarebbe opportuno aggiornare o ruotare regolarmente le credenziali e il segreto e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-confluence-connector"></a>

Per connettersi all’istanza di Confluence corrente, è necessario fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-confluence-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione segrete e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-confluence-document-fields"></a>

Il connettore dell’origine dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore dell’origine dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-confluence-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Space`: chiave dello spazio univoca
+ `Page`: titolo principale della pagina
+ `Blog`: titolo principale del blog
+ `Comment`: commenti che appartengono a una pagina oppure a un blog specifico. Specificare *Re: Titolo pagina/blog*
+ `Attachment`: nome del file allegato con relativa estensione

### Sincronizzazione incrementale
<a name="ds-confluence-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica della console.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-confluence-secret-auth-credentials"></a>

(Se si utilizza l’autenticazione di base) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `username`: *indirizzo e-mail dell’utente amministratore dell’account Atlassian*
+ `password`: *token API Confluence*

(Se si utilizza l’autenticazione OAuth 2.0) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `confluenceAppKey`: *chiave dell’app*
+ `confluenceAppSecret`: *segreto dell’app*
+ `confluenceAccessToken`: *token di accesso all’app*
+ `confluenceRefreshToken`: *token di aggiornamento dell’app*

**Nota**  
Il token di **accesso** OAuth2.0 per Confluence ha una scadenza predefinita di 60 minuti. Se il token di accesso scade durante la sincronizzazione dell’origine dati (processo di sincronizzazione), Amazon Bedrock utilizza il token di **aggiornamento** fornito per rigenerarlo. In questo caso vengono rigenerati sia i token di accesso sia quelli di aggiornamento. Per mantenere i token aggiornati dal processo di sincronizzazione corrente a quello successivo, Amazon Bedrock richiede le autorizzazioni di scrittura/immissione per le credenziali segrete nell’ambito del ruolo IAM della knowledge base.

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza di Confluence alla knowledge base**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Confluence** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Indica l’URL dell’istanza di Confluence corrente, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori**: è possibile crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti all’istanza di Confluence corrente:
   + Per l’autenticazione di base, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere l’indirizzo e-mail dell’utente amministratore dell’account Atlassian come nome utente e un token API Confluence come password. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
   + Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere la chiave dell’app Confluence, il segreto dell’app, il token di accesso e quello di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Confluence Cloud per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect a Microsoft SharePoint per la tua knowledge base
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint è un servizio collaborativo basato sul Web per lavorare su documenti, pagine Web, siti Web, elenchi e altro ancora. Puoi connetterti alla tua SharePoint istanza per la tua knowledge base di Amazon Bedrock utilizzando la [console di AWS gestione per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l'[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API (vedi Amazon Bedrock [supportata SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) e). AWS CLI

**Nota**  
SharePoint il connettore di origine dati è in versione di anteprima ed è soggetto a modifiche.  
Le origini SharePoint dati Microsoft non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze SharePoint online. La scansione dei OneNote documenti non è attualmente supportata. Attualmente, solo Amazon OpenSearch Serverless Vector Store è disponibile per l'uso con questa fonte di dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-sharepoint-connector)
+ [Prerequisiti](#prerequisites-sharepoint-connector)
+ [Configurazione della connessione](#configuration-sharepoint-connector)

## Funzionalità supportate
<a name="supported-features-sharepoint-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ SharePoint Autenticazione solo tramite app

## Prerequisiti
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**In SharePoint (Online), completa i seguenti passaggi per utilizzare l'autenticazione SharePoint solo per app:**
+ Prendi nota dell'URL del tuo sito SharePoint Online/. URLs Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. È possibile trovare l’ID del tenant nelle proprietà del portale di Microsoft Entra. Per i dettagli, consulta [Trova il tuo ID tenant di Microsoft 365](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Configura le SharePoint credenziali solo per le app.
+ Copia l'ID client e il valore segreto del client quando concedi l'autorizzazione a App-Only. SharePoint Per ulteriori informazioni, consulta [Concessione](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) dell'accesso tramite App-Only. SharePoint 
**Nota**  
Non è necessario configurare alcuna autorizzazione API per App-Only. SharePoint Tuttavia, è necessario configurare le autorizzazioni APP sul lato. SharePoint Per ulteriori informazioni sulle autorizzazioni APP richieste, consulta la documentazione Microsoft sulla [concessione dell'accesso tramite SharePoint ](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) App-Only.

### Account AWS
<a name="prerequisites-sharepoint-connector-account"></a>

**Nel tuo AWS account, assicurati** di:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi andare Gestione dei segreti AWS a aggiungere il tuo segreto o utilizzare un segreto esistente come parte della fase di configurazione dell'origine dati. Il IAM ruolo con tutte le autorizzazioni richieste può essere creato automaticamente come parte dei passaggi della console per la creazione di una knowledge base. Dopo aver configurato l'origine dati e altre configurazioni, il IAM ruolo con tutte le autorizzazioni richieste viene applicato alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-sharepoint-connector"></a>

Per connetterti alla tua SharePoint istanza, devi fornire le informazioni di configurazione necessarie in modo che Amazon Bedrock possa accedere ai tuoi dati ed eseguirne la scansione. nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-sharepoint-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-sharepoint-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i tuoi contenuti includono informazioni sensibili, allora Amazon Bedrock potrebbe rispondere utilizzando informazioni sensibili.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-sharepoint-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, Ad esempio, puoi specificare un modello di prefix/regular espressione di esclusione per evitare la scansione di qualsiasi file che contenga «privato» nel nome del file. È inoltre possibile specificare un modello di prefix/regular espressione di inclusione per includere determinate entità di contenuto o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

È possibile applicare inclusion/exclusion filtri ai seguenti tipi di contenuto:
+ `Page`: titolo principale della pagina
+ `Event`: nome dell’evento
+ `File`: nome del file con la relativa estensione per gli allegati e tutti i file del documento

La scansione OneNote dei documenti non è attualmente supportata.

### Sincronizzazione incrementale
<a name="ds-sharepoint-incremental-sync"></a>

Il connettore di origine dati esegue la ricerca per indicizzazione di contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la Knowledge Base. Amazon Bedrock può utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-sharepoint-secret-auth-credentials"></a>

Quando si utilizza l'autenticazione SharePoint solo per app, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Nota**  
L'accesso segreto Gestione dei segreti AWS deve utilizzare la stessa regione della knowledge base.

------
#### [ Console ]

**Connect un' SharePoint istanza alla knowledge base**<a name="connect-sharepoint-console"></a>

1. Segui i passaggi indicati [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **SharePoint**come fonte di dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l'URL SharePoint del tuo sito/URLs. Ad esempio, per SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*

1. Fornisci il nome di dominio della tua SharePoint istanza.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita Chiave gestita da AWS o con la tua chiave KMS. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza. SharePoint Per l' SharePoint autenticazione solo tramite app:

   1. Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.

   1. Vai Gestione dei segreti AWS a per aggiungere le tue credenziali segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere l'ID SharePoint cliente e il segreto SharePoint client generati quando hai registrato l'app App-Only a livello di tenant o a livello di sito, e l'ID client Entra e il segreto client Entra generati quando registri l'app in Entra.

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegliete di utilizzare modelli di filters/regular espressioni per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a SharePoint Online per la tua knowledge base Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Importante**  
L'autenticazione OAuth2 2.0 non è consigliata. Ti consigliamo di utilizzare l'autenticazione solo per SharePoint app.

## Utilizzo di 0. OAuth2
<a name="sharepoint-connector-oauth"></a>

Utilizzando OAuth 2.0, è possibile autenticare e autorizzare l'accesso alle SharePoint risorse per i SharePoint connettori integrati con le Knowledge Base.

### Prerequisiti
<a name="sharepoint-connector-oauth-prereq"></a>

**In SharePoint, per l'autenticazione OAuth 2.0, assicurati** di:
+ Prendi nota dell'URL del tuo sito SharePoint Online/URLs. Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. Puoi trovare il tuo ID tenant nelle Proprietà del tuo portale Microsoft Entra o nella tua OAuth applicazione.

  Prendi nota del nome utente e della password dell' SharePointaccount amministratore e copia l'ID cliente e il valore del segreto del cliente durante la registrazione di un'applicazione.
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Alcune autorizzazioni di lettura sono necessarie per connettersi SharePoint quando si registra un'applicazione.
  + SharePoint: AllSites .Read (delegato): legge gli elementi in tutte le raccolte del sito
+ Potrebbe essere necessario disattivare le **impostazioni di sicurezza predefinite** nel portale di Azure utilizzando un utente amministratore. Per altre informazioni sulla gestione delle impostazioni di sicurezza predefinite nel portale di Azure, consulta la [documentazione Microsoft su come impostare le impostazioni di enable/disable sicurezza predefinite](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Potrebbe essere necessario disattivare l'autenticazione a più fattori (MFA) nel SharePoint tuo account, in modo che Amazon Bedrock non sia bloccato dalla scansione dei tuoi contenuti. SharePoint 

Per completare i prerequisiti, verifica di aver completato la procedura in [Account AWS](#prerequisites-sharepoint-connector-account).

### Credenziali di autenticazione dei segreti
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Per la configurazione della connessione per OAuth2 .0, è possibile eseguire gli stessi passaggi per il rilevamento automatico dei campi del documento principale, dei inclusion/exclusion filtri e della sincronizzazione incrementale, come descritto in. [Configurazione della connessione](#configuration-sharepoint-connector)

**Per l'autenticazione OAuth 2.0, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Connect un' SharePoint istanza alla knowledge base
<a name="sharepoint-connector-oauth-using"></a>

Per connettere un' SharePoint istanza alla tua knowledge base quando usi OAuth2 .0:
+ (console) Nella console, segui gli stessi passaggi descritti in [Connect a SharePoint instance to your knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console). Quando desideri fornire le informazioni di autenticazione per connetterti alla tua SharePoint istanza.
  + Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.
  + Vai Gestione dei segreti AWS a per aggiungere le tue credenziali di autenticazione segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere il nome utente e la password dell' SharePoint amministratore, l'ID client e il segreto del client dell'app registrata. Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn.
+ (API) Di seguito è riportato un esempio di utilizzo dell'`CreateDataSource`API per creare un'origine dati con le informazioni di connessione per OAuth2 .0.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Connettersi a Salesforce per una knowledge base
<a name="salesforce-data-source-connector"></a>

Salesforce è uno strumento di gestione delle relazioni con i clienti (CRM, Customer Relationship Management) per la gestione dei team di supporto, vendita e marketing. Per connetterti all’istanza Salesforce per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (consulta gli [SDK supportati di Amazon Bedrock e la AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore delle origini dati in Salesforce è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Salesforce non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-salesforce-connector)
+ [Prerequisiti](#prerequisites-salesforce-connector)
+ [Configurazione della connessione](#configuration-salesforce-connector)

## Funzionalità supportate
<a name="supported-features-salesforce-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0

## Prerequisiti
<a name="prerequisites-salesforce-connector"></a>

**In Salesforce, verifica quanto segue**:
+ Prendi nota dell’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.
+ Crea un’app connessa Salesforce e configura le credenziali del client. Quindi, per l’app selezionata, copia la chiave utente (ID client) e il segreto utente (segreto del cliente) dalle impostazioni OAuth. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Nota**  
Per le app connesse Salesforce, in Client Credentials Flow, assicurati di cercare e selezionare il nome o l’alias dell’utente per le credenziali del client nel campo “Run As”.

**Nell’account AWS, verifica quanto segue**:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se utilizzi la console, è possibile passare ad Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-salesforce-connector"></a>

Per connetterti all’istanza di Salesforce corrente, devi fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-salesforce-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-salesforce-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-salesforce-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare le campagne che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Account`: numero/identificatore dell’account
+ `Attachment`: nome del file allegato con relativa estensione
+ `Campaign`: nome della campagna e identificatori associati
+ `ContentVersion`: versione del documento e identificatori associati
+ `Partner`: campi di informazioni partner, inclusi gli identificatori associati
+ `Pricebook2`: nome del prodotto/listino prezzi
+ `Case`: numero di richiesta/problema del cliente e altri campi informativi, compresi gli identificatori associati (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contact`: campi informativi sul cliente (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contract`: nome del contratto e identificatori associati
+ `Document`: nome del file con relativa estensione
+ `Idea`: campi informativi sull’idea e identificatori associati
+ `Lead`: campi informativi su nuovi clienti potenziali (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Opportunity`: campi informativi sulla vendita o sull’offerta in sospeso e identificatori associati
+ `Product2`: campi informativi sul prodotto e identificatori associati
+ `Solution`: nome della soluzione per la richiesta/problema di un cliente e identificatori associati
+ `Task`: campi informativi sull’attività e identificatori associati
+ `FeedItem`: identificatore del post del feed di chat
+ `FeedComment`: identificatore del post del feed di chat a cui appartengono i commenti
+ `Knowledge__kav`: titolo dell’articolo della knowledge base
+ `User`: alias utente all’interno dell’organizzazione
+ `CollaborationGroup`: nome del gruppo di chat (univoco)

### Sincronizzazione incrementale
<a name="ds-salesforce-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizza l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o seleziona la knowledge base nella console, quindi scegli **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione dei segreti
<a name="ds-salesforce-secret-auth-credentials"></a>

(Per l’autenticazione OAuth 2.0) Le credenziali di autenticazione dei segreti in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `consumerKey`: *ID del client dell’app*
+ `consumerSecret`: *segreto del client dell’app*
+ `authenticationUrl`: *URL dell’istanza Salesforce o URL da cui richiedere il token di autenticazione*

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza Salesforce alla knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Salesforce** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la chiave Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza Salesforce:

   1. Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il tuo segreto deve contenere la chiave utente (ID cliente) dell’app connessa Salesforce, il segreto utente (segreto del cliente) e l’URL dell’istanza Salesforce o l’URL da cui richiedere il token di autenticazione. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Salesforce per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawling di pagine web per la knowledge base
<a name="webcrawl-data-source-connector"></a>

Il crawler web fornito da Amazon Bedrock si connette agli URL che hai selezionato per l’uso in Knowledge Base per Amazon Bedrock e ne esegue il crawling. Puoi eseguire il crawling delle pagine del sito web in base all’ambito o ai limiti impostati per gli URL selezionati. Puoi eseguire il crawling delle pagine dei siti web utilizzando la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (vedi [SDK supportati da Amazon Bedrock e AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

**Nota**  
Il connettore dell’origine dati del crawler web è disponibile nella versione di anteprima ed è soggetto a modifiche.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling e devi rispettare le configurazioni di robots.txt.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Esistono limiti al numero di elementi di contenuto delle pagine web e ai MB per elemento di contenuto che possono essere sottoposti a crawling. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-webcrawl-connector)
+ [Prerequisiti](#prerequisites-webcrawl-connector)
+ [Configurazione della connessione](#configuration-webcrawl-connector)

## Funzionalità supportate
<a name="supported-features-webcrawl-connector"></a>

Il crawler web si connette alle pagine HTML e le scansiona a partire dall’URL iniziale, attraversando tutti i link secondari all’interno dello stesso dominio e percorso primari. Se una delle pagine HTML fa riferimento a documenti supportati, il crawler web recupererà tali documenti, indipendentemente dal fatto che si trovino all’interno dello stesso dominio primario. Puoi modificare il comportamento del crawling modificando la configurazione della scansione. Consulta [Configurazione della connessione](#configuration-webcrawl-connector).

Quanto segue è supportato per:
+ Seleziona più URL di origine da sottoporre a scansione e imposta l’ambito degli URL in modo che eseguano il crawling solo dell’host o includano anche i sottodomini.
+ Scansiona le pagine web statiche che fanno parte degli URL di origine.
+ Specifica il suffisso User Agent personalizzato per impostare le regole per il tuo crawler.
+ Includi o escludi determinati URL che corrispondono a un modello di filtro.
+ Rispetta le direttive robots.txt standard come “Allow” and “Disallow”.
+ Limita l’ambito degli URL al crawling e, facoltativamente, escludi gli URL che corrispondono a uno schema di filtro.
+ Limita la velocità di crawling degli URL e il numero massimo di pagine da sottoporre a crawling.
+ Visualizza lo stato degli URL sottoposti a crawling in Amazon CloudWatch.

## Prerequisiti
<a name="prerequisites-webcrawl-connector"></a>

**Per utilizzare il crawler web, assicurati di**:
+ Verifica di avere l’autorizzazione a eseguire la scansione degli URL di origine.
+ Verifica che il percorso di robots.txt corrispondente agli URL di origine non impedisca il crawling degli URL. Il crawler web aderisce agli standard di robots.txt: `disallow` per impostazione predefinita se robots.txt non viene trovato per il sito web. Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Puoi anche specificare il suffisso di intestazione User Agent personalizzato per impostare le regole per il tuo crawler. Per ulteriori informazioni, consulta l’accesso all’URL del crawler web nelle istruzioni [Configurazione della connessione](#configuration-webcrawl-connector) di questa pagina.
+ [Abilita la distribuzione di CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) e segui gli esempi del crawler web per visualizzare lo stato del processo di importazione dei dati per l’acquisizione di contenuti web e se determinati URL non possono essere recuperati.

**Nota**  
Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

## Configurazione della connessione
<a name="configuration-webcrawl-connector"></a>

Per ulteriori informazioni sull’ambito di sincronizzazione per il crawling degli URL, i filtri di inclusione/esclusione, l’accesso agli URL, la sincronizzazione incrementale e su come funzionano, seleziona quanto segue:

### Ambito di sincronizzazione per gli URL di crawling
<a name="ds-sync-scope"></a>

Puoi limitare l’ambito degli URL da sottoporre a crawling in base alla relazione specifica tra l’URL di ogni pagina e gli URL iniziali. Per crawling più rapidi, puoi limitare gli URL a quelli con lo stesso host e lo stesso percorso URL iniziale dell’URL iniziale. Per crawling più ampi, puoi scegliere di eseguire il crawling degli URL con lo stesso host o all’interno di qualsiasi sottodominio dell’URL iniziale.

Puoi scegliere tra le opzioni riportate di seguito.
+ Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
+ Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
+ Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.

**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

Il crawler web supporta siti web statici.

Puoi anche limitare la velocità di crawling degli URL per controllare la limitazione (della larghezza di banda della rete) della velocità di crawling. Imposti il numero massimo di URL sottoposti a crawling per host al minuto. Inoltre, puoi anche impostare il numero massimo (fino a 25.000) di pagine web totali da sottoporre a crawling. Tieni presente che se il numero totale di pagine web dagli URL di origine supera il massimo impostato, il processo di sincronizzazione/importazione dell’origine dati avrà esito negativo.

### Filtri di inclusione/esclusione
<a name="ds-inclusion-exclusion"></a>

Puoi includere o escludere determinati URL in base al tuo ambito. I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file. Se specifichi un filtro di inclusione ed esclusione ed entrambi corrispondono a un URL, il filtro di esclusione ha la precedenza e il contenuto web non viene sottoposto a crawling.

**Importante**  
Vengono rifiutati i filtri problematici basati su modelli di espressioni regolari che portano a [backtracking e previsioni catastrofici](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/).

“Esempio di pattern di filtro basato su espressione regolare per escludere gli URL con estensione “.pdf” o allegati PDF di pagine web”: *".\$1\$1.pdf\$1"*

### Accesso all’URL del crawler web
<a name="ds-webcrawl-identity-crawling"></a>

Puoi utilizzare il crawler web per eseguire il crawling delle pagine dei siti web per i quali hai l’autorizzazione a eseguire il crawling.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Puoi specificare determinati bot user agent per consentire (“Allow”) o negare (“Disallow”) al rispettivo user agent di eseguire il crawling dei tuoi URL di origine. Puoi modificare il file robots.txt del tuo sito web per controllare il modo in cui il crawler web esegue il crawling degli URL di origine. Il crawler cercherà prima le regole `bedrockbot-UUID ` e poi le regole `bedrockbot` generiche nel file robots.txt.

Puoi anche aggiungere un suffisso User-Agent che può essere utilizzato per inserire il crawler nella lista consentita nei sistemi di protezione dai bot. Nota che non è necessario aggiungere questo suffisso al file `robots.txt` per assicurarsi che nessuno possa impersonare la stringa User Agent. Ad esempio, per consentire al crawler web di eseguire il crawling di tutto il contenuto del sito web e impedire il crawling per altri robot, utilizza la seguente direttiva:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Sincronizzazione incrementale
<a name="ds-incremental-sync"></a>

Ogni volta che viene eseguito, il crawler web recupera il contenuto di tutti gli URL raggiungibili dagli URL di origine che corrispondono all’ambito e ai filtri. Per le sincronizzazioni incrementali dopo la prima sincronizzazione di tutti i contenuti, Amazon Bedrock aggiornerà la knowledge base con contenuti nuovi e modificati e rimuoverà i vecchi contenuti non più presenti. Occasionalmente, il crawler potrebbe non essere in grado di determinare se un contenuto è stato rimosso dal sito web; in tal caso, opterà per la conservazione del contenuto precedente nella tua knowledge base.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Connettiti a un’origine dati a cui collegare il crawler web per la tua knowledge base.**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Crawler web** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci gli **URL di origine** degli URL che desideri sottoporre a crawling. Puoi aggiungere fino a nove URL aggiuntivi selezionando **Aggiungi URL di origine**. Fornendo un URL di origine, confermi di avere l’autorizzazione a eseguire il crawling del relativo dominio.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. (Opzionale) Fornisci un suffisso user agent per **bedrock-UUID-**, che identifichi il crawler o il bot quando accede a un server web.

1. Configurate quanto segue nella sezione **Ambito di sincronizzazione**:

   1. Seleziona un **intervallo di domini del sito web** per il crawling degli URL di origine:
      + Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
      + Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
      + Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.
**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

   1. Immetti la **Limitazione (della larghezza di banda della rete) massima della velocità di crawling**. Importa URL compresi tra 1 e 300 URL per host al minuto. Una velocità di crawling più elevata aumenta il carico ma richiede meno tempo.

   1. Inserisci un **numero massimo di pagine per la sincronizzazione delle origini dati** compreso tra 1 e 25.000. Limita il numero massimo di pagine web sottoposta a crawling dagli URL di origine. Se le pagine web superano questo numero, la sincronizzazione delle origini dati avrà esito negativo e non verrà importata alcuna pagina web. 

   1. Per i modelli **Regex URL** (opzionale) puoi aggiungere **Includi modelli** o **Escludi modelli** inserendo il modello di espressione regolare nella casella. Puoi aggiungere fino a 25 modelli di filtro di inclusione e 25 di esclusione selezionando **Aggiungi nuovo modello**. I modelli di inclusione ed esclusione vengono sottoposti a crawling in base all’ambito. In caso di conflitto, il modello di esclusione ha la precedenza.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Per connettere una knowledge base a un’origine dati utilizzando il crawler web, invia una richiesta [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specifica `WEB` nel campo `type` di [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) e includi il campo `webConfiguration`. Di seguito è riportato un esempio di configurazione di crawler web per Knowledge Base per Amazon Bedrock.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

------

# Connessione della knowledge base a un’origine dati personalizzata
<a name="custom-data-source-connector"></a>

Invece di scegliere un servizio di origine dati supportato, puoi connetterti a un’origine dati personalizzata per ottenere i seguenti vantaggi:
+ Flessibilità e controllo sui tipi di dati a cui desideri che la tua knowledge base abbia accesso.
+ La possibilità di utilizzare le operazioni API `KnowledgeBaseDocuments` per importare o eliminare direttamente i documenti senza necessità di sincronizzare le modifiche.
+ La possibilità di visualizzare i documenti nell’origine dati direttamente tramite la console o l’API Amazon Bedrock.
+ La possibilità di caricare documenti nella fonte dati direttamente in Console di gestione AWS o di aggiungerli in linea.
+ La possibilità di aggiungere metadati direttamente a ciascun documento durante l’aggiunta o l’aggiornamento di un documento nell’origine dati. Per ulteriori informazioni su come utilizzare i metadati per il filtraggio durante il recupero di informazioni da un’origine dati, consulta la scheda **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Supporto di contenuti multimodali**  
Le fonti di dati personalizzate supportano contenuti multimodali tra cui immagini, file audio e video con codifica base64 fino a 10 MB. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per connettere una knowledge base a un'origine dati personalizzata, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta a un endpoint in fase di [costruzione di Agents for Amazon Bedrock.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) Specifica la `knowledgeBaseId` della knowledge base a cui connetterti, assegna un `name` all’origine dati e specifica il campo `type` nella `dataSourceConfiguration` come `CUSTOM`. Di seguito è riportato un esempio minimo per creare questa origine dati:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Puoi includere uno qualsiasi dei seguenti campi opzionali per configurare l’origine dati:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionConfigurazione | Per specificare una chiave KMS personalizzata per l’archiviazione di dati transitori durante la conversione dei dati in embedding. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion) | 
| dataDeletionPolicy | Per configurare cosa fare con gli embedding vettoriali per l’origine dati nel tuo archivio di vettori, se elimini l’origine dati. Specifica RETAIN per mantenere i dati nell’archivio di vettori o l’opzione predefinita di DELETE per eliminarli. | 
| vectorIngestionConfiguration | Per configurare le opzioni per l’importazione dell’origine dati. Per ulteriori informazioni, vedere di seguito. | 

Il `vectorIngestionConfiguration` campo è mappato su un [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)oggetto contenente i seguenti campi:
+ chunkingConfiguration: per configurare la strategia da utilizzare per il chunking dei documenti nell’origine dati. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
+ parsingConfiguration: per configurare la strategia da utilizzare per l’analisi dell’origine dati. Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
+ customTransformationConfiguration — Personalizzare il modo in cui i dati vengono trasformati e applicare una funzione Lambda per una maggiore personalizzazione. Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

Dopo aver configurato l’origine dati personalizzata, puoi aggiungere documenti al suo interno e importarli direttamente nella knowledge base. A differenza di altre origini dati, non è necessario sincronizzare un’origine dati personalizzata. Per informazioni su come importare direttamente i documenti, consulta [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).

# Personalizzare l’importazione per un’origine dati
<a name="kb-data-source-customize-ingestion"></a>

È possibile personalizzare l'ingestione vettoriale quando si collega un'origine dati in Console di gestione AWS o modificando il valore del `vectorIngestionConfiguration` campo quando si invia una richiesta. [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)

Selezionare un argomento per scoprire come includere configurazioni per personalizzare l’importazione durante la connessione a un’origine dati:

**Topics**
+ [Scegliere lo strumento da utilizzare per l’analisi](#kb-data-source-customize-parsing)
+ [Scegliere una strategia di chunking](#kb-data-source-customize-chunking)
+ [Utilizzare una funzione Lambda durante l’importazione](#kb-data-source-customize-lambda)

## Scegliere lo strumento da utilizzare per l’analisi
<a name="kb-data-source-customize-parsing"></a>

È possibile personalizzare il modo in cui vengono analizzati i documenti nei dati. Per ulteriori informazioni sulle opzioni per l’analisi dei dati in Knowledge Base per Amazon Bedrock, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di analisi. Per utilizzare una strategia di analisi diversa, è possibile aggiungere una nuova origine dati.  
Non è possibile aggiungere una posizione S3 per archiviare dati multimodali (tra cui immagini, figure, grafici e tabelle) dopo aver creato una knowledge base. Per includere i dati multimodali e utilizzare un parser che li supporti, è necessario creare una nuova knowledge base.

I passaggi necessari per la scelta di una strategia di analisi dipendono dal fatto che utilizzi l' Console di gestione AWS API Amazon Bedrock e dal metodo di analisi scelto. Se viene scelto un metodo di analisi che supporta i dati multimodali, è necessario specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti. Questi dati possono essere restituiti nella query della knowledge base.
+ In Console di gestione AWS, procedi come segue:

  1. Selezionare la strategia di analisi quando ci si connette a un’origine dati durante la configurazione di una knowledge base o quando si aggiunge una nuova origine dati alla knowledge base esistente.

  1. (Se si sceglie Amazon Bedrock Data Automation o un modello di fondazione come strategia di analisi) Specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti nella sezione **Destinazione di archiviazione multimodale** quando si seleziona un modello di embedding e si configura l’archivio vettoriale. In questa fase è inoltre possibile utilizzare una chiave gestita dal cliente per criptare i dati S3.
+ Nell’API Amazon Bedrock, procedere come segue:

  1. (Se prevedi di utilizzare Amazon Bedrock Data Automation o un modello base come strategia di analisi) [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html)Includi una [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)richiesta. [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)

  1. [ParsingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ParsingConfiguration.html)Includi un nel `parsingConfiguration` campo della [VectorIngestionConfiguration[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)richiesta.
**Nota**  
Se si omette questa configurazione, Knowledge Base per Amazon Bedrock utilizza il parser predefinito di Amazon Bedrock.

Per ulteriori dettagli su come specificare una strategia di analisi nell’API, espandere la sezione corrispondente alla strategia di analisi che si desidera utilizzare:

### Parser predefinito di Amazon Bedrock
<a name="w2aac28c10c23c15c17c11c13b1"></a>

Per utilizzare il parser predefinito, non includere un campo `parsingConfiguration` nella `VectorIngestionConfiguration`.

### Parser di Amazon Bedrock Data Automation (anteprima)
<a name="w2aac28c10c23c15c17c11c13b3"></a>

Per utilizzare il parser Amazon Bedrock Data Automation, specifica `BEDROCK_DATA_AUTOMATION` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockDataAutomationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockDataAutomationConfiguration.html)nel `bedrockDataAutomationConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_DATA_AUTOMATION",
    "bedrockDataAutomationConfiguration": {
        "parsingModality": "string"
    }
}
```

### Modello di fondazione
<a name="w2aac28c10c23c15c17c11c13b5"></a>

Per utilizzare un modello di base come parser, specifica il `BEDROCK_FOUNDATION_MODEL` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockFoundationModelConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockFoundationModelConfiguration.html)nel `bedrockFoundationModelConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_FOUNDATION_MODEL",
    "bedrockFoundationModelConfiguration": {
        "modelArn": "string",
        "parsingModality": "string",
        "parsingPrompt": {
            "parsingPromptText": "string"
        }
    }
}
```

## Scegliere una strategia di chunking
<a name="kb-data-source-customize-chunking"></a>

È possibile personalizzare il modo in cui i documenti contenuti nei dati vengono suddivisi in blocchi per l’archiviazione e il recupero. Per ulteriori informazioni sulle opzioni per il chunking dei dati in Knowledge Base per Amazon Bedrock, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.

Nella Console di gestione AWS scegli la strategia di suddivisione in blocchi quando ti connetti a una fonte di dati. Con l'API Amazon Bedrock, includi un [ChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChunkingConfiguration.html)nel `chunkingConfiguration` campo di [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html).

**Nota**  
Se si omette questa configurazione, Amazon Bedrock divide i contenuti in blocchi di circa 300 token, preservando i limiti delle frasi.

Espandere la sezione corrispondente alla strategia di analisi desiderata:

### Nessun chunking
<a name="w2aac28c10c23c15c17c13c13b1"></a>

Per trattare ogni documento dell’origine dati come un singolo blocco di origine, specificare `NONE` nel campo `chunkingStrategy` della `ChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "NONE"
}
```

### Chunking a dimensioni fisse
<a name="w2aac28c10c23c15c17c13c13b3"></a>

Per dividere ogni documento della tua fonte di dati in blocchi di circa le stesse dimensioni, specifica `FIXED_SIZE` nel `chunkingStrategy` campo di `ChunkingConfiguration` e includi un [FixedSizeChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_FixedSizeChunkingConfiguration.html)nel `fixedSizeChunkingConfiguration` campo, come nel seguente formato:

```
{
    "chunkingStrategy": "FIXED_SIZE",
    "fixedSizeChunkingConfiguration": {
        "maxTokens": number,
        "overlapPercentage": number
    }
}
```

### Chunking gerarchico
<a name="w2aac28c10c23c15c17c13c13b5"></a>

Per dividere ogni documento nell’origine dati in due livelli, in cui il secondo livello contiene blocchi più piccoli derivati dal primo livello, specificare `HIERARCHICAL` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo `hierarchicalChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "HIERARCHICAL",
    "hierarchicalChunkingConfiguration": {
        "levelConfigurations": [{
            "maxTokens": number
        }],
        "overlapTokens": number
    }
}
```

### Chunking semantico
<a name="w2aac28c10c23c15c17c13c13b7"></a>

Per dividere ogni documento nell’origine dati in blocchi che danno priorità al significato semantico rispetto alla struttura sintattica, specificare `SEMANTIC` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo, come `semanticChunkingConfiguration` nel seguente formato:

```
{
    "chunkingStrategy": "SEMANTIC",
    "semanticChunkingConfiguration": {
        "breakpointPercentileThreshold": number,
        "bufferSize": number,
        "maxTokens": number
    }
}
```

## Utilizzare una funzione Lambda durante l’importazione
<a name="kb-data-source-customize-lambda"></a>

È possibile post-elaborare il modo in cui i blocchi di origine dati vengono scritti nell’archivio vettoriale con una funzione Lambda nei seguenti modi:
+ Includere la logica di chunking per fornire una strategia di chunking personalizzata.
+ Includere la logica per specificare i metadati a livello di blocco.

Per ulteriori informazioni sulla creazione di una funzione Lambda; personalizzata per l’importazione, consultare [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md). Nella Console di gestione AWS scegli la funzione Lambda quando ti connetti a un'origine dati. Con l'API Amazon Bedrock, includi un [CustomTransformationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CustomTransformationConfiguration.html)nel `CustomTransformationConfiguration` campo [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)e specifichi l'ARN della Lambda, come nel seguente formato:

```
{
    "transformations": [{
        "transformationFunction": {
            "transformationLambdaConfiguration": {
                "lambdaArn": "string"
            }
        },
        "stepToApply": "POST_CHUNKING"
    }],
    "intermediateStorage": {
        "s3Location": {
            "uri": "string"
        }
    }
}
```

È inoltre necessario specificare la posizione S3 in cui archiviare l’output dopo aver applicato la funzione Lambda.

Dopo aver applicato una delle opzioni di chunking disponibili in da Amazon Bedrock, è possibile includere il campo `chunkingConfiguration` per applicare la funzione Lambda.

# Definire le configurazioni di sicurezza per una knowledge base
<a name="kb-create-security"></a>

Dopo aver creato una knowledge base, potrebbe essere necessario definire le seguenti configurazioni di sicurezza:

**Topics**
+ [Configurare policy di accesso ai dati per una knowledge base](#kb-create-security-data)
+ [Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless](#kb-create-security-network)

## Configurare policy di accesso ai dati per una knowledge base
<a name="kb-create-security-data"></a>

Se utilizzi un [ruolo personalizzato](kb-permissions.md), definisci le configurazioni di sicurezza per la tua nuova knowledge base creata. Se consenti ad Amazon Bedrock di creare un ruolo di servizio per te, puoi ignorare questa fase. Segui i passaggi nella scheda corrispondente al database che hai configurato.

------
#### [ Amazon OpenSearch Serverless ]

Per limitare l'accesso alla raccolta Amazon OpenSearch Serverless al ruolo di servizio della knowledge base, crea una policy di accesso ai dati. Questa operazione può essere eseguita nei modi seguenti:
+ Utilizza la console di Amazon OpenSearch Service seguendo i passaggi descritti in [Creazione di politiche di accesso ai dati (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-console) nella Amazon OpenSearch Service Developer Guide.
+ Usa l'AWSAPI inviando una [CreateAccessPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_CreateAccessPolicy.html)richiesta con un [endpoint OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Per un AWS CLI esempio, consulta [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

Utilizza la seguente politica di accesso ai dati, specificando la raccolta Amazon OpenSearch Serverless e il tuo ruolo di servizio:

```
[
    {
        "Description": "${data access policy description}",
        "Rules": [
          {
            "Resource": [
              "index/${collection_name}/*"
            ],
            "Permission": [
                "aoss:DescribeIndex",
                "aoss:ReadDocument",
                "aoss:WriteDocument"
            ],
            "ResourceType": "index"
          }
        ],
        "Principal": [
            "arn:aws:iam::${account-id}:role/${kb-service-role}"
        ]
    }
]
```

------
#### [ Pigna, Redis Enterprise Cloud or MongoDB Atlas ]

Per integrare un indice vettoriale MongoDB Atlas PineconeRedis Enterprise Cloud, allega la seguente politica basata sull'identità al ruolo del servizio della Knowledge Base per consentirgli di accedere al segreto per l'indice vettoriale. Gestione dei segreti AWS

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
        "Effect": "Allow",
        "Action": [
            "bedrock:AssociateThirdPartyKnowledgeBase"
        ],
        "Resource": "*",
        "Condition": {
            "StringEquals": {
                "bedrock:ThirdPartyKnowledgeBaseCredentialsSecretArn": "arn:aws:secretsmanager:us-east-1:123456789012:secret:${secret-id}"
            }
        }
    }]
}
```

------

------

## Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless
<a name="kb-create-security-network"></a>

Se utilizzi una raccolta privata Amazon OpenSearch Serverless per la tua knowledge base, è possibile accedervi solo tramite un endpoint AWS PrivateLink VPC. Puoi creare una raccolta Amazon OpenSearch Serverless privata quando [configuri la tua raccolta vettoriale Amazon OpenSearch Serverless oppure puoi rendere privata una raccolta](knowledge-base-setup.md) Amazon Serverless esistente (inclusa una raccolta Amazon OpenSearch Serverless creata per te dalla console Amazon Bedrock) quando configuri la politica di accesso alla rete.

Le seguenti risorse nell'Amazon OpenSearch Service Developer Guide ti aiuteranno a comprendere la configurazione richiesta per una raccolta Amazon OpenSearch Serverless privata:
+ Per ulteriori informazioni sulla configurazione di un endpoint VPC per una raccolta Amazon Serverless privata, consulta Accedere ad [Amazon OpenSearch OpenSearch Serverless usando un](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) endpoint di interfaccia (). AWS PrivateLink
+ Per ulteriori informazioni sulle politiche di accesso alla rete in Amazon OpenSearch Serverless, consulta [Accesso alla rete per Amazon OpenSearch Serverless](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html).

Per consentire a una knowledge base Amazon Bedrock di accedere a una raccolta Amazon OpenSearch Serverless privata, devi modificare la politica di accesso alla rete per la raccolta Amazon OpenSearch Serverless per consentire Amazon Bedrock come servizio di origine. Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

1. Apri la console Amazon OpenSearch Service all'indirizzo [https://console.aws.amazon.com/aos/](https://console.aws.amazon.com/aos/).

1. Seleziona **Raccolte** nel riquadro di navigazione a sinistra. Scegli la tua raccolta.

1. Nella sezione **Rete** seleziona la **policy associata**.

1. Scegli **Modifica**.

1. Per **Seleziona il metodo di definizione della policy**, esegui una delle seguenti operazioni:
   + Mantieni l’opzione **Seleziona il metodo di definizione della policy** impostata su **Editor visivo** e configura le seguenti impostazioni nella sezione **Regola 1**:

     1. (Facoltativo) Nel campo **Nome regola** immetti un nome per la regola di accesso alla rete.

     1. In **Accesso alle raccolte da**, seleziona **Privato (consigliato)**.

     1. Seleziona **Accesso privato al servizio AWS**. Immetti **bedrock.amazonaws.com** nella casella di testo.

     1. Deseleziona **Abilita l'accesso ai OpenSearch pannelli di controllo**.
   + Scegli **JSON** e incolla la seguente policy nell’**editor JSON**.

     ```
     [
         {                                        
             "AllowFromPublic": false,
             "Description":"${network access policy description}",
             "Rules":[
                 {
                     "ResourceType": "collection",
                     "Resource":[
                         "collection/${collection-id}"
                     ]
                 }
             ],
             "SourceServices":[
                 "bedrock.amazonaws.com"
             ]
         }
     ]
     ```

1. Scegliere **Aggiorna**.

------
#### [ API ]

Per modificare la politica di accesso alla rete per la tua raccolta Amazon OpenSearch Serverless, procedi come segue:

1. Invia una [GetSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_GetSecurityPolicy.html)richiesta con un endpoint [OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica l’elemento `name` della policy e `type` come `network`. Prendere nota dell'ID `policyVersion` nella risposta.

1. Invia una [UpdateSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_UpdateSecurityPolicy.html)richiesta con un endpoint [OpenSearch serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica almeno i seguenti campi:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-create-security.html)

   ```
   [
       {                                        
           "AllowFromPublic": false,
           "Description":"${network access policy description}",
           "Rules":[
               {
                   "ResourceType": "collection",
                   "Resource":[
                       "collection/${collection-id}"
                   ]
               }
           ],
           "SourceServices":[
               "bedrock.amazonaws.com"
           ]
       }
   ]
   ```

Per un AWS CLI esempio, vedi [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

------
+ Utilizza la console OpenSearch di Amazon Service seguendo la procedura descritta in [Creazione di politiche di rete (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html#serverless-network-console). Invece di creare una policy di rete, prendi nota della **policy associata** nella sottosezione **Rete** dei dettagli della raccolta.

# Sincronizzare i dati con Knowledge Base per Amazon Bedrock
<a name="kb-data-source-sync-ingest"></a>

Dopo aver creato la knowledge base, importare o sincronizzare i dati in modo che possano essere interrogati. L’importazione converte i dati grezzi dell’origine dati in embedding vettoriali, in base al modello di embedding vettoriali e alle configurazioni specificati.

Prima di iniziare l’importazione, verificare che l’origine dati soddisfi le seguenti condizioni:
+ Le informazioni sulla connessione dell’origine dati sono state configurate. Per configurare un connettore di origine dati per eseguire la scansione dei dati dal repository di origini dati, consultare [Connettori di origine dati supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html). La configurazione dell’origine dati viene effettuata nell’ambito della creazione della knowledge base.
+ Il modello di embedding vettoriali e l’archivio vettoriale scelti sono stati configurati. Consultare [Modelli di embedding vettoriali supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html) e [Archivi vettoriali per knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html). La configurazione degli embedding vettoriali viene effettuata nell’ambito della creazione della knowledge base.
+ I file sono nei formati supportati. Per ulteriori informazioni, consulta [Formati di documenti supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ I file non superano le **dimensioni del file del processo di importazione** specificate in [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) nei Riferimenti generali di AWS.
+ Se l’origine dati contiene file di metadati, verificare le seguenti condizioni per garantire che i file di metadati non vengano ignorati:
  + Ogni `.metadata.json` file condivide lo stesso nome e la stessa estensione del file di origine a cui è associato.
  + Se l’indice vettoriale per la knowledge base si trova in un archivio vettoriale Amazon OpenSearch Serverless, verificare che l’indice vettoriale sia configurato con il motore `faiss`. Se l’indice vettoriale è configurato con il motore `nmslib`, eseguire una delle seguenti operazioni:
    + [Creare una nuova knowledge base](knowledge-base-create.md) nella console e consentire ad Amazon Bedrock di creare automaticamente un indice vettoriale in Amazon OpenSearch Serverless.
    + [Creare un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale e selezionare `faiss` come **motore**. Poi [creare una nuova knowledge base](knowledge-base-create.md) e specificare il nuovo indice vettoriale.
  + Se l’indice vettoriale per la knowledge base si trova in un cluster di database Amazon Aurora, consigliamo di utilizzare il campo dei metadati personalizzati per archiviare tutti i metadati in un’unica colonna e creare un indice su questa colonna. Se il campo dei metadati personalizzati non è specificato, è necessario verificare che la tabella dell’indice contenga una colonna per ogni proprietà dei metadati nei file di metadati prima di iniziare l’importazione. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).

Ogni volta che vengono aggiunti, modificati o rimossi file dall’origine dati, è necessario sincronizzare l’origine dati in modo che venga reindicizzata nella knowledge base. La sincronizzazione è incrementale, quindi Amazon Bedrock elabora solo i documenti aggiunti, modificati o eliminati dall’ultima sincronizzazione.

Per sapere come inserire i dati nella tua knowledge base e sincronizzarli con i dati più recenti, scegliere la scheda corrispondente al metodo preferito, poi seguire la procedura:

------
#### [ Console ]

**Come importare i dati nella knowledge base e sincronizzarli con i dati più recenti**

1. Apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Dal riquadro di navigazione a sinistra, seleziona la tua knowledge base da **Knowledge base**.

1. Nella sezione **Origine dati**, seleziona **Sincronizza** per iniziare l’importazione dei dati o la sincronizzazione dei dati più recenti. Per interrompere la sincronizzazione di un’origine dati attualmente in corso, seleziona **Interrompi**. Per interrompere la sincronizzazione dell’origine dati, la sincronizzazione dell’origine dati deve essere attualmente in esecuzione. Puoi selezionare nuovamente **Sincronizza** per importare il resto dei tuoi dati.

1. Al termine dell’importazione dei dati, se l’operazione è riuscita, viene visualizzato un banner verde.
**Nota**  
Una volta completata la sincronizzazione dei dati, potrebbero essere necessari alcuni minuti prima che gli embedding vettoriali dei dati appena sincronizzati si riflettano nella knowledge base e siano disponibili per essere interrogati se viene utilizzato un archivio vettoriale diverso da Amazon Aurora (RDS).

1. Puoi scegliere un’origine dati per visualizzarne la **cronologia di sincronizzazione**. Seleziona **Visualizza avvisi** per scoprire perché un processo di importazione dei dati non è riuscito.

------
#### [ API ]

Per importare i dati nella knowledge base e sincronizzarli con i dati più recenti, invia una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `knowledgeBaseId` e il `dataSourceId`. Puoi anche interrompere un processo di importazione dei dati attualmente in esecuzione inviando una richiesta [StopIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html). Specifica il `dataSourceId`, il `ingestionJobId` e il `knowledgeBaseId`. Per interrompere l’importazione dei dati, il processo deve essere attualmente in esecuzione. Puoi inviare nuovamente una richiesta `StartIngestionJob` per importare il resto dei tuoi dati quando è tutto pronto.

Utilizza il `ingestionJobId` restituito nella risposta in una richiesta [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) per monitorare lo stato del processo di importazione. Inoltre, specifica il `knowledgeBaseId` e il `dataSourceId`.
+ Al termine del processo di importazione, lo `status` della risposta è `COMPLETE`.
**Nota**  
Una volta completata l’importazione dei dati, potrebbero essere necessari alcuni minuti prima che gli embedding vettoriali dei dati appena importati siano disponibili nell’archivio vettoriale per essere interrogati se viene utilizzato un archivio vettoriale diverso da Amazon Aurora (RDS).
+ L’oggetto `statistics` nella risposta restituisce informazioni sull’esito, positivo o negativo, dell’importazione dei documenti nell’origine dati.

Puoi anche visualizzare le informazioni per tutti i processi di importazione per un’origine dati inviando una richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `dataSourceId` e il `knowledgeBaseId` della knowledge base in cui vengono importati i dati.
+ Filtra i risultati specificando lo stato da cercare nell’oggetto `filters`.
+ Ordina in base all’ora di avvio del processo o allo stato di un processo specificando l’oggetto `sortBy`. Puoi scegliere l’ordinamento crescente o decrescente.
+ Puoi impostare il numero massimo di risultati che dovranno essere restituiti nella risposta nel campo `maxResults`. Se i risultati sono superiori al numero impostato, la risposta restituisce un `nextToken` che puoi inviare in un’altra richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) per visualizzare il successivo batch di processi.

------

# Importare le modifiche direttamente in una knowledge base
<a name="kb-direct-ingestion"></a>

Knowledge Base per Amazon Bedrock consente di modificare l’origine dati e sincronizzare le modifiche in un’unica fase. Puoi sfruttare questa funzionalità se la tua knowledge base è connessa a uno dei seguenti tipi di origine dati:
+ Amazon S3
+ Personalizza

Con l’importazione diretta, puoi aggiungere, aggiornare o eliminare direttamente i file in una knowledge base con un’unica azione e la knowledge base può avere accesso ai documenti senza la necessità di sincronizzarli. L’importazione diretta utilizza le operazioni API `KnowledgeBaseDocuments` per indicizzare i documenti inviati direttamente nell’archivio vettoriale configurato per la knowledge base. È inoltre possibile visualizzare i documenti della knowledge base direttamente con queste operazioni, anziché dover accedere all’origine dati connessa per visualizzarli.

## Differenze rispetto alla sincronizzazione di un’origine dati
<a name="kb-direct-ingestion-sync-diff"></a>

Knowledge Base per Amazon Bedrock offre anche una serie di operazioni API `IngestionJob` relative alla [sincronizzazione dell’origine dati](kb-data-source-sync-ingest.md). Quando sincronizzi la tua origine dati con una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html), Knowledge Base per Amazon Bedrock scansiona ogni documento nell’origine dati collegata e verifica se è già stato indicizzato nell’archivio vettoriale configurato per la knowledge base. In caso contrario, viene indicizzato nell’archivio vettoriale.

Con una richiesta [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html) si invia una serie di documenti da indicizzare direttamente nell’archivio vettoriale, ignorando, dunque, la fase di aggiunta di documenti nell’origine dati. Consulta i paragrafi seguenti per comprendere il caso d’uso di questi due set di operazioni API:

**In caso di utilizzo di un’origine dati personalizzata**  
Non è necessario sincronizzare o utilizzare le operazioni `IngestionJob`. I documenti che aggiungi, modifichi o elimini con le operazioni `KnowledgeBaseDocuments` o nella Console di gestione AWS diventano parte sia dell’origine dati personalizzata che della tua knowledge base.

**In caso di utilizzo di un’origine dati Amazon S3**  
I due set di operazioni vengono utilizzati in diversi casi d’uso:
+ Dopo aver collegato la knowledge base all’origine dati S3 per la prima volta, devi sincronizzare l’origine dati nella Console di gestione AWS o inviando una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) tramite l’API Amazon Bedrock.
+ Indicizza i documenti nell’archivio vettoriale configurato per la tua knowledge base o rimuovi i documenti indicizzati nei seguenti modi:

  1. Aggiungi documenti nella tua posizione S3 o elimina documenti dal suo interno. Sincronizza la tua origine dati nella Console di gestione AWS o invia una richiesta `StartIngestionJob` nell’API. Per informazioni dettagliate sulla sincronizzazione e sull’operazione `StartIngestionJob`, consulta [Sincronizzare i dati con Knowledge Base per Amazon Bedrock](kb-data-source-sync-ingest.md).

  1. Importa documenti S3 nella knowledge base direttamente con una richiesta `IngestKnowledgeBaseDocuments`. Per informazioni dettagliate sull’importazione diretta di documenti, consulta [Importare documenti direttamente in una knowledge base](kb-direct-ingestion-add.md).
**avvertimento**  
Per le origini dati S3, qualsiasi modifica indicizzata nella knowledge base direttamente nella Console di gestione AWS o con le operazioni API `KnowledgeBaseDocuments` non si riflette nella posizione S3. Puoi utilizzare queste operazioni API per rendere immediatamente disponibili le modifiche nella tua knowledge base in un’unica fase. Tuttavia, dovresti seguire con l’aggiornamento delle stesse modifiche nella posizione S3, in modo che non vengano sovrascritte la prossima volta che sincronizzi la tua origine dati nella Console di gestione AWS o con `StartIngestionJob`.  
Non inviare richieste `IngestKnowledgeBaseDocuments` e `StartIngestionJob` contemporaneamente.

Seleziona un argomento per scoprire come eseguire l’importazione diretta dei documenti nelle tue origini dati:

**Topics**
+ [Differenze rispetto alla sincronizzazione di un’origine dati](#kb-direct-ingestion-sync-diff)
+ [Prerequisiti per l’importazione diretta](kb-direct-ingestion-prereq.md)
+ [Importare documenti direttamente in una knowledge base](kb-direct-ingestion-add.md)
+ [Visualizzare le informazioni sui documenti nell’origine dati](kb-direct-ingestion-view.md)
+ [Eliminare documenti direttamente da una knowledge base](kb-direct-ingestion-delete.md)

# Prerequisiti per l’importazione diretta
<a name="kb-direct-ingestion-prereq"></a>

Per utilizzare l’importazione diretta, un ruolo IAM deve disporre delle autorizzazioni per utilizzare le operazioni API `KnowledgeBaseDocs`. Se al tuo ruolo IAM è allegata la policy [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSgestita, puoi saltare questa sezione.

La seguente policy può essere associata a un ruolo IAM per consentirgli di eseguire l’importazione diretta sulle knowledge base specificate nel campo `Resource`.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "DirectIngestion",
            "Effect": "Allow",
            "Action": [
                "bedrock:StartIngestionJob",
                "bedrock:IngestKnowledgeBaseDocuments",
                "bedrock:GetKnowledgeBaseDocuments",
                "bedrock:ListKnowledgeBaseDocuments",
                "bedrock:DeleteKnowledgeBaseDocuments"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        }
    ]
}
```

------

Per limitare ulteriormente le autorizzazioni, è possibile omettere azioni o specificare risorse e chiavi di condizione con cui filtrare le autorizzazioni. Per ulteriori informazioni su azioni, risorse e chiavi di condizione, consultare i seguenti argomenti nella *documentazione di riferimento per l’autorizzazione al servizio*:
+ [Azioni definite da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions): scopri le azioni, i tipi di risorsa a cui è possibile limitarle nel campo `Resource` e le chiavi di condizione in base alle quali puoi filtrare le autorizzazioni nel campo `Condition`.
+ [Tipi di risorsa definiti da Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies): scopri i tipi di risorsa in Amazon Bedrock.
+ [Chiavi di condizione per Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys): scopri le chiavi di condizione in Amazon Bedrock.

# Importare documenti direttamente in una knowledge base
<a name="kb-direct-ingestion-add"></a>

Questo argomento illustra come importare documenti direttamente in una knowledge base. In base all’origine dati, si applicano restrizioni ai tipi di documenti che è possibile importare direttamente. Per le restrizioni sui metodi che si possono utilizzare per specificare i documenti da importare, consulta la tabella seguente:


****  

| Tipo di origine dati | Documento definito in linea | Documento nella posizione di Amazon S3 | 
| --- | --- | --- | 
| Simple Storage Service (Amazon S3) | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-no.png)No | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 
| Personalizzato | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/icons/icon-yes.png)Sì | 

Espandi la sezione corrispondente al caso d’uso specifico:

**Nota**  
Quando usi la console, puoi importare fino a 10 documenti direttamente nella knowledge base. Se invece utilizzi l’API `IngestKnowledgeBaseDocuments`, nella knowledge base puoi importare fino a 25 documenti. Per ulteriori informazioni sulla quota, consulta [Quote di servizio di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) nella guida *Riferimenti generali di AWS *.

## Eliminare con la console
<a name="kb-direct-ingestion-add-console"></a>

Per aggiungere o modificare documenti direttamente in Console di gestione AWS, procedi come segue:

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, seleziona la knowledge base in cui importare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati per cui desideri aggiungere, modificare o eliminare documenti.

1. Nella sezione **Documenti**, scegli **Aggiungi documenti**. Effettua quindi una delle seguenti operazioni:
   + Per aggiungere o modificare direttamente un documento, seleziona **Aggiungi documenti direttamente**. Successivamente, esegui queste operazioni:

     1. Nel campo **Identificatore del documento**, specifica un nome univoco per il documento. Se si specifica un nome già esistente nell’origine dati, il documento viene sostituito.

     1. Per caricare un documento, seleziona **Carica**. Per definire un documento in linea, seleziona **Aggiungi documento in linea**, scegli un formato e inserisci il testo del documento nella casella.

     1. (Facoltativo) Per associare i metadati al documento, seleziona **Aggiungi metadati** e immetti una chiave, un tipo e un valore.
   + Per aggiungere o modificare un documento specificandone la posizione S3, seleziona **Aggiungi documenti S3**. Successivamente, esegui queste operazioni:

     1. Nel campo **Identificatore del documento**, specifica un nome univoco per il documento. Se si specifica un nome già esistente nell’origine dati, il documento viene sostituito.

     1. Specificate se la **posizione S3** del documento si trova nel vostro AWS account corrente o in un altro. Successivamente, specifica l’URI S3 del documento.

     1. (Facoltativo) Per associare i metadati al documento, scegli un valore nel campo **Origine dei metadati**. Specifica l’URI S3 dei metadati o seleziona **Aggiungi metadati** e immetti una chiave, un tipo e un valore.

1. Per importare il documento e i metadati associati, scegli **Aggiungi**.

## Eliminare con l’API
<a name="kb-direct-ingestion-add-api"></a>

Per importare documenti direttamente in una knowledge base utilizzando l'API Amazon Bedrock, invia una [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)richiesta a un [endpoint di build Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica l'ID della knowledge base e della fonte di dati a cui è collegata.

**Nota**  
Se si specifica un identificatore del documento o una posizione S3 già esistente nella knowledge base, il documento viene sovrascritto con il nuovo contenuto.

Il corpo della richiesta contiene un campo che corrisponde a una serie di [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetti, ognuno dei quali rappresenta il contenuto e i metadati opzionali di un documento da aggiungere alla fonte di dati e da inserire nella knowledge base. `documents` Un oggetto [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html) contiene i campi seguenti:
+ contenuto: esegue il mapping su un [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto contenente informazioni sul contenuto del documento da aggiungere.
+ metadati: (Facoltativo) esegue il mapping su un [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto contenente informazioni sui metadati del documento da aggiungere. Per ulteriori informazioni sull’utilizzo dei metadati durante il recupero, consulta la sezione **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

Seleziona un argomento per scoprire come importare documenti per diversi tipi di origini dati o per visualizzare esempi:

**Topics**
+ [Importare un documento in una knowledge base connessa a un’origine dati personalizzata](#kb-direct-ingestion-add-custom)
+ [Importare un documento in una knowledge base connessa a un’origine dati Amazon S3](#kb-direct-ingestion-add-s3)
+ [Esempio di corpi della richiesta](#w2aac28c10c23c19c17c11b3c19)

### Importare un documento in una knowledge base connessa a un’origine dati personalizzata
<a name="kb-direct-ingestion-add-custom"></a>

`dataSourceId`Se l'oggetto specificato appartiene a un'origine dati personalizzata, è possibile aggiungere contenuto e metadati per ogni [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetto dell'array. `documents`

Il contenuto di un documento aggiunto a un’origine dati personalizzata può essere definito nei modi seguenti:

#### Definire il documento in linea
<a name="kb-direct-ingestion-add-custom-inline"></a>

È possibile definire i seguenti tipi di documenti in linea:

------
#### [ Text ]

Se il documento è testo, l'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto deve avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "textContent": { 
                "data": "string"
            },
            "type": "TEXT"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id` e il testo del documento nel campo `data`.

------
#### [ Bytes ]

Se il documento contiene altri elementi oltre al testo, convertilo in una stringa Base64. L'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto dovrebbe quindi avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "byteContent": { 
                "data": blob,
                "mimeType": "string"
            },
            "type": "BYTE"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id`, il documento con codifica Base64 nel `data` e il tipo MIME nel campo `mimeType`.

------

#### Importare il documento da S3
<a name="w2aac28c10c23c19c17c11b3c15b7b3"></a>

Se state importando un documento da una posizione S3, l'[DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto nel `content` campo deve avere il seguente formato:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "s3Location": { 
            "bucketOwnerAccountId": "string",
            "uri": "string"
        },
        "sourceType": "S3"
    },
    "dataSourceType": "CUSTOM"
}
```

Includi un ID per il documento nel campo `id`, il proprietario del bucket S3 che contiene il documento nel campo `bucketOwnerAccountId` e l’URI S3 del documento nel campo `uri`.

I metadati di un documento possono essere definiti nei modi seguenti:

#### Definire i metadati in linea
<a name="w2aac28c10c23c19c17c11b3c15c11b1"></a>

Se definisci i metadati in linea, l'[DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto nel `metadata` campo deve avere il seguente formato:

```
{ 
    "inlineAttributes": [ 
        { 
            "key": "string",
            "value": { 
                "stringValue": "string",
                "booleanValue": boolean,
                "numberValue": number,
                "stringListValue": [ "string" ],
                "type": "STRING" | "BOOLEAN" | "NUMBER" | "STRING_LIST"
            }
        }
    ],
    "type": "IN_LINE_ATTRIBUTE"
}
```

Per ogni attributo aggiunto, definisci la chiave nel campo `key`. Specifica il tipo di dati del valore nel campo `type` e includi il campo che corrisponde al tipo di dati. Ad esempio, se includi una stringa, l’attributo avrà il seguente formato:

```
{ 
    "key": "string",
    "value": { 
        "stringValue": "string",
        "type": "STRING"
    }
}
```

#### Importare i metadati da S3
<a name="w2aac28c10c23c19c17c11b3c15c11b3"></a>

Puoi anche importare i metadati da un file con estensione `.metadata.json` in una posizione S3. Per ulteriori informazioni sul formato di un file di metadati, consulta la sezione **Campi di metadati del documento** in [Connettersi ad Amazon S3 per una knowledge base](s3-data-source-connector.md).

Se i metadati provengono da un file S3, l'[DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)oggetto nel `metadata` campo deve avere il seguente formato:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

Includi il proprietario del bucket S3 che contiene il file di metadati nel campo `bucketOwnerAccountId` e l’URI S3 del file di metadati nel campo `uri`.

**avvertimento**  
Se hai definito il contenuto in linea, anche i metadati devono essere definiti in linea.

### Importare un documento in una knowledge base connessa a un’origine dati Amazon S3
<a name="kb-direct-ingestion-add-s3"></a>

`dataSourceId`Se l'oggetto specificato appartiene a un'origine dati S3, puoi aggiungere contenuti e metadati per ogni [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)oggetto dell'array. `documents`

**Nota**  
Per le origini dati S3, puoi aggiungere contenuti e metadati solo da una posizione S3.

Il contenuto di un documento S3 da aggiungere a S3 deve essere aggiunto a un [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)oggetto nel seguente formato:

```
{ 
    "dataSourceType": "string",
    "s3": { 
        "s3Location": { 
            "uri": "string"
        }
    }
}
```

Includi il proprietario del bucket S3 che contiene il documento nel campo `bucketOwnerAccountId` e l’URI S3 del documento nel campo `uri`.

I metadati di un documento aggiunto a un’origine dati personalizzata può essere definito nel seguente formato:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

**avvertimento**  
I documenti che importi direttamente in una knowledge base connessa a un’origine dati S3 non vengono aggiunti al bucket S3. Si consiglia di aggiungere questi documenti anche all’origine dati S3 in modo che non vengano rimossi né sovrascritti se si sincronizza l’origine dati.

### Esempio di corpi della richiesta
<a name="w2aac28c10c23c19c17c11b3c19"></a>

Espandi le seguenti sezioni per visualizzare i corpi delle richieste per diversi casi d’uso con `IngestKnowledgeBaseDocuments`:

#### Aggiungere un documento di testo personalizzato a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b1"></a>

L’esempio seguente mostra l’aggiunta di un documento di testo a un’origine dati personalizzata:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento con codifica Base64 a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b3"></a>

L’esempio seguente mostra l’aggiunta di un documento PDF a un’origine dati personalizzata:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "byteContent": { 
                     "data": "<Base64-encoded string>",
                     "mimeType": "application/pdf"
                  },
                  "type": "BYTE"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento da una posizione S3 a una knowledge base connessa a un’origine dati personalizzata e importarlo
<a name="w2aac28c10c23c19c17c11b3c19b5b5"></a>

L’esempio seguente mostra l’aggiunta di un documento di testo a un’origine dati personalizzata da una posizione S3:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "s3": {
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
               },
               "sourceType": "S3"
            }
         }
     }
   ]
}
```

#### Aggiungere un documento in linea a una knowledge base connessa a un’origine dati personalizzata e includere i metadati in linea
<a name="w2aac28c10c23c19c17c11b3c19b5b7"></a>

L’esempio seguente mostra l’aggiunta in linea a un’origine dati personalizzata di un documento e di metadati contenenti due attributi:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         },
         "metadata": {
            "inlineAttributes": [ 
               { 
                  "key": "genre",
                  "value": {
                     "stringValue": "pop",
                     "type": "STRING"
                  }
               },
               { 
                  "key": "year",
                  "value": { 
                     "numberValue": 1988,
                     "type": "NUMBER"
                  }
               }
            ],
            "type": "IN_LINE_ATTRIBUTE"
         }
     }
   ]
}
```

#### Aggiungere un documento in linea a una knowledge base connessa a un’origine dati S3 e includerne i metadati
<a name="w2aac28c10c23c19c17c11b3c19b5b9"></a>

L’esempio seguente mostra l’aggiunta di un documento e dei metadati a un’origine dati S3. Puoi includere i metadati solo tramite S3:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
    "documents": [ 
        { 
            "content": { 
                "dataSourceType": "S3",
                "s3": { 
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
            }
        },
        "metadata": {
            "s3Location": {
                "bucketOwnerId": "111122223333",
                "uri": "amzn-s3-demo-bucket"
            },
                "type": "S3_LOCATION"
            }
        }
    ]
}
```

# Visualizzare le informazioni sui documenti nell’origine dati
<a name="kb-direct-ingestion-view"></a>

Negli argomenti seguenti viene descritto come visualizzare i documenti nell’origine dati. Se la knowledge base è connessa a un’origine dati Amazon S3, puoi visualizzare i documenti nel bucket S3 connesso.

**Nota**  
Se hai creato una nuova knowledge base collegandoti a un’origine dati S3, devi sincronizzare l’origine dati prima di poter utilizzare queste operazioni API sull’origine dati.

Espandi il metodo che corrisponde al tuo caso d’uso:

## Utilizzo della console
<a name="kb-direct-ingestion-view-console"></a>

Per visualizzare i documenti presenti nell’origine dati che sono stati importati in Console di gestione AWS, procedi come segue:

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base,** seleziona la knowledge base di cui desideri visualizzare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati di cui desideri visualizzare i documenti.

1. La sezione **Documenti** elenca i documenti presenti nell’origine dati. Anche questi documenti sono stati importati nella knowledge base.

## Utilizzare l’API
<a name="kb-direct-ingestion-view-api"></a>

Con l’API Amazon Bedrock, puoi visualizzare un sottoinsieme o tutti i documenti dell’origine dati che sono stati importati nella knowledge base. Seleziona l’argomento pertinente al tuo caso d’uso.

**Topics**
+ [Visualizzare le informazioni su un sottoinsieme di documenti nella knowledge base](#kb-direct-ingestion-get)
+ [Visualizzare le informazioni su tutti i documenti della knowledge base](#kb-direct-ingestion-list)

### Visualizzare le informazioni su un sottoinsieme di documenti nella knowledge base
<a name="kb-direct-ingestion-get"></a>

Per visualizzare informazioni su documenti specifici nell’origine dati, invia una richiesta [GetKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata.

Per ogni documento per il quale desideri ottenere informazioni, aggiungi un elemento [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html) nell’array `documentIdentifiers` in uno dei seguenti formati:
+ Se l’origine dati è personalizzata, specifica l’ID del documento nel campo `id`:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Se l’origine dati è Amazon S3, specifica l’URI S3 del documento nel campo `uri`:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

La risposta restituisce una serie di elementi, ognuno dei quali contiene informazioni su un documento richiesto.

### Visualizzare le informazioni su tutti i documenti della knowledge base
<a name="kb-direct-ingestion-list"></a>

Per visualizzare informazioni su tutti i documenti in un’origine dati, invia una richiesta [ListKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata. Sono anche disponibili le seguenti opzioni:
+ Specifica `maxResults` per limitare il numero di risultati da restituire.
+ Se i risultati non rientrano in una risposta, viene restituito un valore nel campo `nextToken` della risposta. È possibile utilizzare questo valore nel campo `nextToken` di una richiesta successiva per ottenere il seguente batch di risultati.

# Eliminare documenti direttamente da una knowledge base
<a name="kb-direct-ingestion-delete"></a>

Se un documento nella knowledge base non è più necessario, è possibile eliminarlo direttamente. Per informazioni su come eliminare documenti dall’origine dati e dalla knowledge base, espandere la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="kb-direct-ingestion-delete-console"></a>

Per eliminare documenti dall’origine dati e dalla knowledge base direttamente utilizzando la Console di gestione AWS, procedi come segue:

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, seleziona la knowledge base da cui eliminare i documenti.

1. Nella sezione **Origine dati**, seleziona l’origine dati da cui eliminare i documenti.

1. Nella sezione **Documenti**, seleziona un documento da eliminare. Poi scegli **Elimina documento**. Rivedi il messaggio e conferma.

## Eliminare con l’API
<a name="kb-direct-ingestion-delete-api"></a>

Per eliminare documenti specifici dall’origine dati tramite l’API Amazon Bedrock, invia una richiesta [DeleteKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBaseDocuments.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica gli ID dell’origine dati e della knowledge base a cui è collegata.

Per ogni documento che vuoi eliminare, aggiungi un elemento [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html) nell’array `documentIdentifiers` in uno dei seguenti formati:
+ Se l’origine dati è personalizzata, specifica l’ID del documento nel campo `id`:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Se l’origine dati è di Amazon S3, specifica l’URI S3 del documento nel campo `uri`:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

**avvertimento**  
I documenti che elimini direttamente da una knowledge base collegata a un’origine dati S3 non vengono eliminati dal bucket S3 stesso. Ti consigliamo di eliminare questi documenti dal bucket S3, in modo che non vengano reintrodotti se sincronizzi l’origine dati.

# Visualizzare le informazioni sull’origine dati per Knowledge Base per Amazon Bedrock
<a name="kb-ds-info"></a>

È possibile visualizzare informazioni su un’origine dati per la knowledge base, ad esempio le impostazioni e la cronologia di sincronizzazione.

Per monitorare la knowledge base, incluse tutte le origini dati per la knowledge base, consulta [Registrazione della knowledge base con Amazon CloudWatch](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html).

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Come ottenere informazioni su un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Origine dati**, seleziona l’origine dati per la quale desideri visualizzare i dettagli.

1. La **Panoramica dell’origine dati** contiene dettagli sull’origine dati.

1. La **Cronologia sincronizzazione** contiene dettagli su quando l’origine dati è stata sincronizzata. Per vedere i motivi per cui un evento di sincronizzazione ha avuto esito negativo, seleziona un evento di sincronizzazione e scegli **Visualizza avvisi**.

------
#### [ API ]

Per ottenere informazioni su un’origine dati, invia una richiesta [GetDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetDataSource.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica il `dataSourceId` e il `knowledgeBaseId` della knowledge base a cui appartiene.

Per elencare informazioni sulle origini dati di una knowledge base, invia una richiesta [ListDataSources](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListDataSources.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e specifica l’ID della knowledge base.
+ Per impostare il numero massimo di risultati da restituire in una risposta, utilizza il campo `maxResults`.
+ Se i risultati sono più numerosi del valore impostato, la risposta restituisce `nextToken`. È possibile utilizzare questo valore in un’altra richiesta `ListDataSources` per visualizzare il successivo batch di risultati.

Per ottenere informazioni su un evento di sincronizzazione per un’origine dati, invia una richiesta [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Specifica il `dataSourceId`, il `knowledgeBaseId` e il `ingestionJobId`.

Per elencare la cronologia di sincronizzazione di un’origine dati in una knowledge base, invia una richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) a un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Definizione dell’ID della knowledge base e dell’origine dati. Puoi impostare le seguenti specifiche.
+ Filtra i risultati specificando lo stato da cercare nell’oggetto `filters`.
+ Ordina in base all’ora di avvio del processo o allo stato di un processo specificando l’oggetto `sortBy`. Puoi scegliere l’ordinamento crescente o decrescente.
+ Puoi impostare il numero massimo di risultati che dovranno essere restituiti nella risposta nel campo `maxResults`. Se i risultati sono superiori al numero impostato, la risposta restituisce un `nextToken` che puoi inviare in un’altra richiesta [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html) per visualizzare il successivo batch di processi.

------

# Modificare un’origine dati per Knowledge Base per Amazon Bedrock
<a name="kb-ds-update"></a>

È possibile aggiornare un’origine dati per la knowledge base, ad esempio modificando le configurazioni dell’origine dati.

È possibile aggiornare un’origine dati nei seguenti modi:
+ Aggiungere, modificare o rimuovere file o contenuti dall’origine dati.
+ Modificare le configurazioni delle origini dati o la chiave KMS da utilizzare per crittografare i dati transitori durante l’importazione dei dati. Se vengono modificati i dettagli della configurazione dell’origine o dell’endpoint, è necessario aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile).
+ Impostare la policy di eliminazione dell’origine dati su “Elimina” o “Conserva”. È possibile eliminare tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. È possibile conservare tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

Ogni volta che vengono aggiunti, modificati o rimossi file dall’origine dati, è necessario sincronizzare l’origine dati in modo che venga reindicizzata nella knowledge base. La sincronizzazione è incrementale, quindi Amazon Bedrock elabora solo i documenti aggiunti, modificati o eliminati dall’ultima sincronizzazione. Prima di iniziare l’importazione, verificare che l’origine dati soddisfi le seguenti condizioni:
+ I file sono nei formati supportati. Per ulteriori informazioni, consulta [Formati di documenti supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ I file non superano le **dimensioni del file del processo di importazione** specificate in [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) nei Riferimenti generali di AWS.
+ Se l’origine dati contiene file di metadati, verificare le seguenti condizioni per garantire che i file di metadati non vengano ignorati:
  + Ogni `.metadata.json` file condivide lo stesso nome e la stessa estensione del file di origine a cui è associato.
  + Se l’indice vettoriale per la knowledge base si trova in un archivio vettoriale Amazon OpenSearch Serverless, verificare che l’indice vettoriale sia configurato con il motore `faiss`. Se l’indice vettoriale è configurato con il motore `nmslib`, eseguire una delle seguenti operazioni:
    + [Creare una nuova knowledge base](knowledge-base-create.md) nella console e consentire ad Amazon Bedrock di creare automaticamente un indice vettoriale in Amazon OpenSearch Serverless.
    + [Creare un altro indice vettoriale](knowledge-base-setup.md) nell’archivio vettoriale e selezionare `faiss` come **motore**. Poi [creare una nuova knowledge base](knowledge-base-create.md) e specificare il nuovo indice vettoriale.
  + Se l’indice vettoriale per la knowledge base si trova in un cluster di database Amazon Aurora, consigliamo di utilizzare il campo dei metadati personalizzati per archiviare tutti i metadati in un’unica colonna e creare un indice su questa colonna. Se il campo dei metadati personalizzati non è specificato, è necessario verificare che la tabella dell’indice contenga una colonna per ogni proprietà dei metadati nei file di metadati prima di iniziare l’importazione. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).

Per informazioni su come aggiornare un’origine dati, scegliere la scheda relativa al metodo preferito, poi seguire la procedura:

------
#### [ Console ]

**Come aggiornare un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Seleziona il nome della tua knowledge base.

1. Nella sezione **Origine dati**, seleziona il pulsante di opzione accanto all’origine dati che vuoi modificare e sincronizzare.

1. (Facoltativo) Scegli **Modifica**, modifica le configurazioni e seleziona **Invia**. Se vengono modificati i dettagli della configurazione dell’origine o dell’endpoint, è necessario aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile). Inoltre, tieni presente che non è possibile modificare le configurazioni di suddivisione in blocchi basate sui dati originali importati. Devi ricreare l’origine dati.
**Nota**  
Non puoi modificare le configurazioni di suddivisione in blocchi. Devi ricreare l’origine dati.

1. (Facoltativo) Scegli di modificare la policy di eliminazione dei dati dell’origine dati come parte delle impostazioni avanzate:

   Per le impostazioni della policy di eliminazione dei dati, puoi scegliere:
   + Elimina: elimina tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che **l’archivio vettoriale stesso non viene eliminato**, ma solo i dati sottostanti. Questo flag viene ignorato se un account AWS viene eliminato.
   + Retain: mantiene tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

1. Scegli **Sincronizza**.

1. Quando la sincronizzazione è completa e lo **Stato** diventa **Pronto**, viene visualizzato un banner verde.

------
#### [ API ]

**Come aggiornare un’origine dati**

1. (Facoltativo) Invia una richiesta [UpdateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), modificando eventuali configurazioni e specificando le stesse configurazioni che non vuoi modificare. Se modifichi i dettagli della configurazione dell’origine o dell’endpoint, devi aggiornare o creare un nuovo ruolo IAM con le autorizzazioni di accesso richieste e la chiave segreta di Secrets Manager (se applicabile).
**Nota**  
Non puoi modificare la `chunkingConfiguration`. Invia la richiesta con la `chunkingConfiguration` esistente o ricrea l’origine dati.

1. (Facoltativo) Cambia la `dataDeletionPolicy` per l’origine dati. Puoi `DELETE` tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Questo flag viene ignorato se un account AWS viene eliminato. Puoi `RETAIN` tutti i dati dall’origine dati che vengono convertiti in embedding vettoriali dopo l’eliminazione di una knowledge base o di una risorsa dell’origine dati. Da notare che l’**archivio vettoriale stesso non viene eliminato** se viene eliminata una knowledge base o una risorsa dell’origine dati.

1. Invia una richiesta [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specificando il `dataSourceId` e il `knowledgeBaseId`.

------

# Eliminare un’origine dati da Knowledge Base per Amazon Bedrock
<a name="kb-ds-delete"></a>

Puoi eliminare o rimuovere un’origine dati che non ti serve più o che non utilizzi più per la knowledge base.

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

**Per eliminare un’origine dati**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. In **Origine dati**, scegli il pulsante di opzione accanto all’origine dati da eliminare.

1. Scegli **Elimina**.

1. Quando l’origine dati viene eliminata con successo, viene visualizzato un banner verde.
**Nota**  
La policy di eliminazione dei dati per l’origine dati è impostata su “Elimina” (elimina tutti i dati quando si elimina l’origine dati, ma **non elimina l’archivio vettoriale stesso**) o “Conserva” (conserva tutti i dati quando si elimina l’origine dati). Se elimini un’origine dati o una knowledge base, l’**archivio vettoriale stesso non viene eliminato**. Se la policy di eliminazione dei dati dell’origine dati è impostata su “Elimina”, è possibile che l’origine dati completi con esito negativo il processo di eliminazione a causa di problemi di configurazione o di accesso all’archivio vettoriale. Puoi controllare lo stato “DELETE\$1UNSUCCESSFUL” per vedere il motivo per cui l’origine dati non è stata eliminata correttamente.

------
#### [ API ]

Per eliminare un’origine dati da una knowledge base, invia una richiesta [DeleteDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletDataSource.html), specificando `dataSourceId` e `knowledgeBaseId`.

**Nota**  
La policy di eliminazione dei dati per l’origine dati è impostata su `DELETE` (elimina tutti i dati quando si elimina l’origine dati, ma **non elimina l’archivio vettoriale stesso**) o `RETAIN` (conserva tutti i dati quando si elimina l’origine dati). Se elimini un’origine dati o una knowledge base, l’**archivio vettoriale stesso non viene eliminato**. Se la policy di eliminazione dei dati dell’origine dati è impostata su `DELETE`, è possibile che l’origine dati completi con esito negativo il processo di eliminazione a causa di problemi di configurazione o di accesso all’archivio vettoriale. È possibile visualizzare `failureReasons` se lo stato dell’origine dati è `DELETE_UNSUCCESSFUL` per vedere il motivo per cui l’origine dati non è stata eliminata correttamente.

------