

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock
<a name="knowledge-base-create"></a>

Quando crei una knowledge base connettendola a un’origine dati, imposta o specifica quanto segue:
+ Informazioni generali che definiscono e identificano la knowledge base.
+ Il ruolo di servizio con autorizzazioni per la knowledge base.
+ Configurazioni per la knowledge base, incluso il modello di embedding da utilizzare per la conversione dei dati dall’origine dati e le configurazioni di archiviazione per il servizio in cui archiviare gli embedding e, facoltativamente, una ubicazione S3 per l’archiviazione dei dati multimodali.

**Nota**  
Non puoi creare una knowledge base con un utente root. Accedi con un utente IAM prima di iniziare questi passaggi.

Espandi la sezione corrispondente al tuo caso d’uso:

## Eliminare con la console
<a name="knowledge-base-create-console"></a>

**Come configurare una knowledge base**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Knowledge base**.

1. Nella sezione **Knowledge base**, scegli il pulsante Crea, quindi scegli di creare una knowledge base con un archivio vettoriale.

1. (Opzionale) Modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.

1. Scegli un ruolo AWS Identity and Access Management (IAM) che fornisca l'autorizzazione ad Amazon Bedrock per accedere ad altri AWS servizi richiesti. Puoi lasciare che Amazon Bedrock crei il ruolo di servizio oppure puoi scegliere di utilizzare un [ruolo personalizzato che hai creato per Analisi Neptune](kb-permissions.md#kb-permissions-neptune).

1. Scegli un’origine dati a cui collegare la tua knowledge base.

1. (Opzionale) Aggiungi tag alla knowledge base. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md).

1. (Opzionale) Configura i servizi per i quali fornire i log delle attività per la tua knowledge base.

1. Vai alla sezione successiva e segui i passaggi illustrati in [Connettere un’origine dati alla knowledge base](data-source-connectors.md) per configurare un’origine dati.

1. Nella sezione **Modello di embedding**, procedi come segue:

   1. Scegli un modello di embedding per convertire i tuoi dati in embedding vettoriali. Per i dati multimodali (immagini, audio e video), seleziona un modello di incorporamento multimodale come Amazon Titan Multimodal Embeddings G1 o Cohere Embed v3.
**Nota**  
Quando usi Amazon Titan Multimodal Embeddings G1, devi fornire un bucket di contenuti S3 e puoi usare solo il parser predefinito. Questo modello è ottimizzato per i casi d'uso nella ricerca di immagini. Per una guida completa sulla scelta tra approcci multimodali, vedere. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

   1. (Facoltativo) Espandi la sezione **Configurazioni aggiuntive** per visualizzare le seguenti opzioni di configurazione (non tutti i modelli supportano tutte le configurazioni):
      + **Tipo di embedding**: scegli se convertire i dati in embedding vettoriali in virgola mobile (float32) (più precisi ma più costosi) o embedding vettoriali binari (meno precisi, ma meno costosi). Per scoprire quali modelli di embedding supportano i vettori binari, consulta la sezione relativa ai [modelli di embedding supportati](knowledge-base-supported.md).
      + **Dimensioni vettoriali**: valori più elevati migliorano l’accuratezza ma aumentano i costi e la latenza.

1. Nella sezione **Database vettoriale**, effettua le seguenti operazioni:

   1. Scegli un archivio vettoriale per archiviare gli embedding vettoriali che verranno utilizzati per la query. Sono disponibili le seguenti opzioni:
      + **Crea rapidamente un nuovo archivio vettoriale**: scegli uno degli archivi vettoriali disponibili per Amazon Bedrock da creare. Puoi anche configurare opzionalmente la crittografia a AWS KMS chiave per il tuo archivio vettoriale.
**Nota**  
Quando utilizzi questa opzione, Amazon Bedrock gestisce automaticamente il posizionamento dei metadati per ogni archivio vettoriale.
        + **Amazon OpenSearch Serverless** — Amazon Bedrock Knowledge Bases crea una raccolta e un indice di ricerca vettoriale Amazon OpenSearch Serverless e la configura con i campi richiesti per te.
        + **Amazon Aurora PostgreSQL Serverless**: Amazon Bedrock configura un archivio vettoriale Amazon Aurora PostgreSQL Serverless. Questo processo prende dati di testo non strutturati da un bucket Amazon S3, li trasforma in blocchi di testo e vettori, quindi li archivia in un database PostgreSQL. Per ulteriori informazioni, consulta [Creazione rapida di una Knowledge Base per Amazon Bedrock di Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.quickcreatekb.html).
        + **Analisi Amazon Neptune:** Amazon Bedrock utilizza tecniche di generazione potenziata da recupero dati (RAG) combinate con grafi per migliorare le applicazioni di IA generativa in modo che gli utenti finali possano ottenere risposte più accurate e complete.
        + **Amazon S3 Vectors:** Knowledge Base per Amazon Bedrock creano un bucket vettoriale S3 e un indice vettoriale che archivieranno gli embedding generati dalle origini dati.

          Puoi creare una knowledge base per Amazon S3 Vectors in tutti gli Regione AWS ambienti in cui sono disponibili sia Amazon Bedrock che Amazon S3 Vectors. Per informazioni sulla disponibilità delle Regioni, consulta [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) nella *Guida per l’utente di Amazon S3*.
**Nota**  
Quando usi Amazon S3 Vectors con Amazon Bedrock Knowledge Bases, puoi allegare fino a 1 KB di metadati personalizzati (inclusi metadati filtrabili e non filtrabili) e 35 chiavi di metadati per vettore. Per informazioni dettagliate sulle limitazioni dei metadati, consulta in. [Supporto per metadati](knowledge-base-setup.md#metadata-support) [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md)
      + **Scegli un archivio vettoriale che hai creato**: seleziona un archivio vettoriale supportato e identifica i nomi dei campi vettoriali e i nomi dei campi di metadati nell’indice vettoriale. Per ulteriori informazioni, consulta [Prerequisiti per l’utilizzo di un archivio vettoriale creato per una knowledge base](knowledge-base-setup.md).
**Nota**  
Se la tua origine dati è un'istanza Confluence SharePoint, Microsoft o Salesforce, l'unico servizio di archiviazione vettoriale supportato è Amazon Serverless. OpenSearch 

   1. (Opzionale) Espandi la sezione **Configurazioni aggiuntive** e modifica le configurazioni pertinenti.

1. Se l’origine dati contiene immagini, specifica un URI Amazon S3 in cui archiviare le immagini che il parser estrarrà dai dati nella **destinazione di archiviazione multimodale**. Le immagini possono essere restituite durante la query. Opzionalmente, puoi anche scegliere una chiave gestita dal cliente anziché quella predefinita per crittografare i tuoi dati. Chiave gestita da AWS
**Nota**  
I dati multimodali sono supportati solo da Amazon S3 e origini dati personalizzate.
**Nota**  
Quando si utilizzano modelli di incorporamento multimodali:  
Amazon Titan Multimodal Embeddings G1 richiede un bucket di contenuti S3 e funziona al meglio con set di dati di sola immagine utilizzando il parser predefinito
Cohere Embed v3 supporta set di dati misti di testo e immagini e può essere utilizzato con qualsiasi configurazione del parser
Per i casi di ricerca di immagini, evita di utilizzare Bedrock Data Automation (BDA) o parser Foundation Model con Titan G1 a causa delle limitazioni dei token
La destinazione di archiviazione multimodale crea copie di file a scopo di recupero, il che può comportare costi di archiviazione aggiuntivi

1. Scegli **Avanti** e rivedi i dettagli della tua knowledge base. Puoi modificare qualsiasi sezione prima di procedere e creare la tua knowledge base.
**Nota**  
Il tempo richiesto per creare la knowledge base dipende dalle configurazioni specifiche. Una volta completata la creazione della knowledge base, lo stato della knowledge base cambia per indicare che è pronta o disponibile.  
Una volta che la knowledge base è pronta e disponibile, sincronizza l’origine dati per la prima volta e ogni volta che desideri aggiornare i contenuti. Scegli la knowledge base nella console, poi scegli **Sincronizza** nella sezione Panoramica dell’origine dati.

## Eliminare con l’API
<a name="knowledge-base-create-api"></a>

Per creare una knowledge base, invia una richiesta [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) con un [endpoint in fase di compilazione Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

**Nota**  
Se preferisci lasciare che Amazon Bedrock crei e gestisca un archivio vettoriale per tuo conto, utilizza la console. Per ulteriori informazioni, espandi la sezione **Utilizzo della console** in questo argomento.

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| nome | Un nome per la knowledge base | 
| roleArn | L’ARN di un [ruolo di servizio di Knowledge Base per Amazon Bedrock](kb-permissions.md). | 
| knowledgeBaseConfiguration | Contiene le configurazioni per la knowledge base. Fai riferimento ai dettagli riportati di seguito. | 
| storageConfiguration | (Richiesto solo se ti connetti a un’origine dati non strutturata). Contiene le configurazioni per il servizio di origine dati scelto. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Una descrizione per la knowledge base. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tag | Associare tag al flusso. Per ulteriori informazioni, consulta [Assegnazione di tag alle risorse Amazon Bedrock](tagging.md). | 

Nel `knowledgeBaseConfiguration` campo, che corrisponde a un [KnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseConfiguration.html)oggetto, specificate `VECTOR` nel campo e includete un oggetto. `type` [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html) Nell’oggetto, includi i seguenti campi:
+ `embeddingModelArn`: l’ARN del modello di embedding da utilizzare.
+ `embeddingModelConfiguration`: le configurazioni per il modello di embedding. Per visualizzare i possibili valori che è possibile specificare per ogni modello supportato, consulta [Regioni e modelli supportati per Knowledge Base per Amazon Bedrock](knowledge-base-supported.md).
+ (Se prevedi di includere dati multimodali, che includono immagini, figure, grafici o tabelle, nella tua knowledge base), esegue il `supplementalDataStorageConfiguration` mapping su un [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)oggetto, in cui specifichi la posizione S3 in cui archiviare i dati estratti. Per ulteriori informazioni, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

Nel `storageConfiguration` campo, che corrisponde a un [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)oggetto, specifica l'archivio vettoriale a cui intendi connetterti nel `type` campo e includi il campo che corrisponde a quell'archivio vettoriale. Consulta ogni tipo di configurazione dell'archivio vettoriale all'indirizzo [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)per i dettagli sulle informazioni che devi fornire.

Di seguito viene illustrato un esempio di richiesta per creare una knowledge base connessa a una raccolta Amazon OpenSearch Serverless. I dati provenienti da fonti di dati connesse verranno convertiti in incorporamenti vettoriali binari con Amazon Titan Text Embeddings V2 e i dati multimodali estratti dal parser sono configurati per essere archiviati in un bucket chiamato. *MyBucket*

```
PUT /knowledgebases/ HTTP/1.1
Content-type: application/json

{
   "name": "MyKB",
   "description": "My knowledge base",
   "roleArn": "arn:aws:iam::111122223333:role/service-role/AmazonBedrockExecutionRoleForKnowledgeBase_123",
   "knowledgeBaseConfiguration": {
      "type": "VECTOR",
      "vectorKnowledgeBaseConfiguration": { 
         "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-embed-text-v2:0",
         "embeddingModelConfiguration": { 
            "bedrockEmbeddingModelConfiguration": { 
               "dimensions": 1024,
               "embeddingDataType": "BINARY"
            }
         },
         "supplementalDataStorageConfiguration": { 
            "storageLocations": [ 
               { 
                  "s3Location": { 
                     "uri": "arn:aws:s3:::MyBucket"
                  },
                  "type": "S3"
               }
            ]
         }
      }
   },
   "storageConfiguration": { 
      "opensearchServerlessConfiguration": { 
         "collectionArn": "arn:aws:aoss:us-east-1:111122223333:collection/abcdefghij1234567890",
         "fieldMapping": { 
            "metadataField": "metadata",
            "textField": "text",
            "vectorField": "vector"
         },
         "vectorIndexName": "MyVectorIndex"
      }
   }
}
```

**Topics**
+ [

# Connettere un’origine dati alla knowledge base
](data-source-connectors.md)
+ [

# Personalizzare l’importazione per un’origine dati
](kb-data-source-customize-ingestion.md)
+ [

# Definire le configurazioni di sicurezza per una knowledge base
](kb-create-security.md)

# Connettere un’origine dati alla knowledge base
<a name="data-source-connectors"></a>

Dopo aver completato le configurazioni per la knowledge base, connettere alla knowledge base un’origine dati supportata.

Knowledge Base per Amazon Bedrock supporta la connessione a origini dati non strutturate o ad archivi di dati strutturati tramite un motore di query. Selezionare un argomento per scoprire come connettersi a quel tipo di origine dati:

**Supporto di contenuti multimodali**  
I contenuti multimodali (immagini, file audio e video) sono supportati solo con Amazon S3 e origini dati personalizzate. Altri tipi di fonti di dati ignoreranno i file multimodali durante l'ingestione. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per informazioni su come connettersi a un’origine dati utilizzando la console Amazon Bedrock, selezionare l’argomento corrispondente al tipo di origine dati in fondo a questa pagina:

Per connetterti a un'origine dati utilizzando l'API Amazon Bedrock, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta con un endpoint di [runtime Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| knowledgeBaseId | L’ID della knowledge base. | 
| nome | Un nome per la knowledge base. | 
| dataSourceConfiguration | Specifica il tipo o il servizio di origine dati nel campo type e include il campo corrispondente. Per ulteriori dettagli sulle configurazioni specifiche del servizio, selezionare l’argomento relativo al servizio dagli argomenti in fondo a questa pagina. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| vectorIngestionConfiguration | Contiene configurazioni per personalizzare il processo di ingestione. Per ulteriori informazioni, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Per specificare se recuperare con RETAIN gli embedding vettoriali nell’archivio vettoriale oppure se eliminarli con DELETE. | 
| serverSideEncryptionConfigurazione | Per crittografare i dati transitori durante la sincronizzazione dei dati con una chiave gestita dal cliente, specifica il relativo ARN nel campo kmsKeyArn. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Selezionare un argomento per saperne di più su un servizio e sulla sua configurazione.

**Topics**
+ [

# Connettersi ad Amazon S3 per una knowledge base
](s3-data-source-connector.md)
+ [

# Connettersi a Confluence per utilizzare la knowledge base
](confluence-data-source-connector.md)
+ [

# Connect a Microsoft SharePoint per la tua knowledge base
](sharepoint-data-source-connector.md)
+ [

# Connettersi a Salesforce per una knowledge base
](salesforce-data-source-connector.md)
+ [

# Crawling di pagine web per la knowledge base
](webcrawl-data-source-connector.md)
+ [

# Connessione della knowledge base a un’origine dati personalizzata
](custom-data-source-connector.md)

# Connettersi ad Amazon S3 per una knowledge base
<a name="s3-data-source-connector"></a>

Amazon S3 è un servizio che consente di archiviare dati come oggetti nei bucket. [Puoi connetterti al tuo bucket Amazon S3 per la tua knowledge base di Amazon Bedrock utilizzando la [AWSconsole di gestione per Amazon Bedrock o l'API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)(vedi Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) supportata e). SDKs AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)

**Supporto di contenuti multimodali**  
Le sorgenti dati Amazon S3 supportano contenuti multimodali tra cui immagini, file audio e video. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Puoi caricare un batch ridotto di file in un bucket Amazon S3 utilizzando la console Amazon S3 o l’API. In alternativa, puoi [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html)utilizzarlo per caricare più file su S3 in modo continuo e trasferire file secondo una pianificazione da locale, edge, altro cloud o storage. AWS

Attualmente sono supportati solo i bucket S3 per uso generico.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [

## Funzionalità supportate
](#supported-features-s3-connector)
+ [

## Prerequisiti
](#prerequisites-s3-connector)
+ [

## Configurazione della connessione
](#configuration-s3-connector)

## Funzionalità supportate
<a name="supported-features-s3-connector"></a>
+ Campi di metadati dei documenti
+ Prefissi di inclusione
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni

## Prerequisiti
<a name="prerequisites-s3-connector"></a>

**In Amazon S3, verifica quanto segue**:
+ Annota l’URI del bucket Amazon S3, il nome della risorsa Amazon (ARN) e l’ID dell’account AWS per il proprietario del bucket. Puoi trovare l’URI e l’ARN nella sezione delle proprietà della console Amazon S3. Il bucket deve trovarsi nella stessa Regione di Knowledge Base per Amazon Bedrock. È necessario disporre dell’autorizzazione per accedere al bucket.

**Nel tuo AWS account, assicurati di**:
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi creare IAM automaticamente il ruolo con tutte le autorizzazioni richieste come parte dei passaggi per la creazione di una knowledge base. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.

## Configurazione della connessione
<a name="configuration-s3-connector"></a>

Per connetterti al bucket Amazon S3, devi fornire le informazioni di configurazione necessarie per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-s3-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sui filtri di inclusione/esclusione, sui campi di metadati dei documenti, sulla sincronizzazione incrementale e sul relativo funzionamento, consulta le sezioni seguenti:

### Campi di metadati dei documenti
<a name="ds-s3-metadata-fields"></a>

Puoi includere un file separato che specifica i metadati del documento fields/attributes per ogni file nella tua origine dati Amazon S3 e se includerli negli incorporamenti durante l'indicizzazione della fonte di dati nel vector store. Ad esempio, puoi creare un file nel seguente formato, assegnargli un nome *fileName.extension.metadata.json* e caricarlo nel tuo bucket S3.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Il file di metadati deve utilizzare lo stesso nome del file del documento di origine associato, con la dicitura `.metadata.json` aggiunta alla fine del nome del file. Il file di metadati deve essere archiviato nella stessa cartella o nello stesso percorso del file di origine nel bucket Amazon S3. Il file non deve superare il limite di 10 KB. [Per informazioni sui tipi di attribute/field dati supportati e sugli operatori di filtro che puoi applicare ai campi di metadati, consulta Metadati e filtri.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Prefissi di inclusione
<a name="ds-s3-inclusion-exclusion"></a>

Puoi specificare un prefisso di inclusione, ovvero un prefisso di percorso Amazon S3, in cui utilizzare un file o una cartella S3 anziché l’intero bucket per creare il connettore delle origini dati S3.

### Sincronizzazione incrementale
<a name="ds-s3-incremental-sync"></a>

Il connettore per le sorgenti dati esegue la ricerca per indicizzazione dei contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la knowledge base. Amazon Bedrockpuò utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Come connettersi a un bucket Amazon S3 per una knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Amazon S3** come origine dati.

1. Fornisci un nome per l’origine dati.

1. Specificate se il bucket Amazon S3 si trova nel vostro AWS account corrente o in un altro account. AWS Il bucket deve trovarsi nella stessa Regione della knowledge base.

1. (Facoltativo) Se il bucket Amazon S3 è crittografato con una chiave KMS, includi la chiave. Per ulteriori informazioni, consulta [Autorizzazioni per decrittografare la AWS KMS chiave per le fonti di dati in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita o con la tua chiave KMS. Chiave gestita da AWS Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione ad Amazon S3 per Knowledge Base per Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Connettersi a Confluence per utilizzare la knowledge base
<a name="confluence-data-source-connector"></a>

Atlassian Confluence è uno strumento collaborativo di gestione del lavoro progettato per condividere, archiviare e lavorare sulla pianificazione dei progetti, sullo sviluppo del software e sulla gestione dei prodotti. Per connetterti all’istanza di Confluence corrente per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) API (consulta gli [SDK supportati e la AWS CLI di Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore dell’origine dati in Confluence è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Confluence non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze di Confluence Cloud. Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB dei file che possono essere sottoposti a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [

## Funzionalità supportate
](#supported-features-confluence-connector)
+ [

## Prerequisiti
](#prerequisites-confluence-connector)
+ [

## Configurazione della connessione
](#configuration-confluence-connector)

## Funzionalità supportate
<a name="supported-features-confluence-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0 e autenticazione con token API Confluence

## Prerequisiti
<a name="prerequisites-confluence-connector"></a>

**In Confluence, assicurati di**:
+ Prendere nota dell’URL dell’istanza di Confluence, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.
+ Configurare le credenziali di autenticazione di base contenenti un nome utente (indirizzo e-mail dell’account amministratore) e una password (token API Confluence) per consentire ad Amazon Bedrock di connettersi all’istanza di Confluence Cloud corrente. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
+ (Facoltativo) Configurare un’applicazione OAuth 2.0 con le credenziali di una chiave e di un segreto dell’app, di un token di accesso e di uno di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.
+ Abilitare determinati ambiti o autorizzazioni di lettura per consentire all’app OAuth 2.0 di connettersi a Confluence.

  API Confluence:
  + offline\$1access
  + read:content:confluence: consente di visualizzare i contenuti dettagliati 
  + read:content-details:confluence: consente di visualizzare i dettagli del contenuto 
  + read:space-details:confluence: consente di visualizzare i dettagli dello spazio
  + read:audit-log:confluence: consente di visualizzare i record di audit 
  + read:page:confluence: consente di visualizzare le pagine 
  + read:attachment:confluence: consente di visualizzare e di scaricare gli allegati al contenuto 
  + read:blogpost:confluence: consente di visualizzare i post di blog 
  + read:custom-content:confluence: consente di visualizzare contenuto personalizzato 
  + read:comment:confluence: consente di visualizzare i commenti 
  + read:template:confluence: consente di visualizzare i modelli di contenuto 
  + read:label:confluence: consente di visualizzare le etichette 
  + read:watcher:confluence: consente di visualizzare gli osservatori del contenuto 
  + read:relation:confluence: consente di visualizzare le relazioni tra entità 
  + read:user:confluence: consente di visualizzare i dettagli dell’utente 
  + read:configuration:confluence: consente di visualizzare le impostazioni di Confluence 
  + read:space:confluence: consente di visualizzare i dettagli dello spazio 
  + read:space.property:confluence: consente di visualizzare le proprietà dello spazio 
  + read:user.property:confluence: consente di visualizzare le proprietà dell’utente 
  + read:space.setting:confluence: consente di visualizzare le impostazioni dello spazio 
  + read:analytics.content:confluence: consente di visualizzare l’analisi del contenuto
  + read:content.property:confluence: consente di visualizzare le proprietà del contenuto
  + read:content.metadata:confluence: consente di visualizzare i riepiloghi del contenuto 
  + read:inlinetask:confluence: consente di visualizzare le attività 
  + read:task:confluence: consente di visualizzare le attività 
  + read:whiteboard:confluence: consente di visualizzare le lavagne 
  + read:app-data:confluence: consente di leggere i dati dell’app 
  + read:folder:confluence: consente di visualizzare le cartelle
  + read:embed:confluence: consente di visualizzare i dati Smartlink

**Nell’account AWS, assicurati di**:
+ Archiviare le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e di prendere nota del nome della risorsa Amazon (ARN) del segreto stesso. Seguire le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includere le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se si utilizza la console, è possibile andare in Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Sarebbe opportuno aggiornare o ruotare regolarmente le credenziali e il segreto e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-confluence-connector"></a>

Per connettersi all’istanza di Confluence corrente, è necessario fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-confluence-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione segrete e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-confluence-document-fields"></a>

Il connettore dell’origine dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore dell’origine dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-confluence-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Space`: chiave dello spazio univoca
+ `Page`: titolo principale della pagina
+ `Blog`: titolo principale del blog
+ `Comment`: commenti che appartengono a una pagina oppure a un blog specifico. Specificare *Re: Titolo pagina/blog*
+ `Attachment`: nome del file allegato con relativa estensione

### Sincronizzazione incrementale
<a name="ds-confluence-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica della console.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-confluence-secret-auth-credentials"></a>

(Se si utilizza l’autenticazione di base) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `username`: *indirizzo e-mail dell’utente amministratore dell’account Atlassian*
+ `password`: *token API Confluence*

(Se si utilizza l’autenticazione OAuth 2.0) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `confluenceAppKey`: *chiave dell’app*
+ `confluenceAppSecret`: *segreto dell’app*
+ `confluenceAccessToken`: *token di accesso all’app*
+ `confluenceRefreshToken`: *token di aggiornamento dell’app*

**Nota**  
Il token di **accesso** OAuth2.0 per Confluence ha una scadenza predefinita di 60 minuti. Se il token di accesso scade durante la sincronizzazione dell’origine dati (processo di sincronizzazione), Amazon Bedrock utilizza il token di **aggiornamento** fornito per rigenerarlo. In questo caso vengono rigenerati sia i token di accesso sia quelli di aggiornamento. Per mantenere i token aggiornati dal processo di sincronizzazione corrente a quello successivo, Amazon Bedrock richiede le autorizzazioni di scrittura/immissione per le credenziali segrete nell’ambito del ruolo IAM della knowledge base.

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza di Confluence alla knowledge base**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Confluence** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Indica l’URL dell’istanza di Confluence corrente, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori**: è possibile crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti all’istanza di Confluence corrente:
   + Per l’autenticazione di base, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere l’indirizzo e-mail dell’utente amministratore dell’account Atlassian come nome utente e un token API Confluence come password. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
   + Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere la chiave dell’app Confluence, il segreto dell’app, il token di accesso e quello di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Confluence Cloud per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect a Microsoft SharePoint per la tua knowledge base
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint è un servizio collaborativo basato sul Web per lavorare su documenti, pagine Web, siti Web, elenchi e altro ancora. Puoi connetterti alla tua SharePoint istanza per la tua knowledge base di Amazon Bedrock utilizzando la [console di AWS gestione per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l'[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API (vedi Amazon Bedrock [supportata SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) e). AWS CLI

**Nota**  
SharePoint il connettore di origine dati è in versione di anteprima ed è soggetto a modifiche.  
Le origini SharePoint dati Microsoft non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze SharePoint online. La scansione dei OneNote documenti non è attualmente supportata. Attualmente, solo Amazon OpenSearch Serverless Vector Store è disponibile per l'uso con questa fonte di dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [

## Funzionalità supportate
](#supported-features-sharepoint-connector)
+ [

## Prerequisiti
](#prerequisites-sharepoint-connector)
+ [

## Configurazione della connessione
](#configuration-sharepoint-connector)

## Funzionalità supportate
<a name="supported-features-sharepoint-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ SharePoint Autenticazione solo tramite app

## Prerequisiti
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**In SharePoint (Online), completa i seguenti passaggi per utilizzare l'autenticazione SharePoint solo per app:**
+ Prendi nota dell'URL del tuo sito SharePoint Online/. URLs Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. È possibile trovare l’ID del tenant nelle proprietà del portale di Microsoft Entra. Per i dettagli, consulta [Trova il tuo ID tenant di Microsoft 365](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Configura le SharePoint credenziali solo per le app.
+ Copia l'ID client e il valore segreto del client quando concedi l'autorizzazione a App-Only. SharePoint Per ulteriori informazioni, consulta [Concessione](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) dell'accesso tramite App-Only. SharePoint 
**Nota**  
Non è necessario configurare alcuna autorizzazione API per App-Only. SharePoint Tuttavia, è necessario configurare le autorizzazioni APP sul lato. SharePoint Per ulteriori informazioni sulle autorizzazioni APP richieste, consulta la documentazione Microsoft sulla [concessione dell'accesso tramite SharePoint ](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) App-Only.

### Account AWS
<a name="prerequisites-sharepoint-connector-account"></a>

**Nel tuo AWS account, assicurati** di:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi andare Gestione dei segreti AWS a aggiungere il tuo segreto o utilizzare un segreto esistente come parte della fase di configurazione dell'origine dati. Il IAM ruolo con tutte le autorizzazioni richieste può essere creato automaticamente come parte dei passaggi della console per la creazione di una knowledge base. Dopo aver configurato l'origine dati e altre configurazioni, il IAM ruolo con tutte le autorizzazioni richieste viene applicato alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-sharepoint-connector"></a>

Per connetterti alla tua SharePoint istanza, devi fornire le informazioni di configurazione necessarie in modo che Amazon Bedrock possa accedere ai tuoi dati ed eseguirne la scansione. nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-sharepoint-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-sharepoint-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i tuoi contenuti includono informazioni sensibili, allora Amazon Bedrock potrebbe rispondere utilizzando informazioni sensibili.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-sharepoint-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, Ad esempio, puoi specificare un modello di prefix/regular espressione di esclusione per evitare la scansione di qualsiasi file che contenga «privato» nel nome del file. È inoltre possibile specificare un modello di prefix/regular espressione di inclusione per includere determinate entità di contenuto o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

È possibile applicare inclusion/exclusion filtri ai seguenti tipi di contenuto:
+ `Page`: titolo principale della pagina
+ `Event`: nome dell’evento
+ `File`: nome del file con la relativa estensione per gli allegati e tutti i file del documento

La scansione OneNote dei documenti non è attualmente supportata.

### Sincronizzazione incrementale
<a name="ds-sharepoint-incremental-sync"></a>

Il connettore di origine dati esegue la ricerca per indicizzazione di contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la Knowledge Base. Amazon Bedrock può utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-sharepoint-secret-auth-credentials"></a>

Quando si utilizza l'autenticazione SharePoint solo per app, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Nota**  
L'accesso segreto Gestione dei segreti AWS deve utilizzare la stessa regione della knowledge base.

------
#### [ Console ]

**Connect un' SharePoint istanza alla knowledge base**<a name="connect-sharepoint-console"></a>

1. Segui i passaggi indicati [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **SharePoint**come fonte di dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l'URL SharePoint del tuo sito/URLs. Ad esempio, per SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*

1. Fornisci il nome di dominio della tua SharePoint istanza.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita Chiave gestita da AWS o con la tua chiave KMS. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza. SharePoint Per l' SharePoint autenticazione solo tramite app:

   1. Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.

   1. Vai Gestione dei segreti AWS a per aggiungere le tue credenziali segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere l'ID SharePoint cliente e il segreto SharePoint client generati quando hai registrato l'app App-Only a livello di tenant o a livello di sito, e l'ID client Entra e il segreto client Entra generati quando registri l'app in Entra.

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegliete di utilizzare modelli di filters/regular espressioni per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a SharePoint Online per la tua knowledge base Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Importante**  
L'autenticazione OAuth2 2.0 non è consigliata. Ti consigliamo di utilizzare l'autenticazione solo per SharePoint app.

## Utilizzo di 0. OAuth2
<a name="sharepoint-connector-oauth"></a>

Utilizzando OAuth 2.0, è possibile autenticare e autorizzare l'accesso alle SharePoint risorse per i SharePoint connettori integrati con le Knowledge Base.

### Prerequisiti
<a name="sharepoint-connector-oauth-prereq"></a>

**In SharePoint, per l'autenticazione OAuth 2.0, assicurati** di:
+ Prendi nota dell'URL del tuo sito SharePoint Online/URLs. Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. Puoi trovare il tuo ID tenant nelle Proprietà del tuo portale Microsoft Entra o nella tua OAuth applicazione.

  Prendi nota del nome utente e della password dell' SharePointaccount amministratore e copia l'ID cliente e il valore del segreto del cliente durante la registrazione di un'applicazione.
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Alcune autorizzazioni di lettura sono necessarie per connettersi SharePoint quando si registra un'applicazione.
  + SharePoint: AllSites .Read (delegato): legge gli elementi in tutte le raccolte del sito
+ Potrebbe essere necessario disattivare le **impostazioni di sicurezza predefinite** nel portale di Azure utilizzando un utente amministratore. Per altre informazioni sulla gestione delle impostazioni di sicurezza predefinite nel portale di Azure, consulta la [documentazione Microsoft su come impostare le impostazioni di enable/disable sicurezza predefinite](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Potrebbe essere necessario disattivare l'autenticazione a più fattori (MFA) nel SharePoint tuo account, in modo che Amazon Bedrock non sia bloccato dalla scansione dei tuoi contenuti. SharePoint 

Per completare i prerequisiti, verifica di aver completato la procedura in [Account AWS](#prerequisites-sharepoint-connector-account).

### Credenziali di autenticazione dei segreti
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Per la configurazione della connessione per OAuth2 .0, è possibile eseguire gli stessi passaggi per il rilevamento automatico dei campi del documento principale, dei inclusion/exclusion filtri e della sincronizzazione incrementale, come descritto in. [Configurazione della connessione](#configuration-sharepoint-connector)

**Per l'autenticazione OAuth 2.0, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Connect un' SharePoint istanza alla knowledge base
<a name="sharepoint-connector-oauth-using"></a>

Per connettere un' SharePoint istanza alla tua knowledge base quando usi OAuth2 .0:
+ (console) Nella console, segui gli stessi passaggi descritti in [Connect a SharePoint instance to your knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console). Quando desideri fornire le informazioni di autenticazione per connetterti alla tua SharePoint istanza.
  + Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.
  + Vai Gestione dei segreti AWS a per aggiungere le tue credenziali di autenticazione segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere il nome utente e la password dell' SharePoint amministratore, l'ID client e il segreto del client dell'app registrata. Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn.
+ (API) Di seguito è riportato un esempio di utilizzo dell'`CreateDataSource`API per creare un'origine dati con le informazioni di connessione per OAuth2 .0.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Connettersi a Salesforce per una knowledge base
<a name="salesforce-data-source-connector"></a>

Salesforce è uno strumento di gestione delle relazioni con i clienti (CRM, Customer Relationship Management) per la gestione dei team di supporto, vendita e marketing. Per connetterti all’istanza Salesforce per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (consulta gli [SDK supportati di Amazon Bedrock e la AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore delle origini dati in Salesforce è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Salesforce non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [

## Funzionalità supportate
](#supported-features-salesforce-connector)
+ [

## Prerequisiti
](#prerequisites-salesforce-connector)
+ [

## Configurazione della connessione
](#configuration-salesforce-connector)

## Funzionalità supportate
<a name="supported-features-salesforce-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0

## Prerequisiti
<a name="prerequisites-salesforce-connector"></a>

**In Salesforce, verifica quanto segue**:
+ Prendi nota dell’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.
+ Crea un’app connessa Salesforce e configura le credenziali del client. Quindi, per l’app selezionata, copia la chiave utente (ID client) e il segreto utente (segreto del cliente) dalle impostazioni OAuth. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Nota**  
Per le app connesse Salesforce, in Client Credentials Flow, assicurati di cercare e selezionare il nome o l’alias dell’utente per le credenziali del client nel campo “Run As”.

**Nell’account AWS, verifica quanto segue**:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se utilizzi la console, è possibile passare ad Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-salesforce-connector"></a>

Per connetterti all’istanza di Salesforce corrente, devi fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-salesforce-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-salesforce-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-salesforce-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare le campagne che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Account`: numero/identificatore dell’account
+ `Attachment`: nome del file allegato con relativa estensione
+ `Campaign`: nome della campagna e identificatori associati
+ `ContentVersion`: versione del documento e identificatori associati
+ `Partner`: campi di informazioni partner, inclusi gli identificatori associati
+ `Pricebook2`: nome del prodotto/listino prezzi
+ `Case`: numero di richiesta/problema del cliente e altri campi informativi, compresi gli identificatori associati (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contact`: campi informativi sul cliente (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contract`: nome del contratto e identificatori associati
+ `Document`: nome del file con relativa estensione
+ `Idea`: campi informativi sull’idea e identificatori associati
+ `Lead`: campi informativi su nuovi clienti potenziali (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Opportunity`: campi informativi sulla vendita o sull’offerta in sospeso e identificatori associati
+ `Product2`: campi informativi sul prodotto e identificatori associati
+ `Solution`: nome della soluzione per la richiesta/problema di un cliente e identificatori associati
+ `Task`: campi informativi sull’attività e identificatori associati
+ `FeedItem`: identificatore del post del feed di chat
+ `FeedComment`: identificatore del post del feed di chat a cui appartengono i commenti
+ `Knowledge__kav`: titolo dell’articolo della knowledge base
+ `User`: alias utente all’interno dell’organizzazione
+ `CollaborationGroup`: nome del gruppo di chat (univoco)

### Sincronizzazione incrementale
<a name="ds-salesforce-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizza l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o seleziona la knowledge base nella console, quindi scegli **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione dei segreti
<a name="ds-salesforce-secret-auth-credentials"></a>

(Per l’autenticazione OAuth 2.0) Le credenziali di autenticazione dei segreti in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `consumerKey`: *ID del client dell’app*
+ `consumerSecret`: *segreto del client dell’app*
+ `authenticationUrl`: *URL dell’istanza Salesforce o URL da cui richiedere il token di autenticazione*

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza Salesforce alla knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Salesforce** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la chiave Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza Salesforce:

   1. Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il tuo segreto deve contenere la chiave utente (ID cliente) dell’app connessa Salesforce, il segreto utente (segreto del cliente) e l’URL dell’istanza Salesforce o l’URL da cui richiedere il token di autenticazione. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Salesforce per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawling di pagine web per la knowledge base
<a name="webcrawl-data-source-connector"></a>

Il crawler web fornito da Amazon Bedrock si connette agli URL che hai selezionato per l’uso in Knowledge Base per Amazon Bedrock e ne esegue il crawling. Puoi eseguire il crawling delle pagine del sito web in base all’ambito o ai limiti impostati per gli URL selezionati. Puoi eseguire il crawling delle pagine dei siti web utilizzando la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (vedi [SDK supportati da Amazon Bedrock e AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

**Nota**  
Il connettore dell’origine dati del crawler web è disponibile nella versione di anteprima ed è soggetto a modifiche.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling e devi rispettare le configurazioni di robots.txt.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Esistono limiti al numero di elementi di contenuto delle pagine web e ai MB per elemento di contenuto che possono essere sottoposti a crawling. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [

## Funzionalità supportate
](#supported-features-webcrawl-connector)
+ [

## Prerequisiti
](#prerequisites-webcrawl-connector)
+ [

## Configurazione della connessione
](#configuration-webcrawl-connector)

## Funzionalità supportate
<a name="supported-features-webcrawl-connector"></a>

Il crawler web si connette alle pagine HTML e le scansiona a partire dall’URL iniziale, attraversando tutti i link secondari all’interno dello stesso dominio e percorso primari. Se una delle pagine HTML fa riferimento a documenti supportati, il crawler web recupererà tali documenti, indipendentemente dal fatto che si trovino all’interno dello stesso dominio primario. Puoi modificare il comportamento del crawling modificando la configurazione della scansione. Consulta [Configurazione della connessione](#configuration-webcrawl-connector).

Quanto segue è supportato per:
+ Seleziona più URL di origine da sottoporre a scansione e imposta l’ambito degli URL in modo che eseguano il crawling solo dell’host o includano anche i sottodomini.
+ Scansiona le pagine web statiche che fanno parte degli URL di origine.
+ Specifica il suffisso User Agent personalizzato per impostare le regole per il tuo crawler.
+ Includi o escludi determinati URL che corrispondono a un modello di filtro.
+ Rispetta le direttive robots.txt standard come “Allow” and “Disallow”.
+ Limita l’ambito degli URL al crawling e, facoltativamente, escludi gli URL che corrispondono a uno schema di filtro.
+ Limita la velocità di crawling degli URL e il numero massimo di pagine da sottoporre a crawling.
+ Visualizza lo stato degli URL sottoposti a crawling in Amazon CloudWatch.

## Prerequisiti
<a name="prerequisites-webcrawl-connector"></a>

**Per utilizzare il crawler web, assicurati di**:
+ Verifica di avere l’autorizzazione a eseguire la scansione degli URL di origine.
+ Verifica che il percorso di robots.txt corrispondente agli URL di origine non impedisca il crawling degli URL. Il crawler web aderisce agli standard di robots.txt: `disallow` per impostazione predefinita se robots.txt non viene trovato per il sito web. Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Puoi anche specificare il suffisso di intestazione User Agent personalizzato per impostare le regole per il tuo crawler. Per ulteriori informazioni, consulta l’accesso all’URL del crawler web nelle istruzioni [Configurazione della connessione](#configuration-webcrawl-connector) di questa pagina.
+ [Abilita la distribuzione di CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) e segui gli esempi del crawler web per visualizzare lo stato del processo di importazione dei dati per l’acquisizione di contenuti web e se determinati URL non possono essere recuperati.

**Nota**  
Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

## Configurazione della connessione
<a name="configuration-webcrawl-connector"></a>

Per ulteriori informazioni sull’ambito di sincronizzazione per il crawling degli URL, i filtri di inclusione/esclusione, l’accesso agli URL, la sincronizzazione incrementale e su come funzionano, seleziona quanto segue:

### Ambito di sincronizzazione per gli URL di crawling
<a name="ds-sync-scope"></a>

Puoi limitare l’ambito degli URL da sottoporre a crawling in base alla relazione specifica tra l’URL di ogni pagina e gli URL iniziali. Per crawling più rapidi, puoi limitare gli URL a quelli con lo stesso host e lo stesso percorso URL iniziale dell’URL iniziale. Per crawling più ampi, puoi scegliere di eseguire il crawling degli URL con lo stesso host o all’interno di qualsiasi sottodominio dell’URL iniziale.

Puoi scegliere tra le opzioni riportate di seguito.
+ Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
+ Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
+ Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.

**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

Il crawler web supporta siti web statici.

Puoi anche limitare la velocità di crawling degli URL per controllare la limitazione (della larghezza di banda della rete) della velocità di crawling. Imposti il numero massimo di URL sottoposti a crawling per host al minuto. Inoltre, puoi anche impostare il numero massimo (fino a 25.000) di pagine web totali da sottoporre a crawling. Tieni presente che se il numero totale di pagine web dagli URL di origine supera il massimo impostato, il processo di sincronizzazione/importazione dell’origine dati avrà esito negativo.

### Filtri di inclusione/esclusione
<a name="ds-inclusion-exclusion"></a>

Puoi includere o escludere determinati URL in base al tuo ambito. I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file. Se specifichi un filtro di inclusione ed esclusione ed entrambi corrispondono a un URL, il filtro di esclusione ha la precedenza e il contenuto web non viene sottoposto a crawling.

**Importante**  
Vengono rifiutati i filtri problematici basati su modelli di espressioni regolari che portano a [backtracking e previsioni catastrofici](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/).

“Esempio di pattern di filtro basato su espressione regolare per escludere gli URL con estensione “.pdf” o allegati PDF di pagine web”: *".\$1\$1.pdf\$1"*

### Accesso all’URL del crawler web
<a name="ds-webcrawl-identity-crawling"></a>

Puoi utilizzare il crawler web per eseguire il crawling delle pagine dei siti web per i quali hai l’autorizzazione a eseguire il crawling.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Puoi specificare determinati bot user agent per consentire (“Allow”) o negare (“Disallow”) al rispettivo user agent di eseguire il crawling dei tuoi URL di origine. Puoi modificare il file robots.txt del tuo sito web per controllare il modo in cui il crawler web esegue il crawling degli URL di origine. Il crawler cercherà prima le regole `bedrockbot-UUID ` e poi le regole `bedrockbot` generiche nel file robots.txt.

Puoi anche aggiungere un suffisso User-Agent che può essere utilizzato per inserire il crawler nella lista consentita nei sistemi di protezione dai bot. Nota che non è necessario aggiungere questo suffisso al file `robots.txt` per assicurarsi che nessuno possa impersonare la stringa User Agent. Ad esempio, per consentire al crawler web di eseguire il crawling di tutto il contenuto del sito web e impedire il crawling per altri robot, utilizza la seguente direttiva:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Sincronizzazione incrementale
<a name="ds-incremental-sync"></a>

Ogni volta che viene eseguito, il crawler web recupera il contenuto di tutti gli URL raggiungibili dagli URL di origine che corrispondono all’ambito e ai filtri. Per le sincronizzazioni incrementali dopo la prima sincronizzazione di tutti i contenuti, Amazon Bedrock aggiornerà la knowledge base con contenuti nuovi e modificati e rimuoverà i vecchi contenuti non più presenti. Occasionalmente, il crawler potrebbe non essere in grado di determinare se un contenuto è stato rimosso dal sito web; in tal caso, opterà per la conservazione del contenuto precedente nella tua knowledge base.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Connettiti a un’origine dati a cui collegare il crawler web per la tua knowledge base.**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Crawler web** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci gli **URL di origine** degli URL che desideri sottoporre a crawling. Puoi aggiungere fino a nove URL aggiuntivi selezionando **Aggiungi URL di origine**. Fornendo un URL di origine, confermi di avere l’autorizzazione a eseguire il crawling del relativo dominio.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. (Opzionale) Fornisci un suffisso user agent per **bedrock-UUID-**, che identifichi il crawler o il bot quando accede a un server web.

1. Configurate quanto segue nella sezione **Ambito di sincronizzazione**:

   1. Seleziona un **intervallo di domini del sito web** per il crawling degli URL di origine:
      + Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
      + Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
      + Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.
**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

   1. Immetti la **Limitazione (della larghezza di banda della rete) massima della velocità di crawling**. Importa URL compresi tra 1 e 300 URL per host al minuto. Una velocità di crawling più elevata aumenta il carico ma richiede meno tempo.

   1. Inserisci un **numero massimo di pagine per la sincronizzazione delle origini dati** compreso tra 1 e 25.000. Limita il numero massimo di pagine web sottoposta a crawling dagli URL di origine. Se le pagine web superano questo numero, la sincronizzazione delle origini dati avrà esito negativo e non verrà importata alcuna pagina web. 

   1. Per i modelli **Regex URL** (opzionale) puoi aggiungere **Includi modelli** o **Escludi modelli** inserendo il modello di espressione regolare nella casella. Puoi aggiungere fino a 25 modelli di filtro di inclusione e 25 di esclusione selezionando **Aggiungi nuovo modello**. I modelli di inclusione ed esclusione vengono sottoposti a crawling in base all’ambito. In caso di conflitto, il modello di esclusione ha la precedenza.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Per connettere una knowledge base a un’origine dati utilizzando il crawler web, invia una richiesta [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specifica `WEB` nel campo `type` di [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) e includi il campo `webConfiguration`. Di seguito è riportato un esempio di configurazione di crawler web per Knowledge Base per Amazon Bedrock.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

------

# Connessione della knowledge base a un’origine dati personalizzata
<a name="custom-data-source-connector"></a>

Invece di scegliere un servizio di origine dati supportato, puoi connetterti a un’origine dati personalizzata per ottenere i seguenti vantaggi:
+ Flessibilità e controllo sui tipi di dati a cui desideri che la tua knowledge base abbia accesso.
+ La possibilità di utilizzare le operazioni API `KnowledgeBaseDocuments` per importare o eliminare direttamente i documenti senza necessità di sincronizzare le modifiche.
+ La possibilità di visualizzare i documenti nell’origine dati direttamente tramite la console o l’API Amazon Bedrock.
+ La possibilità di caricare documenti nella fonte dati direttamente in Console di gestione AWS o di aggiungerli in linea.
+ La possibilità di aggiungere metadati direttamente a ciascun documento durante l’aggiunta o l’aggiornamento di un documento nell’origine dati. Per ulteriori informazioni su come utilizzare i metadati per il filtraggio durante il recupero di informazioni da un’origine dati, consulta la scheda **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Supporto di contenuti multimodali**  
Le fonti di dati personalizzate supportano contenuti multimodali tra cui immagini, file audio e video con codifica base64 fino a 10 MB. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per connettere una knowledge base a un'origine dati personalizzata, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta a un endpoint in fase di [costruzione di Agents for Amazon Bedrock.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) Specifica la `knowledgeBaseId` della knowledge base a cui connetterti, assegna un `name` all’origine dati e specifica il campo `type` nella `dataSourceConfiguration` come `CUSTOM`. Di seguito è riportato un esempio minimo per creare questa origine dati:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Puoi includere uno qualsiasi dei seguenti campi opzionali per configurare l’origine dati:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionConfigurazione | Per specificare una chiave KMS personalizzata per l’archiviazione di dati transitori durante la conversione dei dati in embedding. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion) | 
| dataDeletionPolicy | Per configurare cosa fare con gli embedding vettoriali per l’origine dati nel tuo archivio di vettori, se elimini l’origine dati. Specifica RETAIN per mantenere i dati nell’archivio di vettori o l’opzione predefinita di DELETE per eliminarli. | 
| vectorIngestionConfiguration | Per configurare le opzioni per l’importazione dell’origine dati. Per ulteriori informazioni, vedere di seguito. | 

Il `vectorIngestionConfiguration` campo è mappato su un [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)oggetto contenente i seguenti campi:
+ chunkingConfiguration: per configurare la strategia da utilizzare per il chunking dei documenti nell’origine dati. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
+ parsingConfiguration: per configurare la strategia da utilizzare per l’analisi dell’origine dati. Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
+ customTransformationConfiguration — Personalizzare il modo in cui i dati vengono trasformati e applicare una funzione Lambda per una maggiore personalizzazione. Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

Dopo aver configurato l’origine dati personalizzata, puoi aggiungere documenti al suo interno e importarli direttamente nella knowledge base. A differenza di altre origini dati, non è necessario sincronizzare un’origine dati personalizzata. Per informazioni su come importare direttamente i documenti, consulta [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).

# Personalizzare l’importazione per un’origine dati
<a name="kb-data-source-customize-ingestion"></a>

È possibile personalizzare l'ingestione vettoriale quando si collega un'origine dati in Console di gestione AWS o modificando il valore del `vectorIngestionConfiguration` campo quando si invia una richiesta. [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)

Selezionare un argomento per scoprire come includere configurazioni per personalizzare l’importazione durante la connessione a un’origine dati:

**Topics**
+ [

## Scegliere lo strumento da utilizzare per l’analisi
](#kb-data-source-customize-parsing)
+ [

## Scegliere una strategia di chunking
](#kb-data-source-customize-chunking)
+ [

## Utilizzare una funzione Lambda durante l’importazione
](#kb-data-source-customize-lambda)

## Scegliere lo strumento da utilizzare per l’analisi
<a name="kb-data-source-customize-parsing"></a>

È possibile personalizzare il modo in cui vengono analizzati i documenti nei dati. Per ulteriori informazioni sulle opzioni per l’analisi dei dati in Knowledge Base per Amazon Bedrock, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di analisi. Per utilizzare una strategia di analisi diversa, è possibile aggiungere una nuova origine dati.  
Non è possibile aggiungere una posizione S3 per archiviare dati multimodali (tra cui immagini, figure, grafici e tabelle) dopo aver creato una knowledge base. Per includere i dati multimodali e utilizzare un parser che li supporti, è necessario creare una nuova knowledge base.

I passaggi necessari per la scelta di una strategia di analisi dipendono dal fatto che utilizzi l' Console di gestione AWS API Amazon Bedrock e dal metodo di analisi scelto. Se viene scelto un metodo di analisi che supporta i dati multimodali, è necessario specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti. Questi dati possono essere restituiti nella query della knowledge base.
+ In Console di gestione AWS, procedi come segue:

  1. Selezionare la strategia di analisi quando ci si connette a un’origine dati durante la configurazione di una knowledge base o quando si aggiunge una nuova origine dati alla knowledge base esistente.

  1. (Se si sceglie Amazon Bedrock Data Automation o un modello di fondazione come strategia di analisi) Specificare un URI S3 in cui archiviare i dati multimodali estratti dai documenti nella sezione **Destinazione di archiviazione multimodale** quando si seleziona un modello di embedding e si configura l’archivio vettoriale. In questa fase è inoltre possibile utilizzare una chiave gestita dal cliente per criptare i dati S3.
+ Nell’API Amazon Bedrock, procedere come segue:

  1. (Se prevedi di utilizzare Amazon Bedrock Data Automation o un modello base come strategia di analisi) [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html)Includi una [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)richiesta. [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)

  1. [ParsingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ParsingConfiguration.html)Includi un nel `parsingConfiguration` campo della [VectorIngestionConfiguration[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)richiesta.
**Nota**  
Se si omette questa configurazione, Knowledge Base per Amazon Bedrock utilizza il parser predefinito di Amazon Bedrock.

Per ulteriori dettagli su come specificare una strategia di analisi nell’API, espandere la sezione corrispondente alla strategia di analisi che si desidera utilizzare:

### Parser predefinito di Amazon Bedrock
<a name="w2aac28c10c23c15c17c11c13b1"></a>

Per utilizzare il parser predefinito, non includere un campo `parsingConfiguration` nella `VectorIngestionConfiguration`.

### Parser di Amazon Bedrock Data Automation (anteprima)
<a name="w2aac28c10c23c15c17c11c13b3"></a>

Per utilizzare il parser Amazon Bedrock Data Automation, specifica `BEDROCK_DATA_AUTOMATION` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockDataAutomationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockDataAutomationConfiguration.html)nel `bedrockDataAutomationConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_DATA_AUTOMATION",
    "bedrockDataAutomationConfiguration": {
        "parsingModality": "string"
    }
}
```

### Modello di fondazione
<a name="w2aac28c10c23c15c17c11c13b5"></a>

Per utilizzare un modello di base come parser, specifica il `BEDROCK_FOUNDATION_MODEL` nel `parsingStrategy` campo di `ParsingConfiguration` e includi un [BedrockFoundationModelConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockFoundationModelConfiguration.html)nel `bedrockFoundationModelConfiguration` campo, come nel seguente formato:

```
{
    "parsingStrategy": "BEDROCK_FOUNDATION_MODEL",
    "bedrockFoundationModelConfiguration": {
        "modelArn": "string",
        "parsingModality": "string",
        "parsingPrompt": {
            "parsingPromptText": "string"
        }
    }
}
```

## Scegliere una strategia di chunking
<a name="kb-data-source-customize-chunking"></a>

È possibile personalizzare il modo in cui i documenti contenuti nei dati vengono suddivisi in blocchi per l’archiviazione e il recupero. Per ulteriori informazioni sulle opzioni per il chunking dei dati in Knowledge Base per Amazon Bedrock, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).

**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.

Nella Console di gestione AWS scegli la strategia di suddivisione in blocchi quando ti connetti a una fonte di dati. Con l'API Amazon Bedrock, includi un [ChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChunkingConfiguration.html)nel `chunkingConfiguration` campo di [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html).

**Nota**  
Se si omette questa configurazione, Amazon Bedrock divide i contenuti in blocchi di circa 300 token, preservando i limiti delle frasi.

Espandere la sezione corrispondente alla strategia di analisi desiderata:

### Nessun chunking
<a name="w2aac28c10c23c15c17c13c13b1"></a>

Per trattare ogni documento dell’origine dati come un singolo blocco di origine, specificare `NONE` nel campo `chunkingStrategy` della `ChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "NONE"
}
```

### Chunking a dimensioni fisse
<a name="w2aac28c10c23c15c17c13c13b3"></a>

Per dividere ogni documento della tua fonte di dati in blocchi di circa le stesse dimensioni, specifica `FIXED_SIZE` nel `chunkingStrategy` campo di `ChunkingConfiguration` e includi un [FixedSizeChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_FixedSizeChunkingConfiguration.html)nel `fixedSizeChunkingConfiguration` campo, come nel seguente formato:

```
{
    "chunkingStrategy": "FIXED_SIZE",
    "fixedSizeChunkingConfiguration": {
        "maxTokens": number,
        "overlapPercentage": number
    }
}
```

### Chunking gerarchico
<a name="w2aac28c10c23c15c17c13c13b5"></a>

Per dividere ogni documento nell’origine dati in due livelli, in cui il secondo livello contiene blocchi più piccoli derivati dal primo livello, specificare `HIERARCHICAL` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo `hierarchicalChunkingConfiguration`, come nel seguente formato:

```
{
    "chunkingStrategy": "HIERARCHICAL",
    "hierarchicalChunkingConfiguration": {
        "levelConfigurations": [{
            "maxTokens": number
        }],
        "overlapTokens": number
    }
}
```

### Chunking semantico
<a name="w2aac28c10c23c15c17c13c13b7"></a>

Per dividere ogni documento nell’origine dati in blocchi che danno priorità al significato semantico rispetto alla struttura sintattica, specificare `SEMANTIC` nel campo `chunkingStrategy` della `ChunkingConfiguration` e includere il campo, come `semanticChunkingConfiguration` nel seguente formato:

```
{
    "chunkingStrategy": "SEMANTIC",
    "semanticChunkingConfiguration": {
        "breakpointPercentileThreshold": number,
        "bufferSize": number,
        "maxTokens": number
    }
}
```

## Utilizzare una funzione Lambda durante l’importazione
<a name="kb-data-source-customize-lambda"></a>

È possibile post-elaborare il modo in cui i blocchi di origine dati vengono scritti nell’archivio vettoriale con una funzione Lambda nei seguenti modi:
+ Includere la logica di chunking per fornire una strategia di chunking personalizzata.
+ Includere la logica per specificare i metadati a livello di blocco.

Per ulteriori informazioni sulla creazione di una funzione Lambda; personalizzata per l’importazione, consultare [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md). Nella Console di gestione AWS scegli la funzione Lambda quando ti connetti a un'origine dati. Con l'API Amazon Bedrock, includi un [CustomTransformationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CustomTransformationConfiguration.html)nel `CustomTransformationConfiguration` campo [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)e specifichi l'ARN della Lambda, come nel seguente formato:

```
{
    "transformations": [{
        "transformationFunction": {
            "transformationLambdaConfiguration": {
                "lambdaArn": "string"
            }
        },
        "stepToApply": "POST_CHUNKING"
    }],
    "intermediateStorage": {
        "s3Location": {
            "uri": "string"
        }
    }
}
```

È inoltre necessario specificare la posizione S3 in cui archiviare l’output dopo aver applicato la funzione Lambda.

Dopo aver applicato una delle opzioni di chunking disponibili in da Amazon Bedrock, è possibile includere il campo `chunkingConfiguration` per applicare la funzione Lambda.

# Definire le configurazioni di sicurezza per una knowledge base
<a name="kb-create-security"></a>

Dopo aver creato una knowledge base, potrebbe essere necessario definire le seguenti configurazioni di sicurezza:

**Topics**
+ [

## Configurare policy di accesso ai dati per una knowledge base
](#kb-create-security-data)
+ [

## Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless
](#kb-create-security-network)

## Configurare policy di accesso ai dati per una knowledge base
<a name="kb-create-security-data"></a>

Se utilizzi un [ruolo personalizzato](kb-permissions.md), definisci le configurazioni di sicurezza per la tua nuova knowledge base creata. Se consenti ad Amazon Bedrock di creare un ruolo di servizio per te, puoi ignorare questa fase. Segui i passaggi nella scheda corrispondente al database che hai configurato.

------
#### [ Amazon OpenSearch Serverless ]

Per limitare l'accesso alla raccolta Amazon OpenSearch Serverless al ruolo di servizio della knowledge base, crea una policy di accesso ai dati. Questa operazione può essere eseguita nei modi seguenti:
+ Utilizza la console di Amazon OpenSearch Service seguendo i passaggi descritti in [Creazione di politiche di accesso ai dati (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-console) nella Amazon OpenSearch Service Developer Guide.
+ Usa l'AWSAPI inviando una [CreateAccessPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_CreateAccessPolicy.html)richiesta con un [endpoint OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Per un AWS CLI esempio, consulta [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

Utilizza la seguente politica di accesso ai dati, specificando la raccolta Amazon OpenSearch Serverless e il tuo ruolo di servizio:

```
[
    {
        "Description": "${data access policy description}",
        "Rules": [
          {
            "Resource": [
              "index/${collection_name}/*"
            ],
            "Permission": [
                "aoss:DescribeIndex",
                "aoss:ReadDocument",
                "aoss:WriteDocument"
            ],
            "ResourceType": "index"
          }
        ],
        "Principal": [
            "arn:aws:iam::${account-id}:role/${kb-service-role}"
        ]
    }
]
```

------
#### [ Pigna, Redis Enterprise Cloud or MongoDB Atlas ]

Per integrare un indice vettoriale MongoDB Atlas PineconeRedis Enterprise Cloud, allega la seguente politica basata sull'identità al ruolo del servizio della Knowledge Base per consentirgli di accedere al segreto per l'indice vettoriale. Gestione dei segreti AWS

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
        "Effect": "Allow",
        "Action": [
            "bedrock:AssociateThirdPartyKnowledgeBase"
        ],
        "Resource": "*",
        "Condition": {
            "StringEquals": {
                "bedrock:ThirdPartyKnowledgeBaseCredentialsSecretArn": "arn:aws:secretsmanager:us-east-1:123456789012:secret:${secret-id}"
            }
        }
    }]
}
```

------

------

## Configura le policy di accesso alla rete per la tua knowledge base Amazon OpenSearch Serverless
<a name="kb-create-security-network"></a>

Se utilizzi una raccolta privata Amazon OpenSearch Serverless per la tua knowledge base, è possibile accedervi solo tramite un endpoint AWS PrivateLink VPC. Puoi creare una raccolta Amazon OpenSearch Serverless privata quando [configuri la tua raccolta vettoriale Amazon OpenSearch Serverless oppure puoi rendere privata una raccolta](knowledge-base-setup.md) Amazon Serverless esistente (inclusa una raccolta Amazon OpenSearch Serverless creata per te dalla console Amazon Bedrock) quando configuri la politica di accesso alla rete.

Le seguenti risorse nell'Amazon OpenSearch Service Developer Guide ti aiuteranno a comprendere la configurazione richiesta per una raccolta Amazon OpenSearch Serverless privata:
+ Per ulteriori informazioni sulla configurazione di un endpoint VPC per una raccolta Amazon Serverless privata, consulta Accedere ad [Amazon OpenSearch OpenSearch Serverless usando un](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) endpoint di interfaccia (). AWS PrivateLink
+ Per ulteriori informazioni sulle politiche di accesso alla rete in Amazon OpenSearch Serverless, consulta [Accesso alla rete per Amazon OpenSearch Serverless](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html).

Per consentire a una knowledge base Amazon Bedrock di accedere a una raccolta Amazon OpenSearch Serverless privata, devi modificare la politica di accesso alla rete per la raccolta Amazon OpenSearch Serverless per consentire Amazon Bedrock come servizio di origine. Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

1. Apri la console Amazon OpenSearch Service all'indirizzo [https://console.aws.amazon.com/aos/](https://console.aws.amazon.com/aos/).

1. Seleziona **Raccolte** nel riquadro di navigazione a sinistra. Scegli la tua raccolta.

1. Nella sezione **Rete** seleziona la **policy associata**.

1. Scegli **Modifica**.

1. Per **Seleziona il metodo di definizione della policy**, esegui una delle seguenti operazioni:
   + Mantieni l’opzione **Seleziona il metodo di definizione della policy** impostata su **Editor visivo** e configura le seguenti impostazioni nella sezione **Regola 1**:

     1. (Facoltativo) Nel campo **Nome regola** immetti un nome per la regola di accesso alla rete.

     1. In **Accesso alle raccolte da**, seleziona **Privato (consigliato)**.

     1. Seleziona **Accesso privato al servizio AWS**. Immetti **bedrock.amazonaws.com** nella casella di testo.

     1. Deseleziona **Abilita l'accesso ai OpenSearch pannelli di controllo**.
   + Scegli **JSON** e incolla la seguente policy nell’**editor JSON**.

     ```
     [
         {                                        
             "AllowFromPublic": false,
             "Description":"${network access policy description}",
             "Rules":[
                 {
                     "ResourceType": "collection",
                     "Resource":[
                         "collection/${collection-id}"
                     ]
                 }
             ],
             "SourceServices":[
                 "bedrock.amazonaws.com"
             ]
         }
     ]
     ```

1. Scegliere **Aggiorna**.

------
#### [ API ]

Per modificare la politica di accesso alla rete per la tua raccolta Amazon OpenSearch Serverless, procedi come segue:

1. Invia una [GetSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_GetSecurityPolicy.html)richiesta con un endpoint [OpenSearch Serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica l’elemento `name` della policy e `type` come `network`. Prendere nota dell'ID `policyVersion` nella risposta.

1. Invia una [UpdateSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_UpdateSecurityPolicy.html)richiesta con un endpoint [OpenSearch serverless](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Specifica almeno i seguenti campi:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/kb-create-security.html)

   ```
   [
       {                                        
           "AllowFromPublic": false,
           "Description":"${network access policy description}",
           "Rules":[
               {
                   "ResourceType": "collection",
                   "Resource":[
                       "collection/${collection-id}"
                   ]
               }
           ],
           "SourceServices":[
               "bedrock.amazonaws.com"
           ]
       }
   ]
   ```

Per un AWS CLI esempio, vedi [Creazione di politiche di accesso ai dati () AWS CLI](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

------
+ Utilizza la console OpenSearch di Amazon Service seguendo la procedura descritta in [Creazione di politiche di rete (console)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html#serverless-network-console). Invece di creare una policy di rete, prendi nota della **policy associata** nella sottosezione **Rete** dei dettagli della raccolta.