

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einer Datenquelle auf
<a name="knowledge-base-build"></a>

Wissensdatenbanken für Amazon Bedrock unterstützt eine Vielzahl von Dateitypen, die in Datenquellen gespeichert sind. Wissensdatenbanken für Amazon Bedrock benötigt eine Konvertierung der Daten in Vektoreinbettungen, also eine numerische Darstellung der Daten, um die Daten aus einer Datenquelle zu interpretieren. Diese Einbettungen können mit den Vektordarstellungen einer Abfrage verglichen werden, um die Ähnlichkeit zu beurteilen und zu bestimmen, welche Quellen beim Datenabruf zurückgegeben werden sollen.

Das Verbinden Ihrer Wissensdatenbank mit einer Datenquelle umfasst die folgenden allgemeinen Schritte:

1. Verbinden Sie die Wissensdatenbank mit einer unterstützten Datenquelle.

1. Wenn Ihre Datenquelle multimodale Daten enthält, einschließlich Bilder, Audio- und Videodateien, müssen Sie einen geeigneten Verarbeitungsansatz und ein Einbettungsmodell wählen, das multimodale Inhalte unterstützt.
**Anmerkung**  
Multimodale Daten werden nur von Amazon S3 und benutzerdefinierten Datenquellen unterstützt. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

1. Wählen Sie ein Einbettungsmodell, um die Daten in der Datenquelle in Vektoreinbettungen zu konvertieren.

1. Wählen Sie einen Vektorspeicher, um die Vektordarstellung Ihrer Daten zu speichern.

1. Synchronisieren Sie Ihre Daten, sodass sie in Vektoreinbettungen konvertiert werden.

1. Sollten die Daten in der Datenquelle geändert werden, müssen Sie die Änderungen erneut synchronisieren.

**Topics**
+ [Voraussetzungen für die Erstellung einer Amazon Bedrock-Wissensdatenbank mit einer unstrukturierten Datenquelle](knowledge-base-prereq.md)
+ [Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sind](kb-osm-permissions-prereq.md)
+ [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md)
+ [Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank](kb-data-source-sync-ingest.md)
+ [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md)
+ [So zeigen Sie Informationen zur Datenquelle Ihrer Amazon-Bedrock-Wissensdatenbank an](kb-ds-info.md)
+ [Ändern einer Datenquelle für Ihre Amazon-Bedrock-Wissensdatenbank](kb-ds-update.md)
+ [So löschen Sie eine Datenquelle aus Ihrer Amazon-Bedrock-Wissensdatenbank](kb-ds-delete.md)

# Voraussetzungen für die Erstellung einer Amazon Bedrock-Wissensdatenbank mit einer unstrukturierten Datenquelle
<a name="knowledge-base-prereq"></a>

Amazon Bedrock-Wissensdatenbanken benötigen Daten und Modelle zum Abrufen und Generieren von Antworten, einen Vektorspeicher zum Speichern der Vektordarstellung der Daten sowie AWS Identity and Access Management Berechtigungen für den Zugriff auf Ihre Daten und die Ausführung von Aktionen.

Bevor Sie eine Wissensdatenbank erstellen können, müssen Sie die folgenden Voraussetzungen erfüllen. Allgemeine Berechtigungsanforderungen finden Sie unter [Einrichten von Berechtigungen für einen Benutzer oder eine Rolle zum Erstellen und Verwalten von Wissensdatenbanken](knowledge-base-prereq-permissions-general.md).

1. Stellen Sie sicher, dass sich Ihre Daten in einem [unterstützten Datenquellen-Connector](data-source-connectors.md) befinden.

1. (Optional) [Richten Sie einen eigenen unterstützten Vektorspeicher ein](knowledge-base-setup.md). Sie können diesen Schritt überspringen, wenn Sie den verwenden möchten AWS-Managementkonsole , um automatisch einen Vektorspeicher für Sie zu erstellen.

1. (Optional) Erstellen Sie eine benutzerdefinierte AWS Identity and Access Management (IAM) [-Servicerolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) mit den entsprechenden Berechtigungen, indem Sie den Anweisungen unter [Erstellen einer Servicerolle für Wissensdatenbanken für Amazon Bedrock](kb-permissions.md) folgen. Sie können die AWS-Managementkonsole zum automatischen Erstellen einer Servicerolle verwenden.
**Anmerkung**  
Wenn Sie mit Amazon OpenSearch Service (einschließlich Amazon OpenSearch Serverless) eine Wissensdatenbank erstellen, sind für die Servicerolle zusätzliche Berechtigungen erforderlich, die über die von AWS verwalteten Richtlinien hinausgehen. BedrockFullAccess Dazu gehören die Berechtigungen `aoss:CreateAccessPolicy`, `iam:CreateServiceLinkedRole` und `iam:CreateRole`.

1. (Optional) Richten Sie zusätzliche Sicherheitskonfigurationen ein, indem Sie die Schritte unter [Verschlüsselung von Wissensdatenbankressourcen](encryption-kb.md) befolgen.

1. (Optional) Wenn Sie die API-Operation [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) verwenden möchten, um Antworten auf der Grundlage von Informationen aus Ihrer Wissensdatenbank zu generieren, fordern Sie Zugriff auf die Modelle an, die Sie in den entsprechenden Regionen verwenden werden, indem Sie die Schritte unter [Zugriff auf Amazon-Bedrock-Basismodelle](model-access.md) befolgen.

**Topics**
+ [Voraussetzungen für Ihre Amazon-Bedrock-Wissensdatenbankdaten](knowledge-base-ds.md)
+ [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md)

# Voraussetzungen für Ihre Amazon-Bedrock-Wissensdatenbankdaten
<a name="knowledge-base-ds"></a>

Eine Datenquelle enthält Dateien oder Inhalte mit Informationen, die bei einer Abfrage Ihrer Wissensdatenbank abgerufen werden können. Ihre Dokumente oder Inhalte müssen in mindestens einer der [unterstützten Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html) gespeichert werden.

## Unterstützte Dokumentformate und Einschränkungen für Wissensdatenbankdaten
<a name="kb-ds-supported-doc-formats-limits"></a>

Wenn Sie eine Verbindung zu einer [unterstützten Datenquelle](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html) herstellen, wird der Inhalt in Ihre Wissensdatenbank aufgenommen.

Wenn Sie Amazon S3 zum Speichern Ihrer Dateien verwenden oder Ihre Datenquelle angehängte Dateien enthält, müssen Sie zunächst überprüfen, ob die einzelnen Quelldokumentdateien den folgenden Anforderungen entsprechen:
+ Die Quelldateien haben die folgenden unterstützten Formate:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-ds.html)
+ Die einzelnen Dateigrößen überschreiten nicht das Kontingent von 50 MB.

Wenn Sie eine Amazon-S3-Datenquelle oder eine benutzerdefinierte Datenquelle verwenden, können Sie multimodale Daten verwenden, einschließlich Bildern im Format JPEG (.jpeg) oder PNG (.png) oder Dateien, die Tabellen, Diagramme oder andere Bilder enthalten.

**Anmerkung**  
Die maximale Größe von JPEG- und .PNG-Dateien beträgt 3,75 MB.

# Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben
<a name="knowledge-base-setup"></a>

Zum Speichern der Vektoreinbettungen, in die Ihre Dokumente konvertiert werden, verwenden Sie einen Vektorspeicher. Wissensdatenbanken für Amazon Bedrock unterstützt einen Schnellerstellungsablauf für einige Vektorspeicher. Wenn Sie Amazon Bedrock automatisch einen Vektorindex für Sie in einem dieser Vektorspeicher erstellen soll, überspringen Sie diese Voraussetzung und fahren Sie mit [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) fort.

Wenn Sie binäre Vektoreinbettungen anstelle der standardmäßigen Gleitkomma-Vektoreinbettungen (float32) speichern möchten, müssen Sie einen Vektorspeicher verwenden, der binäre Vektoren unterstützt.

**Anmerkung**  
Amazon OpenSearch Serverless und Amazon OpenSearch Managed Clusters sind die einzigen Vektorspeicher, die das Speichern von binären Vektoren unterstützen.

Sie können einen eigenen unterstützten Vektorspeicher einrichten, um die Darstellung Ihrer Daten durch Vektoreinbettungen zu indizieren. Sie erstellen Felder für die folgenden Daten:
+ Ein Feld für die Vektoren, die mit dem von Ihnen ausgewählten Einbettungsmodell aus dem Text in Ihrer Datenquelle generiert wurden
+ Ein Feld für die Textblöcke, die aus den Dateien in Ihrer Datenquelle extrahiert wurden
+ Felder für Metadaten von Quelldateien, die Amazon Bedrock verwaltet
+ (Wenn Sie eine Amazon-Aurora-Datenbank verwenden und die [Filterung nach Metadaten](kb-test-config.md) einrichten möchten) Felder für Metadaten, die Sie Ihren Quelldateien zuordnen. Wenn Sie die Filterung in anderen Vektorspeichern einrichten möchten, müssen Sie diese Felder nicht entsprechend einrichten.

Sie können Vektorspeicher von Drittanbietern mit einem KMS-Schlüssel verschlüsseln. Weitere Informationen finden Sie unter [Verschlüsselung von Wissensdatenbankressourcen](https://docs.aws.amazon.com/bedrock/latest/userguide/encryption-kb.html).

Wählen Sie die Registerkarte aus, die dem Vektorspeicherservice entspricht, mit dem Sie Ihren Vektorindex erstellen werden.

**Anmerkung**  
Ihre Wahl des Einbettungsmodells und der Vektordimensionen kann sich auf die verfügbaren Vektorspeicheroptionen auswirken. Wenn Sie Ihren bevorzugten Vektorspeicher nicht verwenden können, wählen Sie kompatible Optionen für das Einbettungsmodell und die Vektordimensionen aus.

------
#### [ Amazon OpenSearch Serverless ]

1. Um Berechtigungen zu konfigurieren und eine Vektorsuchsammlung in Amazon OpenSearch Serverless in der zu erstellen AWS-Managementkonsole, folgen Sie den Schritten 1 und 2 unter [Arbeiten mit Vektorsuchsammlungen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) im Amazon OpenSearch Service Developer Guide. Beachten Sie bei der Einrichtung Ihrer Sammlung die folgenden Überlegungen:

   1. Geben Sie der Sammlung einen Namen und eine Beschreibung Ihrer Wahl.

   1. Damit Ihre Sammlung privat bleibt, wählen Sie im Bereich **Sicherheit** die Option **Standard erstellen** aus. Wählen Sie dann im Abschnitt **Netzwerkzugriffseinstellungen** **VPC** als **Zugriffstyp** und einen VPC-Endpunkt aus. Weitere Informationen zum Einrichten eines VPC-Endpunkts für eine Amazon OpenSearch Serverless-Sammlung finden Sie unter [Zugriff auf Amazon OpenSearch Serverless über einen Schnittstellenendpunkt (AWS PrivateLink)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) im Amazon OpenSearch Service Developer Guide.

1. Notieren Sie sich nach der Erstellung der Sammlung den **Sammlungs-ARN** zum Anlegen der Wissensdatenbank.

1. Wählen Sie im linken Navigationsbereich unter **Serverless** die Option **Sammlungen** aus. Wählen Sie dann Ihre Vektorsuchsammlung aus.

1. Wechseln Sie zur Registerkarte **Indizes**. Wählen Sie dann **Vektorindex erstellen** aus.

1. Geben Sie im Abschnitt **Details zum Vektorindex** im Feld **Vektor-Indexname** einen Namen für Ihren Index ein.

1. Wählen Sie im Abschnitt **Vektorfelder** die Option **Vektorfeld hinzufügen** aus. Amazon Bedrock speichert die Vektoreinbettungen für Ihre Datenquelle in diesem Feld. Stellen Sie die folgenden Konfigurationen bereit:
   + **Vektorfeldname** – Geben Sie einen Namen für das Feld ein (z. B. **embeddings**).
   + **Engine** – Dies ist die Vektor-Engine, die für die Suche verwendet wird. Wählen Sie **faiss** aus.
   + **Dimensionen** – Die Anzahl der Dimensionen im Vektor. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + **Entfernungsmetrik** – Die Metrik, die verwendet wird, um die Ähnlichkeit zwischen Vektoren zu messen. Wir empfehlen, **Euklidisch** für Gleitkomma-Vektoreinbettungen zu verwenden.

1. Erweitern Sie den Abschnitt **Verwaltung von Metadaten** und fügen Sie zwei Felder hinzu, um den Vektorindex so zu konfigurieren, dass zusätzliche Metadaten gespeichert werden, die von einer Wissensdatenbank mit Vektoren abgerufen werden können. In der folgenden Tabelle werden die Felder und Werte beschrieben, die für jedes Feld angegeben werden müssen:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

1. Notieren Sie sich die Namen, die Sie für den Vektorindex, das Vektorfeld und die Zuordnungsfelder für die Metadatenverwaltung ausgewählt haben, um später Ihre Wissensdatenbank zu erstellen. Wählen Sie die Option **Erstellen** aus.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Sammlungs-ARN | Sammlungs-ARN | collectionARN | Der Amazon-Ressourcenname (ARN) der Vektorsuchsammlung | 
| Vektor-Indexname | Vektor-Indexname | vectorIndexName | Der Name des Vektorindex | 
| Vektorfeldname | Vektorfeld | vectorField | Der Name des Feldes, in dem Vektoreinbettungen für Ihre Datenquellen gespeichert werden sollen | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeld | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet  | 

Eine ausführlichere Dokumentation zur Einrichtung eines Vektorspeichers in Amazon OpenSearch Serverless finden Sie unter [Arbeiten mit Vektorsuchsammlungen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) im Amazon OpenSearch Service Developer Guide.

------
#### [ Amazon OpenSearch Service Managed Clusters ]

**Wichtig**  
Bevor Sie Domain-Ressourcen in OpenSearch verwalteten Clustern verwenden können, müssen Sie bestimmte IAM-Zugriffsberechtigungen und -richtlinien konfigurieren. Weitere Informationen finden Sie unter [Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sindÜberblick über die Berechtigungskonfiguration](kb-osm-permissions-prereq.md).
Wenn bei der Datenaufnahme Fehler auftreten, deutet dies möglicherweise auf eine unzureichende OpenSearch Domänenkapazität hin. Zur Behebung dieses Problems erhöhen Sie die Kapazität Ihrer Domain, indem Sie höhere IOPS bereitstellen und die Durchsatzeinstellungen anpassen. Weitere Informationen finden Sie unter [Best Practices für den Betrieb von Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

1. Um einen Domain- und Vektorindex in OpenSearch Cluster in the zu erstellen AWS-Managementkonsole, folgen Sie den Schritten, die unter [ OpenSearch Service-Domains erstellen und verwalten](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) im *Amazon OpenSearch Service Developer Guide* beschrieben sind.

   Beachten Sie bei der Einrichtung Ihrer Domain die folgenden Überlegungen:

   1. Geben Sie der Domain einen Namen Ihrer Wahl.

   1. Wir empfehlen Ihnen, die Option **Einfach erstellen** zu verwenden, um schnell mit der Erstellung Ihrer Domain zu beginnen.
**Anmerkung**  
Mit dieser Option erhalten Sie eine Domain mit geringem Durchsatz. Wenn Sie größere Workloads haben, die einen höheren Durchsatz erfordern, wählen Sie die Option **Standard erstellen** aus. Sie können die Kapazität später nach Bedarf anpassen. Mit dieser Option können Sie mit der niedrigsten Kapazität beginnen und diese dann später nach Bedarf ändern.

   1. Für Netzwerk müssen Sie **Öffentlicher Zugriff** wählen. OpenSearch Domänen, die sich hinter einer VPC befinden, werden von Ihrer Knowledge Base nicht unterstützt.

   1. **Version**: Wenn Sie binäre Vektoreinbettungen verwenden, benötigt Wissensdatenbanken für Amazon Bedrock eine Engine-Version 2.16 oder höher. Darüber hinaus ist eine Version 2.13 oder höher erforderlich, um einen k-nn-Index zu erstellen. Weitere Informationen finden Sie unter [K-NN Search](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/knn.html) im *Amazon OpenSearch Service Developer Guide*.

   1. Wir empfehlen, den **Dual-Stack-Modus** zu verwenden.

   1. Wir empfehlen Ihnen, eine **differenzierte Zugriffskontrolle** zu aktivieren, um die Daten in Ihrer Domain zu schützen und die Berechtigungen, die Ihrer Knowledge-Base-Servicerolle Zugriff auf die OpenSearch Domain und das Stellen von Anfragen gewähren, weiter zu kontrollieren.

   1. Übernehmen Sie für alle anderen Einstellungen die Standardwerte und wählen Sie **Erstellen** aus, um Ihre Domain zu erstellen.

1. Sobald die Domain erstellt wurde, klicken Sie darauf, um sich den **Domain-ARN** und den **Domainendpunkt** für die Erstellung der Wissensdatenbank zu notieren.

1. Nachdem Sie die Domain erstellt haben, können Sie einen Vektorindex erstellen, indem Sie die folgenden Befehle auf einem OpenSearch Dashboard ausführen oder curl-Befehle verwenden. Weitere Informationen finden Sie in der [OpenSearch -Dokumentation](https://opensearch.org/docs/latest/search-plugins/knn/knn-index/).

   Beim Ausführen des Befehls:
   + Geben Sie einen Namen für das Vektorfeld ein (z. B. **embeddings**).
   + Stellen Sie sicher, dass der für die Suche verwendete Vektor **faiss** ist. **nmslib** wird nicht unterstützt.
   + Im Hinblick auf die Anzahl der Dimensionen des Vektors bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:
**Anmerkung**  
Das Textmodell Titan V2 Embeddings unterstützt mehrere Dimensionen. Möglich ist auch 256 oder 512.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + Sie können zwei Felder hinzufügen, um den Vektorindex so zu konfigurieren, dass zusätzliche Metadaten gespeichert werden, die von einer Wissensdatenbank mit Vektoren abgerufen werden können. In der folgenden Tabelle werden die Felder und Werte beschrieben, die jeweils angegeben werden müssen:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

   ```
   PUT /<index-name>
   {
       "settings": {
           "index": {
               "knn": true
           }
       },
       "mappings": {
           "properties": {
               "<vector-name>": {
                   "type": "knn_vector",
                   "dimension": <embedding-dimension>,
                   "data_type": "binary",          # Only needed for binary embeddings
                   "space_type": "l2" | "hamming", # Use l2 for float embeddings and hamming for binary embeddings
                   "method": {
                       "name": "hnsw",
                       "engine": "faiss",
                       "parameters": {
                           "ef_construction": 128,
                           "m": 24
                       }
                   }
               },
   
               "AMAZON_BEDROCK_METADATA": {
                   "type": "text",
                   "index": "false"
               },
               "AMAZON_BEDROCK_TEXT_CHUNK": {
                   "type": "text",
                   "index": "true"            
               }
           }
       }
   }
   ```

1. Notieren Sie sich den Domain-ARN und Endpunkt sowie die Namen, die Sie für den Vektorindex, das Vektorfeld und die Zuordnungsfelder für die Metadatenverwaltung ausgewählt haben, um später Ihre Wissensdatenbank zu erstellen.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Domain-ARN | Domain-ARN | domainARN | Der Amazon-Ressourcenname (ARN) der OpenSearch Domain. | 
| Domain-Endpunkt | Domain-Endpunkt | domainEndpoint | Der Endpunkt für die Verbindung mit der OpenSearch Domain. | 
| Vektor-Indexname | Vektor-Indexname | vectorIndexName | Der Name des Vektorindex | 
| Vektorfeldname | Vektorfeld | vectorField | Der Name des Feldes, in dem Vektoreinbettungen für Ihre Datenquellen gespeichert werden sollen | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeld | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet  | 

------
#### [ Amazon S3 Vectors ]

Amazon S3 Vectors bietet kostengünstigen Vektorspeicher in Amazon S3, der zum Speichern und Abfragen von Vektordaten verwendet werden kann. Es bietet eine dauerhafte und elastische Speicherung großer Vektordatensätze mit einer Abfrageleistung von weniger als einer Sekunde. Amazon S3 Vectors eignet sich am besten für seltene Abfrage-Workloads und kann bei der Verwendung in Retrieval Augmented Generation (RAG) und Anwendungen für die semantische Suche zur Kostensenkung beitragen.

Amazon S3 Vectors führt S3-Vektor-Buckets ein, die Vektorindizes enthalten, die Sie anhand ihrer semantischen Bedeutung und Ähnlichkeit abfragen können. Es kann verwendet werden, um Antwortzeiten von weniger als einer Sekunde zu erreichen und Kosten zu senken. Gleichzeitig werden Vektordaten in großem Umfang gespeichert, abgerufen und abgefragt, ohne dass eine Infrastruktur bereitgestellt werden muss. In einem Vektor-Bucket können Sie Ihre Vektordaten in Vektorindizes organisieren. Ihr Vektor-Bucket kann mehrere Vektorindizes haben. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.

**Anmerkung**  
Sie können eine Wissensdatenbank für Amazon S3 Vectors in allen AWS-Region Umgebungen erstellen, in denen sowohl Amazon Bedrock als auch Amazon S3 Vectors verfügbar sind. Informationen zur regionalen Verfügbarkeit von Amazon S3 Vectors finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.
Wenn Sie sehr hohe Token-Zahlen mit hierarchischem Chunking in Amazon Bedrock Knowledge Bases verwenden, können Sie die maximalen Größenbeschränkungen für Metadaten überschreiten, da Eltern-Kind-Chunk-Beziehungen und hierarchischer Kontext als nicht filterbare Metadaten in Amazon S3 Vectors gespeichert werden. Weitere Informationen zu Größenbeschränkungen für Metadaten pro Vektor finden Sie unter [Einschränkungen und Einschränkungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) im *Amazon S3 S3-Benutzerhandbuch*. Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
<a name="metadata-support"></a>
**Unterstützung von Metadaten**  
Sie können Metadaten als Schlüssel-Wert-Paare an jeden Vektor anhängen. Standardmäßig sind Metadaten filterbar und können in Suchanfragen nach Ähnlichkeit verwendet werden, um nach Bedingungen wie Daten, Kategorien oder Benutzereinstellungen zu filtern.

Sie können Metadaten auch so konfigurieren, dass sie nicht gefiltert werden können, wenn Sie den Vektorindex erstellen. Amazon-S3-Vektorindizes unterstützen die Typen Zeichenfolge, Boolescher Wert und Zahl.

Wenn Sie Amazon S3 Vectors mit Amazon Bedrock Knowledge Bases verwenden, können Sie bis zu 1 KB an benutzerdefinierten Metadaten (einschließlich filterbarer und nicht filterbarer Metadaten) und 35 Metadatenschlüssel pro Vektor anhängen. Weitere Informationen zu Größenbeschränkungen für Metadaten pro Vektor finden Sie unter [Einschränkungen und Einschränkungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) im *Amazon S3 S3-Benutzerhandbuch*.

Wenn die Metadaten diese Grenzwerte überschreiten, löst der Aufnahmejob beim Auffüllen des Vektorindex eine Ausnahme aus. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.

**Erforderliche Berechtigungen**  
Stellen Sie sicher, dass Ihre IAM-Richtlinie Amazon Bedrock den Zugriff auf Ihren Vektorindex im S3-Vektor-Bucket erlaubt. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter [Erstellen einer Servicerolle für Wissensdatenbanken für Amazon Bedrock](kb-permissions.md).

**Erstellen eines S3-Vektor-Buckets und eines Index**  
Damit Sie Amazon S3 Vectors mit Ihrer Wissensdatenbank verwenden können, müssen Sie einen S3-Vektor-Bucket und einen Vektorindex erstellen. Sie können mit der Amazon S3 S3-Konsole oder dem AWS SDK einen Vektor-Bucket und einen Index erstellen. AWS CLI Eine ausführliche Anleitung finden Sie unter [Erstellen eines Vektorindex](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-index-create.html) im *Amazon-S3-Benutzerhandbuch*.

Beachten Sie die folgenden Überlegungen, wenn Sie Ihren Vektor-Bucket und Index in der [Amazon-S3-Konsole](https://console.aws.amazon.com/s3/vector-buckets#) erstellen.

1. Beachten Sie beim Erstellen Ihres S3-Vektor-Buckets die folgenden Überlegungen.
   + Geben Sie einen eindeutigen **Namen des Vektor-Buckets** an.
   + (Optional) Amazon S3 verschlüsselt die Daten automatisch unter Verwendung der standardmäßigen **serverseitigen Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3**). Sie können wählen, ob Sie stattdessen diese Standardverschlüsselung oder die **serverseitige Verschlüsselung mit AWS Key Management Service-Schlüsseln (SSE-KMS**) verwenden möchten.
**Anmerkung**  
Der Verschlüsselungstyp kann nach dem Anlegen des Vektor-Buckets nicht mehr geändert werden.

      step-by-stepAnweisungen finden Sie unter [Verschlüsselung mit AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-bucket-encryption.html) KMS-Schlüsseln.

1. Nachdem Sie den S3-Vektor-Bucket erstellt haben, notieren Sie sich den **Amazon-Ressourcennamen (ARN)** des Vektor-Buckets für die Erstellung der Wissensdatenbank.

1. Wählen Sie den Vektor-Bucket aus, den Sie angelegt haben, und erstellen Sie dann einen Vektorindex. Beachten Sie beim Erstellen des Vektorindex die folgenden Überlegungen.
   + **Name des Vektorindex** – Geben Sie einen Namen für das Feld ein (z. B. **embeddings**).
   + **Dimension** – Hiermit wird die Anzahl der Dimensionen im Vektor festgelegt. Die Dimensionen müssen als Wert zwischen 1 und 4 096 eingegeben werden. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor auf der Grundlage des ausgewählten Einbettungsmodells enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + 
**Anmerkung**  
Amazon S3 Vectors unterstützt nur Gleitkomma-Einbettungen. Binäre Einbettungen werden nicht unterstützt.

     **Entfernungsmetrik** – Die Metrik, die verwendet wird, um die Ähnlichkeit zwischen Vektoren zu messen. Sie können **Kosinus** oder **Euklidisch** verwenden.

1. Erweitern Sie das Feld **Zusätzliche Einstellungen** und geben Sie alle nicht filterbaren Metadaten in das Feld **Nicht filterbare Metadaten** ein.

   Sie können bis zu 10 nicht filterbare Metadatenschlüssel konfigurieren. Wählen Sie **Schlüssel hinzufügen** aus und fügen Sie `AMAZON_BEDROCK_TEXT` und `AMAZON_BEDROCK_METADATA` als Schlüssel hinzu.

1. Wählen Sie unter **Verschlüsselung** die Option **Verschlüsselungstyp angeben** aus. Sie haben die Möglichkeit, **Bucket-Einstellungen für die Verschlüsselung zu verwenden** oder die Verschlüsselungseinstellungen für den Vektorindex zu überschreiben. Wenn Sie die Einstellungen auf Bucket-Ebene überschreiben, haben Sie die Möglichkeit, den Verschlüsselungstyp für den Vektorindex als **serverseitige Verschlüsselung mit AWS Key Management Service-Schlüsseln (SSE-KMS)** oder als **serverseitige Standardverschlüsselung mit verwalteten Amazon S3 S3-Schlüsseln** (SSE-S3) anzugeben. Weitere Informationen zur Einstellung der Verschlüsselungskonfiguration für Vektorindizes finden Sie unter [Datenschutz und Verschlüsselung in Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-data-encryption.html).

1. Unter **Tags (optional)** können Sie Tags als Schlüssel-Wert-Paare hinzufügen, um die Vektorindexkosten mithilfe von AWS Billing and Cost Management nachzuverfolgen und zu organisieren. Geben Sie einen **Key (Schlüssel)** und einen **Value (Wert)** ein. Um ein weiteres Tag hinzuzufügen, wählen Sie **Add Tag (Tag hinzufügen)**. Sie können bis zu 50 Tags für einen Vektorindex eingeben. Weitere Informationen finden Sie unter [Verwenden von Tags mit Amazon S3 S3-Vektorindizes](https://docs.aws.amazon.com/console/s3/vector-index-create-with-tag).

1. Erstellen Sie den Vektorindex und notieren Sie sich den **Amazon-Ressourcennamen (ARN)** des Vektorindex für die spätere Erstellung der Wissensdatenbank.

**Erstellen einer Wissensdatenbank für den S3-Vektor-Bucket**  
Nachdem Sie diese Informationen zusammengetragen haben, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. Wenn Sie Ihre Wissensdatenbank mit dem S3-Vektor-Bucket erstellen, müssen Sie den ARN des Vektor-Buckets und den Vektorindex angeben. Der Vektorindex speichert die Einbettungen, die aus Ihren Datenquellen generiert wurden. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben:


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| ARN des Vektor-Buckets | ARN des S3-Vektor-Buckets | vectorBucketArn | Der Amazon-Ressourcenname (ARN) Ihres S3-Vektor-Buckets | 
| ARN des Vektorindex | ARN des S3-Vektorindex | vectorIndexARN | Der Amazon-Ressourcenname (ARN) des Vektorindex Ihres S3-Vektor-Buckets | 

------
#### [ Amazon Aurora (RDS) ]

1. Erstellen Sie einen Datenbank-Cluster (DB-Cluster), ein Schema und eine Tabelle von Amazon Aurora, indem Sie die Schritte unter [Verwenden von Aurora PostgreSQL als Wissensdatenbank](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.VectorDB.html) befolgen. Wenn Sie die Tabelle erstellen, konfigurieren Sie sie mit den folgenden Spalten und Datentypen. Sie können anstelle der in der obigen Tabelle aufgeführten Spaltennamen eigene Namen verwenden. Notieren Sie sich die von Ihnen ausgewählten Spaltennamen, damit Sie sie bei der Einrichtung der Wissensdatenbank angeben können.

   Sie müssen diese Felder angeben, bevor Sie die Wissensdatenbank erstellen. Die Felder können nicht aktualisiert werden, nachdem die Wissensdatenbank erstellt wurde.
**Wichtig**  
Der Aurora-Cluster muss sich in demselben befinden AWS-Konto wie der, in dem die Wissensdatenbank für Amazon Bedrock erstellt wurde.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

1. Sie müssen einen Index für Spalten, Vektor und Text für Ihre Text- und Einbettungsfelder erstellen. Wenn Sie das Feld „Benutzerdefinierte Metadaten“ verwenden, müssen Sie auch einen GIN-Index für diese Spalte erstellen. GIN-Indizes können verwendet werden, um effizient nach Schlüssel-Wert-Paaren in JSONB-Dokumenten für die Metadatenfilterung zu suchen. Weitere Informationen finden Sie unter [JSONB-Indizierung](https://www.postgresql.org/docs/current/datatype-json.html#JSON-INDEXING) in der *PostgreSQL-Dokumentation*.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
**Anmerkung**  
Um die Genauigkeit und Latenz bei der Hybridsuche mit englischen Inhalten zu verbessern, sollten Sie das Wörterbuch „Englisch“ anstelle von „einfach“ verwenden:  

   ```
   CREATE INDEX ON bedrock_integration.bedrock_kb USING gin (to_tsvector('english', chunks));
   ```

1. (Optional) Wenn Sie [Ihren Dateien Metadaten zum Filtern hinzugefügt](kb-test-config.md) haben, empfehlen wir Ihnen, den Spaltennamen im Feld „Benutzerdefinierte Metadaten“ anzugeben, um all Ihre Metadaten in einer einzigen Spalte zu speichern. Während der [Datenerfassung](kb-data-source-sync-ingest.md) wird diese Spalte mit allen in den Metadatendateien enthaltenen Informationen aus Ihren Datenquellen gefüllt. Wenn Sie dieses Feld angeben möchten, müssen Sie einen GIN-Index für diese Spalte erstellen.
**Anmerkung**  
Wenn Sie häufig Bereichsfilter für numerische Metadaten verwenden, erstellen Sie zur Optimierung der Leistung einen Index für den jeweiligen Schlüssel. Wenn Sie beispielsweise Filter wie `"lessThan": { "key": "year", "value": 1989 }` verwenden, erstellen Sie einen Ausdrucksindex für den Schlüssel `year`. Weitere Informationen finden Sie unter [Indizes für Ausdrücke](https://www.postgresql.org/docs/current/indexes-expressional.html) in der *PostgreSQL-Dokumentation*.  

   ```
   CREATE INDEX ON your_table ((custom_metadata->>'year')::double precision
   ```

   Wenn Sie diesen Feldnamen nicht angeben, können Sie alternativ für jedes Metadatenattribut in Ihren Dateien eine Spalte erstellen und den Datentyp (Text, Zahl oder Boolescher Wert) angeben. Wenn das Attribut `genre` beispielsweise in Ihrer Datenquelle vorhanden ist, würden Sie eine Spalte mit dem Namen `genre` und der Angabe `text` als Datentyp hinzufügen. Während der [Datenerfassung](kb-data-source-sync-ingest.md) werden diese separaten Spalten mit den entsprechenden Attributwerten gefüllt.

1. Konfigurieren Sie ein AWS Secrets Manager Geheimnis für Ihren Aurora-DB-Cluster, indem Sie die Schritte unter [Passwortverwaltung mit Amazon Aurora und befolgen AWS Secrets Manager](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/rds-secrets-manager.html).

1. Notieren Sie sich die folgenden Informationen, nachdem Sie Ihren DB-Cluster erstellt und das Geheimnis eingerichtet haben.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

------
#### [ Neptune Analytics graphs (GraphRAG) ]

1. Wenn Sie ein Diagramm und einen Vektorspeicher in Neptune Analytics in der AWS-Managementkonsole erstellen möchten, folgen Sie den Schritten, die unter [Vektorindizierung in Neptune Analytics](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/vector-index.html) im *Neptune-Analytics-Benutzerhandbuch* beschrieben sind.
**Anmerkung**  
Wenn Sie Neptune GraphRAG verwenden möchten, erstellen Sie ein leeres Neptune-Analytics-Diagramm mit einem Vektorsuchindex. Der Vektorsuchindex kann nur erstellt werden, wenn das Diagramm angelegt wurde. Wenn Sie ein [Neptune-Analytics-Diagramm in der Konsole](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/create-graph-using-console.html) erstellen, geben Sie gegen Ende des Vorgangs die Indexdimension unter **Einstellungen für die Vektorsuche** an.

   Beachten Sie beim Erstellen des Diagramms die folgenden Überlegungen:

   1. Geben Sie dem Diagramm einen Namen Ihrer Wahl.

   1. Wählen Sie unter **Datenquelle** die Option **Leeres Diagramm erstellen** aus und geben Sie die Anzahl der m- NCUs an, die zugewiesen werden sollen. Jede m-NCU verfügt über etwa ein GiB Speicherkapazität und entsprechende Rechen- und Netzwerkfunktionen.
**Anmerkung**  
Die Kapazität Ihres Diagramms kann später geändert werden. Wir empfehlen, mit der kleinsten Instance zu beginnen und später, falls erforderlich, eine andere Instance auszuwählen.

   1. Sie können die Standardeinstellungen für die Netzwerkkonnektivität beibehalten. Amazon Bedrock stellt eine Netzwerkverbindung zum Neptune-Analytics-Diagramm her, mit dem Sie die Wissensdatenbank verknüpfen. Sie müssen keine öffentliche Konnektivität oder privaten Endpunkte für Ihr Diagramm konfigurieren.

   1. Wählen Sie unter **Einstellungen für die Vektorsuche** die Option **Vektordimension verwenden** aus und geben Sie die Anzahl der Dimensionen in jedem Vektor an.
**Anmerkung**  
Die Anzahl der Dimensionen in jedem Vektor muss mit den Vektordimensionen im Einbettungsmodell übereinstimmen. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

   1. Übernehmen Sie für alle anderen Einstellungen die Standardwerte und erstellen Sie das Diagramm.

1. Sobald das Diagramm erstellt wurde, klicken Sie darauf, um sich den **Ressourcen-ARN** und die **Vektordimensionen** für die Erstellung der Wissensdatenbank zu notieren. Achten Sie bei der Auswahl des Einbettungsmodells in Amazon Bedrock darauf, dass Sie ein Modell mit denselben Dimensionen wie die **Vektordimensionen** auswählen, die Sie in Ihrem Neptune-Analytics-Diagramm konfiguriert haben.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Graph-ARN | Graph-ARN von Neptune Analytics | graphARN | Der Amazon-Ressourcenname (ARN) des Neptune-Analytics-Diagramms | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeldname | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll Sie können einen beliebigen Wert für dieses Feld angeben, z. B. Text. | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet Sie können einen beliebigen Wert für dieses Feld angeben, z. B. Metadaten. | 

------
#### [ Tannenzapfen ]

**Anmerkung**  
Wenn Sie die Website nutzenPinecone, erklären Sie sich damit einverstanden, in Ihrem Namen AWS auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste zur Verfügung zu stellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in Pinecone finden Sie unter [Pinecone als Wissensdatenbank für Amazon Bedrock](https://docs.pinecone.io/docs/amazon-bedrock).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank angeben.
+ **Endpunkt-URL** – Die Endpunkt-URL für Ihre Indexverwaltungsseite
+ **Credentials Secret ARN** — Der Amazon-Ressourcenname (ARN) des Geheimnisses, das Sie erstellt haben und das den Benutzernamen und das Passwort für einen Datenbankbenutzer enthält. AWS Secrets Manager 
+ **(Optional) Kundenseitig verwalteter KMS-Schlüssel für Ihren Secret-ARN der Anmeldeinformationen** – Wenn Sie Ihren Secret-ARN der Anmeldeinformationen verschlüsselt haben, geben Sie den KMS-Schlüssel an, damit Amazon Bedrock ihn entschlüsseln kann. 
+ **Namespace** – (Optional) Der Namespace, der verwendet werden soll, um neue Daten in Ihre Datenbank zu schreiben. Weitere Informationen finden Sie unter [Verwenden von Namespaces](https://docs.pinecone.io/docs/namespaces).

Es gibt zusätzliche Konfigurationen, die Sie bei der Erstellung eines Pinecone-Index angeben müssen:
+ **Name des Textfeldes** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblock speichern soll
+ **Name des Metadatenfeldes** – Der Name des Feldes, in dem Amazon Bedrock Metadaten zur Quellzuweisung speichern soll

Sie müssen Amazon Bedrock Ihren Pinecone-API-Schlüssel über AWS Secrets Manager zur Verfügung stellen, um auf den Pinecone-Index zuzugreifen.

**So richten Sie ein Secret für Ihre Pinecone-Konfiguration ein**

1. Folgen Sie den Schritten unter [Create an AWS Secrets Manager Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und legen Sie den Schlüssel `apiKey` und den Wert als API-Schlüssel für den Zugriff auf Ihren Pinecone Index fest.

1. Sie finden Ihren API-Schlüssel, indem Sie die [Pinecone-Konsole](https://app.pinecone.io/) öffnen und **API-Schlüssel** auswählen.

1. Nachdem Sie das Geheimnis erstellt haben, notieren Sie sich den ARN des KMS-Schlüssels.

1. Ordnen Sie Ihrer Servicerolle Berechtigungen zu, um den ARN des KMS-Schlüssels zu entschlüsseln, indem Sie die Schritte unter [Berechtigungen zum Entschlüsseln eines AWS Secrets Manager Geheimnisses für den Vektorspeicher, der Ihre Wissensdatenbank enthält](encryption-kb.md#encryption-kb-3p) befolgen.

1. Geben Sie den ARN später beim Erstellen Ihrer Wissensdatenbank in das Feld **Anmeldeinformationen – Geheimer ARN** ein.

------
#### [ Redis Enterprise Cloud ]

**Anmerkung**  
Wenn Sie die Website nutzenRedis Enterprise Cloud, erklären Sie sich damit einverstanden, AWS in Ihrem Namen auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste zur Verfügung zu stellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in Redis Enterprise Cloud finden Sie unter [Integration von Redis Enterprise Cloud in Amazon Bedrock](https://docs.redis.com/latest/rc/cloud-integrations/aws-marketplace/aws-bedrock/).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank angeben.
+ **Endpunkt-URL** – Die öffentliche Endpunkt-URL für Ihre Datenbank
+ **Name des Vektorindex** – Der Name des Vektorindex für Ihre Datenbank
+ **Vektorfeld** – Das Feld, in dem die Vektoreinbettungen gespeichert werden Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
+ **Textfeld** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblöcke speichern soll
+ **Von Bedrock verwaltetes Metadatenfeld** – Der Name des Feldes, in dem Amazon Bedrock Metadaten speichert, die sich auf Ihre Wissensdatenbank beziehen

Sie müssen Amazon Bedrock die Sicherheitskonfiguration von Redis Enterprise Cloud über AWS Secrets Manager zur Verfügung stellen, um auf Ihren Cluster von Redis Enterprise Cloud zuzugreifen.

**So richten Sie ein Secret für Ihre Redis Enterprise Cloud-Konfiguration ein**

1. Aktivieren Sie TLS, um Ihre Datenbank mit Amazon Bedrock zu verwenden, indem Sie die Schritte unter [Transport Layer Security (TLS)](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/) befolgen.

1. Folgen Sie den Schritten unter [Create an AWS Secrets Manager secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html). Richten Sie die folgenden Schlüssel mit den entsprechenden Werten aus Ihrer Konfiguration von Redis Enterprise Cloud im Secret ein:
   + `username` – Der Benutzername für den Zugriff auf Ihre Datenbank von Redis Enterprise Cloud. Ihren Benutzernamen finden Sie in der [Redis-Konsole](http://app.redislabs.com/) im Abschnitt **Sicherheit** Ihrer Datenbank.
   + `password` – Das Passwort für den Zugriff auf Ihre Datenbank von Redis Enterprise Cloud. Ihr Passwort finden Sie in der [Redis-Konsole](http://app.redislabs.com/) im Abschnitt **Sicherheit** Ihrer Datenbank.
   + `serverCertificate` – Der Inhalt des Zertifikats von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.
   + `clientPrivateKey` – Der private Schlüssel von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.
   + `clientCertificate` – Der öffentliche Schlüssel von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.

1. Nachdem Sie das Secret erstellt haben, notieren Sie sich den entsprechenden ARN. Geben Sie den ARN später beim Erstellen Ihrer Wissensdatenbank in das Feld **Anmeldeinformationen – geheimer ARN** ein.

------
#### [ MongoDB Atlas ]

**Anmerkung**  
Wenn Sie MongoDB Atlas verwenden, erklären Sie sich damit einverstanden, AWS in Ihrem Namen auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste bereitzustellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in MongoDB Atlas finden Sie unter [Starten eines vollständig verwalteten RAG-Workflows mit MongoDB Atlas und Amazon Bedrock](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank hinzufügen:
+ **Endpunkt-URL** – Die Endpunkt-URL Ihres MongoDB-Atlas-Clusters
+ **Datenbankname** – Der Name der Datenbank in Ihrem MongoDB-Atlas-Cluster
+ **Name der Sammlung** – Der Name der Sammlung in Ihrer Datenbank
+ **Credentials Secret ARN** — Der Amazon-Ressourcenname (ARN) des Geheimnisses, das Sie erstellt haben und AWS Secrets Manager das den Benutzernamen und das Passwort für einen Datenbankbenutzer in Ihrem MongoDB Atlas-Cluster enthält. Das Secret muss Schlüssel mit dem Namen `username` und `password` enthalten.
+ **(Optional) Kundenseitig verwalteter KMS-Schlüssel für Ihren Secret-ARN der Anmeldeinformationen** – Wenn Sie Ihren Secret-ARN der Anmeldeinformationen verschlüsselt haben, geben Sie den KMS-Schlüssel an, damit Amazon Bedrock ihn entschlüsseln kann. 

Es gibt zusätzliche Konfigurationen für **Feldzuordnung**, die Sie beim Erstellen eines MongoDB-Atlas-Index angeben müssen:
+ **Name des Vektorindex** – Der Name des MongoDB-Atlas-Vektorsuchindex in Ihrer Sammlung
+ **Name des Vektorfeldes** – Der Name des Feldes, in dem Amazon Bedrock Vektoreinbettungen speichern soll
+ **Name des Textfeldes** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblock speichern soll
+ **Name des Metadatenfeldes** – Der Name des Feldes, in dem Amazon Bedrock Metadaten zur Quellzuweisung speichern soll
+ **(Optional) Indexname der Textsuche** – Der Name des MongoDB-Atlas-Suchindex in Ihrer Sammlung

**Wichtig**  
Wenn Sie beabsichtigen, die Metadatenfilterung mit Ihrer MongoDB-Atlas-Wissensdatenbank zu verwenden, müssen Sie die Filter in Ihrem Vektorindex manuell konfigurieren. Die Metadatenfilterung funktioniert standardmäßig nicht und erfordert eine zusätzliche Einrichtung in Ihrer Konfiguration des MongoDB-Atlas-Vektorindex.

(Optional) Informationen darüber, wie Amazon Bedrock eine Verbindung zu Ihrem MongoDB Atlas-Cluster herstellt AWS PrivateLink, finden Sie unter [RAG-Workflow mit MongoDB Atlas mithilfe von](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/) Amazon Bedrock.

------

# Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sind
<a name="kb-osm-permissions-prereq"></a>

In diesem Abschnitt erfahren Sie, wie Sie Berechtigungen konfigurieren, wenn Sie Ihre eigene Vektordatenbank mit Amazon OpenSearch Service Managed Clusters erstellen. Diese Konfiguration muss durchgeführt werden, bevor Sie die Wissensdatenbank erstellen. Bei den Schritten wird davon ausgegangen, dass Sie bereits einen Domain- und Vektorindex in Amazon OpenSearch Service erstellt haben. Weitere Informationen finden Sie unter [ OpenSearch Service-Domains erstellen und verwalten](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) im *Amazon OpenSearch Service Developer Guide*.

## Wesentliche Überlegungen
<a name="kb-osm-permissions-prereq-considerations"></a>

Im Folgenden finden Sie einige wichtige Überlegungen zur Verwendung von Amazon Bedrock Knowledge Bases mit Amazon OpenSearch Service Managed Clusters.
+ Bevor Sie Domain-Ressourcen in OpenSearch verwalteten Clustern verwenden können, müssen Sie bestimmte IAM-Zugriffsberechtigungen und -richtlinien konfigurieren. Für die Integration von Knowledge Bases mit verwalteten Clustern müssen Sie, bevor Sie die Schritte in diesem Abschnitt ausführen, bei einer restriktiven Zugriffsrichtlinie Ihrer Domain die erforderlichen IAM-Berechtigungen gewähren und die ressourcenbasierten Richtlinien konfigurieren. Wir empfehlen außerdem, eine fein abgestufte Zugriffskontrolle zu konfigurieren, um die Berechtigungen gezielt einzuschränken.
+ Wenn Sie bei der Erfassung der Daten für Ihre Wissensdatenbank auf Fehler stoßen, kann dies darauf hindeuten, dass die OpenSearch Domänenkapazität nicht ausreicht, um die Geschwindigkeit der Datenerfassung zu bewältigen. Zur Behebung dieses Problems erhöhen Sie die Kapazität Ihrer Domain, indem Sie eine höhere IOPS (Input/Output Operations Per Second) bereitstellen und die Durchsatzeinstellungen erhöhen. Warten Sie einige Minuten, bis die neue Kapazität bereitgestellt ist, und wiederholen Sie dann den Aufnahmevorgang. Überwachen Sie die Leistung während des Wiederholungsvorgangs, um zu prüfen, ob das Problem behoben wurde. Wenn die Drosselung weiterhin besteht, müssen Sie die Kapazität möglicherweise weiter anpassen, um die Effizienz zu verbessern. Weitere Informationen finden Sie unter [Best Practices für den Betrieb von Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

## Überblick über die Berechtigungskonfiguration
<a name="kb-osm-permissions-prereq-overview"></a>

Für die Integration von Knowledge Bases mit verwalteten Clustern müssen Sie die folgenden IAM-Zugriffsberechtigungen und ressourcenbasierten Richtlinien konfigurieren. Wir empfehlen, differenzierte Zugriffsrichtlinien zu aktivieren, um den Benutzerzugriff und die Granularität, mit der er bis auf die Eigenschaftenebene beschränkt werden muss, weiter zu kontrollieren.

Die folgenden Schritte bieten einen Überblick über die Berechtigungskonfiguration.

1. 

**So erstellen und verwenden Sie eine Wissensdatenbank-Servicerolle**

   Für die Berechtigungen, die Sie konfigurieren möchten, können Sie zwar weiterhin Ihre eigene benutzerdefinierte Rolle angeben, wir empfehlen jedoch, die Option für Wissensdatenbanken für Amazon Bedrock anzugeben, um die Knowledge-Base-Servicerolle für Sie zu erstellen.

1. 

**So konfigurieren Sie eine ressourcenbasierte Richtlinie**

   Die OpenSearch Domain unterstützt ressourcenbasierte Richtlinien, die festlegen, welche Principals auf die Domain zugreifen und darauf reagieren können. Stellen Sie bei der Verwendung mit Knowledge Bases sicher, dass die ressourcenbasierte Richtlinie für Ihre Domain ordnungsgemäß konfiguriert ist.

1. 

***(Dringend empfohlen)* Stellen Sie eine Rollenzuordnung für die differenzierte Zugriffskontrolle bereit**

   Eine differenzierte Zugriffskontrolle ist zwar optional, wir empfehlen jedoch, diese zu aktivieren, um die Granularität zu steuern, mit der die Berechtigungen auf Eigenschaftenebene eingeschränkt werden sollen.

## Konfigurieren von IAM-Richtlinien
<a name="kb-osm-permissions-iam"></a>

Die Zugriffsrichtlinie Ihrer Domain muss den Rollen in Ihrem Konto die Berechtigungen zur Durchführung der erforderlichen OpenSearch API-Aktionen gewähren.

Wenn für Ihre Domain eine restriktive Zugriffsrichtlinie gilt, muss diese möglicherweise wie folgt aktualisiert werden:
+ Sie sollte Zugriff auf den Amazon-Bedrock-Service gewähren und die erforderlichen HTTP-Aktionen einschließen: `GET`, `POST`, `PUT` und `DELETE`.
+ Sie muss Amazon Bedrock außerdem Berechtigungen gewähren, um die `es:DescribeDomain`-Aktion auf Ihrer Indexressource auszuführen. Auf diese Weise kann Wissensdatenbanken für Amazon Bedrock die erforderlichen Validierungen bei der Konfiguration einer Wissensdatenbank durchführen.

## (Optional) Differenzierte Zugriffskontrolle
<a name="kb-osm-permissions-console-fgap"></a>

Durch eine differenzierte Zugriffskontrolle kann die Granularität gesteuert werden, mit der die Berechtigungen auf Eigenschaftsebene begrenzt werden sollen. Sie können die detaillierten Zugriffsrichtlinien konfigurieren, um die Lese- und Schreibberechtigungen zu gewähren, die für die von Knowledge Bases erstellte Servicerolle erforderlich sind.

So konfigurieren Sie die differenzierte Zugriffskontrolle und stellen die Rollenzuordnung bereit:

1. Stellen Sie sicher, dass für die von Ihnen erstellte OpenSearch Domain eine detaillierte Zugriffskontrolle aktiviert ist.

1. Erstellen Sie eine OpenSearch Benutzeroberfläche (Dashboards), falls Sie dies noch nicht getan haben. Diese wird verwendet, um die Rollenzuweisung zu konfigurieren

1. Erstellen Sie in Ihren OpenSearch Dashboards eine OpenSearch Rolle und geben Sie den Namen des Vektorindexes sowie die Cluster- und Indexberechtigungen an. Um die Berechtigungen hinzuzufügen, müssen Sie Berechtigungsgruppen erstellen und anschließend die erforderlichen Berechtigungen hinzufügen, die den Zugriff auf eine Reihe von Operationen – Einschließlich `delete`, `search`, `get` und `index` – für die Rolle gewähren.

1. Nachdem Sie die erforderlichen Berechtigungen hinzugefügt haben, müssen Sie den ARN Ihrer Knowledge-Base-Servicerolle für die OpenSearch Back-End-Rolle eingeben. Wenn Sie diesen Schritt ausführen, wird die Zuordnung zwischen Ihrer Knowledge Base Service-Rolle und der OpenSearch Rolle abgeschlossen, wodurch Amazon Bedrock Knowledge Bases-Berechtigungen für den Zugriff auf den Vektorindex in der OpenSearch Domain und die Ausführung der erforderlichen Operationen erteilt werden.

**Topics**
+ [Wesentliche Überlegungen](#kb-osm-permissions-prereq-considerations)
+ [Überblick über die Berechtigungskonfiguration](#kb-osm-permissions-prereq-overview)
+ [Konfigurieren von IAM-Richtlinien](#kb-osm-permissions-iam)
+ [(Optional) Differenzierte Zugriffskontrolle](#kb-osm-permissions-console-fgap)
+ [Konfiguration ressourcenbasierter Richtlinien für verwaltete Cluster OpenSearch](kb-osm-permissions-slr-rbp.md)
+ [Konfiguration von OpenSearch Berechtigungen mit detaillierter Zugriffskontrolle](kb-osm-permissions-console-fgap.md)

# Konfiguration ressourcenbasierter Richtlinien für verwaltete Cluster OpenSearch
<a name="kb-osm-permissions-slr-rbp"></a>

Bei der Erstellung Ihrer Wissensdatenbank können Sie entweder Ihre eigene benutzerdefinierte Rolle erstellen oder Sie lassen eine Rolle von Amazon Bedrock für Sie erstellen. Wie Sie die Berechtigungen konfigurieren, hängt davon ab, ob Sie eine neue Rolle erstellen oder eine vorhandene Rolle verwenden. Wenn Sie bereits über eine IAM-Rolle verfügen, müssen Sie sicherstellen, dass die Zugriffsrichtlinie Ihrer Domain die Rollen in Ihrem Konto nicht daran hindert, die erforderlichen OpenSearch API-Aktionen auszuführen.

Wenn Sie sich dafür entscheiden, Amazon Bedrock Knowledge Bases die IAM-Rolle für Sie erstellen zu lassen, müssen Sie sicherstellen, dass die Zugriffsrichtlinie Ihrer Domain die Berechtigungen zur Ausführung der erforderlichen OpenSearch API-Aktionen durch die Rollen in Ihrem Konto gewährt. Wenn für Ihre Domain eine restriktive Zugriffsrichtlinie gilt, kann diese verhindern, dass Ihre Rolle diese Aktionen ausführt. Hier ein Beispiel für eine restriktive ressourcenbasierte Richtlinie.

In diesem Fall können Sie entweder:
+ Erstellen Sie Ihre Wissensdatenbank mithilfe einer vorhandenen IAM-Rolle, sodass Ihre OpenSearch Domain Zugriff auf diese Rolle gewähren kann, um die erforderlichen Operationen durchzuführen.
+ Alternativ können Sie Amazon Bedrock eine neue Rolle für Sie erstellen lassen. In diesem Fall müssen Sie sicherstellen, dass die Zugriffsrichtlinie der Domain den Rollen in Ihrem Konto die Berechtigungen zur Durchführung der erforderlichen OpenSearch API-Aktionen gewährt.

Die folgenden Abschnitte zeigen ein Beispiel für eine IAM-Richtlinie, die die erforderlichen Berechtigungen gewährt, und wie Sie die Zugriffsrichtlinie der Domain aktualisieren können, sodass sie Berechtigungen für die Durchführung der erforderlichen OpenSearch API-Operationen gewährt.

**Topics**
+ [Beispiele für identitätsbasierte und ressourcenbasierte Richtlinien](#kb-osm-permissions-iam)
+ [So erstellen Sie die Servicerolle für Wissensdatenbanken für Amazon Bedrock](#kb-osm-permissions-slr)
+ [So aktualisieren Sie die ressourcenbasierten Richtlinien](#kb-osm-permissions-console-rbp)

## Beispiele für identitätsbasierte und ressourcenbasierte Richtlinien
<a name="kb-osm-permissions-iam"></a>

Dieser Abschnitt enthält ein Beispiel für eine Identitätsrichtlinie und eine ressourcenbasierte Richtlinie, die Sie bei der Integration mit Amazon Bedrock Knowledge Bases für Ihre OpenSearch Domain konfigurieren können. Sie müssen Amazon Bedrock die erforderlichen Berechtigungen erteilen, um diese Aktionen für den Index durchzuführen, den Sie Ihrer Wissensdatenbank zur Verfügung stellen.


****  

| Action | Ressource | Description | 
| --- | --- | --- | 
| es:ESHttpPost | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Einfügen von Informationen in den Index | 
| es:ESHttpGet |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Auslese von Informationen aus dem Index. Diese Aktion wird sowohl auf der domain/index- und der domain/index/\$1-Ebene konfiguriert. Auf der domain/index-Ebene kann sie detaillierte Informationen über den Index abrufen, z. B. den Engine-Typ. Um die im Index gespeicherten Details abzurufen, sind Berechtigungen auf domain/index/\$1-Ebene erforderlich. | 
| es:ESHttpHead |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Abrufen von Informationen aus dem Index. Diese Aktion wird auf der domain/index- und der domain/index/\$1-Ebene konfiguriert, falls Informationen auf einer höheren Ebene abgerufen werden müssen, z. B. um festzustellen, ob ein bestimmter Index vorhanden ist. | 
| es:ESHttpDelete | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Zum Löschen von Informationen aus dem Index | 
| es:DescribeDomain | arn:<partition>:es:<region>:<accountId>:domain/<domainName> | Durchführen von Validierungen für die Domain, z. B. für die verwendete Engine-Version. | 

### Beispiel einer identitätsbasierten Richtlinie
<a name="kb-osm-permissions-idpolicy"></a>

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "OpenSearchIndexAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpPost",
                "es:ESHttpPut",
                "es:ESHttpDelete"
            ],
            "Resource": [
                "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName/*"
            ]
        },
        {
            "Sid": "OpenSearchIndexGetAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpHead"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName"
            ]
        },
        {
            "Sid": "OpenSearchDomainValidation",
            "Effect": "Allow",
            "Action": [
                "es:DescribeDomain"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName"
            ]
        }
    ]
}
```

------

### Beispiel einer ressourcenbasierten Richtlinie
<a name="kb-osm-permissions-rbp"></a>

**Anmerkung**  
Stellen Sie sicher, dass die Servicerolle erstellt wurde, damit sie in der ressourcenbasierten Richtlinie verwendet werden kann.

## So erstellen Sie die Servicerolle für Wissensdatenbanken für Amazon Bedrock
<a name="kb-osm-permissions-slr"></a>

Bei der Erstellung der Wissensdatenbank können Sie die Option wählen, eine neue Servicerolle zu erstellen und zu verwenden. Dieser Abschnitt führt Sie durch die Erstellung der Servicerolle für Wissensdatenbanken für Amazon Bedrock. Durch die Zuordnung der ressourcenbasierten Richtlinien und der detaillierten Zugriffsrichtlinien zu dieser Rolle erhält Amazon Bedrock die Berechtigungen, Anfragen an die Domain zu stellen. OpenSearch 

**So geben Sie die Servicerolle für Amazon Bedrock Knowledge an:**

1. Navigieren Sie in der Amazon-Bedrock-Konsole zu [Knowledge Bases](https://console.aws.amazon.com/bedrock/home#/knowledge-bases).

1. Klicken Sie auf **Erstellen** und anschließend auf **Wissensdatenbank mit Vektorspeicher**.

1. Wählen Sie **Neue Servicerolle erstellen und verwenden** aus. Hier können Sie entweder den Standard verwenden oder einen benutzerdefinierten Rollennamen angeben, und Amazon Bedrock erstellt automatisch die Servicerolle für Knowledge Bases für Sie.

1. Fahren Sie in der Konsole fort, um Ihre Datenquelle sowie die Strategien für das Parsen und die Aufteilung in Datenblöcke zu konfigurieren.

1. Wählen Sie ein Embeddings-Modell und dann unter **Vorhandenen Vector Store auswählen** die Option **Amazon OpenSearch Managed** Cluster aus.

**Wichtig**  
Bevor Sie mit der Erstellung der Wissensdatenbank fortfahren, führen Sie die folgenden Schritte aus, um die ressourcenbasierten Richtlinien und differenzierten Zugriffsrichtlinien zu konfigurieren. Ausführliche Schritte zur Erstellung der Wissensdatenbank finden Sie unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md).

## So aktualisieren Sie die ressourcenbasierten Richtlinien
<a name="kb-osm-permissions-console-rbp"></a>

Wenn für Ihre OpenSearch Domain eine restriktive Zugriffsrichtlinie gilt, können Sie den Anweisungen auf dieser Seite folgen, um die ressourcenbasierte Richtlinie zu aktualisieren. Diese Berechtigungen ermöglichen es Knowledge Bases, den von Ihnen bereitgestellten Index zu verwenden und die OpenSearch Domaindefinition abzurufen, um die erforderliche Validierung für die Domain durchzuführen.

**Um die ressourcenbasierten Richtlinien über das zu konfigurieren AWS-Managementkonsole**

1. Gehen Sie zur [Amazon OpenSearch Service-Konsole](https://console.aws.amazon.com/aos/home?region=us-east-1#opensearch/dashboard).

1. Navigieren Sie zu der Domain, die Sie erstellt haben, und wechseln Sie dann zu **Sicherheitskonfigurationen**, wo die ressourcenbasierte Richtlinie konfiguriert wird.

1. Bearbeiten Sie die Richtlinie auf der Registerkarte **JSON** und aktualisieren Sie dann die Richtlinie ähnlich wie [Beispiel einer ressourcenbasierten Richtlinie](#kb-osm-permissions-rbp).

1. Sie können jetzt zur Amazon Bedrock-Konsole zurückkehren und die Details für Ihre OpenSearch Domain und Ihren Index angeben, wie unter [Wissensdatenbank-Setup für verwaltete Cluster](knowledge-base-setup.md#knowledge-base-setup-osm) beschrieben.

# Konfiguration von OpenSearch Berechtigungen mit detaillierter Zugriffskontrolle
<a name="kb-osm-permissions-console-fgap"></a>

Obwohl optional, empfehlen wir dringend, dass Sie eine detaillierte Zugriffskontrolle für Ihre Domain aktivieren. OpenSearch Mithilfe der detaillierten Zugriffskontrolle können Sie die rollenbasierte Zugriffskontrolle verwenden, mit der Sie eine OpenSearch Rolle mit bestimmten Berechtigungen erstellen und sie der Knowledge Base-Servicerolle zuordnen können. Die Zuordnung gewährt Ihrer Wissensdatenbank die erforderlichen Mindestberechtigungen, um auf die Domäne und den Index zuzugreifen und Operationen an dieser auszuführen. OpenSearch 

So konfigurieren und verwenden Sie die differenzierte Zugriffskontrolle:

1. Stellen Sie sicher, dass für die OpenSearch Domäne, die Sie verwenden, eine detaillierte Zugriffskontrolle aktiviert ist.

1. Konfigurieren Sie für Ihre Domain, die eine differenzierte Zugriffskontrolle verwendet, Berechtigungen mit abgegrenzten Richtlinien in Form einer Rolle. OpenSearch

1. Für die Domain, für die Sie eine Rolle erstellen, fügen Sie eine Rollenzuordnung zur Knowledge-Base-Servicerolle hinzu.

Die folgenden Schritte zeigen, wie Sie Ihre OpenSearch Rolle konfigurieren und die korrekte Zuordnung zwischen der Rolle und der Knowledge OpenSearch Base-Servicerolle sicherstellen.

**Um eine OpenSearch Rolle zu erstellen und Berechtigungen zu konfigurieren**  
Nachdem Sie die detaillierte Zugriffskontrolle aktiviert und Amazon Bedrock für die Verbindung mit dem OpenSearch Service konfiguriert haben, können Sie die Berechtigungen über den Link OpenSearch Dashboards für jede Domain konfigurieren. OpenSearch 

**So konfigurieren Sie die Berechtigungen für eine Domain, um Zugriff auf Amazon Bedrock zu gewähren:**

1. Öffnen Sie das OpenSearch Dashboard für die OpenSearch Domain, mit der Sie arbeiten möchten. Um den Link zu Dashboards zu finden, wechseln Sie zu der Domain, die Sie in der OpenSearch Servicekonsole erstellt haben. Bei laufenden OpenSearch Domains hat die URL das Format. `domain-endpoint/_dashboards/` Weitere Informationen finden Sie unter [Dashboards](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/dashboards.html) im *Amazon OpenSearch Service Developer Guide*.

1. Wählen Sie im OpenSearch Dashboard **Sicherheit** und dann **Rollen** aus.

1. Wählen Sie **Rolle erstellen** aus.

1. Geben Sie einen beliebigen Namen für die Rolle ein, z. B. **kb\$1opensearch\$1role**.

1. Fügen Sie unter **Cluster-Berechtigungen** die folgenden Berechtigungen hinzu.
   + `indices:data/read/msearch`
   + `indices:data/write/bulk*`
   + `indices:data/read/mget*`

1. Geben Sie unter **Indexberechtigungen** einen Namen für den Vektorindex ein. Wählen Sie **Neue Berechtigungsgruppe erstellen** und dann **Neue Aktionsgruppe erstellen** aus. Fügen Sie einer Aktionsgruppe die folgenden Berechtigungen hinzu, z. B. `KnowledgeBasesActionGroup`. Fügen Sie die folgenden Berechtigungen zu einer Aktionsgruppe hinzu.
   + `indices:admin/get`
   + `indices:data/read/msearch`
   + `indices:data/read/search`
   + `indices:data/write/index`
   + `indices:data/write/update`
   + `indices:data/write/delete`
   + `indices:data/write/delete/byquery`
   + `indices:data/write/bulk*`
   + `indices:admin/mapping/put`
   + `indices:data/read/mget*`  
![\[Die Aktionsgruppen, die in OpenSearch Dashboards zum Hinzufügen von Cluster- und Indexberechtigungen erstellt werden sollen.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/kb-test-os-action-groups.png)

1. Wählen Sie **Erstellen**, um die OpenSearch Rolle zu erstellen.

Im Folgenden wird eine OpenSearch Beispielrolle mit den hinzugefügten Berechtigungen gezeigt.

![\[Eine OpenSearch Beispielrolle in OpenSearch Dashboards mit den hinzugefügten Berechtigungen.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/kb-test-os-dashboards-permissions.png)


**So erstellen Sie eine Rollenzuordnung für Ihre Knowledge-Base-Servicerolle**

1. Identifizieren Sie die IAM-Rolle, die zugeordnet werden soll.
   + Wenn Sie Ihre eigene benutzerdefinierte IAM-Rolle erstellt haben, können Sie den Rollen-ARN für diese Rolle aus der IAM-Konsole kopieren.
   + Wenn Sie Knowledge Bases erlauben, die Rolle für Sie zu erstellen, können Sie sich bei der Erstellung Ihrer Wissensdatenbank den Rollen-ARN notieren und dann diesen Rollen-ARN kopieren.

1. Öffnen Sie das OpenSearch Dashboard für die OpenSearch Domain, mit der Sie arbeiten möchten. Die URL hat das Format `domain-endpoint/_dashboards/`.

1. Wählen Sie im Navigationsbereich **Sicherheit** aus.

1. Suchen Sie in der Liste nach der Rolle, die Sie gerade erstellt haben, z. B. **kb\$1opensearch\$1role** und öffnen Sie sie.

1. Wählen Sie auf der Registerkarte **Zugeordnete Benutzer** die Option **Zuordnung verwalten** aus.

1. Geben Sie im Abschnitt **Backend-Rollen** den ARN der AWS verwalteten IAM-Rolle für Knowledge Bases ein. Je nachdem, ob Sie Ihre eigene benutzerdefinierte Rolle erstellt haben oder Knowledge Bases die Rolle für Sie erstellen lassen, kopieren Sie die ARN-Informationen der Rolle aus der IAM-Konsole oder der Amazon Bedrock-Konsole und geben Sie diese Informationen dann für die **Backend-Rollen** in der Konsole ein. OpenSearch Im Folgenden sehen Sie ein Beispiel.

   ```
   arn:aws:iam::<accountId>:role/service-role/<knowledge-base-service-role>
   ```

1. Wählen Sie **Zuordnen** aus.

   Die Knowledge Base-Service-Rolle kann jetzt eine Verbindung mit der OpenSearch Rolle herstellen und die erforderlichen Operationen für die Domain und den Index ausführen.

# So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen
<a name="knowledge-base-create"></a>

Wenn Sie eine Wissensdatenbank erstellen, indem Sie eine Verbindung zu einer Datenquelle herstellen, richten Sie Folgendes ein oder geben Sie Folgendes an:
+ Allgemeine Informationen, die die Wissensdatenbank definieren und identifizieren
+ Die Servicerolle mit Berechtigungen für die Wissensdatenbank.
+ Konfigurationen für die Wissensdatenbank, einschließlich des Einbettungsmodells, das bei der Konvertierung von Daten aus der Datenquelle verwendet werden soll, Speicherkonfigurationen für den Service, in dem die Einbettungen gespeichert werden sollen, und optional eines S3-Speicherorts zum Speichern multimodaler Daten.

**Anmerkung**  
Sie können keine Wissensdatenbank mit einem Root-Benutzer erstellen. Melden Sie sich mit einem IAM-Benutzer an, bevor Sie mit diesen Schritten beginnen.

Erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="knowledge-base-create-console"></a>

**So richten Sie eine Wissensdatenbank ein**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Klicken Sie im Abschnitt **Wissensdatenbanken** auf die Schaltfläche „Erstellen“ und legen Sie fest, dass eine Wissensdatenbank mit einem Vektorspeicher erstellt werden soll.

1. (Optional) Ändern Sie den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

1. Wählen Sie eine AWS Identity and Access Management (IAM-) Rolle, die Amazon Bedrock die Erlaubnis erteilt, auf andere erforderliche AWS Dienste zuzugreifen. Sie können Amazon Bedrock die Servicerolle auch erstellen lassen oder Ihre eigene [benutzerdefinierte Rolle verwenden, die Sie für Neptune Analytics erstellt haben](kb-permissions.md#kb-permissions-neptune).

1. Wählen Sie eine Datenquelle aus, mit der Sie Ihre Wissensdatenbank verbinden möchten.

1. (Optional) Fügen Sie Ihrer Wissensdatenbank Tags hinzu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

1. (Optional) Konfigurieren Sie Services, für die Aktivitätsprotokolle für Ihre Wissensdatenbank bereitgestellt werden sollen.

1. Gehen Sie zum nächsten Abschnitt und folgen Sie den Schritten unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md), um eine Datenquelle zu konfigurieren.

1. Gehen Sie im Abschnitt **Einbettungsmodell** wie folgt vor:

   1. Wählen Sie ein Einbettungsmodell aus, mit dem Ihre Daten in Vektoreinbettungen umgewandelt werden sollen. Wählen Sie für multimodale Daten (Bilder, Audio und Video) ein multimodales Einbettungsmodell wie Amazon Titan Multimodal Embeddings G1 oder Cohere Embed v3 aus.
**Anmerkung**  
Wenn Sie Amazon Titan Multimodal Embeddings G1 verwenden, müssen Sie einen S3-Inhalts-Bucket bereitstellen und können nur den Standardparser verwenden. Dieses Modell ist für Anwendungsfälle der Bildsuche optimiert. Umfassende Hinweise zur Wahl zwischen multimodalen Ansätzen finden Sie unter[Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md).

   1. (Optional) Erweitern Sie den Abschnitt **Zusätzliche Konfigurationen**, um die folgenden Konfigurationsoptionen anzuzeigen (nicht alle Modelle unterstützen alle Konfigurationen):
      + **Einbettungstyp** – Gibt an, ob die Daten in Gleitkomma-Vektoreinbettungen (float32) (genauer, aber teurer) oder binäre Vektoreinbettungen (weniger präzise, aber kostengünstiger) konvertiert werden sollen. Informationen darüber, welche Einbettungsmodelle binäre Vektoren unterstützen, finden Sie unter [Unterstützte Einbettungsmodelle](knowledge-base-supported.md).
      + **Vektordimensionen** – Höhere Werte verbessern die Genauigkeit, erhöhen jedoch die Kosten und die Latenz.

1. Gehen Sie im Bereich **Vektordatenbank** wie folgt vor:

   1. Wählen Sie einen Vektorspeicher für die Vektoreinbettungen aus, die für die Abfrage verwendet werden sollen. Ihnen stehen folgende Optionen zur Verfügung:
      + **Einen neuen Vektorspeicher schnell erstellen** – Wählen Sie einen der verfügbaren Vektorspeicher aus, den Amazon Bedrock erstellen soll. Sie können optional auch die AWS KMS Schlüsselverschlüsselung für Ihren Vector Store konfigurieren.
**Anmerkung**  
Wenn Sie diese Option wählen, übernimmt Amazon Bedrock automatisch die Platzierung der Metadaten für jeden Vektorspeicher.
        + **Amazon OpenSearch Serverless** — Amazon Bedrock Knowledge Bases erstellt eine Amazon OpenSearch Serverless-Vektorsuchsammlung und einen Index und konfiguriert sie mit den erforderlichen Feldern für Sie.
        + **Amazon Aurora PostgreSQL Serverless** – Amazon Bedrock richtet einen Vektorspeicher für Amazon Aurora PostgreSQL Serverless ein. Dieser Prozess nimmt unstrukturierte Textdaten aus einem Amazon-S3-Bucket, wandelt sie in Textblöcke und Vektoren um, und speichert sie dann in einer PostgreSQL-Datenbank. Weitere Informationen finden Sie unter [Schnellerstellen einer Aurora-PostgreSQL-Wissensdatenbank für Amazon Bedrock](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.quickcreatekb.html).
        + **Amazon Neptune Analytics** – Amazon Bedrock verwendet Retrieval Augmented Generation (RAG)-Techniken in Kombination mit Diagrammen, um generative KI-Anwendungen zu verbessern, sodass Endbenutzer genauere und umfassendere Antworten erhalten können.
        + **Amazon S3 Vectors** – Wissensdatenbanken für Amazon Bedrock erstellt einen S3-Vektor-Bucket und einen Vektorindex, in dem die aus Ihren Datenquellen generierten Einbettungen gespeichert werden.

          Sie können eine Wissensdatenbank für Amazon S3 Vectors in allen AWS-Region Umgebungen erstellen, in denen sowohl Amazon Bedrock als auch Amazon S3 Vectors verfügbar sind. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Benutzerhandbuch zu Amazon S3*.
**Anmerkung**  
Wenn Sie Amazon S3 Vectors mit Amazon Bedrock Knowledge Bases verwenden, können Sie bis zu 1 KB an benutzerdefinierten Metadaten (einschließlich filterbarer und nicht filterbarer Metadaten) und 35 Metadatenschlüssel pro Vektor anhängen. Ausführliche Informationen zu Einschränkungen von Metadaten finden Sie unter. [Unterstützung von Metadaten](knowledge-base-setup.md#metadata-support) [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md)
      + **Auswählen eines von Ihnen erstellten Vektorspeichers** – Wählen Sie einen unterstützten Vektorspeicher aus und identifizieren Sie die Vektorfeld- und Metadatenfeldnamen im Vektorindex. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).
**Anmerkung**  
Wenn es sich bei Ihrer Datenquelle um eine Confluence-, Microsoft SharePoint - oder Salesforce-Instance handelt, ist Amazon OpenSearch Serverless der einzige unterstützte Vector Store-Service.

   1. (Optional) Erweitern Sie den Abschnitt **Zusätzliche Konfigurationen** und modifizieren Sie alle relevanten Konfigurationen.

1. Wenn Ihre Datenquelle Bilder enthält, geben Sie eine Amazon-S3-URI an, in der die Bilder gespeichert werden sollen, die der Parser aus den Daten im **multimodalen Speicherziel** extrahiert. Die Bilder können während der Abfrage zurückgegeben werden. Sie können optional auch einen vom Kunden verwalteten Schlüssel anstelle des Von AWS verwalteter Schlüssel Standardschlüssels für die Verschlüsselung Ihrer Daten wählen.
**Anmerkung**  
Multimodale Daten werden nur von Amazon S3 und benutzerdefinierten Datenquellen unterstützt.
**Anmerkung**  
Bei der Verwendung multimodaler Einbettungsmodelle:  
Amazon Titan Multimodal Embeddings G1 erfordert einen S3-Inhalts-Bucket und funktioniert am besten mit Nur-Bild-Datensätzen, die den Standardparser verwenden
Cohere Embed v3 unterstützt gemischte Text- und Bilddatensätze und kann mit jeder Parser-Konfiguration verwendet werden
Vermeiden Sie bei Anwendungsfällen für die Bildsuche die Verwendung von Bedrock Data Automation (BDA) oder Foundation-Model-Parsern mit Titan G1 aufgrund von Token-Einschränkungen
Das multimodale Speicherziel erstellt Dateikopien für Abrufzwecke, für die zusätzliche Speichergebühren anfallen können

1. Wählen Sie **Weiter** und überprüfen Sie die Details Ihrer Wissensdatenbank. Sie können jeden beliebigen Abschnitt bearbeiten, bevor Sie mit der Erstellung Ihrer Wissensdatenbank fortfahren.
**Anmerkung**  
Die Zeit, die zum Erstellen der Wissensdatenbank benötigt wird, hängt von Ihren spezifischen Konfigurationen ab. Wenn die Erstellung der Wissensdatenbank abgeschlossen ist, wechselt der Status der Wissensdatenbank in den Status „Bereit“ oder „Verfügbar“.  
Sobald Ihre Wissensdatenbank bereit und verfügbar ist, synchronisieren Sie Ihre Datenquelle zum ersten Mal und anschließend wann immer Sie Ihre Inhalte auf dem neuesten Stand bringen möchten. Wählen Sie Ihre Wissensdatenbank in der Konsole aus und klicken Sie im Bereich Datenquellenübersicht auf **Synchronisieren**.

## Verwenden der API
<a name="knowledge-base-create-api"></a>

Um eine Wissensdatenbank zu erstellen, senden Sie eine [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

**Anmerkung**  
Wenn Sie es vorziehen, dass Amazon Bedrock einen Vektorspeicher für Sie erstellt und verwaltet, verwenden Sie stattdessen die Konsole. Für weitere Informationen erweitern Sie den Abschnitt **Verwenden der Konsole** in vorliegendem Thema.

Die folgenden Felder sind erforderlich:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| Name | Ein Name für die Wissensdatenbank | 
| roleArn | Der ARN einer [Servicerolle in Wissensdatenbanken für Amazon Bedrock](kb-permissions.md). | 
| knowledgeBaseConfiguration | Enthält Konfigurationen für die Wissensdatenbank. Siehe unten. | 
| storageConfiguration | (Nur erforderlich, wenn Sie eine Verbindung zu einer unstrukturierten Datenquelle herstellen).Enthält Konfigurationen für den Datenquellenservice, den Sie auswählen. | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Eine Beschreibung für die Wissensdatenbank. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tags | Hiermit ordnen Sie dem Flow Tags zu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md). | 

Geben Sie in dem `knowledgeBaseConfiguration` Feld, das einem Objekt zugeordnet ist, ein [KnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseConfiguration.html)Objekt `VECTOR` an und schließen Sie es ein. `type` [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html) Schließen Sie im Objekt die folgenden Felder ein:
+ `embeddingModelArn` – Den ARN des zu verwendenden Einbettungsmodells.
+ `embeddingModelConfiguration` – Konfigurationen für das Einbettungsmodell. Informationen zu den möglichen Werten, die für jedes unterstützte Modell angegeben werden können, finden Sie unter [Unterstützte Modelle und Regionen für Amazon-Bedrock-Wissensdatenbanken](knowledge-base-supported.md).
+ (Wenn Sie beabsichtigen, multimodale Daten, zu denen Bilder, Abbildungen, Diagramme oder Tabellen gehören, in Ihre Wissensdatenbank aufzunehmen) `supplementalDataStorageConfiguration` — Ordnet einem [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)Objekt zu, in dem Sie den S3-Speicherort angeben, an dem die extrahierten Daten gespeichert werden sollen. Weitere Informationen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

Geben Sie in dem `storageConfiguration` Feld, das einem [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)Objekt zugeordnet ist, den Vektorspeicher an, mit dem Sie eine Verbindung herstellen möchten, und fügen Sie das Feld hinzu, das diesem Vektorspeicher entspricht. `type` Einzelheiten zu den Informationen, die Sie angeben müssen, finden Sie unter [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)den einzelnen Vektorspeicher-Konfigurationstypen.

Im Folgenden sehen Sie eine Beispielanforderung zum Erstellen einer Wissensdatenbank, die mit einer Amazon OpenSearch Serverless-Sammlung verbunden ist. Die Daten aus verbundenen Datenquellen werden mit Amazon in binäre Vektoreinbettungen umgewandelt, Titan Text Embeddings V2 und die vom Parser extrahierten multimodalen Daten werden so eingerichtet, dass sie in einem Bucket namens gespeichert werden. *MyBucket*

```
PUT /knowledgebases/ HTTP/1.1
Content-type: application/json

{
   "name": "MyKB",
   "description": "My knowledge base",
   "roleArn": "arn:aws:iam::111122223333:role/service-role/AmazonBedrockExecutionRoleForKnowledgeBase_123",
   "knowledgeBaseConfiguration": {
      "type": "VECTOR",
      "vectorKnowledgeBaseConfiguration": { 
         "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-embed-text-v2:0",
         "embeddingModelConfiguration": { 
            "bedrockEmbeddingModelConfiguration": { 
               "dimensions": 1024,
               "embeddingDataType": "BINARY"
            }
         },
         "supplementalDataStorageConfiguration": { 
            "storageLocations": [ 
               { 
                  "s3Location": { 
                     "uri": "arn:aws:s3:::MyBucket"
                  },
                  "type": "S3"
               }
            ]
         }
      }
   },
   "storageConfiguration": { 
      "opensearchServerlessConfiguration": { 
         "collectionArn": "arn:aws:aoss:us-east-1:111122223333:collection/abcdefghij1234567890",
         "fieldMapping": { 
            "metadataField": "metadata",
            "textField": "text",
            "vectorField": "vector"
         },
         "vectorIndexName": "MyVectorIndex"
      }
   }
}
```

**Topics**
+ [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md)
+ [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md)
+ [So richten Sie Sicherheitskonfigurationen für Ihre Wissensdatenbank ein](kb-create-security.md)

# Verbinden einer Datenquelle mit der Wissensdatenbank
<a name="data-source-connectors"></a>

Nachdem Sie die Konfigurationen für Ihre Wissensdatenbank abgeschlossen haben, verbinden Sie eine unterstützte Datenquelle mit der Wissensdatenbank.

Amazon-Bedrock-Wissensdatenbanken unterstützen die Verbindung zu unstrukturierten Datenquellen oder strukturierten Datenspeichern über eine Abfrage-Engine. Wählen Sie ein Thema aus, um zu erfahren, wie Sie eine Verbindung zu dieser Art von Datenquelle herstellen können:

**Unterstützung multimodaler Inhalte**  
Multimodaler Inhalt (Bilder, Audio- und Videodateien) wird nur mit Amazon S3 und benutzerdefinierten Datenquellen unterstützt. Bei anderen Datenquellentypen werden multimodale Dateien bei der Aufnahme übersprungen. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Um zu erfahren, wie Sie mithilfe der Amazon-Bedrock-Konsole eine Verbindung zu einer Datenquelle herstellen, wählen Sie unten auf dieser Seite das Thema für Ihren Datenquellentyp aus:

Um mithilfe der Amazon Bedrock-API eine Verbindung zu einer Datenquelle herzustellen, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage mit einem [Runtime-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

Die folgenden Felder sind erforderlich:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| knowledgeBaseId | Die Kennung der Wissensdatenbank. | 
| Name | Ein Name für die Wissensdatenbank. | 
| dataSourceConfiguration | Geben Sie den Datenquellenservice oder -typ in das Feld type ein und nehmen Sie das entsprechende Feld auf. Für weitere Informationen zu servicespezifischen Konfigurationen wählen Sie das Thema für den Service aus den Themen unten auf dieser Seite aus. | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Zur Beschreibung der Datenquelle. | 
| vectorIngestionConfiguration | Enthält Konfigurationen zum Anpassen des Erfassungsprozesses. Weitere Informationen finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Zur Angabe, ob die Vektor-Einbettungen im Vektorspeicher beibehalten (RETAIN) oder gelöscht (DELETE) werden sollen. | 
| serverSideEncryptionKonfiguration | Um transiente Daten während der Datensynchronisierung mit einem kundenseitig verwalteten Schlüssel zu verschlüsseln, geben Sie den zugehörigen ARN in das Feld kmsKeyArn ein. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Wählen Sie ein Thema aus, um mehr über einen Service und seine Konfiguration zu erfahren.

**Topics**
+ [Verbinden mit Amazon S3 für Ihre Wissensdatenbank](s3-data-source-connector.md)
+ [Verbindung zu Confluence für die Wissensdatenbank](confluence-data-source-connector.md)
+ [Connect zu Microsoft her, SharePoint um Ihre Wissensdatenbank zu erhalten](sharepoint-data-source-connector.md)
+ [Verbinden mit Salesforce für Ihre Wissensdatenbank](salesforce-data-source-connector.md)
+ [Crawlen von Webseiten für Ihre Wissensdatenbank](webcrawl-data-source-connector.md)
+ [Verknüpfen der Wissensdatenbank mit einer benutzerdefinierten Datenquelle](custom-data-source-connector.md)

# Verbinden mit Amazon S3 für Ihre Wissensdatenbank
<a name="s3-data-source-connector"></a>

Amazon S3 ist ein Objektspeicherdienst, der Daten als Objekte in Buckets speichert. Sie können eine Verbindung zu Ihrem Amazon S3 S3-Bucket für Ihre Amazon Bedrock-Wissensdatenbank herstellen, indem Sie entweder die [AWSManagement-Konsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder die [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API verwenden (siehe Amazon Bedrock [unterstützt SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) und). AWS CLI

**Unterstützung multimodaler Inhalte**  
Amazon S3 S3-Datenquellen unterstützen multimodale Inhalte wie Bilder, Audio- und Videodateien. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Sie können einen kleinen Stapel von Dateien über die Amazon-S3-Konsole oder die API in einen Amazon-S3-Bucket hochladen. Sie können es auch verwenden [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html), um mehrere Dateien kontinuierlich auf S3 hochzuladen und Dateien nach einem Zeitplan von der lokalen Infrastruktur, dem Edge, einer anderen Cloud oder AWS einem Speicher zu übertragen.

Derzeit werden nur S3-Buckets für allgemeine Zwecke unterstützt.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-s3-connector)
+ [Voraussetzungen](#prerequisites-s3-connector)
+ [Konfiguration der Verbindung](#configuration-s3-connector)

## Unterstützte Features
<a name="supported-features-s3-connector"></a>
+ Dokument-Metadatenfelder
+ Einschlusspräfixe
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte

## Voraussetzungen
<a name="prerequisites-s3-connector"></a>

**Stellen Sie in Amazon S3 Folgendes sicher**:
+ Notieren Sie sich den URI des Amazon-S3-Buckets, den Amazon-Ressourcennamen (ARN) und die AWS-Konto-ID für den Eigentümer des Buckets. Sie finden den URI und den ARN im Eigenschaftenbereich der Amazon-S3-Konsole. Ihr Bucket muss sich in derselben Region wie Ihre Amazon-Bedrock-Wissensdatenbank befinden. Sie müssen über die Zugriffsberechtigung für diesen Bucket verfügen.

Stellen **Sie in Ihrem AWS Konto sicher, dass Sie**:
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit Ihrer Datenquelle in Ihre AWS Identity and Access Management (IAM) role/permissions -Richtlinie für Ihre Wissensdatenbank auf. Informationen zu den erforderlichen Berechtigungen für diese Datenquelle, um sie Ihrer IAM Wissensdatenbank-Rolle hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, kann die IAM Rolle mit allen erforderlichen Berechtigungen im Rahmen der Schritte zum Erstellen einer Wissensdatenbank für Sie erstellt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.

## Konfiguration der Verbindung
<a name="configuration-s3-connector"></a>

Zum Herstellen einer Verbindung mit Ihrem Amazon-S3-Bucket müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-s3-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur Einschlussfiltern, zu Dokument-Metadatenfeldern, zur inkrementellen Synchronisierung und zu deren Funktionsweise finden Sie unter:

### Dokument-Metadatenfelder
<a name="ds-s3-metadata-fields"></a>

Sie können eine separate Datei hinzufügen, die die Dokumentmetadaten fields/attributes für jede Datei in Ihrer Amazon S3 S3-Datenquelle angibt und angibt, ob sie bei der Indizierung der Datenquelle im Vector Store in die Einbettungen aufgenommen werden sollen. Sie können beispielsweise eine Datei im folgenden Format erstellen, sie benennen *fileName.extension.metadata.json* und in Ihren S3-Bucket hochladen.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Die Metadatendatei muss denselben Namen wie die zugehörige Quelldokumentdatei verwenden, wobei `.metadata.json` an das Ende des Dateinamens angehängt wird. Die Metadatendatei muss im selben Ordner oder Speicherort wie die Quelldatei in Ihrem Amazon-S3-Bucket gespeichert werden. Die Datei darf das Limit von 10 KB nicht überschreiten. Informationen zu den unterstützten attribute/field Datentypen und den Filteroperatoren, die Sie auf Ihre Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Einschlusspräfixe
<a name="ds-s3-inclusion-exclusion"></a>

Sie können ein Einschlusspräfix angeben, bei dem es sich um ein Amazon-S3-Pfadpräfix handelt. Dabei können Sie eine S3-Datei oder einen Ordner anstelle des gesamten Buckets verwenden, um den S3-Datenquellen-Connector zu erstellen.

### Inkrementelle Synchronisierung
<a name="ds-s3-incremental-sync"></a>

Der Datenquellen-Connector crawlt neue, geänderte und gelöschte Inhalte jedes Mal, wenn Ihre Datenquelle mit Ihrer Wissensdatenbank synchronisiert wird. Amazon Bedrockkann den Mechanismus Ihrer Datenquelle verwenden, um Inhaltsänderungen nachzuverfolgen und Inhalte zu crawlen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um Ihre Datenquelle mit Ihrer Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API oder wählen Sie Ihre Wissensdatenbank in der Konsole aus und wählen Sie im Bereich Datenquellenübersicht die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Verbinden eines Amazon-S3-Buckets mit Ihrer Wissensdatenbank**

1. Befolgen Sie die Schritte unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Amazon S3** als Datenquelle aus.

1. Geben Sie einen Namen für die Datenquelle an.

1. Geben Sie an, ob sich der Amazon S3 S3-Bucket in Ihrem aktuellen AWS Konto oder einem anderen AWS Konto befindet. Ihr Bucket muss sich in derselben Region wie die Wissensdatenbank befinden.

1. (Optional) Wenn der Amazon-S3-Bucket mit einem KMS-Schlüssel verschlüsselt ist, geben Sie den Schlüssel an. Weitere Informationen finden Sie unter [Berechtigungen zum Entschlüsseln Ihres AWS KMS Schlüssels für Ihre Datenquellen in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** — Sie können die transienten Daten verschlüsseln, während Sie Ihre Daten mit dem Standard Von AWS verwalteter Schlüssel - oder Ihrem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Amazon S3 für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren Ihre Datenquelle mithilfe der API mit dem AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf rufen Sie auf [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)um Ihre Datenquelle mit Ihren Verbindungsinformationen zu erstellen`dataSourceConfiguration`.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Verbindung zu Confluence für die Wissensdatenbank
<a name="confluence-data-source-connector"></a>

Atlassian Confluence ist ein zusammenarbeitsorientiertes Arbeitsmanagement-Tool zum Freigeben, Speichern und Arbeiten an Projektplanung, Softwareentwicklung und Produktmanagement. Sie können mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource-API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) eine Verbindung zur Confluence-Instance für die Amazon-Bedrock-Wissensdatenbank herstellen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Anmerkung**  
Beim Datenquellen-Connector Confluence handelt es sich um eine Vorversion, bei der Änderungen vorbehalten sind.  
Confluence-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Diagramme, Diagramme oder andere Bilder.

Amazon Bedrock unterstützt die Verbindung zu Confluence-Cloud-Instances. Derzeit steht nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle zur Verfügung.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-confluence-connector)
+ [Voraussetzungen](#prerequisites-confluence-connector)
+ [Konfiguration der Verbindung](#configuration-confluence-connector)

## Unterstützte Features
<a name="supported-features-confluence-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Einschließen und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ OAuth-2.0-Authentifizierung, Authentifizierung mit Confluence-API-Token

## Voraussetzungen
<a name="prerequisites-confluence-connector"></a>

**Stellen Sie in Confluence Folgendes sicher**:
+ Notieren Sie die URL der Confluence-Instance. Für Confluence Cloud lautet diese beispielsweise *https://example.atlassian.net*. Die URL für Confluence Cloud muss die Basis-URL sein und auf *.atlassian.net* enden.
+ Konfigurieren Sie grundlegende Anmeldeinformationen für die Authentifizierung, die einen Benutzernamen (E-Mail des Administratorkontos) und ein Passwort (Confluence-API-Token) enthalten, sodass eine Verbindung zwischen Amazon Bedrock und Ihrer Confluence Cloud-Instance hergestellt werden kann. Informationen zum Erstellen eines Confluence-API-Tokens finden Sie auf der Atlassian-Website unter [API-Token für Ihr Atlassian-Konto verwalten](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token).
+ (Optional) Konfigurieren Sie eine OAuth 2.0-Anwendung mit den Anmeldeinformationen eines App-Schlüssels, eines geheimen App-Schlüssels, eines Zugriffstokens und eines Aktualisierungstokens. Weitere Informationen finden Sie unter [OAuth-2.0-Apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) auf der Atlassian-Website.
+ Es müssen bestimmte Leseberechtigungen oder Bereiche aktiviert sein, damit eine Verbindung zwischen der OAuth 2.0-App und Confluence möglich wird.

  Confluence-API:
  + offline\$1access
  + read:content:confluence – Detaillierte Inhalte anzeigen 
  + read:content:confluence – Inhaltsdetails anzeigen 
  + read:space-details:confluence – Bereichsdetails anzeigen
  + read:audit-log:confluence – Audit-Aufzeichnungen anzeigen 
  + read:page:confluence – Seiten anzeigen 
  + read:attachment:confluence – Inhaltsanhänge ansehen und herunterladen 
  + read:blogpost:confluence – Blogbeiträge ansehen 
  + read:custom-content:confluence – Benutzerdefinierten Inhalt anzeigen 
  + read:comment:confluence – Kommentare anzeigen 
  + read:template:confluence – Inhaltsvorlagen anzeigen 
  + read:label:confluence – Labels anzeigen 
  + read:watcher:confluence – Inhaltsbeobachter anzeigen 
  + read:relation:confluence – Entitätsbeziehungen anzeigen 
  + read:user:confluence – Benutzerdetails anzeigen 
  + read:configuration:confluence – Confluence-Einstellungen anzeigen 
  + read:space-details:confluence – Bereichsdetails anzeigen 
  + read:space.property:confluence – Bereichseigenschaften anzeigen 
  + read:user.property:confluence – Benutzereigenschaften anzeigen 
  + read:space.setting:confluence – Bereichseinstellungen anzeigen 
  + read:analytics.content:confluence – Analytik für Inhalte anzeigen
  + read:content.property:confluence – Inhaltseigenschaften anzeigen
  + read:content.metadata:confluence – Inhaltszusammenfassungen anzeigen 
  + read:inlinetask:confluence – Aufgaben anzeigen 
  + read:task:confluence – Aufgaben anzeigen 
  + read:whiteboard:confluence – Whiteboards anzeigen 
  + read:app-data:confluence – App-Daten lesen 
  + read:folder:confluence – Ordner anzeigen
  + read:embed:confluence – Smart-Link-Daten anzeigen

**Stellen Sie in Ihrem AWS-Konto Folgendes sicher**:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager-Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit der Datenquelle in die AWS Identity and Access Management (IAM)-Rollen-/Berechtigungsrichtlinie für die Wissensdatenbank auf. Informationen zu den Berechtigungen, die erforderlich sind, um diese Datenquelle der IAM-Rolle für die Wissensdatenbank hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Secret über AWS Secrets Manager hinzufügen oder ein vorhandenes Secret als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM-Rolle kann mit allen erforderlichen Berechtigungen im Rahmen der in der Konsole ausgeführten Schritte zum Erstellen einer Wissensdatenbank für Sie angelegt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-confluence-connector"></a>

Um eine Verbindung zur Confluence-Instance herzustellen, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-confluence-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-confluence-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn der Inhalt vertrauliche Informationen enthält, kann Amazon Bedrock mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-confluence-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Durch Angabe eines Ausschlusspräfixes oder eines Musters für reguläre Ausdrücke können Sie beispielsweise festlegen, dass alle Dateien, deren Name das Wort „privat” enthält, beim Crawling übersprungen werden. Sie können bestimmte Inhaltsentitäten oder Inhaltstypen durch Angabe von Einschlusspräfix/Mustern für reguläre Ausdrücke einbeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von PDF-Dateien, deren Dateiname das Wort „privat“ enthält: *".\$1privat.\$1\$1\$1.pdf"*

Einschluss-/Ausschlussfilter können auf die folgenden Inhaltstypen angewendet werden:
+ `Space`: Einzelnes Leerzeichen
+ `Page`: Haupttitel der Seite
+ `Blog`: Haupttitel des Blogs
+ `Comment`: Kommentare, die zu einer bestimmten Seite oder einem bestimmten Blog gehören. Geben Sie Folgendes an: *Betreff: Seiten-/Blogtitel*
+ `Attachment`: Name der Anhangsdatei mit Erweiterung

### Inkrementelle Synchronisierung
<a name="ds-confluence-incremental-sync"></a>

Der Datenquellen-Connector sucht bei jeder Synchronisierung der Datenquelle mit der Wissensdatenbank nach neuen, geänderten und gelöschten Inhalten. Amazon Bedrock kann den Mechanismus der Datenquelle verwenden, um geänderte Inhalte nachzuverfolgen und nach Inhalten zu suchen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um die Datenquelle mit der Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API; wählen Sie alternativ die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-confluence-secret-auth-credentials"></a>

(Bei Verwendung der Standardauthentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `username`: *E-Mail-Adresse des Admin-Benutzers des Atlassian-Kontos*
+ `password`: *Confluence-API-Token*

(Bei Verwendung der OAuth-2.0-Authentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `confluenceAppKey`: *App-Schlüssel*
+ `confluenceAppSecret`: *App-Secret*
+ `confluenceAccessToken`*: App-Zugriffstoken*
+ `confluenceRefreshToken`: *App-Aktualisierungstoken*

**Anmerkung**  
Das **OAuth2.0-Zugriffstoken** von Confluence läuft standardmäßig nach 60 Minuten ab. Wenn dieses Token abläuft, während Ihre Datenquelle synchronisiert wird (Synchronisierungsauftrag), verwendet Amazon Bedrock das bereitgestellte **Aktualisierungstoken**, um dieses Token neu zu generieren. Bei dieser Regenerierung werden sowohl die Zugriffs- als auch die Aktualisierungstoken aktualisiert. Um die Token vom aktuellen Synchronisierungsauftrag bis zum nächsten Synchronisierungsauftrag auf dem neuesten Stand zu halten, benötigt Amazon Bedrock im Rahmen Ihrer IAM-Rolle in der Wissensdatenbank Schreib- und PUT-Berechtigungen für die Secret-Anmeldeinformationen.

**Anmerkung**  
Ihr Secret in AWS Secrets Manager muss dieselbe Region wie die Wissensdatenbank verwenden.

------
#### [ Console ]

**Herstellen einer Verbindung zwischen Confluence-Instance und Wissensdatenbank**

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Confluence** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die URL der Confluence-Instance an. Für Confluence Cloud lautet diese beispielsweise *https://example.atlassian.net*. Die URL für Confluence Cloud muss die Basis-URL sein und auf *.atlassian.net* enden.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher**. – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard-Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen ein, um eine Verbindung zu Ihrer Confluence-Instance herzustellen:
   + Wechseln Sie für die Standardauthentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss die E-Mail-Adresse des Admin-Benutzers des Atlassian-Kontos als Benutzername und ein Confluence-API-Token anstelle eines Passworts enthalten. Informationen zum Erstellen eines Confluence-API-Tokens finden Sie auf der Atlassian-Website unter [API-Token für Ihr Atlassian-Konto verwalten](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token).
   + Wechseln Sie für die OAuth-2.0-Authentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss den Confluence-App-Schlüssel, das App-Secret, das Zugriffstoken und das Aktualisierungstoken enthalten. Weitere Informationen finden Sie unter [OAuth-2.0-Apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) auf der Atlassian-Website.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung der Daten und der Verarbeitung der Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Sie können mithilfe von Filtern/regulären Ausdrücken bestimmte Inhalte ein- oder ausschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Um die verbleibenden Schritte zu sehen, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Confluence Cloud für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren die Datenquelle mithilfe der API mit der AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf von [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) rufen Sie [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) auf, um die Datenquelle mit Ihren Verbindungsinformationen in `dataSourceConfiguration` zu erstellen.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect zu Microsoft her, SharePoint um Ihre Wissensdatenbank zu erhalten
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint ist ein kollaborativer webbasierter Dienst für die Arbeit an Dokumenten, Webseiten, Websites, Listen und mehr. Sie können eine Verbindung zu Ihrer SharePoint Instance für Ihre Amazon Bedrock-Wissensdatenbank herstellen, indem Sie entweder die [AWS Management Console für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder die [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API verwenden (siehe Amazon Bedrock [unterstützt SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) und). AWS CLI

**Anmerkung**  
SharePoint Der Datenquellen-Connector befindet sich in der Vorschauversion und kann sich ändern.  
 SharePoint Microsoft-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Diagramme, Diagramme oder andere Bilder.

Amazon Bedrock unterstützt die Verbindung zu SharePoint Online-Instances. Das Crawlen von OneNote Dokumenten wird derzeit nicht unterstützt. Derzeit ist nur Amazon OpenSearch Serverless Vector Store für die Verwendung mit dieser Datenquelle verfügbar.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-sharepoint-connector)
+ [Voraussetzungen](#prerequisites-sharepoint-connector)
+ [Konfiguration der Verbindung](#configuration-sharepoint-connector)

## Unterstützte Features
<a name="supported-features-sharepoint-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Einschließen und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ SharePoint Authentifizierung nur über Apps

## Voraussetzungen
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**Führen Sie in Ihrem SharePoint (Online) die folgenden Schritte aus, um die SharePoint reine App-Authentifizierung zu verwenden:**
+ Notieren Sie sich die URL/ Ihrer SharePoint Online-Site. URLs Beispiel, *https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Die URL Ihrer Website muss die tatsächliche SharePoint Website sein, nicht oder *sharepoint.com/* *sites/mysite/home.aspx*
+ Notieren Sie sich den Domainnamen Ihrer SharePoint Online-Instanz-URL/URLs.
+ Kopieren Sie Ihre Mandanten-ID von Microsoft 365. Sie finden Ihre Mandanten-ID in den Eigenschaften Ihres Portals von Microsoft Entra. Weitere Informationen finden Sie unter [Finden Sie Ihre Microsoft 365-Mandanten-ID](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Anmerkung**  
Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website. 
+ Konfigurieren Sie Anmeldeinformationen, die SharePoint nur für Apps bestimmt sind.
+ Kopieren Sie die Client-ID und den Wert für den geheimen Client-Schlüssel, wenn Sie App-Only die SharePoint Erlaubnis erteilen. Weitere Informationen finden Sie unter [Zugriff mit SharePoint App-Only gewähren](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs).
**Anmerkung**  
Sie müssen keine API-Berechtigungen für SharePoint App-Only einrichten. Sie müssen jedoch nebenbei APP-Berechtigungen konfigurieren. SharePoint Weitere Informationen zu den erforderlichen APP-Berechtigungen finden Sie in der Microsoft-Dokumentation zum [Gewähren von Zugriff mithilfe von SharePoint App-Only](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs).

### AWS-Konto
<a name="prerequisites-sharepoint-connector-account"></a>

Stellen **Sie in Ihrem AWS Konto sicher,** dass Sie:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager -Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit Ihrer Datenquelle in Ihre AWS Identity and Access Management (IAM) role/permissions -Richtlinie für Ihre Wissensdatenbank auf. Informationen zu den erforderlichen Berechtigungen für diese Datenquelle, um sie Ihrer IAM Wissensdatenbank-Rolle hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Geheimnis AWS Secrets Manager hinzufügen oder ein vorhandenes Geheimnis als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM Rolle mit allen erforderlichen Berechtigungen kann im Rahmen der Konsolenschritte zum Erstellen einer Wissensdatenbank für Sie erstellt werden. Nachdem Sie Ihre Datenquelle und andere Konfigurationen konfiguriert haben, wird die IAM Rolle mit allen erforderlichen Berechtigungen auf Ihre spezifische Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-sharepoint-connector"></a>

Um eine Verbindung zu Ihrer SharePoint Instance herzustellen, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und sie crawlen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-sharepoint-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-sharepoint-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn Ihr Inhalt vertrauliche Informationen enthält, Amazon Bedrock könnte dann mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-sharepoint-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Sie können beispielsweise ein prefix/regular Ausschlussausdrucksmuster angeben, um das Crawlen von Dateien zu überspringen, deren Dateiname „privat“ enthält. Sie können auch ein Muster für prefix/regular Einschlussausdrücke angeben, um bestimmte Inhaltsentitäten oder Inhaltstypen einzubeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von PDF-Dateien, deren Dateiname das Wort „privat“ enthält: *".\$1privat.\$1\$1\$1.pdf"*

Sie können inclusion/exclusion Filter auf die folgenden Inhaltstypen anwenden:
+ `Page`: Haupttitel der Seite
+ `Event`: Ereignisname
+ `File`: Dateiname mit der entsprechenden Erweiterung für Anlagen und alle Dokumentdateien

Das Crawlen von OneNote Dokumenten wird derzeit nicht unterstützt.

### Inkrementelle Synchronisierung
<a name="ds-sharepoint-incremental-sync"></a>

Der Datenquellen-Connector crawlt neue, geänderte und gelöschte Inhalte jedes Mal, wenn Ihre Datenquelle mit Ihrer Wissensdatenbank synchronisiert wird. Amazon Bedrock kann den Mechanismus Ihrer Datenquelle verwenden, um Inhaltsänderungen nachzuverfolgen und Inhalte zu crawlen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um Ihre Datenquelle mit Ihrer Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API oder wählen Sie Ihre Wissensdatenbank in der Konsole aus und wählen Sie im Bereich Datenquellenübersicht die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-sharepoint-secret-auth-credentials"></a>

Wenn Sie die SharePoint reine App-Authentifizierung verwenden, AWS Secrets Manager müssen Ihre geheimen Anmeldeinformationen die folgenden Schlüssel-Wert-Paare enthalten:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Anmerkung**  
Ihr Secret-In AWS Secrets Manager muss dieselbe Region wie Ihre Wissensdatenbank verwenden.

------
#### [ Console ]

**Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect**<a name="connect-sharepoint-console"></a>

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **SharePoint**als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die URL Ihrer SharePoint Website ein/URLs. Zum Beispiel für SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Ihre Site-URL muss die tatsächliche SharePoint Site sein, nicht *sharepoint.com/* oder *sites/mysite/home.aspx*

1. Geben Sie den Domainnamen Ihrer SharePoint Instanz an.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher**. — Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard Von AWS verwalteter Schlüssel - oder Ihrem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen an, um eine Verbindung zu Ihrer Instanz herzustellen. SharePoint Für die SharePoint Authentifizierung nur über Apps:

   1. Geben Sie die Mandanten-ID an. Ihre Mandanten-ID finden Sie in den Eigenschaften Ihres Azure Active Directory-Portals.

   1. Gehen Sie AWS Secrets Manager zu, um Ihre geheimen Anmeldeinformationen hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Geheimnis. Ihr Secret muss die SharePoint Client-ID und das SharePoint Client-Geheimnis enthalten, das bei der Registrierung der App Only auf Mandantenebene oder Standortebene generiert wurde, sowie die Entra-Client-ID und den Entra-Client-Secret, die bei der Registrierung der App in Entra generiert wurden.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung der Daten und der Verarbeitung der Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Wählen Sie, ob Sie filters/regular Ausdrucksmuster verwenden möchten, um bestimmte Inhalte ein- oder auszuschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung zu SharePoint Online für Ihre Amazon Bedrock-Wissensdatenbank. Sie konfigurieren Ihre Datenquelle mithilfe der API mit dem AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf rufen Sie auf [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)um Ihre Datenquelle mit Ihren Verbindungsinformationen zu erstellen`dataSourceConfiguration`.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Inhalt von `sharepoint-bedrock-connector-configuration.json`** 

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Wichtig**  
Die OAuth2 2.0-Authentifizierung wird nicht empfohlen. Wir empfehlen, die SharePoint App-Only-Authentifizierung zu verwenden.

## 0 verwenden OAuth2
<a name="sharepoint-connector-oauth"></a>

Mit OAuth 2.0 können Sie den Zugriff auf SharePoint Ressourcen für SharePoint Konnektoren, die in Knowledge Bases integriert sind, authentifizieren und autorisieren.

### Voraussetzungen
<a name="sharepoint-connector-oauth-prereq"></a>

Stellen Sie **bei SharePoint der OAuth 2.0-Authentifizierung sicher,** dass Sie:
+ Notieren Sie sich die URL/ URLs Ihrer SharePoint Online-Site. Beispiel, *https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Die URL Ihrer Website muss die tatsächliche SharePoint Website sein, nicht oder *sharepoint.com/* *sites/mysite/home.aspx*
+ Notieren Sie sich den Domainnamen Ihrer SharePoint Online-Instanz-URL/URLs.
+ Kopieren Sie Ihre Mandanten-ID von Microsoft 365. Sie finden Ihre Mandanten-ID in den Eigenschaften Ihres Microsoft Entra-Portals oder in Ihrer OAuth Anwendung.

  Notieren Sie sich den Benutzernamen und das Passwort des SharePoint Administratorkontos und kopieren Sie bei der Registrierung einer Anwendung die Client-ID und den geheimen Client-Wert.
**Anmerkung**  
Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website. 
+  SharePoint Bei der Registrierung einer Anwendung sind bestimmte Leseberechtigungen erforderlich, um eine Verbindung herzustellen.
  + SharePoint: AllSites .Read (delegiert) — Elemente in allen Websitesammlungen lesen
+ Möglicherweise müssen Sie die **Sicherheitsstandards** in Ihrem Azure-Portal mithilfe eines Administratorbenutzers deaktivieren. Weitere Informationen zur Verwaltung von Sicherheitsstandardeinstellungen im Azure-Portal finden Sie in der [Microsoft-Dokumentation zur Vorgehensweise bei enable/disable Sicherheitsstandards](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Möglicherweise müssen Sie die Multi-Faktor-Authentifizierung (MFA) in Ihrem SharePoint Konto deaktivieren, damit Amazon Bedrock nicht daran gehindert wird, Ihre Inhalte zu crawlen. SharePoint 

Zum Erfüllen der Voraussetzungen sollten Sie sicherstellen, dass Sie die unter [AWS-Konto](#prerequisites-sharepoint-connector-account) beschriebenen Schritte ausgeführt haben.

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Für die Verbindungskonfiguration für OAuth2 .0 können Sie dieselben Schritte für die auto Erkennung der Hauptdokumentfelder, inclusion/exclusion Filter und die inkrementelle Synchronisierung ausführen, wie unter beschrieben. [Konfiguration der Verbindung](#configuration-sharepoint-connector)

**Für die OAuth 2.0-Authentifizierung AWS Secrets Manager müssen Ihre geheimen Anmeldeinformationen diese Schlüssel-Wert-Paare enthalten**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect
<a name="sharepoint-connector-oauth-using"></a>

Um eine SharePoint Instanz mit Ihrer Wissensdatenbank zu verbinden, wenn Sie OAuth2 .0 verwenden:
+ (Konsole) Folgen Sie in der Konsole den gleichen Schritten wie unter [Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console) beschrieben. Wenn Sie die Authentifizierungsinformationen angeben möchten, um eine Verbindung zu Ihrer SharePoint Instanz herzustellen.
  + Geben Sie die Mandanten-ID an. Ihre Mandanten-ID finden Sie in den Eigenschaften Ihres Azure Active Directory-Portals.
  + Gehen Sie AWS Secrets Manager zu, um Ihre geheimen Authentifizierungsdaten hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Geheimnis. Ihr Secret muss den SharePoint Admin-Benutzernamen und das Passwort sowie Ihre registrierte App-Client-ID und Ihren geheimen Client-Schlüssel enthalten. Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website.
+ (API) Im Folgenden finden Sie ein Beispiel für die Verwendung der `CreateDataSource` API, um Ihre Datenquelle mit Ihren Verbindungsinformationen für OAuth2 .0 zu erstellen.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Inhalt von `sharepoint-bedrock-connector-configuration.json`** 

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Verbinden mit Salesforce für Ihre Wissensdatenbank
<a name="salesforce-data-source-connector"></a>

Salesforce ist ein Customer Relationship Management (CRM)-Tool zur Verwaltung von Support-, Vertriebs- und Marketingteams. Sie können mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource-API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) eine Verbindung mit der Salesforce-Instance für die Amazon-Bedrock-Wissensdatenbank herstellen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Anmerkung**  
Beim Datenquellen-Connector Salesforce handelt es sich um eine Vorversion, bei der Änderungen vorbehalten sind.  
Salesforce-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Graphen, Diagramme oder andere Bilder.

Derzeit ist nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle verfügbar.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-salesforce-connector)
+ [Voraussetzungen](#prerequisites-salesforce-connector)
+ [Konfiguration der Verbindung](#configuration-salesforce-connector)

## Unterstützte Features
<a name="supported-features-salesforce-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Ein- und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ OAuth 2.0-Authentifizierung

## Voraussetzungen
<a name="prerequisites-salesforce-connector"></a>

**Stellen Sie in Salesforce Folgendes sicher**:
+ Notieren Sie sich die URL Ihrer Salesforce-Instance. Zum Beispiel *https://company.salesforce.com/*. Die Instance muss eine Salesforce Connected App ausführen.
+ Erstellen Sie eine Salesforce Connected App und konfigurieren Sie die Client-Anmeldeinformationen. Kopieren Sie dann für Ihre ausgewählte Anwendung den Verbraucherschlüssel (Client-ID) und das Verbrauchergeheimnis (Client-Geheimnis) aus den OAuth-Einstellungen. Weitere Informationen finden Sie in der Salesforce-Dokumentation unter [Erstellen einer verbundenen Anwendung](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) und [Konfigurieren einer verbundenen Anwendung für die OAuth-2.0-Client-Anmeldeinformationen](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Anmerkung**  
Stellen Sie bei Salesforce Connected Apps unter Client-Anmeldeinformationsfluss sicher, dass Sie im Feld „Ausführen als“ den Namen oder Alias des Benutzers für Ihre Client-Anmeldeinformationen suchen und auswählen.

**Stellen Sie in Ihrem AWS-Konto Folgendes sicher**:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager-Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit der Datenquelle in die AWS Identity and Access Management (IAM)-Rollen-/Berechtigungsrichtlinie für die Wissensdatenbank auf. Informationen zu den Berechtigungen, die erforderlich sind, um diese Datenquelle der IAM-Rolle für die Wissensdatenbank hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Secret über AWS Secrets Manager hinzufügen oder ein vorhandenes Secret als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM-Rolle kann mit allen erforderlichen Berechtigungen im Rahmen der in der Konsole ausgeführten Schritte zum Erstellen einer Wissensdatenbank für Sie angelegt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-salesforce-connector"></a>

Wenn Sie eine Verbindung mit der Salesforce-Instance herstellen möchten, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-salesforce-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-salesforce-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn der Inhalt vertrauliche Informationen enthält, kann Amazon Bedrock mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-salesforce-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Durch Angabe eines Ausschlusspräfixes oder eines Musters für reguläre Ausdrücke können Sie beispielsweise festlegen, dass alle Dateien, deren Name das Wort „privat” enthält, beim Crawling übersprungen werden. Sie können bestimmte Inhaltsentitäten oder Inhaltstypen durch Angabe von Einschlusspräfix/Mustern für reguläre Ausdrücke einbeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von Kampagnen, die das Wort „privat“ enthalten: *„.\$1privat.\$1“*

Einschluss-/Ausschlussfilter können auf die folgenden Inhaltstypen angewendet werden:
+ `Account`: Kontonummer/ID
+ `Attachment`: Name der Anhangsdatei mit Erweiterung
+ `Campaign`: Kampagnenname und zugehörige IDs
+ `ContentVersion`: Version des Dokuments und zugehörige IDs
+ `Partner`: Felder mit Partnerinformationen, einschließlich der zugehörigen IDs
+ `Pricebook2`: Name der Produkt-/Preisliste
+ `Case`: Kundenanfrage-/Ausgabenummer und andere Informationsfelder, einschließlich der zugehörigen IDs (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Contact`: Kundeninformationsfelder (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Contract`: Vertragsname und zugehörige IDs
+ `Document`: Name der Datei mit Erweiterung
+ `Idea`: Informationsfelder für Ideen und zugehörige IDs
+ `Lead`: Potenzielle neue Kundeninformationsfelder (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Opportunity`: Informationsfelder für ausstehende Verkäufe/Vertragsabschlüsse und zugehörige IDs
+ `Product2`: Produktinformationsfelder und zugehörige IDs
+ `Solution`: Lösungsname für eine Kundenanfrage/ein Kundenproblem und zugehörige IDs
+ `Task`: Informationsfelder für Aufgaben und zugehörige IDs
+ `FeedItem`: ID des Chatter-Feed-Posts
+ `FeedComment`: ID des Chatter-Feed-Posts, zu dem die Kommentare gehören
+ `Knowledge__kav`: Titel des Wissensartikels
+ `User`: Benutzeralias innerhalb Ihrer Organisation
+ `CollaborationGroup`: Chatter-Gruppenname (eindeutig)

### Inkrementelle Synchronisierung
<a name="ds-salesforce-incremental-sync"></a>

Der Datenquellen-Connector sucht bei jeder Synchronisierung der Datenquelle mit der Wissensdatenbank nach neuen, geänderten und gelöschten Inhalten. Amazon Bedrock kann den Mechanismus der Datenquelle verwenden, um geänderte Inhalte nachzuverfolgen und nach Inhalten zu suchen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Zum Synchronisieren der Datenquelle mit der Wissensdatenbank verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API. Alternativ können Sie auch die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** auswählen.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-salesforce-secret-auth-credentials"></a>

(Für die OAuth-2.0-Authentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `consumerKey`: *App-Client-ID*
+ `consumerSecret`: *App-Client-Secret*
+ `authenticationUrl`: *URL der Salesforce-Instance oder die URL, von der das Authentifizierungstoken angefordert werden soll*

**Anmerkung**  
Ihr Secret in AWS Secrets Manager muss dieselbe Region wie die Wissensdatenbank verwenden.

------
#### [ Console ]

**Herstellen einer Verbindung zwischen Salesforce-Instance und Wissensdatenbank**

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Salesforce** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie Ihre Salesforce-Instance-URL an. Zum Beispiel *https://company.salesforce.com/*. Die Instance muss eine Salesforce Connected App ausführen.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem standardmäßigen Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen ein, um eine Verbindung zu Ihrer Salesforce-Instance herzustellen:

   1. Wechseln Sie für die OAuth-2.0-Authentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss den Salesforce Connected App Consumer Key (Client-ID), das Consumer Secret (Client Secret) und die Salesforce-Instance-URL oder die URL enthalten, von der das Authentifizierungstoken angefordert werden soll. Weitere Informationen finden Sie in der Salesforce-Dokumentation unter [Erstellen einer verbundenen Anwendung](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) und [Konfigurieren einer verbundenen Anwendung für die OAuth-2.0-Client-Anmeldeinformationen](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Sie können mithilfe von Filtern/regulären Ausdrücken bestimmte Inhalte ein- oder ausschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Salesforce für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren die Datenquelle mithilfe der API mit der AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf von [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) rufen Sie [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) auf, um die Datenquelle mit Ihren Verbindungsinformationen in `dataSourceConfiguration` zu erstellen.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawlen von Webseiten für Ihre Wissensdatenbank
<a name="webcrawl-data-source-connector"></a>

Der von Amazon Bedrock bereitgestellte Webcrawler stellt eine Verbindung zu URLs her, die Sie für die Verwendung in Ihrer Amazon-Bedrock-Wissensdatenbank ausgewählt haben, und crawlt diese. Sie können Webseiten gemäß Ihrem festgelegten Bereich oder den von Ihnen festgelegten Grenzwerten für Ihre ausgewählten URLs crawlen. Sie können Webseiten entweder mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)-API crawlen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Derzeit ist nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle verfügbar.

**Anmerkung**  
Der Webcrawler-Datenquellen-Connector befindet sich in der Vorversion und kann sich ändern.

Bei der Auswahl der zu Crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind, und dass Sie die Konfigurationen in der Datei robots.txt berücksichtigen müssen.

Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Die Anzahl der Inhaltselemente der Webseite und die Anzahl der MB pro Inhaltselement, die gecrawlt werden können, ist begrenzt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-webcrawl-connector)
+ [Voraussetzungen](#prerequisites-webcrawl-connector)
+ [Konfiguration der Verbindung](#configuration-webcrawl-connector)

## Unterstützte Features
<a name="supported-features-webcrawl-connector"></a>

Der Webcrawler stellt ausgehend von der Seed-URL eine Verbindung zu HTML-Seiten her und crawlt diese. Dabei werden alle untergeordneten Links unter derselben primären Top-Domain und demselben Pfad durchlaufen. Wenn eine der HTML-Seiten auf unterstützte Dokumente verweist, ruft der Webcrawler diese Dokumente ab, unabhängig davon, ob sie sich innerhalb derselben obersten primären Domain befinden. Sie können das Crawling-Verhalten ändern, indem Sie eine andere Crawling-Konfiguration vornehmen. Weitere Informationen finden Sie unter [Konfiguration der Verbindung](#configuration-webcrawl-connector).

Die Ausführung der folgenden Schritte wird unterstützt:
+ Wählen Sie mehrere Quell-URLs für das Crawlen aus und legen Sie den URL-Bereich so fest, dass nur der Host gecrawlt wird oder auch Subdomains einbezogen werden.
+ Crawlen Sie statische Webseiten, die Teil Ihrer Quell-URLs sind.
+ Geben Sie ein angepasstes Suffix für Benutzeragenten an, um Regeln für Ihren eigenen Crawler festzulegen.
+ Schließen Sie bestimmte URLs, die einem Filtermuster entsprechen, ein oder aus.
+ Beachten Sie die Standardanweisungen von robots.txt wie „Zulassen“ und „Nicht zulassen“.
+ Begrenzen Sie den Bereich der zu crawlenden URLs und schließen Sie optional URLs aus, die einem Filtermuster entsprechen.
+ Begrenzen Sie die Crawling-Rate von URLs und die maximale Anzahl der zu crawlenden Seiten.
+ Anzeigen des Status gecrawlter URLs in Amazon CloudWatch

## Voraussetzungen
<a name="prerequisites-webcrawl-connector"></a>

**Führen Sie die folgenden Schritte aus, um den Webcrawler zu verwenden:**.
+ Vergewissern Sie sich, dass Sie berechtigt sind, Ihre Quell-URLs zu crawlen.
+ Vergewissern Sie sich, dass der Pfad zu robots.txt, der Ihren Quell-URLs entspricht, nicht verhindert, dass die URLs gecrawlt werden. Der Webcrawler hält sich an die Standards von robots.txt: standardmäßig `disallow`, wenn robots.txt für die Website nicht gefunden wird. Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Sie können auch ein angepasstes Suffix für Benutzeragenten angeben, um Regeln für Ihren eigenen Crawler festzulegen. Weitere Informationen finden Sie unter „Zugriff auf die Webcrawler-URL“ in den Anleitungen zu [Konfiguration der Verbindung](#configuration-webcrawl-connector) auf dieser Seite.
+ [Aktivieren Sie die Bereitstellung von CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) und folgen Sie den Beispielen von Webcrawler-Protokollen, um den Status Ihres Datenerfassungsauftrags für die Aufnahme von Webinhalten zu überprüfen und zu ermitteln, ob bestimmte URLs nicht abgerufen werden können.

**Anmerkung**  
Bei der Auswahl der zu Crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind.

## Konfiguration der Verbindung
<a name="configuration-webcrawl-connector"></a>

Wählen Sie Folgendes aus, um weitere Informationen zum Synchronisierungsbereich für das Crawling von URLs, zu Einschluss-/Ausschlussfiltern, zum URL-Zugriff, zur inkrementellen Synchronisierung und zu deren Funktionsweise zu erhalten:

### Synchronisierungsumfang für das Crawling von URLs
<a name="ds-sync-scope"></a>

Sie können den Bereich der zu crawlenden URLs basierend auf der spezifischen Beziehung der einzelnen Seed-URLs begrenzen. Um Crawl-Vorgänge zu beschleunigen, können Sie die URLs auf diejenigen beschränken, die denselben Host und denselben ursprünglichen URL-Pfad wie die Seed-URL aufweisen. Für umfassendere Crawl-Vorgänge können Sie auswählen, ob URLs mit demselben Host oder innerhalb einer beliebigen Subdomain der Seed-URL gecrawlt werden sollen.

Sie können aus den folgenden Optionen auswählen.
+ Standard: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören und über denselben ursprünglichen URL-Pfad verfügen. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann nur dieser Pfad und die Webseiten gecrawlt, die sich aus diesem Pfad ergeben, z. B. „https://aws.amazon.com/bedrock/agents/“. Gleichgeartete URLs wie „https://aws.amazon.com/ec2/“ werden beispielsweise nicht gecrawlt.
+ Nur Host: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „https://aws.amazon.com“ gecrawlt, z. B. „https://aws.amazon.com/ec2“.
+ Subdomains: Schließt das Crawling aller Webseiten ein, deren primäre Domain mit der der Seed-URL identisch ist. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „amazon.com“ (Subdomain) gecrawlt, z. B. „https://www.amazon.com“.

**Anmerkung**  
Stellen Sie sicher, dass Sie keine potenziell überlastete Webseiten crawlen. Es wird nicht empfohlen, große Websites wie wikipedia.org ohne Filter oder Bereichsbegrenzung zu crawlen. Das Crawling großer Websites nimmt sehr viel Zeit in Anspruch.  
[Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist.

Der Webcrawler unterstützt statische Websites.

Sie können auch die Crawling-Rate für URLs begrenzen, um die Drosselung der Crawling-Geschwindigkeit zu steuern. Sie legen die maximale Anzahl von URLs fest, die pro Host pro Minute gecrawlt werden. Darüber hinaus können Sie auch die maximale Anzahl (bis zu 25 000) aller Webseiten festlegen, die gecrawlt werden sollen. Beachten Sie, dass der Synchronisierungs-/Erfassungsauftrag für Ihre Datenquelle fehlschlägt, wenn die Gesamtzahl der Webseiten aus Ihren Quell-URLs das von Ihnen festgelegte Maximum überschreitet.

### Einschluss- und Ausschlussfilter
<a name="ds-inclusion-exclusion"></a>

Sie können je nach Bereich bestimmte URLs ein- oder ausschließen. [Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide mit einer URL übereinstimmen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht gecrawlt.

**Wichtig**  
Problematische Musterfilter mit regulären Ausdrücken, die zu einer [katastrophalen Rückverfolgung](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/) und Vorausschau führen, werden abgelehnt.

Ein Beispiel für ein Filtermuster für reguläre Ausdrücke zum Ausschließen von URLs, die mit „.pdf“ enden, oder von PDF-Webseitenanhängen: *„.\$1\$1.pdf\$1“*

### Zugriff auf die Webcrawler-URL
<a name="ds-webcrawl-identity-crawling"></a>

Sie können den Webcrawler verwenden, um die Seiten von Websites zu crawlen, für deren Crawling Sie autorisiert sind.

Bei der Auswahl der zu crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind.

Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Sie können festlegen, dass bestimmte Benutzer-Agent-Bots dem Benutzeragenten das Crawlen Ihrer Quell-URLs entweder erlauben oder verbieten. Sie können die Datei „robots.txt“ Ihrer Website ändern, um zu steuern, wie der Webcrawler Ihre Quell-URLs crawlt. Der Crawler sucht zuerst nach `bedrockbot-UUID `-Regeln und dann nach generischen `bedrockbot`-Regeln in der Datei „robots.txt“.

Sie können auch ein Suffix für Benutzeragenten hinzufügen, mit dem Sie Ihren Crawler in Bot-Schutzsystemen auf die Zulassungsliste setzen können. Beachten Sie, dass dieses Suffix der `robots.txt`-Datei nicht hinzugefügt werden muss, um sicherzustellen, dass niemand die Zeichenfolge „Benutzeragent“ nachahmen kann. Verwenden Sie beispielsweise die folgende Richtlinie, um dem Webcrawler das Crawling aller Webseiteninhalte zu ermöglichen und es allen anderen Robotern zu verbieten:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Inkrementelle Synchronisierung
<a name="ds-incremental-sync"></a>

Bei jeder Ausführung des Webcrawlers werden Inhalte für alle URLs abgerufen, die über die Quell-URLs erreichbar sind und dem Bereich und den Filtern entsprechen. Bei inkrementellen Synchronisierungen aktualisiert Amazon Bedrock Ihre Wissensdatenbank nach der ersten Synchronisierung aller Inhalte mit neuen und geänderten Inhalten und entfernt alte Inhalte, die nicht mehr vorhanden sind. Gelegentlich kann der Crawler möglicherweise nicht erkennen, ob Inhalte von der Website entfernt wurden. In diesem Fall versucht er, alte Inhalte in Ihrer Wissensdatenbank beizubehalten.

Um die Datenquelle mit der Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API; wählen Sie alternativ die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Verbinden einer Webcrawler-Datenquelle mit Ihrer Wissensdatenbank**

1. Befolgen Sie die Schritte unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Webcrawler** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die **Quell-URLs** der URLS AN, die Sie crawlen möchten. Sie können bis zu 9 zusätzliche URLs hinzufügen, indem Sie **Quell-URLs hinzufügen** auswählen. Durch die Bereitstellung einer Quell-URL bestätigen Sie, dass Sie zum Crawlen ihrer Domain berechtigt sind.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard-Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. (Optional) Geben Sie ein Suffix für Benutzeragenten für **bedrock-UUID-** an, das den Crawler oder Bot beim Zugriff auf einen Webserver identifiziert.

1. Konfigurieren Sie im Abschnitt **Synchronisierungsbereich** Folgendes:

   1. Wählen Sie einen **Website-Domainbereich** für das Crawling Ihrer Quell-URLs aus:
      + Standard: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören und über denselben ursprünglichen URL-Pfad verfügen. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann nur dieser Pfad und die Webseiten gecrawlt, die sich aus diesem Pfad ergeben, z. B. „https://aws.amazon.com/bedrock/agents/“. Gleichgeartete URLs wie „https://aws.amazon.com/ec2/“ werden beispielsweise nicht gecrawlt.
      + Nur Host: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „https://aws.amazon.com“ gecrawlt, z. B. „https://aws.amazon.com/ec2“.
      + Subdomains: Schließt das Crawling aller Webseiten ein, deren primäre Domain mit der der Seed-URL identisch ist. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „amazon.com“ (Subdomain) gecrawlt, z. B. „https://www.amazon.com“.
**Anmerkung**  
Stellen Sie sicher, dass Sie keine potenziell überlastete Webseiten crawlen. Es wird nicht empfohlen, große Websites wie wikipedia.org ohne Filter oder Bereichsbegrenzung zu crawlen. Das Crawling großer Websites nimmt sehr viel Zeit in Anspruch.  
[Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist.

   1. Geben Sie **Maximale Drosselung der Crawling-Geschwindigkeit** ein. Erfassen Sie zwischen 1 und 300 URLs pro Host und Minute. Eine höhere Crawling-Geschwindigkeit erhöht die Last, nimmt jedoch weniger Zeit in Anspruch.

   1. Geben Sie für **Maximale Anzahl Seiten für die Datenquellensynchronisierung** einen Wert zwischen 1 und 25000 ein. Beschränken Sie die maximale Anzahl von Webseiten, die über Ihre Quell-URLs gecrawlt werden. Wenn Webseiten diese Anzahl überschreiten, schlägt die Datenquellensynchronisierung fehl und es werden keine Webseiten erfasst. 

   1. Für **URL-Regex**-Muster (optional) können Sie **Muster einbeziehen** oder **Muster ausschließen** hinzufügen, indem Sie das Muster für reguläre Ausdrücke in das Feld eingeben. Sie können bis zu 25 Einschlussfiltermuster und 25 Ausschlussfiltermuster hinzufügen, indem Sie **Neues Muster hinzufügen** auswählen. Die Ein- und Ausschlussmuster werden entsprechend Ihrem Bereich gecrawlt. Wenn ein Konflikt besteht, hat das Ausschlussmuster Vorrang.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Um die verbleibenden Schritte zu sehen, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Zum Herstellen einer Verbindung zwischen einer Wissensdatenbank und einer Datenquelle mithilfe von WebCrawler, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt von Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), geben Sie `WEB` in das Feld `type` der [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) ein und fügen Sie das Feld `webConfiguration` hinzu. Im Folgenden finden Sie ein Beispiel für eine Konfiguration von Webcrawler für Ihre Amazon-Bedrock-Wissensdatenbank.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

------

# Verknüpfen der Wissensdatenbank mit einer benutzerdefinierten Datenquelle
<a name="custom-data-source-connector"></a>

Anstatt einen unterstützten Datenquellenservice zu wählen, können Sie eine Verbindung mit einer benutzerdefinierten Datenquelle herstellen, was die folgenden Vorteile bietet:
+ Flexibilität und Kontrolle über die Datentypen, auf die Ihre Wissensdatenbank Zugriff haben soll.
+ Die Möglichkeit, mithilfe der `KnowledgeBaseDocuments`-API-Vorgänge Dokumente direkt aufzunehmen oder zu löschen, ohne dass Änderungen synchronisiert werden müssen.
+ Die Möglichkeit, Dokumente in Ihrer Datenquelle direkt über die Amazon-Bedrock-Konsole oder API anzuzeigen.
+ Die Möglichkeit, Dokumente direkt in die Datenquelle hochzuladen AWS-Managementkonsole oder sie inline hinzuzufügen.
+ Die Möglichkeit, dem jeweiligen Dokument direkt Metadaten hinzuzufügen, wenn ein Dokument in der Datenquelle hinzugefügt oder aktualisiert wird. Weitere Informationen zur Verwendung von Metadaten zum Filtern beim Abrufen von Angaben aus einer Datenquelle finden Sie auf der Registerkarte **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

**Unterstützung multimodaler Inhalte**  
Benutzerdefinierte Datenquellen unterstützen multimodale Inhalte wie Bilder, Audio- und Videodateien mit einer Größe von bis zu 10 MB Base64-kodiert. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Um eine Wissensdatenbank mit einer benutzerdefinierten Datenquelle zu verbinden, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage an einen [Build-Time-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `knowledgeBaseId` der Wissensdatenbank an, mit der eine Verbindung hergestellt werden soll, geben Sie der Datenquelle einen `name` und legen Sie das Feld `type` in `dataSourceConfiguration` als `CUSTOM` fest. Im Folgenden finden Sie ein minimal gehaltenes Beispiel für die Erstellung dieser Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Sie können die folgenden optionalen Felder zum Konfigurieren der Datenquelle einbinden:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Zur Beschreibung der Datenquelle. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionKonfiguration | Zum Festlegung eines benutzerdefinierten KMS-Schlüssels für den transienten Datenspeicher bei der Konvertierung Ihrer Daten in Einbettungen. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion). | 
| dataDeletionPolicy | Zur Konfiguration, wie mit den Vektoreinbettungen für Ihre Datenquelle in Ihrem Vektorspeicher umgegangen werden soll, wenn Sie die Datenquelle löschen. Geben Sie RETAIN an, wenn die Daten im Vektorspeicher beibehalten werden sollen, oder wählen Sie die Standardoption DELETE aus, um sie zu löschen. | 
| vectorIngestionConfiguration | Zur Konfiguration von Optionen für die Aufnahme der Datenquelle. Weitere Informationen hierzu finden Sie unten. | 

Das `vectorIngestionConfiguration` Feld ist einem [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)Objekt zugeordnet, das die folgenden Felder enthält:
+ chunkingConfiguration – Hiermit wird die Strategie konfiguriert, die für die Aufteilung der Dokumente in der Datenquelle verwendet werden soll. Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
+ parsingConfiguration – Hiermit wird die Strategie konfiguriert, die für die Analyse der Datenquelle verwendet werden soll. Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
+ customTransformationConfiguration — Um anzupassen, wie die Daten transformiert werden, und um eine Lambda-Funktion für eine bessere Anpassung anzuwenden. Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

Nachdem Sie Ihre benutzerdefinierte Datenquelle eingerichtet haben, können Sie Dokumente zu ihr hinzufügen und sie direkt in die Wissensdatenbank aufnehmen. Im Gegensatz zu anderen Datenquellen müssen Sie eine benutzerdefinierte Datenquelle nicht synchronisieren. Weitere Informationen zur direkten Aufnahme von Dokumenten finden Sie unter [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md).

# So passen Sie die Aufnahme für eine Datenquelle an
<a name="kb-data-source-customize-ingestion"></a>

Sie können die Vektoraufnahme anpassen, wenn Sie eine Datenquelle verbinden, AWS-Managementkonsole oder indem Sie den Wert des `vectorIngestionConfiguration` Felds beim Senden einer [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage ändern.

Wählen Sie ein Thema aus, um zu erfahren, wie Sie Konfigurationen für die Anpassung der Aufnahme beim Herstellen einer Verbindung zu einer Datenquelle einbinden können:

**Topics**
+ [Wählen Sie das Tool aus, das für die Analyse verwendet werden soll](#kb-data-source-customize-parsing)
+ [Wählen Sie eine Chunking-Strategie aus](#kb-data-source-customize-chunking)
+ [So verwenden Sie eine Lambda-Funktion bei der Datenaufnahme](#kb-data-source-customize-lambda)

## Wählen Sie das Tool aus, das für die Analyse verwendet werden soll
<a name="kb-data-source-customize-parsing"></a>

Sie können anpassen, wie die Dokumente in Ihren Daten analysiert werden. Informationen zu den Optionen für das Parsen von Daten in Wissensdatenbanken für Amazon Bedrock finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

**Warnung**  
Die Parsing-Strategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden. Sie können eine neue Datenquelle hinzufügen, um eine andere Analysestrategie zu verwenden.  
Nachdem Sie eine Wissensdatenbank erstellt haben, können Sie keinen S3-Standort zum Speichern multimodaler Daten (einschließlich Bildern, Abbildungen, Diagrammen und Tabellen) hinzufügen. Wenn Sie multimodale Daten einbeziehen und einen Parser verwenden möchten, der diese unterstützt, müssen Sie eine neue Wissensdatenbank erstellen.

Die Schritte zur Auswahl einer Parsing-Strategie hängen davon ab, ob Sie die Amazon Bedrock-API AWS-Managementkonsole oder die Amazon Bedrock-API verwenden und welche Parsing-Methode Sie wählen. Wenn Sie sich für eine Analysemethode entscheiden, die multimodale Daten unterstützt, müssen Sie einen S3-URI angeben, in dem die aus Ihren Dokumenten extrahierten multimodalen Daten gespeichert werden sollen. Diese Daten können in einer Wissensdatenbankabfrage zurückgegeben werden.
+ Gehen Sie in der wie AWS-Managementkonsole folgt vor:

  1. Wählen Sie die Parsing-Strategie aus, wenn Sie beim Einrichten einer Wissensdatenbank eine Datenquelle verbinden oder wenn Sie eine neue Datenquelle zu Ihrer vorhandenen Wissensdatenbank hinzufügen.

  1. (Wenn Sie Amazon Bedrock Data Automation oder ein Basismodell als Analysestrategie wählen) Geben Sie eine S3-URI an, in der die aus Ihren Dokumenten extrahierten multimodalen Daten im Abschnitt **Multimodales Speicherziel** gespeichert werden, wenn Sie ein Einbettungsmodell auswählen und Ihren Vektorspeicher konfigurieren. Sie können optional auch einen kundenseitig verwalteten Schlüssel nutzen, um Ihre S3-Daten in diesem Schritt zu verschlüsseln.
+ Gehen Sie in der Amazon-Bedrock-API wie folgt vor:

  1. (Wenn Sie Amazon Bedrock Data Automation oder ein Foundation-Modell als Analysestrategie verwenden möchten) Fügen Sie eine [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)in die Anfrage [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html)ein [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html).

  1. Fügen Sie a [ParsingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ParsingConfiguration.html)in das `parsingConfiguration` Feld von [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)in der [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage ein.
**Anmerkung**  
Wenn Sie diese Konfiguration weglassen, verwendet Wissensdatenbanken für Amazon Bedrock den Standard-Parser für Amazon Bedrock.

Für weitere Informationen zur Angabe einer Parsing-Strategie in der API erweitern Sie den Abschnitt, der der Parsing-Strategie entspricht, die Sie verwenden möchten:

### Standard-Parser für Amazon Bedrock
<a name="w2aac28c10c23c15c17c11c13b1"></a>

Wenn Sie den Standard-Parser verwenden möchten, fügen Sie das `parsingConfiguration`-Feld nicht in die `VectorIngestionConfiguration` ein.

### Parser für Amazon Bedrock Data Automation (Vorschau)
<a name="w2aac28c10c23c15c17c11c13b3"></a>

Um den Amazon Bedrock Data Automation-Parser zu verwenden, geben Sie `BEDROCK_DATA_AUTOMATION` in das `parsingStrategy` Feld ein `ParsingConfiguration` und fügen a [BedrockDataAutomationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockDataAutomationConfiguration.html)in das `bedrockDataAutomationConfiguration` Feld ein, wie im folgenden Format:

```
{
    "parsingStrategy": "BEDROCK_DATA_AUTOMATION",
    "bedrockDataAutomationConfiguration": {
        "parsingModality": "string"
    }
}
```

### Basismodell
<a name="w2aac28c10c23c15c17c11c13b5"></a>

Um ein Foundation-Modell als Parser zu verwenden, geben Sie das `BEDROCK_FOUNDATION_MODEL` in das `parsingStrategy` Feld von ein `ParsingConfiguration` und fügen a [BedrockFoundationModelConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockFoundationModelConfiguration.html)in das `bedrockFoundationModelConfiguration` Feld ein, wie im folgenden Format:

```
{
    "parsingStrategy": "BEDROCK_FOUNDATION_MODEL",
    "bedrockFoundationModelConfiguration": {
        "modelArn": "string",
        "parsingModality": "string",
        "parsingPrompt": {
            "parsingPromptText": "string"
        }
    }
}
```

## Wählen Sie eine Chunking-Strategie aus
<a name="kb-data-source-customize-chunking"></a>

Sie können anpassen, wie die Dokumente in Ihren Daten zum Speichern und Abrufen aufgeteilt werden. Informationen zu den Optionen für das Chunking von Daten in Wissensdatenbanken für Amazon Bedrock finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).

**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.

Im wählen AWS-Managementkonsole Sie die Chunking-Strategie, wenn Sie eine Verbindung zu einer Datenquelle herstellen. Mit der Amazon Bedrock API schließen Sie eine [ChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChunkingConfiguration.html)in den `chunkingConfiguration` Bereich der [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)ein.

**Anmerkung**  
Wenn Sie diese Konfiguration weglassen, teilt Amazon Bedrock Ihren Inhalt in Blöcke von etwa 300 Token auf, wobei die Satzgrenzen beibehalten werden.

Erweitern Sie den Abschnitt, der der Parsing-Strategie entspricht, die Sie verwenden möchten:

### Kein Chunking
<a name="w2aac28c10c23c15c17c13c13b1"></a>

Um jedes Dokument in Ihrer Datenquelle als einen einzelnen Quellblock zu behandeln, geben Sie `NONE` im `chunkingStrategy`-Feld der `ChunkingConfiguration` an, wie im folgenden Format:

```
{
    "chunkingStrategy": "NONE"
}
```

### Chunking mit fester Größe
<a name="w2aac28c10c23c15c17c13c13b3"></a>

Um jedes Dokument in Ihrer Datenquelle in Blöcke von ungefähr derselben Größe zu unterteilen, geben Sie `FIXED_SIZE` im `chunkingStrategy` Feld den an `ChunkingConfiguration` und fügen Sie a [FixedSizeChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_FixedSizeChunkingConfiguration.html)in das `fixedSizeChunkingConfiguration` Feld ein, wie im folgenden Format:

```
{
    "chunkingStrategy": "FIXED_SIZE",
    "fixedSizeChunkingConfiguration": {
        "maxTokens": number,
        "overlapPercentage": number
    }
}
```

### Hierarchisches Chunking
<a name="w2aac28c10c23c15c17c13c13b5"></a>

Um jedes Dokument in Ihrer Datenquelle in zwei Ebenen zu unterteilen, wobei die zweite Ebene kleinere Blöcke enthält, die von der ersten Ebene abgeleitet wurden, geben Sie `HIERARCHICAL` im `chunkingStrategy`-Feld der `ChunkingConfiguration` an und fügen das Feld `hierarchicalChunkingConfiguration` ein wie im folgenden Format:

```
{
    "chunkingStrategy": "HIERARCHICAL",
    "hierarchicalChunkingConfiguration": {
        "levelConfigurations": [{
            "maxTokens": number
        }],
        "overlapTokens": number
    }
}
```

### Semantisches Chunking
<a name="w2aac28c10c23c15c17c13c13b7"></a>

Um jedes Dokument in Ihrer Datenquelle in Blöcke zu unterteilen, die der semantischen Bedeutung Vorrang vor der syntaktischen Struktur einräumen, geben Sie `SEMANTIC` im Feld `chunkingStrategy` der `ChunkingConfiguration` an und fügen das Feld `semanticChunkingConfiguration` ein, wie im folgenden Format:

```
{
    "chunkingStrategy": "SEMANTIC",
    "semanticChunkingConfiguration": {
        "breakpointPercentileThreshold": number,
        "bufferSize": number,
        "maxTokens": number
    }
}
```

## So verwenden Sie eine Lambda-Funktion bei der Datenaufnahme
<a name="kb-data-source-customize-lambda"></a>

Sie können auf folgende Weise nachbearbeiten, wie die Quellblöcke aus Ihren Daten mit einer Lambda-Funktion in den Vektorspeicher geschrieben werden:
+ Fügen Sie eine Chunking-Logik hinzu, um eine benutzerdefinierte Chunking-Strategie bereitzustellen.
+ Schließen Sie Logik ein, um Metadaten auf Blockebene anzugeben.

Informationen zum Schreiben einer benutzerdefinierten Lambda-Funktion für die Aufnahme finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md). In der wählen AWS-Managementkonsole Sie die Lambda-Funktion, wenn Sie eine Verbindung zu einer Datenquelle herstellen. Bei der Amazon Bedrock API fügen Sie a [CustomTransformationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CustomTransformationConfiguration.html)in das `CustomTransformationConfiguration` Feld für ein [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)und geben den ARN des Lambda an, wie im folgenden Format:

```
{
    "transformations": [{
        "transformationFunction": {
            "transformationLambdaConfiguration": {
                "lambdaArn": "string"
            }
        },
        "stepToApply": "POST_CHUNKING"
    }],
    "intermediateStorage": {
        "s3Location": {
            "uri": "string"
        }
    }
}
```

Sie geben auch den S3-Speicherort an, an dem die Ausgabe gespeichert werden soll, nachdem die Lambda-Funktion angewendet wurde.

Sie können das Feld `chunkingConfiguration` zur Anwendung der Lambda-Funktion hinzufügen, nachdem Sie eine der von Amazon Bedrock angebotenen Chunking-Optionen angewendet haben.

# So richten Sie Sicherheitskonfigurationen für Ihre Wissensdatenbank ein
<a name="kb-create-security"></a>

Nachdem Sie eine Wissensdatenbank erstellt haben, müssen Sie möglicherweise die folgenden Sicherheitskonfigurationen einrichten:

**Topics**
+ [So richten Sie Zugriffsrichtlinien für Ihre Wissensdatenbank ein](#kb-create-security-data)
+ [Richten Sie Netzwerkzugriffsrichtlinien für Ihre Amazon OpenSearch Serverless-Wissensdatenbank ein](#kb-create-security-network)

## So richten Sie Zugriffsrichtlinien für Ihre Wissensdatenbank ein
<a name="kb-create-security-data"></a>

Wenn Sie eine [benutzerdefinierte Rolle](kb-permissions.md) verwenden, sollten Sie Sicherheitskonfigurationen für Ihre neu erstellte Wissensdatenbank einrichten. Wenn Sie Amazon Bedrock eine Servicerolle für Sie erstellen lassen, können Sie diesen Schritt überspringen. Folgen Sie den Schritten auf der Registerkarte, die der Datenbank entspricht, die Sie eingerichtet haben.

------
#### [ Amazon OpenSearch Serverless ]

Um den Zugriff auf die Amazon OpenSearch Serverless-Sammlung auf die Knowledge-Base-Servicerolle zu beschränken, erstellen Sie eine Datenzugriffsrichtlinie. Sie können dies auf die folgenden Arten tun:
+ Verwenden Sie die Amazon OpenSearch Service-Konsole, indem Sie die Schritte unter [Erstellen von Datenzugriffsrichtlinien (Konsole)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-console) im Amazon OpenSearch Service Developer Guide befolgen.
+ Verwenden Sie die AWS API, indem Sie eine [CreateAccessPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_CreateAccessPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions) senden. Ein AWS CLI Beispiel finden Sie unter [Datenzugriffsrichtlinien erstellen (AWS CLI)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

Verwenden Sie die folgende Datenzugriffsrichtlinie, in der Sie die Amazon OpenSearch Serverless-Sammlung und Ihre Servicerolle angeben:

```
[
    {
        "Description": "${data access policy description}",
        "Rules": [
          {
            "Resource": [
              "index/${collection_name}/*"
            ],
            "Permission": [
                "aoss:DescribeIndex",
                "aoss:ReadDocument",
                "aoss:WriteDocument"
            ],
            "ResourceType": "index"
          }
        ],
        "Principal": [
            "arn:aws:iam::${account-id}:role/${kb-service-role}"
        ]
    }
]
```

------
#### [ Tannenzapfen, Redis Enterprise Cloud or MongoDB Atlas ]

Um einenPinecone,Redis Enterprise Cloud, MongoDB Atlas-Vektorindex zu integrieren, fügen Sie Ihrer Wissensdatenbankdienst-Rolle die folgende identitätsbasierte Richtlinie hinzu, damit sie auf das AWS Secrets Manager Geheimnis für den Vektorindex zugreifen kann.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
        "Effect": "Allow",
        "Action": [
            "bedrock:AssociateThirdPartyKnowledgeBase"
        ],
        "Resource": "*",
        "Condition": {
            "StringEquals": {
                "bedrock:ThirdPartyKnowledgeBaseCredentialsSecretArn": "arn:aws:secretsmanager:us-east-1:123456789012:secret:${secret-id}"
            }
        }
    }]
}
```

------

------

## Richten Sie Netzwerkzugriffsrichtlinien für Ihre Amazon OpenSearch Serverless-Wissensdatenbank ein
<a name="kb-create-security-network"></a>

Wenn Sie eine private Amazon OpenSearch Serverless-Sammlung für Ihre Wissensdatenbank verwenden, kann nur über einen AWS PrivateLink VPC-Endpunkt darauf zugegriffen werden. Sie können eine private Amazon OpenSearch Serverless-Sammlung erstellen, wenn Sie [Ihre Amazon OpenSearch Serverless-Vektorsammlung einrichten](knowledge-base-setup.md), oder Sie können eine bestehende Amazon OpenSearch Serverless-Sammlung (einschließlich einer, die von der Amazon Bedrock-Konsole für Sie erstellt wurde) privat machen, wenn Sie deren Netzwerkzugriffsrichtlinie konfigurieren.

Die folgenden Ressourcen im Amazon OpenSearch Service Developer Guide helfen Ihnen dabei, die Einrichtung zu verstehen, die für private Amazon OpenSearch Serverless-Sammlungen erforderlich ist:
+ Weitere Informationen zum Einrichten eines VPC-Endpunkts für eine private Amazon OpenSearch Serverless-Sammlung finden Sie unter [Zugriff auf Amazon OpenSearch Serverless über einen Schnittstellenendpunkt](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) (). AWS PrivateLink
+ Weitere Informationen zu Netzwerkzugriffsrichtlinien in Amazon OpenSearch Serverless finden Sie unter [Netzwerkzugriff für Amazon OpenSearch Serverless](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html).

Um einer Amazon Bedrock-Wissensdatenbank den Zugriff auf eine private Amazon OpenSearch Serverless-Sammlung zu ermöglichen, müssen Sie die Netzwerkzugriffsrichtlinie für die Amazon OpenSearch Serverless-Sammlung bearbeiten, um Amazon Bedrock als Quellservice zuzulassen. Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie dann die Schritte:

------
#### [ Console ]

1. Öffnen Sie die Amazon OpenSearch Service-Konsole unter [https://console.aws.amazon.com/aos/](https://console.aws.amazon.com/aos/).

1. Wählen Sie im linken Navigationsbereich **Sammlungen** aus. Wählen Sie dann Ihre Sammlung aus.

1. Wählen Sie im Bereich **Netzwerk** die **zugehörige Richtlinie** aus.

1. Wählen Sie **Bearbeiten** aus.

1. Führen Sie unter **Methode zur Richtliniendefinition auswählen** einen der folgenden Schritte aus:
   + Belassen Sie die Option **Methode zur Richtliniendefinition auswählen** auf **Visueller Editor** und konfigurieren Sie die folgenden Einstellungen im Abschnitt **Regel 1**:

     1. (Optional) Geben Sie im Feld **Regelname** einen Namen für die Netzwerkzugriffsregel ein.

     1. Wählen Sie unter **Zugriff auf Sammlungen von** die Option **Privat (empfohlen)** aus.

     1. Wählen Sie **AWS-Service mit privatem Zugriff** aus. Geben Sie **bedrock.amazonaws.com** in das Textfeld ein.

     1. Deaktivieren Sie die Option **Zugriff auf OpenSearch Dashboards aktivieren**.
   + Wählen Sie **JSON** aus und fügen Sie die folgende Richtlinie in den **JSON Editor** ein.

     ```
     [
         {                                        
             "AllowFromPublic": false,
             "Description":"${network access policy description}",
             "Rules":[
                 {
                     "ResourceType": "collection",
                     "Resource":[
                         "collection/${collection-id}"
                     ]
                 }
             ],
             "SourceServices":[
                 "bedrock.amazonaws.com"
             ]
         }
     ]
     ```

1. Wählen Sie **Aktualisieren** aus.

------
#### [ API ]

Gehen Sie wie folgt vor, um die Netzwerkzugriffsrichtlinie für OpenSearch Ihre Amazon Serverless-Sammlung zu bearbeiten:

1. Senden Sie eine [GetSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_GetSecurityPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Geben Sie den `name` der Richtlinie an und legen Sie den `type` auf `network` fest. Beachten Sie die `policyVersion` in der Antwort.

1. Senden Sie eine [UpdateSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_UpdateSecurityPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Geben Sie zumindest die folgenden Felder an:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-create-security.html)

   ```
   [
       {                                        
           "AllowFromPublic": false,
           "Description":"${network access policy description}",
           "Rules":[
               {
                   "ResourceType": "collection",
                   "Resource":[
                       "collection/${collection-id}"
                   ]
               }
           ],
           "SourceServices":[
               "bedrock.amazonaws.com"
           ]
       }
   ]
   ```

Ein AWS CLI Beispiel finden Sie unter [Datenzugriffsrichtlinien erstellen (AWS CLI)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

------
+ Verwenden Sie die Amazon OpenSearch Service-Konsole, indem Sie den Schritten unter [Netzwerkrichtlinien erstellen (Konsole)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html#serverless-network-console) folgen. Anstatt eine Netzwerkrichtlinie zu erstellen, beachten Sie die **zugehörige Richtlinie** im **Netzwerk**-Unterabschnitt der Sammlungsdetails.

# Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank
<a name="kb-data-source-sync-ingest"></a>

Nachdem Sie Ihre Wissensdatenbank erstellt haben, nehmen Sie Ihre Daten auf oder synchronisieren, damit die Daten abgefragt werden können. Bei der Aufnahme werden die Rohdaten in Ihrer Datenquelle auf Grundlage des von Ihnen angegebenen Vektoreinbettungsmodells und der von Ihnen angegebenen Konfigurationen in Vektoreinbettungen umgewandelt.

Bevor Sie mit der Aufnahme beginnen, überprüfen Sie, ob Ihre Datenquelle die folgenden Bedingungen erfüllt:
+ Sie haben die Verbindungsinformationen für Ihre Datenquelle konfiguriert. Informationen zum Konfigurieren eines Datenquellen-Connectors zum Crawlen Ihrer Daten aus Ihrem Datenquellen-Repository finden Sie unter [Unterstützte Datenquellen-Connectors](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html). Sie konfigurieren Ihre Datenquelle im Rahmen der Erstellung Ihrer Wissensdatenbank.
+ Sie haben das von Ihnen gewählte Vektoreinbettungsmodell und den Vektorspeicher konfiguriert. Weitere Informationen finden Sie unter [Unterstützte Modelle für Vektoreinbettungen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html) und [Vektorspeicher für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html). Sie konfigurieren Ihre Vektoreinbettungen im Rahmen der Erstellung Ihrer Wissensdatenbank.
+ Die Dateien haben unterstützte Formate. Weitere Informationen finden Sie unter [Unterstützte Dokumentformate](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ Die Dateien überschreiten nicht die unter [Endpunkte und Kontingente von Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in der Allgemeine AWS-Referenz angegebene **Dateigröße des Aufnahmeauftrags**.
+ Wenn Ihre Datenquelle Metadatendateien enthält, überprüfen Sie die folgenden Bedingungen, um sicherzustellen, dass die Metadatendateien nicht ignoriert werden:
  + Jede `.metadata.json`-Datei hat denselben Dateinamen und dieselbe Erweiterung wie die Quelldatei, mit der sie verknüpft ist.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-OpenSearch-Serverless-Vektorspeicher befindet, überprüfen Sie, ob der Vektorindex mit der `faiss`-Engine konfiguriert ist. Wenn der Vektorindex mit der `nmslib`-Engine konfiguriert ist, müssen Sie einen der folgenden Prozesse ausführen:
    + [Erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) in der Konsole und lassen Sie Amazon Bedrock automatisch einen Vektorindex in Amazon OpenSearch Serverless erstellen.
    + [Erstellen Sie einen weiteren Vektorindex](knowledge-base-setup.md) im Vektorspeicher und wählen Sie `faiss` als **Engine** aus. Anschließend [erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) und geben den neuen Vektorindex an.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-Aurora-Datenbankcluster befindet, empfehlen wir, das benutzerdefinierte Metadatenfeld zu verwenden, um all Ihre Metadaten in einer einzigen Spalte zu speichern und einen Index für diese Spalte zu erstellen. Wenn Sie das benutzerdefinierte Metadatenfeld nicht angeben, müssen Sie sicherstellen, dass die Tabelle für Ihren Index eine Spalte für jede Metadateneigenschaft in Ihren Metadatendateien enthält, bevor Sie mit der Aufnahme beginnen. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).

Jedes Mal, wenn Sie Dateien zu Ihrer Datenquelle hinzufügen, ändern oder daraus entfernen, müssen Sie die Datenquelle synchronisieren, damit sie erneut mit der Wissensdatenbank indexiert wird. Die Synchronisierung erfolgt inkrementell, sodass Amazon Bedrock nur Dokumente verarbeitet, die seit der letzten Synchronisierung hinzugefügt, geändert oder gelöscht wurden.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus, um zu erfahren, wie Sie Ihre Daten in Ihre Wissensdatenbank aufnehmen und mit Ihren neuesten Daten synchronisieren, und führen Sie dann die folgenden Schritte aus:

------
#### [ Console ]

**So nehmen Sie Ihre Daten in Ihre Wissensdatenbank auf und synchronisieren sie mit Ihren neuesten Daten**

1. Öffnen Sie die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Klicken Sie im linken Navigationsbereich auf **Wissensdatenbank** und wählen Sie Ihre Wissensdatenbank aus.

1. Wählen Sie im Abschnitt **Datenquelle** die Option **Synchronisieren** aus, um mit der Erfassung oder Synchronisierung Ihrer neuesten Daten zu beginnen. Klicken Sie auf **Stopp**, um eine laufende Datenquellensynchronisierung zu stoppen. Eine Datenquelle muss gerade synchronisiert werden, um die Synchronisierung zu stoppen. Sie können erneut **Synchronisieren** auswählen, um den Rest Ihrer Daten aufzunehmen.

1. Wenn die Datenaufnahme abgeschlossen ist, wird ein grünes Banner angezeigt, wenn sie erfolgreich war.
**Anmerkung**  
Nachdem die Datensynchronisierung abgeschlossen ist, kann es einige Minuten dauern, bis die Vektoreinbettungen der neu synchronisierten Daten in Ihrer Wissensdatenbank sichtbar sind und für Abfragen zur Verfügung stehen, wenn Sie einen anderen Vektorspeicher als Amazon Aurora (RDS) verwenden.

1. Sie können eine Datenquelle auswählen, um deren **Synchronisierungsverlauf** anzuzeigen. Wählen Sie **Warnungen anzeigen** aus, um zu sehen, warum ein Datenerfassungsauftrag fehlgeschlagen ist.

------
#### [ API ]

Um Ihre Daten in Ihre Wissensdatenbank aufzunehmen und mit Ihren neuesten Daten zu synchronisieren, senden Sie eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage an einen [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `knowledgeBaseId` und die `dataSourceId` an. Sie können einen Datenerfassungsauftrag, der gerade ausgeführt wird, auch beenden, indem Sie eine [StopIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html)-Anfrage senden. Geben Sie die `dataSourceId`, `ingestionJobId` und die `knowledgeBaseId` an. Ein Datenerfassungsauftrag muss derzeit ausgeführt werden, um die Datenaufnahme zu beenden. Sie können erneut eine `StartIngestionJob`-Anfrage senden, um den Rest Ihrer Daten aufzunehmen, wenn Sie bereit sind.

Verwenden Sie die in der Antwort zurückgegebene `ingestionJobId` in einer [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um den Status des Aufnahmeauftrags nachzuverfolgen. Geben Sie zusätzlich die `knowledgeBaseId` und die `dataSourceId` an.
+ Bei Abschluss des Aufnahmeauftrags lautet der `status` in der Antwort `COMPLETE`.
**Anmerkung**  
Nachdem die Datenerfassung abgeschlossen ist, kann es einige Minuten dauern, bis die Vektoreinbettungen der neu aufgenommenen Daten im Vektorspeicher verfügbar sind und für Abfragen genutzt werden können, wenn Sie einen anderen Vektorspeicher als Amazon Aurora (RDS) verwenden.
+ Das `statistics`-Objekt in der Antwort liefert Informationen darüber, ob die Aufnahme der Dokumente in der Datenquelle erfolgreich war oder nicht.

Sie können auch Informationen zu allen Aufnahmeaufträgen für eine Datenquelle anzeigen, indem Sie eine [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) senden. Geben Sie die `dataSourceId` und die `knowledgeBaseId` der Wissensdatenbank an, in die die Daten aufgenommen werden.
+ Filtern Sie nach Ergebnissen, indem Sie einen Status angeben, nach dem im `filters`-Objekt gesucht werden soll.
+ Sortieren Sie nach dem Zeitpunkt, zu dem der Auftrag gestartet wurde, oder nach dem Status eines Auftrags, indem Sie das `sortBy`-Objekt angeben. Sie können in aufsteigender () oder absteigender () Reihenfolge sortieren.
+ Im Feld `maxResults` können Sie die Höchstzahl der Ergebnisse in einer Antwort bestimmen. Wenn es mehr Ergebnisse als die von Ihnen festgelegte Höchstzahl gibt, gibt die Antwort ein `nextToken` zurück, das Sie in einer weiteren [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage senden können, um den nächsten Auftragsstapel zu sehen.

------

# So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf
<a name="kb-direct-ingestion"></a>

Mit Wissensdatenbanken für Amazon Bedrock können Sie Ihre Datenquelle ändern und die Änderungen in einem Schritt synchronisieren. Sie können dieses Feature nutzen, wenn Ihre Wissensdatenbank mit einer der folgenden Datenquellentypen verbunden ist:
+ Amazon S3
+ Benutzerdefiniert

Mit der direkten Aufnahme können Sie Dateien in einer Wissensdatenbank direkt mit einer einzigen Aktion hinzufügen, aktualisieren oder löschen, und Ihre Wissensdatenbank kann auf Dokumente zugreifen, ohne dass eine Synchronisierung erforderlich ist. Die direkte Aufnahme verwendet Operationen der `KnowledgeBaseDocuments`-API, um die Dokumente, die Sie einreichen, direkt in dem für die Wissensdatenbank eingerichteten Vektorspeicher zu indexieren. Sie können die Dokumente in Ihrer Wissensbasis auch direkt mit diesen Vorgängen anzeigen, ohne zur verbundenen Datenquelle navigieren zu müssen.

## Unterschiede nach dem Synchronisieren einer Datenquelle
<a name="kb-direct-ingestion-sync-diff"></a>

Wissensdatenbanken für Amazon Bedrock bietet auch eine Reihe von Operationen in der `IngestionJob`-API, die sich auf [Synchronisieren Ihrer Datenquelle](kb-data-source-sync-ingest.md) beziehen. Wenn Sie Ihre Datenquelle mit einer [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage synchronisieren, scannt Wissensdatenbanken für Amazon Bedrock jedes Dokument in der verbundenen Datenquelle und überprüft, ob es bereits in dem für die Wissensdatenbank eingerichteten Vektorspeicher indexiert wurde. Ist dies nicht der Fall, wird es im Vektorspeicher indexiert.

Mit einer [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)-Anfrage senden Sie eine Reihe von Dokumenten, die direkt im Vektorspeicher indexiert werden sollen. Sie überspringen also den Schritt des Hinzufügens von Dokumenten zur Datenquelle. In den folgenden Abschnitten finden Sie Informationen zum Anwendungsfall für diese beiden Gruppen von API-Vorgängen:

**Wenn Sie Ihre benutzerdefinierte Datenquelle verwenden**  
Sie müssen nicht synchronisieren oder die `IngestionJob`-Operationen verwenden. Dokumente, die Sie mithilfe der `KnowledgeBaseDocuments`-Operationen oder in der AWS-Managementkonsole hinzufügen, ändern oder löschen, werden Teil der benutzerdefinierten Datenquelle und Ihrer Wissensdatenbank.

**Wenn Sie eine Amazon-S3-Datenquelle verwenden**  
Sie verwenden die beiden Operationssätze in unterschiedlichen Anwendungsfällen:
+ Nachdem Sie die Wissensdatenbank zum ersten Mal mit der S3-Datenquelle verbunden haben, müssen Sie Ihre Datenquelle entweder in der AWS-Managementkonsole synchronisieren oder eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage über die Amazon-Bedrock-API senden.
+ Indizieren Sie Dokumente in den Vektorspeicher, der für Ihre Wissensdatenbank eingerichtet wurde, oder entfernen Sie die indizierten Dokumente auf folgende Weise:

  1. Fügen Sie Dokumente zu Ihrem S3-Speicherort hinzu oder löschen Sie Dokumente daraus. Synchronisieren Sie dann Ihre Datenquelle in der AWS-Managementkonsole oder senden Sie eine `StartIngestionJob`-Anfrage in der API. Einzelheiten zur Synchronisierung und zum `StartIngestionJob`-Vorgang finden Sie unter [Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank](kb-data-source-sync-ingest.md).

  1. Nehmen Sie S3-Dokumente direkt mit einer `IngestKnowledgeBaseDocuments`-Anfrage in die Wissensdatenbank auf. Einzelheiten zur direkten Aufnahme von Dokumenten finden Sie unter [So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf](kb-direct-ingestion-add.md).
**Warnung**  
Bei S3-Datenquellen wirken sich alle Änderungen, die Sie direkt in der AWS-Managementkonsole oder mit den Operationen der `KnowledgeBaseDocuments`-API in die Wissensdatenbank indexieren, nicht auf den S3-Speicherort aus. Sie können diese API-Operationen verwenden, um Änderungen an Ihrer Wissensdatenbank in einem einzigen Schritt sofort verfügbar zu machen. Anschließend sollten Sie jedoch dieselben Änderungen an Ihrem S3-Speicherort vornehmen, damit sie nicht überschrieben werden, wenn Sie Ihre Datenquelle das nächste Mal in der AWS-Managementkonsole oder mithilfe von `StartIngestionJob` synchronisieren.  
Reichen Sie eine `IngestKnowledgeBaseDocuments`- und eine `StartIngestionJob`-Anfrage nicht zur gleichen Zeit ein.

Wählen Sie ein Thema aus, um zu erfahren, wie Sie die Dokumente in Ihren Datenquellen direkt aufnehmen können:

**Topics**
+ [Unterschiede nach dem Synchronisieren einer Datenquelle](#kb-direct-ingestion-sync-diff)
+ [Voraussetzungen für die direkte Erfassung](kb-direct-ingestion-prereq.md)
+ [So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf](kb-direct-ingestion-add.md)
+ [So zeigen Sie Informationen zu Dokumenten in Ihrer Datenquelle an](kb-direct-ingestion-view.md)
+ [Dokumente direkt aus einer Wissensdatenbank löschen](kb-direct-ingestion-delete.md)

# Voraussetzungen für die direkte Erfassung
<a name="kb-direct-ingestion-prereq"></a>

Um die direkte Erfassung verwenden zu können, muss eine IAM-Rolle über Berechtigungen zur Verwendung der `KnowledgeBaseDocs`-API-Operationen verfügen. Wenn Ihrer IAM-Rolle die [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSverwaltete Richtlinie angehängt ist, können Sie diesen Abschnitt überspringen.

Die folgende Richtlinie kann an eine IAM-Rolle angefügt werden, damit sie die Wissensdatenbanken, die Sie im `Resource`-Feld angeben, direkt erfassen kann.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "DirectIngestion",
            "Effect": "Allow",
            "Action": [
                "bedrock:StartIngestionJob",
                "bedrock:IngestKnowledgeBaseDocuments",
                "bedrock:GetKnowledgeBaseDocuments",
                "bedrock:ListKnowledgeBaseDocuments",
                "bedrock:DeleteKnowledgeBaseDocuments"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        }
    ]
}
```

------

Wenn Sie Berechtigungen weiter einschränken möchten, können Sie Aktionen weglassen oder Ressourcen und Bedingungsschlüssel angeben, nach denen Berechtigungen gefiltert werden sollen. Weitere Informationen über Aktionen, Ressourcen und Bedingungsschlüssel finden Sie in den folgenden Themen in der *Referenz zur Serviceautorisierung*:
+ [Von Amazon Bedrock definierte Aktionen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) – Erfahren Sie mehr über Aktionen, die Ressourcentypen, auf die Sie diese im `Resource`-Feld beschränken können, und die Bedingungsschlüssel, nach denen Sie Berechtigungen im `Condition`-Feld filtern können.
+ [Von Amazon Bedrock definierte Ressourcentypen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) – Erfahren Sie mehr über die Ressourcentypen in Amazon Bedrock.
+ [Zustandsschlüssel für Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) – Erfahren Sie mehr über die Zustandsschlüssel in Amazon Bedrock.

# So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf
<a name="kb-direct-ingestion-add"></a>

In diesem Thema wird beschrieben, wie Dokumente direkt in eine Wissensdatenbank aufgenommen werden. Je nach Datenquelle gelten Einschränkungen für die Dokumenttypen, die Sie direkt aufnehmen können. In der folgenden Tabelle finden Sie Einschränkungen für die Methoden, mit denen Sie angeben können, welche Dokumente aufgenommen werden sollen:


****  

| Datenquellentyp | Inline definiertes Dokument | Dokument im Amazon-S3-Speicherort | 
| --- | --- | --- | 
| Amazon S3 | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-no.png)Nein | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 
| Benutzerdefiniert | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 

Erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie bis zu 10 Dokumente direkt in Ihre Wissensdatenbank aufnehmen. Wenn Sie stattdessen die `IngestKnowledgeBaseDocuments`-API verwenden, können Sie bis zu 25 Dokumente in Ihre Wissensdatenbank aufnehmen. Weitere Informationen zu diesen Kontingenten finden Sie unter [Amazon-Bedrock-Servicekontingente](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) in der *Allgemeinen Referenz zu AWS *.

## Verwenden der Konsole
<a name="kb-direct-ingestion-add-console"></a>

Gehen Sie wie folgt vor AWS-Managementkonsole, um Dokumente direkt in der hinzuzufügen oder zu ändern:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, in die Sie Dokumente aufnehmen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, in der Sie Dokumente hinzufügen, modifizieren oder löschen möchten.

1. Wählen Sie im Abschnitt **Dokumente** die Option **Dokumente hinzufügen** aus. Führen Sie dann einen der folgenden Schritte aus:
   + Um ein Dokument direkt hinzuzufügen oder zu ändern, wählen Sie **Dokumente direkt hinzufügen** aus. Führen Sie dann die folgenden Schritte aus:

     1. Geben Sie im Feld **Dokument-ID** einen eindeutigen Namen für das Dokument ein. Wenn Sie einen Namen angeben, der bereits in der Datenquelle vorhanden ist, wird das Dokument ersetzt.

     1. Um ein Dokument hochzuladen, klicken Sie auf **Hochladen**. Um ein Dokument inline zu definieren, klicken Sie auf **Dokument inline hinzufügen**, wählen ein Format aus und geben den Text des Dokuments in das Feld ein.

     1. (Optional) Um Metadaten mit dem Dokument zu verknüpfen, klicken Sie auf **Metadaten hinzufügen** und geben einen Schlüssel, einen Typ und einen Wert ein.
   + Um ein Dokument hinzuzufügen oder zu modifizieren, indem Sie seinen S3-Speicherort angeben, klicken Sie auf **S3-Dokumente hinzufügen**. Führen Sie dann die folgenden Schritte aus:

     1. Geben Sie im Feld **Dokument-ID** einen eindeutigen Namen für das Dokument ein. Wenn Sie einen Namen angeben, der bereits in der Datenquelle vorhanden ist, wird das Dokument ersetzt.

     1. Geben Sie an, ob sich der **S3-Speicherort** des Dokuments in Ihrem aktuellen AWS Konto oder einem anderen befindet. Geben Sie dann die S3-URI des Dokuments an.

     1. (Optional) Um Metadaten mit dem Dokument zu verknüpfen, wählen Sie eine **Metadatenquelle** aus. Geben Sie die S3-URI der Metadaten an oder klicken Sie auf **Metadaten hinzufügen** und geben einen Schlüssel, einen Typ und einen Wert ein.

1. Um das Dokument und alle zugehörigen Metadaten aufzunehmen, klicken Sie auf **Hinzufügen**.

## Verwenden der API
<a name="kb-direct-ingestion-add-api"></a>

Um Dokumente mithilfe der Amazon Bedrock API direkt in eine Wissensdatenbank aufzunehmen, senden Sie eine [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)Anfrage mit einem [Build-Time-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die ID der Wissensdatenbank und der Datenquelle an, mit der sie verbunden ist.

**Anmerkung**  
Wenn Sie eine Dokument-ID oder einen S3-Speicherort angeben, der bereits in der Wissensdatenbank vorhanden ist, wird das Dokument mit dem neuen Inhalt überschrieben.

Der Anfragetext enthält ein Feld`documents`, das einer Reihe von [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekten zugeordnet ist, von denen jedes den Inhalt und optionale Metadaten eines Dokuments darstellt, das der Datenquelle hinzugefügt und in die Wissensdatenbank aufgenommen werden soll. Ein [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)-Objekt enthält die folgenden Felder:
+ Inhalt — Ordnet einem [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt zu, das Informationen über den Inhalt des hinzuzufügenden Dokuments enthält.
+ Metadaten — (optional) Ordnet einem [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt zu, das Informationen über die Metadaten des hinzuzufügenden Dokuments enthält. Weitere Informationen zur Verwendung von Metadaten beim Abrufen finden Sie im Abschnitt **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

Wählen Sie ein Thema aus, um zu erfahren, wie Sie Dokumente für verschiedene Datenquellentypen aufnehmen können, oder um sich Beispiele anzusehen:

**Topics**
+ [So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer benutzerdefinierten Datenquelle verbunden ist](#kb-direct-ingestion-add-custom)
+ [So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer Amazon-S3-Datenquelle verbunden ist](#kb-direct-ingestion-add-s3)
+ [Beispielanforderungstext](#w2aac28c10c23c19c17c11b3c19)

### So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer benutzerdefinierten Datenquelle verbunden ist
<a name="kb-direct-ingestion-add-custom"></a>

Wenn das von `dataSourceId` Ihnen angegebene Objekt zu einer benutzerdefinierten Datenquelle gehört, können Sie Inhalt und Metadaten für jedes [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekt im `documents` Array hinzufügen.

Der Inhalt eines Dokuments, das einer benutzerdefinierten Datenquelle hinzugefügt wird, kann auf folgende Weise definiert werden:

#### Definieren Sie das Dokument inline
<a name="kb-direct-ingestion-add-custom-inline"></a>

Sie können die folgenden Dokumenttypen inline definieren:

------
#### [ Text ]

Wenn es sich bei dem Dokument um Text handelt, sollte das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt das folgende Format haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "textContent": { 
                "data": "string"
            },
            "type": "TEXT"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im Feld `id` ein und den Text des Dokuments im Feld `data`.

------
#### [ Bytes ]

Wenn das Dokument mehr als Text enthält, konvertieren Sie es in eine Base64-Zeichenfolge. Das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt sollte dann das folgende Format haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "byteContent": { 
                "data": blob,
                "mimeType": "string"
            },
            "type": "BYTE"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im Feld `id` ein, das Base64-kodierte Dokument im Feld `data` und den MIME-Typ im Feld `mimeType`.

------

#### Aufnehmen des Dokuments aus S3
<a name="w2aac28c10c23c19c17c11b3c15b7b3"></a>

Wenn Sie ein Dokument von einem S3-Speicherort aus aufnehmen, sollte das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt im `content` Feld die folgende Form haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "s3Location": { 
            "bucketOwnerAccountId": "string",
            "uri": "string"
        },
        "sourceType": "S3"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im `id`-Feld ein, den Besitzer des S3-Buckets, der das Dokument enthält im Feld `bucketOwnerAccountId` und die S3-URI des Dokuments im Feld `uri`.

Die Metadaten für ein Dokument können auf folgende Weise definiert werden:

#### Definieren Sie die Metadaten inline
<a name="w2aac28c10c23c19c17c11b3c15c11b1"></a>

Wenn Sie die Metadaten inline definieren, sollte das [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt im `metadata` Feld das folgende Format haben:

```
{ 
    "inlineAttributes": [ 
        { 
            "key": "string",
            "value": { 
                "stringValue": "string",
                "booleanValue": boolean,
                "numberValue": number,
                "stringListValue": [ "string" ],
                "type": "STRING" | "BOOLEAN" | "NUMBER" | "STRING_LIST"
            }
        }
    ],
    "type": "IN_LINE_ATTRIBUTE"
}
```

Definieren Sie für jedes Attribut, das Sie hinzufügen, den Schlüssel im `key`-Feld. Geben Sie den Datentyp des Werts im Feld `type` an und schließen Sie das Feld ein, das dem Datentyp entspricht. Wenn Sie beispielsweise eine Zeichenfolge angeben, hat das Attribut das folgende Format:

```
{ 
    "key": "string",
    "value": { 
        "stringValue": "string",
        "type": "STRING"
    }
}
```

#### Aufnahme der Metadaten aus S3
<a name="w2aac28c10c23c19c17c11b3c15c11b3"></a>

Sie können Metadaten aus einer Datei mit der Erweiterung `.metadata.json` auch an einem S3-Speicherort aufnehmen. Weitere Informationen über das Format einer Metadatendatei finden Sie im Abschnitt **Felder für Dokumentmetadaten** unter [Verbinden mit Amazon S3 für Ihre Wissensdatenbank](s3-data-source-connector.md).

Wenn die Metadaten aus einer S3-Datei stammen, sollte das [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt im `metadata` Feld das folgende Format haben:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

Geben Sie den Besitzer des S3-Buckets, der die Metadatendatei enthält, im Feld `bucketOwnerAccountId` an und die S3-URI der Metadatendatei im Feld `uri`.

**Warnung**  
Wenn Sie den Inhalt inline definiert haben, müssen Sie die Metadaten inline definieren.

### So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer Amazon-S3-Datenquelle verbunden ist
<a name="kb-direct-ingestion-add-s3"></a>

Wenn die von `dataSourceId` Ihnen angegebene Datei zu einer S3-Datenquelle gehört, können Sie Inhalt und Metadaten für jedes [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekt im `documents` Array hinzufügen.

**Anmerkung**  
Für S3-Datenquellen können Sie Inhalte und Metadaten nur von einem S3-Speicherort hinzufügen.

Der Inhalt eines S3-Dokuments, das zu S3 hinzugefügt werden soll, sollte einem [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt im folgenden Format hinzugefügt werden:

```
{ 
    "dataSourceType": "string",
    "s3": { 
        "s3Location": { 
            "uri": "string"
        }
    }
}
```

Geben Sie den Besitzer des S3-Buckets, der das Dokument enthält, im Feld `bucketOwnerAccountId` und die S3-URI des Dokuments im Feld `uri` an.

Die Metadaten eines Dokuments, das einer benutzerdefinierten Datenquelle hinzugefügt wird, kann auf folgende Weise definiert werden:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

**Warnung**  
Dokumente, die Sie direkt aus einer Wissensdatenbank aufnehmen, die mit einer S3-Datenquelle verbunden ist, werden nicht zu dem eigentlichen S3-Bucket hinzugefügt. Wir empfehlen, dass Sie diese Dokumente auch zur S3-Datenquelle hinzufügen, damit sie nicht entfernt oder überschrieben werden, wenn Sie Ihre Datenquelle synchronisieren.

### Beispielanforderungstext
<a name="w2aac28c10c23c19c17c11b3c19"></a>

Erweitern Sie die folgenden Abschnitte, um Anfragetexte für verschiedene Anwendungsfälle mit `IngestKnowledgeBaseDocuments` zu sehen:

#### So fügen Sie einer benutzerdefinierten Datenquelle ein benutzerdefiniertes Textdokument hinzu und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b1"></a>

Das folgende Beispiel zeigt das Hinzufügen eines Textdokuments zu einer benutzerdefinierten Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### So fügen Sie einer benutzerdefinierten Datenquelle ein Base64-codiertes Dokument hinzu und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b3"></a>

Das folgende Beispiel zeigt das Hinzufügen eines PDF-Dokuments zu einer benutzerdefinierten Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "byteContent": { 
                     "data": "<Base64-encoded string>",
                     "mimeType": "application/pdf"
                  },
                  "type": "BYTE"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### So fügen Sie ein Dokument von einem S3-Speicherort zu einer Wissensdatenbank hinzu, die mit einer benutzerdefinierten Datenquelle verbunden ist, und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b5"></a>

Das folgende Beispiel zeigt das Hinzufügen eines einzelnen Textdokuments zu einer benutzerdefinierten Datenquelle von einem S3-Speicherort:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "s3": {
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
               },
               "sourceType": "S3"
            }
         }
     }
   ]
}
```

#### So fügen Sie ein Inline-Dokument zu einer Wissensdatenbank hinzu, die mit einer benutzerdefinierten Datenquelle verbunden ist, und fügen Metadaten inline hinzu
<a name="w2aac28c10c23c19c17c11b3c19b5b7"></a>

Das folgende Beispiel zeigt das Inline-Hinzufügen eines Dokuments zu einer benutzerdefinierten Datenquelle zusammen mit Metadaten, die zwei Attribute enthalten:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         },
         "metadata": {
            "inlineAttributes": [ 
               { 
                  "key": "genre",
                  "value": {
                     "stringValue": "pop",
                     "type": "STRING"
                  }
               },
               { 
                  "key": "year",
                  "value": { 
                     "numberValue": 1988,
                     "type": "NUMBER"
                  }
               }
            ],
            "type": "IN_LINE_ATTRIBUTE"
         }
     }
   ]
}
```

#### So fügen Sie ein Dokument zu einer Wissensdatenbank hinzu, die mit einer S3-Datenquelle verbunden ist, und fügen Metadaten hinzu
<a name="w2aac28c10c23c19c17c11b3c19b5b9"></a>

Das folgende Beispiel zeigt das Hinzufügen eines Dokuments zusammen mit Metadaten zu einer S3-Datenquelle. Sie können die Metadaten nur über S3 mit einbeziehen:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
    "documents": [ 
        { 
            "content": { 
                "dataSourceType": "S3",
                "s3": { 
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
            }
        },
        "metadata": {
            "s3Location": {
                "bucketOwnerId": "111122223333",
                "uri": "amzn-s3-demo-bucket"
            },
                "type": "S3_LOCATION"
            }
        }
    ]
}
```

# So zeigen Sie Informationen zu Dokumenten in Ihrer Datenquelle an
<a name="kb-direct-ingestion-view"></a>

In den folgenden Themen wird beschrieben, wie Sie Dokumente in Ihrer Datenquelle anzeigen. Wenn Ihre Wissensdatenbank mit einer Amazon-S3-Datenquelle verbunden ist, können Sie die Dokumente im verbundenen S3-Bucket einsehen.

**Anmerkung**  
Wenn Sie eine neue Wissensdatenbank erstellt haben, indem Sie eine Verbindung zu einer S3-Datenquelle hergestellt haben, müssen Sie die Datenquelle zuerst synchronisieren, bevor Sie diese API-Operationen für die Datenquelle verwenden können.

Erweitern Sie die Methode, die Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="kb-direct-ingestion-view-console"></a>

Gehen Sie wie folgt vor, um Dokumente in Ihrer Datenquelle anzuzeigen, die in die AWS-Managementkonsole aufgenommen wurden:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, deren Dokumente Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, deren Dokumente Sie anzeigen möchten.

1. Im Abschnitt **Dokumente** werden die Dokumente in der Datenquelle aufgelistet. Diese Dokumente wurden ebenfalls in die Wissensdatenbank aufgenommen.

## Verwenden der API
<a name="kb-direct-ingestion-view-api"></a>

Mit der Amazon-Bedrock-API können Sie eine Teilmenge oder alle Dokumente in Ihrer Datenquelle anzeigen, die in die Wissensdatenbank aufgenommen wurden. Wählen Sie das Thema aus, das auf Ihren Anwendungsfall zutrifft.

**Topics**
+ [So zeigen Sie Informationen zu einer Teilmenge von Dokumenten in Ihrer Wissensdatenbank an](#kb-direct-ingestion-get)
+ [So zeigen Sie Informationen zu allen Dokumenten in Ihrer Wissensdatenbank an](#kb-direct-ingestion-list)

### So zeigen Sie Informationen zu einer Teilmenge von Dokumenten in Ihrer Wissensdatenbank an
<a name="kb-direct-ingestion-get"></a>

Um Informationen zu bestimmten Dokumenten in Ihrer Datenquelle anzuzeigen, senden Sie eine [GetKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Datenquelle und die der Wissensdatenbank an, mit der sie verbunden ist.

Fügen Sie für jedes Dokument, für das Sie Informationen abrufen möchten, dem `documentIdentifiers`-Array ein [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html)-Element in einem der folgenden Formate hinzu: 
+ Wenn es sich bei der Datenquelle um eine benutzerdefinierte Datenquelle handelt, geben Sie die ID des Dokuments in das Feld `id` ein:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Wenn es sich bei der Datenquelle um eine Amazon-S3-Datenquelle handelt, geben Sie die S3-URI des Dokuments in das Feld `uri` ein:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

Die Antwort gibt eine Reihe von Elementen zurück, von denen jedes Informationen zu einem von Ihnen angeforderten Dokument enthält.

### So zeigen Sie Informationen zu allen Dokumenten in Ihrer Wissensdatenbank an
<a name="kb-direct-ingestion-list"></a>

Um Informationen zu allen Dokumenten in einer Datenquelle anzuzeigen, senden Sie eine [ListKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Datenquelle und die der Wissensdatenbank an, mit der sie verbunden ist. Ihnen stehen außerdem folgende Optionen zur Verfügung:
+ Geben Sie die `maxResults` an, um die Anzahl der Ergebnisse zu begrenzen, die zurückgegeben werden sollen.
+ Wenn die Ergebnisse nicht in eine Antwort passen, wird im `nextToken`-Feld der Antwort ein Wert zurückgegeben. Sie können diesen Wert im `nextToken`-Feld einer nachfolgenden Anfrage verwenden, um den nächsten Ergebnisstapel abzurufen.

# Dokumente direkt aus einer Wissensdatenbank löschen
<a name="kb-direct-ingestion-delete"></a>

Wenn Sie ein Dokument in Ihrer Wissensdatenbank nicht mehr benötigen, können Sie es direkt löschen. Um zu erfahren, wie Sie Dokumente aus Ihrer Datenquelle und Wissensdatenbank löschen können, erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="kb-direct-ingestion-delete-console"></a>

Gehen Sie wie folgt vor, um Dokumente direkt über die AWS-Managementkonsole aus Ihrer Datenquelle und Wissensdatenbank zu löschen:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, aus der Sie Dokumente löschen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, aus der Dokumente gelöscht werden sollen.

1. Wählen Sie im Abschnitt **Dokumente** ein Dokument aus, das Sie löschen möchten. Klicken Sie dann auf **Dokument löschen**. Überprüfen Sie die Nachricht und klicken Sie dann auf Bestätigen.

## Verwenden der API
<a name="kb-direct-ingestion-delete-api"></a>

Um bestimmte Dokumente aus Ihrer Datenquelle mithilfe der Amazon-Bedrock-API zu löschen, senden Sie eine [DeleteKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die IDs der Datenquelle sowie der verbundenen Wissensdatenbank an.

Fügen Sie für jedes zu löschende Dokument ein [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html)-Element im`documentIdentifiers`-Array in einem der folgenden Formate hinzu:
+ Wenn es sich bei der Datenquelle um eine benutzerdefinierte Datenquelle handelt, geben Sie die ID des Dokuments in das Feld `id` ein:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Wenn es sich bei der Datenquelle um eine Amazon-S3-Datenquelle handelt, geben Sie die S3-URI des Dokuments in das Feld `uri` ein:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

**Warnung**  
Dokumente, die Sie direkt aus einer Wissensdatenbank löschen, die mit einer S3-Datenquelle verbunden ist, werden nicht aus dem eigentlichen S3-Bucket gelöscht. Wir empfehlen, dass Sie diese Dokumente aus dem S3-Bucket löschen, damit sie nicht erneut eingeführt werden, wenn Sie Ihre Datenquelle synchronisieren.

# So zeigen Sie Informationen zur Datenquelle Ihrer Amazon-Bedrock-Wissensdatenbank an
<a name="kb-ds-info"></a>

Sie können Informationen zu einer Datenquelle für Ihre Wissensdatenbank anzeigen, z. B. die Einstellungen und den Synchronisierungsverlauf.

Informationen zur Überwachung Ihrer Wissensdatenbank, einschließlich der zugehörigen Datenquellen, finden Sie unter [Wissensdatenbankprotokollierung mit Amazon CloudWatch](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html)

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So zeigen Sie Informationen zu einer Datenquelle an**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, deren Informationen Sie anzeigen möchten.

1. Die **Datenquellenübersicht** enthält Informationen zur Datenquelle.

1. Der **Synchronisierungsverlauf** enthält Informationen darüber, wann die Datenquelle synchronisiert wurde. Wählen Sie ein Synchronisierungsereignis aus und klicken Sie auf **Warnungen anzeigen**, um die Gründe für das Fehlschlagen eines Synchronisierungsereignisses anzuzeigen.

------
#### [ API ]

Senden Sie eine [GetDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die `dataSourceId` und die `knowledgeBaseId` der dazugehörigen Wissensdatenbank an, um Informationen zu einer Datenquelle anzuzeigen.

Um Informationen über die Datenquellen einer Wissensdatenbank aufzulisten, senden Sie eine [ListDataSources](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListDataSources.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Wissensbasis an.
+ Verwenden Sie das Feld `maxResults`, um die maximale Anzahl von Ergebnissen festzulegen, die in einer Antwort zurückgegeben werden sollen.
+ Wenn mehr Ergebnisse zurückgegeben werden als Sie vorgegeben haben, gibt die Antwort ein `nextToken` zurück. Sie können diesen Wert in einer weiteren `ListDataSources`-Anfrage verwenden, um den nächsten Ergebnisstapel anzuzeigen.

Um Informationen über ein Synchronisierungsereignis für eine Datenquelle zu erhalten, senden Sie eine [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `dataSourceId`, `knowledgeBaseId` und die `ingestionJobId` an.

Senden Sie eine [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um den Synchronisierungsverlauf einer Datenquelle in einer Wissensdatenbank aufzulisten. Geben Sie die ID der Wissensdatenbank und der Datenquelle an. Sie können die folgenden Spezifikationen festlegen.
+ Filtern Sie nach Ergebnissen, indem Sie einen Status angeben, nach dem im `filters`-Objekt gesucht werden soll.
+ Sortieren Sie nach dem Zeitpunkt, zu dem der Auftrag gestartet wurde, oder nach dem Status eines Auftrags, indem Sie das `sortBy`-Objekt angeben. Sie können in aufsteigender () oder absteigender () Reihenfolge sortieren.
+ Im Feld `maxResults` können Sie die Höchstzahl der Ergebnisse in einer Antwort bestimmen. Wenn es mehr Ergebnisse als die von Ihnen festgelegte Höchstzahl gibt, gibt die Antwort ein `nextToken` zurück, das Sie in einer weiteren [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage senden können, um den nächsten Auftragsstapel zu sehen.

------

# Ändern einer Datenquelle für Ihre Amazon-Bedrock-Wissensdatenbank
<a name="kb-ds-update"></a>

Sie können eine Datenquelle für Ihre Wissensdatenbank aktualisieren, z. B. indem Sie die Datenquellenkonfigurationen ändern.

Sie können eine Datenquelle auf folgende Weise aktualisieren:
+ Fügen Sie der Datenquelle Dateien oder Inhalte hinzu, ändern oder entfernen Sie sie.
+ Ändern Sie die Datenquellenkonfigurationen oder den KMS-Schlüssel, der für die Verschlüsselung transienter Daten bei der Datenerfassung verwendet werden soll. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen.
+ Stellen Sie Ihre Richtlinie zum Löschen von Datenquellen entweder auf „Löschen“ oder „Beibehalten“ ein. Sie können alle Daten aus Ihrer Datenquelle löschen, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Sie können alle Daten aus Ihrer Datenquelle beibehalten, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

Jedes Mal, wenn Sie Dateien zu Ihrer Datenquelle hinzufügen, ändern oder daraus entfernen, müssen Sie die Datenquelle synchronisieren, damit sie erneut mit der Wissensdatenbank indexiert wird. Die Synchronisierung erfolgt inkrementell, sodass Amazon Bedrock nur Dokumente verarbeitet, die seit der letzten Synchronisierung hinzugefügt, geändert oder gelöscht wurden. Bevor Sie mit der Aufnahme beginnen, überprüfen Sie, ob Ihre Datenquelle die folgenden Bedingungen erfüllt:
+ Die Dateien haben unterstützte Formate. Weitere Informationen finden Sie unter [Unterstützte Dokumentformate](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ Die Dateien überschreiten nicht die unter [Endpunkte und Kontingente von Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in der Allgemeine AWS-Referenz angegebene **Dateigröße des Aufnahmeauftrags**.
+ Wenn Ihre Datenquelle Metadatendateien enthält, überprüfen Sie die folgenden Bedingungen, um sicherzustellen, dass die Metadatendateien nicht ignoriert werden:
  + Jede `.metadata.json`-Datei hat denselben Dateinamen und dieselbe Erweiterung wie die Quelldatei, mit der sie verknüpft ist.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-OpenSearch-Serverless-Vektorspeicher befindet, überprüfen Sie, ob der Vektorindex mit der `faiss`-Engine konfiguriert ist. Wenn der Vektorindex mit der `nmslib`-Engine konfiguriert ist, müssen Sie einen der folgenden Prozesse ausführen:
    + [Erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) in der Konsole und lassen Sie Amazon Bedrock automatisch einen Vektorindex in Amazon OpenSearch Serverless erstellen.
    + [Erstellen Sie einen weiteren Vektorindex](knowledge-base-setup.md) im Vektorspeicher und wählen Sie `faiss` als **Engine** aus. Anschließend [erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) und geben den neuen Vektorindex an.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-Aurora-Datenbankcluster befindet, empfehlen wir, das benutzerdefinierte Metadatenfeld zu verwenden, um all Ihre Metadaten in einer einzigen Spalte zu speichern und einen Index für diese Spalte zu erstellen. Wenn Sie das benutzerdefinierte Metadatenfeld nicht angeben, müssen Sie sicherstellen, dass die Tabelle für Ihren Index eine Spalte für jede Metadateneigenschaft in Ihren Metadatendateien enthält, bevor Sie mit der Aufnahme beginnen. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).

Wählen Sie die Registerkarte mit Ihrer bevorzugten Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie eine Datenquelle aktualisieren:

------
#### [ Console ]

**So aktualisieren Sie eine Datenquelle**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie den Namen Ihrer Wissensdatenbank aus.

1. Wählen Sie im Abschnitt **Datenquelle** das Optionsfeld neben der Datenquelle aus, die Sie bearbeiten und synchronisieren möchten.

1. (Optional) Klicken Sie auf **Bearbeiten**, ändern Sie Ihre Konfigurationen und klicken Sie dann auf **Absenden**. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen. Beachten Sie außerdem, dass dies die Chunking-Konfigurationen, die auf den aufgenommenen Originaldaten basieren, nicht ändern kann. Sie müssen die Datenquelle neu erstellen.
**Anmerkung**  
Sie können die Chunking-Konfigurationen nicht ändern. Sie müssen die Datenquelle neu erstellen.

1. (Optional) Wählen Sie im Rahmen der erweiterten Einstellungen aus, ob Sie Ihre Richtlinie zum Löschen von Datenquellendaten bearbeiten möchten:

   Wählen Sie für die Richtlinieneinstellungen zum Löschen von Daten eine der folgenden Optionen aus:
   + Löschen: Löscht alle Daten aus Ihrer Datenquelle, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, sondern nur die Daten. Diese Markierung wird ignoriert, wenn ein AWS-Konto gelöscht wird.
   + Beibehalten: Behält alle Daten aus Ihrer Datenquelle bei, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

1. Klicken Sie auf **Synchronisieren**.

1. Ein grünes Banner erscheint, wenn die Synchronisierung abgeschlossen ist und der **Status** zu **Bereit** wechselt.

------
#### [ API ]

**So aktualisieren Sie eine Datenquelle**

1. (Optional) Senden Sie eine [UpdateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), wobei Sie beliebige Konfigurationen ändern und die Konfigurationen angeben, die Sie nicht ändern möchten. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen.
**Anmerkung**  
Sie können die `chunkingConfiguration` nicht ändern. Senden Sie die Anfrage mit der vorhandenen `chunkingConfiguration` oder erstellen Sie die Datenquelle neu.

1. (Optional) Ändern Sie die `dataDeletionPolicy` für Ihre Datenquelle. Sie können alle Daten aus Ihrer Datenquelle `DELETE`, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Diese Markierung wird ignoriert, wenn ein AWS-Konto gelöscht wird. Sie können alle Daten aus Ihrer Datenquelle `RETAIN`, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

1. Senden Sie eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) unter Angabe der `dataSourceId` und der `knowledgeBaseId`.

------

# So löschen Sie eine Datenquelle aus Ihrer Amazon-Bedrock-Wissensdatenbank
<a name="kb-ds-delete"></a>

Sie können eine Datenquelle löschen oder entfernen, die Sie nicht mehr für Ihre Wissensdatenbank benötigen oder verwenden.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So löschen Sie eine Datenquelle:**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Datenquelle** das Optionsfeld neben der Datenquelle aus, die Sie löschen möchten.

1. Klicken Sie auf **Löschen**.

1. Ein grünes Banner erscheint, wenn die Datenquelle erfolgreich gelöscht wurde.
**Anmerkung**  
Ihre Datenlöschrichtlinie für Ihre Datenquelle ist entweder auf „Löschen“ (löscht alle Daten, wenn Sie Ihre Datenquelle löschen, löscht aber **nicht den Vektorspeicher**) oder auf „Beibehalten“ (behält alle Daten bei, wenn Sie Ihre Datenquelle löschen) gesetzt. Beachten Sie, dass der **Vektorspeicher nicht gelöscht wird**, wenn Sie eine Datenquelle oder Wissensdatenbank löschen. Wenn die Datenlöschrichtlinie auf „Löschen“ gesetzt ist, kann es sein, dass die Datenquelle den Löschvorgang aufgrund von Problemen mit der Konfiguration oder dem Zugriff auf den Vektorspeicher nicht erfolgreich abschließt. Sie können den Status „DELETE\$1UNSUCCESSFUL“ überprüfen, um herauszufinden, warum die Datenquelle nicht erfolgreich gelöscht werden konnte.

------
#### [ API ]

Senden Sie eine [DeleteDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletDataSource.html)-Anfrage und geben Sie die `dataSourceId` und die `knowledgeBaseId` an, um eine Datenquelle aus einer Wissensdatenbank zu löschen.

**Anmerkung**  
Ihre Datenlöschrichtlinie für Ihre Datenquelle ist entweder auf `DELETE` (löscht alle Daten, wenn Sie Ihre Datenquelle löschen, löscht aber **nicht den Vektorspeicher**) oder auf `RETAIN` (behält alle Daten bei, wenn Sie Ihre Datenquelle löschen) gesetzt. Beachten Sie, dass der **Vektorspeicher nicht gelöscht wird**, wenn Sie eine Datenquelle oder Wissensdatenbank löschen. Wenn die Datenlöschrichtlinie auf `DELETE` gesetzt ist, kann es sein, dass die Datenquelle den Löschvorgang aufgrund von Problemen mit der Konfiguration oder dem Zugriff auf den Vektorspeicher nicht erfolgreich abschließt. Wenn der Status `DELETE_UNSUCCESSFUL` ist, können Sie die `failureReasons` anzeigen, um zu ermitteln, warum die Datenquelle nicht erfolgreich gelöscht werden konnte.

------