

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Abrufen von Daten und Generieren von KI-Antworten mit Wissensdatenbanken für Amazon Bedrock
<a name="knowledge-base"></a>

Die Basismodelle verfügen zwar über allgemeines Wissen, aber Sie können ihre Antworten mit Retrieval Augmented Generation (RAG) weiter verbessern. RAG ist eine Technik, bei der Informationen aus Datenquellen verwendet werden, um die Relevanz und Genauigkeit der generierten Antworten zu verbessern. Mit Wissensdatenbanken für Amazon Bedrock können Sie proprietäre Informationen in Ihre Anwendungen für generative KI integrieren. Wenn eine Abfrage gestellt wird, durchsucht eine Wissensdatenbank Ihre Daten nach relevanten Informationen zur Beantwortung der Abfrage. Die abgerufenen Informationen können dann verwendet werden, um die generierten Antworten zu verbessern. Mithilfe der Funktionen von Wissensdatenbanken für Amazon Bedrock können Sie Ihre eigene RAG-basierte Anwendung erstellen.

Mit Wissensdatenbanken für Amazon Bedrock haben Sie folgende Möglichkeiten:
+ Beantworten Sie Benutzerabfragen, indem Sie relevante Informationen aus Datenquellen zurückgeben.
+ Verwenden Sie abgerufene Informationen aus Datenquellen, um eine genaue und relevante Antwort auf Benutzerabfragen zu generieren.
+ Erweitern Sie Ihre eigenen Prompts, indem Sie die zurückgegebenen relevanten Informationen in den Prompt eingeben.
+ Nehmen Sie Zitate in die generierte Antwort auf, sodass auf die ursprüngliche Datenquelle verwiesen und die Richtigkeit überprüft werden kann.
+ Fügen Sie Dokumente mit zahlreichen visuellen Ressourcen hinzu, aus denen Bilder extrahiert und als Antworten auf Abfragen abgerufen werden können. Wenn Sie auf der Grundlage der abgerufenen Daten eine Antwort generieren, kann das Modell auf der Grundlage dieser Bilder zusätzliche Erkenntnisse liefern.
+ Suchen Sie anhand von Bildern als Abfragen, um visuell ähnliche Inhalte zu finden, oder kombinieren Sie Text und Bilder in Abfragen, um mithilfe multimodaler Einbettungsmodelle genauere Ergebnisse zu erzielen.
+ Konvertieren Sie natürliche Sprache in Abfragen (z. B. SQL-Abfragen), die für strukturierte Datenbanken angepasst sind. Diese Abfragen werden zum Abrufen von Daten aus strukturierten Datenspeichern verwendet.
+ Aktualisieren Sie Ihre Datenquellen und nehmen Sie die Änderungen direkt in die Wissensdatenbank auf, sodass sofort darauf zugegriffen werden kann.
+ Verwenden Sie Reranking-Modelle, um die Ergebnisse zu beeinflussen, die aus Ihrer Datenquelle abgerufen werden.
+ Binden Sie die Wissensdatenbank in einen Workflow von [Agenten für Amazon Bedrock](agents.md) ein.

Zum Einrichten einer Wissensdatenbank müssen Sie die folgenden allgemeinen Schritte ausführen:

1. (Optional) Wenn Sie Ihre Wissensdatenbank mit einer unstrukturierten Datenquelle verbinden, richten Sie Ihren eigenen [unterstützten Vektorspeicher](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html) ein, um die Darstellung Ihrer Daten mit Vektoreinbettungen zu indizieren. Sie können diesen Schritt überspringen, wenn Sie die Amazon Bedrock-Konsole verwenden möchten, um einen Amazon OpenSearch Serverless Vector Store für Sie zu erstellen.

1. Verbinden Sie Ihre Wissensdatenbank mit einer unstrukturierten oder strukturierten Datenquelle.

1. Synchronisieren Sie Ihre Datenquelle mit Ihrer Wissensdatenbank.

1. Richten Sie Ihre Anwendung oder Ihren Agenten für Folgendes ein:
   + Abfragen der Wissensdatenbank und Zurückgeben relevante Quellen
   + Abfragen der Wissensdatenbank und Generieren von Antworten in natürlicher Sprache auf der Grundlage der abgerufenen Ergebnisse
   + (Wenn Sie eine Wissensdatenbank abfragen, die mit einem strukturierten Datenspeicher verbunden ist) Transformieren einer Abfrage in eine sprachspezifische Abfrage für strukturierte Daten (z. B. eine SQL-Abfrage)

**Topics**
+ [So funktionieren Wissensdatenbanken](kb-how-it-works.md)
+ [Unterstützte Modelle und Regionen](knowledge-base-supported.md)
+ [So chatten Sie mit Ihrem Dokument ohne jegliche Einrichtung](knowledge-base-chatdoc.md)
+ [Einrichten von Berechtigungen zum Erstellen und Verwalten von Wissensdatenbanken](knowledge-base-prereq-permissions-general.md)
+ [So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einer Datenquelle auf](knowledge-base-build.md)
+ [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)
+ [So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einem strukturierten Datenspeicher auf](knowledge-base-build-structured.md)
+ [So bauen Sie eine Wissensdatenbank mit einem GenAI-Index in Amazon Kendra auf](knowledge-base-build-kendra-genai-index.md)
+ [So bauen Sie eine Wissensdatenbank mit Diagrammen aus Amazon Neptune Analytics auf](knowledge-base-build-graphs.md)
+ [Testen Ihrer Wissensdatenbank mit Abfragen und Antworten](knowledge-base-test.md)
+ [Bereitstellen Ihrer Wissensdatenbank für Ihre Anwendung](knowledge-base-deploy.md)
+ [So zeigen Sie Informationen zu einer Wissensdatenbank an](kb-info.md)
+ [Modifizieren einer Wissensdatenbank](kb-update.md)
+ [Löschen einer Wissensdatenbank](kb-delete.md)

# Funktionsweise der Wissensdatenbanken in Amazon Bedrock
<a name="kb-how-it-works"></a>

Wissensdatenbanken für Amazon Bedrock hilft Ihnen dabei, die Vorteile von Retrieval Augmented Generation (RAG) zu nutzen, einer beliebten Methode, bei der Informationen aus einem Datenspeicher abgerufen werden, um die von großen Sprachmodellen (LLMs) generierten Antworten zu erweitern. Wenn Sie eine Wissensdatenbank mit Ihrer Datenquelle einrichten, kann Ihre Anwendung die Wissensdatenbank abfragen, um Informationen zur Beantwortung der Anfrage zurückzugeben, entweder mit direkten Zitaten aus Quellen oder mit natürlichen Antworten, die aus den Abfrageergebnissen generiert werden.

Mithilfe von Wissensdatenbanken für Amazon Bedrock können Sie Anwendungen erstellen, die durch den Kontext aus der Abfrage einer Wissensdatenbank bereichert werden. Dies ermöglicht eine schnellere Markteinführung, da von der aufwändigen Erstellung von Pipelines abgesehen und Ihnen eine sofort einsatzbereite RAG-Lösung zur Verfügung gestellt wird, mit der Sie die Entwicklungszeit für Ihre Anwendung reduzieren können. Durch Hinzufügen einer Wissensdatenbank steigt auch die Kosteneffizienz, da Ihr Modell nicht kontinuierlich trainiert werden muss, um Ihre privaten Daten nutzen zu können.

Die folgenden Diagramme sind eine schematische Darstellung von RAG. Die Wissensdatenbank vereinfacht die Einrichtung und Implementierung von RAG, indem mehrere Schritte dieses Prozesses automatisiert werden.

**Vorverarbeitung unstrukturierter Daten**

Um eine effektive Abfrage aus unstrukturierten privaten Daten zu ermöglichen (Daten, die nicht in einem strukturierten Datenspeicher vorliegen), ist es gängige Praxis, die Daten in Text umzuwandeln und in handhabbare Abschnitte zu unterteilen. Die Abschnitte oder Blöcke werden dann in Einbettungen umgewandelt und in einen Vektorindex geschrieben, wobei die Zuordnung zum Originaldokument beibehalten wird. Diese Einbettungen werden verwendet, um die semantische Ähnlichkeit zwischen Abfragen und Text aus den Datenquellen zu ermitteln. Die folgende Abbildung veranschaulicht die Vorverarbeitung von Daten für die Vektordatenbank.

![\[Vorverarbeitung von Daten für Retrieval-Augmented Generation (RAG)\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/rag-preprocess.png)


Bei Vektoreinbettungen handelt es sich um eine Reihe von Zahlen, die für die einzelnen Textblöcke stehen. Ein Modell wandelt jeden Textblock in eine Reihe von Zahlen um, die als Vektoren bezeichnet werden, sodass die Texte mathematisch verglichen werden können. Bei diesen Vektoren kann es sich entweder um Gleitkommazahlen (float32) oder um Binärzahlen handeln. Die meisten von Amazon Bedrock unterstützten Einbettungsmodelle verwenden standardmäßig Gleitkomma-Vektoren. Einige Modelle unterstützen jedoch binäre Vektoren. Wenn Sie ein binäres Einbettungsmodell wählen, müssen Sie auch ein Modell und einen Vektorspeicher wählen, die binäre Vektoren unterstützen.

Binäre Vektoren, die nur 1 Bit pro Dimension verwenden, sind nicht so speicherintensiv wie Gleitkomma-Vektoren (float32), die 32 Bit pro Dimension verwenden. Allerdings sind binäre Vektoren in ihrer Darstellung des Textes nicht so präzise wie Fließkommavektoren.

Das folgende Beispiel zeigt einen Text in drei Darstellungen:


****  

| Darstellung | Wert | 
| --- | --- | 
| Text | „Amazon Bedrock verwendet leistungsstarke Basismodelle von führenden KI-Unternehmen und Amazon.“ | 
| Gleitkommavektor | [0.041..., 0.056..., -0.018..., -0.012..., -0.020..., ...] | 
| Binärer Vektor | [1,1,0,0,0, ...] | 

**Ausführung zur Laufzeit**

Zur Laufzeit wird ein Einbettungsmodell verwendet, um die Benutzerabfrage in einen Vektor zu konvertieren. Anschließend wird der Vektorindex abgefragt, um Blöcke zu finden, die der Benutzerabfrage ähneln, indem Dokumentvektoren mit dem Benutzerabfragevektor verglichen werden. Im letzten Schritt wird der Benutzer-Prompt mit zusätzlichem Kontext aus den Blöcken erweitert, die aus dem Vektorindex abgerufen werden. Die Eingabeaufforderung wird dann mit dem zusätzlichen Kontext an das Modell gesendet, um eine Antwort für den/die Benutzer:in zu generieren. Die folgende Abbildung zeigt, wie RAG zur Laufzeit arbeitet, um die Antworten auf Benutzerabfragen zu verbessern.

![\[Retrieval-Augmented Generation (RAG) zur Laufzeit\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/rag-runtime.png)


Weitere Informationen darüber, wie Sie Ihre Daten in eine Wissensdatenbank umwandeln, wie Sie Ihre Wissensdatenbank nach der Einrichtung abfragen und welche Anpassungen Sie während der Datenaufnahme auf die Datenquelle anwenden können, finden Sie in den folgenden Themen:

**Topics**
+ [Umwandlung von Daten in eine Wissensdatenbank](kb-how-data.md)
+ [So rufen Sie Informationen aus Datenquellen mithilfe von Wissensdatenbanken für Amazon Bedrock ab](kb-how-retrieval.md)
+ [Anpassen Ihrer Wissensdatenbank](kb-how-customization.md)

# Umwandlung von Daten in eine Wissensdatenbank
<a name="kb-how-data"></a>

Stellen Sie eine Verbindung zu einer unterstützten Datenquelle her, auf die Ihre zu erstellende Wissensdatenbank zugreifen kann. Ihre Wissensdatenbank wird in der Lage sein, auf Benutzeranfragen zu antworten oder Antworten auf Grundlage der abgerufenen Daten zu generieren.

 Wissensdatenbanken für Amazon Bedrock unterstützt eine Vielzahl von Dokumenttypen wie Text, Bilder oder multimodale Dokumente, die Tabellen, Diagramme und andere Bilder enthalten. Der Begriff *multimodale* Daten bezieht sich auf eine Kombination aus Text und visuellen Daten. Beispiele für Dateitypen, die unstrukturierte Daten enthalten, sind Text, Markdown, HTML und. PDFs

In den folgenden Abschnitten werden die Datentypen beschrieben, die Wissensdatenbanken für Amazon Bedrock unterstützt, und die Services, mit denen Sie Ihre Wissensdatenbank für jeden Datentyp verbinden können:

## Unstrukturierte Daten
<a name="kb-how-unstructured"></a>

Der Begriff unstrukturierte Daten bezieht sich auf Daten, die nicht in eine vordefinierte Struktur gezwungen werden. Wissensdatenbanken für Amazon Bedrock unterstützt die Verbindung zu den folgenden Services, um Ihrer Wissensdatenbank unstrukturierte Daten hinzuzufügen:
+ Amazon S3
+ Confluence (Vorschau)
+ Microsoft SharePoint (Vorschau)
+ Salesforce (Vorschau)
+ Web Crawler (Vorschau)
+ Benutzerdefinierte Datenquelle (ermöglicht die direkte Aufnahme von Daten in Wissensdatenbanken, ohne dass eine Synchronisierung erforderlich ist)

Eine Datenquelle enthält die Rohform Ihrer Dokumente. Eine Wissensdatenbank konvertiert Ihre Rohdaten in *Vektoreinbettungen*, also eine numerische Darstellung der Daten, um die Ähnlichkeit mit Abfragen zu quantifizieren, die ebenfalls in Vektoreinbettungen umgewandelt werden, um den Abfrageprozess zu optimieren. Wissensdatenbanken für Amazon Bedrock verwendet die folgenden Ressourcen bei der Konvertierung Ihrer Datenquelle:
+ Einbettungsmodell – Ein Basismodell, das Ihre Daten in Vektoreinbettungen umwandelt. Für multimodale Daten, die sowohl Text als auch Bilder enthalten, können Sie multimodale Einbettungsmodelle wie Amazon Titan Multimodal Embeddings G1 oder Cohere Embed v3 verwenden.
+ Vektorspeicher – Ein Service, der die Vektordarstellung Ihrer Daten speichert. Die folgenden Vektorspeicher werden unterstützt:
  + Amazon OpenSearch Serverlos
  + Amazon Neptune
  + Amazon Aurora (RDS)
  + Pinecone
  + Redis Enterprise Cloud
  + MongoDB-Atlas

Der Prozess, mit dem Ihre Daten in Vektoreinbettungen konvertiert werden, nennt sich *Erfassung*. Der Erfassungsprozess, bei dem Ihre Daten in eine Wissensdatenbank umgewandelt werden, umfasst die folgenden Schritte:

**Erfassung**

1. Die Daten werden von dem von Ihnen gewählten Parser verarbeitet. Weitere Informationen zum Parsing finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

1. Jedes Dokument in Ihrer Datenquelle ist in *Blöcke* aufgeteilt, also Datenabschnitte, die anhand der Anzahl von Token und anderen Parametern definiert werden können. Weitere Informationen zu Aufteilungen finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).

1. Das von Ihnen gewählte Einbettungsmodell wandelt Ihre Daten in Vektoreinbettungen um. Bei multimodalen Inhalten werden Bilder als visuelle Vektoren und Text als Textvektoren eingebettet, sodass die Suche in beiden Modalitäten möglich ist.

1. Die Vektoreinbettungen werden in einen Vektorindex in Ihrem ausgewählten Vektorspeicher geschrieben.

Nachdem der Aufnahmeprozess abgeschlossen ist, kann Ihre Wissensdatenbank abgefragt werden. Informationen zur Vorgehensweise beim Abfragen und Abrufen von Informationen aus Ihrer Wissensdatenbank finden Sie unter [So rufen Sie Informationen aus Datenquellen mithilfe von Wissensdatenbanken für Amazon Bedrock ab](kb-how-retrieval.md).

Wenn Sie Änderungen an Datenquellen vornehmen, müssen Sie die Änderungen synchronisieren, um Ergänzungen, Änderungen und Löschungen in die Wissensdatenbank aufzunehmen. Einige Datenquellen unterstützen das direkte Aufnehmen oder Löschen von Dateien in die Wissensdatenbank, sodass das Ändern und Erfassen von Datenquellen nicht mehr als separate Schritte behandelt werden muss und keine vollständige Synchronisierung erforderlich wird. Informationen darüber, wie Sie Dokumente direkt in Ihre Wissensdatenbank aufnehmen und welche Datenquellen dies unterstützen, finden Sie unter [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md).

Wissensdatenbanken für Amazon Bedrock bietet verschiedene Optionen, mit denen Sie individuell anpassen können, wie Ihre Daten aufgenommen werden. Weitere Informationen zur Anpassung dieses Prozesses finden Sie unter [Anpassen Ihrer Wissensdatenbank](kb-how-customization.md).

## Strukturierte Daten
<a name="kb-how-structured"></a>

Der Begriff strukturierte Daten bezieht sich auf tabellarische Daten in einem Format, das durch den Datenspeicher, in dem sie existieren, vordefiniert ist. Wissensdatenbanken für Amazon Bedrock stellt eine Verbindung zu unterstützten strukturierten Datenspeichern über die Abfrage-Engine in Amazon Redshift her. Wissensdatenbanken für Amazon Bedrock bietet einen vollständig verwalteten Mechanismus, der Abfragemuster, Abfrageverlauf und Schemametadaten analysiert, um Abfragen in natürlicher Sprache in SQL-Abfragen umzuwandeln. Diese konvertierten Abfragen werden dann verwendet, um relevante Informationen aus unterstützten Datenquellen abzurufen.

Wissensdatenbanken für Amazon Bedrock unterstützt Verbindungen zu den folgenden Services, um strukturierte Datenspeicher zu Ihrer Wissensdatenbank hinzuzufügen:
+ Amazon Redshift
+ AWS Glue Data Catalog(AWS Lake Formation)

Wenn Sie Ihre Wissensdatenbank mit einem strukturierten Datenspeicher verbinden, müssen Sie die Daten nicht in Vektoreinbettungen konvertieren. Stattdessen kann Wissensdatenbanken für Amazon Bedrock den strukturierten Datenspeicher direkt abfragen. Während der Abfrage kann Wissensdatenbanken für Amazon Bedrock Benutzeranfragen in SQL-Abfragen umwandeln, um weitere für die Benutzerabfrage relevante Daten abzurufen und somit genauere Antworten zu generieren. SQL-Abfragen können auch ohne einen Datenabruf generiert werden, und diese in anderen Workflows verwenden.

Ein Datenbank-Repository enthält die folgende Tabelle mit Informationen zu Kunden und ihren Einkäufen:


****  

| Kunden-ID | Summe der Einkäufe im Jahr 2020 | Summe der Einkäufe im Jahr 2021 | Summe der Einkäufe im Jahr 2022 | Summe aller Einkäufe bis heute | 
| --- | --- | --- | --- | --- | 
| 1 | 200 | 300 | 500 | 1000 | 
| 2 | 150 | 100 | 120 | 370 | 
| 3 | 300 | 300 | 300 | 900 | 
| 4 | 720 | 180 | 100 | 900 | 
| 5 | 500 | 400 | 100 | 1000 | 
| 6 | 900 | 800 | 1000 | 2700 | 
| 7 | 470 | 420 | 400 | 1290 | 
| 8 | 250 | 280 | 250 | 780 | 
| 9 | 620 | 830 | 740 | 2190 | 
| 10 | 300 | 200 | 300 | 800 | 

Wenn eine Benutzeranfrage lautet: „Gib mir eine Zusammenfassung der 5 umsatzstärksten Kunden“, kann die Wissensdatenbank Folgendes tun:
+ Konvertieren der Abfrage in eine SQL-Abfrage.
+ Rückgabe eines Tabellenauszugs wie folgt:
  + Die entsprechenden Tabellenspalten „Kunden-ID“ und „Summe aller Einkäufe bis heute“
  + Tabellenzeilen mit dem Gesamtbetrag der Einkäufe der 10 umsatzstärksten Kunden
+ Generieren einer Antwort, die angibt, welche Kunden die 5 umsatzstärksten waren und wie viel sie eingekauft haben.

Weitere Beispiele für Abfragen, für die eine Wissensdatenbank einen Tabellenauszug generieren kann:
+ „Die 5 umsatzstärksten Kunden im Jahr 2020“
+ „Top-Kunde nach Einkaufsvolumen im Jahr 2020"
+ „Top-5 Kunden nach Einkaufsvolumen im Zeitraum 2020-2022"
+ „Die 5 Kunden mit den höchsten Ausgaben in den Jahren 2020-2022"
+ „Kunden mit einem Gesamteinkaufsvolumen unter 10 USD“
+ „Die 5 Kunden mit den niedrigsten Ausgaben“

Je spezifischer oder detaillierter eine Anfrage ist, desto besser kann die Wissensdatenbank die Informationen eingrenzen, die zurückgegeben werden sollen. Anstatt der Abfrage „Die 10 umsatzstärksten Kunden im Jahr 2020“ lautet eine spezifischere Abfrage beispielsweise „Finde die 10 höchsten Gesamtbeträge der Einkäufe bis heute für Kunden im Jahr 2020“. Die spezifische Abfrage bezieht sich auf den Spaltennamen „Summe aller Einkäufe bis heute“ in der Ausgabendatenbanktabelle der Kunden und gibt außerdem an, dass die Daten „absteigend“ sortiert werden sollten.

# So rufen Sie Informationen aus Datenquellen mithilfe von Wissensdatenbanken für Amazon Bedrock ab
<a name="kb-how-retrieval"></a>

Nachdem Sie eine Wissensdatenbank eingerichtet haben, können Sie Ihre Anwendung so einrichten, dass sie die darin enthaltenen Datenquellen abfragt. Sie können die folgenden API-Funktionen zur Abfrage einer Wissensdatenbank nutzen:
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) – Ruft die Quellblöcke oder Bilder aus Ihren Daten ab, die für die Abfrage am relevantesten sind, und gibt sie in der Antwort als Array zurück.
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) – Verbindet `Retrieve` mit dem Vorgang [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) in Amazon Bedrock, um die Quellblöcke aus Ihren Daten abzurufen, die für die Abfrage am relevantesten sind, und generiert eine Antwort in natürlicher Sprache. Beinhaltet Zitation zu bestimmten Quellenabschnitten aus den Daten. Wenn Ihre Datenquelle visuelle Elemente enthält, nutzt das Modell bei der Generierung einer Textantwort Erkenntnisse aus diesen Bildern und stellt eine Quellenzuweisung für die Bilder bereit.
+ [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html) – Konvertiert Benutzerabfragen in natürlicher Sprache in Abfragen, deren Form für den strukturierten Datenspeicher geeignet ist.

Die `RetrieveAndGenerate`-Operation ist eine kombinierte Aktion, die im Hintergrund `GenerateQuery` (wenn Ihre Wissensdatenbank mit einem strukturierten Datenspeicher verbunden ist), `Retrieve` und `InvokeModel` verwendet, um den gesamten RAG-Prozess durchzuführen. Da Wissensdatenbanken für Amazon Bedrock Ihnen auch Zugriff auf die `Retrieve`-Operation bietet, haben Sie die Flexibilität, die Schritte in RAG zu entkoppeln und sie an Ihren spezifischen Anwendungsfall anzupassen.

Sie können auch ein [Modell zur Neueinstufung](rerank.md) verwenden, wenn Sie `Retrieve` oder `RetrieveAndGenerate` zur Neueinstufung der Relevanz von Dokumenten verwenden, die bei einer Abfrage abgerufen wurden.

Informationen zur Verwendung dieser API-Operationen bei der Abfrage einer Wissensdatenbank finden Sie unter [Testen Ihrer Wissensdatenbank mit Abfragen und Antworten](knowledge-base-test.md).

# Anpassen Ihrer Wissensdatenbank
<a name="kb-how-customization"></a>

Wissensdatenbanken für Amazon Bedrock bietet Optionen zur Anpassung der Verarbeitung Ihrer Datenquellen in Ihre Wissensdatenbank und ermöglicht Ihnen so Flexibilität bei der Speicherung, Analyse und Bereitstellung Ihrer Daten für Endbenutzer. Wählen Sie eines der folgenden Themen aus, um mehr über Anpassungsoptionen zu erfahren, die Sie beim Einrichten Ihrer Wissensdatenbank berücksichtigen können:

**Topics**
+ [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md)
+ [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md)
+ [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md)
+ [So fügen Sie Metadaten in eine Datenquelle ein, um die Wissensdatenbankabfrage zu verbessern](kb-metadata.md)

# So funktioniert das Inhalts-Chunking für Wissensdatenbanken
<a name="kb-chunking"></a>

Bei der Erfassung Ihrer Daten teilt Amazon Bedrock Ihre Dokumente oder Inhalte zunächst in überschaubare Teile auf, um einen effizienten Datenabruf zu gewährleisten. Die Blöcke werden dann in Einbettungen umgewandelt und in einen Vektorindex geschrieben (Vektordarstellung der Daten), wobei die Zuordnung zum Originaldokument beibehalten wird. Die Vektoreinbettungen ermöglichen einen quantitativen Vergleich der Texte.

**Topics**
+ [Standardmäßiges Chunking](#kb-standard-chunking)
+ [Hierarchisches Chunking](#kb-hiearchical-chunking)
+ [Semantisches Chunking](#kb-semantic-chunking)
+ [Multimodales Chunking von Inhalten](#kb-multimodal-chunking)

## Standardmäßiges Chunking
<a name="kb-standard-chunking"></a>

Amazon Bedrock unterstützt die folgenden Standardansätze für das Chunking:

**Anmerkung**  
Strategien zum Aufteilen von Text gelten nur für Textdokumente. Bei multimodalen Inhalten (Audio, Video, Bilder) erfolgt das Chunking auf der Ebene des Einbettungsmodells und nicht über diese textbasierten Strategien.
+ Chunking mit fester Größe: Sie können die gewünschte Blockgröße konfigurieren, indem Sie die Anzahl der Token pro Block und einen Überlappungsprozentsatz angeben, sodass Sie flexibel auf Ihre spezifischen Anforderungen eingehen können. Sie können die maximale Anzahl von Token, die für einen Block nicht überschritten werden darf, sowie den Prozentsatz der Überlappungen zwischen aufeinanderfolgenden Blöcken festlegen.
**Anmerkung**  
Für analysierte Inhalte (z. B. Inhalte, die erweiterte Parser verwenden oder aus HTML konvertiert wurden) kann Amazon Bedrock Knowledge Bases Inhalte aufteilen, um optimale Ergebnisse zu erzielen. Der Chunker respektiert logische Dokumentgrenzen (wie Seiten oder Abschnitte) und führt keine Inhalte zusammen, die diese Grenzen überschreiten, auch wenn eine Erhöhung der maximalen Token-Größe andernfalls größere Blöcke ermöglichen würde.
+ Standard-Chunking: Der Inhalt wird in Textblöcke mit ungefähr 300 Token aufgeteilt. Beim Chunking-Prozess werden die Satzgrenzen berücksichtigt, um sicherzustellen, dass vollständige Sätze innerhalb jedes Blocks erhalten bleiben.

Sie können für Ihre Dokumente auch „Kein Chunking“ auswählen. Jedes Dokument wird als einzelner Textblock behandelt. Sie sollten Ihre Dokumente möglicherweise vorbereiten, indem Sie sie in separate Dateien aufteilen, bevor Sie „Kein Chunking“ als Ihren Aufteilungsansatz oder Ihre Strategie auswählen. *Wenn Sie für Ihre Dokumente kein Chunking auswählen, können Sie die Seitenzahl nicht in Quellenangaben anzeigen oder nach dem Metadatenfeld/Attribut filtern. x-amz-bedrock-kb document-page-number*

## Hierarchisches Chunking
<a name="kb-hiearchical-chunking"></a>

Beim hierarchischen Chunking werden Informationen in verschachtelten Strukturen bestehend aus untergeordneten und übergeordneten Blöcken organisiert. Beim Erstellen einer Datenquelle können Sie die Größe des übergeordneten Blocks, die Größe des untergeordneten Blocks und die Anzahl der Token definieren, die zwischen den einzelnen Blöcken überlappen. Beim Abrufen ruft das System zunächst untergeordnete Blöcke ab, ersetzt sie jedoch durch breitere übergeordnete Blöcke, um dem Modell einen umfassenderen Kontext zu bieten.

Kleine Texteinbettungen sind präziser, aber beim Abrufen wird ein umfassender Kontext angestrebt. Ein hierarchisches Chunking-System gleicht diese Anforderungen aus, indem abgerufene untergeordnete Blöcke gegebenenfalls durch ihre übergeordneten Blöcke ersetzt werden.

**Anmerkung**  
Da untergeordnete Blöcke beim Abrufen durch übergeordnete Blöcke ersetzt werden, kann die zurückgegebene Anzahl von Ergebnissen unter der angeforderten Menge liegen.
Eine hierarchische Aufteilung wird nicht empfohlen, wenn Sie den S3-Vektor-Bucket als Vektorspeicher verwenden. Wenn Sie eine große Anzahl von Token für das Chunking verwenden (über 8000 Token zusammen), kann es zu Größenbeschränkungen für Metadaten kommen.

Für hierarchisches Chunking unterstützt Wissensdatenbanken für Amazon Bedrock die Angabe von zwei Ebenen oder der folgenden Tiefe für das Chunking:
+ Übergeordnetes Element: Sie legen die maximale Größe des übergeordneten Chunk-Tokens fest.
+ Untergeordnetes Element: Sie legen die maximale Größe des untergeordneten Chunk-Tokens fest.

Sie legen auch die Überlappungs-Token zwischen den Blöcken fest. Dies ist die absolute Anzahl von Überlappungs-Token zwischen aufeinanderfolgenden übergeordneten Blöcken und aufeinanderfolgenden untergeordneten Blöcken.

## Semantisches Chunking
<a name="kb-semantic-chunking"></a>

Semantisches Chunking ist eine Technik zur natürlichen Sprachverarbeitung, bei der Text in aussagekräftige Blöcke unterteilt wird, um das Verständnis und den Informationsabruf zu verbessern. Es zielt darauf ab, die Genauigkeit des Abrufs zu verbessern, indem es sich auf den semantischen Inhalt und nicht nur auf die syntaktische Struktur konzentriert. Auf diese Weise kann eine genauere Extraktion und Manipulation relevanter Informationen ermöglicht werden.

Bei der Konfiguration von semantischem Chunking haben Sie die Möglichkeit, die folgenden Hyperparameter anzugeben.
+ Maximale Token-Anzahl: Die maximale Token-Anzahl, die in einem einzelnen Block enthalten sein soll, wobei Satzgrenzen berücksichtigt werden.
+ Puffergröße: Für einen bestimmten Satz definiert die Puffergröße die Anzahl der umgebenden Sätze, die zur Erstellung von Einbettungen hinzugefügt werden sollen. Eine Puffergröße von 1 führt beispielsweise dazu, dass 3 Sätze (aktueller, vorheriger und nächster Satz) kombiniert und eingebettet werden. Dieser Parameter kann beeinflussen, wie viel Text gleichzeitig untersucht wird, um die Grenzen der einzelnen Blöcke zu bestimmen, was sich auf die Granularität und Kohärenz der resultierenden Blöcke auswirkt. Eine größere Puffergröße erfasst möglicherweise mehr Kontext, kann aber auch zu Rauschen führen, während bei einer kleineren Puffergröße möglicherweise wichtiger Kontext übersehen wird, aber ein genaueres Chunking gewährleistet wird.
+ Schwellenwert für Breakpoint-Perzentile: Der Perzentilschwellenwert eines Satzes, um Breakpoints zwischen Sätzen zu ziehen. distance/dissimilarity Ein höherer Schwellenwert erfordert, dass Sätze besser unterscheidbar sind, damit sie in verschiedene Blöcke aufgeteilt werden können. Ein höherer Schwellenwert führt zu weniger Blöcken und in der Regel zu einer größeren durchschnittlichen Blockgröße.
**Anmerkung**  
Die Verwendung von semantischem Chunking ist mit zusätzlichen Kosten verbunden, da dabei ein Basismodell verwendet wird. Die Kosten hängen von der Datenmenge ab, die Sie verarbeiten. Weitere Informationen zu den Kosten von Basismodellen finden Sie unter [Amazon Bedrock – Preise](https://aws.amazon.com/bedrock/pricing/).

## Multimodales Chunking von Inhalten
<a name="kb-multimodal-chunking"></a>

Bei multimodalen Inhalten (Audio, Video, Bilder) unterscheidet sich das Chunking-Verhalten von Textdokumenten:
+ **Multimodale Nova-Einbettungen:** Das Chunking erfolgt auf der Ebene des Einbettungsmodells. Sie können die Dauer von Audio- und Video-Chunks zwischen 1 und 30 Sekunden konfigurieren (Standard: 5 Sekunden). Für Videodateien gilt nur die Dauer des Videoabschnitts, auch wenn das Video Audio enthält. Die Dauer von Audioabschnitten gilt nur für eigenständige Audiodateien.
+ **Bedrock Data Automation (BDA) -Parser:** Der Inhalt wird zuerst in Text umgewandelt (Transkripte und Szenenzusammenfassungen), dann werden Standardstrategien für das Aufteilen von Text auf den konvertierten Text angewendet.

**Anmerkung**  
Wenn Sie multimodale Nova-Einbettungen verwenden, wirken sich die in Ihrer Wissensdatenbank konfigurierten Textbruchstrategien nur auf Textdokumente in Ihrer Datenquelle aus, nicht auf Audio-, Video- oder Bilddateien.

# Parsing-Optionen für Ihre Datenquelle
<a name="kb-advanced-parsing"></a>

Parsing bezieht sich auf das Verständnis und die Extraktion von Inhalten aus Rohdaten. Wissensdatenbanken für Amazon Bedrock bietet die folgenden Optionen zum Parsen Ihrer Datenquelle während der Aufnahme:
+ **Standard-Parser für Amazon Bedrock** – Parst ausschließlich Text in Textdateien, einschließlich .txt-, .md-, .html-, .doc/.docx-, .xls/.xlsx- und .pdf-Dateien. Für diesen Parser fallen keine Nutzungsgebühren an.
**Anmerkung**  
Da der Standardparser nur Text ausgibt, empfehlen wir, Amazon Bedrock Data Automation oder ein Basismodell anstelle des Standardparsers zu verwenden, wenn Ihre Dokumente Abbildungen, Diagramme, Tabellen oder Bilder enthalten. Amazon Bedrock Data Automation und Basismodelle können diese Elemente aus Ihren Dokumenten extrahieren und als Ausgabe zurückgeben.
+ Wissensdatenbanken für Amazon Bedrock bietet die folgenden Parser zum Analysieren multimodaler Daten, einschließlich Abbildungen, Diagramme und Tabellen in PDF-Dateien, sowie für JPEG- und PNG-Bilddateien. Diese Parser können diese Abbildungen, Diagramme, Tabellen und Bilder auch extrahieren und als Dateien in einem S3-Ziel speichern, das Sie bei der Erstellung der Wissensdatenbank angeben. Beim Abrufen der Wissensdatenbank können diese Dateien in der Antwort oder in der Quellenangabe zurückgegeben werden.
  + **Amazon Bedrock Data Automation –** Ein vollständig verwalteter Service, der multimodale Daten effektiv verarbeitet, ohne dass zusätzliche Prompts erforderlich werden. Die Kosten für diesen Parser hängen von der Anzahl der Seiten im Dokument oder der Anzahl der zu verarbeitenden Bilder ab. Weitere Informationen zu diesem Service finden Sie unter [Amazon Bedrock Data Automation](bda.md).
  + **Basismodelle** – Verarbeitet multimodale Daten unter Verwendung eines Basismodells. Dieser Parser bietet Ihnen die Möglichkeit, den für die Datenextraktion verwendeten Standardprompt anzupassen. Die Kosten für diesen Parser hängen von der Anzahl der Eingabe- und Ausgabetoken ab, die vom Basismodell verarbeitet werden. Eine Liste der Modelle, die das Parsen von Daten in Wissensdatenbanken für Amazon Bedrock unterstützen, finden Sie unter [Unterstützte Modelle und Regionen für die Analyse](knowledge-base-supported.md#knowledge-base-supported-parsing).

**Wichtig**  
Wenn Sie Amazon Bedrock Data Automation oder Basismodelle als Parser wählen, wird die von Ihnen gewählte Methode verwendet, um alle PDF-Dateien in Ihrer Datenquelle zu analysieren, auch wenn die PDF-Dateien nur Text enthalten. Der Standard-Parser wird nicht verwendet, um diese PDF-Dateien zu analysieren. Für Ihr Konto fallen Gebühren für die Nutzung von Amazon Bedrock Data Automation oder des Basismodells an, wenn diese Dateien analysiert werden.

Berücksichtigen Sie Folgendes bei der Auswahl Ihrer Parsing-Methode für die Datenanalyse:
+ Ob es sich bei Ihren Daten um reine Textdaten handelt oder ob sie multimodale Daten wie Bilder, Grafiken und Diagramme enthalten, die von der Wissensdatenbank abgefragt werden sollen.
+ Ob die Option den Prompt anpassen soll, mit dem das Modell angewiesen wird, wie Ihre Daten analysiert werden sollen.
+ Die Kosten für den Parser. Amazon Bedrock Data Automation verwendet einen Pro-Seite-Preis während der Basismodell-Parser Gebühren auf Grundlage von Eingabe- und Ausgabetoken berechnet. Weitere Informationen finden Sie unter [Amazon Bedrock – Preise](https://aws.amazon.com/bedrock/pricing/).
+ Die Gesamtdateigrößenbeschränkung. Wenn Sie Foundation-Modelle als Parser verwenden, darf die Gesamtdateigröße aller Dateien nicht größer als 100 GB sein.

Um zu erfahren, wie Ihre Wissensbasis geparst wird, sehen Sie sich die Verbindungskonfiguration für Ihre Datenquelle in [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md) an.

# So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden
<a name="kb-custom-transformation"></a>

Sie haben die Möglichkeit, eine benutzerdefinierte Transformations-Lambda-Funktion zu definieren, um Ihre eigene Logik in den Aufnahmeprozess der Wissensdatenbank einzubringen.

Möglicherweise verfügen Sie über eine spezifische Chunking-Logik, die von Wissensdatenbanken in Amazon Bedrock nicht nativ unterstützt wird. Verwenden Sie die Strategieoption „Kein Chunking“ und geben Sie gleichzeitig eine Lambda-Funktion an, die Ihre Chunking-Logik enthält. Darüber hinaus müssen Sie einen Amazon-S3-Bucket für die Wissensdatenbank angeben, um Dateien zu schreiben, die von Ihrer Lambda-Funktion in Blöcke aufgeteilt werden sollen.

Nach dem Chunking schreibt Ihre Lambda-Funktion die aufgeteilten Dateien in denselben Bucket zurück und gibt Referenzen für die Wissensdatenbank zur weiteren Verarbeitung zurück. Sie haben optional die Möglichkeit, Ihren eigenen AWS KMS-Schlüssel für die Verschlüsselung von Dateien bereitzustellen, die in Ihrem S3-Bucket gespeichert sind.

**Anmerkung**  
Wenn Web-Connectors verwendet werden, wird anstelle von HTML ein Markdown-Text an Lambda übergeben.

Alternativ können Sie Metadaten auf Blockebene angeben, während die Wissensdatenbank eine der nativ unterstützten Chunking-Strategien anwendet. Wählen Sie in diesem Fall eine der vordefinierten Chunking-Strategien (z. B. Standard-Chunking oder Chunking mit fester Größe) aus und geben Sie gleichzeitig einen Verweis auf Ihre Lambda-Funktion und Ihren S3-Bucket an. In diesem Fall speichert die Wissensdatenbank geparste und vorab aufgeteilte Dateien im vordefinierten S3-Bucket, bevor Ihre Lambda-Funktion aufgerufen wird, um weitere Metadaten auf Blockebene hinzuzufügen.

Nach dem Hinzufügen von Metadaten auf Blockebene schreibt Ihre Lambda-Funktion aufgeteilte Dateien in denselben Bucket zurück und gibt Referenzen für die Wissensdatenbank zur weiteren Verarbeitung zurück. Bitte beachten Sie, dass Metadaten auf Blockebene Vorrang haben und Metadaten auf Dateiebene im Falle von Kollisionen überschreiben.

Ein Beispiel für die Verwendung einer Python-Lambda-Funktion für benutzerdefiniertes Chunking finden Sie unter [Benutzerdefiniertes Chunking mit Lambda-Funktion](https://github.com/aws-samples/amazon-bedrock-samples/blob/main/rag/knowledge-bases/features-examples/03-optimizing-accuracy-retrieved-results/advanced_chunking_options.ipynb).

API- und Dateiverträge finden Sie in den folgenden Strukturen:

**API-Vertrag beim Hinzufügen einer benutzerdefinierten Transformation mithilfe der Lambda-Funktion**

```
{
...
    "vectorIngestionConfiguration": {
        "customTransformationConfiguration": { // Custom transformation 
            "intermediateStorage": {
                "s3Location": { // the location where input/output of the Lambda is expected 
                    "uri": "string"
                }
            },
            "transformations": [{
                "transformationFunction": {
                    "transformationLambdaConfiguration": {
                        "lambdaArn": "string"
                    }
                },
                "stepToApply": "string" // enum of POST_CHUNKING
            }]
        },
        "chunkingConfiguration": {
            "chunkingStrategy": "string",
            "fixedSizeChunkingConfiguration": {
                "maxTokens": "number",
                "overlapPercentage": "number"
            }
            ...
        }
    }
}
```

**Benutzerdefiniertes Eingabeformat für die Lambda-Transformation**

```
{
    "version": "1.0",
    "knowledgeBaseId": "string",
    "dataSourceId": "string",
    "ingestionJobId": "string",
    "bucketName": "string",
    "priorTask": "string",
    "inputFiles": [{
        "originalFileLocation": {
            "type": "S3",
            "s3_location": {
                "uri": "string"
            }
        },
        "fileMetadata": {
            "key1": "value1",
            "key2": "value2"
        },
        "contentBatches": [{
            "key":"string"
        }]
    }]
}
```

**Benutzerdefiniertes Ausgabeformat für die Lambda-Transformation**

```
{
    "outputFiles": [{
        "originalFileLocation": {
            "type": "S3",
            "s3_location": {
                "uri": "string"
            }
        },
        "fileMetadata": {
            "key1": "value1",
            "key2": "value2"
        },
        "contentBatches": [{
            "key": "string"
        }]
    }]
}
```

**Dateiformat für Objekte, auf die in `fileContents` verwiesen wird**

```
{
    "fileContents": [{
        "contentBody": "...",
        "contentType": "string", // enum of TEXT, PDF, ...
        "contentMetadata": {
            "key1": "value1",
            "key2": "value2"
        }
    }
    ...
    ]
}
```

# So fügen Sie Metadaten in eine Datenquelle ein, um die Wissensdatenbankabfrage zu verbessern
<a name="kb-metadata"></a>

Wenn Sie CSV-Dateien (durch Kommas getrennte Werte) aufnehmen, können Sie festlegen, dass die Wissensdatenbank bestimmte Spalten als Inhaltsfelder und nicht als Metadatenfelder behandelt. Anstatt möglicherweise Hunderte oder Tausende von Content-/Metadaten-Dateipaaren zu haben, können Sie jetzt eine einzelne CSV-Datei und eine zugehörige metadata.json-Datei verwenden, die der Wissensdatenbank Hinweise darauf gibt, wie jede Spalte in Ihrer CSV behandelt werden soll.

Es gibt Einschränkungen für Metadatenfelder/-attribute von Dokumenten pro Datenblock. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

Bevor Sie eine CSV-Datei aufnehmen, stellen Sie Folgendes sicher:
+ Ihre CSV-Datei hat das RFC4180-Format und ist UTF-8-codiert.
+ Die erste Zeile Ihrer CSV-Datei enthält Header-Informationen.
+ Die in Ihrer Datei metadata.json bereitgestellten Metadatenfelder sind in Ihrer CSV-Datei als Spalten vorhanden.
+ Sie stellen eine Datei fileName.csv.metadata.json mit dem folgenden Format bereit:

  ```
  {
      "metadataAttributes": {
          "${attribute1}": "${value1}",
          "${attribute2}": "${value2}",
          ...
      },
      "documentStructureConfiguration": {
          "type": "RECORD_BASED_STRUCTURE_METADATA",
          "recordBasedStructureMetadata": {
              "contentFields": [
                  {
                      "fieldName": "string"
                  }
              ],
              "metadataFieldsSpecification": {
                  "fieldsToInclude": [
                      {
                          "fieldName": "string"
                      }
                  ],
                  "fieldsToExclude": [
                      {
                          "fieldName": "string"
                      }
                  ]
              }
          }
      }
  }
  ```

Die CSV-Datei wird zeilenweise analysiert, und die Chunking-Strategie und die Vektoreinbettung werden auf das Inhaltsfeld angewendet. Die Wissensdatenbanken in Amazon Bedrock unterstützen aktuell ein Inhaltsfeld. Das Inhaltsfeld ist in Abschnitte aufgeteilt, und die Metadatenfelder (Spalten), die jedem Abschnitt zugeordnet sind, werden als Zeichenfolgenwerte behandelt.

Nehmen wir zum Beispiel an, es gibt eine CSV-Datei mit einer Spalte „Description“ und einer Spalte „Creation\$1Date“. Das Beschreibungsfeld ist das Inhaltsfeld und das Erstellungsdatum ist ein zugeordnetes Metadatenfeld. Der Beschreibungstext wird in Abschnitte aufgeteilt und für jede Zeile in der CSV-Datei in Vektoreinbettungen umgewandelt. Der Wert für das Erstellungsdatum wird als Zeichenfolgendarstellung des Datums behandelt und den einzelnen Abschnitten für die Beschreibung zugeordnet.

Wenn keine Einschluss-/Ausschlussfelder angegeben werden, werden alle Spalten mit Ausnahme der Inhaltsspalte als Metadatenspalten behandelt. Wenn nur Einschlussfelder angegeben werden, werden nur die angegebenen Spalten als Metadaten behandelt. Wenn nur Ausschlussfelder angegeben werden, werden alle Spalten mit Ausnahme der Ausschlussspalten als Metadaten behandelt. Wenn Sie denselben `fieldName` in `fieldsToInclude` und `fieldsToExclude` angeben, löst Amazon Bedrock eine Validierungsausnahme aus. Wenn es einen Konflikt zwischen Einschluss und Ausschluss gibt, schlägt der Prozess fehl.

Leere Zeilen in einer CSV-Datei werden ignoriert oder übersprungen.

# Unterstützte Modelle und Regionen für Amazon-Bedrock-Wissensdatenbanken
<a name="knowledge-base-supported"></a>

Amazon Bedrock Knowledge Bases unterstützt Abfragen mit den folgenden Basismodellen:


| Anbieter | Modell | Modell-ID | Unterstützung von Modellen für einzelne Regionen | Unterstützung für regionsübergreifende Inferenzprofile | 
| --- | --- | --- | --- | --- | 
| AI21 Labore | Jamba 1.5 Large | ai21.jamba-1-5-large-v1:0 |  us-east-1  |  | 
| AI21 Labore | Jamba 1.5 Mini | ai21.jamba-1-5-mini-v1:0 |  us-east-1  |  | 
| Amazon | Nova Lite | Amazon. nova-lite-v1:0 |  ap-northeast-1 ap-southeast-2 eu-north-1 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Amazon | Nova Micro | Amazonas. nova-micro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Amazon | Nova Pro | Amazonas. nova-pro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-gov-west-1 us-west-2  |  eu-central-1 us-east-2 us-gov-east-1  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-Sonett 20240229-v 1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1  | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  |  us-east-1 us-east-2  | 
| Anthropic | Claude 3.5 Sonett | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1 eu-central-2 us-east-1 us-gov-west-1 us-west-2  |  ap-south-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-gov-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 us-east-1 us-east-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 |  eu-west-2 us-gov-west-1  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-gov-east-1 us-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  |  us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | 
| Anthropic | Claude Sonett 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | – |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-2  | 
| Cohere | Command R | zusammenhalten. command-r-v1:0 |  us-east-1 us-west-2  |  | 
| Cohere | Command R\$1 | kohärent. command-r-plus-v1:0 |  us-east-1 us-west-2  |  | 
| DeepSeek | DeepSeek-R 1 | deepseek.r1-v1:0 |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3 70B Instruct | meta.llama 3-70 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-gov-west-1 us-west-2  |  | 
| Meta | Llama 3 8B Instruct | meta.llama 3-8 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-gov-west-1 us-west-2  |  | 
| Meta | Llama 3.1 405B Instruct | meta.lama3-1-405 1:0 b-instruct-v |  us-west-2  |  us-east-2  | 
| Meta | Llama 3.1 70B Instruct | meta.lama3-1-70 1:0 b-instruct-v |  us-west-2  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3,1 8B Instruct | meta.lama3-1-8 1:0 b-instruct-v |  us-west-2  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.2 11B Instruct | meta.lama3-2-11 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.2 90B Instruct | meta.lama3-2-90 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-2  | 
| Meta | Llama 3.3 70B Instruct | meta.lama3-3-70 1:0 b-instruct-v |  us-east-2  |  us-east-1 us-east-2 us-west-2  | 
| Mistral AI | Mistral Large (24.02) | mistral.mistral-large-2402-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  |  | 
| Mistral AI | Mistral Small (24.02) | mistral.mistral-small-2402-v1:0 |  us-east-1  |  | 

Amazon-Bedrock-Wissensdatenbanken unterstützen auch die Verwendung von Inferenzprofilen zum Analysieren von Daten oder beim Generieren von Antworten. Mit Inferenzprofilen können Sie Kosten und Metriken verfolgen und auch regionsübergreifende Inferenzen durchführen, um Modellinferenzanfragen auf eine Reihe von Regionen zu verteilen und so einen höheren Durchsatz zu ermöglichen. Sie können ein Inferenzprofil in einer OR-Anfrage angeben. [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) Weitere Informationen finden Sie unter [So richten Sie eine Modellaufrufressource mithilfe von Inferenzprofilen ein](inference-profiles.md).

**Wichtig**  
Wenn Sie regionsübergreifende Inferenz verwenden, können Ihre Daten regionsübergreifend gemeinsam genutzt werden.

Sie können auch SageMaker KI-Modelle oder [benutzerdefinierte Modelle](custom-models.md) verwenden, die Sie anhand Ihrer eigenen Daten trainieren.

**Anmerkung**  
Wenn Sie eine SageMaker KI oder ein benutzerdefiniertes Modell verwenden, müssen Sie die Orchestrierungs- und Generierungsaufforderungen angeben (weitere Informationen finden Sie unter **Vorlagen für Knowledgebase-Eingabeaufforderungen** unter). [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md) Ihre Prompts müssen Informationsvariablen enthalten, um auf die Eingaben und den Kontext des Benutzers zugreifen zu können.

Der Regions- und Modellsupport unterscheiden sich für einige Features in den Amazon-Bedrock-Wissensdatenbanken. Wählen Sie ein Thema aus, um den Support für ein Feature anzuzeigen:

**Topics**
+ [Unterstützte Modelle für Vektoreinbettungen](#knowledge-base-supported-embeddings)
+ [Unterstützte Modelle und Regionen für die Analyse](#knowledge-base-supported-parsing)
+ [Unterstützte Modelle und Regionen für die Neuordnung von Ergebnissen während der Abfrage](#knowledge-base-supported-rerank)
+ [Unterstützte Regionen für Wissensdatenbanken mit strukturierten Datenspeichern](#knowledge-base-supported-structured)

## Unterstützte Modelle für Vektoreinbettungen
<a name="knowledge-base-supported-embeddings"></a>

Amazon-Bedrock-Wissensdatenbanken verwenden ein Einbettungsmodell, um Ihre Daten in Vektoreinbettungen zu konvertieren und die Einbettungen in einer Vektordatenbank zu speichern. Weitere Informationen finden Sie unter [Umwandlung von Daten in eine Wissensdatenbank](kb-how-data.md).

Amazon Bedrock Knowledge Bases unterstützt Vektoreinbettungen mithilfe der folgenden Basismodelle:


| Anbieter | Modell | Modell-ID | Unterstützung von Modellen für einzelne Regionen | 
| --- | --- | --- | --- | 
| Amazon | Titan Embeddings G1 – Text | Amazon. titan-embed-text-v1 |  ap-northeast-1 eu-central-1 us-east-1 us-west-2  | 
| Amazon | Titan Text Embeddings V2 | Amazonas. titan-embed-text-v2:0 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-2  | 
| Cohere | Embed English | zusammenhalten. embed-english-v3 |  ap-northeast-1 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Cohere | Embed Multilingual | zusammenhalten. embed-multilingual-v3 |  ap-northeast-1 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 

Einbettungsmodelle unterstützen die folgenden Vektortypen.


****  

| Modellname | Unterstützter Vektortyp | Unterstützte Anzahl von Dimensionen | 
| --- | --- | --- | 
| Amazon Titan Embeddings G1 - Text | Gleitkommazahl | 1536 | 
| Amazon Titan Text Embeddings V2 | Gleitkommazahl, binär | 256, 512, 1 024 | 
| Cohere Embed (English) | Gleitkommazahl, binär | 1024 | 
| Cohere Embed (Multilingual) | Gleitkommazahl, binär | 1024 | 
| Amazon Titan Multimodal Embeddings G1 | Gleitkommazahl | 1024 | 
| Coherev3 (Multimodal) einbetten | Gleitkommazahl, binär | 1024 | 

## Unterstützte Modelle und Regionen für die Analyse
<a name="knowledge-base-supported-parsing"></a>

Bei der Konvertierung von Daten in Vektoreinbettungen haben Sie verschiedene Optionen zum Analysieren Ihrer Daten in Amazon-Bedrock-Wissensdatenbanken. Weitere Informationen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

Im Folgenden ist die Unterstützung für Analyseoptionen aufgeführt:
+ Amazon Bedrock Data Automation wird als Parser in USA West (Oregon) unterstützt. Es befindet sich in der Vorversion und unterliegt Änderungen.
+ Die folgenden Basismodellfamilien können als Parser verwendet werden:
  + Claude-Vision-Modelle
  + Nova-Vision-Modelle
  + LLama 4 Vision-Modelle

  Das Parsen von Foundation-Modellen ist in Umgebungen AWS-Region verfügbar, in denen diese Modelle direkt verfügbar sind (nicht durch regionsübergreifende Inferenz). Informationen zur aktuellen Verfügbarkeit der Modelle finden Sie unter [Unterstützte Basismodelle in Amazon Bedrock](models-supported.md).

## Unterstützte Modelle und Regionen für die Neuordnung von Ergebnissen während der Abfrage
<a name="knowledge-base-supported-rerank"></a>

Beim Abrufen von Abfrageergebnissen einer Wissensdatenbank können Sie ein Reranking-Modell verwenden, um Ergebnisse aus einer Wissensdatenbankabfrage neu zu ordnen. Weitere Informationen erhalten Sie unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) und [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md).

Eine Liste der Modelle und Regionen, die eine Neuordnung unterstützen, finden Sie unter [Unterstützte Regionen und Modelle für das Reranking in Amazon Bedrock](rerank-supported.md).

## Unterstützte Regionen für Wissensdatenbanken mit strukturierten Datenspeichern
<a name="knowledge-base-supported-structured"></a>

Wissensdatenbanken mit strukturierten Datenspeichern ermöglichen es Ihnen, Wissensdatenbanken mit strukturierten Datenspeichern zu verbinden und Abfragen in natürlicher Sprache in SQL-Abfragen umzuwandeln. Weitere Informationen finden Sie unter [So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einem strukturierten Datenspeicher auf](knowledge-base-build-structured.md).

Wissensdatenbanken mit strukturierten Datenspeichern sind in den folgenden Bereichen verfügbar: AWS-Regionen
+ Europa (Frankfurt)
+ Europa (Zürich)
+ Europa (Irland)
+ Europa (London)
+ Europa (Paris)
+ Asien-Pazifik (Tokio)
+ Asien-Pazifik (Seoul)
+ Asien-Pazifik (Mumbai)
+ Asien-Pazifik (Singapur)
+ Asien-Pazifik (Sydney)
+ Kanada (Zentral)
+ Südamerika (São Paulo)
+ USA Ost (Nord-Virginia)
+ USA Ost (Ohio)
+ USA West (Oregon)
+ AWSGovCloud (US-West)

# So chatten Sie mit Ihrem Dokument, ohne dass eine Wissensdatenbank konfiguriert ist
<a name="knowledge-base-chatdoc"></a>

Mit dem Feature **Chatten mit Ihrem Dokument** in der Amazon-Bedrock-Konsole können Sie auf einfache Weise eine Wissensdatenbank zum Testen abspielen, ohne dafür eine Wissensdatenbank konfigurieren zu müssen. Sie können ein Dokument laden oder ein Dokument per Drag-and-Drop in das Chatfenster der Konsole ziehen, um dann Fragen zu stellen. Die Funktion **Chatten mit Ihrem Dokument** verwendet Ihr Dokument, um Fragen zu beantworten, eine Analyse durchzuführen, eine Zusammenfassung zu erstellen, Felder in einer nummerierten Liste aufzulisten oder Inhalte umzuschreiben. **Chatten mit Ihrem Dokument** wird Ihr Dokument oder dessen Daten nach der Verwendung nicht speichern.

**Anmerkung**  
Das Feature **Chatten mit Ihrem Dokument** wird aktuell am besten von Anthropic-Sonnet-Modellen unterstützt. Nähere Informationen dazu, wie Sie auf Wissensdatenbankmodelle zugreifen und diese nutzen, finden Sie unter [Unterstützte Modelle für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html).  
Sie können kein Reranker-Modell verwenden, wenn Sie mit Ihrem Dokument chatten.

Sie können auch problemlos einen Prototyp einer Chat- oder Flow-Anwendung erstellen, ohne eine Wissensdatenbank konfigurieren zu müssen. Mit [Amazon Bedrock Studio](https://docs.aws.amazon.com/bedrock/latest/userguide/br-studio.html) können Sie ein Dokument von Ihrem Computer hochladen, um die Daten oder die Datenquelle für Ihre Anwendung bereitzustellen. Amazon Bedrock Studio, umbenannt in Amazon Bedrock IDE, ist ab sofort in Amazon SageMaker Unified Studio verfügbar. Weitere Informationen finden Sie unter [Amazon Bedrock IDE](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/bedrock.html).

Wählen Sie die Registerkarte unten aus und folgen Sie den Schritten, um das Feature **Chatten mit Ihrem Dokument** als Teil von Wissensdatenbanken zu verwenden.

------
#### [ Console ]

**So chatten Sie mit Ihrem Dokument in Amazon Bedrock:**

1. Öffnen Sie die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Klicken Sie im linken Navigationsbereich auf **Wissensdatenbank** und dann auf **Chatten mit Ihrem Dokument**.

1. Klicken Sie auf der Registerkarte **Chatten mit Ihrem Dokument** unter **Modell** auf **Modell auswählen**.

1. Wählen Sie das Modell aus, das Sie für die Dokumentenanalyse verwenden möchten, und klicken Sie auf **Anwenden**.

1. Geben Sie auf der Registerkarte **Chatten mit Ihrem Dokument** einen System-Prompt ein.

1. Wählen Sie unter **Daten** **Ihr Computer** oder **S3** aus.

1. Wählen Sie **Dokument auswählen** aus, um Ihr Dokument hochzuladen. Sie können das Dokument auch per Drag-and-Drop in die Chat-Konsole in das Feld **Anfrage schreiben** ziehen.
**Anmerkung**  
Dateitypen: PDF, MD, TXT, DOC, DOCX, HTML, CSV, XLS, XLSX. Es gibt ein voreingestelltes festes Token-Limit, wenn Sie eine Datei unter 10 MB verwenden. Eine textlastige Datei, die kleiner als 10 MB ist, kann möglicherweise das Token-Limit überschreiten.

1. Geben Sie einen benutzerdefinierten Prompt in das Feld **Abfrage schreiben** ein. Sie können einen benutzerdefinierten Prompt eingeben oder den Standard-Prompt verwenden. Das geladene Dokument und der Prompt erscheinen unten im Chatfenster.

1. Klicken Sie auf **Ausführen**. In der Antwort werden Suchergebnisse mit der Option **Quellblöcke anzeigen**, in denen die Quellinformationen für die Antwort angezeigt werden.

1. Um eine neue Datei zu laden, Klicken Sie auf das X, um die aktuell im Chatfenster geladene Datei zu löschen, und ziehen Sie sie per Drag-and-Drop eine neue Datei in das Fenster, um diese zu laden. Geben Sie einen neuen Prompt ein und klicken Sie auf **Ausführen**.
**Anmerkung**  
Das Auswählen einer neuen Datei löscht die vorherigen Anfragen und Antworten und startet eine neue Sitzung.

------

# Einrichten von Berechtigungen für einen Benutzer oder eine Rolle zum Erstellen und Verwalten von Wissensdatenbanken
<a name="knowledge-base-prereq-permissions-general"></a>

Damit ein Benutzer oder eine Rolle Aktionen im Zusammenhang mit Wissensdatenbanken für Amazon Bedrock ausführen kann, müssen Sie diesem Benutzer oder dieser Rolle Richtlinien anfügen, die Berechtigungen zur Durchführung der Aktionen gewähren. Es werden Berechtigungen beschrieben, die es einem Benutzer erlauben, Informationen aus diesen Wissensdatenbanken abzurufen und Antworten daraus zu generieren.

Erweitern Sie die folgenden Abschnitte, um zu erfahren, wie Sie Berechtigungen für bestimmte Anwendungsfälle einrichten:

## Zulassen, dass eine Rolle Wissensdatenbanken erstellt und diese verwaltet
<a name="w2aac28c10c21b7b1"></a>

Damit eine IAM-Rolle eine Wissensdatenbank erstellen, sie mit einem strukturierten Datenspeicher verbinden, die Wissensdatenbank verwalten und Erfassungsaufträge von der Datenquelle bis zur Wissensdatenbank starten und verwalten kann, müssen Sie Berechtigungen für die Aktionen `KnowledgeBase`, `DataSource` und `IngestionJob` bereitstellen. Wenn Sie Berechtigungen für das Markieren von Wissensdatenbanken bereitstellen möchten, müssen Sie auch Berechtigungen für die Aktionen `bedrock:TagResource` und `bedrock:UntagResource` angeben. 

**Anmerkung**  
Wenn dem Benutzer oder der Rolle die [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess) AWS verwaltete Richtlinie angehängt ist, können Sie diese Voraussetzung überspringen.

Damit eine Rolle diese Aktionen ausführen kann, fügen Sie der Rolle die folgende Richtlinie an:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "CreateKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:CreateKnowledgeBase"
            ],
            "Resource": "*"
        },
        {
            "Sid": "KBDataSourceManagement",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase",
                "bedrock:ListKnowledgeBases",
                "bedrock:UpdateKnowledgeBase",
                "bedrock:DeleteKnowledgeBase",
                "bedrock:StartIngestionJob",
                "bedrock:GetIngestionJob",
                "bedrock:ListIngestionJobs",
                "bedrock:StopIngestionJob",
                "bedrock:TagResource",
                "bedrock:UntagResource"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/*"
            ]
        }
    ]
}
```

------

Nachdem Sie eine Wissensdatenbank erstellt haben, empfehlen wir, die Berechtigungen in der `KBDataSourceManagement` Anweisung nach unten zu beschränken, indem Sie den Platzhalter (*\$1*) durch die ID der Wissensdatenbank ersetzen, die Sie erstellt haben.

## Zulassen, dass eine Rolle die API-Operationen der Wissensdatenbank ausführt
<a name="w2aac28c10c21b7b3"></a>

In diesem Abschnitt werden die Berechtigungen beschrieben, die Sie für die Ausführung der API-Operationen `Retrieve` und `RetrieveAndGenerate` für Wissensdatenbanken benötigen.

Fügen Sie der Rolle die folgende Richtlinie hinzu:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        },
        {
            "Sid": "Retrieve",
            "Effect": "Allow",
            "Action": [
                "bedrock:Retrieve"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        },
        {
            "Sid": "RetrieveAndGenerate",
            "Effect": "Allow",
            "Action": [
                "bedrock:RetrieveAndGenerate"
            ],
            "Resource": [
                "*"
            ]
        }
    ]
}
```

------

Sie können Anweisungen entfernen, die Sie je nach Anwendungsfall nicht benötigen:
+ Die Anweisung `GetKB` wird verwendet, um die Wissensdatenbankinformationen abzurufen.
+ Die Anweisung `Retrieve` muss [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) aufrufen, um Daten aus Ihrem strukturierten Datenspeicher abzurufen.
+ Die Anweisung `RetrieveAndGenerate` muss [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) aufrufen, um Daten aus Ihrem Datenspeicher abzurufen und Antworten basierend auf den Daten zu generieren.

## Beantragen Sie Zugriff auf Basismodelle für RetrieveAndGenerate
<a name="knowledge-base-prereq-structured-model-access"></a>

Wenn Sie beabsichtigen, Antworten mit [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) auf der Grundlage von abgerufenen Daten aus Ihrer Datenquelle zu generieren, fordern Sie Zugriff auf die Basismodelle an, die Sie für die Generierung verwenden möchten. Folgen Sie dazu den Schritten unter [Zugriff auf Amazon-Bedrock-Basismodelle](model-access.md).

Wenn Sie Berechtigungen weiter einschränken möchten, können Sie Aktionen weglassen oder Ressourcen und Bedingungsschlüssel angeben, nach denen Berechtigungen gefiltert werden sollen. Weitere Informationen über Aktionen, Ressourcen und Bedingungsschlüssel finden Sie in den folgenden Themen in der *Referenz zur Serviceautorisierung*:
+ [Von Amazon Bedrock definierte Aktionen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) – Erfahren Sie mehr über Aktionen, die Ressourcentypen, auf die Sie diese im `Resource`-Feld beschränken können, und die Bedingungsschlüssel, nach denen Sie Berechtigungen im `Condition`-Feld filtern können.
+ [Von Amazon Bedrock definierte Ressourcentypen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) – Erfahren Sie mehr über die Ressourcentypen in Amazon Bedrock.
+ [Zustandsschlüssel für Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) – Erfahren Sie mehr über die Zustandsschlüssel in Amazon Bedrock.

# So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einer Datenquelle auf
<a name="knowledge-base-build"></a>

Wissensdatenbanken für Amazon Bedrock unterstützt eine Vielzahl von Dateitypen, die in Datenquellen gespeichert sind. Wissensdatenbanken für Amazon Bedrock benötigt eine Konvertierung der Daten in Vektoreinbettungen, also eine numerische Darstellung der Daten, um die Daten aus einer Datenquelle zu interpretieren. Diese Einbettungen können mit den Vektordarstellungen einer Abfrage verglichen werden, um die Ähnlichkeit zu beurteilen und zu bestimmen, welche Quellen beim Datenabruf zurückgegeben werden sollen.

Das Verbinden Ihrer Wissensdatenbank mit einer Datenquelle umfasst die folgenden allgemeinen Schritte:

1. Verbinden Sie die Wissensdatenbank mit einer unterstützten Datenquelle.

1. Wenn Ihre Datenquelle multimodale Daten enthält, einschließlich Bilder, Audio- und Videodateien, müssen Sie einen geeigneten Verarbeitungsansatz und ein Einbettungsmodell wählen, das multimodale Inhalte unterstützt.
**Anmerkung**  
Multimodale Daten werden nur von Amazon S3 und benutzerdefinierten Datenquellen unterstützt. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

1. Wählen Sie ein Einbettungsmodell, um die Daten in der Datenquelle in Vektoreinbettungen zu konvertieren.

1. Wählen Sie einen Vektorspeicher, um die Vektordarstellung Ihrer Daten zu speichern.

1. Synchronisieren Sie Ihre Daten, sodass sie in Vektoreinbettungen konvertiert werden.

1. Sollten die Daten in der Datenquelle geändert werden, müssen Sie die Änderungen erneut synchronisieren.

**Topics**
+ [Voraussetzungen für die Erstellung einer Amazon Bedrock-Wissensdatenbank mit einer unstrukturierten Datenquelle](knowledge-base-prereq.md)
+ [Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sind](kb-osm-permissions-prereq.md)
+ [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md)
+ [Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank](kb-data-source-sync-ingest.md)
+ [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md)
+ [So zeigen Sie Informationen zur Datenquelle Ihrer Amazon-Bedrock-Wissensdatenbank an](kb-ds-info.md)
+ [Ändern einer Datenquelle für Ihre Amazon-Bedrock-Wissensdatenbank](kb-ds-update.md)
+ [So löschen Sie eine Datenquelle aus Ihrer Amazon-Bedrock-Wissensdatenbank](kb-ds-delete.md)

# Voraussetzungen für die Erstellung einer Amazon Bedrock-Wissensdatenbank mit einer unstrukturierten Datenquelle
<a name="knowledge-base-prereq"></a>

Amazon Bedrock-Wissensdatenbanken benötigen Daten und Modelle zum Abrufen und Generieren von Antworten, einen Vektorspeicher zum Speichern der Vektordarstellung der Daten sowie AWS Identity and Access Management Berechtigungen für den Zugriff auf Ihre Daten und die Ausführung von Aktionen.

Bevor Sie eine Wissensdatenbank erstellen können, müssen Sie die folgenden Voraussetzungen erfüllen. Allgemeine Berechtigungsanforderungen finden Sie unter [Einrichten von Berechtigungen für einen Benutzer oder eine Rolle zum Erstellen und Verwalten von Wissensdatenbanken](knowledge-base-prereq-permissions-general.md).

1. Stellen Sie sicher, dass sich Ihre Daten in einem [unterstützten Datenquellen-Connector](data-source-connectors.md) befinden.

1. (Optional) [Richten Sie einen eigenen unterstützten Vektorspeicher ein](knowledge-base-setup.md). Sie können diesen Schritt überspringen, wenn Sie den verwenden möchten AWS-Managementkonsole , um automatisch einen Vektorspeicher für Sie zu erstellen.

1. (Optional) Erstellen Sie eine benutzerdefinierte AWS Identity and Access Management (IAM) [-Servicerolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) mit den entsprechenden Berechtigungen, indem Sie den Anweisungen unter [Erstellen einer Servicerolle für Wissensdatenbanken für Amazon Bedrock](kb-permissions.md) folgen. Sie können die AWS-Managementkonsole zum automatischen Erstellen einer Servicerolle verwenden.
**Anmerkung**  
Wenn Sie mit Amazon OpenSearch Service (einschließlich Amazon OpenSearch Serverless) eine Wissensdatenbank erstellen, sind für die Servicerolle zusätzliche Berechtigungen erforderlich, die über die von AWS verwalteten Richtlinien hinausgehen. BedrockFullAccess Dazu gehören die Berechtigungen `aoss:CreateAccessPolicy`, `iam:CreateServiceLinkedRole` und `iam:CreateRole`.

1. (Optional) Richten Sie zusätzliche Sicherheitskonfigurationen ein, indem Sie die Schritte unter [Verschlüsselung von Wissensdatenbankressourcen](encryption-kb.md) befolgen.

1. (Optional) Wenn Sie die API-Operation [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) verwenden möchten, um Antworten auf der Grundlage von Informationen aus Ihrer Wissensdatenbank zu generieren, fordern Sie Zugriff auf die Modelle an, die Sie in den entsprechenden Regionen verwenden werden, indem Sie die Schritte unter [Zugriff auf Amazon-Bedrock-Basismodelle](model-access.md) befolgen.

**Topics**
+ [Voraussetzungen für Ihre Amazon-Bedrock-Wissensdatenbankdaten](knowledge-base-ds.md)
+ [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md)

# Voraussetzungen für Ihre Amazon-Bedrock-Wissensdatenbankdaten
<a name="knowledge-base-ds"></a>

Eine Datenquelle enthält Dateien oder Inhalte mit Informationen, die bei einer Abfrage Ihrer Wissensdatenbank abgerufen werden können. Ihre Dokumente oder Inhalte müssen in mindestens einer der [unterstützten Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html) gespeichert werden.

## Unterstützte Dokumentformate und Einschränkungen für Wissensdatenbankdaten
<a name="kb-ds-supported-doc-formats-limits"></a>

Wenn Sie eine Verbindung zu einer [unterstützten Datenquelle](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html) herstellen, wird der Inhalt in Ihre Wissensdatenbank aufgenommen.

Wenn Sie Amazon S3 zum Speichern Ihrer Dateien verwenden oder Ihre Datenquelle angehängte Dateien enthält, müssen Sie zunächst überprüfen, ob die einzelnen Quelldokumentdateien den folgenden Anforderungen entsprechen:
+ Die Quelldateien haben die folgenden unterstützten Formate:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-ds.html)
+ Die einzelnen Dateigrößen überschreiten nicht das Kontingent von 50 MB.

Wenn Sie eine Amazon-S3-Datenquelle oder eine benutzerdefinierte Datenquelle verwenden, können Sie multimodale Daten verwenden, einschließlich Bildern im Format JPEG (.jpeg) oder PNG (.png) oder Dateien, die Tabellen, Diagramme oder andere Bilder enthalten.

**Anmerkung**  
Die maximale Größe von JPEG- und .PNG-Dateien beträgt 3,75 MB.

# Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben
<a name="knowledge-base-setup"></a>

Zum Speichern der Vektoreinbettungen, in die Ihre Dokumente konvertiert werden, verwenden Sie einen Vektorspeicher. Wissensdatenbanken für Amazon Bedrock unterstützt einen Schnellerstellungsablauf für einige Vektorspeicher. Wenn Sie Amazon Bedrock automatisch einen Vektorindex für Sie in einem dieser Vektorspeicher erstellen soll, überspringen Sie diese Voraussetzung und fahren Sie mit [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) fort.

Wenn Sie binäre Vektoreinbettungen anstelle der standardmäßigen Gleitkomma-Vektoreinbettungen (float32) speichern möchten, müssen Sie einen Vektorspeicher verwenden, der binäre Vektoren unterstützt.

**Anmerkung**  
Amazon OpenSearch Serverless und Amazon OpenSearch Managed Clusters sind die einzigen Vektorspeicher, die das Speichern von binären Vektoren unterstützen.

Sie können einen eigenen unterstützten Vektorspeicher einrichten, um die Darstellung Ihrer Daten durch Vektoreinbettungen zu indizieren. Sie erstellen Felder für die folgenden Daten:
+ Ein Feld für die Vektoren, die mit dem von Ihnen ausgewählten Einbettungsmodell aus dem Text in Ihrer Datenquelle generiert wurden
+ Ein Feld für die Textblöcke, die aus den Dateien in Ihrer Datenquelle extrahiert wurden
+ Felder für Metadaten von Quelldateien, die Amazon Bedrock verwaltet
+ (Wenn Sie eine Amazon-Aurora-Datenbank verwenden und die [Filterung nach Metadaten](kb-test-config.md) einrichten möchten) Felder für Metadaten, die Sie Ihren Quelldateien zuordnen. Wenn Sie die Filterung in anderen Vektorspeichern einrichten möchten, müssen Sie diese Felder nicht entsprechend einrichten.

Sie können Vektorspeicher von Drittanbietern mit einem KMS-Schlüssel verschlüsseln. Weitere Informationen finden Sie unter [Verschlüsselung von Wissensdatenbankressourcen](https://docs.aws.amazon.com/bedrock/latest/userguide/encryption-kb.html).

Wählen Sie die Registerkarte aus, die dem Vektorspeicherservice entspricht, mit dem Sie Ihren Vektorindex erstellen werden.

**Anmerkung**  
Ihre Wahl des Einbettungsmodells und der Vektordimensionen kann sich auf die verfügbaren Vektorspeicheroptionen auswirken. Wenn Sie Ihren bevorzugten Vektorspeicher nicht verwenden können, wählen Sie kompatible Optionen für das Einbettungsmodell und die Vektordimensionen aus.

------
#### [ Amazon OpenSearch Serverless ]

1. Um Berechtigungen zu konfigurieren und eine Vektorsuchsammlung in Amazon OpenSearch Serverless in der zu erstellen AWS-Managementkonsole, folgen Sie den Schritten 1 und 2 unter [Arbeiten mit Vektorsuchsammlungen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) im Amazon OpenSearch Service Developer Guide. Beachten Sie bei der Einrichtung Ihrer Sammlung die folgenden Überlegungen:

   1. Geben Sie der Sammlung einen Namen und eine Beschreibung Ihrer Wahl.

   1. Damit Ihre Sammlung privat bleibt, wählen Sie im Bereich **Sicherheit** die Option **Standard erstellen** aus. Wählen Sie dann im Abschnitt **Netzwerkzugriffseinstellungen** **VPC** als **Zugriffstyp** und einen VPC-Endpunkt aus. Weitere Informationen zum Einrichten eines VPC-Endpunkts für eine Amazon OpenSearch Serverless-Sammlung finden Sie unter [Zugriff auf Amazon OpenSearch Serverless über einen Schnittstellenendpunkt (AWS PrivateLink)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) im Amazon OpenSearch Service Developer Guide.

1. Notieren Sie sich nach der Erstellung der Sammlung den **Sammlungs-ARN** zum Anlegen der Wissensdatenbank.

1. Wählen Sie im linken Navigationsbereich unter **Serverless** die Option **Sammlungen** aus. Wählen Sie dann Ihre Vektorsuchsammlung aus.

1. Wechseln Sie zur Registerkarte **Indizes**. Wählen Sie dann **Vektorindex erstellen** aus.

1. Geben Sie im Abschnitt **Details zum Vektorindex** im Feld **Vektor-Indexname** einen Namen für Ihren Index ein.

1. Wählen Sie im Abschnitt **Vektorfelder** die Option **Vektorfeld hinzufügen** aus. Amazon Bedrock speichert die Vektoreinbettungen für Ihre Datenquelle in diesem Feld. Stellen Sie die folgenden Konfigurationen bereit:
   + **Vektorfeldname** – Geben Sie einen Namen für das Feld ein (z. B. **embeddings**).
   + **Engine** – Dies ist die Vektor-Engine, die für die Suche verwendet wird. Wählen Sie **faiss** aus.
   + **Dimensionen** – Die Anzahl der Dimensionen im Vektor. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + **Entfernungsmetrik** – Die Metrik, die verwendet wird, um die Ähnlichkeit zwischen Vektoren zu messen. Wir empfehlen, **Euklidisch** für Gleitkomma-Vektoreinbettungen zu verwenden.

1. Erweitern Sie den Abschnitt **Verwaltung von Metadaten** und fügen Sie zwei Felder hinzu, um den Vektorindex so zu konfigurieren, dass zusätzliche Metadaten gespeichert werden, die von einer Wissensdatenbank mit Vektoren abgerufen werden können. In der folgenden Tabelle werden die Felder und Werte beschrieben, die für jedes Feld angegeben werden müssen:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

1. Notieren Sie sich die Namen, die Sie für den Vektorindex, das Vektorfeld und die Zuordnungsfelder für die Metadatenverwaltung ausgewählt haben, um später Ihre Wissensdatenbank zu erstellen. Wählen Sie die Option **Erstellen** aus.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Sammlungs-ARN | Sammlungs-ARN | collectionARN | Der Amazon-Ressourcenname (ARN) der Vektorsuchsammlung | 
| Vektor-Indexname | Vektor-Indexname | vectorIndexName | Der Name des Vektorindex | 
| Vektorfeldname | Vektorfeld | vectorField | Der Name des Feldes, in dem Vektoreinbettungen für Ihre Datenquellen gespeichert werden sollen | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeld | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet  | 

Eine ausführlichere Dokumentation zur Einrichtung eines Vektorspeichers in Amazon OpenSearch Serverless finden Sie unter [Arbeiten mit Vektorsuchsammlungen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vector-search.html) im Amazon OpenSearch Service Developer Guide.

------
#### [ Amazon OpenSearch Service Managed Clusters ]

**Wichtig**  
Bevor Sie Domain-Ressourcen in OpenSearch verwalteten Clustern verwenden können, müssen Sie bestimmte IAM-Zugriffsberechtigungen und -richtlinien konfigurieren. Weitere Informationen finden Sie unter [Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sindÜberblick über die Berechtigungskonfiguration](kb-osm-permissions-prereq.md).
Wenn bei der Datenaufnahme Fehler auftreten, deutet dies möglicherweise auf eine unzureichende OpenSearch Domänenkapazität hin. Zur Behebung dieses Problems erhöhen Sie die Kapazität Ihrer Domain, indem Sie höhere IOPS bereitstellen und die Durchsatzeinstellungen anpassen. Weitere Informationen finden Sie unter [Best Practices für den Betrieb von Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

1. Um einen Domain- und Vektorindex in OpenSearch Cluster in the zu erstellen AWS-Managementkonsole, folgen Sie den Schritten, die unter [ OpenSearch Service-Domains erstellen und verwalten](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) im *Amazon OpenSearch Service Developer Guide* beschrieben sind.

   Beachten Sie bei der Einrichtung Ihrer Domain die folgenden Überlegungen:

   1. Geben Sie der Domain einen Namen Ihrer Wahl.

   1. Wir empfehlen Ihnen, die Option **Einfach erstellen** zu verwenden, um schnell mit der Erstellung Ihrer Domain zu beginnen.
**Anmerkung**  
Mit dieser Option erhalten Sie eine Domain mit geringem Durchsatz. Wenn Sie größere Workloads haben, die einen höheren Durchsatz erfordern, wählen Sie die Option **Standard erstellen** aus. Sie können die Kapazität später nach Bedarf anpassen. Mit dieser Option können Sie mit der niedrigsten Kapazität beginnen und diese dann später nach Bedarf ändern.

   1. Für Netzwerk müssen Sie **Öffentlicher Zugriff** wählen. OpenSearch Domänen, die sich hinter einer VPC befinden, werden von Ihrer Knowledge Base nicht unterstützt.

   1. **Version**: Wenn Sie binäre Vektoreinbettungen verwenden, benötigt Wissensdatenbanken für Amazon Bedrock eine Engine-Version 2.16 oder höher. Darüber hinaus ist eine Version 2.13 oder höher erforderlich, um einen k-nn-Index zu erstellen. Weitere Informationen finden Sie unter [K-NN Search](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/knn.html) im *Amazon OpenSearch Service Developer Guide*.

   1. Wir empfehlen, den **Dual-Stack-Modus** zu verwenden.

   1. Wir empfehlen Ihnen, eine **differenzierte Zugriffskontrolle** zu aktivieren, um die Daten in Ihrer Domain zu schützen und die Berechtigungen, die Ihrer Knowledge-Base-Servicerolle Zugriff auf die OpenSearch Domain und das Stellen von Anfragen gewähren, weiter zu kontrollieren.

   1. Übernehmen Sie für alle anderen Einstellungen die Standardwerte und wählen Sie **Erstellen** aus, um Ihre Domain zu erstellen.

1. Sobald die Domain erstellt wurde, klicken Sie darauf, um sich den **Domain-ARN** und den **Domainendpunkt** für die Erstellung der Wissensdatenbank zu notieren.

1. Nachdem Sie die Domain erstellt haben, können Sie einen Vektorindex erstellen, indem Sie die folgenden Befehle auf einem OpenSearch Dashboard ausführen oder curl-Befehle verwenden. Weitere Informationen finden Sie in der [OpenSearch -Dokumentation](https://opensearch.org/docs/latest/search-plugins/knn/knn-index/).

   Beim Ausführen des Befehls:
   + Geben Sie einen Namen für das Vektorfeld ein (z. B. **embeddings**).
   + Stellen Sie sicher, dass der für die Suche verwendete Vektor **faiss** ist. **nmslib** wird nicht unterstützt.
   + Im Hinblick auf die Anzahl der Dimensionen des Vektors bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:
**Anmerkung**  
Das Textmodell Titan V2 Embeddings unterstützt mehrere Dimensionen. Möglich ist auch 256 oder 512.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + Sie können zwei Felder hinzufügen, um den Vektorindex so zu konfigurieren, dass zusätzliche Metadaten gespeichert werden, die von einer Wissensdatenbank mit Vektoren abgerufen werden können. In der folgenden Tabelle werden die Felder und Werte beschrieben, die jeweils angegeben werden müssen:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

   ```
   PUT /<index-name>
   {
       "settings": {
           "index": {
               "knn": true
           }
       },
       "mappings": {
           "properties": {
               "<vector-name>": {
                   "type": "knn_vector",
                   "dimension": <embedding-dimension>,
                   "data_type": "binary",          # Only needed for binary embeddings
                   "space_type": "l2" | "hamming", # Use l2 for float embeddings and hamming for binary embeddings
                   "method": {
                       "name": "hnsw",
                       "engine": "faiss",
                       "parameters": {
                           "ef_construction": 128,
                           "m": 24
                       }
                   }
               },
   
               "AMAZON_BEDROCK_METADATA": {
                   "type": "text",
                   "index": "false"
               },
               "AMAZON_BEDROCK_TEXT_CHUNK": {
                   "type": "text",
                   "index": "true"            
               }
           }
       }
   }
   ```

1. Notieren Sie sich den Domain-ARN und Endpunkt sowie die Namen, die Sie für den Vektorindex, das Vektorfeld und die Zuordnungsfelder für die Metadatenverwaltung ausgewählt haben, um später Ihre Wissensdatenbank zu erstellen.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Domain-ARN | Domain-ARN | domainARN | Der Amazon-Ressourcenname (ARN) der OpenSearch Domain. | 
| Domain-Endpunkt | Domain-Endpunkt | domainEndpoint | Der Endpunkt für die Verbindung mit der OpenSearch Domain. | 
| Vektor-Indexname | Vektor-Indexname | vectorIndexName | Der Name des Vektorindex | 
| Vektorfeldname | Vektorfeld | vectorField | Der Name des Feldes, in dem Vektoreinbettungen für Ihre Datenquellen gespeichert werden sollen | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeld | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet  | 

------
#### [ Amazon S3 Vectors ]

Amazon S3 Vectors bietet kostengünstigen Vektorspeicher in Amazon S3, der zum Speichern und Abfragen von Vektordaten verwendet werden kann. Es bietet eine dauerhafte und elastische Speicherung großer Vektordatensätze mit einer Abfrageleistung von weniger als einer Sekunde. Amazon S3 Vectors eignet sich am besten für seltene Abfrage-Workloads und kann bei der Verwendung in Retrieval Augmented Generation (RAG) und Anwendungen für die semantische Suche zur Kostensenkung beitragen.

Amazon S3 Vectors führt S3-Vektor-Buckets ein, die Vektorindizes enthalten, die Sie anhand ihrer semantischen Bedeutung und Ähnlichkeit abfragen können. Es kann verwendet werden, um Antwortzeiten von weniger als einer Sekunde zu erreichen und Kosten zu senken. Gleichzeitig werden Vektordaten in großem Umfang gespeichert, abgerufen und abgefragt, ohne dass eine Infrastruktur bereitgestellt werden muss. In einem Vektor-Bucket können Sie Ihre Vektordaten in Vektorindizes organisieren. Ihr Vektor-Bucket kann mehrere Vektorindizes haben. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.

**Anmerkung**  
Sie können eine Wissensdatenbank für Amazon S3 Vectors in allen AWS-Region Umgebungen erstellen, in denen sowohl Amazon Bedrock als auch Amazon S3 Vectors verfügbar sind. Informationen zur regionalen Verfügbarkeit von Amazon S3 Vectors finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.
Wenn Sie sehr hohe Token-Zahlen mit hierarchischem Chunking in Amazon Bedrock Knowledge Bases verwenden, können Sie die maximalen Größenbeschränkungen für Metadaten überschreiten, da Eltern-Kind-Chunk-Beziehungen und hierarchischer Kontext als nicht filterbare Metadaten in Amazon S3 Vectors gespeichert werden. Weitere Informationen zu Größenbeschränkungen für Metadaten pro Vektor finden Sie unter [Einschränkungen und Einschränkungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) im *Amazon S3 S3-Benutzerhandbuch*. Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
<a name="metadata-support"></a>
**Unterstützung von Metadaten**  
Sie können Metadaten als Schlüssel-Wert-Paare an jeden Vektor anhängen. Standardmäßig sind Metadaten filterbar und können in Suchanfragen nach Ähnlichkeit verwendet werden, um nach Bedingungen wie Daten, Kategorien oder Benutzereinstellungen zu filtern.

Sie können Metadaten auch so konfigurieren, dass sie nicht gefiltert werden können, wenn Sie den Vektorindex erstellen. Amazon-S3-Vektorindizes unterstützen die Typen Zeichenfolge, Boolescher Wert und Zahl.

Wenn Sie Amazon S3 Vectors mit Amazon Bedrock Knowledge Bases verwenden, können Sie bis zu 1 KB an benutzerdefinierten Metadaten (einschließlich filterbarer und nicht filterbarer Metadaten) und 35 Metadatenschlüssel pro Vektor anhängen. Weitere Informationen zu Größenbeschränkungen für Metadaten pro Vektor finden Sie unter [Einschränkungen und Einschränkungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-limitations.html) im *Amazon S3 S3-Benutzerhandbuch*.

Wenn die Metadaten diese Grenzwerte überschreiten, löst der Aufnahmejob beim Auffüllen des Vektorindex eine Ausnahme aus. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Amazon-S3-Benutzerhandbuch*.

**Erforderliche Berechtigungen**  
Stellen Sie sicher, dass Ihre IAM-Richtlinie Amazon Bedrock den Zugriff auf Ihren Vektorindex im S3-Vektor-Bucket erlaubt. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter [Erstellen einer Servicerolle für Wissensdatenbanken für Amazon Bedrock](kb-permissions.md).

**Erstellen eines S3-Vektor-Buckets und eines Index**  
Damit Sie Amazon S3 Vectors mit Ihrer Wissensdatenbank verwenden können, müssen Sie einen S3-Vektor-Bucket und einen Vektorindex erstellen. Sie können mit der Amazon S3 S3-Konsole oder dem AWS SDK einen Vektor-Bucket und einen Index erstellen. AWS CLI Eine ausführliche Anleitung finden Sie unter [Erstellen eines Vektorindex](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-index-create.html) im *Amazon-S3-Benutzerhandbuch*.

Beachten Sie die folgenden Überlegungen, wenn Sie Ihren Vektor-Bucket und Index in der [Amazon-S3-Konsole](https://console.aws.amazon.com/s3/vector-buckets#) erstellen.

1. Beachten Sie beim Erstellen Ihres S3-Vektor-Buckets die folgenden Überlegungen.
   + Geben Sie einen eindeutigen **Namen des Vektor-Buckets** an.
   + (Optional) Amazon S3 verschlüsselt die Daten automatisch unter Verwendung der standardmäßigen **serverseitigen Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3**). Sie können wählen, ob Sie stattdessen diese Standardverschlüsselung oder die **serverseitige Verschlüsselung mit AWS Key Management Service-Schlüsseln (SSE-KMS**) verwenden möchten.
**Anmerkung**  
Der Verschlüsselungstyp kann nach dem Anlegen des Vektor-Buckets nicht mehr geändert werden.

      step-by-stepAnweisungen finden Sie unter [Verschlüsselung mit AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-bucket-encryption.html) KMS-Schlüsseln.

1. Nachdem Sie den S3-Vektor-Bucket erstellt haben, notieren Sie sich den **Amazon-Ressourcennamen (ARN)** des Vektor-Buckets für die Erstellung der Wissensdatenbank.

1. Wählen Sie den Vektor-Bucket aus, den Sie angelegt haben, und erstellen Sie dann einen Vektorindex. Beachten Sie beim Erstellen des Vektorindex die folgenden Überlegungen.
   + **Name des Vektorindex** – Geben Sie einen Namen für das Feld ein (z. B. **embeddings**).
   + **Dimension** – Hiermit wird die Anzahl der Dimensionen im Vektor festgelegt. Die Dimensionen müssen als Wert zwischen 1 und 4 096 eingegeben werden. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor auf der Grundlage des ausgewählten Einbettungsmodells enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
   + 
**Anmerkung**  
Amazon S3 Vectors unterstützt nur Gleitkomma-Einbettungen. Binäre Einbettungen werden nicht unterstützt.

     **Entfernungsmetrik** – Die Metrik, die verwendet wird, um die Ähnlichkeit zwischen Vektoren zu messen. Sie können **Kosinus** oder **Euklidisch** verwenden.

1. Erweitern Sie das Feld **Zusätzliche Einstellungen** und geben Sie alle nicht filterbaren Metadaten in das Feld **Nicht filterbare Metadaten** ein.

   Sie können bis zu 10 nicht filterbare Metadatenschlüssel konfigurieren. Wählen Sie **Schlüssel hinzufügen** aus und fügen Sie `AMAZON_BEDROCK_TEXT` und `AMAZON_BEDROCK_METADATA` als Schlüssel hinzu.

1. Wählen Sie unter **Verschlüsselung** die Option **Verschlüsselungstyp angeben** aus. Sie haben die Möglichkeit, **Bucket-Einstellungen für die Verschlüsselung zu verwenden** oder die Verschlüsselungseinstellungen für den Vektorindex zu überschreiben. Wenn Sie die Einstellungen auf Bucket-Ebene überschreiben, haben Sie die Möglichkeit, den Verschlüsselungstyp für den Vektorindex als **serverseitige Verschlüsselung mit AWS Key Management Service-Schlüsseln (SSE-KMS)** oder als **serverseitige Standardverschlüsselung mit verwalteten Amazon S3 S3-Schlüsseln** (SSE-S3) anzugeben. Weitere Informationen zur Einstellung der Verschlüsselungskonfiguration für Vektorindizes finden Sie unter [Datenschutz und Verschlüsselung in Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-data-encryption.html).

1. Unter **Tags (optional)** können Sie Tags als Schlüssel-Wert-Paare hinzufügen, um die Vektorindexkosten mithilfe von AWS Billing and Cost Management nachzuverfolgen und zu organisieren. Geben Sie einen **Key (Schlüssel)** und einen **Value (Wert)** ein. Um ein weiteres Tag hinzuzufügen, wählen Sie **Add Tag (Tag hinzufügen)**. Sie können bis zu 50 Tags für einen Vektorindex eingeben. Weitere Informationen finden Sie unter [Verwenden von Tags mit Amazon S3 S3-Vektorindizes](https://docs.aws.amazon.com/console/s3/vector-index-create-with-tag).

1. Erstellen Sie den Vektorindex und notieren Sie sich den **Amazon-Ressourcennamen (ARN)** des Vektorindex für die spätere Erstellung der Wissensdatenbank.

**Erstellen einer Wissensdatenbank für den S3-Vektor-Bucket**  
Nachdem Sie diese Informationen zusammengetragen haben, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. Wenn Sie Ihre Wissensdatenbank mit dem S3-Vektor-Bucket erstellen, müssen Sie den ARN des Vektor-Buckets und den Vektorindex angeben. Der Vektorindex speichert die Einbettungen, die aus Ihren Datenquellen generiert wurden. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben:


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| ARN des Vektor-Buckets | ARN des S3-Vektor-Buckets | vectorBucketArn | Der Amazon-Ressourcenname (ARN) Ihres S3-Vektor-Buckets | 
| ARN des Vektorindex | ARN des S3-Vektorindex | vectorIndexARN | Der Amazon-Ressourcenname (ARN) des Vektorindex Ihres S3-Vektor-Buckets | 

------
#### [ Amazon Aurora (RDS) ]

1. Erstellen Sie einen Datenbank-Cluster (DB-Cluster), ein Schema und eine Tabelle von Amazon Aurora, indem Sie die Schritte unter [Verwenden von Aurora PostgreSQL als Wissensdatenbank](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.VectorDB.html) befolgen. Wenn Sie die Tabelle erstellen, konfigurieren Sie sie mit den folgenden Spalten und Datentypen. Sie können anstelle der in der obigen Tabelle aufgeführten Spaltennamen eigene Namen verwenden. Notieren Sie sich die von Ihnen ausgewählten Spaltennamen, damit Sie sie bei der Einrichtung der Wissensdatenbank angeben können.

   Sie müssen diese Felder angeben, bevor Sie die Wissensdatenbank erstellen. Die Felder können nicht aktualisiert werden, nachdem die Wissensdatenbank erstellt wurde.
**Wichtig**  
Der Aurora-Cluster muss sich in demselben befinden AWS-Konto wie der, in dem die Wissensdatenbank für Amazon Bedrock erstellt wurde.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

1. Sie müssen einen Index für Spalten, Vektor und Text für Ihre Text- und Einbettungsfelder erstellen. Wenn Sie das Feld „Benutzerdefinierte Metadaten“ verwenden, müssen Sie auch einen GIN-Index für diese Spalte erstellen. GIN-Indizes können verwendet werden, um effizient nach Schlüssel-Wert-Paaren in JSONB-Dokumenten für die Metadatenfilterung zu suchen. Weitere Informationen finden Sie unter [JSONB-Indizierung](https://www.postgresql.org/docs/current/datatype-json.html#JSON-INDEXING) in der *PostgreSQL-Dokumentation*.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
**Anmerkung**  
Um die Genauigkeit und Latenz bei der Hybridsuche mit englischen Inhalten zu verbessern, sollten Sie das Wörterbuch „Englisch“ anstelle von „einfach“ verwenden:  

   ```
   CREATE INDEX ON bedrock_integration.bedrock_kb USING gin (to_tsvector('english', chunks));
   ```

1. (Optional) Wenn Sie [Ihren Dateien Metadaten zum Filtern hinzugefügt](kb-test-config.md) haben, empfehlen wir Ihnen, den Spaltennamen im Feld „Benutzerdefinierte Metadaten“ anzugeben, um all Ihre Metadaten in einer einzigen Spalte zu speichern. Während der [Datenerfassung](kb-data-source-sync-ingest.md) wird diese Spalte mit allen in den Metadatendateien enthaltenen Informationen aus Ihren Datenquellen gefüllt. Wenn Sie dieses Feld angeben möchten, müssen Sie einen GIN-Index für diese Spalte erstellen.
**Anmerkung**  
Wenn Sie häufig Bereichsfilter für numerische Metadaten verwenden, erstellen Sie zur Optimierung der Leistung einen Index für den jeweiligen Schlüssel. Wenn Sie beispielsweise Filter wie `"lessThan": { "key": "year", "value": 1989 }` verwenden, erstellen Sie einen Ausdrucksindex für den Schlüssel `year`. Weitere Informationen finden Sie unter [Indizes für Ausdrücke](https://www.postgresql.org/docs/current/indexes-expressional.html) in der *PostgreSQL-Dokumentation*.  

   ```
   CREATE INDEX ON your_table ((custom_metadata->>'year')::double precision
   ```

   Wenn Sie diesen Feldnamen nicht angeben, können Sie alternativ für jedes Metadatenattribut in Ihren Dateien eine Spalte erstellen und den Datentyp (Text, Zahl oder Boolescher Wert) angeben. Wenn das Attribut `genre` beispielsweise in Ihrer Datenquelle vorhanden ist, würden Sie eine Spalte mit dem Namen `genre` und der Angabe `text` als Datentyp hinzufügen. Während der [Datenerfassung](kb-data-source-sync-ingest.md) werden diese separaten Spalten mit den entsprechenden Attributwerten gefüllt.

1. Konfigurieren Sie ein AWS Secrets Manager Geheimnis für Ihren Aurora-DB-Cluster, indem Sie die Schritte unter [Passwortverwaltung mit Amazon Aurora und befolgen AWS Secrets Manager](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/rds-secrets-manager.html).

1. Notieren Sie sich die folgenden Informationen, nachdem Sie Ihren DB-Cluster erstellt und das Geheimnis eingerichtet haben.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

------
#### [ Neptune Analytics graphs (GraphRAG) ]

1. Wenn Sie ein Diagramm und einen Vektorspeicher in Neptune Analytics in der AWS-Managementkonsole erstellen möchten, folgen Sie den Schritten, die unter [Vektorindizierung in Neptune Analytics](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/vector-index.html) im *Neptune-Analytics-Benutzerhandbuch* beschrieben sind.
**Anmerkung**  
Wenn Sie Neptune GraphRAG verwenden möchten, erstellen Sie ein leeres Neptune-Analytics-Diagramm mit einem Vektorsuchindex. Der Vektorsuchindex kann nur erstellt werden, wenn das Diagramm angelegt wurde. Wenn Sie ein [Neptune-Analytics-Diagramm in der Konsole](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/create-graph-using-console.html) erstellen, geben Sie gegen Ende des Vorgangs die Indexdimension unter **Einstellungen für die Vektorsuche** an.

   Beachten Sie beim Erstellen des Diagramms die folgenden Überlegungen:

   1. Geben Sie dem Diagramm einen Namen Ihrer Wahl.

   1. Wählen Sie unter **Datenquelle** die Option **Leeres Diagramm erstellen** aus und geben Sie die Anzahl der m- NCUs an, die zugewiesen werden sollen. Jede m-NCU verfügt über etwa ein GiB Speicherkapazität und entsprechende Rechen- und Netzwerkfunktionen.
**Anmerkung**  
Die Kapazität Ihres Diagramms kann später geändert werden. Wir empfehlen, mit der kleinsten Instance zu beginnen und später, falls erforderlich, eine andere Instance auszuwählen.

   1. Sie können die Standardeinstellungen für die Netzwerkkonnektivität beibehalten. Amazon Bedrock stellt eine Netzwerkverbindung zum Neptune-Analytics-Diagramm her, mit dem Sie die Wissensdatenbank verknüpfen. Sie müssen keine öffentliche Konnektivität oder privaten Endpunkte für Ihr Diagramm konfigurieren.

   1. Wählen Sie unter **Einstellungen für die Vektorsuche** die Option **Vektordimension verwenden** aus und geben Sie die Anzahl der Dimensionen in jedem Vektor an.
**Anmerkung**  
Die Anzahl der Dimensionen in jedem Vektor muss mit den Vektordimensionen im Einbettungsmodell übereinstimmen. Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)

   1. Übernehmen Sie für alle anderen Einstellungen die Standardwerte und erstellen Sie das Diagramm.

1. Sobald das Diagramm erstellt wurde, klicken Sie darauf, um sich den **Ressourcen-ARN** und die **Vektordimensionen** für die Erstellung der Wissensdatenbank zu notieren. Achten Sie bei der Auswahl des Einbettungsmodells in Amazon Bedrock darauf, dass Sie ein Modell mit denselben Dimensionen wie die **Vektordimensionen** auswählen, die Sie in Ihrem Neptune-Analytics-Diagramm konfiguriert haben.

Nachdem der Vektorindex erstellt wurde, können Sie mit der [Erstellung Ihrer Wissensdatenbank](knowledge-base-create.md) fortfahren. In der folgenden Tabelle ist zusammengefasst, wo Sie die einzelnen Informationen eingeben, die Sie sich notiert haben.


| Feld | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (Konsole) | Entsprechendes Feld in der Einrichtung der Wissensdatenbank (API) | Description | 
| --- | --- | --- | --- | 
| Graph-ARN | Graph-ARN von Neptune Analytics | graphARN | Der Amazon-Ressourcenname (ARN) des Neptune-Analytics-Diagramms | 
| Verwaltung von Metadaten (erstes Feld „Mapping“) | Textfeldname | textField | Der Name des Feldes, in dem der Rohtext aus Ihren Datenquellen gespeichert werden soll Sie können einen beliebigen Wert für dieses Feld angeben, z. B. Text. | 
| Verwaltung von Metadaten (zweites Feld „Mapping“) | Von Amazon Bedrock verwaltetes Metadatenfeld | metadataField | Der Name des Feldes, in dem Metadaten gespeichert werden sollen, die Amazon Bedrock verwaltet Sie können einen beliebigen Wert für dieses Feld angeben, z. B. Metadaten. | 

------
#### [ Tannenzapfen ]

**Anmerkung**  
Wenn Sie die Website nutzenPinecone, erklären Sie sich damit einverstanden, in Ihrem Namen AWS auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste zur Verfügung zu stellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in Pinecone finden Sie unter [Pinecone als Wissensdatenbank für Amazon Bedrock](https://docs.pinecone.io/docs/amazon-bedrock).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank angeben.
+ **Endpunkt-URL** – Die Endpunkt-URL für Ihre Indexverwaltungsseite
+ **Credentials Secret ARN** — Der Amazon-Ressourcenname (ARN) des Geheimnisses, das Sie erstellt haben und das den Benutzernamen und das Passwort für einen Datenbankbenutzer enthält. AWS Secrets Manager 
+ **(Optional) Kundenseitig verwalteter KMS-Schlüssel für Ihren Secret-ARN der Anmeldeinformationen** – Wenn Sie Ihren Secret-ARN der Anmeldeinformationen verschlüsselt haben, geben Sie den KMS-Schlüssel an, damit Amazon Bedrock ihn entschlüsseln kann. 
+ **Namespace** – (Optional) Der Namespace, der verwendet werden soll, um neue Daten in Ihre Datenbank zu schreiben. Weitere Informationen finden Sie unter [Verwenden von Namespaces](https://docs.pinecone.io/docs/namespaces).

Es gibt zusätzliche Konfigurationen, die Sie bei der Erstellung eines Pinecone-Index angeben müssen:
+ **Name des Textfeldes** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblock speichern soll
+ **Name des Metadatenfeldes** – Der Name des Feldes, in dem Amazon Bedrock Metadaten zur Quellzuweisung speichern soll

Sie müssen Amazon Bedrock Ihren Pinecone-API-Schlüssel über AWS Secrets Manager zur Verfügung stellen, um auf den Pinecone-Index zuzugreifen.

**So richten Sie ein Secret für Ihre Pinecone-Konfiguration ein**

1. Folgen Sie den Schritten unter [Create an AWS Secrets Manager Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und legen Sie den Schlüssel `apiKey` und den Wert als API-Schlüssel für den Zugriff auf Ihren Pinecone Index fest.

1. Sie finden Ihren API-Schlüssel, indem Sie die [Pinecone-Konsole](https://app.pinecone.io/) öffnen und **API-Schlüssel** auswählen.

1. Nachdem Sie das Geheimnis erstellt haben, notieren Sie sich den ARN des KMS-Schlüssels.

1. Ordnen Sie Ihrer Servicerolle Berechtigungen zu, um den ARN des KMS-Schlüssels zu entschlüsseln, indem Sie die Schritte unter [Berechtigungen zum Entschlüsseln eines AWS Secrets Manager Geheimnisses für den Vektorspeicher, der Ihre Wissensdatenbank enthält](encryption-kb.md#encryption-kb-3p) befolgen.

1. Geben Sie den ARN später beim Erstellen Ihrer Wissensdatenbank in das Feld **Anmeldeinformationen – Geheimer ARN** ein.

------
#### [ Redis Enterprise Cloud ]

**Anmerkung**  
Wenn Sie die Website nutzenRedis Enterprise Cloud, erklären Sie sich damit einverstanden, AWS in Ihrem Namen auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste zur Verfügung zu stellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in Redis Enterprise Cloud finden Sie unter [Integration von Redis Enterprise Cloud in Amazon Bedrock](https://docs.redis.com/latest/rc/cloud-integrations/aws-marketplace/aws-bedrock/).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank angeben.
+ **Endpunkt-URL** – Die öffentliche Endpunkt-URL für Ihre Datenbank
+ **Name des Vektorindex** – Der Name des Vektorindex für Ihre Datenbank
+ **Vektorfeld** – Das Feld, in dem die Vektoreinbettungen gespeichert werden Bestimmen Sie anhand der folgenden Tabelle, wie viele Dimensionen der Vektor enthalten soll.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/knowledge-base-setup.html)
+ **Textfeld** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblöcke speichern soll
+ **Von Bedrock verwaltetes Metadatenfeld** – Der Name des Feldes, in dem Amazon Bedrock Metadaten speichert, die sich auf Ihre Wissensdatenbank beziehen

Sie müssen Amazon Bedrock die Sicherheitskonfiguration von Redis Enterprise Cloud über AWS Secrets Manager zur Verfügung stellen, um auf Ihren Cluster von Redis Enterprise Cloud zuzugreifen.

**So richten Sie ein Secret für Ihre Redis Enterprise Cloud-Konfiguration ein**

1. Aktivieren Sie TLS, um Ihre Datenbank mit Amazon Bedrock zu verwenden, indem Sie die Schritte unter [Transport Layer Security (TLS)](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/) befolgen.

1. Folgen Sie den Schritten unter [Create an AWS Secrets Manager secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html). Richten Sie die folgenden Schlüssel mit den entsprechenden Werten aus Ihrer Konfiguration von Redis Enterprise Cloud im Secret ein:
   + `username` – Der Benutzername für den Zugriff auf Ihre Datenbank von Redis Enterprise Cloud. Ihren Benutzernamen finden Sie in der [Redis-Konsole](http://app.redislabs.com/) im Abschnitt **Sicherheit** Ihrer Datenbank.
   + `password` – Das Passwort für den Zugriff auf Ihre Datenbank von Redis Enterprise Cloud. Ihr Passwort finden Sie in der [Redis-Konsole](http://app.redislabs.com/) im Abschnitt **Sicherheit** Ihrer Datenbank.
   + `serverCertificate` – Der Inhalt des Zertifikats von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.
   + `clientPrivateKey` – Der private Schlüssel von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.
   + `clientCertificate` – Der öffentliche Schlüssel von der Redis-Cloud-Zertifizierungsstelle. Laden Sie das Serverzertifikat von der Redis-Administratorkonsole herunter, indem Sie den Schritten unter [Herunterladen von Zertifikaten](https://docs.redis.com/latest/rc/security/database-security/tls-ssl/#download-certificates) folgen.

1. Nachdem Sie das Secret erstellt haben, notieren Sie sich den entsprechenden ARN. Geben Sie den ARN später beim Erstellen Ihrer Wissensdatenbank in das Feld **Anmeldeinformationen – geheimer ARN** ein.

------
#### [ MongoDB Atlas ]

**Anmerkung**  
Wenn Sie MongoDB Atlas verwenden, erklären Sie sich damit einverstanden, AWS in Ihrem Namen auf die angegebene Drittanbieter-Quelle zuzugreifen, um Ihnen Vector Store-Dienste bereitzustellen. Sie sind dafür verantwortlich, alle Bedingungen Dritter einzuhalten, die für die Nutzung und Übertragung von Daten aus dem Drittanbieter-Service gelten.

Eine ausführliche Dokumentation zur Einrichtung eines Vektorspeichers in MongoDB Atlas finden Sie unter [Starten eines vollständig verwalteten RAG-Workflows mit MongoDB Atlas und Amazon Bedrock](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/).

Notieren Sie sich beim Einrichten des Vektorspeichers die folgenden Informationen, die Sie später beim Erstellen einer Wissensdatenbank hinzufügen:
+ **Endpunkt-URL** – Die Endpunkt-URL Ihres MongoDB-Atlas-Clusters
+ **Datenbankname** – Der Name der Datenbank in Ihrem MongoDB-Atlas-Cluster
+ **Name der Sammlung** – Der Name der Sammlung in Ihrer Datenbank
+ **Credentials Secret ARN** — Der Amazon-Ressourcenname (ARN) des Geheimnisses, das Sie erstellt haben und AWS Secrets Manager das den Benutzernamen und das Passwort für einen Datenbankbenutzer in Ihrem MongoDB Atlas-Cluster enthält. Das Secret muss Schlüssel mit dem Namen `username` und `password` enthalten.
+ **(Optional) Kundenseitig verwalteter KMS-Schlüssel für Ihren Secret-ARN der Anmeldeinformationen** – Wenn Sie Ihren Secret-ARN der Anmeldeinformationen verschlüsselt haben, geben Sie den KMS-Schlüssel an, damit Amazon Bedrock ihn entschlüsseln kann. 

Es gibt zusätzliche Konfigurationen für **Feldzuordnung**, die Sie beim Erstellen eines MongoDB-Atlas-Index angeben müssen:
+ **Name des Vektorindex** – Der Name des MongoDB-Atlas-Vektorsuchindex in Ihrer Sammlung
+ **Name des Vektorfeldes** – Der Name des Feldes, in dem Amazon Bedrock Vektoreinbettungen speichern soll
+ **Name des Textfeldes** – Der Name des Feldes, in dem Amazon Bedrock den Rohtextblock speichern soll
+ **Name des Metadatenfeldes** – Der Name des Feldes, in dem Amazon Bedrock Metadaten zur Quellzuweisung speichern soll
+ **(Optional) Indexname der Textsuche** – Der Name des MongoDB-Atlas-Suchindex in Ihrer Sammlung

**Wichtig**  
Wenn Sie beabsichtigen, die Metadatenfilterung mit Ihrer MongoDB-Atlas-Wissensdatenbank zu verwenden, müssen Sie die Filter in Ihrem Vektorindex manuell konfigurieren. Die Metadatenfilterung funktioniert standardmäßig nicht und erfordert eine zusätzliche Einrichtung in Ihrer Konfiguration des MongoDB-Atlas-Vektorindex.

(Optional) Informationen darüber, wie Amazon Bedrock eine Verbindung zu Ihrem MongoDB Atlas-Cluster herstellt AWS PrivateLink, finden Sie unter [RAG-Workflow mit MongoDB Atlas mithilfe von](https://www.mongodb.com/developer/products/atlas/rag-workflow-with-atlas-amazon-bedrock/) Amazon Bedrock.

------

# Voraussetzungen und Berechtigungen, die für die Verwendung von OpenSearch Managed Clusters mit Amazon Bedrock Knowledge Bases erforderlich sind
<a name="kb-osm-permissions-prereq"></a>

In diesem Abschnitt erfahren Sie, wie Sie Berechtigungen konfigurieren, wenn Sie Ihre eigene Vektordatenbank mit Amazon OpenSearch Service Managed Clusters erstellen. Diese Konfiguration muss durchgeführt werden, bevor Sie die Wissensdatenbank erstellen. Bei den Schritten wird davon ausgegangen, dass Sie bereits einen Domain- und Vektorindex in Amazon OpenSearch Service erstellt haben. Weitere Informationen finden Sie unter [ OpenSearch Service-Domains erstellen und verwalten](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/createupdatedomains.html) im *Amazon OpenSearch Service Developer Guide*.

## Wesentliche Überlegungen
<a name="kb-osm-permissions-prereq-considerations"></a>

Im Folgenden finden Sie einige wichtige Überlegungen zur Verwendung von Amazon Bedrock Knowledge Bases mit Amazon OpenSearch Service Managed Clusters.
+ Bevor Sie Domain-Ressourcen in OpenSearch verwalteten Clustern verwenden können, müssen Sie bestimmte IAM-Zugriffsberechtigungen und -richtlinien konfigurieren. Für die Integration von Knowledge Bases mit verwalteten Clustern müssen Sie, bevor Sie die Schritte in diesem Abschnitt ausführen, bei einer restriktiven Zugriffsrichtlinie Ihrer Domain die erforderlichen IAM-Berechtigungen gewähren und die ressourcenbasierten Richtlinien konfigurieren. Wir empfehlen außerdem, eine fein abgestufte Zugriffskontrolle zu konfigurieren, um die Berechtigungen gezielt einzuschränken.
+ Wenn Sie bei der Erfassung der Daten für Ihre Wissensdatenbank auf Fehler stoßen, kann dies darauf hindeuten, dass die OpenSearch Domänenkapazität nicht ausreicht, um die Geschwindigkeit der Datenerfassung zu bewältigen. Zur Behebung dieses Problems erhöhen Sie die Kapazität Ihrer Domain, indem Sie eine höhere IOPS (Input/Output Operations Per Second) bereitstellen und die Durchsatzeinstellungen erhöhen. Warten Sie einige Minuten, bis die neue Kapazität bereitgestellt ist, und wiederholen Sie dann den Aufnahmevorgang. Überwachen Sie die Leistung während des Wiederholungsvorgangs, um zu prüfen, ob das Problem behoben wurde. Wenn die Drosselung weiterhin besteht, müssen Sie die Kapazität möglicherweise weiter anpassen, um die Effizienz zu verbessern. Weitere Informationen finden Sie unter [Best Practices für den Betrieb von Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/bp.html).

## Überblick über die Berechtigungskonfiguration
<a name="kb-osm-permissions-prereq-overview"></a>

Für die Integration von Knowledge Bases mit verwalteten Clustern müssen Sie die folgenden IAM-Zugriffsberechtigungen und ressourcenbasierten Richtlinien konfigurieren. Wir empfehlen, differenzierte Zugriffsrichtlinien zu aktivieren, um den Benutzerzugriff und die Granularität, mit der er bis auf die Eigenschaftenebene beschränkt werden muss, weiter zu kontrollieren.

Die folgenden Schritte bieten einen Überblick über die Berechtigungskonfiguration.

1. 

**So erstellen und verwenden Sie eine Wissensdatenbank-Servicerolle**

   Für die Berechtigungen, die Sie konfigurieren möchten, können Sie zwar weiterhin Ihre eigene benutzerdefinierte Rolle angeben, wir empfehlen jedoch, die Option für Wissensdatenbanken für Amazon Bedrock anzugeben, um die Knowledge-Base-Servicerolle für Sie zu erstellen.

1. 

**So konfigurieren Sie eine ressourcenbasierte Richtlinie**

   Die OpenSearch Domain unterstützt ressourcenbasierte Richtlinien, die festlegen, welche Principals auf die Domain zugreifen und darauf reagieren können. Stellen Sie bei der Verwendung mit Knowledge Bases sicher, dass die ressourcenbasierte Richtlinie für Ihre Domain ordnungsgemäß konfiguriert ist.

1. 

***(Dringend empfohlen)* Stellen Sie eine Rollenzuordnung für die differenzierte Zugriffskontrolle bereit**

   Eine differenzierte Zugriffskontrolle ist zwar optional, wir empfehlen jedoch, diese zu aktivieren, um die Granularität zu steuern, mit der die Berechtigungen auf Eigenschaftenebene eingeschränkt werden sollen.

## Konfigurieren von IAM-Richtlinien
<a name="kb-osm-permissions-iam"></a>

Die Zugriffsrichtlinie Ihrer Domain muss den Rollen in Ihrem Konto die Berechtigungen zur Durchführung der erforderlichen OpenSearch API-Aktionen gewähren.

Wenn für Ihre Domain eine restriktive Zugriffsrichtlinie gilt, muss diese möglicherweise wie folgt aktualisiert werden:
+ Sie sollte Zugriff auf den Amazon-Bedrock-Service gewähren und die erforderlichen HTTP-Aktionen einschließen: `GET`, `POST`, `PUT` und `DELETE`.
+ Sie muss Amazon Bedrock außerdem Berechtigungen gewähren, um die `es:DescribeDomain`-Aktion auf Ihrer Indexressource auszuführen. Auf diese Weise kann Wissensdatenbanken für Amazon Bedrock die erforderlichen Validierungen bei der Konfiguration einer Wissensdatenbank durchführen.

## (Optional) Differenzierte Zugriffskontrolle
<a name="kb-osm-permissions-console-fgap"></a>

Durch eine differenzierte Zugriffskontrolle kann die Granularität gesteuert werden, mit der die Berechtigungen auf Eigenschaftsebene begrenzt werden sollen. Sie können die detaillierten Zugriffsrichtlinien konfigurieren, um die Lese- und Schreibberechtigungen zu gewähren, die für die von Knowledge Bases erstellte Servicerolle erforderlich sind.

So konfigurieren Sie die differenzierte Zugriffskontrolle und stellen die Rollenzuordnung bereit:

1. Stellen Sie sicher, dass für die von Ihnen erstellte OpenSearch Domain eine detaillierte Zugriffskontrolle aktiviert ist.

1. Erstellen Sie eine OpenSearch Benutzeroberfläche (Dashboards), falls Sie dies noch nicht getan haben. Diese wird verwendet, um die Rollenzuweisung zu konfigurieren

1. Erstellen Sie in Ihren OpenSearch Dashboards eine OpenSearch Rolle und geben Sie den Namen des Vektorindexes sowie die Cluster- und Indexberechtigungen an. Um die Berechtigungen hinzuzufügen, müssen Sie Berechtigungsgruppen erstellen und anschließend die erforderlichen Berechtigungen hinzufügen, die den Zugriff auf eine Reihe von Operationen – Einschließlich `delete`, `search`, `get` und `index` – für die Rolle gewähren.

1. Nachdem Sie die erforderlichen Berechtigungen hinzugefügt haben, müssen Sie den ARN Ihrer Knowledge-Base-Servicerolle für die OpenSearch Back-End-Rolle eingeben. Wenn Sie diesen Schritt ausführen, wird die Zuordnung zwischen Ihrer Knowledge Base Service-Rolle und der OpenSearch Rolle abgeschlossen, wodurch Amazon Bedrock Knowledge Bases-Berechtigungen für den Zugriff auf den Vektorindex in der OpenSearch Domain und die Ausführung der erforderlichen Operationen erteilt werden.

**Topics**
+ [Wesentliche Überlegungen](#kb-osm-permissions-prereq-considerations)
+ [Überblick über die Berechtigungskonfiguration](#kb-osm-permissions-prereq-overview)
+ [Konfigurieren von IAM-Richtlinien](#kb-osm-permissions-iam)
+ [(Optional) Differenzierte Zugriffskontrolle](#kb-osm-permissions-console-fgap)
+ [Konfiguration ressourcenbasierter Richtlinien für verwaltete Cluster OpenSearch](kb-osm-permissions-slr-rbp.md)
+ [Konfiguration von OpenSearch Berechtigungen mit detaillierter Zugriffskontrolle](kb-osm-permissions-console-fgap.md)

# Konfiguration ressourcenbasierter Richtlinien für verwaltete Cluster OpenSearch
<a name="kb-osm-permissions-slr-rbp"></a>

Bei der Erstellung Ihrer Wissensdatenbank können Sie entweder Ihre eigene benutzerdefinierte Rolle erstellen oder Sie lassen eine Rolle von Amazon Bedrock für Sie erstellen. Wie Sie die Berechtigungen konfigurieren, hängt davon ab, ob Sie eine neue Rolle erstellen oder eine vorhandene Rolle verwenden. Wenn Sie bereits über eine IAM-Rolle verfügen, müssen Sie sicherstellen, dass die Zugriffsrichtlinie Ihrer Domain die Rollen in Ihrem Konto nicht daran hindert, die erforderlichen OpenSearch API-Aktionen auszuführen.

Wenn Sie sich dafür entscheiden, Amazon Bedrock Knowledge Bases die IAM-Rolle für Sie erstellen zu lassen, müssen Sie sicherstellen, dass die Zugriffsrichtlinie Ihrer Domain die Berechtigungen zur Ausführung der erforderlichen OpenSearch API-Aktionen durch die Rollen in Ihrem Konto gewährt. Wenn für Ihre Domain eine restriktive Zugriffsrichtlinie gilt, kann diese verhindern, dass Ihre Rolle diese Aktionen ausführt. Hier ein Beispiel für eine restriktive ressourcenbasierte Richtlinie.

In diesem Fall können Sie entweder:
+ Erstellen Sie Ihre Wissensdatenbank mithilfe einer vorhandenen IAM-Rolle, sodass Ihre OpenSearch Domain Zugriff auf diese Rolle gewähren kann, um die erforderlichen Operationen durchzuführen.
+ Alternativ können Sie Amazon Bedrock eine neue Rolle für Sie erstellen lassen. In diesem Fall müssen Sie sicherstellen, dass die Zugriffsrichtlinie der Domain den Rollen in Ihrem Konto die Berechtigungen zur Durchführung der erforderlichen OpenSearch API-Aktionen gewährt.

Die folgenden Abschnitte zeigen ein Beispiel für eine IAM-Richtlinie, die die erforderlichen Berechtigungen gewährt, und wie Sie die Zugriffsrichtlinie der Domain aktualisieren können, sodass sie Berechtigungen für die Durchführung der erforderlichen OpenSearch API-Operationen gewährt.

**Topics**
+ [Beispiele für identitätsbasierte und ressourcenbasierte Richtlinien](#kb-osm-permissions-iam)
+ [So erstellen Sie die Servicerolle für Wissensdatenbanken für Amazon Bedrock](#kb-osm-permissions-slr)
+ [So aktualisieren Sie die ressourcenbasierten Richtlinien](#kb-osm-permissions-console-rbp)

## Beispiele für identitätsbasierte und ressourcenbasierte Richtlinien
<a name="kb-osm-permissions-iam"></a>

Dieser Abschnitt enthält ein Beispiel für eine Identitätsrichtlinie und eine ressourcenbasierte Richtlinie, die Sie bei der Integration mit Amazon Bedrock Knowledge Bases für Ihre OpenSearch Domain konfigurieren können. Sie müssen Amazon Bedrock die erforderlichen Berechtigungen erteilen, um diese Aktionen für den Index durchzuführen, den Sie Ihrer Wissensdatenbank zur Verfügung stellen.


****  

| Action | Ressource | Description | 
| --- | --- | --- | 
| es:ESHttpPost | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Einfügen von Informationen in den Index | 
| es:ESHttpGet |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Auslese von Informationen aus dem Index. Diese Aktion wird sowohl auf der domain/index- und der domain/index/\$1-Ebene konfiguriert. Auf der domain/index-Ebene kann sie detaillierte Informationen über den Index abrufen, z. B. den Engine-Typ. Um die im Index gespeicherten Details abzurufen, sind Berechtigungen auf domain/index/\$1-Ebene erforderlich. | 
| es:ESHttpHead |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-osm-permissions-slr-rbp.html)  | Abrufen von Informationen aus dem Index. Diese Aktion wird auf der domain/index- und der domain/index/\$1-Ebene konfiguriert, falls Informationen auf einer höheren Ebene abgerufen werden müssen, z. B. um festzustellen, ob ein bestimmter Index vorhanden ist. | 
| es:ESHttpDelete | arn:<partition>:es:<region>:<accountId>:domain/<domainName>/<indexName> | Zum Löschen von Informationen aus dem Index | 
| es:DescribeDomain | arn:<partition>:es:<region>:<accountId>:domain/<domainName> | Durchführen von Validierungen für die Domain, z. B. für die verwendete Engine-Version. | 

### Beispiel einer identitätsbasierten Richtlinie
<a name="kb-osm-permissions-idpolicy"></a>

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "OpenSearchIndexAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpPost",
                "es:ESHttpPut",
                "es:ESHttpDelete"
            ],
            "Resource": [
                "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName/*"
            ]
        },
        {
            "Sid": "OpenSearchIndexGetAccess",
            "Effect": "Allow",
            "Action": [
                "es:ESHttpGet",
                "es:ESHttpHead"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName/indexName"
            ]
        },
        {
            "Sid": "OpenSearchDomainValidation",
            "Effect": "Allow",
            "Action": [
                "es:DescribeDomain"
            ],
            "Resource": [
            "arn:aws:es:us-east-1:123456789012:domain/domainName"
            ]
        }
    ]
}
```

------

### Beispiel einer ressourcenbasierten Richtlinie
<a name="kb-osm-permissions-rbp"></a>

**Anmerkung**  
Stellen Sie sicher, dass die Servicerolle erstellt wurde, damit sie in der ressourcenbasierten Richtlinie verwendet werden kann.

## So erstellen Sie die Servicerolle für Wissensdatenbanken für Amazon Bedrock
<a name="kb-osm-permissions-slr"></a>

Bei der Erstellung der Wissensdatenbank können Sie die Option wählen, eine neue Servicerolle zu erstellen und zu verwenden. Dieser Abschnitt führt Sie durch die Erstellung der Servicerolle für Wissensdatenbanken für Amazon Bedrock. Durch die Zuordnung der ressourcenbasierten Richtlinien und der detaillierten Zugriffsrichtlinien zu dieser Rolle erhält Amazon Bedrock die Berechtigungen, Anfragen an die Domain zu stellen. OpenSearch 

**So geben Sie die Servicerolle für Amazon Bedrock Knowledge an:**

1. Navigieren Sie in der Amazon-Bedrock-Konsole zu [Knowledge Bases](https://console.aws.amazon.com/bedrock/home#/knowledge-bases).

1. Klicken Sie auf **Erstellen** und anschließend auf **Wissensdatenbank mit Vektorspeicher**.

1. Wählen Sie **Neue Servicerolle erstellen und verwenden** aus. Hier können Sie entweder den Standard verwenden oder einen benutzerdefinierten Rollennamen angeben, und Amazon Bedrock erstellt automatisch die Servicerolle für Knowledge Bases für Sie.

1. Fahren Sie in der Konsole fort, um Ihre Datenquelle sowie die Strategien für das Parsen und die Aufteilung in Datenblöcke zu konfigurieren.

1. Wählen Sie ein Embeddings-Modell und dann unter **Vorhandenen Vector Store auswählen** die Option **Amazon OpenSearch Managed** Cluster aus.

**Wichtig**  
Bevor Sie mit der Erstellung der Wissensdatenbank fortfahren, führen Sie die folgenden Schritte aus, um die ressourcenbasierten Richtlinien und differenzierten Zugriffsrichtlinien zu konfigurieren. Ausführliche Schritte zur Erstellung der Wissensdatenbank finden Sie unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md).

## So aktualisieren Sie die ressourcenbasierten Richtlinien
<a name="kb-osm-permissions-console-rbp"></a>

Wenn für Ihre OpenSearch Domain eine restriktive Zugriffsrichtlinie gilt, können Sie den Anweisungen auf dieser Seite folgen, um die ressourcenbasierte Richtlinie zu aktualisieren. Diese Berechtigungen ermöglichen es Knowledge Bases, den von Ihnen bereitgestellten Index zu verwenden und die OpenSearch Domaindefinition abzurufen, um die erforderliche Validierung für die Domain durchzuführen.

**Um die ressourcenbasierten Richtlinien über das zu konfigurieren AWS-Managementkonsole**

1. Gehen Sie zur [Amazon OpenSearch Service-Konsole](https://console.aws.amazon.com/aos/home?region=us-east-1#opensearch/dashboard).

1. Navigieren Sie zu der Domain, die Sie erstellt haben, und wechseln Sie dann zu **Sicherheitskonfigurationen**, wo die ressourcenbasierte Richtlinie konfiguriert wird.

1. Bearbeiten Sie die Richtlinie auf der Registerkarte **JSON** und aktualisieren Sie dann die Richtlinie ähnlich wie [Beispiel einer ressourcenbasierten Richtlinie](#kb-osm-permissions-rbp).

1. Sie können jetzt zur Amazon Bedrock-Konsole zurückkehren und die Details für Ihre OpenSearch Domain und Ihren Index angeben, wie unter [Wissensdatenbank-Setup für verwaltete Cluster](knowledge-base-setup.md#knowledge-base-setup-osm) beschrieben.

# Konfiguration von OpenSearch Berechtigungen mit detaillierter Zugriffskontrolle
<a name="kb-osm-permissions-console-fgap"></a>

Obwohl optional, empfehlen wir dringend, dass Sie eine detaillierte Zugriffskontrolle für Ihre Domain aktivieren. OpenSearch Mithilfe der detaillierten Zugriffskontrolle können Sie die rollenbasierte Zugriffskontrolle verwenden, mit der Sie eine OpenSearch Rolle mit bestimmten Berechtigungen erstellen und sie der Knowledge Base-Servicerolle zuordnen können. Die Zuordnung gewährt Ihrer Wissensdatenbank die erforderlichen Mindestberechtigungen, um auf die Domäne und den Index zuzugreifen und Operationen an dieser auszuführen. OpenSearch 

So konfigurieren und verwenden Sie die differenzierte Zugriffskontrolle:

1. Stellen Sie sicher, dass für die OpenSearch Domäne, die Sie verwenden, eine detaillierte Zugriffskontrolle aktiviert ist.

1. Konfigurieren Sie für Ihre Domain, die eine differenzierte Zugriffskontrolle verwendet, Berechtigungen mit abgegrenzten Richtlinien in Form einer Rolle. OpenSearch

1. Für die Domain, für die Sie eine Rolle erstellen, fügen Sie eine Rollenzuordnung zur Knowledge-Base-Servicerolle hinzu.

Die folgenden Schritte zeigen, wie Sie Ihre OpenSearch Rolle konfigurieren und die korrekte Zuordnung zwischen der Rolle und der Knowledge OpenSearch Base-Servicerolle sicherstellen.

**Um eine OpenSearch Rolle zu erstellen und Berechtigungen zu konfigurieren**  
Nachdem Sie die detaillierte Zugriffskontrolle aktiviert und Amazon Bedrock für die Verbindung mit dem OpenSearch Service konfiguriert haben, können Sie die Berechtigungen über den Link OpenSearch Dashboards für jede Domain konfigurieren. OpenSearch 

**So konfigurieren Sie die Berechtigungen für eine Domain, um Zugriff auf Amazon Bedrock zu gewähren:**

1. Öffnen Sie das OpenSearch Dashboard für die OpenSearch Domain, mit der Sie arbeiten möchten. Um den Link zu Dashboards zu finden, wechseln Sie zu der Domain, die Sie in der OpenSearch Servicekonsole erstellt haben. Bei laufenden OpenSearch Domains hat die URL das Format. `domain-endpoint/_dashboards/` Weitere Informationen finden Sie unter [Dashboards](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/dashboards.html) im *Amazon OpenSearch Service Developer Guide*.

1. Wählen Sie im OpenSearch Dashboard **Sicherheit** und dann **Rollen** aus.

1. Wählen Sie **Rolle erstellen** aus.

1. Geben Sie einen beliebigen Namen für die Rolle ein, z. B. **kb\$1opensearch\$1role**.

1. Fügen Sie unter **Cluster-Berechtigungen** die folgenden Berechtigungen hinzu.
   + `indices:data/read/msearch`
   + `indices:data/write/bulk*`
   + `indices:data/read/mget*`

1. Geben Sie unter **Indexberechtigungen** einen Namen für den Vektorindex ein. Wählen Sie **Neue Berechtigungsgruppe erstellen** und dann **Neue Aktionsgruppe erstellen** aus. Fügen Sie einer Aktionsgruppe die folgenden Berechtigungen hinzu, z. B. `KnowledgeBasesActionGroup`. Fügen Sie die folgenden Berechtigungen zu einer Aktionsgruppe hinzu.
   + `indices:admin/get`
   + `indices:data/read/msearch`
   + `indices:data/read/search`
   + `indices:data/write/index`
   + `indices:data/write/update`
   + `indices:data/write/delete`
   + `indices:data/write/delete/byquery`
   + `indices:data/write/bulk*`
   + `indices:admin/mapping/put`
   + `indices:data/read/mget*`  
![\[Die Aktionsgruppen, die in OpenSearch Dashboards zum Hinzufügen von Cluster- und Indexberechtigungen erstellt werden sollen.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/kb-test-os-action-groups.png)

1. Wählen Sie **Erstellen**, um die OpenSearch Rolle zu erstellen.

Im Folgenden wird eine OpenSearch Beispielrolle mit den hinzugefügten Berechtigungen gezeigt.

![\[Eine OpenSearch Beispielrolle in OpenSearch Dashboards mit den hinzugefügten Berechtigungen.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/kb-test-os-dashboards-permissions.png)


**So erstellen Sie eine Rollenzuordnung für Ihre Knowledge-Base-Servicerolle**

1. Identifizieren Sie die IAM-Rolle, die zugeordnet werden soll.
   + Wenn Sie Ihre eigene benutzerdefinierte IAM-Rolle erstellt haben, können Sie den Rollen-ARN für diese Rolle aus der IAM-Konsole kopieren.
   + Wenn Sie Knowledge Bases erlauben, die Rolle für Sie zu erstellen, können Sie sich bei der Erstellung Ihrer Wissensdatenbank den Rollen-ARN notieren und dann diesen Rollen-ARN kopieren.

1. Öffnen Sie das OpenSearch Dashboard für die OpenSearch Domain, mit der Sie arbeiten möchten. Die URL hat das Format `domain-endpoint/_dashboards/`.

1. Wählen Sie im Navigationsbereich **Sicherheit** aus.

1. Suchen Sie in der Liste nach der Rolle, die Sie gerade erstellt haben, z. B. **kb\$1opensearch\$1role** und öffnen Sie sie.

1. Wählen Sie auf der Registerkarte **Zugeordnete Benutzer** die Option **Zuordnung verwalten** aus.

1. Geben Sie im Abschnitt **Backend-Rollen** den ARN der AWS verwalteten IAM-Rolle für Knowledge Bases ein. Je nachdem, ob Sie Ihre eigene benutzerdefinierte Rolle erstellt haben oder Knowledge Bases die Rolle für Sie erstellen lassen, kopieren Sie die ARN-Informationen der Rolle aus der IAM-Konsole oder der Amazon Bedrock-Konsole und geben Sie diese Informationen dann für die **Backend-Rollen** in der Konsole ein. OpenSearch Im Folgenden sehen Sie ein Beispiel.

   ```
   arn:aws:iam::<accountId>:role/service-role/<knowledge-base-service-role>
   ```

1. Wählen Sie **Zuordnen** aus.

   Die Knowledge Base-Service-Rolle kann jetzt eine Verbindung mit der OpenSearch Rolle herstellen und die erforderlichen Operationen für die Domain und den Index ausführen.

# So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen
<a name="knowledge-base-create"></a>

Wenn Sie eine Wissensdatenbank erstellen, indem Sie eine Verbindung zu einer Datenquelle herstellen, richten Sie Folgendes ein oder geben Sie Folgendes an:
+ Allgemeine Informationen, die die Wissensdatenbank definieren und identifizieren
+ Die Servicerolle mit Berechtigungen für die Wissensdatenbank.
+ Konfigurationen für die Wissensdatenbank, einschließlich des Einbettungsmodells, das bei der Konvertierung von Daten aus der Datenquelle verwendet werden soll, Speicherkonfigurationen für den Service, in dem die Einbettungen gespeichert werden sollen, und optional eines S3-Speicherorts zum Speichern multimodaler Daten.

**Anmerkung**  
Sie können keine Wissensdatenbank mit einem Root-Benutzer erstellen. Melden Sie sich mit einem IAM-Benutzer an, bevor Sie mit diesen Schritten beginnen.

Erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="knowledge-base-create-console"></a>

**So richten Sie eine Wissensdatenbank ein**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Klicken Sie im Abschnitt **Wissensdatenbanken** auf die Schaltfläche „Erstellen“ und legen Sie fest, dass eine Wissensdatenbank mit einem Vektorspeicher erstellt werden soll.

1. (Optional) Ändern Sie den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

1. Wählen Sie eine AWS Identity and Access Management (IAM-) Rolle, die Amazon Bedrock die Erlaubnis erteilt, auf andere erforderliche AWS Dienste zuzugreifen. Sie können Amazon Bedrock die Servicerolle auch erstellen lassen oder Ihre eigene [benutzerdefinierte Rolle verwenden, die Sie für Neptune Analytics erstellt haben](kb-permissions.md#kb-permissions-neptune).

1. Wählen Sie eine Datenquelle aus, mit der Sie Ihre Wissensdatenbank verbinden möchten.

1. (Optional) Fügen Sie Ihrer Wissensdatenbank Tags hinzu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

1. (Optional) Konfigurieren Sie Services, für die Aktivitätsprotokolle für Ihre Wissensdatenbank bereitgestellt werden sollen.

1. Gehen Sie zum nächsten Abschnitt und folgen Sie den Schritten unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md), um eine Datenquelle zu konfigurieren.

1. Gehen Sie im Abschnitt **Einbettungsmodell** wie folgt vor:

   1. Wählen Sie ein Einbettungsmodell aus, mit dem Ihre Daten in Vektoreinbettungen umgewandelt werden sollen. Wählen Sie für multimodale Daten (Bilder, Audio und Video) ein multimodales Einbettungsmodell wie Amazon Titan Multimodal Embeddings G1 oder Cohere Embed v3 aus.
**Anmerkung**  
Wenn Sie Amazon Titan Multimodal Embeddings G1 verwenden, müssen Sie einen S3-Inhalts-Bucket bereitstellen und können nur den Standardparser verwenden. Dieses Modell ist für Anwendungsfälle der Bildsuche optimiert. Umfassende Hinweise zur Wahl zwischen multimodalen Ansätzen finden Sie unter[Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md).

   1. (Optional) Erweitern Sie den Abschnitt **Zusätzliche Konfigurationen**, um die folgenden Konfigurationsoptionen anzuzeigen (nicht alle Modelle unterstützen alle Konfigurationen):
      + **Einbettungstyp** – Gibt an, ob die Daten in Gleitkomma-Vektoreinbettungen (float32) (genauer, aber teurer) oder binäre Vektoreinbettungen (weniger präzise, aber kostengünstiger) konvertiert werden sollen. Informationen darüber, welche Einbettungsmodelle binäre Vektoren unterstützen, finden Sie unter [Unterstützte Einbettungsmodelle](knowledge-base-supported.md).
      + **Vektordimensionen** – Höhere Werte verbessern die Genauigkeit, erhöhen jedoch die Kosten und die Latenz.

1. Gehen Sie im Bereich **Vektordatenbank** wie folgt vor:

   1. Wählen Sie einen Vektorspeicher für die Vektoreinbettungen aus, die für die Abfrage verwendet werden sollen. Ihnen stehen folgende Optionen zur Verfügung:
      + **Einen neuen Vektorspeicher schnell erstellen** – Wählen Sie einen der verfügbaren Vektorspeicher aus, den Amazon Bedrock erstellen soll. Sie können optional auch die AWS KMS Schlüsselverschlüsselung für Ihren Vector Store konfigurieren.
**Anmerkung**  
Wenn Sie diese Option wählen, übernimmt Amazon Bedrock automatisch die Platzierung der Metadaten für jeden Vektorspeicher.
        + **Amazon OpenSearch Serverless** — Amazon Bedrock Knowledge Bases erstellt eine Amazon OpenSearch Serverless-Vektorsuchsammlung und einen Index und konfiguriert sie mit den erforderlichen Feldern für Sie.
        + **Amazon Aurora PostgreSQL Serverless** – Amazon Bedrock richtet einen Vektorspeicher für Amazon Aurora PostgreSQL Serverless ein. Dieser Prozess nimmt unstrukturierte Textdaten aus einem Amazon-S3-Bucket, wandelt sie in Textblöcke und Vektoren um, und speichert sie dann in einer PostgreSQL-Datenbank. Weitere Informationen finden Sie unter [Schnellerstellen einer Aurora-PostgreSQL-Wissensdatenbank für Amazon Bedrock](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.quickcreatekb.html).
        + **Amazon Neptune Analytics** – Amazon Bedrock verwendet Retrieval Augmented Generation (RAG)-Techniken in Kombination mit Diagrammen, um generative KI-Anwendungen zu verbessern, sodass Endbenutzer genauere und umfassendere Antworten erhalten können.
        + **Amazon S3 Vectors** – Wissensdatenbanken für Amazon Bedrock erstellt einen S3-Vektor-Bucket und einen Vektorindex, in dem die aus Ihren Datenquellen generierten Einbettungen gespeichert werden.

          Sie können eine Wissensdatenbank für Amazon S3 Vectors in allen AWS-Region Umgebungen erstellen, in denen sowohl Amazon Bedrock als auch Amazon S3 Vectors verfügbar sind. Weitere Informationen finden Sie unter [Amazon S3 Vectors](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors.html) im *Benutzerhandbuch zu Amazon S3*.
**Anmerkung**  
Wenn Sie Amazon S3 Vectors mit Amazon Bedrock Knowledge Bases verwenden, können Sie bis zu 1 KB an benutzerdefinierten Metadaten (einschließlich filterbarer und nicht filterbarer Metadaten) und 35 Metadatenschlüssel pro Vektor anhängen. Ausführliche Informationen zu Einschränkungen von Metadaten finden Sie unter. [Unterstützung von Metadaten](knowledge-base-setup.md#metadata-support) [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md)
      + **Auswählen eines von Ihnen erstellten Vektorspeichers** – Wählen Sie einen unterstützten Vektorspeicher aus und identifizieren Sie die Vektorfeld- und Metadatenfeldnamen im Vektorindex. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).
**Anmerkung**  
Wenn es sich bei Ihrer Datenquelle um eine Confluence-, Microsoft SharePoint - oder Salesforce-Instance handelt, ist Amazon OpenSearch Serverless der einzige unterstützte Vector Store-Service.

   1. (Optional) Erweitern Sie den Abschnitt **Zusätzliche Konfigurationen** und modifizieren Sie alle relevanten Konfigurationen.

1. Wenn Ihre Datenquelle Bilder enthält, geben Sie eine Amazon-S3-URI an, in der die Bilder gespeichert werden sollen, die der Parser aus den Daten im **multimodalen Speicherziel** extrahiert. Die Bilder können während der Abfrage zurückgegeben werden. Sie können optional auch einen vom Kunden verwalteten Schlüssel anstelle des Von AWS verwalteter Schlüssel Standardschlüssels für die Verschlüsselung Ihrer Daten wählen.
**Anmerkung**  
Multimodale Daten werden nur von Amazon S3 und benutzerdefinierten Datenquellen unterstützt.
**Anmerkung**  
Bei der Verwendung multimodaler Einbettungsmodelle:  
Amazon Titan Multimodal Embeddings G1 erfordert einen S3-Inhalts-Bucket und funktioniert am besten mit Nur-Bild-Datensätzen, die den Standardparser verwenden
Cohere Embed v3 unterstützt gemischte Text- und Bilddatensätze und kann mit jeder Parser-Konfiguration verwendet werden
Vermeiden Sie bei Anwendungsfällen für die Bildsuche die Verwendung von Bedrock Data Automation (BDA) oder Foundation-Model-Parsern mit Titan G1 aufgrund von Token-Einschränkungen
Das multimodale Speicherziel erstellt Dateikopien für Abrufzwecke, für die zusätzliche Speichergebühren anfallen können

1. Wählen Sie **Weiter** und überprüfen Sie die Details Ihrer Wissensdatenbank. Sie können jeden beliebigen Abschnitt bearbeiten, bevor Sie mit der Erstellung Ihrer Wissensdatenbank fortfahren.
**Anmerkung**  
Die Zeit, die zum Erstellen der Wissensdatenbank benötigt wird, hängt von Ihren spezifischen Konfigurationen ab. Wenn die Erstellung der Wissensdatenbank abgeschlossen ist, wechselt der Status der Wissensdatenbank in den Status „Bereit“ oder „Verfügbar“.  
Sobald Ihre Wissensdatenbank bereit und verfügbar ist, synchronisieren Sie Ihre Datenquelle zum ersten Mal und anschließend wann immer Sie Ihre Inhalte auf dem neuesten Stand bringen möchten. Wählen Sie Ihre Wissensdatenbank in der Konsole aus und klicken Sie im Bereich Datenquellenübersicht auf **Synchronisieren**.

## Verwenden der API
<a name="knowledge-base-create-api"></a>

Um eine Wissensdatenbank zu erstellen, senden Sie eine [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

**Anmerkung**  
Wenn Sie es vorziehen, dass Amazon Bedrock einen Vektorspeicher für Sie erstellt und verwaltet, verwenden Sie stattdessen die Konsole. Für weitere Informationen erweitern Sie den Abschnitt **Verwenden der Konsole** in vorliegendem Thema.

Die folgenden Felder sind erforderlich:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| Name | Ein Name für die Wissensdatenbank | 
| roleArn | Der ARN einer [Servicerolle in Wissensdatenbanken für Amazon Bedrock](kb-permissions.md). | 
| knowledgeBaseConfiguration | Enthält Konfigurationen für die Wissensdatenbank. Siehe unten. | 
| storageConfiguration | (Nur erforderlich, wenn Sie eine Verbindung zu einer unstrukturierten Datenquelle herstellen).Enthält Konfigurationen für den Datenquellenservice, den Sie auswählen. | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Eine Beschreibung für die Wissensdatenbank. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tags | Hiermit ordnen Sie dem Flow Tags zu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md). | 

Geben Sie in dem `knowledgeBaseConfiguration` Feld, das einem Objekt zugeordnet ist, ein [KnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseConfiguration.html)Objekt `VECTOR` an und schließen Sie es ein. `type` [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html) Schließen Sie im Objekt die folgenden Felder ein:
+ `embeddingModelArn` – Den ARN des zu verwendenden Einbettungsmodells.
+ `embeddingModelConfiguration` – Konfigurationen für das Einbettungsmodell. Informationen zu den möglichen Werten, die für jedes unterstützte Modell angegeben werden können, finden Sie unter [Unterstützte Modelle und Regionen für Amazon-Bedrock-Wissensdatenbanken](knowledge-base-supported.md).
+ (Wenn Sie beabsichtigen, multimodale Daten, zu denen Bilder, Abbildungen, Diagramme oder Tabellen gehören, in Ihre Wissensdatenbank aufzunehmen) `supplementalDataStorageConfiguration` — Ordnet einem [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)Objekt zu, in dem Sie den S3-Speicherort angeben, an dem die extrahierten Daten gespeichert werden sollen. Weitere Informationen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

Geben Sie in dem `storageConfiguration` Feld, das einem [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)Objekt zugeordnet ist, den Vektorspeicher an, mit dem Sie eine Verbindung herstellen möchten, und fügen Sie das Feld hinzu, das diesem Vektorspeicher entspricht. `type` Einzelheiten zu den Informationen, die Sie angeben müssen, finden Sie unter [StorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StorageConfiguration.html)den einzelnen Vektorspeicher-Konfigurationstypen.

Im Folgenden sehen Sie eine Beispielanforderung zum Erstellen einer Wissensdatenbank, die mit einer Amazon OpenSearch Serverless-Sammlung verbunden ist. Die Daten aus verbundenen Datenquellen werden mit Amazon in binäre Vektoreinbettungen umgewandelt, Titan Text Embeddings V2 und die vom Parser extrahierten multimodalen Daten werden so eingerichtet, dass sie in einem Bucket namens gespeichert werden. *MyBucket*

```
PUT /knowledgebases/ HTTP/1.1
Content-type: application/json

{
   "name": "MyKB",
   "description": "My knowledge base",
   "roleArn": "arn:aws:iam::111122223333:role/service-role/AmazonBedrockExecutionRoleForKnowledgeBase_123",
   "knowledgeBaseConfiguration": {
      "type": "VECTOR",
      "vectorKnowledgeBaseConfiguration": { 
         "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-embed-text-v2:0",
         "embeddingModelConfiguration": { 
            "bedrockEmbeddingModelConfiguration": { 
               "dimensions": 1024,
               "embeddingDataType": "BINARY"
            }
         },
         "supplementalDataStorageConfiguration": { 
            "storageLocations": [ 
               { 
                  "s3Location": { 
                     "uri": "arn:aws:s3:::MyBucket"
                  },
                  "type": "S3"
               }
            ]
         }
      }
   },
   "storageConfiguration": { 
      "opensearchServerlessConfiguration": { 
         "collectionArn": "arn:aws:aoss:us-east-1:111122223333:collection/abcdefghij1234567890",
         "fieldMapping": { 
            "metadataField": "metadata",
            "textField": "text",
            "vectorField": "vector"
         },
         "vectorIndexName": "MyVectorIndex"
      }
   }
}
```

**Topics**
+ [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md)
+ [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md)
+ [So richten Sie Sicherheitskonfigurationen für Ihre Wissensdatenbank ein](kb-create-security.md)

# Verbinden einer Datenquelle mit der Wissensdatenbank
<a name="data-source-connectors"></a>

Nachdem Sie die Konfigurationen für Ihre Wissensdatenbank abgeschlossen haben, verbinden Sie eine unterstützte Datenquelle mit der Wissensdatenbank.

Amazon-Bedrock-Wissensdatenbanken unterstützen die Verbindung zu unstrukturierten Datenquellen oder strukturierten Datenspeichern über eine Abfrage-Engine. Wählen Sie ein Thema aus, um zu erfahren, wie Sie eine Verbindung zu dieser Art von Datenquelle herstellen können:

**Unterstützung multimodaler Inhalte**  
Multimodaler Inhalt (Bilder, Audio- und Videodateien) wird nur mit Amazon S3 und benutzerdefinierten Datenquellen unterstützt. Bei anderen Datenquellentypen werden multimodale Dateien bei der Aufnahme übersprungen. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Um zu erfahren, wie Sie mithilfe der Amazon-Bedrock-Konsole eine Verbindung zu einer Datenquelle herstellen, wählen Sie unten auf dieser Seite das Thema für Ihren Datenquellentyp aus:

Um mithilfe der Amazon Bedrock-API eine Verbindung zu einer Datenquelle herzustellen, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage mit einem [Runtime-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

Die folgenden Felder sind erforderlich:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| knowledgeBaseId | Die Kennung der Wissensdatenbank. | 
| Name | Ein Name für die Wissensdatenbank. | 
| dataSourceConfiguration | Geben Sie den Datenquellenservice oder -typ in das Feld type ein und nehmen Sie das entsprechende Feld auf. Für weitere Informationen zu servicespezifischen Konfigurationen wählen Sie das Thema für den Service aus den Themen unten auf dieser Seite aus. | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Zur Beschreibung der Datenquelle. | 
| vectorIngestionConfiguration | Enthält Konfigurationen zum Anpassen des Erfassungsprozesses. Weitere Informationen finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Zur Angabe, ob die Vektor-Einbettungen im Vektorspeicher beibehalten (RETAIN) oder gelöscht (DELETE) werden sollen. | 
| serverSideEncryptionKonfiguration | Um transiente Daten während der Datensynchronisierung mit einem kundenseitig verwalteten Schlüssel zu verschlüsseln, geben Sie den zugehörigen ARN in das Feld kmsKeyArn ein. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Wählen Sie ein Thema aus, um mehr über einen Service und seine Konfiguration zu erfahren.

**Topics**
+ [Verbinden mit Amazon S3 für Ihre Wissensdatenbank](s3-data-source-connector.md)
+ [Verbindung zu Confluence für die Wissensdatenbank](confluence-data-source-connector.md)
+ [Connect zu Microsoft her, SharePoint um Ihre Wissensdatenbank zu erhalten](sharepoint-data-source-connector.md)
+ [Verbinden mit Salesforce für Ihre Wissensdatenbank](salesforce-data-source-connector.md)
+ [Crawlen von Webseiten für Ihre Wissensdatenbank](webcrawl-data-source-connector.md)
+ [Verknüpfen der Wissensdatenbank mit einer benutzerdefinierten Datenquelle](custom-data-source-connector.md)

# Verbinden mit Amazon S3 für Ihre Wissensdatenbank
<a name="s3-data-source-connector"></a>

Amazon S3 ist ein Objektspeicherdienst, der Daten als Objekte in Buckets speichert. Sie können eine Verbindung zu Ihrem Amazon S3 S3-Bucket für Ihre Amazon Bedrock-Wissensdatenbank herstellen, indem Sie entweder die [AWSManagement-Konsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder die [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API verwenden (siehe Amazon Bedrock [unterstützt SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) und). AWS CLI

**Unterstützung multimodaler Inhalte**  
Amazon S3 S3-Datenquellen unterstützen multimodale Inhalte wie Bilder, Audio- und Videodateien. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Sie können einen kleinen Stapel von Dateien über die Amazon-S3-Konsole oder die API in einen Amazon-S3-Bucket hochladen. Sie können es auch verwenden [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html), um mehrere Dateien kontinuierlich auf S3 hochzuladen und Dateien nach einem Zeitplan von der lokalen Infrastruktur, dem Edge, einer anderen Cloud oder AWS einem Speicher zu übertragen.

Derzeit werden nur S3-Buckets für allgemeine Zwecke unterstützt.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-s3-connector)
+ [Voraussetzungen](#prerequisites-s3-connector)
+ [Konfiguration der Verbindung](#configuration-s3-connector)

## Unterstützte Features
<a name="supported-features-s3-connector"></a>
+ Dokument-Metadatenfelder
+ Einschlusspräfixe
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte

## Voraussetzungen
<a name="prerequisites-s3-connector"></a>

**Stellen Sie in Amazon S3 Folgendes sicher**:
+ Notieren Sie sich den URI des Amazon-S3-Buckets, den Amazon-Ressourcennamen (ARN) und die AWS-Konto-ID für den Eigentümer des Buckets. Sie finden den URI und den ARN im Eigenschaftenbereich der Amazon-S3-Konsole. Ihr Bucket muss sich in derselben Region wie Ihre Amazon-Bedrock-Wissensdatenbank befinden. Sie müssen über die Zugriffsberechtigung für diesen Bucket verfügen.

Stellen **Sie in Ihrem AWS Konto sicher, dass Sie**:
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit Ihrer Datenquelle in Ihre AWS Identity and Access Management (IAM) role/permissions -Richtlinie für Ihre Wissensdatenbank auf. Informationen zu den erforderlichen Berechtigungen für diese Datenquelle, um sie Ihrer IAM Wissensdatenbank-Rolle hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, kann die IAM Rolle mit allen erforderlichen Berechtigungen im Rahmen der Schritte zum Erstellen einer Wissensdatenbank für Sie erstellt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.

## Konfiguration der Verbindung
<a name="configuration-s3-connector"></a>

Zum Herstellen einer Verbindung mit Ihrem Amazon-S3-Bucket müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-s3-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur Einschlussfiltern, zu Dokument-Metadatenfeldern, zur inkrementellen Synchronisierung und zu deren Funktionsweise finden Sie unter:

### Dokument-Metadatenfelder
<a name="ds-s3-metadata-fields"></a>

Sie können eine separate Datei hinzufügen, die die Dokumentmetadaten fields/attributes für jede Datei in Ihrer Amazon S3 S3-Datenquelle angibt und angibt, ob sie bei der Indizierung der Datenquelle im Vector Store in die Einbettungen aufgenommen werden sollen. Sie können beispielsweise eine Datei im folgenden Format erstellen, sie benennen *fileName.extension.metadata.json* und in Ihren S3-Bucket hochladen.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Die Metadatendatei muss denselben Namen wie die zugehörige Quelldokumentdatei verwenden, wobei `.metadata.json` an das Ende des Dateinamens angehängt wird. Die Metadatendatei muss im selben Ordner oder Speicherort wie die Quelldatei in Ihrem Amazon-S3-Bucket gespeichert werden. Die Datei darf das Limit von 10 KB nicht überschreiten. Informationen zu den unterstützten attribute/field Datentypen und den Filteroperatoren, die Sie auf Ihre Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Einschlusspräfixe
<a name="ds-s3-inclusion-exclusion"></a>

Sie können ein Einschlusspräfix angeben, bei dem es sich um ein Amazon-S3-Pfadpräfix handelt. Dabei können Sie eine S3-Datei oder einen Ordner anstelle des gesamten Buckets verwenden, um den S3-Datenquellen-Connector zu erstellen.

### Inkrementelle Synchronisierung
<a name="ds-s3-incremental-sync"></a>

Der Datenquellen-Connector crawlt neue, geänderte und gelöschte Inhalte jedes Mal, wenn Ihre Datenquelle mit Ihrer Wissensdatenbank synchronisiert wird. Amazon Bedrockkann den Mechanismus Ihrer Datenquelle verwenden, um Inhaltsänderungen nachzuverfolgen und Inhalte zu crawlen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um Ihre Datenquelle mit Ihrer Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API oder wählen Sie Ihre Wissensdatenbank in der Konsole aus und wählen Sie im Bereich Datenquellenübersicht die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Verbinden eines Amazon-S3-Buckets mit Ihrer Wissensdatenbank**

1. Befolgen Sie die Schritte unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Amazon S3** als Datenquelle aus.

1. Geben Sie einen Namen für die Datenquelle an.

1. Geben Sie an, ob sich der Amazon S3 S3-Bucket in Ihrem aktuellen AWS Konto oder einem anderen AWS Konto befindet. Ihr Bucket muss sich in derselben Region wie die Wissensdatenbank befinden.

1. (Optional) Wenn der Amazon-S3-Bucket mit einem KMS-Schlüssel verschlüsselt ist, geben Sie den Schlüssel an. Weitere Informationen finden Sie unter [Berechtigungen zum Entschlüsseln Ihres AWS KMS Schlüssels für Ihre Datenquellen in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** — Sie können die transienten Daten verschlüsseln, während Sie Ihre Daten mit dem Standard Von AWS verwalteter Schlüssel - oder Ihrem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Amazon S3 für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren Ihre Datenquelle mithilfe der API mit dem AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf rufen Sie auf [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)um Ihre Datenquelle mit Ihren Verbindungsinformationen zu erstellen`dataSourceConfiguration`.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Verbindung zu Confluence für die Wissensdatenbank
<a name="confluence-data-source-connector"></a>

Atlassian Confluence ist ein zusammenarbeitsorientiertes Arbeitsmanagement-Tool zum Freigeben, Speichern und Arbeiten an Projektplanung, Softwareentwicklung und Produktmanagement. Sie können mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource-API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) eine Verbindung zur Confluence-Instance für die Amazon-Bedrock-Wissensdatenbank herstellen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Anmerkung**  
Beim Datenquellen-Connector Confluence handelt es sich um eine Vorversion, bei der Änderungen vorbehalten sind.  
Confluence-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Diagramme, Diagramme oder andere Bilder.

Amazon Bedrock unterstützt die Verbindung zu Confluence-Cloud-Instances. Derzeit steht nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle zur Verfügung.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-confluence-connector)
+ [Voraussetzungen](#prerequisites-confluence-connector)
+ [Konfiguration der Verbindung](#configuration-confluence-connector)

## Unterstützte Features
<a name="supported-features-confluence-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Einschließen und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ OAuth-2.0-Authentifizierung, Authentifizierung mit Confluence-API-Token

## Voraussetzungen
<a name="prerequisites-confluence-connector"></a>

**Stellen Sie in Confluence Folgendes sicher**:
+ Notieren Sie die URL der Confluence-Instance. Für Confluence Cloud lautet diese beispielsweise *https://example.atlassian.net*. Die URL für Confluence Cloud muss die Basis-URL sein und auf *.atlassian.net* enden.
+ Konfigurieren Sie grundlegende Anmeldeinformationen für die Authentifizierung, die einen Benutzernamen (E-Mail des Administratorkontos) und ein Passwort (Confluence-API-Token) enthalten, sodass eine Verbindung zwischen Amazon Bedrock und Ihrer Confluence Cloud-Instance hergestellt werden kann. Informationen zum Erstellen eines Confluence-API-Tokens finden Sie auf der Atlassian-Website unter [API-Token für Ihr Atlassian-Konto verwalten](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token).
+ (Optional) Konfigurieren Sie eine OAuth 2.0-Anwendung mit den Anmeldeinformationen eines App-Schlüssels, eines geheimen App-Schlüssels, eines Zugriffstokens und eines Aktualisierungstokens. Weitere Informationen finden Sie unter [OAuth-2.0-Apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) auf der Atlassian-Website.
+ Es müssen bestimmte Leseberechtigungen oder Bereiche aktiviert sein, damit eine Verbindung zwischen der OAuth 2.0-App und Confluence möglich wird.

  Confluence-API:
  + offline\$1access
  + read:content:confluence – Detaillierte Inhalte anzeigen 
  + read:content:confluence – Inhaltsdetails anzeigen 
  + read:space-details:confluence – Bereichsdetails anzeigen
  + read:audit-log:confluence – Audit-Aufzeichnungen anzeigen 
  + read:page:confluence – Seiten anzeigen 
  + read:attachment:confluence – Inhaltsanhänge ansehen und herunterladen 
  + read:blogpost:confluence – Blogbeiträge ansehen 
  + read:custom-content:confluence – Benutzerdefinierten Inhalt anzeigen 
  + read:comment:confluence – Kommentare anzeigen 
  + read:template:confluence – Inhaltsvorlagen anzeigen 
  + read:label:confluence – Labels anzeigen 
  + read:watcher:confluence – Inhaltsbeobachter anzeigen 
  + read:relation:confluence – Entitätsbeziehungen anzeigen 
  + read:user:confluence – Benutzerdetails anzeigen 
  + read:configuration:confluence – Confluence-Einstellungen anzeigen 
  + read:space-details:confluence – Bereichsdetails anzeigen 
  + read:space.property:confluence – Bereichseigenschaften anzeigen 
  + read:user.property:confluence – Benutzereigenschaften anzeigen 
  + read:space.setting:confluence – Bereichseinstellungen anzeigen 
  + read:analytics.content:confluence – Analytik für Inhalte anzeigen
  + read:content.property:confluence – Inhaltseigenschaften anzeigen
  + read:content.metadata:confluence – Inhaltszusammenfassungen anzeigen 
  + read:inlinetask:confluence – Aufgaben anzeigen 
  + read:task:confluence – Aufgaben anzeigen 
  + read:whiteboard:confluence – Whiteboards anzeigen 
  + read:app-data:confluence – App-Daten lesen 
  + read:folder:confluence – Ordner anzeigen
  + read:embed:confluence – Smart-Link-Daten anzeigen

**Stellen Sie in Ihrem AWS-Konto Folgendes sicher**:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager-Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit der Datenquelle in die AWS Identity and Access Management (IAM)-Rollen-/Berechtigungsrichtlinie für die Wissensdatenbank auf. Informationen zu den Berechtigungen, die erforderlich sind, um diese Datenquelle der IAM-Rolle für die Wissensdatenbank hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Secret über AWS Secrets Manager hinzufügen oder ein vorhandenes Secret als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM-Rolle kann mit allen erforderlichen Berechtigungen im Rahmen der in der Konsole ausgeführten Schritte zum Erstellen einer Wissensdatenbank für Sie angelegt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-confluence-connector"></a>

Um eine Verbindung zur Confluence-Instance herzustellen, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-confluence-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-confluence-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn der Inhalt vertrauliche Informationen enthält, kann Amazon Bedrock mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-confluence-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Durch Angabe eines Ausschlusspräfixes oder eines Musters für reguläre Ausdrücke können Sie beispielsweise festlegen, dass alle Dateien, deren Name das Wort „privat” enthält, beim Crawling übersprungen werden. Sie können bestimmte Inhaltsentitäten oder Inhaltstypen durch Angabe von Einschlusspräfix/Mustern für reguläre Ausdrücke einbeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von PDF-Dateien, deren Dateiname das Wort „privat“ enthält: *".\$1privat.\$1\$1\$1.pdf"*

Einschluss-/Ausschlussfilter können auf die folgenden Inhaltstypen angewendet werden:
+ `Space`: Einzelnes Leerzeichen
+ `Page`: Haupttitel der Seite
+ `Blog`: Haupttitel des Blogs
+ `Comment`: Kommentare, die zu einer bestimmten Seite oder einem bestimmten Blog gehören. Geben Sie Folgendes an: *Betreff: Seiten-/Blogtitel*
+ `Attachment`: Name der Anhangsdatei mit Erweiterung

### Inkrementelle Synchronisierung
<a name="ds-confluence-incremental-sync"></a>

Der Datenquellen-Connector sucht bei jeder Synchronisierung der Datenquelle mit der Wissensdatenbank nach neuen, geänderten und gelöschten Inhalten. Amazon Bedrock kann den Mechanismus der Datenquelle verwenden, um geänderte Inhalte nachzuverfolgen und nach Inhalten zu suchen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um die Datenquelle mit der Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API; wählen Sie alternativ die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-confluence-secret-auth-credentials"></a>

(Bei Verwendung der Standardauthentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `username`: *E-Mail-Adresse des Admin-Benutzers des Atlassian-Kontos*
+ `password`: *Confluence-API-Token*

(Bei Verwendung der OAuth-2.0-Authentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `confluenceAppKey`: *App-Schlüssel*
+ `confluenceAppSecret`: *App-Secret*
+ `confluenceAccessToken`*: App-Zugriffstoken*
+ `confluenceRefreshToken`: *App-Aktualisierungstoken*

**Anmerkung**  
Das **OAuth2.0-Zugriffstoken** von Confluence läuft standardmäßig nach 60 Minuten ab. Wenn dieses Token abläuft, während Ihre Datenquelle synchronisiert wird (Synchronisierungsauftrag), verwendet Amazon Bedrock das bereitgestellte **Aktualisierungstoken**, um dieses Token neu zu generieren. Bei dieser Regenerierung werden sowohl die Zugriffs- als auch die Aktualisierungstoken aktualisiert. Um die Token vom aktuellen Synchronisierungsauftrag bis zum nächsten Synchronisierungsauftrag auf dem neuesten Stand zu halten, benötigt Amazon Bedrock im Rahmen Ihrer IAM-Rolle in der Wissensdatenbank Schreib- und PUT-Berechtigungen für die Secret-Anmeldeinformationen.

**Anmerkung**  
Ihr Secret in AWS Secrets Manager muss dieselbe Region wie die Wissensdatenbank verwenden.

------
#### [ Console ]

**Herstellen einer Verbindung zwischen Confluence-Instance und Wissensdatenbank**

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Confluence** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die URL der Confluence-Instance an. Für Confluence Cloud lautet diese beispielsweise *https://example.atlassian.net*. Die URL für Confluence Cloud muss die Basis-URL sein und auf *.atlassian.net* enden.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher**. – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard-Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen ein, um eine Verbindung zu Ihrer Confluence-Instance herzustellen:
   + Wechseln Sie für die Standardauthentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss die E-Mail-Adresse des Admin-Benutzers des Atlassian-Kontos als Benutzername und ein Confluence-API-Token anstelle eines Passworts enthalten. Informationen zum Erstellen eines Confluence-API-Tokens finden Sie auf der Atlassian-Website unter [API-Token für Ihr Atlassian-Konto verwalten](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token).
   + Wechseln Sie für die OAuth-2.0-Authentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss den Confluence-App-Schlüssel, das App-Secret, das Zugriffstoken und das Aktualisierungstoken enthalten. Weitere Informationen finden Sie unter [OAuth-2.0-Apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) auf der Atlassian-Website.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung der Daten und der Verarbeitung der Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Sie können mithilfe von Filtern/regulären Ausdrücken bestimmte Inhalte ein- oder ausschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Um die verbleibenden Schritte zu sehen, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Confluence Cloud für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren die Datenquelle mithilfe der API mit der AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf von [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) rufen Sie [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) auf, um die Datenquelle mit Ihren Verbindungsinformationen in `dataSourceConfiguration` zu erstellen.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect zu Microsoft her, SharePoint um Ihre Wissensdatenbank zu erhalten
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint ist ein kollaborativer webbasierter Dienst für die Arbeit an Dokumenten, Webseiten, Websites, Listen und mehr. Sie können eine Verbindung zu Ihrer SharePoint Instance für Ihre Amazon Bedrock-Wissensdatenbank herstellen, indem Sie entweder die [AWS Management Console für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder die [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API verwenden (siehe Amazon Bedrock [unterstützt SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) und). AWS CLI

**Anmerkung**  
SharePoint Der Datenquellen-Connector befindet sich in der Vorschauversion und kann sich ändern.  
 SharePoint Microsoft-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Diagramme, Diagramme oder andere Bilder.

Amazon Bedrock unterstützt die Verbindung zu SharePoint Online-Instances. Das Crawlen von OneNote Dokumenten wird derzeit nicht unterstützt. Derzeit ist nur Amazon OpenSearch Serverless Vector Store für die Verwendung mit dieser Datenquelle verfügbar.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-sharepoint-connector)
+ [Voraussetzungen](#prerequisites-sharepoint-connector)
+ [Konfiguration der Verbindung](#configuration-sharepoint-connector)

## Unterstützte Features
<a name="supported-features-sharepoint-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Einschließen und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ SharePoint Authentifizierung nur über Apps

## Voraussetzungen
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**Führen Sie in Ihrem SharePoint (Online) die folgenden Schritte aus, um die SharePoint reine App-Authentifizierung zu verwenden:**
+ Notieren Sie sich die URL/ Ihrer SharePoint Online-Site. URLs Beispiel, *https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Die URL Ihrer Website muss die tatsächliche SharePoint Website sein, nicht oder *sharepoint.com/* *sites/mysite/home.aspx*
+ Notieren Sie sich den Domainnamen Ihrer SharePoint Online-Instanz-URL/URLs.
+ Kopieren Sie Ihre Mandanten-ID von Microsoft 365. Sie finden Ihre Mandanten-ID in den Eigenschaften Ihres Portals von Microsoft Entra. Weitere Informationen finden Sie unter [Finden Sie Ihre Microsoft 365-Mandanten-ID](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Anmerkung**  
Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website. 
+ Konfigurieren Sie Anmeldeinformationen, die SharePoint nur für Apps bestimmt sind.
+ Kopieren Sie die Client-ID und den Wert für den geheimen Client-Schlüssel, wenn Sie App-Only die SharePoint Erlaubnis erteilen. Weitere Informationen finden Sie unter [Zugriff mit SharePoint App-Only gewähren](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs).
**Anmerkung**  
Sie müssen keine API-Berechtigungen für SharePoint App-Only einrichten. Sie müssen jedoch nebenbei APP-Berechtigungen konfigurieren. SharePoint Weitere Informationen zu den erforderlichen APP-Berechtigungen finden Sie in der Microsoft-Dokumentation zum [Gewähren von Zugriff mithilfe von SharePoint App-Only](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs).

### AWS-Konto
<a name="prerequisites-sharepoint-connector-account"></a>

Stellen **Sie in Ihrem AWS Konto sicher,** dass Sie:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager -Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit Ihrer Datenquelle in Ihre AWS Identity and Access Management (IAM) role/permissions -Richtlinie für Ihre Wissensdatenbank auf. Informationen zu den erforderlichen Berechtigungen für diese Datenquelle, um sie Ihrer IAM Wissensdatenbank-Rolle hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Geheimnis AWS Secrets Manager hinzufügen oder ein vorhandenes Geheimnis als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM Rolle mit allen erforderlichen Berechtigungen kann im Rahmen der Konsolenschritte zum Erstellen einer Wissensdatenbank für Sie erstellt werden. Nachdem Sie Ihre Datenquelle und andere Konfigurationen konfiguriert haben, wird die IAM Rolle mit allen erforderlichen Berechtigungen auf Ihre spezifische Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-sharepoint-connector"></a>

Um eine Verbindung zu Ihrer SharePoint Instance herzustellen, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und sie crawlen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-sharepoint-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-sharepoint-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn Ihr Inhalt vertrauliche Informationen enthält, Amazon Bedrock könnte dann mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-sharepoint-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Sie können beispielsweise ein prefix/regular Ausschlussausdrucksmuster angeben, um das Crawlen von Dateien zu überspringen, deren Dateiname „privat“ enthält. Sie können auch ein Muster für prefix/regular Einschlussausdrücke angeben, um bestimmte Inhaltsentitäten oder Inhaltstypen einzubeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von PDF-Dateien, deren Dateiname das Wort „privat“ enthält: *".\$1privat.\$1\$1\$1.pdf"*

Sie können inclusion/exclusion Filter auf die folgenden Inhaltstypen anwenden:
+ `Page`: Haupttitel der Seite
+ `Event`: Ereignisname
+ `File`: Dateiname mit der entsprechenden Erweiterung für Anlagen und alle Dokumentdateien

Das Crawlen von OneNote Dokumenten wird derzeit nicht unterstützt.

### Inkrementelle Synchronisierung
<a name="ds-sharepoint-incremental-sync"></a>

Der Datenquellen-Connector crawlt neue, geänderte und gelöschte Inhalte jedes Mal, wenn Ihre Datenquelle mit Ihrer Wissensdatenbank synchronisiert wird. Amazon Bedrock kann den Mechanismus Ihrer Datenquelle verwenden, um Inhaltsänderungen nachzuverfolgen und Inhalte zu crawlen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Um Ihre Datenquelle mit Ihrer Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API oder wählen Sie Ihre Wissensdatenbank in der Konsole aus und wählen Sie im Bereich Datenquellenübersicht die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-sharepoint-secret-auth-credentials"></a>

Wenn Sie die SharePoint reine App-Authentifizierung verwenden, AWS Secrets Manager müssen Ihre geheimen Anmeldeinformationen die folgenden Schlüssel-Wert-Paare enthalten:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Anmerkung**  
Ihr Secret-In AWS Secrets Manager muss dieselbe Region wie Ihre Wissensdatenbank verwenden.

------
#### [ Console ]

**Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect**<a name="connect-sharepoint-console"></a>

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **SharePoint**als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die URL Ihrer SharePoint Website ein/URLs. Zum Beispiel für SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Ihre Site-URL muss die tatsächliche SharePoint Site sein, nicht *sharepoint.com/* oder *sites/mysite/home.aspx*

1. Geben Sie den Domainnamen Ihrer SharePoint Instanz an.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher**. — Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard Von AWS verwalteter Schlüssel - oder Ihrem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen an, um eine Verbindung zu Ihrer Instanz herzustellen. SharePoint Für die SharePoint Authentifizierung nur über Apps:

   1. Geben Sie die Mandanten-ID an. Ihre Mandanten-ID finden Sie in den Eigenschaften Ihres Azure Active Directory-Portals.

   1. Gehen Sie AWS Secrets Manager zu, um Ihre geheimen Anmeldeinformationen hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Geheimnis. Ihr Secret muss die SharePoint Client-ID und das SharePoint Client-Geheimnis enthalten, das bei der Registrierung der App Only auf Mandantenebene oder Standortebene generiert wurde, sowie die Entra-Client-ID und den Entra-Client-Secret, die bei der Registrierung der App in Entra generiert wurden.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung der Daten und der Verarbeitung der Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Wählen Sie, ob Sie filters/regular Ausdrucksmuster verwenden möchten, um bestimmte Inhalte ein- oder auszuschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung zu SharePoint Online für Ihre Amazon Bedrock-Wissensdatenbank. Sie konfigurieren Ihre Datenquelle mithilfe der API mit dem AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf rufen Sie auf [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)um Ihre Datenquelle mit Ihren Verbindungsinformationen zu erstellen`dataSourceConfiguration`.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Inhalt von `sharepoint-bedrock-connector-configuration.json`** 

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Wichtig**  
Die OAuth2 2.0-Authentifizierung wird nicht empfohlen. Wir empfehlen, die SharePoint App-Only-Authentifizierung zu verwenden.

## 0 verwenden OAuth2
<a name="sharepoint-connector-oauth"></a>

Mit OAuth 2.0 können Sie den Zugriff auf SharePoint Ressourcen für SharePoint Konnektoren, die in Knowledge Bases integriert sind, authentifizieren und autorisieren.

### Voraussetzungen
<a name="sharepoint-connector-oauth-prereq"></a>

Stellen Sie **bei SharePoint der OAuth 2.0-Authentifizierung sicher,** dass Sie:
+ Notieren Sie sich die URL/ URLs Ihrer SharePoint Online-Site. Beispiel, *https://yourdomain.sharepoint.com/sites/mysite*. Ihre URL muss mit *https* beginnen und *sharepoint.com* enthalten. Die URL Ihrer Website muss die tatsächliche SharePoint Website sein, nicht oder *sharepoint.com/* *sites/mysite/home.aspx*
+ Notieren Sie sich den Domainnamen Ihrer SharePoint Online-Instanz-URL/URLs.
+ Kopieren Sie Ihre Mandanten-ID von Microsoft 365. Sie finden Ihre Mandanten-ID in den Eigenschaften Ihres Microsoft Entra-Portals oder in Ihrer OAuth Anwendung.

  Notieren Sie sich den Benutzernamen und das Passwort des SharePoint Administratorkontos und kopieren Sie bei der Registrierung einer Anwendung die Client-ID und den geheimen Client-Wert.
**Anmerkung**  
Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website. 
+  SharePoint Bei der Registrierung einer Anwendung sind bestimmte Leseberechtigungen erforderlich, um eine Verbindung herzustellen.
  + SharePoint: AllSites .Read (delegiert) — Elemente in allen Websitesammlungen lesen
+ Möglicherweise müssen Sie die **Sicherheitsstandards** in Ihrem Azure-Portal mithilfe eines Administratorbenutzers deaktivieren. Weitere Informationen zur Verwaltung von Sicherheitsstandardeinstellungen im Azure-Portal finden Sie in der [Microsoft-Dokumentation zur Vorgehensweise bei enable/disable Sicherheitsstandards](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Möglicherweise müssen Sie die Multi-Faktor-Authentifizierung (MFA) in Ihrem SharePoint Konto deaktivieren, damit Amazon Bedrock nicht daran gehindert wird, Ihre Inhalte zu crawlen. SharePoint 

Zum Erfüllen der Voraussetzungen sollten Sie sicherstellen, dass Sie die unter [AWS-Konto](#prerequisites-sharepoint-connector-account) beschriebenen Schritte ausgeführt haben.

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Für die Verbindungskonfiguration für OAuth2 .0 können Sie dieselben Schritte für die auto Erkennung der Hauptdokumentfelder, inclusion/exclusion Filter und die inkrementelle Synchronisierung ausführen, wie unter beschrieben. [Konfiguration der Verbindung](#configuration-sharepoint-connector)

**Für die OAuth 2.0-Authentifizierung AWS Secrets Manager müssen Ihre geheimen Anmeldeinformationen diese Schlüssel-Wert-Paare enthalten**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect
<a name="sharepoint-connector-oauth-using"></a>

Um eine SharePoint Instanz mit Ihrer Wissensdatenbank zu verbinden, wenn Sie OAuth2 .0 verwenden:
+ (Konsole) Folgen Sie in der Konsole den gleichen Schritten wie unter [Eine SharePoint Instanz mit Ihrer Wissensdatenbank Connect](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console) beschrieben. Wenn Sie die Authentifizierungsinformationen angeben möchten, um eine Verbindung zu Ihrer SharePoint Instanz herzustellen.
  + Geben Sie die Mandanten-ID an. Ihre Mandanten-ID finden Sie in den Eigenschaften Ihres Azure Active Directory-Portals.
  + Gehen Sie AWS Secrets Manager zu, um Ihre geheimen Authentifizierungsdaten hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Geheimnis. Ihr Secret muss den SharePoint Admin-Benutzernamen und das Passwort sowie Ihre registrierte App-Client-ID und Ihren geheimen Client-Schlüssel enthalten. Eine Beispielanwendung finden Sie unter [Registrieren einer Client-Anwendung in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (früher bekannt als Azure Active Directory) auf der Microsoft Learn-Website.
+ (API) Im Folgenden finden Sie ein Beispiel für die Verwendung der `CreateDataSource` API, um Ihre Datenquelle mit Ihren Verbindungsinformationen für OAuth2 .0 zu erstellen.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Inhalt von `sharepoint-bedrock-connector-configuration.json`** 

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Verbinden mit Salesforce für Ihre Wissensdatenbank
<a name="salesforce-data-source-connector"></a>

Salesforce ist ein Customer Relationship Management (CRM)-Tool zur Verwaltung von Support-, Vertriebs- und Marketingteams. Sie können mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource-API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) eine Verbindung mit der Salesforce-Instance für die Amazon-Bedrock-Wissensdatenbank herstellen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Anmerkung**  
Beim Datenquellen-Connector Salesforce handelt es sich um eine Vorversion, bei der Änderungen vorbehalten sind.  
Salesforce-Datenquellen unterstützen keine multimodalen Daten wie Tabellen, Graphen, Diagramme oder andere Bilder.

Derzeit ist nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle verfügbar.

Anzahl und Größe der durchsuchbaren Dateien sind beschränkt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-salesforce-connector)
+ [Voraussetzungen](#prerequisites-salesforce-connector)
+ [Konfiguration der Verbindung](#configuration-salesforce-connector)

## Unterstützte Features
<a name="supported-features-salesforce-connector"></a>
+ Automatische Erkennung der wichtigsten Dokumentfelder
+ Filter zum Ein- und Ausschließen von Inhalten
+ Inkrementelle Inhaltssynchronisierung für hinzugefügte, aktualisierte und gelöschte Inhalte
+ OAuth 2.0-Authentifizierung

## Voraussetzungen
<a name="prerequisites-salesforce-connector"></a>

**Stellen Sie in Salesforce Folgendes sicher**:
+ Notieren Sie sich die URL Ihrer Salesforce-Instance. Zum Beispiel *https://company.salesforce.com/*. Die Instance muss eine Salesforce Connected App ausführen.
+ Erstellen Sie eine Salesforce Connected App und konfigurieren Sie die Client-Anmeldeinformationen. Kopieren Sie dann für Ihre ausgewählte Anwendung den Verbraucherschlüssel (Client-ID) und das Verbrauchergeheimnis (Client-Geheimnis) aus den OAuth-Einstellungen. Weitere Informationen finden Sie in der Salesforce-Dokumentation unter [Erstellen einer verbundenen Anwendung](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) und [Konfigurieren einer verbundenen Anwendung für die OAuth-2.0-Client-Anmeldeinformationen](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Anmerkung**  
Stellen Sie bei Salesforce Connected Apps unter Client-Anmeldeinformationsfluss sicher, dass Sie im Feld „Ausführen als“ den Namen oder Alias des Benutzers für Ihre Client-Anmeldeinformationen suchen und auswählen.

**Stellen Sie in Ihrem AWS-Konto Folgendes sicher**:
+ Speichern Sie Ihre Anmeldeinformationen für die Authentifizierung in einem [AWS Secrets Manager-Secret](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) und notieren Sie sich dessen Amazon-Ressourcennamen (ARN). Folgen Sie den Anweisungen zur **Verbindungskonfiguration** auf dieser Seite, um die Schlüssel-Wert-Paare aufzunehmen, die in Ihrem Secret enthalten sein müssen.
+ Nehmen Sie die erforderlichen Berechtigungen für die Verbindung mit der Datenquelle in die AWS Identity and Access Management (IAM)-Rollen-/Berechtigungsrichtlinie für die Wissensdatenbank auf. Informationen zu den Berechtigungen, die erforderlich sind, um diese Datenquelle der IAM-Rolle für die Wissensdatenbank hinzuzufügen, finden Sie unter [Berechtigungen für den Zugriff auf Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie Ihr Secret über AWS Secrets Manager hinzufügen oder ein vorhandenes Secret als Teil des Konfigurationsschritts für die Datenquelle verwenden. Die IAM-Rolle kann mit allen erforderlichen Berechtigungen im Rahmen der in der Konsole ausgeführten Schritte zum Erstellen einer Wissensdatenbank für Sie angelegt werden. Nachdem Sie die Datenquelle konfiguriert und andere Konfigurationen vorgenommen haben, wird die IAM-Rolle mit allen erforderlichen Berechtigungen auf die jeweilige Wissensdatenbank angewendet.  
Wir empfehlen, die Anmeldeinformationen und Secrets regelmäßig zu aktualisieren oder zu wechseln. Stellen Sie zu Ihrer eigenen Sicherheit nur die unbedingt erforderliche Zugriffsebene bereit. Wir raten davon ab, für mehrere Datenquellen identische Anmeldeinformationen und Secrets zu verwenden.

## Konfiguration der Verbindung
<a name="configuration-salesforce-connector"></a>

Wenn Sie eine Verbindung mit der Salesforce-Instance herstellen möchten, müssen Sie die erforderlichen Konfigurationsinformationen angeben, damit Amazon Bedrock auf Ihre Daten zugreifen und nach ihnen suchen kann. Befolgen Sie zudem [Voraussetzungen](#prerequisites-salesforce-connector).

Ein Beispiel für eine Konfiguration für diese Datenquelle ist in diesem Abschnitt enthalten.

Weitere Informationen zur automatischen Erkennung von Dokumentfeldern, Einschluss-/Ausschlussfiltern, inkrementellen Synchronisierung, geheimen Anmeldeinformationen für die Authentifizierung und deren Funktionsweise finden Sie unter:

### Automatische Erkennung der wichtigsten Dokumentfelder
<a name="ds-salesforce-document-fields"></a>

Der Datenquellen-Connector erkennt und durchsucht automatisch alle wichtigen Metadatenfelder von Dokumenten oder Inhalten. Der Datenquellen-Connector kann beispielsweise den Dokumenttext zu den Dokumenten, den Dokumenttitel, das Erstellungs- oder Änderungsdatum des Dokuments oder andere Kernfelder durchsuchen, die für die Dokumente gelten.

**Wichtig**  
Wenn der Inhalt vertrauliche Informationen enthält, kann Amazon Bedrock mit vertraulichen Informationen antworten.

Sie können Filteroperatoren auf Metadatenfelder anwenden, um die Relevanz von Antworten weiter zu verbessern. Zum Beispiel: Dokument „epoch\$1modification\$1time“ oder die Anzahl der Sekunden, die seit dem 1. Januar 1970 vergangen sind, als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Weitere Informationen zu den Filteroperatoren, die Sie auf die Metadatenfelder anwenden können, finden Sie unter [Metadaten und Filterung.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Einschluss- und Ausschlussfilter
<a name="ds-salesforce-inclusion-exclusion"></a>

Sie können das Crawling bestimmter Inhalte ein- oder ausschließen. Durch Angabe eines Ausschlusspräfixes oder eines Musters für reguläre Ausdrücke können Sie beispielsweise festlegen, dass alle Dateien, deren Name das Wort „privat” enthält, beim Crawling übersprungen werden. Sie können bestimmte Inhaltsentitäten oder Inhaltstypen durch Angabe von Einschlusspräfix/Mustern für reguläre Ausdrücke einbeziehen. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide auf ein Dokument zutreffen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht durchsucht.

Ein Beispiel für ein Muster für reguläre Ausdrücke zum Ausschließen oder Herausfiltern von Kampagnen, die das Wort „privat“ enthalten: *„.\$1privat.\$1“*

Einschluss-/Ausschlussfilter können auf die folgenden Inhaltstypen angewendet werden:
+ `Account`: Kontonummer/ID
+ `Attachment`: Name der Anhangsdatei mit Erweiterung
+ `Campaign`: Kampagnenname und zugehörige IDs
+ `ContentVersion`: Version des Dokuments und zugehörige IDs
+ `Partner`: Felder mit Partnerinformationen, einschließlich der zugehörigen IDs
+ `Pricebook2`: Name der Produkt-/Preisliste
+ `Case`: Kundenanfrage-/Ausgabenummer und andere Informationsfelder, einschließlich der zugehörigen IDs (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Contact`: Kundeninformationsfelder (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Contract`: Vertragsname und zugehörige IDs
+ `Document`: Name der Datei mit Erweiterung
+ `Idea`: Informationsfelder für Ideen und zugehörige IDs
+ `Lead`: Potenzielle neue Kundeninformationsfelder (bitte beachten Sie: kann persönliche Informationen enthalten, die Sie ausschließen oder herausfiltern können)
+ `Opportunity`: Informationsfelder für ausstehende Verkäufe/Vertragsabschlüsse und zugehörige IDs
+ `Product2`: Produktinformationsfelder und zugehörige IDs
+ `Solution`: Lösungsname für eine Kundenanfrage/ein Kundenproblem und zugehörige IDs
+ `Task`: Informationsfelder für Aufgaben und zugehörige IDs
+ `FeedItem`: ID des Chatter-Feed-Posts
+ `FeedComment`: ID des Chatter-Feed-Posts, zu dem die Kommentare gehören
+ `Knowledge__kav`: Titel des Wissensartikels
+ `User`: Benutzeralias innerhalb Ihrer Organisation
+ `CollaborationGroup`: Chatter-Gruppenname (eindeutig)

### Inkrementelle Synchronisierung
<a name="ds-salesforce-incremental-sync"></a>

Der Datenquellen-Connector sucht bei jeder Synchronisierung der Datenquelle mit der Wissensdatenbank nach neuen, geänderten und gelöschten Inhalten. Amazon Bedrock kann den Mechanismus der Datenquelle verwenden, um geänderte Inhalte nachzuverfolgen und nach Inhalten zu suchen, die sich seit der letzten Synchronisierung geändert haben. Wenn Sie die Datenquelle zum ersten Mal mit der Wissensdatenbank synchronisieren, werden standardmäßig alle Inhalte synchronisiert.

Zum Synchronisieren der Datenquelle mit der Wissensdatenbank verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API. Alternativ können Sie auch die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** auswählen.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Anmeldeinformationen für die Secret-Authentifizierung
<a name="ds-salesforce-secret-auth-credentials"></a>

(Für die OAuth-2.0-Authentifizierung) Die Secret-Anmeldeinformationen für die Authentifizierung in AWS Secrets Manager sollten die folgenden Schlüssel-Wert-Paare enthalten:
+ `consumerKey`: *App-Client-ID*
+ `consumerSecret`: *App-Client-Secret*
+ `authenticationUrl`: *URL der Salesforce-Instance oder die URL, von der das Authentifizierungstoken angefordert werden soll*

**Anmerkung**  
Ihr Secret in AWS Secrets Manager muss dieselbe Region wie die Wissensdatenbank verwenden.

------
#### [ Console ]

**Herstellen einer Verbindung zwischen Salesforce-Instance und Wissensdatenbank**

1. Folgen Sie den Schritten unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Salesforce** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie Ihre Salesforce-Instance-URL an. Zum Beispiel *https://company.salesforce.com/*. Die Instance muss eine Salesforce Connected App ausführen.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem standardmäßigen Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. Geben Sie die Authentifizierungsinformationen ein, um eine Verbindung zu Ihrer Salesforce-Instance herzustellen:

   1. Wechseln Sie für die OAuth-2.0-Authentifizierung zu AWS Secrets Manager, um Ihre geheimen Anmeldeinformationen für die Authentifizierung hinzuzufügen, oder verwenden Sie einen vorhandenen Amazon-Ressourcennamen (ARN) für das von Ihnen erstellte Secret. Ihr Secret muss den Salesforce Connected App Consumer Key (Client-ID), das Consumer Secret (Client Secret) und die Salesforce-Instance-URL oder die URL enthalten, von der das Authentifizierungstoken angefordert werden soll. Weitere Informationen finden Sie in der Salesforce-Dokumentation unter [Erstellen einer verbundenen Anwendung](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) und [Konfigurieren einer verbundenen Anwendung für die OAuth-2.0-Client-Anmeldeinformationen](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Sie können mithilfe von Filtern/regulären Ausdrücken bestimmte Inhalte ein- oder ausschließen. Andernfalls werden alle Standardinhalte gecrawlt.

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Wenn Sie die verbleibenden Schritte sehen möchten, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Im Folgenden finden Sie ein Beispiel für eine Konfiguration für die Verbindung mit Salesforce für die Amazon-Bedrock-Wissensdatenbank. Sie konfigurieren die Datenquelle mithilfe der API mit der AWS CLI oder einem unterstützten SDK, z. B. Python. Nach dem Aufruf von [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html) rufen Sie [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) auf, um die Datenquelle mit Ihren Verbindungsinformationen in `dataSourceConfiguration` zu erstellen.

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawlen von Webseiten für Ihre Wissensdatenbank
<a name="webcrawl-data-source-connector"></a>

Der von Amazon Bedrock bereitgestellte Webcrawler stellt eine Verbindung zu URLs her, die Sie für die Verwendung in Ihrer Amazon-Bedrock-Wissensdatenbank ausgewählt haben, und crawlt diese. Sie können Webseiten gemäß Ihrem festgelegten Bereich oder den von Ihnen festgelegten Grenzwerten für Ihre ausgewählten URLs crawlen. Sie können Webseiten entweder mit der [AWS-Managementkonsole für Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oder der [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)-API crawlen (siehe von Amazon Bedrock [unterstützte SDKs und AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Derzeit ist nur der Vektorspeicher von Amazon OpenSearch Serverless für die Verwendung mit dieser Datenquelle verfügbar.

**Anmerkung**  
Der Webcrawler-Datenquellen-Connector befindet sich in der Vorversion und kann sich ändern.

Bei der Auswahl der zu Crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind, und dass Sie die Konfigurationen in der Datei robots.txt berücksichtigen müssen.

Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Die Anzahl der Inhaltselemente der Webseite und die Anzahl der MB pro Inhaltselement, die gecrawlt werden können, ist begrenzt. Weitere Informationen finden Sie unter [Kontingente für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Unterstützte Features](#supported-features-webcrawl-connector)
+ [Voraussetzungen](#prerequisites-webcrawl-connector)
+ [Konfiguration der Verbindung](#configuration-webcrawl-connector)

## Unterstützte Features
<a name="supported-features-webcrawl-connector"></a>

Der Webcrawler stellt ausgehend von der Seed-URL eine Verbindung zu HTML-Seiten her und crawlt diese. Dabei werden alle untergeordneten Links unter derselben primären Top-Domain und demselben Pfad durchlaufen. Wenn eine der HTML-Seiten auf unterstützte Dokumente verweist, ruft der Webcrawler diese Dokumente ab, unabhängig davon, ob sie sich innerhalb derselben obersten primären Domain befinden. Sie können das Crawling-Verhalten ändern, indem Sie eine andere Crawling-Konfiguration vornehmen. Weitere Informationen finden Sie unter [Konfiguration der Verbindung](#configuration-webcrawl-connector).

Die Ausführung der folgenden Schritte wird unterstützt:
+ Wählen Sie mehrere Quell-URLs für das Crawlen aus und legen Sie den URL-Bereich so fest, dass nur der Host gecrawlt wird oder auch Subdomains einbezogen werden.
+ Crawlen Sie statische Webseiten, die Teil Ihrer Quell-URLs sind.
+ Geben Sie ein angepasstes Suffix für Benutzeragenten an, um Regeln für Ihren eigenen Crawler festzulegen.
+ Schließen Sie bestimmte URLs, die einem Filtermuster entsprechen, ein oder aus.
+ Beachten Sie die Standardanweisungen von robots.txt wie „Zulassen“ und „Nicht zulassen“.
+ Begrenzen Sie den Bereich der zu crawlenden URLs und schließen Sie optional URLs aus, die einem Filtermuster entsprechen.
+ Begrenzen Sie die Crawling-Rate von URLs und die maximale Anzahl der zu crawlenden Seiten.
+ Anzeigen des Status gecrawlter URLs in Amazon CloudWatch

## Voraussetzungen
<a name="prerequisites-webcrawl-connector"></a>

**Führen Sie die folgenden Schritte aus, um den Webcrawler zu verwenden:**.
+ Vergewissern Sie sich, dass Sie berechtigt sind, Ihre Quell-URLs zu crawlen.
+ Vergewissern Sie sich, dass der Pfad zu robots.txt, der Ihren Quell-URLs entspricht, nicht verhindert, dass die URLs gecrawlt werden. Der Webcrawler hält sich an die Standards von robots.txt: standardmäßig `disallow`, wenn robots.txt für die Website nicht gefunden wird. Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Sie können auch ein angepasstes Suffix für Benutzeragenten angeben, um Regeln für Ihren eigenen Crawler festzulegen. Weitere Informationen finden Sie unter „Zugriff auf die Webcrawler-URL“ in den Anleitungen zu [Konfiguration der Verbindung](#configuration-webcrawl-connector) auf dieser Seite.
+ [Aktivieren Sie die Bereitstellung von CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) und folgen Sie den Beispielen von Webcrawler-Protokollen, um den Status Ihres Datenerfassungsauftrags für die Aufnahme von Webinhalten zu überprüfen und zu ermitteln, ob bestimmte URLs nicht abgerufen werden können.

**Anmerkung**  
Bei der Auswahl der zu Crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind.

## Konfiguration der Verbindung
<a name="configuration-webcrawl-connector"></a>

Wählen Sie Folgendes aus, um weitere Informationen zum Synchronisierungsbereich für das Crawling von URLs, zu Einschluss-/Ausschlussfiltern, zum URL-Zugriff, zur inkrementellen Synchronisierung und zu deren Funktionsweise zu erhalten:

### Synchronisierungsumfang für das Crawling von URLs
<a name="ds-sync-scope"></a>

Sie können den Bereich der zu crawlenden URLs basierend auf der spezifischen Beziehung der einzelnen Seed-URLs begrenzen. Um Crawl-Vorgänge zu beschleunigen, können Sie die URLs auf diejenigen beschränken, die denselben Host und denselben ursprünglichen URL-Pfad wie die Seed-URL aufweisen. Für umfassendere Crawl-Vorgänge können Sie auswählen, ob URLs mit demselben Host oder innerhalb einer beliebigen Subdomain der Seed-URL gecrawlt werden sollen.

Sie können aus den folgenden Optionen auswählen.
+ Standard: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören und über denselben ursprünglichen URL-Pfad verfügen. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann nur dieser Pfad und die Webseiten gecrawlt, die sich aus diesem Pfad ergeben, z. B. „https://aws.amazon.com/bedrock/agents/“. Gleichgeartete URLs wie „https://aws.amazon.com/ec2/“ werden beispielsweise nicht gecrawlt.
+ Nur Host: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „https://aws.amazon.com“ gecrawlt, z. B. „https://aws.amazon.com/ec2“.
+ Subdomains: Schließt das Crawling aller Webseiten ein, deren primäre Domain mit der der Seed-URL identisch ist. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „amazon.com“ (Subdomain) gecrawlt, z. B. „https://www.amazon.com“.

**Anmerkung**  
Stellen Sie sicher, dass Sie keine potenziell überlastete Webseiten crawlen. Es wird nicht empfohlen, große Websites wie wikipedia.org ohne Filter oder Bereichsbegrenzung zu crawlen. Das Crawling großer Websites nimmt sehr viel Zeit in Anspruch.  
[Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist.

Der Webcrawler unterstützt statische Websites.

Sie können auch die Crawling-Rate für URLs begrenzen, um die Drosselung der Crawling-Geschwindigkeit zu steuern. Sie legen die maximale Anzahl von URLs fest, die pro Host pro Minute gecrawlt werden. Darüber hinaus können Sie auch die maximale Anzahl (bis zu 25 000) aller Webseiten festlegen, die gecrawlt werden sollen. Beachten Sie, dass der Synchronisierungs-/Erfassungsauftrag für Ihre Datenquelle fehlschlägt, wenn die Gesamtzahl der Webseiten aus Ihren Quell-URLs das von Ihnen festgelegte Maximum überschreitet.

### Einschluss- und Ausschlussfilter
<a name="ds-inclusion-exclusion"></a>

Sie können je nach Bereich bestimmte URLs ein- oder ausschließen. [Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist. Wenn Sie einen Ein- und einen Ausschlussfilter angeben und beide mit einer URL übereinstimmen, hat der Ausschlussfilter Vorrang und das Dokument wird nicht gecrawlt.

**Wichtig**  
Problematische Musterfilter mit regulären Ausdrücken, die zu einer [katastrophalen Rückverfolgung](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/) und Vorausschau führen, werden abgelehnt.

Ein Beispiel für ein Filtermuster für reguläre Ausdrücke zum Ausschließen von URLs, die mit „.pdf“ enden, oder von PDF-Webseitenanhängen: *„.\$1\$1.pdf\$1“*

### Zugriff auf die Webcrawler-URL
<a name="ds-webcrawl-identity-crawling"></a>

Sie können den Webcrawler verwenden, um die Seiten von Websites zu crawlen, für deren Crawling Sie autorisiert sind.

Bei der Auswahl der zu crawlenden Websites müssen Sie die [Amazon-Richtlinie zur zulässigen Nutzung](https://aws.amazon.com/aup/) und alle anderen Amazon-Bedingungen einhalten. Beachten Sie, dass Sie den Webcrawler nur zum Indizieren Ihrer eigenen Webseiten oder von Webseiten verwenden dürfen, für deren Crawling Sie autorisiert sind.

Der Webcrawler berücksichtigt robots.txt gemäß [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Sie können festlegen, dass bestimmte Benutzer-Agent-Bots dem Benutzeragenten das Crawlen Ihrer Quell-URLs entweder erlauben oder verbieten. Sie können die Datei „robots.txt“ Ihrer Website ändern, um zu steuern, wie der Webcrawler Ihre Quell-URLs crawlt. Der Crawler sucht zuerst nach `bedrockbot-UUID `-Regeln und dann nach generischen `bedrockbot`-Regeln in der Datei „robots.txt“.

Sie können auch ein Suffix für Benutzeragenten hinzufügen, mit dem Sie Ihren Crawler in Bot-Schutzsystemen auf die Zulassungsliste setzen können. Beachten Sie, dass dieses Suffix der `robots.txt`-Datei nicht hinzugefügt werden muss, um sicherzustellen, dass niemand die Zeichenfolge „Benutzeragent“ nachahmen kann. Verwenden Sie beispielsweise die folgende Richtlinie, um dem Webcrawler das Crawling aller Webseiteninhalte zu ermöglichen und es allen anderen Robotern zu verbieten:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Inkrementelle Synchronisierung
<a name="ds-incremental-sync"></a>

Bei jeder Ausführung des Webcrawlers werden Inhalte für alle URLs abgerufen, die über die Quell-URLs erreichbar sind und dem Bereich und den Filtern entsprechen. Bei inkrementellen Synchronisierungen aktualisiert Amazon Bedrock Ihre Wissensdatenbank nach der ersten Synchronisierung aller Inhalte mit neuen und geänderten Inhalten und entfernt alte Inhalte, die nicht mehr vorhanden sind. Gelegentlich kann der Crawler möglicherweise nicht erkennen, ob Inhalte von der Website entfernt wurden. In diesem Fall versucht er, alte Inhalte in Ihrer Wissensdatenbank beizubehalten.

Um die Datenquelle mit der Wissensdatenbank zu synchronisieren, verwenden Sie die [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-API; wählen Sie alternativ die Wissensdatenbank in der Konsole und dann im Bereich „Datenquellenübersicht“ die Option **Synchronisieren** aus.

**Wichtig**  
Alle Daten, die Sie aus der Datenquelle synchronisieren, stehen allen Personen mit der `bedrock:Retrieve`-Berechtigung zum Abrufen der Daten zur Verfügung. Dies kann auch alle Daten mit kontrollierten Datenquellenberechtigungen einschließen. Weitere Informationen finden Sie unter [Berechtigungen für die Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Verbinden einer Webcrawler-Datenquelle mit Ihrer Wissensdatenbank**

1. Befolgen Sie die Schritte unter [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) und wählen Sie **Webcrawler** als Datenquelle aus.

1. Geben Sie den Namen und eine optionale Beschreibung für die Datenquelle an.

1. Geben Sie die **Quell-URLs** der URLS AN, die Sie crawlen möchten. Sie können bis zu 9 zusätzliche URLs hinzufügen, indem Sie **Quell-URLs hinzufügen** auswählen. Durch die Bereitstellung einer Quell-URL bestätigen Sie, dass Sie zum Crawlen ihrer Domain berechtigt sind.

1. Im Abschnitt **Erweiterte Einstellungen** können Sie optional Folgendes konfigurieren:
   + **KMS-Schlüssel für den transienten Datenspeicher.** – Sie können die transienten Daten verschlüsseln und gleichzeitig Ihre Daten mit dem Standard-Von AWS verwalteter Schlüssel oder einem eigenen KMS-Schlüssel in Einbettungen konvertieren. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion).
   + **Richtlinie zum Löschen von Daten** – Sie können die Vektoreinbettungen für die Datenquelle löschen, die standardmäßig im Vektorspeicher enthalten sind, oder die Vektorspeicherdaten beibehalten.

1. (Optional) Geben Sie ein Suffix für Benutzeragenten für **bedrock-UUID-** an, das den Crawler oder Bot beim Zugriff auf einen Webserver identifiziert.

1. Konfigurieren Sie im Abschnitt **Synchronisierungsbereich** Folgendes:

   1. Wählen Sie einen **Website-Domainbereich** für das Crawling Ihrer Quell-URLs aus:
      + Standard: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören und über denselben ursprünglichen URL-Pfad verfügen. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann nur dieser Pfad und die Webseiten gecrawlt, die sich aus diesem Pfad ergeben, z. B. „https://aws.amazon.com/bedrock/agents/“. Gleichgeartete URLs wie „https://aws.amazon.com/ec2/“ werden beispielsweise nicht gecrawlt.
      + Nur Host: Beschränken Sie das Crawling auf Webseiten, die zum selben Host gehören. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „https://aws.amazon.com“ gecrawlt, z. B. „https://aws.amazon.com/ec2“.
      + Subdomains: Schließt das Crawling aller Webseiten ein, deren primäre Domain mit der der Seed-URL identisch ist. Beispielsweise werden bei der Seed-URL „https://aws.amazon.com/bedrock/“ dann auch Webseiten mit „amazon.com“ (Subdomain) gecrawlt, z. B. „https://www.amazon.com“.
**Anmerkung**  
Stellen Sie sicher, dass Sie keine potenziell überlastete Webseiten crawlen. Es wird nicht empfohlen, große Websites wie wikipedia.org ohne Filter oder Bereichsbegrenzung zu crawlen. Das Crawling großer Websites nimmt sehr viel Zeit in Anspruch.  
[Unterstützte Dateitypen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) werden unabhängig vom Bereich und unabhängig davon gecrawlt, ob für den Dateityp ein Ausschlussmuster vorhanden ist.

   1. Geben Sie **Maximale Drosselung der Crawling-Geschwindigkeit** ein. Erfassen Sie zwischen 1 und 300 URLs pro Host und Minute. Eine höhere Crawling-Geschwindigkeit erhöht die Last, nimmt jedoch weniger Zeit in Anspruch.

   1. Geben Sie für **Maximale Anzahl Seiten für die Datenquellensynchronisierung** einen Wert zwischen 1 und 25000 ein. Beschränken Sie die maximale Anzahl von Webseiten, die über Ihre Quell-URLs gecrawlt werden. Wenn Webseiten diese Anzahl überschreiten, schlägt die Datenquellensynchronisierung fehl und es werden keine Webseiten erfasst. 

   1. Für **URL-Regex**-Muster (optional) können Sie **Muster einbeziehen** oder **Muster ausschließen** hinzufügen, indem Sie das Muster für reguläre Ausdrücke in das Feld eingeben. Sie können bis zu 25 Einschlussfiltermuster und 25 Ausschlussfiltermuster hinzufügen, indem Sie **Neues Muster hinzufügen** auswählen. Die Ein- und Ausschlussmuster werden entsprechend Ihrem Bereich gecrawlt. Wenn ein Konflikt besteht, hat das Ausschlussmuster Vorrang.

1. (Optional) Im Abschnitt **Parsing und Chunking von Inhalten** können Sie anpassen, wie die Daten analysiert und aufgeteilt werden sollen. Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr über diese Anpassungen zu erfahren:
   + Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
   + Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.
   + Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

1. Wählen Sie ein Einbettungsmodell und einen Vektorspeicher aus. Um die verbleibenden Schritte zu sehen, kehren Sie zu [So erstellen Sie eine Wissensdatenbank, indem Sie in Wissensdatenbanken für Amazon Bedrock eine Verbindung zu einer Datenquelle herstellen](knowledge-base-create.md) zurück, nachdem Sie die Datenquelle verbunden haben, und fahren Sie mit diesem Schritt fort.

------
#### [ API ]

Zum Herstellen einer Verbindung zwischen einer Wissensdatenbank und einer Datenquelle mithilfe von WebCrawler, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt von Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), geben Sie `WEB` in das Feld `type` der [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) ein und fügen Sie das Feld `webConfiguration` hinzu. Im Folgenden finden Sie ein Beispiel für eine Konfiguration von Webcrawler für Ihre Amazon-Bedrock-Wissensdatenbank.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Weitere Informationen zu Anpassungen, die Sie auf die Erfassung anwenden können, indem Sie das optionale `vectorIngestionConfiguration`-Feld einbeziehen, finden Sie unter [So passen Sie die Aufnahme für eine Datenquelle an](kb-data-source-customize-ingestion.md).

------

# Verknüpfen der Wissensdatenbank mit einer benutzerdefinierten Datenquelle
<a name="custom-data-source-connector"></a>

Anstatt einen unterstützten Datenquellenservice zu wählen, können Sie eine Verbindung mit einer benutzerdefinierten Datenquelle herstellen, was die folgenden Vorteile bietet:
+ Flexibilität und Kontrolle über die Datentypen, auf die Ihre Wissensdatenbank Zugriff haben soll.
+ Die Möglichkeit, mithilfe der `KnowledgeBaseDocuments`-API-Vorgänge Dokumente direkt aufzunehmen oder zu löschen, ohne dass Änderungen synchronisiert werden müssen.
+ Die Möglichkeit, Dokumente in Ihrer Datenquelle direkt über die Amazon-Bedrock-Konsole oder API anzuzeigen.
+ Die Möglichkeit, Dokumente direkt in die Datenquelle hochzuladen AWS-Managementkonsole oder sie inline hinzuzufügen.
+ Die Möglichkeit, dem jeweiligen Dokument direkt Metadaten hinzuzufügen, wenn ein Dokument in der Datenquelle hinzugefügt oder aktualisiert wird. Weitere Informationen zur Verwendung von Metadaten zum Filtern beim Abrufen von Angaben aus einer Datenquelle finden Sie auf der Registerkarte **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

**Unterstützung multimodaler Inhalte**  
Benutzerdefinierte Datenquellen unterstützen multimodale Inhalte wie Bilder, Audio- und Videodateien mit einer Größe von bis zu 10 MB Base64-kodiert. Umfassende Anleitungen zur Arbeit mit multimodalen Inhalten finden Sie unter. [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md)

Um eine Wissensdatenbank mit einer benutzerdefinierten Datenquelle zu verbinden, senden Sie eine [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage an einen [Build-Time-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `knowledgeBaseId` der Wissensdatenbank an, mit der eine Verbindung hergestellt werden soll, geben Sie der Datenquelle einen `name` und legen Sie das Feld `type` in `dataSourceConfiguration` als `CUSTOM` fest. Im Folgenden finden Sie ein minimal gehaltenes Beispiel für die Erstellung dieser Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Sie können die folgenden optionalen Felder zum Konfigurieren der Datenquelle einbinden:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| description | Zur Beschreibung der Datenquelle. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionKonfiguration | Zum Festlegung eines benutzerdefinierten KMS-Schlüssels für den transienten Datenspeicher bei der Konvertierung Ihrer Daten in Einbettungen. Weitere Informationen finden Sie unter [Verschlüsselung der vorübergehenden Datenspeicherung während der Datenerfassung](encryption-kb.md#encryption-kb-ingestion). | 
| dataDeletionPolicy | Zur Konfiguration, wie mit den Vektoreinbettungen für Ihre Datenquelle in Ihrem Vektorspeicher umgegangen werden soll, wenn Sie die Datenquelle löschen. Geben Sie RETAIN an, wenn die Daten im Vektorspeicher beibehalten werden sollen, oder wählen Sie die Standardoption DELETE aus, um sie zu löschen. | 
| vectorIngestionConfiguration | Zur Konfiguration von Optionen für die Aufnahme der Datenquelle. Weitere Informationen hierzu finden Sie unten. | 

Das `vectorIngestionConfiguration` Feld ist einem [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)Objekt zugeordnet, das die folgenden Felder enthält:
+ chunkingConfiguration – Hiermit wird die Strategie konfiguriert, die für die Aufteilung der Dokumente in der Datenquelle verwendet werden soll. Weitere Informationen zu Aufteilungsstrategien finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).
+ parsingConfiguration – Hiermit wird die Strategie konfiguriert, die für die Analyse der Datenquelle verwendet werden soll. Weitere Informationen zu den Parsing-Optionen finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).
+ customTransformationConfiguration — Um anzupassen, wie die Daten transformiert werden, und um eine Lambda-Funktion für eine bessere Anpassung anzuwenden. Weitere Informationen zum Anpassen der Aufteilung Ihrer Daten und der Verarbeitung Ihrer Metadaten mit einer Lambda-Funktion finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md).

Nachdem Sie Ihre benutzerdefinierte Datenquelle eingerichtet haben, können Sie Dokumente zu ihr hinzufügen und sie direkt in die Wissensdatenbank aufnehmen. Im Gegensatz zu anderen Datenquellen müssen Sie eine benutzerdefinierte Datenquelle nicht synchronisieren. Weitere Informationen zur direkten Aufnahme von Dokumenten finden Sie unter [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md).

# So passen Sie die Aufnahme für eine Datenquelle an
<a name="kb-data-source-customize-ingestion"></a>

Sie können die Vektoraufnahme anpassen, wenn Sie eine Datenquelle verbinden, AWS-Managementkonsole oder indem Sie den Wert des `vectorIngestionConfiguration` Felds beim Senden einer [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage ändern.

Wählen Sie ein Thema aus, um zu erfahren, wie Sie Konfigurationen für die Anpassung der Aufnahme beim Herstellen einer Verbindung zu einer Datenquelle einbinden können:

**Topics**
+ [Wählen Sie das Tool aus, das für die Analyse verwendet werden soll](#kb-data-source-customize-parsing)
+ [Wählen Sie eine Chunking-Strategie aus](#kb-data-source-customize-chunking)
+ [So verwenden Sie eine Lambda-Funktion bei der Datenaufnahme](#kb-data-source-customize-lambda)

## Wählen Sie das Tool aus, das für die Analyse verwendet werden soll
<a name="kb-data-source-customize-parsing"></a>

Sie können anpassen, wie die Dokumente in Ihren Daten analysiert werden. Informationen zu den Optionen für das Parsen von Daten in Wissensdatenbanken für Amazon Bedrock finden Sie unter [Parsing-Optionen für Ihre Datenquelle](kb-advanced-parsing.md).

**Warnung**  
Die Parsing-Strategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden. Sie können eine neue Datenquelle hinzufügen, um eine andere Analysestrategie zu verwenden.  
Nachdem Sie eine Wissensdatenbank erstellt haben, können Sie keinen S3-Standort zum Speichern multimodaler Daten (einschließlich Bildern, Abbildungen, Diagrammen und Tabellen) hinzufügen. Wenn Sie multimodale Daten einbeziehen und einen Parser verwenden möchten, der diese unterstützt, müssen Sie eine neue Wissensdatenbank erstellen.

Die Schritte zur Auswahl einer Parsing-Strategie hängen davon ab, ob Sie die Amazon Bedrock-API AWS-Managementkonsole oder die Amazon Bedrock-API verwenden und welche Parsing-Methode Sie wählen. Wenn Sie sich für eine Analysemethode entscheiden, die multimodale Daten unterstützt, müssen Sie einen S3-URI angeben, in dem die aus Ihren Dokumenten extrahierten multimodalen Daten gespeichert werden sollen. Diese Daten können in einer Wissensdatenbankabfrage zurückgegeben werden.
+ Gehen Sie in der wie AWS-Managementkonsole folgt vor:

  1. Wählen Sie die Parsing-Strategie aus, wenn Sie beim Einrichten einer Wissensdatenbank eine Datenquelle verbinden oder wenn Sie eine neue Datenquelle zu Ihrer vorhandenen Wissensdatenbank hinzufügen.

  1. (Wenn Sie Amazon Bedrock Data Automation oder ein Basismodell als Analysestrategie wählen) Geben Sie eine S3-URI an, in der die aus Ihren Dokumenten extrahierten multimodalen Daten im Abschnitt **Multimodales Speicherziel** gespeichert werden, wenn Sie ein Einbettungsmodell auswählen und Ihren Vektorspeicher konfigurieren. Sie können optional auch einen kundenseitig verwalteten Schlüssel nutzen, um Ihre S3-Daten in diesem Schritt zu verschlüsseln.
+ Gehen Sie in der Amazon-Bedrock-API wie folgt vor:

  1. (Wenn Sie Amazon Bedrock Data Automation oder ein Foundation-Modell als Analysestrategie verwenden möchten) Fügen Sie eine [SupplementalDataStorageLocation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SupplementalDataStorageLocation.html)in die Anfrage [VectorKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html)ein [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html).

  1. Fügen Sie a [ParsingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ParsingConfiguration.html)in das `parsingConfiguration` Feld von [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)in der [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage ein.
**Anmerkung**  
Wenn Sie diese Konfiguration weglassen, verwendet Wissensdatenbanken für Amazon Bedrock den Standard-Parser für Amazon Bedrock.

Für weitere Informationen zur Angabe einer Parsing-Strategie in der API erweitern Sie den Abschnitt, der der Parsing-Strategie entspricht, die Sie verwenden möchten:

### Standard-Parser für Amazon Bedrock
<a name="w2aac28c10c23c15c17c11c13b1"></a>

Wenn Sie den Standard-Parser verwenden möchten, fügen Sie das `parsingConfiguration`-Feld nicht in die `VectorIngestionConfiguration` ein.

### Parser für Amazon Bedrock Data Automation (Vorschau)
<a name="w2aac28c10c23c15c17c11c13b3"></a>

Um den Amazon Bedrock Data Automation-Parser zu verwenden, geben Sie `BEDROCK_DATA_AUTOMATION` in das `parsingStrategy` Feld ein `ParsingConfiguration` und fügen a [BedrockDataAutomationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockDataAutomationConfiguration.html)in das `bedrockDataAutomationConfiguration` Feld ein, wie im folgenden Format:

```
{
    "parsingStrategy": "BEDROCK_DATA_AUTOMATION",
    "bedrockDataAutomationConfiguration": {
        "parsingModality": "string"
    }
}
```

### Basismodell
<a name="w2aac28c10c23c15c17c11c13b5"></a>

Um ein Foundation-Modell als Parser zu verwenden, geben Sie das `BEDROCK_FOUNDATION_MODEL` in das `parsingStrategy` Feld von ein `ParsingConfiguration` und fügen a [BedrockFoundationModelConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_BedrockFoundationModelConfiguration.html)in das `bedrockFoundationModelConfiguration` Feld ein, wie im folgenden Format:

```
{
    "parsingStrategy": "BEDROCK_FOUNDATION_MODEL",
    "bedrockFoundationModelConfiguration": {
        "modelArn": "string",
        "parsingModality": "string",
        "parsingPrompt": {
            "parsingPromptText": "string"
        }
    }
}
```

## Wählen Sie eine Chunking-Strategie aus
<a name="kb-data-source-customize-chunking"></a>

Sie können anpassen, wie die Dokumente in Ihren Daten zum Speichern und Abrufen aufgeteilt werden. Informationen zu den Optionen für das Chunking von Daten in Wissensdatenbanken für Amazon Bedrock finden Sie unter [So funktioniert das Inhalts-Chunking für Wissensdatenbanken](kb-chunking.md).

**Warnung**  
Die Aufteilungsstrategie kann nach dem Herstellen einer Verbindung zur Datenquelle nicht mehr geändert werden.

Im wählen AWS-Managementkonsole Sie die Chunking-Strategie, wenn Sie eine Verbindung zu einer Datenquelle herstellen. Mit der Amazon Bedrock API schließen Sie eine [ChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChunkingConfiguration.html)in den `chunkingConfiguration` Bereich der [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)ein.

**Anmerkung**  
Wenn Sie diese Konfiguration weglassen, teilt Amazon Bedrock Ihren Inhalt in Blöcke von etwa 300 Token auf, wobei die Satzgrenzen beibehalten werden.

Erweitern Sie den Abschnitt, der der Parsing-Strategie entspricht, die Sie verwenden möchten:

### Kein Chunking
<a name="w2aac28c10c23c15c17c13c13b1"></a>

Um jedes Dokument in Ihrer Datenquelle als einen einzelnen Quellblock zu behandeln, geben Sie `NONE` im `chunkingStrategy`-Feld der `ChunkingConfiguration` an, wie im folgenden Format:

```
{
    "chunkingStrategy": "NONE"
}
```

### Chunking mit fester Größe
<a name="w2aac28c10c23c15c17c13c13b3"></a>

Um jedes Dokument in Ihrer Datenquelle in Blöcke von ungefähr derselben Größe zu unterteilen, geben Sie `FIXED_SIZE` im `chunkingStrategy` Feld den an `ChunkingConfiguration` und fügen Sie a [FixedSizeChunkingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_FixedSizeChunkingConfiguration.html)in das `fixedSizeChunkingConfiguration` Feld ein, wie im folgenden Format:

```
{
    "chunkingStrategy": "FIXED_SIZE",
    "fixedSizeChunkingConfiguration": {
        "maxTokens": number,
        "overlapPercentage": number
    }
}
```

### Hierarchisches Chunking
<a name="w2aac28c10c23c15c17c13c13b5"></a>

Um jedes Dokument in Ihrer Datenquelle in zwei Ebenen zu unterteilen, wobei die zweite Ebene kleinere Blöcke enthält, die von der ersten Ebene abgeleitet wurden, geben Sie `HIERARCHICAL` im `chunkingStrategy`-Feld der `ChunkingConfiguration` an und fügen das Feld `hierarchicalChunkingConfiguration` ein wie im folgenden Format:

```
{
    "chunkingStrategy": "HIERARCHICAL",
    "hierarchicalChunkingConfiguration": {
        "levelConfigurations": [{
            "maxTokens": number
        }],
        "overlapTokens": number
    }
}
```

### Semantisches Chunking
<a name="w2aac28c10c23c15c17c13c13b7"></a>

Um jedes Dokument in Ihrer Datenquelle in Blöcke zu unterteilen, die der semantischen Bedeutung Vorrang vor der syntaktischen Struktur einräumen, geben Sie `SEMANTIC` im Feld `chunkingStrategy` der `ChunkingConfiguration` an und fügen das Feld `semanticChunkingConfiguration` ein, wie im folgenden Format:

```
{
    "chunkingStrategy": "SEMANTIC",
    "semanticChunkingConfiguration": {
        "breakpointPercentileThreshold": number,
        "bufferSize": number,
        "maxTokens": number
    }
}
```

## So verwenden Sie eine Lambda-Funktion bei der Datenaufnahme
<a name="kb-data-source-customize-lambda"></a>

Sie können auf folgende Weise nachbearbeiten, wie die Quellblöcke aus Ihren Daten mit einer Lambda-Funktion in den Vektorspeicher geschrieben werden:
+ Fügen Sie eine Chunking-Logik hinzu, um eine benutzerdefinierte Chunking-Strategie bereitzustellen.
+ Schließen Sie Logik ein, um Metadaten auf Blockebene anzugeben.

Informationen zum Schreiben einer benutzerdefinierten Lambda-Funktion für die Aufnahme finden Sie unter [So verwenden Sie eine benutzerdefinierte Transformations-Lambda-Funktion, um zu bestimmen, wie Ihre Daten aufgenommen werden](kb-custom-transformation.md). In der wählen AWS-Managementkonsole Sie die Lambda-Funktion, wenn Sie eine Verbindung zu einer Datenquelle herstellen. Bei der Amazon Bedrock API fügen Sie a [CustomTransformationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CustomTransformationConfiguration.html)in das `CustomTransformationConfiguration` Feld für ein [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)und geben den ARN des Lambda an, wie im folgenden Format:

```
{
    "transformations": [{
        "transformationFunction": {
            "transformationLambdaConfiguration": {
                "lambdaArn": "string"
            }
        },
        "stepToApply": "POST_CHUNKING"
    }],
    "intermediateStorage": {
        "s3Location": {
            "uri": "string"
        }
    }
}
```

Sie geben auch den S3-Speicherort an, an dem die Ausgabe gespeichert werden soll, nachdem die Lambda-Funktion angewendet wurde.

Sie können das Feld `chunkingConfiguration` zur Anwendung der Lambda-Funktion hinzufügen, nachdem Sie eine der von Amazon Bedrock angebotenen Chunking-Optionen angewendet haben.

# So richten Sie Sicherheitskonfigurationen für Ihre Wissensdatenbank ein
<a name="kb-create-security"></a>

Nachdem Sie eine Wissensdatenbank erstellt haben, müssen Sie möglicherweise die folgenden Sicherheitskonfigurationen einrichten:

**Topics**
+ [So richten Sie Zugriffsrichtlinien für Ihre Wissensdatenbank ein](#kb-create-security-data)
+ [Richten Sie Netzwerkzugriffsrichtlinien für Ihre Amazon OpenSearch Serverless-Wissensdatenbank ein](#kb-create-security-network)

## So richten Sie Zugriffsrichtlinien für Ihre Wissensdatenbank ein
<a name="kb-create-security-data"></a>

Wenn Sie eine [benutzerdefinierte Rolle](kb-permissions.md) verwenden, sollten Sie Sicherheitskonfigurationen für Ihre neu erstellte Wissensdatenbank einrichten. Wenn Sie Amazon Bedrock eine Servicerolle für Sie erstellen lassen, können Sie diesen Schritt überspringen. Folgen Sie den Schritten auf der Registerkarte, die der Datenbank entspricht, die Sie eingerichtet haben.

------
#### [ Amazon OpenSearch Serverless ]

Um den Zugriff auf die Amazon OpenSearch Serverless-Sammlung auf die Knowledge-Base-Servicerolle zu beschränken, erstellen Sie eine Datenzugriffsrichtlinie. Sie können dies auf die folgenden Arten tun:
+ Verwenden Sie die Amazon OpenSearch Service-Konsole, indem Sie die Schritte unter [Erstellen von Datenzugriffsrichtlinien (Konsole)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-console) im Amazon OpenSearch Service Developer Guide befolgen.
+ Verwenden Sie die AWS API, indem Sie eine [CreateAccessPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_CreateAccessPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions) senden. Ein AWS CLI Beispiel finden Sie unter [Datenzugriffsrichtlinien erstellen (AWS CLI)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

Verwenden Sie die folgende Datenzugriffsrichtlinie, in der Sie die Amazon OpenSearch Serverless-Sammlung und Ihre Servicerolle angeben:

```
[
    {
        "Description": "${data access policy description}",
        "Rules": [
          {
            "Resource": [
              "index/${collection_name}/*"
            ],
            "Permission": [
                "aoss:DescribeIndex",
                "aoss:ReadDocument",
                "aoss:WriteDocument"
            ],
            "ResourceType": "index"
          }
        ],
        "Principal": [
            "arn:aws:iam::${account-id}:role/${kb-service-role}"
        ]
    }
]
```

------
#### [ Tannenzapfen, Redis Enterprise Cloud or MongoDB Atlas ]

Um einenPinecone,Redis Enterprise Cloud, MongoDB Atlas-Vektorindex zu integrieren, fügen Sie Ihrer Wissensdatenbankdienst-Rolle die folgende identitätsbasierte Richtlinie hinzu, damit sie auf das AWS Secrets Manager Geheimnis für den Vektorindex zugreifen kann.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
        "Effect": "Allow",
        "Action": [
            "bedrock:AssociateThirdPartyKnowledgeBase"
        ],
        "Resource": "*",
        "Condition": {
            "StringEquals": {
                "bedrock:ThirdPartyKnowledgeBaseCredentialsSecretArn": "arn:aws:secretsmanager:us-east-1:123456789012:secret:${secret-id}"
            }
        }
    }]
}
```

------

------

## Richten Sie Netzwerkzugriffsrichtlinien für Ihre Amazon OpenSearch Serverless-Wissensdatenbank ein
<a name="kb-create-security-network"></a>

Wenn Sie eine private Amazon OpenSearch Serverless-Sammlung für Ihre Wissensdatenbank verwenden, kann nur über einen AWS PrivateLink VPC-Endpunkt darauf zugegriffen werden. Sie können eine private Amazon OpenSearch Serverless-Sammlung erstellen, wenn Sie [Ihre Amazon OpenSearch Serverless-Vektorsammlung einrichten](knowledge-base-setup.md), oder Sie können eine bestehende Amazon OpenSearch Serverless-Sammlung (einschließlich einer, die von der Amazon Bedrock-Konsole für Sie erstellt wurde) privat machen, wenn Sie deren Netzwerkzugriffsrichtlinie konfigurieren.

Die folgenden Ressourcen im Amazon OpenSearch Service Developer Guide helfen Ihnen dabei, die Einrichtung zu verstehen, die für private Amazon OpenSearch Serverless-Sammlungen erforderlich ist:
+ Weitere Informationen zum Einrichten eines VPC-Endpunkts für eine private Amazon OpenSearch Serverless-Sammlung finden Sie unter [Zugriff auf Amazon OpenSearch Serverless über einen Schnittstellenendpunkt](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-vpc.html) (). AWS PrivateLink
+ Weitere Informationen zu Netzwerkzugriffsrichtlinien in Amazon OpenSearch Serverless finden Sie unter [Netzwerkzugriff für Amazon OpenSearch Serverless](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html).

Um einer Amazon Bedrock-Wissensdatenbank den Zugriff auf eine private Amazon OpenSearch Serverless-Sammlung zu ermöglichen, müssen Sie die Netzwerkzugriffsrichtlinie für die Amazon OpenSearch Serverless-Sammlung bearbeiten, um Amazon Bedrock als Quellservice zuzulassen. Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie dann die Schritte:

------
#### [ Console ]

1. Öffnen Sie die Amazon OpenSearch Service-Konsole unter [https://console.aws.amazon.com/aos/](https://console.aws.amazon.com/aos/).

1. Wählen Sie im linken Navigationsbereich **Sammlungen** aus. Wählen Sie dann Ihre Sammlung aus.

1. Wählen Sie im Bereich **Netzwerk** die **zugehörige Richtlinie** aus.

1. Wählen Sie **Bearbeiten** aus.

1. Führen Sie unter **Methode zur Richtliniendefinition auswählen** einen der folgenden Schritte aus:
   + Belassen Sie die Option **Methode zur Richtliniendefinition auswählen** auf **Visueller Editor** und konfigurieren Sie die folgenden Einstellungen im Abschnitt **Regel 1**:

     1. (Optional) Geben Sie im Feld **Regelname** einen Namen für die Netzwerkzugriffsregel ein.

     1. Wählen Sie unter **Zugriff auf Sammlungen von** die Option **Privat (empfohlen)** aus.

     1. Wählen Sie **AWS-Service mit privatem Zugriff** aus. Geben Sie **bedrock.amazonaws.com** in das Textfeld ein.

     1. Deaktivieren Sie die Option **Zugriff auf OpenSearch Dashboards aktivieren**.
   + Wählen Sie **JSON** aus und fügen Sie die folgende Richtlinie in den **JSON Editor** ein.

     ```
     [
         {                                        
             "AllowFromPublic": false,
             "Description":"${network access policy description}",
             "Rules":[
                 {
                     "ResourceType": "collection",
                     "Resource":[
                         "collection/${collection-id}"
                     ]
                 }
             ],
             "SourceServices":[
                 "bedrock.amazonaws.com"
             ]
         }
     ]
     ```

1. Wählen Sie **Aktualisieren** aus.

------
#### [ API ]

Gehen Sie wie folgt vor, um die Netzwerkzugriffsrichtlinie für OpenSearch Ihre Amazon Serverless-Sammlung zu bearbeiten:

1. Senden Sie eine [GetSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_GetSecurityPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Geben Sie den `name` der Richtlinie an und legen Sie den `type` auf `network` fest. Beachten Sie die `policyVersion` in der Antwort.

1. Senden Sie eine [UpdateSecurityPolicy](https://docs.aws.amazon.com/opensearch-service/latest/ServerlessAPIReference/API_UpdateSecurityPolicy.html)Anfrage mit einem [OpenSearch serverlosen Endpunkt](https://docs.aws.amazon.com/general/latest/gr/opensearch-service.html#opensearch-service-regions). Geben Sie zumindest die folgenden Felder an:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-create-security.html)

   ```
   [
       {                                        
           "AllowFromPublic": false,
           "Description":"${network access policy description}",
           "Rules":[
               {
                   "ResourceType": "collection",
                   "Resource":[
                       "collection/${collection-id}"
                   ]
               }
           ],
           "SourceServices":[
               "bedrock.amazonaws.com"
           ]
       }
   ]
   ```

Ein AWS CLI Beispiel finden Sie unter [Datenzugriffsrichtlinien erstellen (AWS CLI)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-data-access.html#serverless-data-access-cli).

------
+ Verwenden Sie die Amazon OpenSearch Service-Konsole, indem Sie den Schritten unter [Netzwerkrichtlinien erstellen (Konsole)](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/serverless-network.html#serverless-network-console) folgen. Anstatt eine Netzwerkrichtlinie zu erstellen, beachten Sie die **zugehörige Richtlinie** im **Netzwerk**-Unterabschnitt der Sammlungsdetails.

# Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank
<a name="kb-data-source-sync-ingest"></a>

Nachdem Sie Ihre Wissensdatenbank erstellt haben, nehmen Sie Ihre Daten auf oder synchronisieren, damit die Daten abgefragt werden können. Bei der Aufnahme werden die Rohdaten in Ihrer Datenquelle auf Grundlage des von Ihnen angegebenen Vektoreinbettungsmodells und der von Ihnen angegebenen Konfigurationen in Vektoreinbettungen umgewandelt.

Bevor Sie mit der Aufnahme beginnen, überprüfen Sie, ob Ihre Datenquelle die folgenden Bedingungen erfüllt:
+ Sie haben die Verbindungsinformationen für Ihre Datenquelle konfiguriert. Informationen zum Konfigurieren eines Datenquellen-Connectors zum Crawlen Ihrer Daten aus Ihrem Datenquellen-Repository finden Sie unter [Unterstützte Datenquellen-Connectors](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html). Sie konfigurieren Ihre Datenquelle im Rahmen der Erstellung Ihrer Wissensdatenbank.
+ Sie haben das von Ihnen gewählte Vektoreinbettungsmodell und den Vektorspeicher konfiguriert. Weitere Informationen finden Sie unter [Unterstützte Modelle für Vektoreinbettungen](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-supported.html) und [Vektorspeicher für Wissensdatenbanken](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-setup.html). Sie konfigurieren Ihre Vektoreinbettungen im Rahmen der Erstellung Ihrer Wissensdatenbank.
+ Die Dateien haben unterstützte Formate. Weitere Informationen finden Sie unter [Unterstützte Dokumentformate](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ Die Dateien überschreiten nicht die unter [Endpunkte und Kontingente von Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in der Allgemeine AWS-Referenz angegebene **Dateigröße des Aufnahmeauftrags**.
+ Wenn Ihre Datenquelle Metadatendateien enthält, überprüfen Sie die folgenden Bedingungen, um sicherzustellen, dass die Metadatendateien nicht ignoriert werden:
  + Jede `.metadata.json`-Datei hat denselben Dateinamen und dieselbe Erweiterung wie die Quelldatei, mit der sie verknüpft ist.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-OpenSearch-Serverless-Vektorspeicher befindet, überprüfen Sie, ob der Vektorindex mit der `faiss`-Engine konfiguriert ist. Wenn der Vektorindex mit der `nmslib`-Engine konfiguriert ist, müssen Sie einen der folgenden Prozesse ausführen:
    + [Erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) in der Konsole und lassen Sie Amazon Bedrock automatisch einen Vektorindex in Amazon OpenSearch Serverless erstellen.
    + [Erstellen Sie einen weiteren Vektorindex](knowledge-base-setup.md) im Vektorspeicher und wählen Sie `faiss` als **Engine** aus. Anschließend [erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) und geben den neuen Vektorindex an.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-Aurora-Datenbankcluster befindet, empfehlen wir, das benutzerdefinierte Metadatenfeld zu verwenden, um all Ihre Metadaten in einer einzigen Spalte zu speichern und einen Index für diese Spalte zu erstellen. Wenn Sie das benutzerdefinierte Metadatenfeld nicht angeben, müssen Sie sicherstellen, dass die Tabelle für Ihren Index eine Spalte für jede Metadateneigenschaft in Ihren Metadatendateien enthält, bevor Sie mit der Aufnahme beginnen. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).

Jedes Mal, wenn Sie Dateien zu Ihrer Datenquelle hinzufügen, ändern oder daraus entfernen, müssen Sie die Datenquelle synchronisieren, damit sie erneut mit der Wissensdatenbank indexiert wird. Die Synchronisierung erfolgt inkrementell, sodass Amazon Bedrock nur Dokumente verarbeitet, die seit der letzten Synchronisierung hinzugefügt, geändert oder gelöscht wurden.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus, um zu erfahren, wie Sie Ihre Daten in Ihre Wissensdatenbank aufnehmen und mit Ihren neuesten Daten synchronisieren, und führen Sie dann die folgenden Schritte aus:

------
#### [ Console ]

**So nehmen Sie Ihre Daten in Ihre Wissensdatenbank auf und synchronisieren sie mit Ihren neuesten Daten**

1. Öffnen Sie die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Klicken Sie im linken Navigationsbereich auf **Wissensdatenbank** und wählen Sie Ihre Wissensdatenbank aus.

1. Wählen Sie im Abschnitt **Datenquelle** die Option **Synchronisieren** aus, um mit der Erfassung oder Synchronisierung Ihrer neuesten Daten zu beginnen. Klicken Sie auf **Stopp**, um eine laufende Datenquellensynchronisierung zu stoppen. Eine Datenquelle muss gerade synchronisiert werden, um die Synchronisierung zu stoppen. Sie können erneut **Synchronisieren** auswählen, um den Rest Ihrer Daten aufzunehmen.

1. Wenn die Datenaufnahme abgeschlossen ist, wird ein grünes Banner angezeigt, wenn sie erfolgreich war.
**Anmerkung**  
Nachdem die Datensynchronisierung abgeschlossen ist, kann es einige Minuten dauern, bis die Vektoreinbettungen der neu synchronisierten Daten in Ihrer Wissensdatenbank sichtbar sind und für Abfragen zur Verfügung stehen, wenn Sie einen anderen Vektorspeicher als Amazon Aurora (RDS) verwenden.

1. Sie können eine Datenquelle auswählen, um deren **Synchronisierungsverlauf** anzuzeigen. Wählen Sie **Warnungen anzeigen** aus, um zu sehen, warum ein Datenerfassungsauftrag fehlgeschlagen ist.

------
#### [ API ]

Um Ihre Daten in Ihre Wissensdatenbank aufzunehmen und mit Ihren neuesten Daten zu synchronisieren, senden Sie eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage an einen [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `knowledgeBaseId` und die `dataSourceId` an. Sie können einen Datenerfassungsauftrag, der gerade ausgeführt wird, auch beenden, indem Sie eine [StopIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html)-Anfrage senden. Geben Sie die `dataSourceId`, `ingestionJobId` und die `knowledgeBaseId` an. Ein Datenerfassungsauftrag muss derzeit ausgeführt werden, um die Datenaufnahme zu beenden. Sie können erneut eine `StartIngestionJob`-Anfrage senden, um den Rest Ihrer Daten aufzunehmen, wenn Sie bereit sind.

Verwenden Sie die in der Antwort zurückgegebene `ingestionJobId` in einer [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um den Status des Aufnahmeauftrags nachzuverfolgen. Geben Sie zusätzlich die `knowledgeBaseId` und die `dataSourceId` an.
+ Bei Abschluss des Aufnahmeauftrags lautet der `status` in der Antwort `COMPLETE`.
**Anmerkung**  
Nachdem die Datenerfassung abgeschlossen ist, kann es einige Minuten dauern, bis die Vektoreinbettungen der neu aufgenommenen Daten im Vektorspeicher verfügbar sind und für Abfragen genutzt werden können, wenn Sie einen anderen Vektorspeicher als Amazon Aurora (RDS) verwenden.
+ Das `statistics`-Objekt in der Antwort liefert Informationen darüber, ob die Aufnahme der Dokumente in der Datenquelle erfolgreich war oder nicht.

Sie können auch Informationen zu allen Aufnahmeaufträgen für eine Datenquelle anzeigen, indem Sie eine [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) senden. Geben Sie die `dataSourceId` und die `knowledgeBaseId` der Wissensdatenbank an, in die die Daten aufgenommen werden.
+ Filtern Sie nach Ergebnissen, indem Sie einen Status angeben, nach dem im `filters`-Objekt gesucht werden soll.
+ Sortieren Sie nach dem Zeitpunkt, zu dem der Auftrag gestartet wurde, oder nach dem Status eines Auftrags, indem Sie das `sortBy`-Objekt angeben. Sie können in aufsteigender () oder absteigender () Reihenfolge sortieren.
+ Im Feld `maxResults` können Sie die Höchstzahl der Ergebnisse in einer Antwort bestimmen. Wenn es mehr Ergebnisse als die von Ihnen festgelegte Höchstzahl gibt, gibt die Antwort ein `nextToken` zurück, das Sie in einer weiteren [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage senden können, um den nächsten Auftragsstapel zu sehen.

------

# So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf
<a name="kb-direct-ingestion"></a>

Mit Wissensdatenbanken für Amazon Bedrock können Sie Ihre Datenquelle ändern und die Änderungen in einem Schritt synchronisieren. Sie können dieses Feature nutzen, wenn Ihre Wissensdatenbank mit einer der folgenden Datenquellentypen verbunden ist:
+ Amazon S3
+ Benutzerdefiniert

Mit der direkten Aufnahme können Sie Dateien in einer Wissensdatenbank direkt mit einer einzigen Aktion hinzufügen, aktualisieren oder löschen, und Ihre Wissensdatenbank kann auf Dokumente zugreifen, ohne dass eine Synchronisierung erforderlich ist. Die direkte Aufnahme verwendet Operationen der `KnowledgeBaseDocuments`-API, um die Dokumente, die Sie einreichen, direkt in dem für die Wissensdatenbank eingerichteten Vektorspeicher zu indexieren. Sie können die Dokumente in Ihrer Wissensbasis auch direkt mit diesen Vorgängen anzeigen, ohne zur verbundenen Datenquelle navigieren zu müssen.

## Unterschiede nach dem Synchronisieren einer Datenquelle
<a name="kb-direct-ingestion-sync-diff"></a>

Wissensdatenbanken für Amazon Bedrock bietet auch eine Reihe von Operationen in der `IngestionJob`-API, die sich auf [Synchronisieren Ihrer Datenquelle](kb-data-source-sync-ingest.md) beziehen. Wenn Sie Ihre Datenquelle mit einer [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage synchronisieren, scannt Wissensdatenbanken für Amazon Bedrock jedes Dokument in der verbundenen Datenquelle und überprüft, ob es bereits in dem für die Wissensdatenbank eingerichteten Vektorspeicher indexiert wurde. Ist dies nicht der Fall, wird es im Vektorspeicher indexiert.

Mit einer [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)-Anfrage senden Sie eine Reihe von Dokumenten, die direkt im Vektorspeicher indexiert werden sollen. Sie überspringen also den Schritt des Hinzufügens von Dokumenten zur Datenquelle. In den folgenden Abschnitten finden Sie Informationen zum Anwendungsfall für diese beiden Gruppen von API-Vorgängen:

**Wenn Sie Ihre benutzerdefinierte Datenquelle verwenden**  
Sie müssen nicht synchronisieren oder die `IngestionJob`-Operationen verwenden. Dokumente, die Sie mithilfe der `KnowledgeBaseDocuments`-Operationen oder in der AWS-Managementkonsole hinzufügen, ändern oder löschen, werden Teil der benutzerdefinierten Datenquelle und Ihrer Wissensdatenbank.

**Wenn Sie eine Amazon-S3-Datenquelle verwenden**  
Sie verwenden die beiden Operationssätze in unterschiedlichen Anwendungsfällen:
+ Nachdem Sie die Wissensdatenbank zum ersten Mal mit der S3-Datenquelle verbunden haben, müssen Sie Ihre Datenquelle entweder in der AWS-Managementkonsole synchronisieren oder eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage über die Amazon-Bedrock-API senden.
+ Indizieren Sie Dokumente in den Vektorspeicher, der für Ihre Wissensdatenbank eingerichtet wurde, oder entfernen Sie die indizierten Dokumente auf folgende Weise:

  1. Fügen Sie Dokumente zu Ihrem S3-Speicherort hinzu oder löschen Sie Dokumente daraus. Synchronisieren Sie dann Ihre Datenquelle in der AWS-Managementkonsole oder senden Sie eine `StartIngestionJob`-Anfrage in der API. Einzelheiten zur Synchronisierung und zum `StartIngestionJob`-Vorgang finden Sie unter [Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank](kb-data-source-sync-ingest.md).

  1. Nehmen Sie S3-Dokumente direkt mit einer `IngestKnowledgeBaseDocuments`-Anfrage in die Wissensdatenbank auf. Einzelheiten zur direkten Aufnahme von Dokumenten finden Sie unter [So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf](kb-direct-ingestion-add.md).
**Warnung**  
Bei S3-Datenquellen wirken sich alle Änderungen, die Sie direkt in der AWS-Managementkonsole oder mit den Operationen der `KnowledgeBaseDocuments`-API in die Wissensdatenbank indexieren, nicht auf den S3-Speicherort aus. Sie können diese API-Operationen verwenden, um Änderungen an Ihrer Wissensdatenbank in einem einzigen Schritt sofort verfügbar zu machen. Anschließend sollten Sie jedoch dieselben Änderungen an Ihrem S3-Speicherort vornehmen, damit sie nicht überschrieben werden, wenn Sie Ihre Datenquelle das nächste Mal in der AWS-Managementkonsole oder mithilfe von `StartIngestionJob` synchronisieren.  
Reichen Sie eine `IngestKnowledgeBaseDocuments`- und eine `StartIngestionJob`-Anfrage nicht zur gleichen Zeit ein.

Wählen Sie ein Thema aus, um zu erfahren, wie Sie die Dokumente in Ihren Datenquellen direkt aufnehmen können:

**Topics**
+ [Unterschiede nach dem Synchronisieren einer Datenquelle](#kb-direct-ingestion-sync-diff)
+ [Voraussetzungen für die direkte Erfassung](kb-direct-ingestion-prereq.md)
+ [So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf](kb-direct-ingestion-add.md)
+ [So zeigen Sie Informationen zu Dokumenten in Ihrer Datenquelle an](kb-direct-ingestion-view.md)
+ [Dokumente direkt aus einer Wissensdatenbank löschen](kb-direct-ingestion-delete.md)

# Voraussetzungen für die direkte Erfassung
<a name="kb-direct-ingestion-prereq"></a>

Um die direkte Erfassung verwenden zu können, muss eine IAM-Rolle über Berechtigungen zur Verwendung der `KnowledgeBaseDocs`-API-Operationen verfügen. Wenn Ihrer IAM-Rolle die [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSverwaltete Richtlinie angehängt ist, können Sie diesen Abschnitt überspringen.

Die folgende Richtlinie kann an eine IAM-Rolle angefügt werden, damit sie die Wissensdatenbanken, die Sie im `Resource`-Feld angeben, direkt erfassen kann.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "DirectIngestion",
            "Effect": "Allow",
            "Action": [
                "bedrock:StartIngestionJob",
                "bedrock:IngestKnowledgeBaseDocuments",
                "bedrock:GetKnowledgeBaseDocuments",
                "bedrock:ListKnowledgeBaseDocuments",
                "bedrock:DeleteKnowledgeBaseDocuments"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/${KnowledgeBaseId}"
            ]
        }
    ]
}
```

------

Wenn Sie Berechtigungen weiter einschränken möchten, können Sie Aktionen weglassen oder Ressourcen und Bedingungsschlüssel angeben, nach denen Berechtigungen gefiltert werden sollen. Weitere Informationen über Aktionen, Ressourcen und Bedingungsschlüssel finden Sie in den folgenden Themen in der *Referenz zur Serviceautorisierung*:
+ [Von Amazon Bedrock definierte Aktionen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) – Erfahren Sie mehr über Aktionen, die Ressourcentypen, auf die Sie diese im `Resource`-Feld beschränken können, und die Bedingungsschlüssel, nach denen Sie Berechtigungen im `Condition`-Feld filtern können.
+ [Von Amazon Bedrock definierte Ressourcentypen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) – Erfahren Sie mehr über die Ressourcentypen in Amazon Bedrock.
+ [Zustandsschlüssel für Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) – Erfahren Sie mehr über die Zustandsschlüssel in Amazon Bedrock.

# So nehmen Sie Dokumente direkt in eine Wissensdatenbank auf
<a name="kb-direct-ingestion-add"></a>

In diesem Thema wird beschrieben, wie Dokumente direkt in eine Wissensdatenbank aufgenommen werden. Je nach Datenquelle gelten Einschränkungen für die Dokumenttypen, die Sie direkt aufnehmen können. In der folgenden Tabelle finden Sie Einschränkungen für die Methoden, mit denen Sie angeben können, welche Dokumente aufgenommen werden sollen:


****  

| Datenquellentyp | Inline definiertes Dokument | Dokument im Amazon-S3-Speicherort | 
| --- | --- | --- | 
| Amazon S3 | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-no.png)Nein | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 
| Benutzerdefiniert | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 

Erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

**Anmerkung**  
Wenn Sie die Konsole verwenden, können Sie bis zu 10 Dokumente direkt in Ihre Wissensdatenbank aufnehmen. Wenn Sie stattdessen die `IngestKnowledgeBaseDocuments`-API verwenden, können Sie bis zu 25 Dokumente in Ihre Wissensdatenbank aufnehmen. Weitere Informationen zu diesen Kontingenten finden Sie unter [Amazon-Bedrock-Servicekontingente](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) in der *Allgemeinen Referenz zu AWS *.

## Verwenden der Konsole
<a name="kb-direct-ingestion-add-console"></a>

Gehen Sie wie folgt vor AWS-Managementkonsole, um Dokumente direkt in der hinzuzufügen oder zu ändern:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, in die Sie Dokumente aufnehmen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, in der Sie Dokumente hinzufügen, modifizieren oder löschen möchten.

1. Wählen Sie im Abschnitt **Dokumente** die Option **Dokumente hinzufügen** aus. Führen Sie dann einen der folgenden Schritte aus:
   + Um ein Dokument direkt hinzuzufügen oder zu ändern, wählen Sie **Dokumente direkt hinzufügen** aus. Führen Sie dann die folgenden Schritte aus:

     1. Geben Sie im Feld **Dokument-ID** einen eindeutigen Namen für das Dokument ein. Wenn Sie einen Namen angeben, der bereits in der Datenquelle vorhanden ist, wird das Dokument ersetzt.

     1. Um ein Dokument hochzuladen, klicken Sie auf **Hochladen**. Um ein Dokument inline zu definieren, klicken Sie auf **Dokument inline hinzufügen**, wählen ein Format aus und geben den Text des Dokuments in das Feld ein.

     1. (Optional) Um Metadaten mit dem Dokument zu verknüpfen, klicken Sie auf **Metadaten hinzufügen** und geben einen Schlüssel, einen Typ und einen Wert ein.
   + Um ein Dokument hinzuzufügen oder zu modifizieren, indem Sie seinen S3-Speicherort angeben, klicken Sie auf **S3-Dokumente hinzufügen**. Führen Sie dann die folgenden Schritte aus:

     1. Geben Sie im Feld **Dokument-ID** einen eindeutigen Namen für das Dokument ein. Wenn Sie einen Namen angeben, der bereits in der Datenquelle vorhanden ist, wird das Dokument ersetzt.

     1. Geben Sie an, ob sich der **S3-Speicherort** des Dokuments in Ihrem aktuellen AWS Konto oder einem anderen befindet. Geben Sie dann die S3-URI des Dokuments an.

     1. (Optional) Um Metadaten mit dem Dokument zu verknüpfen, wählen Sie eine **Metadatenquelle** aus. Geben Sie die S3-URI der Metadaten an oder klicken Sie auf **Metadaten hinzufügen** und geben einen Schlüssel, einen Typ und einen Wert ein.

1. Um das Dokument und alle zugehörigen Metadaten aufzunehmen, klicken Sie auf **Hinzufügen**.

## Verwenden der API
<a name="kb-direct-ingestion-add-api"></a>

Um Dokumente mithilfe der Amazon Bedrock API direkt in eine Wissensdatenbank aufzunehmen, senden Sie eine [IngestKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_IngestKnowledgeBaseDocuments.html)Anfrage mit einem [Build-Time-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die ID der Wissensdatenbank und der Datenquelle an, mit der sie verbunden ist.

**Anmerkung**  
Wenn Sie eine Dokument-ID oder einen S3-Speicherort angeben, der bereits in der Wissensdatenbank vorhanden ist, wird das Dokument mit dem neuen Inhalt überschrieben.

Der Anfragetext enthält ein Feld`documents`, das einer Reihe von [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekten zugeordnet ist, von denen jedes den Inhalt und optionale Metadaten eines Dokuments darstellt, das der Datenquelle hinzugefügt und in die Wissensdatenbank aufgenommen werden soll. Ein [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)-Objekt enthält die folgenden Felder:
+ Inhalt — Ordnet einem [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt zu, das Informationen über den Inhalt des hinzuzufügenden Dokuments enthält.
+ Metadaten — (optional) Ordnet einem [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt zu, das Informationen über die Metadaten des hinzuzufügenden Dokuments enthält. Weitere Informationen zur Verwendung von Metadaten beim Abrufen finden Sie im Abschnitt **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

Wählen Sie ein Thema aus, um zu erfahren, wie Sie Dokumente für verschiedene Datenquellentypen aufnehmen können, oder um sich Beispiele anzusehen:

**Topics**
+ [So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer benutzerdefinierten Datenquelle verbunden ist](#kb-direct-ingestion-add-custom)
+ [So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer Amazon-S3-Datenquelle verbunden ist](#kb-direct-ingestion-add-s3)
+ [Beispielanforderungstext](#w2aac28c10c23c19c17c11b3c19)

### So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer benutzerdefinierten Datenquelle verbunden ist
<a name="kb-direct-ingestion-add-custom"></a>

Wenn das von `dataSourceId` Ihnen angegebene Objekt zu einer benutzerdefinierten Datenquelle gehört, können Sie Inhalt und Metadaten für jedes [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekt im `documents` Array hinzufügen.

Der Inhalt eines Dokuments, das einer benutzerdefinierten Datenquelle hinzugefügt wird, kann auf folgende Weise definiert werden:

#### Definieren Sie das Dokument inline
<a name="kb-direct-ingestion-add-custom-inline"></a>

Sie können die folgenden Dokumenttypen inline definieren:

------
#### [ Text ]

Wenn es sich bei dem Dokument um Text handelt, sollte das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt das folgende Format haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "textContent": { 
                "data": "string"
            },
            "type": "TEXT"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im Feld `id` ein und den Text des Dokuments im Feld `data`.

------
#### [ Bytes ]

Wenn das Dokument mehr als Text enthält, konvertieren Sie es in eine Base64-Zeichenfolge. Das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt sollte dann das folgende Format haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "inlineContent": { 
            "byteContent": { 
                "data": blob,
                "mimeType": "string"
            },
            "type": "BYTE"
        },
        "sourceType": "IN_LINE"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im Feld `id` ein, das Base64-kodierte Dokument im Feld `data` und den MIME-Typ im Feld `mimeType`.

------

#### Aufnehmen des Dokuments aus S3
<a name="w2aac28c10c23c19c17c11b3c15b7b3"></a>

Wenn Sie ein Dokument von einem S3-Speicherort aus aufnehmen, sollte das [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt im `content` Feld die folgende Form haben:

```
{ 
    "custom": { 
        "customDocumentIdentifier": { 
            "id": "string"
        },
        "s3Location": { 
            "bucketOwnerAccountId": "string",
            "uri": "string"
        },
        "sourceType": "S3"
    },
    "dataSourceType": "CUSTOM"
}
```

Geben Sie eine ID für das Dokument im `id`-Feld ein, den Besitzer des S3-Buckets, der das Dokument enthält im Feld `bucketOwnerAccountId` und die S3-URI des Dokuments im Feld `uri`.

Die Metadaten für ein Dokument können auf folgende Weise definiert werden:

#### Definieren Sie die Metadaten inline
<a name="w2aac28c10c23c19c17c11b3c15c11b1"></a>

Wenn Sie die Metadaten inline definieren, sollte das [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt im `metadata` Feld das folgende Format haben:

```
{ 
    "inlineAttributes": [ 
        { 
            "key": "string",
            "value": { 
                "stringValue": "string",
                "booleanValue": boolean,
                "numberValue": number,
                "stringListValue": [ "string" ],
                "type": "STRING" | "BOOLEAN" | "NUMBER" | "STRING_LIST"
            }
        }
    ],
    "type": "IN_LINE_ATTRIBUTE"
}
```

Definieren Sie für jedes Attribut, das Sie hinzufügen, den Schlüssel im `key`-Feld. Geben Sie den Datentyp des Werts im Feld `type` an und schließen Sie das Feld ein, das dem Datentyp entspricht. Wenn Sie beispielsweise eine Zeichenfolge angeben, hat das Attribut das folgende Format:

```
{ 
    "key": "string",
    "value": { 
        "stringValue": "string",
        "type": "STRING"
    }
}
```

#### Aufnahme der Metadaten aus S3
<a name="w2aac28c10c23c19c17c11b3c15c11b3"></a>

Sie können Metadaten aus einer Datei mit der Erweiterung `.metadata.json` auch an einem S3-Speicherort aufnehmen. Weitere Informationen über das Format einer Metadatendatei finden Sie im Abschnitt **Felder für Dokumentmetadaten** unter [Verbinden mit Amazon S3 für Ihre Wissensdatenbank](s3-data-source-connector.md).

Wenn die Metadaten aus einer S3-Datei stammen, sollte das [DocumentMetadata](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentMetadata.html)Objekt im `metadata` Feld das folgende Format haben:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

Geben Sie den Besitzer des S3-Buckets, der die Metadatendatei enthält, im Feld `bucketOwnerAccountId` an und die S3-URI der Metadatendatei im Feld `uri`.

**Warnung**  
Wenn Sie den Inhalt inline definiert haben, müssen Sie die Metadaten inline definieren.

### So nehmen Sie ein Dokument in eine Wissensdatenbank auf, die mit einer Amazon-S3-Datenquelle verbunden ist
<a name="kb-direct-ingestion-add-s3"></a>

Wenn die von `dataSourceId` Ihnen angegebene Datei zu einer S3-Datenquelle gehört, können Sie Inhalt und Metadaten für jedes [KnowledgeBaseDocument](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_KnowledgeBaseDocument.html)Objekt im `documents` Array hinzufügen.

**Anmerkung**  
Für S3-Datenquellen können Sie Inhalte und Metadaten nur von einem S3-Speicherort hinzufügen.

Der Inhalt eines S3-Dokuments, das zu S3 hinzugefügt werden soll, sollte einem [DocumentContent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentContent.html)Objekt im folgenden Format hinzugefügt werden:

```
{ 
    "dataSourceType": "string",
    "s3": { 
        "s3Location": { 
            "uri": "string"
        }
    }
}
```

Geben Sie den Besitzer des S3-Buckets, der das Dokument enthält, im Feld `bucketOwnerAccountId` und die S3-URI des Dokuments im Feld `uri` an.

Die Metadaten eines Dokuments, das einer benutzerdefinierten Datenquelle hinzugefügt wird, kann auf folgende Weise definiert werden:

```
{
    "s3Location": { 
        "bucketOwnerAccountId": "string",
        "uri": "string"
    },
        "type": "S3_LOCATION"
    }
 }
```

**Warnung**  
Dokumente, die Sie direkt aus einer Wissensdatenbank aufnehmen, die mit einer S3-Datenquelle verbunden ist, werden nicht zu dem eigentlichen S3-Bucket hinzugefügt. Wir empfehlen, dass Sie diese Dokumente auch zur S3-Datenquelle hinzufügen, damit sie nicht entfernt oder überschrieben werden, wenn Sie Ihre Datenquelle synchronisieren.

### Beispielanforderungstext
<a name="w2aac28c10c23c19c17c11b3c19"></a>

Erweitern Sie die folgenden Abschnitte, um Anfragetexte für verschiedene Anwendungsfälle mit `IngestKnowledgeBaseDocuments` zu sehen:

#### So fügen Sie einer benutzerdefinierten Datenquelle ein benutzerdefiniertes Textdokument hinzu und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b1"></a>

Das folgende Beispiel zeigt das Hinzufügen eines Textdokuments zu einer benutzerdefinierten Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### So fügen Sie einer benutzerdefinierten Datenquelle ein Base64-codiertes Dokument hinzu und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b3"></a>

Das folgende Beispiel zeigt das Hinzufügen eines PDF-Dokuments zu einer benutzerdefinierten Datenquelle:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "byteContent": { 
                     "data": "<Base64-encoded string>",
                     "mimeType": "application/pdf"
                  },
                  "type": "BYTE"
               },
               "sourceType": "IN_LINE"
            }
         }
     }
   ]
}
```

#### So fügen Sie ein Dokument von einem S3-Speicherort zu einer Wissensdatenbank hinzu, die mit einer benutzerdefinierten Datenquelle verbunden ist, und nehmen es auf
<a name="w2aac28c10c23c19c17c11b3c19b5b5"></a>

Das folgende Beispiel zeigt das Hinzufügen eines einzelnen Textdokuments zu einer benutzerdefinierten Datenquelle von einem S3-Speicherort:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "s3": {
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
               },
               "sourceType": "S3"
            }
         }
     }
   ]
}
```

#### So fügen Sie ein Inline-Dokument zu einer Wissensdatenbank hinzu, die mit einer benutzerdefinierten Datenquelle verbunden ist, und fügen Metadaten inline hinzu
<a name="w2aac28c10c23c19c17c11b3c19b5b7"></a>

Das folgende Beispiel zeigt das Inline-Hinzufügen eines Dokuments zu einer benutzerdefinierten Datenquelle zusammen mit Metadaten, die zwei Attribute enthalten:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
   "documents": [ 
      { 
         "content": { 
            "dataSourceType": "CUSTOM",
            "custom": { 
               "customDocumentIdentifier": { 
                  "id": "MyDocument"
               },
               "inlineContent": { 
                  "textContent": { 
                     "data": "Hello world!"
                  },
                  "type": "TEXT"
               },
               "sourceType": "IN_LINE"
            }
         },
         "metadata": {
            "inlineAttributes": [ 
               { 
                  "key": "genre",
                  "value": {
                     "stringValue": "pop",
                     "type": "STRING"
                  }
               },
               { 
                  "key": "year",
                  "value": { 
                     "numberValue": 1988,
                     "type": "NUMBER"
                  }
               }
            ],
            "type": "IN_LINE_ATTRIBUTE"
         }
     }
   ]
}
```

#### So fügen Sie ein Dokument zu einer Wissensdatenbank hinzu, die mit einer S3-Datenquelle verbunden ist, und fügen Metadaten hinzu
<a name="w2aac28c10c23c19c17c11b3c19b5b9"></a>

Das folgende Beispiel zeigt das Hinzufügen eines Dokuments zusammen mit Metadaten zu einer S3-Datenquelle. Sie können die Metadaten nur über S3 mit einbeziehen:

```
PUT /knowledgebases/KB12345678/datasources/DS12345678/documents HTTP/1.1
Content-type: application/json

{
    "documents": [ 
        { 
            "content": { 
                "dataSourceType": "S3",
                "s3": { 
                "s3Location": {
                    "uri": "amzn-s3-demo-bucket"
                }
            }
        },
        "metadata": {
            "s3Location": {
                "bucketOwnerId": "111122223333",
                "uri": "amzn-s3-demo-bucket"
            },
                "type": "S3_LOCATION"
            }
        }
    ]
}
```

# So zeigen Sie Informationen zu Dokumenten in Ihrer Datenquelle an
<a name="kb-direct-ingestion-view"></a>

In den folgenden Themen wird beschrieben, wie Sie Dokumente in Ihrer Datenquelle anzeigen. Wenn Ihre Wissensdatenbank mit einer Amazon-S3-Datenquelle verbunden ist, können Sie die Dokumente im verbundenen S3-Bucket einsehen.

**Anmerkung**  
Wenn Sie eine neue Wissensdatenbank erstellt haben, indem Sie eine Verbindung zu einer S3-Datenquelle hergestellt haben, müssen Sie die Datenquelle zuerst synchronisieren, bevor Sie diese API-Operationen für die Datenquelle verwenden können.

Erweitern Sie die Methode, die Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="kb-direct-ingestion-view-console"></a>

Gehen Sie wie folgt vor, um Dokumente in Ihrer Datenquelle anzuzeigen, die in die AWS-Managementkonsole aufgenommen wurden:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, deren Dokumente Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, deren Dokumente Sie anzeigen möchten.

1. Im Abschnitt **Dokumente** werden die Dokumente in der Datenquelle aufgelistet. Diese Dokumente wurden ebenfalls in die Wissensdatenbank aufgenommen.

## Verwenden der API
<a name="kb-direct-ingestion-view-api"></a>

Mit der Amazon-Bedrock-API können Sie eine Teilmenge oder alle Dokumente in Ihrer Datenquelle anzeigen, die in die Wissensdatenbank aufgenommen wurden. Wählen Sie das Thema aus, das auf Ihren Anwendungsfall zutrifft.

**Topics**
+ [So zeigen Sie Informationen zu einer Teilmenge von Dokumenten in Ihrer Wissensdatenbank an](#kb-direct-ingestion-get)
+ [So zeigen Sie Informationen zu allen Dokumenten in Ihrer Wissensdatenbank an](#kb-direct-ingestion-list)

### So zeigen Sie Informationen zu einer Teilmenge von Dokumenten in Ihrer Wissensdatenbank an
<a name="kb-direct-ingestion-get"></a>

Um Informationen zu bestimmten Dokumenten in Ihrer Datenquelle anzuzeigen, senden Sie eine [GetKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Datenquelle und die der Wissensdatenbank an, mit der sie verbunden ist.

Fügen Sie für jedes Dokument, für das Sie Informationen abrufen möchten, dem `documentIdentifiers`-Array ein [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html)-Element in einem der folgenden Formate hinzu: 
+ Wenn es sich bei der Datenquelle um eine benutzerdefinierte Datenquelle handelt, geben Sie die ID des Dokuments in das Feld `id` ein:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Wenn es sich bei der Datenquelle um eine Amazon-S3-Datenquelle handelt, geben Sie die S3-URI des Dokuments in das Feld `uri` ein:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

Die Antwort gibt eine Reihe von Elementen zurück, von denen jedes Informationen zu einem von Ihnen angeforderten Dokument enthält.

### So zeigen Sie Informationen zu allen Dokumenten in Ihrer Wissensdatenbank an
<a name="kb-direct-ingestion-list"></a>

Um Informationen zu allen Dokumenten in einer Datenquelle anzuzeigen, senden Sie eine [ListKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Datenquelle und die der Wissensdatenbank an, mit der sie verbunden ist. Ihnen stehen außerdem folgende Optionen zur Verfügung:
+ Geben Sie die `maxResults` an, um die Anzahl der Ergebnisse zu begrenzen, die zurückgegeben werden sollen.
+ Wenn die Ergebnisse nicht in eine Antwort passen, wird im `nextToken`-Feld der Antwort ein Wert zurückgegeben. Sie können diesen Wert im `nextToken`-Feld einer nachfolgenden Anfrage verwenden, um den nächsten Ergebnisstapel abzurufen.

# Dokumente direkt aus einer Wissensdatenbank löschen
<a name="kb-direct-ingestion-delete"></a>

Wenn Sie ein Dokument in Ihrer Wissensdatenbank nicht mehr benötigen, können Sie es direkt löschen. Um zu erfahren, wie Sie Dokumente aus Ihrer Datenquelle und Wissensdatenbank löschen können, erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="kb-direct-ingestion-delete-console"></a>

Gehen Sie wie folgt vor, um Dokumente direkt über die AWS-Managementkonsole aus Ihrer Datenquelle und Wissensdatenbank zu löschen:

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Wissensdatenbank aus, aus der Sie Dokumente löschen möchten.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, aus der Dokumente gelöscht werden sollen.

1. Wählen Sie im Abschnitt **Dokumente** ein Dokument aus, das Sie löschen möchten. Klicken Sie dann auf **Dokument löschen**. Überprüfen Sie die Nachricht und klicken Sie dann auf Bestätigen.

## Verwenden der API
<a name="kb-direct-ingestion-delete-api"></a>

Um bestimmte Dokumente aus Ihrer Datenquelle mithilfe der Amazon-Bedrock-API zu löschen, senden Sie eine [DeleteKnowledgeBaseDocuments](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBaseDocuments.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die IDs der Datenquelle sowie der verbundenen Wissensdatenbank an.

Fügen Sie für jedes zu löschende Dokument ein [DocumentIdentifier](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DocumentIdentifier.html)-Element im`documentIdentifiers`-Array in einem der folgenden Formate hinzu:
+ Wenn es sich bei der Datenquelle um eine benutzerdefinierte Datenquelle handelt, geben Sie die ID des Dokuments in das Feld `id` ein:

  ```
  { 
      "custom": { 
          "id": "string"
      },
      "dataSourceType": "CUSTOM"
  }
  ```
+ Wenn es sich bei der Datenquelle um eine Amazon-S3-Datenquelle handelt, geben Sie die S3-URI des Dokuments in das Feld `uri` ein:

  ```
  {
      "dataSourceType": "S3",
      "s3": { 
          "uri": "string"
      }
  }
  ```

**Warnung**  
Dokumente, die Sie direkt aus einer Wissensdatenbank löschen, die mit einer S3-Datenquelle verbunden ist, werden nicht aus dem eigentlichen S3-Bucket gelöscht. Wir empfehlen, dass Sie diese Dokumente aus dem S3-Bucket löschen, damit sie nicht erneut eingeführt werden, wenn Sie Ihre Datenquelle synchronisieren.

# So zeigen Sie Informationen zur Datenquelle Ihrer Amazon-Bedrock-Wissensdatenbank an
<a name="kb-ds-info"></a>

Sie können Informationen zu einer Datenquelle für Ihre Wissensdatenbank anzeigen, z. B. die Einstellungen und den Synchronisierungsverlauf.

Informationen zur Überwachung Ihrer Wissensdatenbank, einschließlich der zugehörigen Datenquellen, finden Sie unter [Wissensdatenbankprotokollierung mit Amazon CloudWatch](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html)

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So zeigen Sie Informationen zu einer Datenquelle an**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Datenquelle** die Datenquelle aus, deren Informationen Sie anzeigen möchten.

1. Die **Datenquellenübersicht** enthält Informationen zur Datenquelle.

1. Der **Synchronisierungsverlauf** enthält Informationen darüber, wann die Datenquelle synchronisiert wurde. Wählen Sie ein Synchronisierungsereignis aus und klicken Sie auf **Warnungen anzeigen**, um die Gründe für das Fehlschlagen eines Synchronisierungsereignisses anzuzeigen.

------
#### [ API ]

Senden Sie eine [GetDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben Sie die `dataSourceId` und die `knowledgeBaseId` der dazugehörigen Wissensdatenbank an, um Informationen zu einer Datenquelle anzuzeigen.

Um Informationen über die Datenquellen einer Wissensdatenbank aufzulisten, senden Sie eine [ListDataSources](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListDataSources.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) und geben die ID der Wissensbasis an.
+ Verwenden Sie das Feld `maxResults`, um die maximale Anzahl von Ergebnissen festzulegen, die in einer Antwort zurückgegeben werden sollen.
+ Wenn mehr Ergebnisse zurückgegeben werden als Sie vorgegeben haben, gibt die Antwort ein `nextToken` zurück. Sie können diesen Wert in einer weiteren `ListDataSources`-Anfrage verwenden, um den nächsten Ergebnisstapel anzuzeigen.

Um Informationen über ein Synchronisierungsereignis für eine Datenquelle zu erhalten, senden Sie eine [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Geben Sie die `dataSourceId`, `knowledgeBaseId` und die `ingestionJobId` an.

Senden Sie eine [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um den Synchronisierungsverlauf einer Datenquelle in einer Wissensdatenbank aufzulisten. Geben Sie die ID der Wissensdatenbank und der Datenquelle an. Sie können die folgenden Spezifikationen festlegen.
+ Filtern Sie nach Ergebnissen, indem Sie einen Status angeben, nach dem im `filters`-Objekt gesucht werden soll.
+ Sortieren Sie nach dem Zeitpunkt, zu dem der Auftrag gestartet wurde, oder nach dem Status eines Auftrags, indem Sie das `sortBy`-Objekt angeben. Sie können in aufsteigender () oder absteigender () Reihenfolge sortieren.
+ Im Feld `maxResults` können Sie die Höchstzahl der Ergebnisse in einer Antwort bestimmen. Wenn es mehr Ergebnisse als die von Ihnen festgelegte Höchstzahl gibt, gibt die Antwort ein `nextToken` zurück, das Sie in einer weiteren [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage senden können, um den nächsten Auftragsstapel zu sehen.

------

# Ändern einer Datenquelle für Ihre Amazon-Bedrock-Wissensdatenbank
<a name="kb-ds-update"></a>

Sie können eine Datenquelle für Ihre Wissensdatenbank aktualisieren, z. B. indem Sie die Datenquellenkonfigurationen ändern.

Sie können eine Datenquelle auf folgende Weise aktualisieren:
+ Fügen Sie der Datenquelle Dateien oder Inhalte hinzu, ändern oder entfernen Sie sie.
+ Ändern Sie die Datenquellenkonfigurationen oder den KMS-Schlüssel, der für die Verschlüsselung transienter Daten bei der Datenerfassung verwendet werden soll. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen.
+ Stellen Sie Ihre Richtlinie zum Löschen von Datenquellen entweder auf „Löschen“ oder „Beibehalten“ ein. Sie können alle Daten aus Ihrer Datenquelle löschen, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Sie können alle Daten aus Ihrer Datenquelle beibehalten, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

Jedes Mal, wenn Sie Dateien zu Ihrer Datenquelle hinzufügen, ändern oder daraus entfernen, müssen Sie die Datenquelle synchronisieren, damit sie erneut mit der Wissensdatenbank indexiert wird. Die Synchronisierung erfolgt inkrementell, sodass Amazon Bedrock nur Dokumente verarbeitet, die seit der letzten Synchronisierung hinzugefügt, geändert oder gelöscht wurden. Bevor Sie mit der Aufnahme beginnen, überprüfen Sie, ob Ihre Datenquelle die folgenden Bedingungen erfüllt:
+ Die Dateien haben unterstützte Formate. Weitere Informationen finden Sie unter [Unterstützte Dokumentformate](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html#kb-ds-supported-doc-formats-limits).
+ Die Dateien überschreiten nicht die unter [Endpunkte und Kontingente von Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in der Allgemeine AWS-Referenz angegebene **Dateigröße des Aufnahmeauftrags**.
+ Wenn Ihre Datenquelle Metadatendateien enthält, überprüfen Sie die folgenden Bedingungen, um sicherzustellen, dass die Metadatendateien nicht ignoriert werden:
  + Jede `.metadata.json`-Datei hat denselben Dateinamen und dieselbe Erweiterung wie die Quelldatei, mit der sie verknüpft ist.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-OpenSearch-Serverless-Vektorspeicher befindet, überprüfen Sie, ob der Vektorindex mit der `faiss`-Engine konfiguriert ist. Wenn der Vektorindex mit der `nmslib`-Engine konfiguriert ist, müssen Sie einen der folgenden Prozesse ausführen:
    + [Erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) in der Konsole und lassen Sie Amazon Bedrock automatisch einen Vektorindex in Amazon OpenSearch Serverless erstellen.
    + [Erstellen Sie einen weiteren Vektorindex](knowledge-base-setup.md) im Vektorspeicher und wählen Sie `faiss` als **Engine** aus. Anschließend [erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) und geben den neuen Vektorindex an.
  + Wenn sich der Vektorindex für Ihre Wissensdatenbank in einem Amazon-Aurora-Datenbankcluster befindet, empfehlen wir, das benutzerdefinierte Metadatenfeld zu verwenden, um all Ihre Metadaten in einer einzigen Spalte zu speichern und einen Index für diese Spalte zu erstellen. Wenn Sie das benutzerdefinierte Metadatenfeld nicht angeben, müssen Sie sicherstellen, dass die Tabelle für Ihren Index eine Spalte für jede Metadateneigenschaft in Ihren Metadatendateien enthält, bevor Sie mit der Aufnahme beginnen. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).

Wählen Sie die Registerkarte mit Ihrer bevorzugten Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie eine Datenquelle aktualisieren:

------
#### [ Console ]

**So aktualisieren Sie eine Datenquelle**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie den Namen Ihrer Wissensdatenbank aus.

1. Wählen Sie im Abschnitt **Datenquelle** das Optionsfeld neben der Datenquelle aus, die Sie bearbeiten und synchronisieren möchten.

1. (Optional) Klicken Sie auf **Bearbeiten**, ändern Sie Ihre Konfigurationen und klicken Sie dann auf **Absenden**. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen. Beachten Sie außerdem, dass dies die Chunking-Konfigurationen, die auf den aufgenommenen Originaldaten basieren, nicht ändern kann. Sie müssen die Datenquelle neu erstellen.
**Anmerkung**  
Sie können die Chunking-Konfigurationen nicht ändern. Sie müssen die Datenquelle neu erstellen.

1. (Optional) Wählen Sie im Rahmen der erweiterten Einstellungen aus, ob Sie Ihre Richtlinie zum Löschen von Datenquellendaten bearbeiten möchten:

   Wählen Sie für die Richtlinieneinstellungen zum Löschen von Daten eine der folgenden Optionen aus:
   + Löschen: Löscht alle Daten aus Ihrer Datenquelle, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, sondern nur die Daten. Diese Markierung wird ignoriert, wenn ein AWS-Konto gelöscht wird.
   + Beibehalten: Behält alle Daten aus Ihrer Datenquelle bei, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

1. Klicken Sie auf **Synchronisieren**.

1. Ein grünes Banner erscheint, wenn die Synchronisierung abgeschlossen ist und der **Status** zu **Bereit** wechselt.

------
#### [ API ]

**So aktualisieren Sie eine Datenquelle**

1. (Optional) Senden Sie eine [UpdateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), wobei Sie beliebige Konfigurationen ändern und die Konfigurationen angeben, die Sie nicht ändern möchten. Wenn Sie die Quell- oder Endpunktkonfigurationsdetails ändern, sollten Sie eine IAM-Rolle mit den erforderlichen Zugriffsberechtigungen und dem Secrets-Manager-Geheimnis (falls zutreffend) aktualisieren oder eine neue erstellen.
**Anmerkung**  
Sie können die `chunkingConfiguration` nicht ändern. Senden Sie die Anfrage mit der vorhandenen `chunkingConfiguration` oder erstellen Sie die Datenquelle neu.

1. (Optional) Ändern Sie die `dataDeletionPolicy` für Ihre Datenquelle. Sie können alle Daten aus Ihrer Datenquelle `DELETE`, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Diese Markierung wird ignoriert, wenn ein AWS-Konto gelöscht wird. Sie können alle Daten aus Ihrer Datenquelle `RETAIN`, die beim Löschen einer Wissensdatenbank oder Datenquellenressource in Vektoreinbettungen umgewandelt wurden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

1. Senden Sie eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) unter Angabe der `dataSourceId` und der `knowledgeBaseId`.

------

# So löschen Sie eine Datenquelle aus Ihrer Amazon-Bedrock-Wissensdatenbank
<a name="kb-ds-delete"></a>

Sie können eine Datenquelle löschen oder entfernen, die Sie nicht mehr für Ihre Wissensdatenbank benötigen oder verwenden.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So löschen Sie eine Datenquelle:**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Datenquelle** das Optionsfeld neben der Datenquelle aus, die Sie löschen möchten.

1. Klicken Sie auf **Löschen**.

1. Ein grünes Banner erscheint, wenn die Datenquelle erfolgreich gelöscht wurde.
**Anmerkung**  
Ihre Datenlöschrichtlinie für Ihre Datenquelle ist entweder auf „Löschen“ (löscht alle Daten, wenn Sie Ihre Datenquelle löschen, löscht aber **nicht den Vektorspeicher**) oder auf „Beibehalten“ (behält alle Daten bei, wenn Sie Ihre Datenquelle löschen) gesetzt. Beachten Sie, dass der **Vektorspeicher nicht gelöscht wird**, wenn Sie eine Datenquelle oder Wissensdatenbank löschen. Wenn die Datenlöschrichtlinie auf „Löschen“ gesetzt ist, kann es sein, dass die Datenquelle den Löschvorgang aufgrund von Problemen mit der Konfiguration oder dem Zugriff auf den Vektorspeicher nicht erfolgreich abschließt. Sie können den Status „DELETE\$1UNSUCCESSFUL“ überprüfen, um herauszufinden, warum die Datenquelle nicht erfolgreich gelöscht werden konnte.

------
#### [ API ]

Senden Sie eine [DeleteDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletDataSource.html)-Anfrage und geben Sie die `dataSourceId` und die `knowledgeBaseId` an, um eine Datenquelle aus einer Wissensdatenbank zu löschen.

**Anmerkung**  
Ihre Datenlöschrichtlinie für Ihre Datenquelle ist entweder auf `DELETE` (löscht alle Daten, wenn Sie Ihre Datenquelle löschen, löscht aber **nicht den Vektorspeicher**) oder auf `RETAIN` (behält alle Daten bei, wenn Sie Ihre Datenquelle löschen) gesetzt. Beachten Sie, dass der **Vektorspeicher nicht gelöscht wird**, wenn Sie eine Datenquelle oder Wissensdatenbank löschen. Wenn die Datenlöschrichtlinie auf `DELETE` gesetzt ist, kann es sein, dass die Datenquelle den Löschvorgang aufgrund von Problemen mit der Konfiguration oder dem Zugriff auf den Vektorspeicher nicht erfolgreich abschließt. Wenn der Status `DELETE_UNSUCCESSFUL` ist, können Sie die `failureReasons` anzeigen, um zu ermitteln, warum die Datenquelle nicht erfolgreich gelöscht werden konnte.

------

# Aufbau einer Wissensdatenbank für multimodale Inhalte
<a name="kb-multimodal"></a>

Amazon Bedrock Knowledge Bases unterstützt multimodale Inhalte wie Bilder, Audio- und Videodateien. Sie können anhand von Bildern als Abfragen suchen, visuell ähnliche Inhalte abrufen und Multimediadateien neben herkömmlichen Textdokumenten verarbeiten. Mit dieser Funktion können Sie Erkenntnisse aus verschiedenen Datentypen gewinnen — eigenständigen Bildern, Audioaufzeichnungen und Videodateien, die in Ihrem Unternehmen gespeichert sind.

Mit Amazon Bedrock Knowledge Bases können Sie Informationen aus Text-, Bild- und Audioinhalten indexieren und abrufen. Organizations können jetzt Produktkataloge anhand von Bildern durchsuchen, bestimmte Momente in Schulungsvideos finden und relevante Segmente aus Aufzeichnungen von Kundendienstanrufen abrufen.

**Regionale Verfügbarkeit**  
Multimodale Verarbeitungsansätze sind regional unterschiedlich verfügbar. Weitere Informationen hierzu finden Sie unter [Regionale Verfügbarkeit](kb-multimodal-choose-approach.md#kb-multimodal-processing-regions).

## Funktionen und Funktionen
<a name="kb-multimodal-features"></a>

Multimodale Wissensdatenbanken bieten die folgenden Schlüsselfunktionen:

**Bildbasierte Abfragen**  
Reichen Sie Bilder als Suchanfragen ein, um visuell ähnliche Inhalte zu finden, wenn Sie Nova Multimodal Embeddings verwenden. Unterstützt den Produktabgleich, die Suche nach visueller Ähnlichkeit und das Abrufen von Bildern.

**Abrufen von Audioinhalten**  
Durchsuchen Sie Audiodateien mithilfe von Textabfragen. Rufen Sie bestimmte Segmente aus Aufzeichnungen mit Zeitstempelreferenzen ab. Die Audiotranskription ermöglicht die textbasierte Suche in gesprochenen Inhalten, einschließlich Besprechungen, Anrufen und Podcasts.

**Extraktion von Videosegmenten**  
Suchen Sie mithilfe von Textabfragen nach bestimmten Momenten in Videodateien. Rufen Sie Videosegmente mit präzisen Zeitstempeln ab.

**Modalübergreifende Suche**  
Suchen Sie in verschiedenen Datentypen, einschließlich Textdokumenten, Bildern, Audio und Video. Rufen Sie relevante Inhalte unabhängig vom Originalformat ab.

**Quellenverweise mit Zeitstempeln**  
Zu den Abrufergebnissen gehören Verweise auf Originaldateien mit zeitlichen Metadaten für Audio und Video. Ermöglicht die präzise Navigation zu relevanten Segmenten innerhalb von Multimediainhalten.

**Flexible Verarbeitungsoptionen**  
Wählen Sie zwischen systemeigenen multimodalen Einbettungen für visuelle Ähnlichkeit oder Textkonvertierung für sprachbasierte Inhalte. Konfigurieren Sie den Verarbeitungsansatz auf der Grundlage von Inhaltsmerkmalen und Anwendungsanforderungen.

## Funktionsweise
<a name="kb-multimodal-how-it-works"></a>

Multimodale Wissensdatenbanken verarbeiten und rufen Inhalte über eine mehrstufige Pipeline ab, die verschiedene Datentypen angemessen verarbeitet:

****Aufnahme und Verarbeitung****

1. **Datenquellenverbindung:** Connect Sie Ihre Wissensdatenbank mit Amazon S3 S3-Buckets oder benutzerdefinierten Datenquellen, die Textdokumente, Bilder, Audiodateien und Videodateien enthalten.

1. **Erkennung von Dateitypen:** Das System identifiziert jeden Dateityp anhand seiner Erweiterung und leitet ihn an die entsprechende Verarbeitungspipeline weiter.

1. **Inhaltsverarbeitung:** Abhängig von Ihrer Konfiguration werden Dateien mit einem von zwei Ansätzen verarbeitet:
   + **Multimodale Nova-Einbettungen: Behält das** native Format für den Abgleich von visueller und akustischer Ähnlichkeit bei. Bilder, Audio und Video werden ohne Konvertierung in Text direkt eingebettet.
   + **Bedrock Data Automation (BDA):** Konvertiert Multimedia in Textdarstellungen. Audio wird mithilfe der automatischen Spracherkennung (ASR) transkribiert, Video wird verarbeitet, um Szenenzusammenfassungen und Transkripte zu extrahieren, und Bilder werden einer OCR- und visuellen Inhaltsextraktion unterzogen.

1. **Generierung von Einbettungen: Verarbeitete Inhalte werden mithilfe** des von Ihnen ausgewählten Einbettungsmodells in Vektoreinbettungen konvertiert. Diese Einbettungen erfassen die semantische Bedeutung und ermöglichen den Abruf auf der Grundlage von Ähnlichkeiten.

1. **Vektorspeicher:** Einbettungen werden zusammen mit Metadaten wie Dateiverweisen, Zeitstempeln (für Audio und Video) und Inhaltstypinformationen in Ihrer konfigurierten Vektordatenbank gespeichert.

1. **Multimodaler Speicher (optional):** Falls konfiguriert, werden die ursprünglichen Multimediadateien für einen zuverlässigen Abruf in ein spezielles multimodales Speicherziel kopiert, sodass die Verfügbarkeit auch dann gewährleistet ist, wenn Quelldateien geändert oder gelöscht werden.

****Abfrage und Abruf****

1. **Abfrageverarbeitung:** Benutzerabfragen (Text oder Bild) werden in Einbettungen umgewandelt, wobei dasselbe Einbettungsmodell verwendet wird, das bei der Aufnahme verwendet wurde.

1. **Ähnlichkeitssuche:** Die Einbettung der Abfrage wird mit den in der Vektordatenbank gespeicherten Einbettungen verglichen, um den relevantesten Inhalt zu ermitteln.

1. **Ergebnisabruf:** Das System gibt übereinstimmende Inhalte mit Metadaten zurück, darunter:
   + Quell-URI (Speicherort der ursprünglichen Datei)
   + Timestamp-Metadaten (für Audio- und Videosegmente)
   + Informationen zu Inhaltstyp und Modalität

1. **Generierung von Antworten (optional):** Bei `RetrieveAndGenerate` Anfragen werden abgerufene Inhalte an ein Basismodell übergeben, um kontextrelevante Textantworten zu generieren. Dies wird unterstützt, wenn die BDA-Verarbeitung verwendet wird oder wenn die Wissensdatenbank Textinhalte enthält.

**Wichtig**  
Das System gibt Verweise auf vollständige Dateien mit Zeitstempel-Metadaten für Audio- und Videoinhalte zurück. Ihre Anwendung muss bestimmte Segmente auf der Grundlage der bereitgestellten Start- und Endzeitstempel extrahieren und abspielen. Das AWS-Managementkonsole erledigt das automatisch.

**Topics**
+ [Funktionen und Funktionen](#kb-multimodal-features)
+ [Funktionsweise](#kb-multimodal-how-it-works)
+ [Wählen Sie Ihren multimodalen Verarbeitungsansatz](kb-multimodal-choose-approach.md)
+ [Voraussetzungen für multimodale Wissensdatenbanken](kb-multimodal-prerequisites.md)
+ [Erstellen Sie eine Wissensdatenbank für multimodale Inhalte](kb-multimodal-create.md)
+ [Datenquellen hinzufügen und mit der Aufnahme beginnen](kb-multimodal-add-data-source-and-ingest.md)
+ [Multimodale Wissensdatenbanken testen und abfragen](kb-multimodal-test-and-query.md)
+ [Problembehebung multimodaler Wissensdatenbanken](kb-multimodal-troubleshooting.md)

# Wählen Sie Ihren multimodalen Verarbeitungsansatz
<a name="kb-multimodal-choose-approach"></a>

Amazon Bedrock Knowledge Bases bietet zwei Ansätze für die Verarbeitung multimodaler Inhalte: Nova Multimodal Embeddings für visuelle Ähnlichkeitssuchen und Bedrock Data Automation (BDA) für die textbasierte Verarbeitung von Multimediainhalten. Sie können Foundation Models auch als Parser verwenden, wenn Ihre Eingabemodalität Bild ist, aber nicht für Audio oder Video.

In diesem Abschnitt wird die Verwendung von Nova Multimodal Embeddings und BDA als Verarbeitungsansatz für multimodale Inhalte beschrieben. Jeder Ansatz ist für unterschiedliche Anwendungsfälle und Abfragemuster optimiert.

**Topics**
+ [Multimodaler Verarbeitungsansatz](#kb-multimodal-processing-approach)
+ [Regionale Verfügbarkeit](#kb-multimodal-processing-regions)
+ [Auswahlkriterien nach Inhaltstyp](#kb-multimodal-selection-guidance)
+ [Unterstützte Dateitypen und Datenquellen](#kb-multimodal-supported-files)
+ [Fähigkeiten und Einschränkungen](#kb-multimodal-approach-details)

## Multimodaler Verarbeitungsansatz
<a name="kb-multimodal-processing-approach"></a>

Die folgende Tabelle zeigt einen Vergleich zwischen Nova Multimodal Embeddings und BDA für die Verarbeitung multimodaler Inhalte.


**Vergleich des Verarbeitungsansatzes**  

| Merkmal | Nova Multimodale Einbettungen | Automatisierung von Grundsteindaten (BDA) | 
| --- | --- | --- | 
| Methode der Verarbeitung | Generiert Einbettungen ohne zwischenzeitliche Textkonvertierung | Konvertiert Multimedia in Text und erstellt dann Einbettungen | 
| Unterstützte Abfragetypen | Text- oder Bildanfragen | Nur Textabfragen | 
| Primäre Anwendungsfälle | Suche nach visueller Ähnlichkeit, Produktabgleich, Bilderkennung | Sprachtranskription, textbasierte Suche, Inhaltsanalyse | 
| RAG-Funktionalität | Nur auf Textinhalte beschränkt | Volle RetrieveAndGenerate Unterstützung | 
| Speicheranforderungen | Multimodales Speicherziel erforderlich | Multimodales Speicherziel optional. Wenn nicht angegeben, werden nur Textdaten von BDA verarbeitet. Für Nicht-Texteingaben müssen Sie ein multimodales Speicherziel angeben. | 

## Regionale Verfügbarkeit
<a name="kb-multimodal-processing-regions"></a>


**Regionale Verfügbarkeit**  

| Nova Multimodale Einbettungen | Automatisierung von Grundsteindaten (BDA) | 
| --- | --- | 
| Nur USA Ost (Nord-Virginia) |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-multimodal-choose-approach.html)  | 

## Auswahlkriterien nach Inhaltstyp
<a name="kb-multimodal-selection-guidance"></a>

Verwenden Sie diese Entscheidungsmatrix, um den geeigneten Verarbeitungsansatz auf der Grundlage Ihres Inhalts und Ihrer Anwendungsfallanforderungen auszuwählen:

**Anmerkung**  
Wenn Sie den BDA-Parser mit dem Amazon Nova Multimodal Embeddings-Modell verwenden, verhält sich das Einbettungsmodell wie ein Modell für Texteinbettungen. Wenn Sie mit multimodalen Inhalten arbeiten, verwenden Sie je nach Anwendungsfall einen der Verarbeitungsansätze, um die besten Ergebnisse zu erzielen.


**Empfehlungen für den Verarbeitungsansatz nach Inhaltstyp**  

| Inhaltstyp | Nova Multimodale Einbettungen | Automatisierung von Grundsteindaten (BDA) | 
| --- | --- | --- | 
| Produktkataloge und Bilder | Empfohlen — Ermöglicht den visuellen Ähnlichkeitsabgleich und bildbasierte Abfragen | Eingeschränkt — Extrahiert nur Text per OCR | 
| Aufzeichnungen und Anrufe von Besprechungen | Sprachinhalte können nicht sinnvoll verarbeitet werden | Empfohlen — Bietet vollständige Sprachtranskription und durchsuchbaren Text | 
| Schulungs- und Lehrvideos | Teilweise — Verarbeitet visuelle Inhalte, übersieht aber Sprache | Empfohlen — Erfasst sowohl Sprachprotokolle als auch visuelle Beschreibungen | 
| Aufzeichnungen des Kundensupports | Nicht empfohlen — Sprachinhalte können nicht effektiv verarbeitet werden | Empfohlen — Erstellt vollständige, durchsuchbare Gesprächsprotokolle | 
| Technische Diagramme und Tabellen | Empfohlen — Hervorragend geeignet für visuelle Ähnlichkeit und Musterabgleich | Eingeschränkt — Extrahiert Textbeschriftungen, aber es fehlen visuelle Beziehungen | 

## Unterstützte Dateitypen und Datenquellen
<a name="kb-multimodal-supported-files"></a>

Die unterstützten Dateitypen hängen von Ihrem gewählten Verarbeitungsansatz ab:


**Unterstützte Dateitypen je nach Verarbeitungsansatz**  

| Dateityp | Nova Multimodale Einbettungen | Automatisierung von Grundsteindaten (BDA) | 
| --- | --- | --- | 
| Bilder | .png, .jpg, .jpeg, .gif, .webp | .png, .jpg, .jpeg | 
| Audio | .mp3, .ogg, .wav | .amr, .flac, .m4a, .mp3, .ogg, .wav | 
| Video | .mp4, .mov, .mkv, .webm, .flv, .mpeg, .mpg, .wmv, .3gp | .mp4, .mov | 
| Dokumente | Als Text verarbeitet | .pdf (plus Textextraktion aus Bildern) | 

****Unterstützte Datenquellen****  
Multimodaler Inhalt wird mit den folgenden Datenquellen unterstützt:
+ **Amazon S3:** Vollständige Unterstützung für alle multimodalen Dateitypen
+ **Benutzerdefinierte Datenquellen:** Support für Inline-Inhalte bis zu 10 MB, Base64-codiert

**Wichtig**  
Multimodaler Abruf ist derzeit nur für Amazon S3 S3-Datenquellen verfügbar. Andere Datenquellen (Confluence, Salesforce SharePoint, Web Crawler) verarbeiten während der Aufnahme keine multimodalen Dateien. Diese Dateien werden übersprungen und sind für multimodale Abfragen nicht verfügbar.

## Fähigkeiten und Einschränkungen
<a name="kb-multimodal-approach-details"></a>

**Nova Multimodale Einbettungen**  
**Die wichtigsten Funktionen:**  
+ Bei der systemeigenen multimodalen Verarbeitung wird das ursprüngliche Inhaltsformat beibehalten, sodass eine optimale visuelle Ähnlichkeit gewährleistet ist
+ Bildbasierte Abfragen ermöglichen es Benutzern, Bilder hochzuladen und visuell ähnliche Inhalte zu finden
+ Hervorragende Leistung für Produktkataloge, visuelle Suche und Content-Discovery-Anwendungen
**Einschränkungen:**  
+ Sprach- oder Audioinhalte können nicht effektiv verarbeitet werden — gesprochene Informationen können nicht durchsucht werden
+ `RetrieveAndGenerate`und die Reranking-Funktionalität ist nur auf Textinhalte beschränkt
+ Erfordert die Konfiguration eines dedizierten multimodalen Speicherziels

**Bedrock Data Automation (BDA)**  
**Die wichtigsten Funktionen:**  
+ Umfassende Sprachtranskription mithilfe der ASR-Technologie (Automatic Speech Recognition)
+ Die visuelle Inhaltsanalyse generiert beschreibenden Text für Bilder und Videoszenen
+ Die vollständige `RetrieveAndGenerate` Unterstützung ermöglicht die vollständige RAG-Funktionalität für alle Inhalte
+ Die textbasierte Suche funktioniert konsistent für alle Arten von Multimedia-Inhalten
**Einschränkungen:**  
+ Keine Unterstützung für bildbasierte Abfragen, wenn sie ohne Nova Multimodal Embeddings verwendet werden — alle Suchen müssen Texteingabe verwenden
+ Es können keine visuellen Ähnlichkeitsabgleiche oder Suchvorgänge durchgeführt werden image-to-image
+ Längere Verarbeitungszeit für die Aufnahme aufgrund von Anforderungen an die Inhaltskonvertierung
+ Unterstützt im Vergleich zu Nova Multimodal Embeddings weniger Multimedia-Dateiformate

**Verarbeitung von Sprachinhalten**  
Nova Multimodal Embeddings können Sprachinhalte in Audio- oder Videodateien nicht effektiv verarbeiten. Wenn Ihre Multimediainhalte wichtige gesprochene Informationen enthalten, nach denen Benutzer suchen müssen, wählen Sie den BDA-Ansatz, um eine vollständige Transkription und Durchsuchbarkeit sicherzustellen.

# Voraussetzungen für multimodale Wissensdatenbanken
<a name="kb-multimodal-prerequisites"></a>

Die multimodalen Wissensdatenbanken von Amazon Bedrock erfordern zusätzliche Einstellungen, die über die Standard-Wissensdatenbanken hinausgehen, um Bilder, Audio- und Videoinhalte zu verarbeiten. Die spezifischen Voraussetzungen hängen von Ihrem gewählten Verarbeitungsansatz und der Speicherkonfiguration ab.

Bevor Sie eine multimodale Wissensdatenbank erstellen können, müssen Sie die folgenden Voraussetzungen erfüllen:

**Topics**
+ [Voraussetzungen](#kb-multimodal-prerequisites)
+ [Berechtigungen für multimodale Inhalte](#kb-multimodal-prerequisites-permissions)

## Voraussetzungen
<a name="kb-multimodal-prerequisites"></a>

1. Stellen Sie sicher, dass sich Ihre Daten in einem [unterstützten Datenquellen-Connector](data-source-connectors.md) befinden. Multimodaler Inhalt wird nur mit Amazon S3 und benutzerdefinierten Datenquellen unterstützt.

1. (Optional) [Richten Sie einen eigenen unterstützten Vektorspeicher ein](knowledge-base-setup.md). Sie können diesen Schritt überspringen, wenn Sie planen, die AWS-Managementkonsole zu verwenden, um automatisch einen Vektorspeicher erstellen zu lassen.

1. Erstellen Sie eine benutzerdefinierte AWS Identity and Access Management (IAM) [-Servicerolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) mit den entsprechenden Berechtigungen für die multimodale Verarbeitung. Details dazu finden Sie unter [Berechtigungen für multimodale Inhalte](#kb-multimodal-prerequisites-permissions).
**Anmerkung**  
Wenn Sie die Konsole verwenden, konfiguriert Amazon Bedrock Knowledge Bases die Berechtigungen automatisch für Sie.

1. (Optional) Richten Sie zusätzliche Sicherheitskonfigurationen ein, indem Sie die Schritte unter [Verschlüsselung von Wissensdatenbankressourcen](encryption-kb.md) befolgen.

1. Wenn Sie planen, den [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)API-Vorgang mit BDA-verarbeiteten Inhalten zu verwenden, fordern Sie Zugriff auf die Modelle an, die Sie in den Regionen verwenden werden, in denen Sie sie verwenden werden, indem Sie die Schritte unter befolgen. [Zugriff auf Amazon-Bedrock-Basismodelle](model-access.md)

## Berechtigungen für multimodale Inhalte
<a name="kb-multimodal-prerequisites-permissions"></a>

Multimodale Wissensdatenbanken erfordern zusätzliche Berechtigungen, die über die Standardberechtigungen für Wissensdatenbanken hinausgehen. Die spezifischen Berechtigungen hängen von Ihrem gewählten Verarbeitungsansatz und der Speicherkonfiguration ab.

Sie müssen die folgenden Berechtigungen auf der Grundlage Ihres multimodalen Verarbeitungsansatzes konfigurieren:
+ **Berechtigungen für Nova Multimodal Embeddings:** Erforderlich, wenn Nova Multimodal Embeddings für direkte visuelle und akustische Ähnlichkeitssuchen verwendet wird. Beinhaltet Berechtigungen für asynchronen Modellaufruf und multimodalen Speicherzugriff.
+ **Berechtigungen für Bedrock Data Automation (BDA):** Erforderlich, wenn BDA zur Konvertierung multimodaler Inhalte in Textdarstellungen verwendet wird. Beinhaltet Berechtigungen für den Aufruf der Datenautomatisierung und die Statusüberwachung.
+ **Vom Kunden verwaltete KMS-Schlüsselberechtigungen:** Erforderlich, wenn vom Kunden verwaltete Verschlüsselungsschlüssel mit BDA-Verarbeitung verwendet werden. Beinhaltet Berechtigungen für wichtige Operationen und die Erstellung von Zuschüssen.
+ **Multimodale Speicherberechtigungen:** Erforderlich, wenn ein multimodales Speicherziel konfiguriert wird. Beinhaltet Standard-S3-Berechtigungen für den Speicher-Bucket.

Detaillierte IAM-Richtlinien und die Konfiguration von step-by-step Berechtigungen finden Sie unter[Genehmigungen für multimodale Inhalte](kb-permissions.md#kb-permissions-multimodal).

### Speicheranforderungen
<a name="kb-multimodal-storage-requirements"></a>

**Nova Multimodale Einbettungen**  
**Erforderlich:** Sie müssen ein multimodales Speicherziel konfigurieren. Dieses Ziel speichert Kopien Ihrer Multimediadateien für den Abruf und gewährleistet die Verfügbarkeit auch dann, wenn Quelldateien geändert oder gelöscht werden.

**Bedrock Data Automation (BDA)**  
**Optional:** Sie können einen multimodalen Speicher-Bucket konfigurieren, um die Zuverlässigkeit zu erhöhen und die Datei auch zur Laufzeit abzurufen. Dies ist jedoch nicht erforderlich, da BDA Inhalt in Text konvertiert.  
Wenn Sie den BDA-Parser auswählen, ohne einen multimodalen Speicher-Bucket zu konfigurieren, ist nur die Textanalyse verfügbar. Um die multimodalen Analysefunktionen mit BDA (Verarbeitung von Bildern, Audio und Video) nutzen zu können, müssen Sie ein multimodales Speicherziel konfigurieren.

**Konfiguration des multimodalen Speicherziels**  
Beachten Sie bei der Konfiguration Ihres multimodalen Speicherziels Folgendes:
+ **Verwenden Sie separate Buckets (empfohlen):** Konfigurieren Sie verschiedene Amazon S3 S3-Buckets für Ihre Datenquelle und Ihr multimodales Speicherziel. Dies bietet die einfachste Einrichtung und vermeidet potenzielle Konflikte.
+ **Wenn Sie denselben Bucket verwenden:** Sie müssen ein Inklusionspräfix für Ihre Datenquelle angeben, das einschränkt, welcher Inhalt aufgenommen wird. Dadurch wird verhindert, dass extrahierte Mediendateien erneut aufgenommen werden.
+ **Vermeiden Sie das Präfix „aws/“:** Wenn Sie denselben Bucket sowohl für die Datenquelle als auch für das multimodale Speicherziel verwenden, verwenden Sie keine Inklusionspräfixe, die mit „aws/“ beginnen, da dieser Pfad für die Speicherung extrahierter Medien reserviert ist.

# Erstellen Sie eine Wissensdatenbank für multimodale Inhalte
<a name="kb-multimodal-create"></a>

Sie können multimodale Wissensdatenbanken entweder mit der Konsole oder der API erstellen. Wählen Sie Ihren Ansatz auf der Grundlage Ihrer multimodalen Verarbeitungsanforderungen.

**Wichtig**  
Multimodale Unterstützung ist nur verfügbar, wenn eine Wissensdatenbank mit unstrukturierten Datenquellen erstellt wird. Strukturierte Datenquellen unterstützen keine multimodale Inhaltsverarbeitung.

------
#### [ Console ]

**Um eine multimodale Wissensdatenbank von der Konsole aus zu erstellen**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Option **Erstellen** und dann **Wissensdatenbank mit Vektorspeicher** aus.

1. (Optional) Ändern Sie unter **Details zur Wissensdatenbank** den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

1. Wählen Sie im Abschnitt **IAM-Berechtigungen** eine IAM-Rolle aus, die Amazon Bedrock Berechtigungen zum Zugriff auf andere erforderliche AWS-Services gewährt. Sie können entweder Amazon Bedrock die Servicerolle für Sie erstellen lassen oder Sie können Ihre eigene benutzerdefinierte Rolle verwenden. Informationen zu multimodalen Berechtigungen finden Sie unter. [Genehmigungen für multimodale Inhalte](kb-permissions.md#kb-permissions-multimodal)

1. Wählen Sie **Amazon S3** als Datenquelle und klicken Sie auf **Weiter**, um Ihre Datenquelle zu konfigurieren.
**Anmerkung**  
Sie können während der Erstellung der Wissensdatenbank bis zu 5 Amazon S3 S3-Datenquellen hinzufügen. Zusätzliche Datenquellen können hinzugefügt werden, nachdem die Wissensdatenbank erstellt wurde.

1. Geben Sie die **S3-URI** des Buckets an, der Ihren multimodalen Inhalt enthält, und konfigurieren Sie bei Bedarf ein Inklusionspräfix. Das Inklusionspräfix ist ein Ordnerpfad, mit dem Sie einschränken können, welche Inhalte aufgenommen werden.

1. Wählen Sie unter **Chunking- und Parsing-Konfigurationen Ihre Parsing-Strategie** aus:
   + **Bedrock-Standardparser:** Wird für die reine Textverarbeitung von Inhalten empfohlen. Dieser Parser verarbeitet gängige Textformate und ignoriert dabei multimodale Dateien. Unterstützt Textdokumente wie Word-, Excel-, HTML-, Markdown-, TXT- und CSV-Dateien.
   + **Bedrock Data Automation (BDA):** Konvertiert multimodale Inhalte in durchsuchbare Textdarstellungen. Verarbeitet Bilder PDFs, Audio- und Videodateien, um Text zu extrahieren, Beschreibungen für visuelle Inhalte zu generieren und Transkriptionen für Audio- und Videoinhalte zu erstellen.
   + **Foundation Model Parser:** Bietet erweiterte Analysefunktionen für komplexe Dokumentstrukturen. Prozesse PDFs, Bilder, strukturierte Dokumente, Tabellen und visuell ansprechende Inhalte zum Extrahieren von Text und Generieren von Beschreibungen für visuelle Elemente.

1. Wählen Sie **Weiter** und wählen Sie Ihr Einbettungsmodell und Ihren multimodalen Verarbeitungsansatz aus. 
   + **Amazon Nova Multimodal Embeddings V1.0:** Wählen Sie **Amazon Nova Embedding V1.0** für direkte visuelle und akustische Ähnlichkeitssuchen. Konfigurieren Sie die Dauer von Audio- und Videoabschnitten (1—30 Sekunden, Standard 5 Sekunden), um zu steuern, wie Inhalte segmentiert werden.
**Anmerkung**  
Audio- und Video-Chunking-Parameter werden auf Ebene des Einbettungsmodells konfiguriert, nicht auf Datenquellenebene. Eine Validierungsausnahme tritt auf, wenn Sie diese Konfiguration für nicht multimodale Einbettungsmodelle angeben. Konfigurieren Sie die Dauer von Audio- und Videoabschnitten (Standard: 5 Sekunden, Bereich: 1—30 Sekunden), um zu steuern, wie Inhalte segmentiert werden. Kürzere Chunks ermöglichen einen präzisen Inhaltsabruf, während längere Chunks einen größeren semantischen Kontext beibehalten.
**Wichtig**  
Amazon Nova Embedding v1.0 bietet eingeschränkte Unterstützung für die Suche nach Sprachinhalten in audio/video Daten. Wenn Sie Sprache unterstützen müssen, verwenden Sie Bedrock Data Automation als Parser.
   + **Texteinbettungen mit BDA:** Wählen Sie ein Texteinbettungsmodell (wie Titan Text Embeddings v2), wenn Sie die BDA-Verarbeitung verwenden. Modelle zur Texteinbettung beschränken den Abruf auf reine Textinhalte, aber Sie können den multimodalen Abruf aktivieren, indem Sie entweder Amazon Bedrock Data Automation oder Foundation Model als Parser auswählen.
**Anmerkung**  
Wenn Sie den BDA-Parser mit Nova Multimodal Embeddings verwenden, verwendet Amazon Bedrock Knowledge Bases zuerst das BDA-Parsing. In diesem Fall generiert das Einbettungsmodell keine systemeigenen multimodalen Einbettungen für Bilder, Audio und Video, da BDA diese in Textdarstellungen konvertiert.

1. Wenn Sie Nova Multimodal Embeddings verwenden, konfigurieren Sie das **multimodale Speicherziel**, indem Sie einen Amazon S3 S3-Bucket angeben, in dem verarbeitete Dateien für den Abruf gespeichert werden. Knowledge Bases speichern geparste Bilder in einem einzigen Amazon S3 S3-Bucket mit einem Ordner, der für einen einfachen Zugriff als .bda erstellt wurde.
**Empfehlung zur Lebenszyklus-Richtlinie**  
Wenn Sie Nova Multimodal Embeddings verwenden, speichert Amazon Bedrock transiente Daten in Ihrem multimodalen Speicherziel und versucht, sie nach Abschluss der Verarbeitung zu löschen. Wir empfehlen, eine Lebenszyklusrichtlinie für den transienten Datenpfad anzuwenden, um eine ordnungsgemäße Bereinigung sicherzustellen. Detaillierte Anweisungen finden Sie unter [Verwaltung vorübergehender Daten mit Amazon S3 S3-Lebenszyklusrichtlinien](kb-multimodal-troubleshooting.md#kb-multimodal-lifecycle-policy).

1. Wählen Sie im Bereich **Vector-Datenbank** Ihre Vector Store-Methode aus und konfigurieren Sie die entsprechenden Dimensionen auf der Grundlage Ihres ausgewählten Einbettungsmodells.

1. Wählen Sie **Weiter** und überprüfen Sie die Details Ihrer Wissensdatenbank-Konfiguration. Wählen Sie dann **Wissensdatenbank erstellen** aus.

------
#### [ CLI ]

**Um eine multimodale Wissensdatenbank mit dem zu erstellen AWS CLI**
+ Erstellen Sie eine Wissensdatenbank mit Nova Multimodal Embeddings. Senden Sie eine Anfrage: [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)

  ```
  aws bedrock-agent create-knowledge-base \
  --cli-input-json file://kb-nova-mme.json
  ```

  Inhalt von `kb-nova-mme.json` (ersetzen Sie die Platzhalterwerte durch Ihre spezifische Konfiguration):

  ```
  {
      "knowledgeBaseConfiguration": {
          "vectorKnowledgeBaseConfiguration": {
              "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0",
              "supplementalDataStorageConfiguration": {
                  "storageLocations": [
                      {
                          "type": "S3",
                          "s3Location": {
                              "uri": "s3://<multimodal-storage-bucket>/"
                          }
                      }
                  ]
              }
          },
          "type": "VECTOR"
      },
      "storageConfiguration": {
          "opensearchServerlessConfiguration": {
              "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>",
              "vectorIndexName": "<index-name>",
              "fieldMapping": {
                  "vectorField": "<vector-field>",
                  "textField": "<text-field>",
                  "metadataField": "<metadata-field>"
              }
          },
          "type": "OPENSEARCH_SERVERLESS"
      },
      "name": "<knowledge-base-name>",
      "description": "Multimodal knowledge base with Nova Multimodal Embeddings"
  }
  ```

  Ersetzen die folgenden Platzhalter:
  + `<multimodal-storage-bucket>`- S3-Bucket zum Speichern multimodaler Dateien
  + `<account-id>`- Ihre AWS-Konto-ID
  + `<collection-id>`- ID für die OpenSearch serverlose Erfassung
  + `<index-name>`- Name des Vektorindex in Ihrer OpenSearch Sammlung (konfiguriert mit den entsprechenden Abmessungen für das von Ihnen gewählte Einbettungsmodell)
  + `<vector-field>`- Feldname zum Speichern von Einbettungen
  + `<text-field>`- Feldname zum Speichern von Textinhalten
  + `<metadata-field>`- Feldname zum Speichern von Metadaten

------

# Datenquellen hinzufügen und mit der Aufnahme beginnen
<a name="kb-multimodal-add-data-source-and-ingest"></a>

Nachdem Sie Ihre Wissensdatenbank erstellt haben, fügen Sie Datenquellen hinzu, die Ihre multimodalen Inhalte enthalten, und starten Sie Aufnahmejobs, um die Inhalte zu verarbeiten und zu indizieren.

**Verhalten beim Löschen von Datenquellen**  
Wenn Sie eine Datenquelle löschen, deren Löschrichtlinie auf RETAIN festgelegt ist, verbleibt der aufgenommene Inhalt in der Vektordatenbank und wird weiterhin zum Abrufen verwendet. Der Inhalt wird nur entfernt, wenn Sie die Wissensdatenbank nach dem Löschen der Datenquelle explizit synchronisieren. Datenquellen mit der standardmäßigen DELETE-Richtlinie entfernen beim Löschen automatisch Inhalte aus der Vektordatenbank und dem zusätzlichen Speicherplatz. Dadurch wird sichergestellt, dass Ihre Wissensdatenbank auch dann weiter funktioniert, wenn Quelldateien geändert oder gelöscht werden. Sie sollten sich jedoch bewusst sein, dass gelöschte Datenquellen, für die die RETIN-Richtlinie gilt, dennoch zu Suchergebnissen beitragen können.

## Fügen Sie Datenquellen hinzu
<a name="kb-multimodal-add-data-source"></a>

Fügen Sie Ihrer Wissensdatenbank Datenquellen hinzu, die Ihre multimodalen Inhalte enthalten.

**Wichtig**  
Für BDA-Datenquellen: Nur Datenquellen, die nach dem Start des audio/video Supports erstellt wurden, verarbeiten Audio- und Videodateien. Bestehende BDA-Datenquellen, die vor dem Start dieser Funktion erstellt wurden, überspringen weiterhin Audio- und Videodateien. Erstellen Sie neue Datenquellen, um die audio/video Verarbeitung vorhandener Wissensdatenbanken zu ermöglichen.

------
#### [ Console ]

**Um eine Datenquelle von der Konsole aus hinzuzufügen**

1. Wählen Sie auf der Detailseite Ihrer Wissensdatenbank die Option **Datenquelle hinzufügen** aus.

1. Wählen Sie **Amazon S3** als Ihren Datenquellentyp.

1. Geben Sie einen Namen und eine Beschreibung für Ihre Datenquelle an.

1. Konfigurieren Sie den Amazon S3 S3-Speicherort, der Ihre multimodalen Dateien enthält, indem Sie den Bucket-URI und alle Inklusionspräfixe angeben.

1. Konfigurieren Sie unter **Content-Parsing und Chunking** Ihre Parsing- und Chunking-Methoden:
**Anmerkung**  
Modelle zur Texteinbettung beschränken den Abruf auf reine Textinhalte, aber Sie können den multimodalen Abruf über Text aktivieren, indem Sie entweder Amazon Bedrock Data Automation (für Audio, Video und Bilder) oder Foundation Model als Parser (für Bilder) auswählen.

   Wählen Sie aus drei Analysestrategien:
   + **Bedrock-Standardparser: Wird für die reine Textanalyse** empfohlen. Dieser Parser ignoriert multimodale Inhalte und wird häufig mit multimodalen Einbettungsmodellen verwendet.
   + **Bedrock Data Automation als Parser: Ermöglicht das Parsen** und Speichern multimodaler Inhalte als Text-, PDFs Unterstützungs-, Bild-, Audio- und Videodateien.
   + **Foundation-Modell als Parser: Ermöglicht** erweitertes Parsen von Bildern und strukturierten Dokumenten sowie unterstützenden Bildern PDFs, Tabellen und visuell reichhaltigen Dokumenten.

1. Wählen Sie **Datenquelle hinzufügen, um die Datenquelle** zu erstellen.

------
#### [ CLI ]

**Um eine Datenquelle hinzuzufügen, verwenden Sie AWS CLI**
+ Erstellen Sie eine Datenquelle für Ihren multimodalen Inhalt. Senden Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)Anfrage:

  ```
  aws bedrock-agent create-data-source \
  --knowledge-base-id <knowledge-base-id> \
  --cli-input-json file://ds-multimodal.json
  ```

  Verwenden Sie für Nova Multimodal Embeddings (keine spezielle Parsing-Konfiguration erforderlich) diesen Inhalt: `ds-multimodal.json`

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source",
      "description": "Data source with multimodal content",
      "dataDeletionPolicy": "RETAIN"
  }
  ```

  Verwenden Sie für den BDA-Parsing-Ansatz diese Konfiguration:

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source_bda",
      "description": "Data source with BDA multimodal parsing",
      "dataDeletionPolicy": "RETAIN",
      "vectorIngestionConfiguration": {
          "parsingConfiguration": {
              "bedrockDataAutomationConfiguration": {
                  "parsingModality": "MULTIMODAL"
              }
          }
      }
  }
  ```

------

## Starten Sie einen Aufnahmeauftrag
<a name="kb-multimodal-start-ingestion"></a>

Nachdem Sie Ihre Datenquellen hinzugefügt haben, starten Sie einen Aufnahmejob, um Ihre multimodalen Inhalte zu verarbeiten und zu indizieren.

------
#### [ Console ]

**Um die Aufnahme von der Konsole aus zu starten**

1. **Wählen Sie auf der Seite mit den Datenquellendetails die Option Synchronisieren aus.**

1. Überwachen Sie den Synchronisierungsstatus auf der Datenquellenseite. Die Aufnahme kann je nach Größe und Anzahl Ihrer multimodalen Dateien mehrere Minuten dauern.

1. Sobald die Synchronisierung erfolgreich abgeschlossen wurde, können Ihre multimodalen Inhalte abgefragt werden.

------
#### [ CLI ]

**Um die Aufnahme mit dem zu starten AWS CLI**

1. Starten Sie einen Aufnahmejob. Senden Sie eine Anfrage [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html):

   ```
   aws bedrock-agent start-ingestion-job \
   --knowledge-base-id <knowledge-base-id> \
   --data-source-id <data-source-id>
   ```

   Ersetze die Platzhalter durch:
   + `<knowledge-base-id>`- ID aus der Erstellung der Wissensdatenbank
   + `<data-source-id>`- ID aus der Erstellung der Datenquelle

1. Überwachen Sie den Status des Aufnahmeauftrags mithilfe von. [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)

------

## Neusynchronisierung nach dem Löschen der Datenquelle
<a name="kb-multimodal-resync-after-deletion"></a>

Wenn Sie eine Datenquelle löschen und ihren Inhalt aus der Wissensdatenbank entfernen möchten, müssen Sie die Wissensdatenbank explizit erneut synchronisieren:

**Um gelöschte Datenquelleninhalte zu entfernen**

1. Löschen Sie die Datenquelle mithilfe der Konsole oder [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html)API.

1. Starten Sie einen neuen Aufnahmejob für alle verbleibenden Datenquellen, um die Vektordatenbank zu aktualisieren und Inhalte aus der gelöschten Datenquelle zu entfernen.

1. Stellen Sie sicher, dass Abfragen keine Ergebnisse mehr aus der gelöschten Datenquelle zurückgeben.

**Anmerkung**  
Ohne Neusynchronisierung werden Inhalte aus gelöschten Datenquellen weiterhin in den Suchergebnissen angezeigt, obwohl die Datenquelle nicht mehr vorhanden ist.

# Multimodale Wissensdatenbanken testen und abfragen
<a name="kb-multimodal-test-and-query"></a>

Nachdem Sie Ihre multimodalen Inhalte aufgenommen haben, können Sie Ihre Wissensdatenbank mithilfe der Konsole oder API testen und abfragen. Die verfügbaren Abfragetypen hängen von Ihrem gewählten Verarbeitungsansatz ab.

------
#### [ Console ]

**Um Ihre Wissensdatenbank von der Konsole aus zu testen**

1. Scrollen Sie auf Ihrer Wissensdatenbank-Detailseite zum Abschnitt **Wissensdatenbank testen**.

1. Wählen Sie Ihren Abfragetyp:
   + **Nur Standardabruf:** Informationen aus Datenquellen in einer einzigen Knowledge Base abfragen und abrufen.
   + **Abrufen und Generierung von Antworten:** Fragen Sie eine einzelne Wissensdatenbank ab und generieren Sie mithilfe eines Basismodells Antworten auf der Grundlage der abgerufenen Ergebnisse.
**Anmerkung**  
Wenn Sie über multimodale Inhalte verfügen, müssen Sie den BDA-Parser für den Abruf und die Generierung von Antworten verwenden.

1. Konfigurieren Sie bei Bedarf zusätzliche Optionen:
   + **Quell-Chunks:** Geben Sie die maximale Anzahl von Quell-Chunks an, die zurückgegeben werden sollen
   + **Suchtyp:** Wählen Sie den Suchtyp aus, um die Abfragestrategie anzupassen
   + **Metadatenfilter:** Wenden Sie Filter an, um die Suchergebnisse einzugrenzen
   + **Leitplanken:** Wählen Sie eine bestehende Leitplanke aus oder erstellen Sie eine neue

1. Geben Sie eine Textabfrage ein oder laden Sie ein Bild hoch (nur Nova Multimodal Embeddings), um Ihre multimodalen Inhalte zu durchsuchen. Verwenden Sie die Schaltfläche für den Anhang, um Bilder für die Suche nach visueller Ähnlichkeit hochzuladen.

1. Sehen Sie sich die Ergebnisse an, die Folgendes beinhalten:
   + Abgerufene Inhaltsblöcke mit Relevanzwerten
   + Quelldateiverweise und Zeitstempel (für Audio/Video)
   + Metadaten, einschließlich Dateitypen und Verarbeitungsinformationen
   + Für Multimediainhalte bietet die Wiedergabesteuerung eine automatische Segmentpositionierung auf der Grundlage der abgerufenen Zeitstempel

------
#### [ API ]

Die folgenden Beispiele zeigen, wie Sie die Amazon Bedrock Agent Runtime API verwenden, um Ihre multimodale Wissensdatenbank programmgesteuert abzufragen:

**Beispiel für eine Textabfrage**  
Suche mit Texteingabe:

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <knowledge-base-id> \
--retrieval-query text="robot automation in manufacturing"
```

**Beispiel für eine Bildabfrage (nur Nova Multimodal Embeddings)**  
Suchen Sie mit einem hochgeladenen Bild:

```
{
    "knowledgeBaseId": "<knowledge-base-id>",
    "retrievalQuery": {
        "imageQuery": {
            "inlineContent": {
                "mimeType": "image/jpeg",
                "data": "<base64-encoded-image>"
            }
        }
    }
}
```

------

## Unterstützte Abfragetypen
<a name="kb-multimodal-query-types"></a>

**Textabfragen**  
Wird sowohl mit Nova Multimodal Embeddings als auch mit BDA-Ansätzen unterstützt. Suchen Sie mit Text in natürlicher Sprache, um relevante Inhalte in allen Medientypen zu finden.

**Bildanfragen**  
Wird nur mit Nova Multimodal Embeddings unterstützt. Laden Sie Bilder hoch, um visuell ähnliche Inhalte in Ihrer Wissensdatenbank zu finden.

## Die Metadaten der Antworten verstehen
<a name="kb-multimodal-response-metadata"></a>

Multimodale Abfrageantworten enthalten zusätzliche Metadaten für Multimediainhalte:

**Quellenangabe**  
Speicherort der Originaldatei (SourceURI) und multimodaler Speicherort (SupplementalURI) für zuverlässigen Zugriff

**Temporäre Metadaten**  
Start- und Endzeitstempel für Audio- und Videosegmente ermöglichen eine präzise Navigation zu relevanten Inhalten

**Informationen zum Inhaltstyp**  
Indikatoren für das Dateiformat, die Verarbeitungsmethode und die Modalität, die Anwendungen dabei unterstützen, unterschiedliche Inhaltstypen angemessen zu handhaben

**Struktur der Vektordatenbank-Metadaten**  
Wenn multimodaler Inhalt verarbeitet und gespeichert wird, wird die folgende Metadatenstruktur in der Vektordatenbank verwendet:
+ **Textfeld:** Bei Multimediadateien, die mit Nova Multimodal Embeddings verarbeitet wurden, enthält dieses Feld eine leere Zeichenfolge, da der Inhalt als natives Multimedia und nicht als Text eingebettet ist
+ **Metadatenfeld:** Enthält strukturierte Informationen, einschließlich Quellenangaben und Verweise auf verwandte Inhalte:

  ```
  {
    "source": {
      "sourceType": "S3",
      "s3Location": {
        "uri": "s3://source-bucket/path/to/file.mp4"
      }
    },
    "relatedContent": [{
      "type": "S3",
      "s3Location": {
        "uri": "s3://multimodal-storage-bucket/processed/file.mp4"
      }
    }]
  }
  ```
+ **Automatisch erstellte Felder:** Zusätzliche Felder zum Filtern und Identifizieren:
  + `x-amz-bedrock-kb-source-uri`: Ursprünglicher Quell-URI für Filtervorgänge
  + `x-amz-bedrock-kb-data-source-id`: Datenquellen-ID zur Nachverfolgung der Herkunft von Inhalten
  + `x-amz-bedrock-kb-chunk-start-time-in-millis`: Startzeitstempel in Millisekunden für Audio- und Videosegmente
  + `x-amz-bedrock-kb-chunk-end-time-in-millis`: Endzeitstempel in Millisekunden für Audio- und Videosegmente
  + `x-amz-bedrock-kb-source-file-mime-type`: MIME-Typ der Quelldatei
  + `x-amz-bedrock-kb-source-file-modality`: Modalität der Quelldatei (TEXT, BILD, AUDIO, VIDEO)

**Wichtig**  
Anwendungen müssen die bereitgestellten Zeitstempel verwenden, um bestimmte Segmente aus Audio- und Videodateien zu extrahieren und abzuspielen. Die Wissensdatenbank gibt Verweise auf vollständige Dateien zurück, nicht auf vorsegmentierte Clips.

# Problembehebung multimodaler Wissensdatenbanken
<a name="kb-multimodal-troubleshooting"></a>

Dieser Abschnitt enthält Anleitungen zur Lösung häufiger Probleme, die bei der Arbeit mit multimodalen Wissensdatenbanken auftreten. Die Informationen zur Fehlerbehebung sind nach allgemeinen Einschränkungen, häufigen Fehlerszenarien mit ihren Ursachen und Lösungen sowie Empfehlungen zur Leistungsoptimierung gegliedert. Verwenden Sie diese Informationen, um Probleme bei der Einrichtung, Aufnahme oder Abfrage Ihrer multimodalen Inhalte zu diagnostizieren und zu beheben.

## Allgemeine Einschränkungen
<a name="kb-multimodal-general-limitations"></a>

Beachten Sie bei der Arbeit mit multimodalen Wissensdatenbanken die folgenden aktuellen Einschränkungen:
+ **Dateigrößenbeschränkungen:** Maximal 1,5 GB pro Videodatei, 1 GB pro Audiodatei (Nova Multimodal Embeddings) oder 1,5 GB pro Datei (BDA)
+ **Dateien pro Aufnahmeauftrag: Maximal 15.000 Dateien pro Auftrag** (Nova Multimodal Embeddings) oder 1.000 Dateien pro Auftrag (BDA)
+ **Abfragegrenzwerte:** Maximal ein Bild pro Abfrage
+ **Einschränkungen bei Datenquellen:** Nur Amazon S3 und benutzerdefinierte Datenquellen unterstützen multimodale Inhalte
+ **Einschränkungen beim BDA-Chunking:** Wenn Sie Bedrock Data Automation mit Chunking mit fester Größe verwenden, werden die Einstellungen für den Prozentsatz der Überlappung nicht auf Audio- und Videoinhalte angewendet
+ **Grenzwerte für gleichzeitige BDA-Jobs:** Standardlimit von 20 gleichzeitigen BDA-Jobs. Bei umfangreicher Verarbeitung sollten Sie erwägen, eine Erhöhung des Servicekontingents zu beantragen
+ **Einschränkungen des Reranker-Modells:** Reranker-Modelle werden für multimodale Inhalte nicht unterstützt
+ **Einschränkungen bei der Zusammenfassung: Die Zusammenfassung** von Abruf-Antworten, die Nicht-Text-Inhalte enthalten, wird nicht unterstützt
+ **Einschränkungen bei der Abfrageeingabe:** Eingaben, die sowohl Text als auch Bild enthalten, werden derzeit nicht unterstützt. Sie können entweder Text- oder Bildabfragen verwenden, aber nicht beide gleichzeitig.
+ **Guardrail-Bildinhaltsfilter:** Wenn Sie Bildabfragen mit einer Leitplanke verwenden, für die Bildinhaltsfilter konfiguriert sind, wird das Eingabebild anhand der Leitplanke bewertet und kann blockiert werden, wenn es die konfigurierten Filtergrenzwerte verletzt
+ **Eingabe und Typ stimmen nicht überein:** Standardmäßig wird davon ausgegangen, dass es sich bei der Eingabe um Text handelt, wenn der Typ nicht angegeben ist. Wenn Sie andere Modalitäten als Text verwenden, müssen Sie den richtigen Typ angeben

## Häufige Fehler und Lösungen
<a name="kb-multimodal-common-errors"></a>

Wenn Sie Probleme mit Ihrer multimodalen Wissensdatenbank haben, sehen Sie sich diese häufigen Szenarien an:

**4xx-Fehler bei der Verwendung von Bildabfragen**  
**Ursache: Es wurde** versucht, Bildabfragen mit rein textuellen Einbettungsmodellen oder mit BDA verarbeiteten Wissensdatenbanken zu verwenden.  
**Lösung:** Wählen Sie Amazon Nova Multimodal Embeddings, wenn Sie Ihre Wissensdatenbank für die Unterstützung von Bildabfragen erstellen.

**RAG gibt bei multimodalem Inhalt den Fehler 4xx zurück**  
**Ursache:** Verwendung `RetrieveAndGenerate` mit einer Wissensdatenbank, die nur multimodalen Inhalt enthält, und dem Amazon Nova Multimodal Embeddings-Modell.  
**Lösung:** Verwenden Sie den BDA-Parser für die RAG-Funktionalität, oder stellen Sie sicher, dass Ihre Wissensdatenbank Textinhalte enthält.

**Fehler: Multimodales Speicherziel erforderlich**  
**Ursache:** Verwendung von Nova Multimodal Embeddings ohne Konfiguration eines multimodalen Speicherziels.  
**Lösung:** Geben Sie ein multimodales Speicherziel an, wenn Sie Nova Multimodal Embeddings verwenden.

**Datenquelle und multimodaler Speicher verwenden denselben S3-Bucket**  
**Ursache:** Konfiguration Ihrer Datenquelle und Ihres multimodalen Speicherziels für die Verwendung desselben Amazon S3 S3-Buckets ohne korrekte Inklusionspräfixe.  
**Lösung:** Verwenden Sie entweder separate Buckets für die Datenquelle und den multimodalen Speicher oder konfigurieren Sie Inklusionspräfixe, um zu verhindern, dass extrahierte Mediendateien erneut aufgenommen werden.

**Das Inklusionspräfix darf nicht mit „aws/“ beginnen**  
**Ursache: Es** wird ein Inklusionspräfix verwendet, das mit „aws/“ beginnt, wenn Ihre Datenquelle und Ihr multimodales Speicherziel denselben Amazon S3 S3-Bucket verwenden.  
**Lösung:** Geben Sie ein anderes Inklusionspräfix an. Der Pfad „aws/“ ist für die Speicherung extrahierter Medien reserviert und kann nicht als Inklusionspräfix verwendet werden, um zu verhindern, dass verarbeitete Inhalte erneut aufgenommen werden.

**Bei der BDA-Aufnahme werden multimodale Inhalte übersprungen**  
**Ursache:** Die Wissensdatenbank wurde ohne ein multimodales Speicherziel erstellt, dann wurde die BDA-Datenquelle mit multimodalem Inhalt hinzugefügt.  
**Lösung:** Erstellen Sie die Wissensdatenbank mit einem multimodalen Speicherziel neu, das so konfiguriert ist, dass es die BDA-Verarbeitung von Audio-, Video- und Bilddateien ermöglicht.

**Die Wissensdatenbank wurde ohne multimodales Einbettungsmodell erstellt**  
**Ursache:** Die Wissensdatenbank wurde mit einem reinen Texteinbettungsmodell erstellt, wodurch die multimodalen Funktionen eingeschränkt wurden.  
**Lösung:** Erstellen Sie mit Nova Multimodal Embeddings eine neue Wissensdatenbank, um native multimodale Verarbeitung und bildbasierte Abfragen zu ermöglichen.

## Verwaltung vorübergehender Daten mit Amazon S3 S3-Lebenszyklusrichtlinien
<a name="kb-multimodal-lifecycle-policy"></a>

Wenn Sie Nova Multimodal Embeddings verwenden, speichert Amazon Bedrock transiente Daten in Ihrem multimodalen Speicherziel und versucht, sie nach Abschluss der Verarbeitung zu löschen. Wir empfehlen, eine Lebenszyklusrichtlinie für den transienten Datenpfad anzuwenden, um sicherzustellen, dass er ordnungsgemäß abgelaufen ist.

------
#### [ Console ]

**Um eine Lebenszyklusregel mit der Konsole zu erstellen**

1. Öffnen Sie die [Amazon S3-Konsole](https://console.aws.amazon.com/s3).

1. Navigieren Sie zu dem multimodalen Speicherziel, das Sie für Ihre Knowledge Base konfiguriert haben.

1. Wählen Sie die Registerkarte **Verwaltung** und dann **Lebenszyklusregel erstellen** aus.

1. Geben Sie als **Namen der Lebenszyklusregel** ein**Transient Data Deletion**.

1. Wählen Sie unter **Filtertyp** die Option **Den Geltungsbereich dieser Regel mithilfe eines oder mehrerer Filter einschränken** aus.

1. Geben Sie unter **Präfix** den transienten Datenpfad für Ihre Wissensdatenbank und Datenquelle ein.

   Ersetzen Sie die Platzhalterwerte im folgenden Präfix durch Ihre tatsächlichen Identifikatoren:

   ```
   aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data
   ```
**Wichtig**  
Wenden Sie Lebenszyklusrichtlinien nicht auf den gesamten Bucket oder auf das Präfix „aws/“ an, da dadurch Ihr multimodaler Inhalt gelöscht wird und Abruffehler auftreten. Verwenden Sie nur den oben angegebenen spezifischen transienten Datenpfad.

1. Wählen Sie unter **Aktionen für Lebenszyklusregeln** die Option **Aktuelle Versionen von Objekten ablaufen lassen** aus.

1. Geben Sie für **Tage nach der Objekterstellung** den Wert ein**1**.

1. Wählen Sie **Regel erstellen** aus.

------
#### [ AWS CLI ]

**Um eine Lebenszyklusregel zu erstellen, verwenden Sie AWS CLI**

1. Erstellen Sie eine JSON-Datei `lifecycle-policy.json` mit dem folgenden Inhalt.

   Ersetzen Sie die Platzhalterwerte durch Ihre tatsächlichen Bezeichner:
   + *knowledge-base-id*- Ihre Wissensdatenbank-ID
   + *data-source-id*- Ihre Datenquellen-ID

   ```
   {
       "Rules": [
           {
               "ID": "TransientDataDeletion",
               "Status": "Enabled",
               "Filter": {
                   "Prefix": "aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data"
               },
               "Expiration": {
                   "Days": 1
               }
           }
       ]
   }
   ```

1. Wenden Sie die Lebenszyklusrichtlinie auf Ihren Bucket an. Ersetzen Sie *your-multimodal-storage-bucket* durch den tatsächlichen Namen Ihres Buckets.

   ```
   aws s3api put-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket \
       --lifecycle-configuration file://lifecycle-policy.json
   ```

1. Stellen Sie sicher, dass die Lebenszyklus-Richtlinie angewendet wurde:

   ```
   aws s3api get-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket
   ```

------

Weitere Informationen zu den Lebenszyklusrichtlinien von Amazon S3 finden Sie unter [Verwaltung des Lebenszyklus von Objekten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) im *Amazon S3 S3-Benutzerhandbuch*.

## Leistungsaspekte
<a name="kb-multimodal-performance-considerations"></a>

Um eine optimale Leistung Ihrer multimodalen Wissensdatenbank zu erzielen, sollten Sie die folgenden Faktoren berücksichtigen:
+ **Verarbeitungszeit:** Die BDA-Verarbeitung dauert aufgrund der Inhaltskonvertierung länger
+ **Abfragelatenz:** Bildanfragen haben möglicherweise eine höhere Latenz als Textabfragen
+ **Dauer des Chunkings:** Längere Audio-/Video-Chunk-Dauern erhöhen die Verarbeitungszeit, können aber die Genauigkeit verbessern

# So bauen Sie eine Wissensdatenbank durch eine Verbindung zu einem strukturierten Datenspeicher auf
<a name="knowledge-base-build-structured"></a>

Mit Wissensdatenbanken für Amazon Bedrock können Sie eine Verbindung zu strukturierten Datenspeicher mit Daten herstellen, die einem vordefinierten Schema entsprechen. Beispiele für strukturierte Daten sind Tabellen und Datenbanken. Wissensdatenbanken für Amazon Bedrock kann Benutzeranfragen in eine Sprache konvertieren, die für das Extrahieren von Daten aus unterstützten strukturierten Datenspeichern geeignet ist. Dann kann eine konvertierte Abfrage verwendet werden, um für die Abfrage relevante Daten abzurufen und entsprechende Antworten zu generieren. So können Sie die vorhandenen strukturierten Daten direkt verwenden, ohne sie in ein anderes Format konvertieren oder eigene SQL-Abfragen generieren zu müssen.

Nachdem Sie Ihre Wissensdatenbank eingerichtet haben, können Sie Abfragen einreichen, um während des [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Vorgangs Daten aus der Wissensdatenbank abzurufen oder anhand der abgerufenen Daten im Rahmen des [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-Vorgangs Antworten generieren. Bei diesen Vorgängen werden die Benutzeranfragen in Anfragen umgewandelt, die für den mit der Wissensdatenbank verbundenen strukturierten Datenspeicher geeignet sind.

Optional können Sie auch Abfragen unabhängig vom Abrufen von Daten mithilfe der API-Operation [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html) konvertieren. Dieser Vorgang konvertiert Abfragen in natürlicher Sprache in SQL-Abfragen, die für die abgefragte Datenquelle geeignet sind. Sie können diesen Vorgang unabhängig verwenden und in Ihren Workflow einfügen.

Wählen Sie ein Thema aus, um mehr über die Voraussetzungen und den Prozess für die Verbindung Ihrer Wissensdatenbank mit einem strukturierten Datenspeicher zu erfahren.

**Topics**
+ [Einrichten Ihrer Abfrage-Engine und der Berechtigungen zum Erstellen einer Wissensdatenbank mit strukturiertem Datenspeicher](knowledge-base-prereq-structured.md)
+ [Erstellen einer Wissensdatenbank durch Herstellen einer Verbindung mit einem strukturierten Datenspeicher](knowledge-base-structured-create.md)
+ [So synchronisieren Sie Ihren strukturierten Datenspeicher mit Ihrer Amazon-Bedrock-Wissensdatenbank](kb-data-source-structured-sync-ingest.md)

# Einrichten Ihrer Abfrage-Engine und der Berechtigungen zum Erstellen einer Wissensdatenbank mit strukturiertem Datenspeicher
<a name="knowledge-base-prereq-structured"></a>

In diesem Thema werden die Berechtigungen beschrieben, die Sie benötigen, um Ihre Wissensdatenbank mit einem strukturierten Datenspeicher zu verbinden. Wenn Sie planen, eine Amazon-Bedrock-Wissensdatenbank mit einem strukturierten Datenspeicher zu verbinden, müssen Sie die Voraussetzungen erfüllen. Informationen zu den allgemeinen Genehmigungsanforderungen, die erfüllt werden müssen, finden Sie unter [Einrichten von Berechtigungen für einen Benutzer oder eine Rolle zum Erstellen und Verwalten von Wissensdatenbanken](knowledge-base-prereq-permissions-general.md).

**Wichtig**  
Die Ausführung beliebiger SQL-Abfragen kann ein Sicherheitsrisiko für jede Text-to-SQL Anwendung darstellen. Es wird empfohlen, bei Bedarf Vorsichtsmaßnahmen zu treffen, z. B. eingeschränkte Rollen, schreibgeschützte Datenbanken und Sandboxes zu verwenden.

Amazon-Bedrock-Wissensdatenbanken unterstützen Amazon Redshift als Abfrage-Engines für die Abfrage Ihres Datenspeichers. Eine Abfrage-Engine greift auf Metadaten aus einem strukturierten Datenspeicher zu und verwendet die Metadaten, um SQL-Abfragen zu generieren. Amazon Redshift ist ein Data-Warehouse-Service, der mithilfe von SQL strukturierte Daten aus Data Warehouses, Datenbanken und Data Lakes analysiert.

## Erstellen einer Abfrage-Engine in Amazon Redshift
<a name="kb-query-engine-setup-create"></a>

Sie können je nach Anwendungsfall Amazon Redshift Serverless oder Amazon Redshift Provisioned verwenden und eine Verbindung mit Arbeitsgruppen oder Clustern für Ihr Data Warehouse herstellen. Bei den zugrunde liegenden Daten, die die Amazon Redshift Redshift-Engine abfragen kann, kann es sich um Daten handeln, die nativ in Amazon Redshift Redshift-Clustern gespeichert sind, oder um Daten, die sich unter dem Standard befinden AWS Glue Data Catalog (z. B. in Amazon S3).

Wenn Sie bereits eine Abfrage-Engine erstellt haben, können Sie diese Voraussetzung überspringen. Andernfalls führen Sie die folgenden Schritte aus, um Ihre Abfrage-Engine von Amazon Redshift Provisioned oder Amazon Redshift Serverless einzurichten:

**So richten Sie eine Abfrage-Engine in Amazon Redshift Provisioned ein**

1. Folgen Sie den Schritten in [Schritt 1: Erstellen eines Amazon-Redshift-Beispielclusters](https://docs.aws.amazon.com/redshift/latest/gsg/new-user.html#rs-gsg-launch-sample-cluster) im Handbuch Erste Schritte mit Amazon Redshift.

1. Notieren Sie sich die Cluster-ID.

1. (Optional) Weitere Informationen über Cluster, die von Amazon Redshift bereitgestellt werden, finden Sie unter [Von Amazon Redshift bereitgestellte Cluster](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-clusters.html) im Amazon-Redshift-Verwaltungshandbuch.

**So richten Sie eine Abfrage-Engine in Amazon Redshift Serverless ein**

1. Folgen Sie nur dem Einrichtungsverfahren unter [Erstellen eines Data Warehouse mit Amazon Redshift Serverless](https://docs.aws.amazon.com/redshift/latest/gsg/new-user-serverless.html#serverless-console-resource-creation) im Handbuch Erste Schritte mit Amazon Redshift und konfigurieren Sie es mit den Standardeinstellungen.

1. Notieren Sie sich den ARN der Arbeitsgruppe.

1. (Optional) Weitere Informationen zu Arbeitsgruppen von Amazon Redshift Serverless finden Sie unter [Arbeitsgruppen und Namespaces](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-workgroup-namespace.html) im Amazon-Redshift-Verwaltungshandbuch.

## Konfigurieren von Berechtigungen für die Abfrage-Engine von Amazon Redshift
<a name="kb-query-engine-setup-redshift-permissions"></a>

Abhängig von der Abfrage-Engine von Amazon Redshift können Sie bestimmte Berechtigungen konfigurieren. Die von Ihnen konfigurierten Berechtigungen hängen von der Authentifizierungsmethode ab. Die folgende Tabelle zeigt die Authentifizierungsmethoden, die für verschiedene Abfrage-Engines verwendet werden können:


****  

| Authentifizierungsmethode | Amazon Redshift Provisioned | Amazon Redshift Serverless | 
| --- | --- | --- | 
| IAM | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 
| Datenbankbenutzername | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-no.png)Nein | 
| AWS Secrets Manager | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 

Wissensdatenbanken für Amazon Bedrock verwendet eine [Servicerolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html), um Wissensdatenbanken mit strukturierten Datenspeichern zu verbinden, Daten aus diesen Datenspeichern abzurufen und SQL-Abfragen auf der Grundlage von Benutzerabfragen und der Struktur der Datenspeicher zu generieren.

**Anmerkung**  
Wenn Sie planen, mit dem eine Wissensdatenbank AWS-Managementkonsole zu erstellen, können Sie diese Voraussetzung überspringen. Die Konsole erstellt eine Servicerolle von Wissensdatenbanken für Amazon Bedrock mit den entsprechenden Berechtigungen.

Wenn Sie eine benutzerdefinierte IAM-Servicerolle mit den entsprechenden Berechtigungen erstellen möchten, folgen Sie den Schritten unter [Erstellen einer Rolle, um Berechtigungen an einen AWS-Service zu delegieren](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) und hängen Sie die unter [Vertrauensstellung](kb-permissions.md#kb-permissions-trust) definierte Vertrauensstellung an.

Fügen Sie anschließend Berechtigungen für Ihre Wissensdatenbank hinzu, um auf Ihre Abfrage-Engine und Datenbanken von Amazon Redshift zuzugreifen. Erweitern Sie den Abschnitt, der auf Ihren Anwendungsfall zutrifft:

### Ihre Abfrage-Engine wird von Amazon Redshift bereitgestellt
<a name="w2aac28c10c27c13c11c15b1"></a>

Fügen Sie Ihrer benutzerdefinierten Servicerolle die folgende Richtlinie an, damit sie auf Ihre Daten zugreifen und damit Abfragen generieren kann:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "RedshiftDataAPIStatementPermissions",
            "Effect": "Allow",
            "Action": [
                "redshift-data:GetStatementResult",
                "redshift-data:DescribeStatement",
                "redshift-data:CancelStatement"
            ],
            "Resource": [
                "*"
            ],
            "Condition": {
                "StringEquals": {
                    "redshift-data:statement-owner-iam-userid": "${aws:userid}"
                }
            }
        },
        {
            "Sid": "RedshiftDataAPIExecutePermissions",
            "Effect": "Allow",
            "Action": [
                "redshift-data:ExecuteStatement"
            ],
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:cluster:${Cluster}"
            ]
        },
        {
            "Sid": "SqlWorkbenchAccess",
            "Effect": "Allow",
            "Action": [
                "sqlworkbench:GetSqlRecommendations",
                "sqlworkbench:PutSqlGenerationContext",
                "sqlworkbench:GetSqlGenerationContext",
                "sqlworkbench:DeleteSqlGenerationContext"
            ],
            "Resource": "*"
        },
        {
            "Sid": "GenerateQueryAccess",
            "Effect": "Allow",
            "Action": [
                "bedrock:GenerateQuery"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Sie müssen außerdem Berechtigungen hinzufügen, damit sich Ihre Servicerolle bei der Abfrage-Engine authentifizieren kann. Erweitern Sie einen Abschnitt, um die Berechtigungen für diese Methode zu sehen.

------
#### [ IAM ]

Fügen Sie Ihrer benutzerdefinierten Servicerolle die folgende Richtlinie an, damit sie sich bei Ihrer von Amazon Redshift bereitgestellten Abfrage-Engine mit IAM authentifizieren kann:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetCredentialsWithFederatedIAMCredentials",
            "Effect": "Allow",
            "Action": "redshift:GetClusterCredentialsWithIAM",
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:dbname:Cluster/database"
            ]
        }
    ]
}
```

------

------
#### [ Database user ]

Zum Authentifizieren als Amazon-Redshift-Datenbankbenutzer fügen Sie der Servicerolle die folgende Richtlinie an:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetCredentialsWithClusterCredentials",
            "Effect": "Allow",
            "Action": [
                "redshift:GetClusterCredentials"
            ],
            "Resource": [
                "arn:aws:redshift:us-east-1:123456789012:dbuser:${cluster}/${dbuser}",
                "arn:aws:redshift:us-east-1:123456789012:dbname:${cluster}/${database}"
            ]
        }
    ]
}
```

------

------
#### [ AWS Secrets Manager ]

Gehen Sie wie folgt vor, damit sich Ihre Servicerolle bei Ihrer von Amazon Redshift bereitgestellten Abfrage-Engine mit einem AWS Secrets Manager geheimen Schlüssel authentifizieren kann:
+ Fügen Sie der Rolle die folgende Richtlinie hinzu:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "GetSecretPermissions",
              "Effect": "Allow",
              "Action": [
                  "secretsmanager:GetSecretValue"
              ],
              "Resource": [
                  "arn:aws:secretsmanager:${region}:${account}:secret:${secretName}"
              ]
          }
      ]
  }
  ```

------

### Ihre Abfrage-Engine ist Amazon Redshift Serverless
<a name="w2aac28c10c27c13c11c15b3"></a>

Die Berechtigungen zum Anhängen richten sich nach Ihrer Authentifizierungsmethode. Erweitern Sie einen Abschnitt, um die Berechtigungen für eine Methode zu sehen.

------
#### [ IAM ]

Fügen Sie Ihrer benutzerdefinierten Servicerolle die folgende Richtlinie an, damit sie sich bei Ihrer Abfrage-Engine von Amazon Redshift Serverless mit IAM authentifizieren kann:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "RedshiftServerlessGetCredentials",
            "Effect": "Allow",
            "Action": "redshift-serverless:GetCredentials",
            "Resource": [
                "arn:aws:redshift-serverless:us-east-1:123456789012:workgroup/WorkgroupId"
            ]
        }
    ]
}
```

------

------
#### [ AWS Secrets Manager ]

Gehen Sie wie folgt vor, damit sich Ihre Servicerolle bei Ihrer von Amazon Redshift bereitgestellten Abfrage-Engine mit einem AWS Secrets Manager geheimen Schlüssel authentifizieren kann:
+ Fügen Sie der Rolle die folgende Richtlinie hinzu:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "GetSecretPermissions",
              "Effect": "Allow",
              "Action": [
                  "secretsmanager:GetSecretValue"
              ],
              "Resource": [
                  "arn:aws:secretsmanager:${region}:${account}:secret:${secretName}"
              ]
          }
      ]
  }
  ```

------

## Zulassen, dass die Wissensdatenbank-Servicerolle auf Ihren Datenspeicher zugreift
<a name="knowledge-base-prereq-structured-db-access"></a>

Stellen Sie sicher, dass Ihre Daten in einem der folgenden [unterstützten strukturierten Datenspeicher](knowledge-base-structured-create.md) abgelegt sind:
+ Amazon Redshift
+ AWS Glue Data Catalog (AWS Lake Formation)

In der folgenden Tabelle sind die Authentifizierungsmethoden zusammengefasst, die je nach Datenspeicher für die Abfrage-Engine verfügbar sind:


****  

| Authentifizierungsmethode | Amazon Redshift | AWS Glue Data Catalog (AWS Lake Formation) | 
| --- | --- | --- | 
| IAM | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | 
| Datenbankbenutzername | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-no.png)Nein | 
| AWS Secrets Manager | ![\[Green circular icon with a white checkmark symbol inside.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-yes.png)Ja | ![\[Red circular icon with an X symbol, indicating cancellation or denial.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/icon-no.png)Nein | 

Informationen darüber, wie Sie Berechtigungen für Ihre Servicerolle von Wissensdatenbanken für Amazon Bedrock einrichten, um auf Ihren Datenspeicher zuzugreifen und darauf basierende Abfragen zu generieren, finden Sie, indem Sie den Abschnitt erweitern, der dem Service entspricht, in dem sich Ihr Datenspeicher befindet:

### Amazon Redshift
<a name="w2aac28c10c27c13c13c13b1"></a>

Wenn Sie Ihrer Servicerolle von Wissensdatenbanken für Amazon Bedrock Zugriff auf Ihre Amazon-Redshift-Datenbank gewähren möchten, verwenden Sie [Amazon Redshift Query Editor V2](https://docs.aws.amazon.com/redshift/latest/mgmt/query-editor-v2.html) und führen Sie die folgenden SQL-Befehle aus:

1. (Wenn Sie sich mit IAM authentifizieren und noch kein Benutzer für Ihre Datenbank erstellt wurde) Führen Sie den folgenden Befehl aus, der CREATE USER verwendet, um einen [Datenbankbenutzer zu erstellen](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_USER.html) und ihm die Authentifizierung über IAM zu ermöglichen, und *\$1\$1service-role\$1* ersetzen Sie ihn durch den Namen der benutzerdefinierten Amazon Bedrock Knowledge Bases-Servicerolle, die Sie erstellt haben:

   ```
   CREATE USER "IAMR:${service-role}" WITH PASSWORD DISABLE;
   ```
**Wichtig**  
Wenn Sie die für Sie in der Konsole erstellte Servicerolle von Wissensdatenbanken für Amazon Bedrock verwenden und dann [Ihren Datenspeicher synchronisieren](kb-data-source-structured-sync-ingest.md), bevor Sie diesen Schritt ausführen, wird der Benutzer für Sie erstellt. Die Synchronisierung schlägt jedoch fehl, da dem Benutzer keine Zugriffsberechtigungen für Ihren Datenspeicher erteilt wurden. Vor der Synchronisierung müssen Sie den folgenden Schritt ausführen.

1. Erteilen Sie einer Identität Berechtigungen zum Abrufen von Informationen aus Ihrer Datenbank, indem Sie den Befehl [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html) ausführen.

------
#### [ IAM ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "IAMR:${serviceRole}";
   ```

------
#### [ Database user ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "${dbUser}";
   ```

------
#### [ AWS Secrets Manager username ]

   ```
   GRANT SELECT ON ALL TABLES IN SCHEMA ${schemaName} TO "${secretsUsername}";
   ```

------
**Wichtig**  
Gewähren Sie keinen Zugriff für `CREATE`, `UPDATE` oder `DELETE`. Wenn Sie diese Aktionen zulassen, kann dies zu unbeabsichtigten Änderungen Ihrer Daten führen.

   Für eine genauere Kontrolle der Tabellen, auf die zugegriffen werden kann, können Sie `ALL TABLES` bestimmte Tabellennamen durch die folgende Notation ersetzen:. *\$1\$1schemaName\$1* *\$1\$1tableName\$1* Weitere Informationen zu dieser Notation finden Sie im Abschnitt **Abfrageobjekte** unter [Datenbankübergreifende Abfragen](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html).

------
#### [ IAM ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "IAMR:${serviceRole}";
   ```

------
#### [ Database user ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "${dbUser}";
   ```

------
#### [ AWS Secrets Manager username ]

   ```
   GRANT SELECT ON ${schemaName}.${tableName} TO "${secretsUsername}";
   ```

------

1. Wenn Sie ein neues Schema in der Redshift-Datenbank erstellt haben, führen Sie den folgenden Befehl aus, um eine Identitätsberechtigung für das neue Schema zu erteilen.

   ```
   GRANT USAGE ON SCHEMA ${schemaName} TO "IAMR:${serviceRole}";
   ```

### AWS Glue Data Catalog
<a name="w2aac28c10c27c13c13c13b3"></a>

Um Ihrer Amazon Bedrock Knowledge Bases-Servicerolle Zugriff auf Ihren AWS Glue Data Catalog Datenspeicher zu gewähren, verwenden Sie den [Amazon Redshift Query Editor v2](https://docs.aws.amazon.com/redshift/latest/mgmt/query-editor-v2.html) und führen Sie die folgenden SQL-Befehle aus:

1. Führen Sie den folgenden Befehl aus, der [CREATE USER](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_USER.html) verwendet, um einen Datenbankbenutzer zu erstellen und ihm die Authentifizierung über IAM zu ermöglichen. *\$1\$1service-role\$1* Ersetzen Sie ihn durch den Namen der benutzerdefinierten Amazon Bedrock Knowledge Bases-Servicerolle, die Sie erstellt haben:

   ```
   CREATE USER "IAMR:${service-role}" WITH PASSWORD DISABLE;
   ```
**Wichtig**  
Wenn Sie die für Sie in der Konsole erstellte Servicerolle von Wissensdatenbanken für Amazon Bedrock verwenden und dann [Ihren Datenspeicher synchronisieren](kb-data-source-structured-sync-ingest.md), bevor Sie diesen Schritt ausführen, wird der Benutzer für Sie erstellt. Die Synchronisierung schlägt jedoch fehl, da dem Benutzer keine Zugriffsberechtigungen für Ihren Datenspeicher erteilt wurden. Vor der Synchronisierung müssen Sie den folgenden Schritt ausführen.

1. Erteilen Sie der Servicerolle Berechtigungen zum Abrufen von Informationen aus Ihrer Datenbank, indem Sie den folgenden [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html)-Befehl ausführen:

   ```
   GRANT USAGE ON DATABASE awsdatacatalog TO "IAMR:${serviceRole}";
   ```
**Wichtig**  
Gewähren Sie keinen Zugriff für `CREATE`, `UPDATE` oder `DELETE`. Wenn Sie diese Aktionen zulassen, kann dies zu unbeabsichtigten Änderungen Ihrer Daten führen.

1. Um den Zugriff auf Ihre AWS Glue Data Catalog Datenbanken zu ermöglichen, fügen Sie der Servicerolle die folgenden Berechtigungen zu:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "VisualEditor0",
               "Effect": "Allow",
               "Action": [
                   "glue:GetDatabases",
                   "glue:GetDatabase",
                   "glue:GetTables",
                   "glue:GetTable",
                   "glue:GetPartitions",
                   "glue:GetPartition",
                   "glue:SearchTables"
               ],
               "Resource": [
                   "arn:aws:glue:us-east-1:123456789012:table/${DatabaseName}/${TableName}",
                   "arn:aws:glue:us-east-1:123456789012:database/${DatabaseName}",
                   "arn:aws:glue:us-east-1:123456789012:catalog"
               ]
           }
       ]
   }
   ```

------

1. Erteilen Sie Ihrer Servicerolle Berechtigungen über AWS Lake Formation (weitere Informationen zu Lake Formation und seiner Beziehung zu Amazon Redshift finden Sie unter [Datenquellen für Redshift](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source.html)), indem Sie wie folgt vorgehen:

   1. Melden Sie sich bei an AWS-Managementkonsole und öffnen Sie die Lake Formation Formation-Konsole unter [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/).

   1. Wählen Sie im linken Navigationsbereich **Datenberechtigungen** aus.

   1. Erteilen Sie der Servicerolle, die Sie für Wissensdatenbanken für Amazon Bedrock verwenden, Berechtigungen.

   1. Erteilen Sie Berechtigungen zum **Beschreiben** und **Auswählen** für Ihre Datenbanken und Tabellen.

1. Abhängig von der Datenquelle, die Sie verwenden AWS Glue Data Catalog, müssen Sie möglicherweise Berechtigungen für den Zugriff auf diese Datenquelle hinzufügen (weitere Informationen finden Sie unter [AWS Glue Abhängigkeit von anderen AWS-Services](https://docs.aws.amazon.com/glue/latest/dg/dependency-on-other-services.html)). Wenn sich Ihre Datenquelle beispielsweise an einem Amazon-S3-Speicherort befindet, müssen Sie der obigen Richtlinie die folgende Anweisung hinzufügen.

   ```
   {
       "Sid": "Statement1",
       "Effect": "Allow",
       "Action": [
           "s3:ListBucket",
           "s3:GetObject"
       ],
       "Resource": [
           "arn:aws:s3:::${BucketName}",
           "arn:aws:s3:::${BucketName}/*"
       ]
   }
   ```

1. (Optional) Wenn Sie AWS KMS die Daten in Amazon S3 oder verschlüsseln AWS Glue Data Catalog, müssen Sie der Rolle Berechtigungen hinzufügen, um die Daten auf dem KMS-Schlüssel zu entschlüsseln.

   ```
   {
       "Action": [
           "kms:Decrypt"
       ],
       "Resource": [
           "arn:aws:kms:${Region}:${Account}:key/{KmsId}",
           "arn:aws:kms:${Region}:${Account}:key/{KmsId}"
       ],
       "Effect": "Allow"
   }
   ```

# Erstellen einer Wissensdatenbank durch Herstellen einer Verbindung mit einem strukturierten Datenspeicher
<a name="knowledge-base-structured-create"></a>

Zum Verbinden einer Wissensdatenbank mit einem strukturierten Datenspeicher geben Sie die folgenden Komponenten an:
+ 

**Konfiguration der Abfrage-Engine**  
Hierbei handelt es sich um die Konfiguration für den Computing-Service, der die generierten SQL-Abfragen ausführt. Die Abfrage-Engine wird eingesetzt, um Benutzerabfragen in natürlicher Sprache in SQL-Abfragen zu konvertieren, die zum Extrahieren von Daten aus Ihrem Datenspeicher verwendet werden können. Sie können Amazon Redshift als Abfrage-Engine auswählen. Bei der Auswahl dieser Konfiguration müssen Sie Folgendes angeben:
  + Die Metadaten der Computing-Verbindung wie die Cluster-ID oder der Arbeitsgruppen-ARN, je nach ausgewählter Abfrage-Engine.
  + Die Authentifizierungsmethode für die Verwendung der Abfrage-Engine. Dabei kann es sich um eine IAM-Dienstrolle mit den entsprechenden Berechtigungen, einen Datenbankbenutzer der Abfrage-Engine oder einen AWS Secrets Manager geheimen Schlüssel handeln, der mit Ihren Datenbankanmeldedaten verknüpft ist.
+ 

**Speicherkonfiguration**  
Dies ist die Konfiguration für den Datenspeicher, der Ihre Daten enthält. Sie können eine Verbindung zu Amazon Redshift Provisioned oder Amazon Redshift Serverless herstellen und Amazon Redshift oder AWS Glue Data Catalog als Ihren Datenspeicher verwenden.
+ 

**(Optional) Abfragekonfigurationen**  
Sie können optionale Abfragekonfigurationen verwenden, um die Korrektheit der SQL-Generierung zu verbessern:
  + **Maximale Abfragezeit** – Die Zeitspanne, nach der die Abfrage das Zeitlimit überschreitet
  + **Beschreibungen** – Stellt Metadaten oder zusätzliche Informationen zu Tabellen oder Spalten bereit. Sie können Beschreibungen der Tabellen oder Spalten, Nutzungshinweise oder zusätzliche Attribute hinzufügen. Die von Ihnen hinzugefügten Beschreibungen können die Generierung von SQL-Abfragen verbessern, indem sie zusätzlichen Kontext und Informationen zur Struktur der Tabellen oder Spalten bereitstellen.
  + **Einschlüsse und Ausschlüsse** – Gibt eine Gruppe von Tabellen oder Spalten an, die bei der SQL-Generierung ein- oder ausgeschlossen werden sollen. Dieses Feld ist wichtig, wenn Sie den Umfang von SQL-Abfragen auf eine definierte Teilmenge verfügbarer Tabellen oder Spalten beschränken möchten. Diese Option kann dazu beitragen, den Generierungsprozess zu optimieren, indem unnötige Tabellen- oder Spaltenverweise reduziert werden.

    Wenn Sie Einschlüsse angeben, werden alle anderen Tabellen und Spalten ignoriert. Wenn Sie Ausschlüsse angeben, werden die von Ihnen angegebenen Tabellen und Spalten ignoriert.
**Anmerkung**  
Ein- und Ausschlüsse sind kein Ersatz für den Integritätsschutz und dienen lediglich der Verbesserung der Modellgenauigkeit.
  + **Kuratierte Abfragen** – Eine Reihe vordefinierter Fragen- und Antwortbeispiele. Fragen werden als Abfragen in natürlicher Sprache (NLQ) geschrieben und die Antworten sind die entsprechenden SQL-Abfragen. Diese Beispiele unterstützen den SQL-Generierungsprozess, indem sie Beispiele für die Arten von Abfragen bereitstellen, die generiert werden sollten. Sie dienen als Referenzpunkte, um die Korrektheit und Relevanz der Ausgaben generativer SQL zu verbessern.

Erweitern Sie den Abschnitt, der Ihrem Anwendungsfall entspricht:

## Verwenden der Konsole
<a name="knowledge-base-structured-create-console"></a>

Gehen Sie wie folgt vor, um mithilfe von eine Verbindung zu einem strukturierten Datenspeicher herzustellen: AWS-Managementkonsole

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Option **Erstellen** und dann **Wissensdatenbank mit strukturiertem Datenspeicher** aus.

1. Richten Sie die folgenden Details für die Wissensdatenbank ein:

   1. (Optional) Ändern Sie den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

   1. Wählen Sie die Abfrage-Engine aus, die zum Abrufen von Daten aus Ihrem Datenspeicher verwendet werden soll.

   1. Wählen Sie eine IAM-Servicerolle mit den entsprechenden Berechtigungen aus, um diese Wissensdatenbank zu erstellen und zu verwalten. Sie können die Servicerolle von Amazon Bedrock erstellen lassen oder eine benutzerdefinierte Rolle auswählen, die Sie angelegt haben. Weitere Informationen zum Erstellen einer Rolle finden Sie unter [Einrichten Ihrer Abfrage-Engine und der Berechtigungen zum Erstellen einer Wissensdatenbank mit strukturiertem Datenspeicher](knowledge-base-prereq-structured.md).

   1. (Optional) Fügen Sie Tags hinzu, die Ihrer Wissensdatenbank zugeordnet werden sollen. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

   1. Wählen Sie **Weiter** aus.

1. Konfigurieren Sie Ihre Abfrage-Engine:

   1. Wählen Sie den Service aus, in dem Sie einen Cluster oder eine Arbeitsgruppe erstellt haben. Wählen Sie anschließend den Cluster oder die Arbeitsgruppe aus, der bzw. die verwendet werden soll.

   1. Wählen Sie die Authentifizierungsmethode aus und geben Sie Werte in die erforderlichen Felder ein.

   1. Wählen Sie den Datenspeicher aus, in dem Ihre Metadaten gespeichert werden sollen. Wählen Sie dann den Namen Ihrer Datenbank aus oder geben Sie ihn ein.

   1. (Optional) Ändern Sie die Abfragekonfigurationen nach Bedarf. Weitere Informationen zu den verschiedenen Konfigurationen finden Sie am Anfang dieses Themas.

   1. Wählen Sie **Weiter** aus.

1. Überprüfen Sie Ihre Wissensdatenbank-Konfigurationen und bearbeiten Sie die Abschnitte nach Bedarf. Bestätigen Sie den Vorgang, um Ihre Wissensdatenbank zu erstellen.

## Verwenden der API
<a name="knowledge-base-structured-create-api"></a>

Um mithilfe der Amazon Bedrock API eine Verbindung zu einem strukturierten Datenspeicher herzustellen, senden Sie eine [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)Anfrage mit einem [Build-Time-Endpunkt Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) mit dem folgenden allgemeinen Anfragetext:

```
{
    "name": "string",
    "roleArn": "string",
    "knowledgeBaseConfiguration": {
        "type": "SQL",
        "sqlKnowledgeBaseConfiguration": [SqlKnowledgeBaseConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_SqlKnowledgeBaseConfiguration.html)
    },
    "description": "string",
    "clientToken": "string",
    "tags": {
        "string": "string"
    }
}
```

Die folgenden Felder sind erforderlich.


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| Name | Ein Name für die Wissensdatenbank | 
| roleArn | Eine [Wissensdatenbank-Servicerolle](kb-permissions.md) mit den entsprechenden Berechtigungen. Sie können die Konsole für das automatische Erstellen einer Servicerolle mit den entsprechenden Berechtigungen verwenden. | 
| knowledgeBaseConfiguration | Enthält Konfigurationen für die Wissensdatenbank. Geben Sie bei einer strukturierten Datenbank als type SQL an und schließen Sie das Feld sqlKnowledgeBaseConfiguration ein. | 

Die folgenden Felder sind optional.


****  

| Feld | Verwenden Sie | 
| --- | --- | 
| description | Hiermit fügen Sie eine Beschreibung für die Wissensdatenbank hinzu. | 
| clientToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tags | So ordnen Sie Tags zu einem Flow hinzu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md). | 

Der Wert `SQLKnowledgeBaseConfiguration` hängt von der von Ihnen verwendeten Abfrage-Engine ab. Geben Sie für Amazon Redshift das `type` Feld als an `REDSHIFT` und schließen Sie das `redshiftConfiguration` Feld ein, das a zugeordnet ist [RedshiftConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftConfiguration.html). Für die [RedshiftConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftConfiguration.html)konfigurieren Sie die folgenden Felder:

### queryEngineConfiguration
<a name="w2aac28c10c27c15b9b3c17b1"></a>

Sie können die folgenden Arten von Abfrage-Engines konfigurieren:

#### Amazon Redshift Provisioned
<a name="w2aac28c10c27c15b9b3c17b1b5b1"></a>

Wenn Ihre Amazon Redshift Redshift-Datenbanken auf dedizierten Rechenknoten bereitgestellt werden, sollte der Wert des `queryEngineConfiguration` Felds a [RedshiftQueryEngineConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineConfiguration.html)im folgenden Format sein:

```
{
    "type": "PROVISIONED",
    "provisionedConfiguration": {
        "clusterIdentifier": "string",
        "authConfiguration": [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html)
    },
}
```

Geben Sie die ID des Clusters in das Feld `clusterIdentifier` ein. Das [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html)hängt von der Art der Autorisierung ab, die Sie verwenden. Wählen Sie die Registerkarte aus, die Ihrer Autorisierungsmethode entspricht:

------
#### [ IAM role ]

Wenn Sie die Autorisierung mit Ihrer IAM-Rolle vornehmen, müssen Sie in der [RedshiftProvisionedAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftProvisionedAuthConfiguration.html) nur `IAM` als Typ ohne zusätzliche Felder angeben.

```
{
    "type": "IAM"
}
```

------
#### [ Temporary credentials user name ]

Wenn Sie die Autorisierung mit dem Datenbankbenutzernamen durchführen, legen Sie für `type` `USERNAME` fest und geben Sie den Benutzernamen in das Feld `databaseUser` in der `RedshiftProvisionedAuthConfig` an:

```
{
    "type": "USERNAME",
    "databaseUser": "string"
}
```

------
#### [ AWS Secrets Manager ]

Wenn Sie mit autorisieren AWS Secrets Manager, geben Sie `type` as `USERNAME_PASSWORD` und den ARN des Geheimnisses in das `usernamePasswordSecretArn` Feld ein: `RedshiftProvisionedAuthConfig`

```
{
    "type": "USERNAME_PASSWORD",
    "usernamePasswordSecretArn": "string"
}
```

------

#### Amazon Redshift Serverless
<a name="w2aac28c10c27c15b9b3c17b1b5b3"></a>

Wenn Sie Amazon Redshift Serverless verwenden, sollte der Wert des `queryConfiguration` Felds a [RedshiftQueryEngineConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineConfiguration.html)im folgenden Format sein:

```
{
    "type": "SERVERLESS",
    "serverlessConfiguration": {
        "workgroupArn": "string",
        "authConfiguration": 
    }
}
```

Geben Sie den ARN Ihrer Arbeitsgruppe in das Feld `workgroupArn` ein. Das [RedshiftServerlessAuthConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftServerlessAuthConfiguration.html)hängt von der Art der Autorisierung ab, die Sie verwenden. Wählen Sie die Registerkarte aus, die Ihrer Autorisierungsmethode entspricht:

------
#### [ IAM role ]

Wenn Sie die Autorisierung mit Ihrer IAM-Rolle vornehmen, müssen Sie in der `RedshiftServerlessAuthConfiguration` nur `IAM` als Typ ohne zusätzliche Felder angeben.

```
{
    "type": "IAM"
}
```

------
#### [ AWS Secrets Manager ]

Wenn Sie mit autorisieren AWS Secrets Manager, geben Sie `type` as `USERNAME_PASSWORD` und den ARN des Geheimnisses in das `usernamePasswordSecretArn` Feld ein: `RedshiftServerlessAuthConfiguration`

```
{
    "type": "USERNAME_PASSWORD",
    "usernamePasswordSecretArn": "string"
}
```

------

### storageConfigurations
<a name="w2aac28c10c27c15b9b3c17b3"></a>

Dieses Feld ist einem Array zugeordnet, das ein einzelnes Feld enthält [RedshiftQueryEngineStorageConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_RedshiftQueryEngineStorageConfiguration.html), dessen Format davon abhängt, wo Ihre Daten gespeichert sind.

#### AWS Glue Data Catalog
<a name="w2aac28c10c27c15b9b3c17b3b5b1"></a>

Wenn Ihre Daten in gespeichert sind AWS Glue Data Catalog, `RedshiftQueryEngineStorageConfiguration` sollten sie das folgende Format haben:

```
{
    "type": "AWS_DATA_CATALOG",
    "awsDataCatalogConfiguration": {
        "tableNames": ["string"]
    }
}
```

Fügen Sie den Namen jeder Tabelle, mit der Sie Ihre Wissensdatenbank verbinden möchten, in das Array ein, dem `tableNames` zugeordnet ist.

**Anmerkung**  
Geben Sie Tabellennamen in dem unter [Datenbankübergreifende Abfragen](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html) (`${databaseName}.${tableName}`) beschriebenen Muster ein. Sie können alle Tabellen einbeziehen, indem Sie `${databaseName.*}` angeben.

#### Amazon-Redshift-Datenbanken
<a name="w2aac28c10c27c15b9b3c17b3b5b3"></a>

Wenn Ihre Daten in einer Amazon-Redshift-Datenbank gespeichert sind, sollte die `RedshiftQueryEngineStorageConfiguration` das folgende Format haben:

```
{
    "type": "string",
    "redshiftConfiguration": {
        "databaseName": "string"
    }
}
```

Geben Sie den Namen Ihrer Amazon-Redshift-Datenbank in das Feld `databaseName` ein.

**Anmerkung**  
Geben Sie Tabellennamen in dem unter [Datenbankübergreifende Abfragen](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html) (`${databaseName}.${tableName}`) beschriebenen Muster ein. Sie können alle Tabellen einbeziehen, indem Sie `${databaseName.*}` angeben.

Wenn Ihre Datenbank über Amazon SageMaker AI Lakehouse bereitgestellt wird, hat der Datenbankname das folgende Format*\$1\$1db\$1@\$1\$1schema\$1*.

### queryGenerationConfiguration
<a name="w2aac28c10c27c15b9b3c17b5"></a>

Dieses Feld entspricht dem Folgenden [QueryGenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationConfiguration.html), mit dem Sie konfigurieren können, wie Ihre Daten abgefragt werden:

```
{
    "executionTimeoutSeconds": number,
    "generationContext": {
        "tables": [
            {
                "name": "string",
                "description": "string",
                "inclusion": "string",
                "columns": [
                    {
                        "name": "string",
                        "description": "string",
                        "inclusion": "string"
                    },
                    ...
                ]
            },
            ...
        ],
        "curatedQueries": [
            {
                "naturalLanguage": "string",
                "sql": "string"
            },
            ...
        ]
    }
}
```

Wenn Sie möchten, dass für die Abfrage ein Timeout ausgeführt wird, geben Sie im Feld `executionTimeoutSeconds` die Dauer des Timeouts in Sekunden an.

Das `generationContext` Feld ist einem [QueryGenerationContext](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationContext.html)Objekt zugeordnet, in dem Sie beliebig viele der folgenden Optionen konfigurieren können.

**Wichtig**  
Wenn Sie einen Generierungskontext einbeziehen, versucht die Abfrage-Engine so gut wie möglich, ihn bei der SQL-Generierung anzuwenden. Der Generierungskontext ist nicht deterministisch und dient nur der Verbesserung der Modellgenauigkeit. Wenn Sie die Genauigkeit sicherstellen möchten, überprüfen Sie die generierten SQL-Abfragen.

Erweitern Sie die folgenden Abschnitte, um Informationen zu Generierungskontexten, die Sie einbeziehen können, zu erhalten:

#### Hinzufügen von Beschreibungen für Tabellen oder Spalten in der Datenbank
<a name="w2aac28c10c27c15b9b3c17b5c15b1"></a>

Zur Verbesserung der Genauigkeit der SQL-Generierung für Datenbankabfragen können Sie eine Beschreibung für die Tabelle oder Spalte angeben, die mehr Kontext bietet als ein kurzer Tabellen- oder Spaltenname. Sie haben die folgenden Möglichkeiten:
+ Um eine Beschreibung für eine Tabelle hinzuzufügen, fügen Sie ein [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)Objekt in das `tables` Array ein. Geben Sie in diesem Objekt den Namen der Tabelle im Feld `name` und eine Beschreibung im Feld `description` an, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "description": "Description for Table A"
  }
  ```
+ Um eine Beschreibung für eine Spalte hinzuzufügen, fügen Sie ein [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)Objekt in das `tables` Array ein. Geben Sie in diesem Objekt den Namen der Tabelle im `name` Feld an und schließen Sie das `columns` Feld ein, das einem Array von zugeordnet ist [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html). Geben Sie in einem `QueryGenerationColumn`-Objekt den Namen der Tabelle im Feld `name` und eine Beschreibung im Feld `description` an, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "columns": [
          {
              "name": "Column A",
              "description": "Description for Column A"
          }
      ]
  }
  ```
+ Sie können eine Beschreibung sowohl für eine Tabelle als auch für eine Spalte hinzufügen, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "description": "Description for Table A",
      "columns": [
          {
              "name": "columnA",
              "description": "Description for Column A"
          }
      ]
  }
  ```
**Anmerkung**  
Geben Sie Tabellen- und Spaltennamen in dem unter [Datenbankübergreifende Abfragen](https://docs.aws.amazon.com/redshift/latest/dg/cross-database-overview.html) beschriebenen Muster ein. Wenn sich Ihre Datenbank in befindet AWS Glue Data Catalog, ist das Format`awsdatacatalog.gluedatabase.table`.

#### Ein- oder Ausschließen von Tabellen oder Spalten in die bzw. aus der Datenbank
<a name="w2aac28c10c27c15b9b3c17b5c15b3"></a>

Mithilfe des `inclusion` Felds in den [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html)Objekten und können Sie Tabellen oder Spalten vorschlagen, die beim Generieren von SQL ein [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)- oder ausgeschlossen werden sollen. Sie können einen der folgenden Werte im Feld `inclusion` angeben:
+ INCLUDE – Nur die von Ihnen angegebenen Tabellen oder Spalten werden bei der SQL-Generierung als Kontext eingeschlossen.
+ EXCLUDE – Die von Ihnen angegebenen Tabellen oder Spalten werden bei der SQL-Generierung als Kontext ausgeschlossen.

Sie haben folgende Möglichkeiten, um anzugeben, ob Tabellen oder Spalten ein- oder ausgeschlossen werden sollen:
+ Um eine Tabelle ein- oder auszuschließen, schließen Sie ein [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)Objekt in das `tables` Array ein. Geben Sie in diesem Objekt den Namen der Tabelle im Feld `name` und die Angabe, ob die Tabelle ein- oder ausgeschlossen werden soll, im Feld `inclusion` an, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "inclusion": "EXCLUDE"
  }
  ```

  Die Abfrage-Engine fügt dem zusätzlichen Kontext für die SQL-Generierung `Table A` nicht hinzu.
+ Um eine Spalte ein- oder auszuschließen, schließen Sie ein [QueryGenerationTable](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationTable.html)Objekt in das `tables` Array ein. Geben Sie in diesem Objekt den Namen der Tabelle im `name` Feld an und schließen Sie das `columns` Feld ein, das einem Array von zugeordnet ist [QueryGenerationColumn](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationColumn.html). Geben Sie in einem `QueryGenerationColumn`-Objekt den Namen der Spalte im Feld `name` und die Angabe, ob die Spalte ein- oder ausgeschlossen werden soll, im Feld `inclusion` an, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "columns": [
          {
              "name": "database.schema.tableA.columnA",
              "inclusion": "EXCLUDE"
          }
      ]
  }
  ```

  Die SQL-Generierung ignoriert `Column A` in `Table A` in dem Kontext, wenn SQL generiert wird.
+ Sie können Tabellen und Spalten kombinieren, wenn Sie Einschlüsse oder Ausschlüsse angeben, wie im folgenden Beispiel gezeigt:

  ```
  {
      "name": "database.schema.tableA",
      "inclusion": "INCLUDE",
      "columns": [
          {
              "name": "database.schema.tableA.columnA",
              "inclusion": "EXCLUDE"
          }
      ]
  }
  ```

  Die SQL-Generierung schließt `Table A` ein, schließt darin jedoch `Column A` aus, wenn Kontext für die SQL-Generierung hinzugefügt wird.

**Wichtig**  
Ausschlüsse für Tabellen und Spalten sind kein Ersatz für den Integritätsschutz. Diese Ein- und Ausschlüsse für Tabellen und Spalten werden als zusätzlicher Kontext für das Modell verwendet, der bei der Generierung von SQL berücksichtigt werden muss.

#### Angeben von Beispielen für Zuordnungen natürlicher Sprache zu SQL-Abfragen für die Abfrage-Engine
<a name="w2aac28c10c27c15b9b3c17b5c15b5"></a>

Um die Genauigkeit einer Abfrageengine bei der Konvertierung von Benutzerabfragen in SQL-Abfragen zu verbessern, können Sie ihr Beispiele in dem `curatedQueries` Feld im [QueryGenerationContext](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_QueryGenerationContext.html)Objekt zur Verfügung stellen, das einem Array von [CuratedQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CuratedQuery.html)Objekten zugeordnet ist. Jedes Objekt enthält die folgenden Felder:
+ naturalLanguage – Ein Beispiel für eine Abfrage in natürlicher Sprache
+ sql – Die SQL-Abfrage, die der Abfrage in natürlicher Sprache entspricht

# So synchronisieren Sie Ihren strukturierten Datenspeicher mit Ihrer Amazon-Bedrock-Wissensdatenbank
<a name="kb-data-source-structured-sync-ingest"></a>

Nachdem Sie Ihre Wissensdatenbank mit einem strukturierten Datenspeicher verbunden haben, führen Sie eine Synchronisierung durch, um den Metadaten-Aufnahmeprozess zu starten, damit Daten abgerufen werden können. Die Metadaten ermöglichen Wissensdatenbanken für Amazon Bedrock, Benutzer-Prompts in eine Abfrage für die verbundene Datenbank zu übersetzen.

Wann immer Sie Änderungen an Ihrem Datenbankschema vornehmen, müssen Sie die Änderungen synchronisieren.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus, um zu erfahren, wie Sie Ihre Metadaten in Ihre Wissensdatenbank aufnehmen und mit Ihren neuesten Daten synchronisieren, und führen Sie dann die folgenden Schritte aus:

------
#### [ Console ]

**So nehmen Sie Ihre Daten in Ihre Wissensdatenbank auf und synchronisieren sie mit Ihren neuesten Daten**

1. Öffnen Sie die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock/).

1. Klicken Sie im linken Navigationsbereich auf **Wissensdatenbank** und wählen Sie Ihre Wissensdatenbank aus.

1. Wählen Sie im Abschnitt **Datenquelle** die Option **Synchronisieren** aus, um mit der Metadatenaufnahme zu beginnen. Klicken Sie auf **Stopp**, um eine laufende Datenquellensynchronisierung zu stoppen. Eine Datenquelle muss gerade synchronisiert werden, um die Synchronisierung zu stoppen. Sie können erneut **Synchronisieren** auswählen, um den Rest Ihrer Daten aufzunehmen.

1. Wenn die Datenaufnahme abgeschlossen ist, wird ein grünes Banner angezeigt, wenn sie erfolgreich war.

1. Sie können eine Datenquelle auswählen, um deren **Synchronisierungsverlauf** anzuzeigen. Wählen Sie **Warnungen anzeigen** aus, um zu sehen, warum ein Datenerfassungsauftrag fehlgeschlagen ist.

------
#### [ API ]

Um Ihre Daten in Ihre Wissensdatenbank aufzunehmen und mit Ihren neuesten Daten zu synchronisieren, senden Sie eine [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)-Anfrage an einen [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Verwenden Sie die in der Antwort zurückgegebene `ingestionJobId` in einer [GetIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um den Status des Aufnahmeauftrags nachzuverfolgen.

Sie können Informationen zu allen Aufnahmeaufträgen für eine Datenquelle anzeigen, indem Sie eine [ListIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListIngestionJobs.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) senden.

Um einen Datenerfassungsauftrag zu beenden, der gerade ausgeführt wird, senden Sie eine [StopIngestionJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StopIngestionJob.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Sie können erneut eine `StartIngestionJob`-Anfrage senden, um den Rest Ihrer Daten aufzunehmen, wenn Sie bereit sind.

------

**Wichtig**  
Wenn Sie die für Sie in der Konsole erstellte Servicerolle für Wissensdatenbanken für Amazon Bedrock verwenden und anschließend Ihren Datenspeicher synchronisieren, bevor Sie Ihrer Datenbank Zugriff auf die von Ihnen verwendete Authentifizierungsrolle gewähren, schlägt die Synchronisierung fehl, da dem Benutzer keine Berechtigungen zum Zugriff auf Ihren Datenspeicher erteilt wurden. Informationen zur Erteilung von Zugriffsberechtigungen für eine Rolle, um auf Ihren Datenspeicher zuzugreifen, finden Sie unter [Zulassen, dass die Wissensdatenbank-Servicerolle auf Ihren Datenspeicher zugreift](knowledge-base-prereq-structured.md#knowledge-base-prereq-structured-db-access).

# So erstellen Sie eine Wissensdatenbank in Amazon Bedrock mit einem GenAI-Index in Amazon Kendra
<a name="knowledge-base-build-kendra-genai-index"></a>

Mit Wissensdatenbanken für Amazon Bedrock können Sie aus einem GenAI-Index in Amazon Kendra eine Wissensdatenbank aufbauen, um anspruchsvollere und genauere digitale Assistenten mit Retrieval Augmented Generation (RAG) zu erstellen. Indem Sie einen GenAI-Index in Amazon Kendra mit Wissensdatenbanken für Amazon Bedrock verbinden, können Sie:
+ Ihre indizierten Inhalte in mehreren Anwendungen unter Amazon Bedrock wiederverwenden, ohne Indizes neu erstellen oder Daten erneut aufnehmen zu müssen.
+ Die fortschrittlichen GenAI-Funktionen von Amazon Bedrock nutzen und gleichzeitig vom hochgenauen Informationsabruf in Amazon Kendra profitieren.
+ Das Verhalten Ihres digitalen Assistenten mithilfe der Tools von Amazon Bedrock anpassen und gleichzeitig die semantische Genauigkeit eines GenAI-Indexes in Amazon Kendra beibehalten.

Weitere Informationen über die Verwendung eines GenAI-Index in Amazon Kendra finden Sie unter [GenAI-Index von Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/hiw-index-types.html#kendra-gen-ai-index) im *Amazon-Kendra-Entwicklerhandbuch*.

**Topics**
+ [Erstellen einer Wissensdatenbank in Amazon Bedrock mit einem GenAI-Index von Amazon Kendra](knowledge-base-kendra-genai-index-create.md)

# Erstellen einer Wissensdatenbank in Amazon Bedrock mit einem GenAI-Index von Amazon Kendra
<a name="knowledge-base-kendra-genai-index-create"></a>

 Weitere Informationen über die Verwendung eines GenAI-Index in Amazon Kendra finden Sie unter [GenAI-Index von Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/hiw-index-types.html#kendra-gen-ai-index) im *Amazon-Kendra-Entwicklerhandbuch*.

Sie können eine Amazon-Bedrock-Wissensdatenbank mit einem GenAI-Index von Amazon Kendra entweder mithilfe der Amazon-Bedrock-Konsole oder der Amazon-Bedrock-API erstellen. Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

**Anmerkung**  
Sie können keine Wissensdatenbank mit einem Root-Benutzer erstellen. Bevor Sie beginnen, melden Sie sich mit einem AWS Identity and Access Management (IAM-) Benutzer an.

**Wichtig**  
Wenn Sie eine Wissensdatenbank mit einem GenAI-Index von Amazon Kendra mithilfe der API erstellen möchten, benötigen Sie einen vorhandenen Index. Mit der API können Sie beim Erstellen einer Wissensdatenbank keinen Index erstellen. Wenn Sie beim Erstellen einer Wissensdatenbank einen Index erstellen möchten, müssen Sie die Konsole verwenden.

------
#### [ Console ]

**So bauen Sie eine Wissensdatenbank mit einem GenAI-Index von Amazon Kendra**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Option **Erstellen** aus.

1. Wählen Sie **Wissensdatenbank mit Kendra-GenAI-Index** aus.

1. (Optional) Ändern Sie unter **Details zur Wissensdatenbank** den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

1. Wählen Sie im Abschnitt **IAM-Berechtigungen** eine IAM-Rolle aus, die Amazon Bedrock Berechtigungen zum Zugriff auf andere erforderliche AWS-Services gewährt. Sie können die Servicerolle Amazon Bedrock erstellen lassen oder eine [benutzerdefinierte Rolle auswählen](kb-permissions.md), die Sie erstellt haben.

1. Wählen Sie **Eine neue Servicerolle erstellen und verwenden** oder **Eine vorhandene Servicerolle verwenden** aus.

1. Wählen Sie aus, ob Sie **einen neuen GenAI-Index von Amazon Kendra erstellen** oder **einen vorhandenen GenAI-Index von Amazon Kendra** verwenden möchten.

1. (Optional) Führen Sie unter **Zusätzliche Konfigurationen** einen der folgenden Schritte aus:
   + Konfigurieren Sie einen AWS Key Management Service (AWS KMS) vom Kunden verwalteten Schlüssel, um Ihre Wissensdatenbank zu verschlüsseln.
   + Fügen Sie Ihrer Wissensdatenbank Tags hinzu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

   

   

1. Wählen Sie **Wissensdatenbank erstellen** aus. Während Amazon Bedrock die Wissensdatenbank erstellt, sollte Ihnen der Status **In Bearbeitung** angezeigt werden. Sie müssen warten, bis der Erstellungsvorgang abgeschlossen ist, bevor Sie eine Datenquelle hinzufügen und synchronisieren können.

1. Nachdem Amazon Bedrock die Wissensdatenbank erstellt hat, folgen Sie den Anweisungen unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md), um Ihre Datenquelle zu konfigurieren.

------
#### [ API ]

**So bauen Sie eine Wissensdatenbank mit einem GenAI-Index von Amazon Kendra**

Um eine Wissensdatenbank zu erstellen, senden Sie eine [ CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)Anfrage (siehe Link für Anfrage- und Antwortformate und Felddetails) mit einem [Build-Time-Endpunkt für Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).
+ Geben Sie im Feld `roleArn` den Amazon-Ressourcennamen (ARN) einer IAM-Rolle an, die über Berechtigungen zum Erstellen einer Wissensdatenbank von Amazon Bedrock verfügt.
+ Um ein Modell zu verwenden, das für Wissensdatenbanken unterstützt wird, müssen Sie den [Modellzugriff aktivieren](model-access.md). Notieren Sie sich den ARN Ihres Modells, der für die Konvertierung Ihrer Daten in Vektoreinbettungen erforderlich ist. Kopieren Sie die Modell-ID (Ressourcen-ID) für das von Ihnen ausgewählte Modell für Wissensdatenbanken. Konstruieren Sie dann den Modell-ARN anhand der Modell-ID, indem Sie den ARN-Beispielen folgen, die unter [Von Amazon Bedrock definierte Ressourcentypen](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) in der *Referenz zur Serviceautorisierung* aufgeführt sind. Sehen Sie sich die Beispiele für Ihren Modellressourcentyp an.

  Geben Sie im Feld `embeddingModelArn` im `knowledgeBaseConfiguration`-Objekt den ARN des Vektoreinbettungsmodells an, das Sie verwenden möchten. Weitere Informationen finden Sie unter [Unterstützte Modelle und Regionen für Amazon-Bedrock-Wissensdatenbanken](knowledge-base-supported.md).
+ Zum Erstellen einer Wissensdatenbank mit einem GenAI-Index von Amazon Kendra geben Sie den ARN Ihres GenAI-Index von Amazon Kendra an. 
+ Nachdem Sie eine Wissensdatenbank erstellt haben, generieren Sie eine Datenquelle, die die Dokumente oder Inhalte für Ihre Wissensdatenbank enthält. Beachten Sie, dass es nicht möglich ist, eine Datenquelle mit API-Operationen von Amazon Bedrock zu erstellen. Sie müssen dies entweder mit der Amazon Bedrock-Konsole oder mit der Amazon Kendra [CreateDataSource](https://docs.aws.amazon.com/kendra/latest/APIReference/API_CreateDataSource.html)API-Operation tun. Weitere Informationen zur Auswahl einer Datenquelle und Beispiele für die Konfiguration von API-Verbindungen finden Sie unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md).

------

# So erstellen Sie eine Wissensdatenbank mit Diagrammen aus Amazon Neptune Analytics
<a name="knowledge-base-build-graphs"></a>

Wissensdatenbanken für Amazon Bedrock bietet mit Amazon Neptune eine vollständig verwaltetes GraphRAG-Feature. GraphRAG ist eine in Wissensdatenbanken für Amazon Bedrock enthaltene Funktion, die Diagrammmodellierung mit generativer KI kombiniert, um Retrieval-Augmented Generation (RAG) zu verbessern. Dieses Feature kombiniert die Vektorsuche mit der Fähigkeit, große Mengen an Diagrammdaten aus Amazon Neptune in RAG-Anwendungen schnell zu analysieren.

GraphRAG identifiziert und nutzt automatisch Beziehungen zwischen Entitäten und Strukturelementen in Dokumenten, die in Wissensdatenbanken aufgenommen wurden. Dies ermöglicht umfassendere und kontextrelevantere Antworten aus den Basismodellen, insbesondere wenn die Informationen über mehrere logische Schritte miteinander verknüpft werden müssen. Das bedeutet, dass generative KI-Anwendungen in Fällen, in denen eine Verknüpfung von Daten und Argumenten über mehrere Dokumentenblöcke hinweg erforderlich ist, relevantere Antworten liefern können. Auf diese Weise können Anwendungen wie Chatbots relevantere Antworten aus Basismodellen (FMs) in Fällen liefern, in denen verwandte Fakten, Entitäten und Beziehungen aus mehreren Dokumentenquellen zur Beantwortung von Fragen erforderlich sind.

## Verfügbarkeit von GraphRAG-Regionen
<a name="knowledge-base-build-graphs-regions"></a>

GraphRAG ist in den folgenden AWS-Regionen verfügbar:
+ Europa (Frankfurt)
+ Europa (London)
+ Europa (Irland)
+ USA West (Oregon)
+ USA Ost (Nord-Virginia)
+ Asien-Pazifik (Tokio)
+ Asien-Pazifik (Singapur)

## Vorteile der Verwendung von GraphRAG
<a name="knowledge-base-build-graphs-benefits"></a>

Wissensdatenbanken für Amazon Bedrock bietet mit GraphRAG die folgenden Vorteile:
+ Relevantere und umfassendere Antworten durch die automatische Identifizierung und Nutzung von Beziehungen zwischen Entitäten und Strukturelementen (z. B. Abschnittstitel) in mehreren Dokumentenquellen, die in Wissensdatenbanken für Amazon Bedrock aufgenommen werden.
+ Verbesserte Fähigkeit zur Durchführung umfassender Suchen, bei denen verschiedene Inhalte über mehrere logische Schritte miteinander verknüpft werden, wodurch herkömmliche RAG-Techniken verbessert werden.
+ Bessere dokumentenübergreifende Argumentationsmöglichkeiten, die präzisere und kontextuell genauere Antworten ermöglichen, indem Informationen aus verschiedenen Quellen miteinander verknüpft werden, wodurch die Genauigkeit weiter verbessert und Halluzinationen minimiert werden.

## Funktionsweise von GraphRAG
<a name="knowledge-base-build-graphs-works"></a>

Nach einer ersten Vektorsuche nach den relevanten Knoten führt Wissensdatenbanken für Amazon Bedrock mit GraphRAG die folgenden Schritte durch, um eine bessere Antwort zu generieren:

1. Es werden verwandte Diagrammknoten oder Chunk-IDs abgerufen, die mit den abgerufenen Dokumentblöcken verknüpft sind.

1. Diese verwandten Blöcke werden erweitert, indem das Diagramm durchsucht und dessen Details aus der Graphdatenbank abgerufen werden.

1. Es werden aussagekräftigere Antworten bereitgestellt, indem die relevanten Entitäten verstanden und mithilfe dieses erweiterten Kontextes auf die wichtigsten Zusammenhänge konzentriert werden.

## Überlegungen zu und Einschränkungen von GraphRAG
<a name="knowledge-base-build-graphs-considerations"></a>

Im Folgenden werden einige Einschränkungen bei der Verwendung von Wissensdatenbanken für Amazon Bedrock mit GraphRAG erläutert
+ Es werden keine Konfigurationsoptionen zur Anpassung des Diagrammaufbaus unterstützt.
+ Autoscaling wird für Diagramme in Amazon Neptune Analytics nicht unterstützt.
+ GraphRAG unterstützt ausschließlich Amazon S3 als Datenquelle.
+ Für die automatische Erstellung von Diagrammen für Ihre Wissensdatenbank wird Claude 3 Haiku als Basismodell ausgewählt. Dies ermöglicht eine automatische kontextuelle Anreicherung.
+ Jede Datenquelle kann bis zu 1 000 Dateien haben. Sie können eine Erhöhung dieses Limit auf maximal 10 000 Dateien pro Datenquelle beantragen. Alternativ können Sie Ihren Amazon-S3-Bucket in Ordner partitionieren, wobei jeder Ordner bis zu 1 000 Dateien enthalten kann.
+ Wenn Sie hierarchisches Chunking als Ihre Chunking-Strategie verwenden, ruft GraphRAG während des Suchvorgangs nur die untergeordneten Chunks ab. Die untergeordneten Chunks werden nicht durch ihre entsprechenden übergeordneten Chunks ersetzt. Das bedeutet, dass Ihre Suchergebnisse den spezifischen, detaillierten Inhalt der untergeordneten Chunks enthalten und nicht den breiteren Kontext der übergeordneten Chunks.

**Anmerkung**  
Wenn Sie eine Wissensdatenbank löschen, die Amazon Neptune Analytics verwendet, löschen Sie zuerst die Wissensdatenbank und dann das Diagramm in Amazon Neptune Analytics. Durch das Löschen einer Wissensdatenbank wird das zugrunde liegende Diagramm nicht automatisch gelöscht. Zusätzliche Gebühren können anfallen, bis Sie das Diagramm ausdrücklich löschen. Alternativ können Sie Ihre Richtlinie zum Löschen von Datenquellen auf den Modus RETAIN setzen, um das Diagramm zuerst zu löschen, ohne dass es zu Fehlern kommt. Weitere Informationen finden Sie unter [So löschen Sie eine Datenquelle aus Ihrer Amazon-Bedrock-Wissensdatenbank](kb-ds-delete.md).

# So erstellen Sie eine Amazon-Bedrock-Wissensdatenbank mit Diagrammen aus Amazon Neptune Analytics
<a name="knowledge-base-build-graphs-build"></a>

GraphRAG ist vollständig in Wissensdatenbanken für Amazon Bedrock integriert und verwendet Amazon Neptune Analytics für Speicherung von Diagrammen und Vektoren. Sie können beginnen, GraphRag in Ihren Wissensdatenbanken mit dem AWS-Managementkonsole AWS CLI, oder dem AWS SDK zu verwenden.

Sie benötigen keine vorhandene Diagramminfrastruktur, um mit GraphRAG zu beginnen. Wissensdatenbanken für Amazon Bedrock verwaltet automatisch die Erstellung und Pflege der Diagramme aus Amazon Neptune. Das System erstellt und aktualisiert automatisch ein Diagramm, indem es Entitäten, Fakten und Beziehungen aus Dokumenten extrahiert, die Sie in Ihren Amazon-S3-Bucket hochladen. So können Sie Ihren Endbenutzern relevante Antworten geben, ohne Vorkenntnisse in der Diagrammmodellierung zu haben. Das Diagramm wird in Amazon Neptune Analytics gespeichert.

Wenn Sie eine Wissensdatenbank erstellen, richten Sie Folgendes ein oder geben Folgendes an:
+ Allgemeine Informationen, die die Wissensdatenbank definieren und identifizieren.
+ Die Servicerolle mit Berechtigungen für die Wissensdatenbank.
+ Konfigurationen für die Wissensdatenbank, einschließlich des Einbettungsmodells, das bei der Konvertierung von Daten aus der Datenquelle verwendet werden soll, Speicherkonfigurationen für den Service, in dem die Einbettungen gespeichert werden sollen.

**Anmerkung**  
Sie können keine Wissensdatenbank mit einem Root-Benutzer erstellen. Melden Sie sich mit einem IAM-Benutzer an, bevor Sie mit diesen Schritten beginnen.

Im Folgenden wird gezeigt, wie Sie eine Wissensdatenbank für die Verwendung von Neptune GraphRAG von der Konsole aus und mithilfe der CLI erstellen.

------
#### [ Console ]

**So erstellen Sie eine Wissensdatenbank für Neptune Analytics von der Konsole aus**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Option **Erstellen** und dann **Wissensdatenbank mit Vektorspeicher** aus.

1. (Optional) Ändern Sie unter **Details zur Wissensdatenbank** den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

1. Wählen Sie im Abschnitt **IAM-Berechtigungen** eine IAM-Rolle aus, die Amazon Bedrock Berechtigungen zum Zugriff auf andere erforderliche AWS-Services gewährt. Sie können Amazon Bedrock die Servicerolle erstellen lassen oder Ihre eigene benutzerdefinierte Rolle verwenden, die Sie für Neptune Analytics erstellt haben. Ein Beispiel finden Sie unter [Berechtigungen für den Zugriff auf Ihre Vektordatenbank in Amazon Neptune Analytics](kb-permissions.md#kb-permissions-neptune).

1. Stellen Sie sicher, dass Sie **Amazon S3** als Datenquelle auswählen und klicken Sie dann auf **Weiter**, um Ihre Datenquelle zu konfigurieren.

1. Geben Sie die **S3-URI** der Datei an, die als Datenquelle für die Verbindung Ihrer Wissensdatenbank mit Amazon Neptune Analytics und für die Integration mit Amazon Neptune Analytics verwendet wird. Weitere Schritte und optionale Informationen, die Sie angeben können, finden Sie unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md).

1. Wählen Sie im Abschnitt **Einbettungsmodell** ein Einbettungsmodell aus, um Ihre Daten in Vektoreinbettungen umzuwandeln. Optional können Sie den Abschnitt **Zusätzliche Konfigurationen** verwenden, um die Vektordimensionen anzugeben. Als Einbettungstyp empfehlen wir die Verwendung von Gleitkomma-Vektoreinbettungen.
**Anmerkung**  
Die Vektordimensionen des Einbettungsmodells müssen mit den Vektordimensionen übereinstimmen, die Sie bei der Erstellung des Neptune-Analytics-Diagramms angegeben haben.

1. Wählen Sie im Abschnitt **Vektordatenbank** die Methode zum Erstellen des Vektorspeichers aus und wählen Sie dann **Amazon Neptune Analytics (GraphRAG)** als Ihren Vektorspeicher aus, um die Einbettungen zu speichern, die für die Abfrage verwendet werden. Sie erstellen Sie Ihren Vektorspeicher, indem Sie eine der folgenden Methoden verwenden:
   + Wir empfehlen Ihnen, die Methode **Einen neuen Vektorspeicher schnell erstellen** für einen schnellen Einstieg zu verwenden. Wählen Sie **Amazon Neptune Analytics (GraphRAG)** als Ihren Vektorspeicher aus. Für diese Option benötigen Sie keine vorhandenen Neptune-Analytics-Ressourcen. Die Wissensdatenbank generiert und speichert automatisch eingebettete Dokumente in Amazon Neptune sowie eine grafische Darstellung der Entitäten und ihrer Beziehungen, die aus dem Dokumentkorpus abgeleitet wird.
   + Wenn Sie Ihr Neptune-Analytics-Diagramm und Ihren Vektorindex bereits erstellt haben, können Sie alternativ die Option **Auswählen eines von Ihnen erstellten Vektorspeichers** verwenden. Wählen Sie **Amazon Neptune Analytics (GraphRAG)** als Ihren Vektorspeicher aus und identifizieren Sie den Graph-ARN, die Vektorfeldnamen und die Metadatenfeldnamen im Vektorindex. Weitere Informationen finden Sie unter [Voraussetzungen für die Verwendung eines Vektorspeichers, den Sie für eine Wissensdatenbank erstellt haben](knowledge-base-setup.md).

1. Wählen Sie **Weiter** und überprüfen Sie die Details Ihrer Wissensdatenbank. Sie können jeden beliebigen Abschnitt bearbeiten, bevor Sie mit der Erstellung Ihrer Wissensdatenbank fortfahren.
**Anmerkung**  
Die Zeit, die zum Erstellen der Wissensdatenbank benötigt wird, hängt von Ihren spezifischen Konfigurationen ab. Wenn die Erstellung der Wissensdatenbank abgeschlossen ist, wechselt der Status der Wissensdatenbank in den Status „Bereit“ oder „Verfügbar“.  
Sobald Ihre Wissensdatenbank bereit und verfügbar ist, synchronisieren Sie Ihre Datenquelle zum ersten Mal und anschließend wann immer Sie Ihre Inhalte auf dem neuesten Stand bringen möchten. Wählen Sie Ihre Wissensdatenbank in der Konsole aus und klicken Sie im Bereich Datenquellenübersicht auf **Synchronisieren**.

1. Wählen Sie **Wissensdatenbank erstellen** aus. Während Amazon Bedrock die Wissensdatenbank erstellt, sollte Ihnen der Status **In Bearbeitung** angezeigt werden. Sie müssen warten, bis der Erstellungsvorgang abgeschlossen ist, bevor Sie eine Datenquelle synchronisieren können.

1. Nachdem Amazon Bedrock die Wissensdatenbank erstellt hat, folgen Sie den Anweisungen unter [Verbinden einer Datenquelle mit der Wissensdatenbank](data-source-connectors.md), um Ihre Datenquelle zu konfigurieren.

------
#### [ API ]

**Um eine Wissensdatenbank für Neptune Analytics mit dem zu erstellen AWS CLI**

1. Erstellen Sie zunächst eine Datenquelle mithilfe der Konfiguration zur Kontextanreicherung. Senden Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Im Folgenden wird ein Beispiel für einen CLI-Befehl gezeigt.

   ```
   aws bedrock-agent create-data-source \
       --name graph_rag_source \
       --description data_source_for_graph_rag \
       --knowledge-base-id LDBBY2K5AG \
       --cli-input-json "file://input.json"
   ```

   Im folgenden Code sehen Sie die Inhalte der `input.json`-Datei.

   ```
   {
       "dataSourceConfiguration": { 
           "s3Configuration": { 
               "bucketArn": "arn:aws:s3:::<example-graphrag-datasets>",
               "bucketOwnerAccountId": "<ABCDEFGHIJ>",
               "inclusionPrefixes": [ <"example-dataset"> ]
           },
           "type": "S3",
       },
       "VectorIngestionConfiguration": {
           "contextEnrichmentConfiguration":
               "type": "BEDROCK_FOUNDATION_MODEL",
               "bedrockFoundationModelConfiguration": {
                   "modelArn": "arn:aws:bedrock:<region>::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                   "enrichmentStrategyConfiguration": {
                       "method": "CHUNK_ENTITY_EXTRACTION"
               }
           }
       }
   }
   ```

   Für die Erstellung des Diagramms aus Ihren Dokumenten können Sie Claude 3 Haiku (wie im vorherigen Beispiel gezeigt), Claude Haiku 4.5 und die Amazon Nova-Familie (einschließlich Nova 2- und Nova-Modelle mit Texteingabemodalität) `modelArn` verwenden. Informationen zu den in Ihrer Region verfügbaren Foundation-Modellen finden Sie unter [Unterstützte Foundation-Modelle in Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html).
**Anmerkung**  
Einige Modelle werden nur durch regionsübergreifende Inferenzprofile unterstützt. Wenn Sie ein regionsübergreifendes Inferenzprofil in Amazon Bedrock aufrufen, stammen Ihre Anfrage und die zu erfassenden Daten aus einer Quellregion und werden automatisch an eine der in diesem Profil definierten Zielregionen weitergeleitet, wodurch die Leistung optimiert wird. Die Zielregionen für globale regionenübergreifende Inferenzprofile umfassen alle kommerziellen Regionen. Beispielsweise könnten Sie `modelArn` für einen regionsübergreifenden Anruf mit Sitz in den USA aus der Region US-West-2 das Format angeben. `arn:aws:bedrock:us-west-2:account-id:inference-profile/us.anthropic.claude-haiku-4-5-20251001-v1:0`

   Die Richtlinienanforderungen für Ihre Rolle zur Verwendung von Inferenzprofilen finden Sie unter [Voraussetzungen](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-profiles-prereq.html) für regionsübergreifende Inferenzprofile. Anleitungen zur Verwendung von Inferenzprofilen zur Auswahl von Quell- und Zielregionen finden Sie unter [Unterstützte Regionen und Modelle](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-profiles-support.html) für Inferenzprofile. Ihre Daten werden nur in Ihrer Quellregion gespeichert, die der Amazon Bedrock-Wissensdatenbank und der Amazon Neptune Analytics-Instance entspricht. Die Zielregion wird nur für Inferenzen verwendet.

1. Um eine Wissensdatenbank zu erstellen, senden Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Im Folgenden wird ein Beispiel für einen CLI-Befehl gezeigt.

   ```
   aws bi create-knowledge-base \
   --name <"knowledge-base-graphrag"> \
   --role-arn arn:aws:iam::<accountId>:role/<BedrockExecutionRoleForKnowledgeBase> \
   --cli-input-json "file://input.json"
   ```

   Im Folgenden werden die Inhalte der `input.json`-Datei angezeigt.

   ```
   {
       "storageConfiguration": {
           "type": "NEPTUNE_ANALYTICS"
           "neptuneAnalyticsConfiguration": {
               "graphArn": "arn:aws:neptune-graph:<region>:<>:graph/<graphID>",
               "fieldMapping": {
                   "metadataField": "metadata",
                   "textField": "text"
               },
           }
       },
       "knowledgeBaseConfiguration": {
           "type": "VECTOR",
           "vectorKnowledgeBaseConfiguration": {
               "embeddingModelArn": "arn:aws:bedrock:<region>::foundation-model/cohere.embed-english-v3"
           }
       }
   }
   ```

1. Wenn Ihre GraphRAG-basierte Anwendung läuft, können Sie die API-Operationen in Knowledge Bases weiterhin verwenden, um Endbenutzern umfassendere, relevantere und erklärbarere Antworten zu bieten. In den folgenden Abschnitten wird gezeigt, wie Sie die Aufnahme mit CLI-Befehlen starten und Abrufabfragen ausführen.

------

## So synchronisieren Sie Ihre Datenquellen
<a name="knowledge-base-build-graphs-sync"></a>

Nachdem Sie Ihre Wissensdatenbank erstellt haben, nehmen Sie Ihre Daten auf oder synchronisieren, damit die Daten abgefragt werden können. Bei der Aufnahme werden die Diagrammstruktur extrahiert und die Rohdaten in Ihrer Datenquelle auf Grundlage des von Ihnen angegebenen Vektoreinbettungsmodells und der von Ihnen angegebenen Konfigurationen in Vektoreinbettungen umgewandelt.

Der folgende Befehl zeigt ein Beispiel für das Starten einer Aufnahmeaufgabe mithilfe der CLI.

```
aws bedrock-agent start-ingestion-job \
--data-source-id <"ABCDEFGHIJ"> \
--knowledge-base-id <"EFGHIJKLMN">
```

Weitere Informationen sowie Anleitungen zum Synchronisieren Ihrer Datenquelle über die Konsole und die API finden Sie unter [Synchronisieren Sie Ihre Datenquelle mit Ihrer Amazon Bedrock-Wissensdatenbank](kb-data-source-sync-ingest.md).

## So nehmen Sie Änderungen in Ihrer Wissensdatenbank auf
<a name="knowledge-base-build-graphs-ingest"></a>

Wenn Sie Amazon S3 als Ihre Datenquelle verwenden, können Sie Ihre Datenquelle in einem Schritt modifizieren und synchronisieren. Mit der direkten Aufnahme können Sie Dateien in einer Wissensdatenbank direkt mit einer einzigen Aktion hinzufügen, aktualisieren oder löschen, und Ihre Wissensdatenbank kann auf Dokumente zugreifen, ohne dass eine Synchronisierung erforderlich ist. Die direkte Aufnahme verwendet Operationen der `KnowledgeBaseDocuments`-API, um die Dokumente, die Sie einreichen, direkt in dem für die Wissensdatenbank eingerichteten Vektorspeicher zu indexieren. Sie können die Dokumente in Ihrer Wissensbasis auch direkt mit diesen Vorgängen anzeigen, ohne zur verbundenen Datenquelle navigieren zu müssen. Weitere Informationen finden Sie unter [So nehmen Sie Änderungen direkt in eine Wissensdatenbank auf](kb-direct-ingestion.md).

## Testen Ihrer Wissensbasis
<a name="knowledge-base-build-graphs-test"></a>

Nachdem Sie nun Ihre Wissensdatenbank eingerichtet haben, können Sie sie testen, indem Sie Anfragen senden und Antworten generieren.

Im Folgenden Code wird ein Beispiel für einen CLI-Befehl gezeigt.

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <"ABCDEFGHIJ"> \
--retrieval-query="{\"text\": \"What are the top three video games available now?\"}"
```

Weitere Informationen finden Sie unter [So fragen Sie eine Wissensdatenbank ab, die mit einem Diagramm aus Amazon Neptune Analytics verbunden ist](kb-test-neptune.md).

# Testen Ihrer Wissensdatenbank mit Abfragen und Antworten
<a name="knowledge-base-test"></a>

Nachdem Sie Ihre Wissensdatenbank eingerichtet haben, können Sie ihr Verhalten auf folgende Weise testen:
+ Mithilfe der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Operation können Sie Abfragen senden und relevante Informationen aus Ihren Datenquellen abrufen.
+ Senden Sie mithilfe der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-Operation Abfragen und generieren Sie Antworten auf die Abfragen auf der Grundlage der abgerufenen Informationen aus Ihren Datenquellen.
+ Verwenden Sie ein Reranking-Modell zusätzlich zum standardmäßigen Reranking-Modell von Amazon-Bedrock-Wissensdatenbanken, um relevantere Quellen abzurufen, wenn Sie entweder [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) oder [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) nutzen.
+ Verwenden Sie optionale Metadatenfilter mit der `Retrieve`- oder der `RetrieveAndGenerate`-API, um anzugeben, welche Dokumente in Ihrer Datenquelle verwendet werden können.

Wenn Sie mit dem Verhalten Ihrer Wissensdatenbank zufrieden sind, können Sie Ihre Anwendung so einrichten, dass sie die Wissensdatenbank abfragt oder die Wissensdatenbank an einen Agenten anhängt, indem Sie mit [Bereitstellen Ihrer Wissensdatenbank für Ihre KI-Anwendung](knowledge-base-deploy.md) fortfahren.

Wählen Sie ein Thema aus, um mehr darüber zu erfahren.

**Topics**
+ [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md)
+ [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md)
+ [Generieren einer Abfrage für strukturierte Daten](knowledge-base-generate-query.md)
+ [So fragen Sie eine Wissensdatenbank ab, die mit einem GenAI-Index in Amazon Kendra verbunden ist](kb-test-kendra.md)
+ [So fragen Sie eine Wissensdatenbank ab, die mit einem Diagramm aus Amazon Neptune Analytics verbunden ist](kb-test-neptune.md)
+ [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md)
+ [So konfigurieren Sie die Antwortgenerierung für Argumentationsmodelle mit Knowledge Bases](kb-test-configure-reasoning.md)

# Abrufen einer Wissensdatenbank und Datenabruf
<a name="kb-test-retrieve"></a>

**Wichtig**  
Ein Integritätsschutz wird nur auf die Eingabe und die generierte Antwort des LLM angewendet. Er wird nicht auf die Referenzen angewendet, die zur Laufzeit aus Knowledge Bases abgerufen wurden.

Nachdem Ihre Wissensdatenbank eingerichtet ist, können Sie sie abfragen und Blöcke aus Ihren Quelldaten abrufen, die für die Abfrage relevant sind, indem Sie die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-API-Operation verwenden. Sie können anstelle des standardmäßigen Rankers für Wissensdatenbanken für Amazon Bedrock auch ein [Reranker-Modell verwenden](rerank.md), um Quellenblöcke beim Abrufen nach Relevanz zu ordnen.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie Ihre Wissensdatenbank abfragen:

------
#### [ Console ]

**Testen Ihrer Wissensdatenbank**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Führen Sie im Abschnitt **Wissensdatenbanken** eine der folgenden Aktionen aus:
   + Aktivieren Sie das Optionsfeld neben der Wissensdatenbank, die Sie testen möchten, und wählen Sie **Wissensdatenbank testen**. Ein Testfenster wird von rechts erweitert.
   + Wählen Sie die Wissensdatenbank aus, die Sie testen möchten. Ein Testfenster wird von rechts erweitert.

1. Deaktivieren Sie die Option **Antworten für Ihre Anfrage generieren** im Testfenster, um direkt aus Ihrer Wissensdatenbank abgerufene Informationen zurückzugeben.

1. (Optional) Klicken Sie auf das Konfigurationssymbol (![\[Three horizontal sliders with adjustable circular controls for settings or parameters.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/configurations.png)), um **Konfigurationen** zu öffnen. Weitere Informationen zu Konfigurationen finden Sie unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

1. Geben Sie eine Abfrage in das Textfeld im Chatfenster ein und wählen Sie **Ausführen** aus, um Antworten aus der Wissensdatenbank zurückzugeben.

1. Die Quell-blöcke werden direkt in der Reihenfolge ihrer Relevanz zurückgegeben. Aus Ihrer Datenquelle extrahierte Bilder können auch als Quellblock zurückgegeben werden.

1. Klicken Sie auf **Quelldetails anzeigen**, um Details zu den zurückgegebenen Blöcken anzuzeigen.
   + Erweitern Sie den Bereich **Abfragekonfigurationen**, um die Konfigurationen anzuzeigen, die Sie für die Abfrage festgelegt haben.
   + Um Details zu einem Quellblock anzuzeigen, erweitern Sie ihn, indem Sie auf den Rechtspfeil (![\[Play button icon with a triangular shape pointing to the right.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/caret-right-filled.png)) neben dem Block klicken. Die folgenden Informationen können angezeigt werden:
     + Der Rohtext aus dem Quellblock. Um diesen Text zu kopieren, klicken Sie auf das Kopiersymbol (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/copy.png)). Wenn Sie Amazon S3 zum Speichern Ihrer Daten verwendet haben, klicken Sie auf das externe Linksymbol (![\[Icon of a square with an arrow pointing outward from its top-right corner.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/external.png)), um zu dem S3-Objekt zu navigieren, das die Datei enthält.
     + Die mit dem Quellblock verknüpften Metadaten, wenn Sie Amazon S3 zum Speichern Ihrer Daten verwendet haben. Die attribute/field Schlüssel und Werte sind in der `.metadata.json` Datei definiert, die dem Quelldokument zugeordnet ist. Weitere Informationen finden Sie im Abschnitt **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

**Chat-Optionen**
+ Wechseln Sie zur Generierung von Antworten auf Grundlage der abgerufenen Quellblöcke, indem Sie die Option **Antworten generieren** aktivieren. Wenn Sie die Einstellung ändern, wird der Text im Chatfenster vollständig gelöscht.
+ Um das Chat-Fenster zu löschen, wählen Sie das Besensymbol (![\[Magnifying glass icon with a checkmark inside, symbolizing search or inspection.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/broom.png)).
+ Um die gesamte Ausgabe im Chat-Fenster zu kopieren, wählen Sie das Kopiersymbol (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/copy.png)).

------
#### [ API ]

Senden Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Anfrage an einen [Runtime-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), um eine Wissensdatenbank abzufragen und nur relevanten Text aus Datenquellen zurückzugeben.

Die folgenden Felder sind erforderlich:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| knowledgeBaseId | So geben Sie die abzufragende Wissensdatenbank an. | 
| retrievalQuery | Enthält ein text-Feld zur Angabe der Abfrage. | 
| guardrailsConfiguration | So fügen Sie guardrailsConfiguration-Felder wie guardrailsId und guardrailsVersion ein, um Ihren Integritätsschutz in der Anfrage zu verwenden | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| nextToken | Um den nächsten Stapel von Antworten zurückzugeben (siehe Antwortfelder unten). | 
| retrievalConfiguration | Um [Abfragekonfigurationen](kb-test-config.md) für die Anpassung der Vektorsuche einzubeziehen. Weitere Informationen finden Sie unter [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html). | 

Sie können ein Ranking-Modell gegenüber dem standardmäßigen Rankingmodell von Amazon Bedrock Knowledge Bases verwenden, indem Sie das `rerankingConfiguration` Feld in die aufnehmen. [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html) Das `rerankingConfiguration` Feld ist einem [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html)Objekt zugeordnet, in dem Sie das zu verwendende Ranking-Modell, alle zusätzlichen einzuschließenden Anforderungsfelder, Metadatenattribute zum Herausfiltern von Dokumenten bei der Neueinstufung und die Anzahl der Ergebnisse angeben können, die nach der Neurangierung zurückgegeben werden sollen. Weitere Informationen finden Sie unter [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html).

**Anmerkung**  
Wenn der von Ihnen angegebene `numberOfRerankedResults` Wert größer als der `numberOfResults` Wert in ist, ist die maximale Anzahl von Ergebnissen [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html), die zurückgegeben werden, der Wert für. `numberOfResults` Eine Ausnahme ist, wenn Sie die Zerlegung von Abfragen verwenden (weitere Informationen finden Sie im Abschnitt **Abfrageänderungen** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md). Wenn Sie die Zerlegung von Abfragen verwenden, können die `numberOfRerankedResults` bis zu fünfmal so hoch wie die `numberOfResults` sein.

Die Antwort gibt die Quellblöcke aus der Datenquelle als Array von [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html)Objekten im `retrievalResults` Feld zurück. Jedes [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html)enthält die folgenden Felder:


****  

| Feld | Description | 
| --- | --- | 
| Inhalt | Enthält einen Textquellenblock im text oder einen Bildquellenblock im byteContent-Feld. Wenn es sich bei dem Inhalt um ein Bild handelt, wird die Daten-URI des base64-codierten Inhalts im folgenden Format zurückgegeben: data:image/jpeg;base64,\$1\$1base64-encoded string\$1. | 
| Metadaten | Enthält jedes Metadatenattribut als Schlüssel und den Metadatenwert als einen JSON-Wert, dem der Schlüssel zugeordnet ist. | 
| location | Enthält den URI oder die URL des Dokuments, zu dem der Quellblock gehört. | 
| score | Der Relevanzwert des Dokuments. Sie können diesen Wert verwenden, um die Rangfolge der Ergebnisse zu analysieren. | 

Wenn die Anzahl der Quellblöcke den Wert übersteigt, der in die Antwort passen kann, wird ein Wert im Feld `nextToken` zurückgegeben. Verwenden Sie diesen Wert in einer anderen Anfrage, um den nächsten Ergebnisstapel zurückzugeben.

Wenn die abgerufenen Daten Bilder enthalten, gibt die Antwort außerdem die folgenden Antwort-Header zurück, die Metadaten für Quellblöcke enthalten, die in der Antwort zurückgegeben wurden:
+ `x-amz-bedrock-kb-byte-content-source` – Enthält die Amazon-S3-URI des Bildes.
+ `x-amz-bedrock-kb-description` – Enthält die base64-codierte Zeichenfolge für das Bild.

**Anmerkung**  
Sie können beim [Konfigurieren von Metadatenfiltern](kb-test-config.md) nicht nach diesen Metadaten-Antwort-Headern filtern.

**Multimodale Abfragen**  
Für Wissensdatenbanken, die multimodale Einbettungsmodelle verwenden, können Sie Abfragen entweder mit Text oder Bildern durchführen. Das `retrievalQuery` Feld unterstützt ein `multimodalInputList` Feld für Bildabfragen:

**Anmerkung**  
Umfassende Hinweise zur Einrichtung und Nutzung multimodaler Wissensdatenbanken, einschließlich der Wahl zwischen Nova- und BDA-Ansätzen, finden Sie unter[Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md).

Sie können Abfragen mit Bildern durchführen, indem Sie das folgende `multimodalInputList` Feld verwenden:

```
{
    "knowledgeBaseId": "EXAMPLE123", 
    "retrievalQuery": {
        "multimodalInputList": [
            {
                "content": {
                    "byteContent": "base64-encoded-image-data"
                },
                "modality": "IMAGE"
            }
        ]
    }
}
```

Oder Sie können nur mit Text abfragen, indem Sie das `text` Feld verwenden:

```
{
    "knowledgeBaseId": "EXAMPLE123",
    "retrievalQuery": {
        "text": "Find similar shoes"
    }
}
```

**Allgemeine multimodale Abfragemuster**  
Im Folgenden sind einige gängige Abfragemuster aufgeführt:

Image-to-image suchen  
Laden Sie ein Bild hoch, um visuell ähnliche Bilder zu finden. Beispiel: Laden Sie ein Foto eines roten Nike-Schuhs hoch, um ähnliche Schuhe in Ihrem Produktkatalog zu finden.

Textbasierte Suche  
Verwenden Sie Textabfragen, um relevante Inhalte zu finden. Beispiel: „Finden Sie ähnliche Schuhe“, um Ihren Produktkatalog anhand von Textbeschreibungen zu durchsuchen.

Visuelle Dokumentensuche  
Suchen Sie nach Diagrammen, Diagrammen oder visuellen Elementen in Dokumenten. Beispiel: Laden Sie ein Diagrammbild hoch, um ähnliche Diagramme in Ihrer Dokumentensammlung zu finden.

**Wählen Sie zwischen Nova und BDA für multimodale Inhalte**  
Wenn Sie mit multimodalen Inhalten arbeiten, wählen Sie Ihren Ansatz auf der Grundlage Ihres Inhaltstyps und Ihrer Abfragemuster:


**Entscheidungsmatrix zwischen Nova und BDA**  

| Inhaltstyp | Verwenden Sie multimodale Nova-Einbettungen | Verwenden Sie den Bedrock Data Automation (BDA) -Parser | 
| --- | --- | --- | 
| Videoinhalte | Schwerpunkt visuelles Geschichtenerzählen (Sport, Werbung, Vorführungen), Fragen zu visuellen Elementen, minimaler Sprachinhalt | Wichtige Fragen speech/narration (Präsentationen, Besprechungen, Tutorials), Fragen zu gesprochenen Inhalten, benötigen Transkripte | 
| Audioinhalte | Identifizierung von Musik oder Soundeffekten, Audioanalyse ohne Spracheingabe | Podcasts, Interviews, Besprechungen und alle Inhalte, bei denen Sprache transkribiert werden muss | 
| Inhalt des Bildes | Suche nach visueller Ähnlichkeit, image-to-image Abruf, visuelle Inhaltsanalyse | Textextraktion aus Bildern, Dokumentenverarbeitung, OCR-Anforderungen | 

**Anmerkung**  
Multimodale Nova-Einbettungen können Sprachinhalte nicht direkt verarbeiten. Wenn Ihre Audio- oder Videodateien wichtige gesprochene Informationen enthalten, verwenden Sie den BDA-Parser, um Sprache zuerst in Text umzuwandeln, oder wählen Sie stattdessen ein Modell zur Texteinbettung.

**Einschränkungen bei multimodalen Abfragen**  
Im Folgenden sind einige Einschränkungen bei multimodalen Abfragen aufgeführt:
+ Maximal ein Bild pro Abfrage in der aktuellen Version
+ Bildabfragen werden nur mit multimodalen Einbettungsmodellen (Titan G1 oder Cohere Embed v3) unterstützt
+ RetrieveAndGenerate Die API wird für Wissensdatenbanken mit multimodalen Einbettungsmodellen und S3-Content-Buckets nicht unterstützt
+ Wenn Sie mithilfe von reinen Text-Einbettungsmodellen eine Bildanfrage an eine Wissensdatenbank stellen, wird ein 4xx-Fehler zurückgegeben

**Multimodale API-Antwortstruktur**  
Abrufantworten für multimodale Inhalte enthalten zusätzliche Metadaten:
+ **Quell-URI: Verweist** auf Ihren ursprünglichen S3-Bucket-Speicherort
+ **Zusätzliche URI: Verweist** auf die Kopie in Ihrem multimodalen Speicher-Bucket
+ **Timestamp-Metadaten:** Für Video- und Audio-Chunks enthalten, um eine präzise Positionierung der Wiedergabe zu ermöglichen

**Anmerkung**  
Wenn Sie die API oder das SDK verwenden, müssen Sie den Dateiabruf und die Zeitstempel-Navigation in Ihrer Anwendung übernehmen. Die Konsole erledigt dies automatisch mit verbesserter Videowiedergabe und automatischer Zeitstempelnavigation.

------

**Anmerkung**  
Wenn Sie beim Generieren von Antworten die Fehlermeldung erhalten, dass der Prompt die Zeichenbeschränkung überschreitet, können Sie den Prompt wie folgt kürzen:  
Reduzieren Sie die maximale Anzahl der abgerufenen Ergebnisse (dadurch wird das, was für den Platzhalter \$1search\$1results\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).
Erstellen Sie die Datenquelle mit einer Chunking-Strategie neu, bei der kleinere Blöcke verwendet werden (dadurch wird das, was für den Platzhalter \$1search\$1results\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).
Kürzen Sie die Vorlage für den Prompt.
Kürzen Sie die Benutzerabfrage (dadurch wird das, was für den Platzhalter \$1query\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).

# So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten
<a name="kb-test-retrieve-generate"></a>

**Wichtig**  
Ein Integritätsschutz wird nur auf die Eingabe und die generierte Antwort des LLM angewendet. Er wird nicht auf die Referenzen angewendet, die zur Laufzeit aus Knowledge Bases abgerufen wurden.

Nachdem Ihre Wissensdatenbank eingerichtet ist, können Sie sie abfragen und Antworten basierend auf den aus Ihren Quelldaten abgerufenen Blöcken generieren, indem Sie die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-API-Operation verwenden. Die Antworten werden mit Zitate der ursprünglichen Quelldaten zurückgegeben. Sie können anstelle des standardmäßigen Rankers für Wissensdatenbanken für Amazon Bedrock auch ein [Reranker-Modell verwenden](rerank.md), um Quellenblöcke beim Abrufen nach Relevanz zu ordnen.

**Einschränkungen multimodaler Inhalte**  
`RetrieveAndGenerate`bietet begrenzte Unterstützung für multimodale Inhalte. Bei der Verwendung von Nova Multimodal Embeddings ist die RAG-Funktionalität nur auf Textinhalte beschränkt. Verwenden Sie BDA mit Modellen zur Texteinbettung, um eine vollständige multimodale Unterstützung einschließlich Audio- und Videoverarbeitung zu erhalten. Details hierzu finden Sie unter [Aufbau einer Wissensdatenbank für multimodale Inhalte](kb-multimodal.md).

**Anmerkung**  
Bilder, die von der `Retrieve`-Antwort während des `RetrieveAndGenerate`-Flows zurückgegeben werden, sind im Prompt für die Antwortgenerierung enthalten. Die `RetrieveAndGenerate`-Antwort kann keine Bilder enthalten, aber sie kann die Quellen angeben, die die Bilder enthalten.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie Ihre Wissensdatenbank abfragen:

------
#### [ Console ]

**Testen Ihrer Wissensdatenbank**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Führen Sie im Abschnitt **Wissensdatenbanken** eine der folgenden Aktionen aus:
   + Aktivieren Sie das Optionsfeld neben der Wissensdatenbank, die Sie testen möchten, und wählen Sie **Wissensdatenbank testen**. Ein Testfenster wird von rechts erweitert.
   + Wählen Sie die Wissensdatenbank aus, die Sie testen möchten. Ein Testfenster wird von rechts erweitert.

1. Deaktivieren Sie die Option **Antworten für Ihre Anfrage generieren**, um direkt aus Ihrer Wissensdatenbank abgerufene Informationen zurückzugeben. Amazon Bedrock generiert Antworten auf Grundlage Ihrer Datenquellen und zitiert die bereitgestellten Informationen mit Fußnoten.

1. Klicken Sie auf **Modell auswählen**, um ein Modell auszuwählen, das für die Generierung von Antworten verwendet werden soll. Klicken Sie dann auf **Anwenden**. 

1. (Optional) Klicken Sie auf das Konfigurationssymbol (![\[Three horizontal sliders with adjustable circular controls for settings or parameters.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/configurations.png)), um **Konfigurationen** zu öffnen. Weitere Informationen zu Konfigurationen finden Sie unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

1. Geben Sie eine Abfrage in das Textfeld im Chatfenster ein und wählen Sie **Ausführen** aus, um Antworten aus der Wissensdatenbank zurückzugeben.

1. Wählen Sie eine Fußnote aus, um einen Auszug aus der zitierten Quelle für diesen Teil der Antwort anzuzeigen. Klicken Sie auf den Link, um zu dem S3-Objekt zu navigieren, das die Datei enthält.

1. Klicken Sie auf **Quelldetails anzeigen**, um Details zu den zurückgegebenen Blöcken anzuzeigen.
   + Erweitern Sie den Bereich **Abfragekonfigurationen**, um die Konfigurationen anzuzeigen, die Sie für die Abfrage festgelegt haben.
   + Um Details zu einem Quellblock anzuzeigen, erweitern Sie ihn, indem Sie auf den Rechtspfeil (![\[Play button icon with a triangular shape pointing to the right.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/caret-right-filled.png)) neben dem Block klicken. Die folgenden Informationen können angezeigt werden:
     + Der Rohtext aus dem Quellblock. Um diesen Text zu kopieren, klicken Sie auf das Kopiersymbol (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/copy.png)). Wenn Sie Amazon S3 zum Speichern Ihrer Daten verwendet haben, klicken Sie auf das externe Linksymbol (![\[Icon of a square with an arrow pointing outward from its top-right corner.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/external.png)), um zu dem S3-Objekt zu navigieren, das die Datei enthält.
     + Die mit dem Quellblock verknüpften Metadaten, wenn Sie Amazon S3 zum Speichern Ihrer Daten verwendet haben. Die attribute/field Schlüssel und Werte sind in der `.metadata.json` Datei definiert, die dem Quelldokument zugeordnet ist. Weitere Informationen finden Sie im Abschnitt **Metadaten und Filterung** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md).

**Chat-Optionen**
+ Klicken Sie auf **Modell ändern**, um ein anderes Modell für die Antwortgenerierung auszuwählen. Wenn Sie das Modell ändern, wird der Text im Chatfenster vollständig gelöscht.
+ Wechseln Sie zum direkten Abrufen von Quellblöcken, indem Sie die Option **Antworten generieren** deaktivieren. Wenn Sie die Einstellung ändern, wird der Text im Chatfenster vollständig gelöscht.
+ Um das Chat-Fenster zu löschen, wählen Sie das Besensymbol (![\[Magnifying glass icon with a checkmark inside, symbolizing search or inspection.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/broom.png)).
+ Um die gesamte Ausgabe im Chat-Fenster zu kopieren, wählen Sie das Kopiersymbol (![\[Icon representing a crop or resize function, with two overlapping rectangles.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/copy.png)).

------
#### [ API ]

Senden Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-Anfrage mit einem [Runtime-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), um eine Wissensdatenbank abzufragen und mithilfe eines Basismodells Antworten auf Grundlage der Ergebnisse aus den Datenquellen zu generieren.

Die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html)-API gibt Daten in einem Streaming-Format zurück und ermöglicht Ihnen, auf die generierten Antworten in Blöcken zuzugreifen, ohne auf das gesamte Ergebnis warten zu müssen.

Die folgenden Felder sind erforderlich:

**Anmerkung**  
Die API-Antwort enthält Zitationsereignisse. Das `citation`-Mitglied wurde als veraltet gekennzeichnet. Stattdessen empfehlen wir, die Felder `generatedResponse` und `retrievedReferences` zu verwenden. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_CitationEvent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_CitationEvent.html).


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| input | Enthält ein text-Feld zur Angabe der Abfrage. | 
| retrieveAndGenerateKonfiguration | Enthält eine [RetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateConfiguration.html), die Konfigurationen für den Abruf und die Generierung spezifiziert. Weitere Details finden Sie unten. | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| sessionId | Verwenden Sie denselben Wert wie in einer vorherigen Sitzung, um diese Sitzung fortzusetzen und den daraus resultierenden Kontext für das Modell beizubehalten. | 
| sessionConfiguration | Um einen benutzerdefinierten KMS-Schlüssel für die Verschlüsselung der Sitzung hinzuzufügen. | 

Schließt das `knowledgeBaseConfiguration` Feld in das [RetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateConfiguration.html)ein. Dieses Feld ist einem [KnowledgeBaseRetrieveAndGenerateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrieveAndGenerateConfiguration.html)Objekt zugeordnet, das die folgenden Felder enthält:
+ Die folgenden Felder sind erforderlich:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-test-retrieve-generate.html)
+ Die folgenden Felder sind optional:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-test-retrieve-generate.html)

Sie können ein Ranking-Modell gegenüber dem standardmäßigen Rankingmodell von Amazon Bedrock Knowledge Bases verwenden, indem Sie das `rerankingConfiguration` Feld innerhalb von einbeziehen. [KnowledgeBaseVectorSearchConfiguration[KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html) Das `rerankingConfiguration` Feld ist einem [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html)Objekt zugeordnet, in dem Sie das zu verwendende Ranking-Modell, alle zusätzlichen einzuschließenden Anforderungsfelder, Metadatenattribute zum Herausfiltern von Dokumenten bei der Neueinstufung und die Anzahl der Ergebnisse angeben können, die nach der Neurangierung zurückgegeben werden sollen. Weitere Informationen finden Sie unter [VectorSearchRerankingConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_VectorSearchRerankingConfiguration.html).

**Anmerkung**  
Wenn der von Ihnen angegebene `numberOfRerankedResults` Wert größer als der `numberOfResults` Wert in ist, ist die maximale Anzahl von Ergebnissen [KnowledgeBaseVectorSearchConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseVectorSearchConfiguration.html), die zurückgegeben werden, der Wert für. `numberOfResults` Eine Ausnahme ist, wenn Sie die Zerlegung von Abfragen verwenden (weitere Informationen finden Sie im Abschnitt **Abfrageänderungen** unter [So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an](kb-test-config.md). Wenn Sie die Zerlegung von Abfragen verwenden, können die `numberOfRerankedResults` bis zu fünfmal so hoch wie die `numberOfResults` sein.

Die Antwort gibt die generierte Antwort im `output`-Feld und die angegebenen Quellblöcke als Array im Feld `citations` zurück. Jedes [Zitations](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Citation.html)-Objekt enthält die folgenden Felder:


****  

| Feld | Grundlegende Beschreibung | 
| --- | --- | 
| generatedResponsePart | Im textResponsePart-Feld ist der text enthalten, auf den sich die Zitation bezieht. Das span-Feld stellt die Indizes für den Anfang und das Ende des Teils der Ausgabe bereit, der eine Zitation enthält. | 
| retrievedReferences | Ein Array von [RetrievedReference](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievedReference.html)Objekten, von denen jedes einen Quellblock enthält, content der dem Dokument metadata zugeordnet ist, und den URI oder die URL location des Dokuments in der Datenquelle.  Wenn es sich bei dem Inhalt um ein Bild handelt, wird die Daten-URI des base64-codierten Inhalts im folgenden Format zurückgegeben: data:image/jpeg;base64,\$1\$1base64-encoded string\$1. | 

Die Antwort gibt außerdem einen `sessionId`-Wert zurück, den Sie in einer anderen Anfrage wiederverwenden können, um dieselbe Konversation aufrechtzuerhalten.

Wenn Sie eine `guardrailConfiguration` in die Anfrage aufgenommen haben, informiert Sie das `guardrailAction`-Feld darüber, ob der Inhalt blockiert wurde oder nicht.

Wenn die abgerufenen Daten Bilder enthalten, gibt die Antwort außerdem die folgenden Antwort-Header zurück, die Metadaten für Quellblöcke enthalten, die in der Antwort zurückgegeben wurden:
+ `x-amz-bedrock-kb-byte-content-source` – Enthält die Amazon-S3-URI des Bildes.
+ `x-amz-bedrock-kb-description` – Enthält die base64-codierte Zeichenfolge für das Bild.

**Anmerkung**  
Sie können beim [Konfigurieren von Metadatenfiltern](kb-test-config.md) nicht nach diesen Metadaten-Antwort-Headern filtern.

------

**Anmerkung**  
Wenn Sie beim Generieren von Antworten die Fehlermeldung erhalten, dass der Prompt die Zeichenbeschränkung überschreitet, können Sie den Prompt wie folgt kürzen:  
Reduzieren Sie die maximale Anzahl der abgerufenen Ergebnisse (dadurch wird das, was für den Platzhalter \$1search\$1results\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).
Erstellen Sie die Datenquelle mit einer Chunking-Strategie neu, bei der kleinere Blöcke verwendet werden (dadurch wird das, was für den Platzhalter \$1search\$1results\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).
Kürzen Sie die Vorlage für den Prompt.
Kürzen Sie die Benutzerabfrage (dadurch wird das, was für den Platzhalter \$1query\$1 in der [Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung](kb-test-config.md#kb-test-config-prompt-template) ausgefüllt wird, gekürzt).

# Generieren einer Abfrage für strukturierte Daten
<a name="knowledge-base-generate-query"></a>

Wenn Sie einen strukturierten Datenspeicher mit Ihrer Wissensdatenbank verbinden, kann Ihre Wissensdatenbank ihn abfragen, indem sie die vom Benutzer bereitgestellte Abfrage in natürlicher Sprache in eine SQL-Abfrage konvertiert, die auf der Struktur der abgefragten Datenquelle basiert. Wenn Sie Folgendes verwenden:
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html): Die Antwort gibt das Ergebnis der Ausführung der SQL-Abfrage zurück.
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html): Die generierte Antwort basiert auf dem Ergebnis der Ausführung der SQL-Abfrage.
+ [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html): Amazon Bedrock Knowledge Bases entkoppelt die Konvertierung der Abfrage vom Abrufprozess. Sie können diese API-Operation verwenden, um eine Abfrage in SQL umzuwandeln.

## Verwenden der `GenerateQuery`-API
<a name="knowledge-base-generate-query-api"></a>

Sie können die Antwort aus der API-Operation `GenerateQuery` mit einer nachfolgenden `Retrieve`- oder `RetrieveAndGenerate`-Aktion verwenden oder sie in andere Workflows einfügen. `GenerateQuery` ermöglicht es Ihnen, Abfragen effizient in SQL-Abfragen umzuwandeln, indem die Struktur der Datenquelle Ihrer Wissensdatenbank berücksichtigt wird.

Um eine Abfrage in natürlicher Sprache in eine SQL-Abfrage umzuwandeln, reichen Sie eine [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html)Anfrage mit einem [Runtime-Endpunkt von Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt) ein. Die `GenerateQuery`-Anfrage enthält die folgenden Felder:
+ queryGenerationInput — Geben Sie `TEXT` als an `type` und fügen Sie die Abfrage in das `text` Feld ein.
**Anmerkung**  
Abfragen müssen in englischer Sprache verfasst werden.
+ transformationConfiguration – Geben Sie `TEXT_TO_SQL` als `mode` an. Geben Sie die Rolle im Feld `textToSqlConfiguration` `KNOWLEDGE_BASE` als `type` an. Geben Sie dann den ARN der Wissensdatenbank an.

Die Antwort gibt ein Array zurück, [GeneratedQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GeneratedQuery.html)das ein Objekt im `queries` Feld enthält. Das Objekt enthält eine SQL-Abfrage für die Abfrage im Feld `sql`.

## Wesentliche Überlegungen
<a name="knowledge-base-generate-query-considerations"></a>

Im Folgenden sind einige wichtige Überlegungen beim Generieren einer Abfrage mithilfe strukturierter Daten aufgeführt.
+ 

**Regionsübergreifende Inferenz und Abruf strukturierter Daten**  
Beim strukturierten Datenabruf werden regionsübergreifende Inferenzen verwendet, um das Optimum AWS-Region innerhalb Ihrer Region für die Verarbeitung Ihrer Inferenzanfrage auszuwählen. Dies verursacht keine zusätzlichen Kosten und verbessert das Kundenerlebnis, indem die verfügbaren Ressourcen und die Modellverfügbarkeit maximiert werden.

  Querschlussanfragen werden innerhalb der Regionen gespeichert, die Teil der Region sindAWS-Regionen, in der sich die Daten ursprünglich befinden. Ihre Daten bleiben in der Quellregion gespeichert, aber die Eingabe-Prompts und Ausgabeergebnisse werden möglicherweise außerhalb dieser Region abgelegt. Alle Daten werden bei der Übertragung über das sichere Netzwerk von Amazon verschlüsselt.

  Weitere Informationen finden Sie unter [Erhöhen des Durchsatzes mit regionenübergreifender Inferenz](cross-region-inference.md).
+ 

**Genauigkeit der generierten SQL-Abfragen**  
Die Genauigkeit einer generierten SQL-Abfrage kann je nach Kontext, Tabellenschemas und Absicht einer Benutzerabfrage variieren. Bewerten Sie die generierten Abfragen, um sicherzustellen, dass sie Ihrem Anwendungsfall entsprechen, bevor Sie sie in Ihrem Workload verwenden.
+ 

**Anzahl der abgerufenen Ergebnisse**  
Die folgenden Einschränkungen gelten bei der Generierung der Antwort.
  + Bei Nutzung der API-Operationen `InvokeAgent`, `RetrieveAndGenerate` und `RetrieveAndGenerateStream` werden zur Generierung der Antwort nur 10 abgerufene Ergebnisse verwendet.
  + Wenn bei Verwendung der `InvokeAgent`-API mehr als 10 Zeilen mit abgerufenen Ergebnissen vorhanden sind, wird die Gesamtzahl der abgerufenen Zeilen nicht zur Generierung der Antwort an den Agenten weitergegeben. Wenn Sie stattdessen die `RetrieveAndGenerate`-API verwenden, ist die Gesamtzahl der Zeilen zur Generierung der endgültigen Antwort im Prompt enthalten.
+ 

**`GenerateQuery`-API-Kontingent**  
Die `GenerateQuery` API hat ein Kontingent von 2 Anfragen pro Sekunde.

## Gewähren einer Rollenberechtigung für den Zugriff auf generierte Abfragen
<a name="knowledge-base-structured-permissions"></a>

Wenn Sie für Ihre Wissensdatenbank, die mit einer strukturierten Datenquelle verbunden ist, einige zusätzliche Operationen mit den generierten Abfragen ausführen möchten, müssen Sie Berechtigungen zum Ausführen der `GenerateQuery`-API-Aktion erteilen. Damit Ihre IAM-Rolle eine Wissensdatenbank abfragen kann, die mit einem strukturierten Datenspeicher verbunden ist, fügen Sie der Rolle die folgende Richtlinie an:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "GetKB",
            "Effect": "Allow",
            "Action": [
                "bedrock:GetKnowledgeBase"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/KnowledgeBaseId"
            ]
        },
        {
            "Sid": "GenerateQueryAccess",
            "Effect": "Allow",
            "Action": [
                "bedrock:GenerateQuery",
                "sqlworkbench:GetSqlRecommendations"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Retrieve",
            "Effect": "Allow",
            "Action": [
                "bedrock:Retrieve"
            ],
            "Resource": [
                "arn:aws:bedrock:us-east-1:123456789012:knowledge-base/KnowledgeBaseId"
            ]
        },
        {
            "Sid": "RetrieveAndGenerate",
            "Effect": "Allow",
            "Action": [
                "bedrock:RetrieveAndGenerate"
            ],
            "Resource": [
                "*"
            ]
        }
    ]
}
```

------

Sie können Anweisungen entfernen, die Sie je nach Anwendungsfall nicht benötigen:
+ Die `GenerateQuery` Anweisungen `GetKB` und müssen aufgerufen werden, [GenerateQuery](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerateQuery.html)um SQL-Abfragen zu generieren, die Benutzeranfragen und Ihre verbundene Datenquelle berücksichtigen.
+ Die Anweisung `Retrieve` muss [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) aufrufen, um Daten aus Ihrem strukturierten Datenspeicher abzurufen.
+ Die Anweisung `RetrieveAndGenerate` muss [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) aufrufen, um Daten aus Ihrem strukturierten Datenspeicher abzurufen und Antworten basierend auf den Daten zu generieren.

# So fragen Sie eine Wissensdatenbank ab, die mit einem GenAI-Index in Amazon Kendra verbunden ist
<a name="kb-test-kendra"></a>

Sie können eine Wissensdatenbank abfragen, die einen GenAI-Index in Amazon Kendra verwendet, und nur relevanten Text aus Datenquellen zurückgeben. Senden Sie für diese Abfrage eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Anfrage mit einem [Runtime-Endpunkt von Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), z. B. mit einer Standard-Wissensdatenbank.

Die Struktur einer Antwort, die von einer Wissensdatenbank mit einem GenAI-Index in Amazon Kendra zurückgegeben wird, entspricht der eines standardmäßigen [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html). Die Antwort umfasst jedoch auch einige zusätzliche Felder aus Amazon Kendra.

In der folgenden Tabelle werden die Felder aus Amazon Kendra beschrieben, die Sie möglicherweise in einer zurückgegebenen Antwort sehen. Amazon Bedrock bezieht diese Felder aus der Antwort von Amazon Kendra. Wenn diese Antwort diese Felder nicht enthält, enthält das zurückgegebene Abfrageergebnis von Amazon Bedrock diese Felder auch nicht.


| Feld | Beschreibung | 
| --- | --- | 
|  x-amz-kendra-document-title  |  Der Titel des zurückgegebenen Dokuments.  | 
|  x-amz-kendra-score-confidence  |  Eine relative Bewertung, die angibt, wie relevant die Antwort für die Anfrage ist. Mögliche Werte sind VERY\$1HIGH, HIGH, MEDIUM, LOW und NOT\$1AVAILABLE.  | 
|  x-amz-kendra-passage-id  |  Die ID der zurückgegebenen Passage.  | 
|  x-amz-kendra-dokument-id  |  Die ID des zurückgegebenen Dokuments.  | 
|  DocumentAttributes  |  Dokumentattribute oder Metadatenfelder aus Amazon Kendra. Das zurückgegebene Abfrageergebnis aus der Wissensdatenbank speichert diese als Metadaten-Schlüssel-Wert-Paare. Sie können die Ergebnisse mit der Metadatenfilterung von Amazon Bedrock filtern. Weitere Informationen finden Sie unter [DocumentAttribute](https://docs.aws.amazon.com/kendra/latest/APIReference/API_DocumentAttribute.html).  | 

# So fragen Sie eine Wissensdatenbank ab, die mit einem Diagramm aus Amazon Neptune Analytics verbunden ist
<a name="kb-test-neptune"></a>

Sie können eine Wissensdatenbank abfragen, die ein Diagramm aus Amazon Neptune Analytics verwendet, und nur relevanten Text aus Datenquellen zurückgeben. Senden Sie für diese Abfrage eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Anfrage mit einem [Runtime-Endpunkt von Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt), z. B. mit einer Standard-Wissensdatenbank. Informationen zum Abfragen einer Wissensdatenbank und zum Abrufen von Daten und der Generieren von Antworten finden Sie unter:
+  [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) 
+  [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md) 

Die Struktur einer Antwort, die von einer Wissensdatenbank mit einem Diagramm aus Amazon Neptune Analytics zurückgegeben wird, entspricht der eines standardmäßigen [KnowledgeBaseRetrievalResult](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalResult.html). Die Antwort umfasst jedoch auch einige zusätzliche Felder aus Amazon Neptune.

In der folgenden Tabelle werden die Felder aus Neptune Analytics beschrieben, die Sie möglicherweise in einer zurückgegebenen Antwort sehen. Amazon Bedrock bezieht diese Felder aus der Neptune-Analytics-Antwort. Wenn diese Antwort diese Felder nicht enthält, enthält das zurückgegebene Abfrageergebnis von Amazon Bedrock diese Felder auch nicht.


| Feld | Beschreibung | 
| --- | --- | 
|  x-amz-bedrock-kb-source-uri  |  Die Amazon-S3-URL des zurückgegebenen Dokuments.  | 
|  Bewertung  |  Ein Distanzmaß, das angibt, wie genau eine Antwort mit der bereitgestellten Abfrage übereinstimmt, wobei niedrigere Werte bessere Übereinstimmungen bedeuten.  | 
|  x-amz-bedrock-kb-data-source-id  |  Die Kennung der Datenquelle, die für die Wissensdatenbank verwendet wird.  | 
|  x-amz-bedrock-kb-chunk-id  |  Die ID des Blocks, der verwendet wurde, um die Informationen für die Abfrage abzurufen und die Antwort zu generieren.  | 
|  DocumentAttributes  |  Dokumentattribute oder Metadatenfelder aus Amazon Kendra. Das zurückgegebene Abfrageergebnis aus der Wissensdatenbank speichert diese als Metadaten-Schlüssel-Wert-Paare. Sie können die Ergebnisse mit der Metadatenfilterung von Amazon Bedrock filtern.  | 

## Verwenden von Metadaten und Filterung
<a name="kb-test-neptune-metadata"></a>

Wenn Sie die Wissensdatenbank abfragen und Antworten generieren, können Sie nach Metadaten filtern, um relevantere Dokumente zu finden. Sie können beispielsweise nach dem Veröffentlichungsdatum des Dokuments filtern. Sie können hierfür die Amazon-Bedrock-Konsole oder den [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html) der Runtime-API verwenden, der einige allgemeine Filterbedingungen angeben kann.

Im Folgenden finden Sie einige Überlegungen zur Verwendung der `RetrievalFilter`-API für Neptune-Analytics-Diagramme.
+ Die Filter `startsWith` und `listContains` werden nicht unterstützt.
+ Die Listenvariante des `stringContains`-Filters wird nicht unterstützt.

Im Folgenden sehen Sie ein Beispiel:

```
"vectorSearchConfiguration": {
        "numberOfResults": 5,
        "filter": {
            "orAll": [
                {
                    "andAll": [
                        {
                            "equals": {
                                "key": "genre",
                                "value": "entertainment"
                            }
                        },
                        {
                            "greaterThan": {
                                "key": "year",
                                "value": 2018
                            }
                        }
                    ]
                },
                {
                    "andAll": [                        
                        {
                            "startsWith": {
                                "key": "author",
                                "value": "C"
                            }
                        }
                    ]
                }
            ]
        }
    }
}
```

# So konfigurieren Sie Abfragen und die Antwortgenerierung und passen diese an
<a name="kb-test-config"></a>

Sie können den Abruf und die Generierung von Antworten konfigurieren und anpassen und so die Relevanz der Antworten weiter verbessern. Sie können beispielsweise Filter auf Dokumentmetadaten anwenden, fields/attributes um die zuletzt aktualisierten Dokumente oder Dokumente mit den letzten Änderungszeiten zu verwenden.

**Anmerkung**  
Alle folgenden Konfigurationen, mit Ausnahme von **Orchestrierung und Generierung** sind nur auf unstrukturierte Datenquellen anwendbar.

Wählen Sie eines der folgenden Themen aus, um mehr über diese Konfigurationen in der Konsole oder API zu erfahren:

## Anzahl der Quellblöcke
<a name="kb-test-config-number"></a>

Wenn Sie eine Wissensdatenbank abfragen, gibt Amazon Bedrock standardmäßig bis zu fünf Ergebnisse in der Antwort zurück. Jedes Ergebnis entspricht einem Quellblock.

**Anmerkung**  
Die tatsächliche Anzahl der Ergebnisse in der Antwort kann unter dem angegebenen `numberOfResults`-Wert liegen, da dieser Parameter die maximale Anzahl der zurückzugebenden Ergebnisse festlegt. Wenn Sie hierarchisches Chunking für Ihre Chunking-Strategie konfiguriert haben, entspricht der Parameter `numberOfResults` der Anzahl der untergeordneten Blöcke, die die Wissensdatenbank abrufen wird. Da untergeordnete Blöcke, die denselben übergeordneten Block teilen, in der endgültigen Antwort durch den übergeordneten Block ersetzt werden, kann die Anzahl der zurückgegebenen Ergebnisse geringer sein als die angeforderte Menge.

Wählen Sie die Registerkarte mit Ihrer bevorzugten Methode aus und gehen Sie dann wie folgt vor, um die maximale Anzahl zurückzugebender Ergebnisse zu modifizieren:

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Erweitern Sie im Bereich **Konfigurationen** den Abschnitt **Quellblöcke** und geben Sie die maximale Anzahl an Quellblöcken ein, die zurückgegeben werden sollen.

------
#### [ API ]

Wenn Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)Oder-Anfrage stellen, fügen Sie ein `retrievalConfiguration` Feld hinzu, das einem [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)Objekt zugeordnet ist. Um die Position dieses Feldes zu sehen, konsultieren Sie die Anfragekörper von [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) und [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) in der API-Referenz.

Das folgende JSON-Objekt zeigt die minimalen Felder, die im [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)Objekt erforderlich sind, um die maximale Anzahl zurückzugebender Ergebnisse festzulegen:

```
"retrievalConfiguration": {
    "vectorSearchConfiguration": {
        "numberOfResults": number
    }
}
```

Geben Sie die maximale Anzahl der abgerufenen Ergebnisse an (den `numberOfResults` Bereich der akzeptierten Werte finden Sie im [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)Feld), die in dem `numberOfResults` Feld zurückgegeben werden sollen.

------

## Suchtyp
<a name="kb-test-config-search"></a>

Der Suchtyp definiert, wie Datenquellen in der Wissensdatenbank abgefragt werden. Mögliche Suchtypen:

**Anmerkung**  
Die Hybridsuche wird nur für Amazon RDS-, Amazon OpenSearch Serverless- und MongoDB-Vektorspeicher unterstützt, die ein filterbares Textfeld enthalten. Wenn Sie einen anderen Vektorspeicher verwenden oder Ihr Vektorspeicher kein filterbares Textfeld enthält, verwendet die Abfrage eine semantische Suche.
+ **Standard** – Amazon Bedrock wählt die Suchstrategie für Sie aus.
+ **Hybrid** – Hier werden Vektoreinbettungen (semantische Suche) in Kombination mit Rohtext durchsucht.
+ **Semantisch** – Durchsucht ausschließlich Vektoreinbettungen.

Wählen Sie die Registerkarte mit Ihrer bevorzugten Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie den Suchtyp definieren:

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Wenn Sie den Bereich **Konfigurationen** öffnen, erweitern Sie den Abschnitt **Suchtyp**, aktivieren dann die Option **Überschreiben der Standardsuche** und wählen eine Option aus.

------
#### [ API ]

Wenn Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)Oder-Anfrage stellen, fügen Sie ein `retrievalConfiguration` Feld hinzu, das einem Objekt zugeordnet ist. [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html) Um die Position dieses Feldes zu sehen, konsultieren Sie die Anfragekörper von [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) und [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) in der API-Referenz.

Das folgende JSON-Objekt zeigt die Mindestfelder, die im [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)Objekt erforderlich sind, um Suchtypkonfigurationen festzulegen:

```
"retrievalConfiguration": {
    "vectorSearchConfiguration": {
        "overrideSearchType": "HYBRID | SEMANTIC"
    }
}
```

Geben Sie den Suchtyp im Feld `overrideSearchType` an. Ihnen stehen folgende Optionen zur Verfügung:
+ Wenn Sie keinen Wert angeben, entscheidet Amazon Bedrock, welche Suchstrategie am besten für Ihre Vektorspeicherkonfiguration geeignet ist.
+ **HYBRID** – Amazon Bedrock fragt die Wissensdatenbank sowohl anhand der Vektoreinbettungen als auch anhand des Rohtextes ab.
+ **SEMANTISCH** – Amazon Bedrock fragt die Wissensdatenbank anhand ihrer Vektoreinbettungen ab.

------

## Streaming
<a name="kb-test-config-stream"></a>

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Wenn Sie den Bereich **Konfigurationen** öffnen, erweitern Sie den Abschnitt **Bevorzugtes Streaming** und aktivieren Sie **Stream-Antwort**.

------
#### [ API ]

Verwenden Sie die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html)-API, um Antworten zu streamen. Weitere Informationen zum Ausfüllen der Felder finden Sie auf der Registerkarte **API** unter [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md).

------

## Manuelle Metadatenfilterung
<a name="kb-test-config-filters"></a>

Sie können Filter auf Dokumente anwenden fields/attributes , um die Relevanz der Antworten weiter zu verbessern. Ihre Datenquellen können Dokumentmetadaten enthalten attributes/fields , nach denen gefiltert werden kann, und Sie können angeben, welche Felder in die Einbettungen aufgenommen werden sollen.

Beispielsweise steht „epoch\$1modification\$1time“ für die Zeit in Sekunden seit dem 1. Januar 1970 (UTC), als das Dokument zuletzt aktualisiert wurde. Sie können nach den neuesten Daten filtern, wobei „epoch\$1modification\$1time“ *größer als* eine bestimmte Zahl ist. Diese neuesten Dokumente können für die Abfrage verwendet werden.

Überprüfen Sie, ob Ihre Wissensdatenbank die folgenden Anforderungen erfüllt, um bei der Abfrage einer Wissensdatenbank Filter zu verwenden:
+ Bei der Konfiguration Ihres Datenquellen-Connectors crawlen die meisten Connectors durch die wichtigsten Metadatenfelder Ihrer Dokumente. Wenn Sie einen Amazon-S3-Bucket als Datenquelle verwenden, muss der Bucket mindestens einen `fileName.extension.metadata.json` enthalten, der der jeweiligen Datei oder dem Dokument zugeordnet ist. Weitere Informationen zur Konfiguration der Metadatendatei finden Sie in [Konfiguration der Verbindung](s3-data-source-connector.md#configuration-s3-connector) unter **Dokumentmetadatenfelder**.
+ Wenn sich der Vektorindex Ihrer Wissensdatenbank in einem Amazon OpenSearch Serverless Vector Store befindet, überprüfen Sie, ob der Vektorindex mit der `faiss` Engine konfiguriert ist. Wenn der Vektorindex mit der `nmslib`-Engine konfiguriert ist, müssen Sie einen der folgenden Prozesse ausführen:
  + [Erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) in der Konsole und lassen Sie Amazon Bedrock automatisch einen Vektorindex in Amazon OpenSearch Serverless für Sie erstellen.
  + [Erstellen Sie einen weiteren Vektorindex](knowledge-base-setup.md) im Vektorspeicher und wählen Sie `faiss` als **Engine** aus. Anschließend [erstellen Sie eine neue Wissensdatenbank](knowledge-base-create.md) und geben den neuen Vektorindex an.
+ Wenn Ihre Wissensdatenbank einen Vektorindex in einem S3-Vektor-Bucket verwendet, können Sie die Filter `stringContains` und `startsWith` nicht verwenden.
+ Wenn Sie Metadaten zu einem bestehenden Vektorindex in einem Datenbank-Cluster unter Amazon Aurora hinzufügen, empfehlen wir, den Feldnamen der benutzerdefinierten Metadatenspalte anzugeben, um alle Ihre Metadaten in einer einzigen Spalte zu speichern. Diese Spalte wird während der [Datenerfassung](kb-data-source-sync-ingest.md) mit allen in den Metadatendateien enthaltenen Informationen aus Ihren Datenquellen gefüllt. Wenn Sie entscheiden, dieses Feld anzugeben, müssen Sie einen Index für diese Spalte erstellen.
  + Wenn Sie in der Konsole [eine neue Wissensdatenbank erstellen](knowledge-base-create.md) und Amazon Bedrock Ihre Amazon-Aurora-Datenbank konfigurieren lassen, wird automatisch eine einzelne Spalte erstellt und mit den Informationen aus Ihren Metadatendateien befüllt.
  + Wenn Sie entscheiden, [einen weiteren Vektorindex im Vektorspeicher zu erstellen](knowledge-base-setup.md), müssen Sie den Namen des benutzerdefinierten Metadatenfeldes angeben, um Informationen aus Ihren Metadatendateien zu speichern. Wenn Sie diesen Feldnamen nicht angeben, müssen Sie für jedes Metadatenattribut in Ihren Dateien eine Spalte erstellen und den Datentyp (Text, Zahl oder boolescher Wert) angeben. Wenn das Attribut `genre` beispielsweise in Ihrer Datenquelle vorhanden ist, würden Sie eine Spalte mit dem Namen `genre` und der Angabe `text` als Datentyp hinzufügen. Während der Aufnahme werden diese separaten Spalten mit den entsprechenden Attributwerten gefüllt.

*Wenn Sie PDF-Dokumente in Ihrer Datenquelle haben und Amazon OpenSearch Serverless für Ihren Vector Store verwenden: Die Amazon Bedrock-Wissensdatenbanken generieren Seitenzahlen von Dokumenten und speichern sie in Metadaten field/attribute namens x-amz-bedrock-kb -. document-page-number* Beachten Sie, dass Seitenzahlen, die in einem Metadatenfeld gespeichert sind, nicht unterstützt werden, wenn Sie für Ihre Dokumente kein Chunking auswählen.

Sie können die folgenden Filteroperatoren verwenden, um bei der Abfrage die Ergebnisse zu filtern:


**Filtern von Operatoren**  

| Operator | Konsole | API-Filtername | Unterstützte Attributdatentypen | Gefilterte Ergebnisse | 
| --- | --- | --- | --- | --- | 
| Gleich | = | [equals](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-equals) | Zeichenfolge, Zahl, boolescher Wert | Das Attribut entspricht dem von Ihnen angegebenen Wert | 
| Ungleich | \$1= | [notEquals](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-notEquals) | Zeichenfolge, Zahl, boolescher Wert | Das Attribut entspricht nicht dem von Ihnen angegebenen Wert | 
| Größer als | > | [Größer als](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-greaterThan) | number | Das Attribut ist größer als der von Ihnen angegebene Wert | 
| Größer als oder gleich | >= | [greaterThanOrGleichwertig](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-greaterThanOrEquals) | number | Das Attribut ist größer als oder gleich dem von Ihnen angegebenen Wert | 
| Kleiner als | < | [Weniger als](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-lessThan) | number | Das Attribut ist kleiner als der von Ihnen angegebene Wert | 
| Kleiner als oder gleich | <= | [lessThanOrGleichwertig](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-lessThanOrEquals) | number | Das Attribut ist kleiner als der oder gleich dem von Ihnen angegebenen Wert | 
| In | : | [in](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-in) | Zeichenfolgenliste | Das Attribut befindet sich in der von Ihnen bereitgestellten Liste (wird derzeit am besten von Amazon OpenSearch Serverless und Neptune Analytics GraphRag Vector Stores unterstützt) | 
| NOT IN | \$1: | [Nicht eingeschrieben](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-notIn) | Zeichenfolgenliste | Das Attribut ist nicht in der von Ihnen angegebenen Liste enthalten (wird derzeit am besten von Amazon OpenSearch Serverless und Neptune Analytics GraphRag Vector Stores unterstützt) | 
| Zeichenfolge enthält | Nicht verfügbar | [stringContains](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-stringContains) | Zeichenfolge | Das Attribut muss eine Zeichenfolge sein. Der Attributname entspricht dem Schlüssel und dessen Wert ist eine Zeichenfolge, die den Wert enthält, den Sie als Teilzeichenfolge angegeben haben, oder eine Liste mit einem Mitglied, das den Wert enthält, den Sie als Teilzeichenfolge angegeben haben (derzeit am besten unterstützt mit Amazon OpenSearch Serverless Vector Store). Der GraphRag-Vektorspeicher von Neptune Analytics unterstützt die String-Variante, aber nicht die Listenvariante dieses Filters). | 
| Liste enthält | Nicht verfügbar | [listContains](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-listContains) | Zeichenfolge | Das Attribut muss eine Zeichenfolgenliste sein. Der Attributname entspricht dem Schlüssel und dessen Wert ist eine Liste, die den Wert enthält, den Sie als eines seiner Mitglieder angegeben haben (derzeit am besten mit Amazon OpenSearch Serverless Vector Stores unterstützt). | 

Sie können die folgenden logischen Operatoren verwenden, um Filteroperatoren zu kombinieren:


**Logische Operatoren**  

| Operator | Konsole | API-Filterfeldname | Gefilterte Ergebnisse | 
| --- | --- | --- | --- | 
| Bedingung 2 | und | [andAll](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-andAll) | Die Ergebnisse erfüllen alle Filterausdrücke in der Gruppe | 
| Oder | oder | [orAll](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrievalFilter.html#bedrock-Type-agent-runtime_RetrievalFilter-orAll) | Die Ergebnisse erfüllen mindestens einen der Filterausdrücke in der Gruppe | 

Wählen Sie den Tab für Ihre bevorzugte Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie Ergebnisse mithilfe von Metadaten filtern:

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Wenn Sie den Bereich **Konfigurationen** öffnen, wird ein **Filterabschnitt** angezeigt. Die folgenden Verfahren beschreiben verschiedene Anwendungsfälle:
+ Um einen Filter hinzuzufügen, erstellen Sie einen Filterausdruck, indem Sie ein Metadatenattribut, einen Filteroperator und einen Wert in das Feld eingeben. Trennen Sie die einzelnen Teile des Ausdrucks mit Leerzeichen. Drücken Sie die **Eingabetaste**, um den Filter hinzuzufügen.

  Eine Liste der akzeptierten Filteroperatoren finden Sie in der Tabelle mit den **Filteroperatoren** oben. Sie können auch eine Liste der Filteroperatoren anzeigen, indem Sie nach dem Metadatenattribut ein Leerzeichen hinzufügen.
**Anmerkung**  
Sie müssen Zeichenfolgen in Anführungszeichen setzen.

  Sie können beispielsweise nach Ergebnissen aus Quelldokumenten filtern, die ein `genre`-Metadatenattribut enthalten, dessen Wert `"entertainment"` ist, indem Sie den folgenden Filter hinzufügen: **genre = "entertainment"**.  
![\[So fügen Sie einen einzelnen Filter hinzu.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-one.png)
+ Um einen weiteren Filter hinzuzufügen, geben Sie einen weiteren Filterausdruck in das Feld ein und drücken die **Eingabetaste**. Sie können bis zu 5 Filter zu der Gruppe hinzufügen.  
![\[So fügen Sie einen weiteren Filter hinzu.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-more.png)
+ Standardmäßig gibt die Abfrage Ergebnisse zurück, die alle von Ihnen angegebenen Filterausdrücke erfüllen. Um Ergebnisse zurückzugeben, die mindestens einen der Filterausdrücke erfüllen, klicken Sie auf das Dropdownmenü **AND** zwischen zwei beliebigen Filtervorgängen und klicken Sie dann auf **OR**.  
![\[So ändern Sie die logische Operation zwischen Filtern.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-logical.png)
+ Um verschiedene logische Operatoren zu kombinieren, wählen Sie **\$1 Gruppe hinzufügen** aus, um eine Filtergruppe hinzuzufügen. Geben Sie Filterausdrücke in die neue Gruppe ein. Sie können bis zu 5 Filtergruppen hinzufügen.  
![\[Fügen Sie eine Filtergruppe hinzu, um verschiedene logische Operatoren zu kombinieren.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-group.png)
+ Um den logischen Operator zu ändern, der zwischen allen Filtergruppen verwendet wird, wählen Sie das **AND**-Dropdown-Menü zwischen zwei beliebigen Filtergruppen aus und wählen dann **OR** aus.  
![\[So ändern Sie die logische Operation zwischen Filtergruppen.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-group-logical.png)
+ Um einen Filter zu bearbeiten, wählen Sie ihn aus, modifizieren den Filtervorgang und klicken dann auf **Anwenden**.  
![\[Bearbeiten Sie einen Filter.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-edit.png)
+ Um eine Filtergruppe zu entfernen, klicken Sie auf das Papierkorbsymbol (![\[Trapezoid-shaped diagram showing data flow from source to destination through AWS Transfer Family.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/trash.png)) neben der Gruppe. Um einen Filter zu entfernen, klicken Sie auf das Löschsymbol (![\[Close or cancel icon represented by an "X" symbol.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/icons/close.png)) neben dem Filter.  
![\[So löschen Sie einen Filter oder eine Filtergruppe.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-delete.png)

In der folgenden Abbildung sehen Sie ein Beispiel für eine Filterkonfiguration, mit der alle Dokumente zurückgegeben werden, die nach **2018** geschrieben wurden und deren Genre **"entertainment"** ist sowie Dokumente, deren Genre **"cooking"** oder **"sports"** ist und deren Autor mit**"C"** beginnt.

![\[Beispiel für eine Filterkonfiguration.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/kb/filter-example.png)


------
#### [ API ]

Wenn Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)Oder-Anfrage stellen, fügen Sie ein `retrievalConfiguration` Feld hinzu, das einem Objekt zugeordnet ist [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html). Um die Position dieses Feldes zu sehen, konsultieren Sie die Anfragekörper von [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html) und [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) in der API-Referenz.

Die folgenden JSON-Objekte zeigen die Mindestfelder, die im [KnowledgeBaseRetrievalConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_KnowledgeBaseRetrievalConfiguration.html)Objekt erforderlich sind, um Filter für verschiedene Anwendungsfälle festzulegen:

1. So verwenden Sie einen einzelnen Filteroperator (siehe Tabelle mit **Filteroperatoren** oben).

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "<filter-type>": {
                   "key": "string",
                   "value": "string" | number | boolean | ["string", "string", ...]
               }
           }
       }
   }
   ```

1. Verwenden Sie einen logischen Operator (siehe Tabelle mit **logischen Operatoren** oben), um bis zu 5 Operatoren zu kombinieren.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   },
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   },
                   ...
               ]
           }
       }
   }
   ```

1. Verwenden Sie einen logischen Operator, um bis zu 5 Filteroperatoren zu einer Filtergruppe zu kombinieren, und einen zweiten logischen Operator, um diese Filtergruppe mit einem anderen Filteroperator zu kombinieren.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ],
                   "<filter-type>": {
                       "key": "string",
                       "value": "string" | number | boolean | ["string", "string", ...]
                   }
               ]
           }
       }
   }
   ```

1. So kombinieren Sie bis zu 5 Filtergruppen, indem Sie sie in einen anderen logischen Operator einbetten. Sie können eine Einbettungsstufe erstellen.

   ```
   "retrievalConfiguration": {
       "vectorSearchConfiguration": {
           "filter": {
               "andAll | orAll": [
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ],
                   "andAll | orAll": [
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       "<filter-type>": {
                           "key": "string",
                           "value": "string" | number | boolean | ["string", "string", ...]
                       },
                       ...
                   ]
               ]
           }
       }
   }
   ```

In der folgenden Tabelle werden die möglichen Filtertypen beschrieben:


****  

| Feld | Unterstützte Wertdatentypen | Gefilterte Ergebnisse | 
| --- | --- | --- | 
| equals | Zeichenfolge, Zahl, boolescher Wert | Das Attribut entspricht dem von Ihnen angegebenen Wert | 
| notEquals | Zeichenfolge, Zahl, boolescher Wert | Das Attribut entspricht nicht dem von Ihnen angegebenen Wert  | 
| greaterThan | number | Das Attribut ist größer als der von Ihnen angegebene Wert | 
| greaterThanOrEquals | number | Das Attribut ist größer als oder gleich dem von Ihnen angegebenen Wert | 
| lessThan | number | Das Attribut ist kleiner als der von Ihnen angegebene Wert  | 
| lessThanOrEquals | number | Das Attribut ist kleiner als der oder gleich dem von Ihnen angegebenen Wert | 
| in | Liste von Zeichenfolgen | Das Attribut ist in der von Ihnen bereitgestellten Liste | 
| notIn | Liste von Zeichenfolgen | Das Attribut ist nicht in der von Ihnen bereitgestellten Liste | 
| startsWith | Zeichenfolge | Das Attribut beginnt mit der von Ihnen angegebenen Zeichenfolge (wird nur für Amazon OpenSearch Serverless Vector Stores unterstützt) | 

Sie können die folgenden logischen Operatoren verwenden, um Filtertypen zu kombinieren:


****  

| Feld | Zugeordnet zu | Gefilterte Ergebnisse | 
| --- | --- | --- | 
| andAll | Liste mit bis zu 5 Filtertypen | Die Ergebnisse erfüllen alle Filterausdrücke in der Gruppe | 
| orAll | Liste mit bis zu 5 Filtertypen | Die Ergebnisse erfüllen mindestens einen der Filterausdrücke in der Gruppe | 

Beispiele finden [Sie unter Eine Abfrage senden und Filter einschließen (Abrufen)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html#API_agent-runtime_Retrieve_Example_2) und [Eine Abfrage senden und Filter einschließen (RetrieveAndGenerate)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html#API_agent-runtime_RetrieveAndGenerate_Example_2).

------

## Implizite Metadatenfilterung
<a name="kb-test-config-implicit"></a>

Amazon Bedrock Knowledge Base generiert einen Abruffilter und wendet diesen anhand der Benutzerabfrage und eines Metadatenschemas an.

**Anmerkung**  
Dieses Feature funktioniert derzeit nur mit Anthropic Claude 3.5 Sonnet.

Die `implicitFilterConfiguration` ist im Hauptteil der `vectorSearchConfiguration` in der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)-Anfrage angegeben. Schließen Sie die folgenden Felder mit ein:
+ `metadataAttributes` – Geben Sie in diesem Array Schemas an, die Metadatenattribute beschreiben, für die das Modell einen Filter generiert.
+ `modelArn` – Der ARN des zu verwendenden Modells.

Im Folgenden wird ein Beispiel für Metadatenschemas gezeigt, die Sie dem Array unter `metadataAttributes` hinzufügen können.

```
[
    {
        "key": "company",
        "type": "STRING",
        "description": "The full name of the company. E.g. `Amazon.com, Inc.`, `Alphabet Inc.`, etc"
    },
    {
        "key": "ticker",
        "type": "STRING",
        "description": "The ticker name of a company in the stock market, e.g. AMZN, AAPL"
    },
    {
        "key": "pe_ratio",
        "type": "NUMBER",
        "description": "The price to earning ratio of the company. This is a measure of valuation of a company. The lower the pe ratio, the company stock is considered chearper."
    },
    {
        "key": "is_us_company",
        "type": "BOOLEAN",
        "description": "Indicates whether the company is a US company."
    },
    {
        "key": "tags",
        "type": "STRING_LIST",
        "description": "Tags of the company, indicating its main business. E.g. `E-commerce`, `Search engine`, `Artificial intelligence`, `Cloud computing`, etc"
    }
]
```

## Integritätsschutz
<a name="kb-test-config-guardrails"></a>

Sie können für Ihre Wissensdatenbank Schutzmaßnahmen für Ihre Anwendungsfälle und verantwortungsvolle KI-Richtlinien implementieren. Sie können mehrere Integritätsschutzmaßnahmen treffen, die auf verschiedene Anwendungsfälle zugeschnitten sind, und sie auf mehrere Anfrage- und Antwortbedingungen anwenden, um eine konsistente Benutzerumgebung zu gewährleisten und die Sicherheitskontrollen in Ihrer gesamten Wissensdatenbank zu standardisieren. Sie können abgelehnte Themen so konfigurieren, dass unerwünschte Themen und Inhaltsfilter schädliche Inhalte in Modelleingaben und -antworten blockieren. Weitere Informationen finden Sie unter [So erkennen und filtern Sie schädliche Inhalte mithilfe vom Integritätsschutz für Amazon Bedrock](guardrails.md).

**Anmerkung**  
Die Verwendung eines Integritätsschutzes mit kontextueller Begründungsprüfung für Wissensdatenbanken wird aktuell in Claude 3 Sonnet und Haiku nicht unterstützt.

Allgemeine Leitfäden zum Prompt-Engineering finden Sie unter [Prompt-Engineering-Konzepte](prompt-engineering-guidelines.md).

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Aktivieren Sie im Testfenster die Option **Antworten generieren**. Erweitern Sie dann im Bereich **Konfigurationen** den Abschnitt **Integritätsschutz**.

1. Wählen Sie im Abschnitt **Integritätsschutz** den **Namen** und die **Version** Ihres Integritätsschutzes aus. Wenn Sie die Details für Ihren ausgewählten Integritätsschutz und die Version anzeigen möchten, klicken Sie auf **Anzeigen**.

   Alternativ können Sie eine neue Rolle erstellen, indem Sie den Link **Integritätsschutz** auswählen.

1. Wenn Sie mit der Bearbeitung fertig sind, wählen Sie **Save changes (Änderungen speichern)**. Wenn Sie den Bildschirm verlassen möchten, ohne Änderungen zu speichern, klicken Sie auf **Änderungen verwerfen**.

------
#### [ API ]

Wenn Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-Anfrage stellen, fügen Sie das Feld `guardrailConfiguration` innerhalb der `generationConfiguration` ein, um Ihren Integritätsschutz mit der Anfrage zu verwenden. Um die Position dieses Feldes zu sehen, konsultieren Sie die Anfragekörper [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) in der API-Referenz.

Das folgende JSON-Objekt zeigt die Mindestanzahl der Felder, die [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)zum Einstellen von erforderlich sind`guardrailConfiguration`:

```
"generationConfiguration": {
    "guardrailConfiguration": {
        "guardrailId": "string",
        "guardrailVersion": "string"
    }
}
```

Geben Sie die `guardrailId` und `guardrailVersion` Ihres ausgewählten Integritätsschutzes an. 

------

## Neueinstufung
<a name="kb-test-config-rerank"></a>

Sie können ein Reranker-Modell verwenden, um Ergebnisse aus einer Wissensdatenbankabfrage neu einzustufen. Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Wenn Sie den Bereich **Konfigurationen** öffnen, erweitern Sie den Abschnitt **Neueinstufung**. Wählen Sie ein Reranker-Modell aus, aktualisieren Sie die Berechtigungen falls erforderlich und modifizieren Sie bei Bedarf weitere Optionen. Geben Sie einen Prompt ein und klicken Sie auf **Ausführen**, um die Ergebnisse nach der Neueinstufung zu testen.

## Abfragenzerlegung
<a name="kb-test-query-modifications"></a>

Die Abfragezerlegung wird verwendet, um komplexe Abfragen in kleinere, einfacher zu handhabende Unterabfragen aufzuteilen. Dieser Ansatz kann dabei helfen, genauere und relevantere Informationen abzurufen – insbesondere dann, wenn die ursprüngliche Abfrage vielschichtig oder zu allgemein formuliert ist. Die Aktivierung dieser Option kann dazu führen, dass mehrere Abfragen in Ihrer Wissensdatenbank ausgeführt werden, was zu einer genaueren endgültigen Antwort beitragen kann.

Beispielsweise kann bei einer Frage wie „Wer hat mehr Tore bei der FIFA-Weltmeisterschaft 2022 geschossen – Argentinien oder Frankreich?“ könnte Wissensdatenbanken für Amazon Bedrock zunächst die folgenden Teilabfragen generieren, bevor eine endgültige Antwort erstellt wird:**

1. *Wie viele Tore hat Argentinien im Finale der FIFA-Weltmeisterschaft 2022 geschossen?*

1. *Wie viele Tore hat Frankreich im Finale der FIFA-Weltmeisterschaft 2022 geschossen?*

------
#### [ Console ]

1. So erstellen und synchronisieren Sie eine Datenquelle oder verwenden eine vorhandene Wissensdatenbank.

1. Navigieren Sie zum Testfenster und öffnen Sie den Konfigurationsbereich.

1. Aktivieren Sie die Zerlegung von Abfragen.

------
#### [ API ]

```
POST /retrieveAndGenerate HTTP/1.1
Content-type: application/json
{
   "input": {
      "text": "string"
   },
   "retrieveAndGenerateConfiguration": {
      "knowledgeBaseConfiguration": {
         "orchestrationConfiguration": { // Query decomposition
           "queryTransformationConfiguration": {
                "type": "string" // enum of QUERY_DECOMPOSITION
           }
         },
...}
}
```

------

## Inferenzparameter
<a name="kb-test-model-params"></a>

Beim Generieren von Antworten auf Grundlage abgerufener Informationen können Sie [Inferenzparameter](inference-parameters.md) verwenden, um mehr Kontrolle über das Verhalten des Modells während der Inferenz zu erhalten und dessen Ausgaben gezielt zu beeinflussen.

Wählen Sie den Tab für Ihre bevorzugte Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie die Inferenzparameter modifizieren können:

------
#### [ Console ]

**So modifizieren Sie Inferenzparameter bei der Abfrage einer Wissensdatenbank** – folgen Sie den Konsolenanweisungen unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Wenn Sie den Bereich **Konfigurationen** öffnen, wird ein **Inferenzparameterabschnitt** angezeigt. Ändern Sie die Parameter nach Bedarf.

**So modifizieren Sie die Inferenzparameter beim Chatten mit Ihrem Dokument** – Folgen Sie den Schritten unter [So chatten Sie mit Ihrem Dokument, ohne dass eine Wissensdatenbank konfiguriert ist](knowledge-base-chatdoc.md). Erweitern Sie im Bereich **Konfigurationen** den Abschnitt **Inferenzparameter** und modifizieren Sie die Parameter nach Bedarf.

------
#### [ API ]

Die Modellparameter geben Sie im Aufruf an die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-API an. Sie können das Modell anpassen, indem Sie Inferenzparameter entweder im `inferenceConfig` Feld der `knowledgeBaseConfiguration` (falls Sie eine Wissensdatenbank abfragen) oder im Feld `externalSourcesConfiguration` (wenn Sie [mit Ihrem Dokument chatten](knowledge-base-chatdoc.md)) angeben.

Innerhalb des `inferenceConfig`-Felds gibt es ein `textInferenceConfig`-Feld, das die folgenden Parameter enthält, die Sie verwenden können:
+ temperature
+ topP
+ maxTokenCount
+ stopSequences

Sie können das Modell anpassen, indem Sie die folgenden Parameter im `inferenceConfig`-Feld von `externalSourcesConfiguration` und `knowledgeBaseConfiguration` verwenden: 
+ temperature
+ topP
+ maxTokenCount
+ stopSequences

Eine ausführliche Erläuterung der Funktion der einzelnen Parameter finden Sie unter [So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern](inference-parameters.md).

Darüber hinaus können Sie benutzerdefinierte Parameter angeben, die nicht von `textInferenceConfig` über die `additionalModelRequestFields`-Zuweisung unterstützt werden. Mit diesem Argument können Sie für bestimmte Modelle eindeutige Parameter angeben. Informationen zu den eindeutigen Parametern finden Sie unter [Inferenzanforderungsparameter und Antwortfelder für Basismodelle](model-parameters.md).

Wenn ein Parameter bei `textInferenceConfig` ausgelassen wird, wird ein Standardwert verwendet. Alle Parameter werden ignoriert, die unter `textInferneceConfig` nicht erkannt werden, während alle Parameter unter `AdditionalModelRequestFields` nicht erkannt werden, eine Ausnahme auslösen. 

Eine Validierungsausnahme wird ausgelöst, wenn derselbe Parameter unter `additionalModelRequestFields` und `TextInferenceConfig` vorhanden ist.

**Verwenden von Modellparametern in RetrieveAndGenerate**

 Im Folgenden finden Sie ein Beispiel für die Struktur von `inferenceConfig` und `additionalModelRequestFields` unter der `generationConfiguration` im Anforderungstext `RetrieveAndGenerate`:

```
"inferenceConfig": {
    "textInferenceConfig": {
        "temperature": 0.5,  
        "topP": 0.5,
        "maxTokens": 2048,
        "stopSequences": ["\nObservation"]
    }
},
"additionalModelRequestFields": {
    "top_k": 50
}
```

 Im folgenden Beispiel wird ein `temperature`-Wert von 0,5, ein `top_p`-Wert von 0,5 und ein `maxTokens`-Wert von 2 048 festgelegt. Die Generierung wird beendet, wenn die Zeichenfolge „\$1nObservation“ in der generierten Antwort erscheint, und übergibt einen benutzerdefinierten `top_k`-Wert von 50. 

------

## Vorlagen für Wissensdatenbank-Prompts: Orchestrierung und Generierung
<a name="kb-test-config-prompt-template"></a>

Wenn Sie eine Wissensdatenbank abfragen und die Generierung einer Antwort anfordern, verwendet Amazon Bedrock eine Prompt-Vorlage, die Anweisungen und Kontext mit der Benutzerabfrage kombiniert, um den Prompt zur Generierung zu erstellen, der an das Modell zur Antworterstellung gesendet wird. Sie können auch den Orchestrierungs-Prompt anpassen, der den Benutzer-Prompt in eine Suchabfrage umwandelt. Sie können die Prompt-Vorlagen mit den folgenden Tools gestalten:
+ **Prompt-Platzhalter** – Vordefinierte Variablen in Wissensdatenbanken für Amazon Bedrock, die zur Laufzeit während einer Wissensdatenbankabfrage dynamisch befüllt werden. Im System-Prompt sehen Sie diese Platzhalter, die von dem Symbol `$` umgeben sind. In der folgenden Liste werden die Platzhalter beschrieben, die Sie verwenden können:
**Anmerkung**  
Der Platzhalter `$output_format_instructions$` ist ein Pflichtfeld, damit Zitate in der Antwort angezeigt werden können.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/kb-test-config.html)
+ **XML-Tags** – Anthropic-Modelle unterstützen die Verwendung von XML-Tags zur Strukturierung und Abgrenzung Ihrer Prompts. Verwenden Sie aussagekräftige Tag-Namen, um optimale Ergebnisse zu erzielen. Beispielsweise sehen Sie im Standardsystem-Prompt das `<database>`-Tag, das verwendet wird, um eine Datenbank zuvor gestellter Fragen abzugrenzen. Weitere Informationen finden Sie im [Anthropic-Benutzerhandbuch](https://docs.anthropic.com/en/docs/welcome) unter [Verwenden von XML-Tags](https://docs.anthropic.com/claude/docs/use-xml-tags).

Allgemeine Leitfäden zum Prompt-Engineering finden Sie unter [Prompt-Engineering-Konzepte](prompt-engineering-guidelines.md).

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

Folgen Sie den Konsolenschritten unter [Abrufen einer Wissensdatenbank und Datenabruf](kb-test-retrieve.md) oder [So fragen Sie eine Wissensdatenbank ab und generieren Antworten auf Grundlage der abgerufenen Daten](kb-test-retrieve-generate.md). Aktivieren Sie im Testfenster die Option **Antworten generieren**. Erweitern Sie dann im Bereich **Konfigurationen** den Abschnitt **Wissensdatenbank-Promptvorlage**.

1. Klicken Sie auf **Bearbeiten**.

1. Bearbeiten Sie den System-Prompt im Texteditor, einschließlich der Prompt-Platzhalter und XML-Tags, falls erforderlich. Klicken Sie auf **Auf Standard zurücksetzen**, um zur Standard-Prompt-Vorlage zurückzukehren.

1. Wenn Sie mit der Bearbeitung fertig sind, wählen Sie **Save changes (Änderungen speichern)**. Klicken Sie auf **Änderungen verwerfen**, um den System-Prompt zu verlassen, ohne die Änderungen zu speichern.

------
#### [ API ]

Wenn Sie eine [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)Anfrage stellen, fügen Sie ein `generationConfiguration` Feld hinzu, das einem [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)Objekt zugeordnet ist. Um die Position dieses Feldes zu sehen, konsultieren Sie die Anfragekörper [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) in der API-Referenz.

Das folgende JSON-Objekt zeigt die minimalen Felder, die im [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html)Objekt erforderlich sind, um die maximale Anzahl der zurückzugebenden abgerufenen Ergebnisse festzulegen:

```
"generationConfiguration": {
    "promptTemplate": {
        "textPromptTemplate": "string"
    }
}
```

Geben Sie Ihre benutzerdefinierte Prompt-Vorlage in das Feld `textPromptTemplate` ein, einschließlich der Prompt-Platzhalter und XML-Tags, falls erforderlich. Die maximale Anzahl von Zeichen, die in der Systemeingabeaufforderung zulässig sind, finden Sie im `textPromptTemplate` Feld unter [GenerationConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_GenerationConfiguration.html).

------

# So konfigurieren Sie die Antwortgenerierung für Argumentationsmodelle mit Knowledge Bases
<a name="kb-test-configure-reasoning"></a>

Bestimmte Basismodelle können Modellargumentationen durchführen. Das bedeutet, dass sie eine größere, komplexe Aufgabe in kleinere, einfachere Schritte zerlegt. Dieser Prozess, häufig als Chain-of-Thought-(CoT)-Argumentation bezeichnet, kann die Modellgenauigkeit verbessern, indem dem Modell die Möglichkeit gegeben wird, nachzudenken, bevor es antwortet. Modellargumentation eignet sich am besten für Aufgaben wie mehrstufige Analysen, mathematische Probleme und komplexe Argumentationsaufgaben. Weitere Informationen finden Sie unter [So verbessern Sie die Modellantworten mit Modellargumentation](inference-reasoning.md).

**Anmerkung**  
Auf dieser Seite wird beschrieben, wie Sie die Argumentationskonfiguration speziell für Wissensdatenbanken für Amazon Bedrock verwenden. Informationen zur Argumentationskonfiguration für den direkten Modellaufruf mithilfe der `InvokeModel`-API finden Sie unter [So verbessern Sie die Modellantworten mit Modellargumentation](inference-reasoning.md).

Wenn die Modellargumentation aktiviert ist, kann dies zu einer höheren Genauigkeit und besseren Zitationsergebnissen führen, jedoch auch zu einer Erhöhung der Latenz. Im Folgenden finden Sie einige Überlegungen, wenn Sie die Datenquellen abfragen und Antworten mithilfe von Argumentationsmodellen mit Wissensdatenbanken für Amazon Bedrock generieren.

**Topics**
+ [Argumentationsmodelle](#kb-test-reasoning-models)
+ [Verwenden der Modellargumentation für Claude 3.7 Sonnet](#kb-test-reasoning-using)
+ [Allgemeine Überlegungen](#kb-test-reasoning-general-considerations)
+ [Überlegungen zum Abrufen und Generieren von APIs](#kb-test-reasoning-api-considerations)

## Argumentationsmodelle
<a name="kb-test-reasoning-models"></a>

Modellargumentation ist für die folgenden Modelle verfügbar.


| Basismodell | Modell-ID | Anzahl der Token | Argumentationskonfiguration | 
| --- | --- | --- | --- | 
| Anthropic Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 | Dieses Modell wird 32 768 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. | 
| Anthropic Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | Dieses Modell wird 65 536 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. | 
| Anthropic Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 | Dieses Modell wird 65 536 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. | 
| DeepSeek DeepSeek-R1 | deepseek.r1-v1:0 | Dieses Modell wird über 8 192 Token verfügen, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. Die Anzahl der Denk-Token kann nicht konfiguriert werden und die maximale Anzahl von Ausgabetoken darf nicht größer als 8 192 sein. | Argumentation ist für dieses Modell immer aktiviert. Das Modell unterstützt keine Umschaltung der Argumentationsfähigkeit. | 

## Verwenden der Modellargumentation für Claude 3.7 Sonnet
<a name="kb-test-reasoning-using"></a>

**Anmerkung**  
Modellargumentation ist für das DeepSeek-R1-Modell immer aktiviert. Das Modell unterstützt keine Umschaltung der Argumentationsfähigkeit.

Bei Verwendung des Claude-3.7-Sonnet-Modells kann die Modellargumentation mithilfe des `additionalModelRequestFields`-Parameters der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-API aktiviert oder deaktiviert werden. Dieser Parameter akzeptiert alle Schlüssel-Wert-Paare. Sie können beispielsweise ein `reasoningConfig`-Feld hinzufügen und einen `type`-Schlüssel verwenden, um die Argumentation zu aktivieren oder zu deaktivieren, wie unten gezeigt.

```
{
   "input": { 
      "text": "string",
      "retrieveAndGenerateConfiguration": { 
      "knowledgeBaseConfiguration": { 
         "generationConfiguration": { 
            "additionalModelRequestFields": {
                "reasoningConfig" : {
                    "type": "enabled",
                    "budget_tokens": INT_VAL, #required when enabled
                }
            }
         },
         "knowledgeBaseId": "string",
      },
      "type": "string"
   },
   "sessionId": "string"
}
```

## Allgemeine Überlegungen
<a name="kb-test-reasoning-general-considerations"></a>

Im Folgenden finden Sie einige allgemeine Überlegungen zur Verwendung der Argumentationsmodelle für Knowledge Bases.
+ Die Argumentationsmodelle haben bis zu fünf Minuten Zeit, um auf eine Anfrage zu antworten. Wenn das Modell mehr als fünf Minuten benötigt, um die Abfrage zu beantworten, führt dies zu einem Timeout.
+ Um zu vermeiden, dass das Zeitlimit von fünf Minuten überschritten wird, wird die Modellargumentation nur im Generierungsschritt aktiviert, wenn Sie Ihre Abfragen und die Generierung von Antworten konfigurieren. Der Orchestrierungsschritt kann keine Modellargumentation beinhalten.
+ Die Argumentationsmodelle können bis zu 8 192 Token verwenden, um auf Anfragen zu antworten. Dazu gehören sowohl die Ausgabe- als auch die Denktoken. Jede Anfrage, die eine maximale Anzahl von Ausgabetoken über diesem Grenzwert anfordert, führt zu einem Fehler.

## Überlegungen zum Abrufen und Generieren von APIs
<a name="kb-test-reasoning-api-considerations"></a>

Im Folgenden finden Sie einige Überlegungen zur Verwendung der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-API für die Argumentationsmodelle.
+ Wenn die Argumentation für alle Modelle – Einschließlich des Claude-3.7-Sonnet-Modells – Deaktiviert ist, wird die Temperatur standardmäßig auf Null gesetzt. Wenn die Argumentation aktiviert ist, muss die Temperatur auf eins gesetzt werden.

  ```
  "inferenceConfig": {
      "textInferenceConfig": {
          "maxTokens": 8192,
          "temperature": 1
      }
  }
  ```
+ Der Parameter Top P muss deaktiviert sein, wenn die Argumentation für das Claude-3.7-Sonnet-Modell aktiviert ist. Top P ist ein zusätzliches Modellanforderungsfeld, das das Perzentil der möglichen Token bestimmt, aus denen bei der Generierung ausgewählt werden kann. Standardmäßig beträgt der Top-P-Wert für andere Anthropic-Claude-Modelle eins. Für das Modell Claude 3.7 Sonnet ist dieser Wert standardmäßig deaktiviert.
+ Wenn die Modellargumentation verwendet wird, kann dies zu einer Erhöhung der Latenz führen. Bei der Verwendung dieser API-Operation und der [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerateStream.html)-API-Operation kann es zu einer Verzögerung beim Empfang der Antwort von der API kommen.

# Bereitstellen Ihrer Wissensdatenbank für Ihre KI-Anwendung
<a name="knowledge-base-deploy"></a>

Um eine Wissensdatenbank für Ihre Anwendung bereitzustellen, richten Sie sie so ein, dass [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_Retrieve.html)- oder [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-Anfragen an die Wissensdatenbank gestellt werden können. Informationen zur Verwendung dieser API-Operationen zum Abfragen und Generieren von Antworten finden Sie unter [Testen Ihrer Wissensdatenbank mit Abfragen und Antworten](knowledge-base-test.md).

Sie können die Wissensdatenbank auch einem Agenten zuordnen, sodass der Agent sie bei Bedarf während der Orchestrierung aufruft. Weitere Informationen finden Sie unter [Automatisieren von Aufgaben in einer Anwendung mithilfe von KI-Agenten](agents.md).

Sie müssen Ihre Datenquelle oder -quellen konfigurieren und mit Ihrer Wissensdatenbank synchronisieren, bevor diese bereitgestellt werden kann. Weitere Informationen finden Sie unter [Unterstützte Datenquellen](https://docs.aws.amazon.com/bedrock/latest/userguide/data-source-connectors.html).

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die folgenden Schritte aus:

------
#### [ Console ]

**So verknüpfen Sie eine Wissensdatenbank mit einem Agenten**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Agenten** aus.

1. Wählen Sie den Agenten aus, dem Sie eine Wissensdatenbank hinzufügen möchten.

1. Wählen Sie im Abschnitt **Arbeitsentwurf** die Option **Arbeitsentwurf** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbanken** die Option **Hinzufügen** aus.

1. Wählen Sie die Wissensdatenbank aus der Dropdown-Liste unter **Wissensdatenbank auswählen** aus. Geben Sie dann Anweisungen für den Agenten bezüglich seiner Interaktionen mit der Wissensdatenbank an, und wie Ergebnisse zurückgegeben werden sollen.

**So entfernen Sie die Zuweisung einer Wissensdatenbank von einem Agenten**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Agenten** aus.

1. Wählen Sie den Agenten aus, dem Sie eine Wissensdatenbank hinzufügen möchten.

1. Wählen Sie im Abschnitt **Arbeitsentwurf** die Option **Arbeitsentwurf** aus.

1. Wählen Sie im Abschnitt **Wissensdatenbank** eine Wissensdatenbank aus.

1. Wählen Sie **Löschen** aus.

------
#### [ API ]

Senden Sie eine [AssociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_AssociateAgentKnowledgeBase.html)-Anfrage, um einem Agent eine Wissensdatenbank zuzuweisen.
+ Schließen Sie eine ausführliche `description` ein, wie der Agent mit der Wissensdatenbank interagieren und Ergebnisse zurückgeben soll.
+ Setzen Sie den Status `knowledgeBaseState` auf `ENABLED`, damit der Agent die Wissensdatenbank abfragen kann.

Sie können eine einem Agenten zugeordnete Wissensdatenbank aktualisieren, indem Sie eine [UpdateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateAgentKnowledgeBase.html)-Anfrage senden. Sie können den Status `knowledgeBaseState` bei Bedarf auf `ENABLED` setzen, um ein Problem zu beheben. Da alle Felder überschrieben werden, schließen Sie sowohl Felder ein, die Sie aktualisieren möchten, als auch Felder, die unverändert bleiben sollen.

Senden Sie eine [DisassociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DisassociateAgentKnowledgeBase.html)-Anfrage, um eine Wissensdatenbank von einem Agenten zu trennen.

------

# So zeigen Sie Informationen zu einer Wissensdatenbank in Amazon Bedrock an
<a name="kb-info"></a>

Sie können Informationen zu einer Wissensdatenbank einsehen, z. B. die Einstellungen und den Status.

Informationen zur Überwachung Ihrer Wissensdatenbank mithilfe von Amazon CloudWatch Logs finden Sie unter [Protokollierung der Wissensdatenbank](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html).

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So zeigen Sie Informationen zu einer Wissensdatenbank an**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wenn Sie Details zu einer Wissensdatenbank anzeigen möchten, wählen Sie entweder den **Namen** der Quelle oder klicken Sie auf das Optionsfeld neben der Quelle und dann auf **Bearbeiten**.

1. Auf der Detailseite können Sie die folgenden Aktionen ausführen:
   + Wählen Sie im Abschnitt **Wissensdatenbank-Übersicht** die Option **Bearbeiten** aus, um die Details der Wissensdatenbank zu ändern.
   + Wählen Sie im Abschnitt **Tags** die Option **Tags verwalten** aus, um die der Wissensdatenbank angefügten Tags zu aktualisieren.
   + Wenn Sie die Datenquelle aktualisieren, aus der die Wissensdatenbank erstellt wurde, und die Änderungen synchronisieren müssen, wählen Sie im Abschnitt **Datenquelle** die Option **Synchronisieren** aus.
   + Wenn Sie die Details einer Datenquelle anzeigen möchten, wählen Sie einen **Datenquellennamen** aus. In den Details können Sie im Abschnitt **Synchronisierungsverlauf** das Optionsfeld neben einem Synchronisierungsereignis und dann **Warnungen anzeigen** auswählen, um zu sehen, warum Dateien beim Datenerfassungsauftrag nicht synchronisiert werden konnten.
   + Wählen Sie **Bereitgestellten Durchsatz bearbeiten** aus, um das für die Wissensdatenbank verwendete Vektoreinbettungsmodell zu verwalten.
   + Wenn Sie mit der Bearbeitung fertig sind, wählen Sie **Änderungen speichern** aus.

------
#### [ API ]

Senden Sie eine [GetKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), wobei Sie die `knowledgeBaseId` angeben.

Senden Sie eine [ListKnowledgeBases](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBases.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um Informationen zu Ihren Wissensdatenbanken aufzulisten. Sie können die Höchstzahl der Ergebnisse in einer Antwort bestimmen. Wenn mehr Ergebnisse zurückgegeben werden als Sie vorgegeben haben, gibt die Antwort ein `nextToken` zurück. Sie können diesen Wert im Feld `nextToken` einer anderen [ListKnowledgeBases](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListKnowledgeBases.html)-Anfrage verwenden, um den nächsten Ergebnisstapel anzuzeigen.

------

# So modifizieren Sie eine Amazon-Bedrock-Wissensdatenbank
<a name="kb-update"></a>

Sie können eine Wissensdatenbank aktualisieren, z. B. indem Sie die Konfigurationen der Wissensdatenbank ändern.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So aktualisieren Sie eine Wissensdatenbank**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie eine Wissensdatenbank aus, um ihre Details anzuzeigen, oder aktivieren Sie das Optionsfeld neben der Wissensdatenbank und klicken Sie auf **Bearbeiten**.

1. Sie können die Wissensdatenbank wie folgt ändern.
   + Ändern Sie die Konfigurationen der Wissensdatenbank, indem Sie im Abschnitt **Wissensdatenbank-Übersicht** **Bearbeiten** anklicken.
   + Ändern und verwalten Sie die der Wissensdatenbank angefügten Tags, indem Sie im Abschnitt **Tags** die Option **Verwalten von Tags** auswählen.
   + Sie ändern und verwalten die Datenquelle für die Wissensdatenbank im Abschnitt **Datenquelle**.

1. Wenn Sie mit der Bearbeitung fertig sind, wählen Sie **Änderungen speichern** aus.

------
#### [ API ]

Um eine Wissensdatenbank zu aktualisieren, senden Sie eine [UpdateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Da alle Felder überschrieben werden, sollten Sie sowohl zu aktualisierende Felder aufnehmen als auch solche, die unverändert bleiben sollen.

------

# So löschen Sie eine Amazon-Bedrock-Wissensdatenbank
<a name="kb-delete"></a>

Sie können eine Wissensdatenbank löschen oder entfernen, die Sie nicht mehr benötigen oder verwenden. Wenn Sie eine Wissensdatenbank löschen, sollten Sie außerdem die folgenden Aktionen durchführen, um alle mit der Wissensdatenbank verbundenen Ressourcen vollständig zu entfernen.
+ Trennen Sie die Wissensdatenbank von allen Agenten, denen sie zugeordnet ist.
+ Löschen Sie den Vektorspeicher für Ihre Wissensdatenbank.

**Anmerkung**  
Die standardmäßige `dataDeletionPolicy` für eine neu erstellte Datenquelle ist „Löschen“, sofern bei der Erstellung der Datenquelle nichts anderes angegeben wurde. Die Richtlinie wird angewendet, wenn Sie eine Ressource einer Wissensdatenbank oder Datenquelle löschen. Sie können die Richtlinie so aktualisieren, dass Daten aus Ihrer Datenquelle, die in Vektoreinbettungen konvertiert wurden, „Beibehalten“ werden. Beachten Sie, dass der **Vektorspeicher selbst nicht gelöscht wird**, wenn Sie eine Wissensdatenbank oder Datenquellenressource löschen.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:

------
#### [ Console ]

**So löschen Sie eine Wissensdatenbank**

1. Stellen Sie vor den nächsten Schritten sicher, dass Sie die Wissensdatenbank aus allen Agenten löschen, denen sie zugeordnet ist. Führen Sie dazu die folgenden Schritte aus:

   1. Wählen Sie im linken Navigationsbereich **Agenten** aus.

   1. Wählen Sie den **Namen** des Agenten aus, dessen Wissensdatenbank Sie löschen möchten.

   1. Ein rotes Banner warnt Sie davor, den Verweis auf die Wissensdatenbank, die nicht mehr existiert, aus dem Agenten zu löschen.

   1. Wählen Sie das Optionsfeld neben der Wissensdatenbank aus, die Sie entfernen möchten. Wählen Sie **Mehr** und anschließend **Löschen** aus.

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Wissensdatenbank** aus.

1. Wählen Sie eine Wissensdatenbank aus oder aktivieren Sie das Optionsfeld neben einer Wissensdatenbank. Wählen Sie dann **Löschen** aus.

1. Sehen Sie sich die Warnungen zum Löschen einer Wissensdatenbank an. Wenn Sie diese Bedingungen akzeptieren, geben Sie **delete** in das Eingabefeld ein und wählen Sie zur Bestätigung **Löschen** aus.
**Anmerkung**  
Beachten Sie, dass der **Vektorspeicher nicht gelöscht wird**, sondern nur die Daten. Sie können die Konsole oder das SDK des Vektorspeichers verwenden, um den Vektorspeicher zu löschen. Stellen Sie sicher, dass Sie auch alle Agenten für Amazon Bedrock überprüfen, die Sie in Ihrer Wissensdatenbank verwenden.

------
#### [ API ]

Senden Sie eine [DeleteKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), um die Wissensdatenbank zu löschen.

Sie müssen außerdem die Wissensdatenbank von allen ihr zugeordneten Agenten trennen, indem Sie eine [DisassociateAgentKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DisassociateAgentKnowledgeBase.html)-Anfrage mit einem [Build-Time-Endpunkt für Agenten für Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) senden.

Weiterhin müssen Sie den Vektorspeicher löschen, indem Sie die Konsole oder das SDK des Vektorspeichers verwenden.

------