CREATE EXTERNAL SCHEMA - Amazon Redshift

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

CREATE EXTERNAL SCHEMA

Erstellt ein neues externes Schema in der aktuellen Datenbank. Sie können dieses externe Schema verwenden, um eine Verbindung zu den Datenbanken Amazon RDS for Postgre SQL oder Amazon Aurora Postgre SQL -Compatible Edition herzustellen. Sie können auch ein externes Schema erstellen, das auf eine Datenbank in einem externen Datenkatalog wie AWS Glue Athena oder auf eine Datenbank in einem Apache Hive-Metastore wie Amazon verweist. EMR

Der Besitzer dieses Schemas ist der Aussteller des Befehls. CREATE EXTERNAL SCHEMA Mit dem Befehl ALTER SCHEMA können Sie den Besitzer eines externen Schemas ändern. Mit dem Befehl GRANT gewähren Sie anderen Benutzern oder Benutzergruppen Zugriff auf das Schema.

Sie können die REVOKE Befehle GRANT oder nicht für Berechtigungen für eine externe Tabelle verwenden. Gewähren oder widerrufen Sie stattdessen die Berechtigungen für das externe Schema.

Anmerkung

Wenn Sie derzeit externe Redshift-Spectrum-Tabellen im Amazon-Athena-Datenkatalog haben, können Sie Ihren Athena-Datenkatalog zu einem -Datenkatalog migrieren AWS Glue Data Catalog. Um den AWS Glue Datenkatalog mit Redshift Spectrum zu verwenden, müssen Sie möglicherweise Ihre AWS Identity and Access Management (IAM) Richtlinien ändern. Weitere Informationen finden Sie unter Upgrade auf den AWS Glue Datenkatalog im Athena-Benutzerhandbuch.

Um Details zu externen Schemata anzuzeigen, führen Sie eine Abfrage für die Systemansicht SVV_EXTERNAL_SCHEMAS aus.

Syntax

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um Daten mithilfe eines externen Datenkatalogs zu referenzieren. Weitere Informationen finden Sie unter Amazon Redshift Spectrum.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] local_schema_name
FROM [ [ DATA CATALOG ] | HIVE METASTORE | POSTGRES | MYSQL | KINESIS | MSK | REDSHIFT ]
[ DATABASE 'database_name' ]
[ SCHEMA 'schema_name' ]
[ REGION 'aws-region' ]
[ IAM_ROLE [ default | 'SESSION' | 'arn:aws:iam::<AWS-Konto-id>:role/<role-name>' ] ]
[ AUTHENTICATION [ none | iam | mtls] ]
[ AUTHENTICATION_ARN 'acm-certificate-arn' | SECRET_ARN 'ssm-secret- arn' ]
[ URI ['hive_metastore_uri' [ PORT port_number ] | 'hostname' [ PORT port_number ] | 'msk bootstrap URL'] ] 
[ CLUSTER_ARN 'arn:aws:kafka:<region>:<AWS-Konto-id>:cluster/msk/<cluster uuid>' ]
[ CATALOG_ROLE [ 'SESSION' | 'catalog-role-arn-string' ] ]
[ CREATE EXTERNAL DATABASE IF NOT EXISTS ]
[ CATALOG_ID 'Amazon Web Services account ID containing Glue or Lake Formation database' ]

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um Daten mithilfe einer Verbundabfrage an RDS POSTGRES oder Aurora SQL Postgre zu referenzieren. Sie können auch ein externes Schema erstellen, das auf Streaming-Quellen wie Kinesis Data Streams verweist. Weitere Informationen finden Sie unter Abfragen von Daten mit Verbundabfragen in Amazon Redshift.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] local_schema_name
FROM POSTGRES
DATABASE 'federated_database_name' [SCHEMA 'schema_name']
URI 'hostname' [ PORT port_number ]
IAM_ROLE [ default | 'arn:aws:iam::<AWS-Konto-id>:role/<role-name>' ]
SECRET_ARN 'ssm-secret-arn'

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um Daten mithilfe einer Verbundabfrage an RDS My SQL oder Aurora My SQL zu referenzieren. Weitere Informationen finden Sie unter Abfragen von Daten mit Verbundabfragen in Amazon Redshift.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] local_schema_name
FROM MYSQL
DATABASE 'federated_database_name'
URI 'hostname' [ PORT port_number ]
IAM_ROLE [ default | 'arn:aws:iam::<AWS-Konto-id>:role/<role-name>' ]
SECRET_ARN 'ssm-secret-arn'

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um auf Daten in einem Kinesis-Stream zu verweisen. Weitere Informationen finden Sie unter Streaming-Aufnahme in eine materialisierte Ansicht.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] schema_name
FROM KINESIS
IAM_ROLE [ default | 'arn:aws:iam::<AWS-Konto-id>:role/<role-name>' ]

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um auf den Amazon Managed Streaming for Apache Kafka Kafka-Cluster zu verweisen, und die Themen, aus denen die Daten aufgenommen werden sollen. Um eine Verbindung herzustellen, geben Sie den Broker an. URI Weitere Informationen finden Sie unter Streaming-Aufnahme in eine materialisierte Ansicht.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] schema_name
FROM MSK
[ IAM_ROLE [ default | 'arn:aws:iam::<AWS-Konto-id>:role/<role-name>' ] ]
URI 'msk bootstrap URL'
AUTHENTICATION [ none | iam | mtls ]
[ AUTHENTICATION_ARN 'acm-certificate-arn' | SECRET_ARN 'ssm-secret- arn' ];

Die folgende Syntax beschreibt den CREATE EXTERNAL SCHEMA Befehl, der verwendet wird, um mithilfe einer datenbankübergreifenden Abfrage auf Daten zu verweisen.

CREATE EXTERNAL SCHEMA local_schema_name
FROM  REDSHIFT
DATABASE 'redshift_database_name' SCHEMA 'redshift_schema_name'

Parameter

WENN NOT EXISTS

Eine Klausel, die angibt, dass der Befehl keine Änderungen ausführen und die Meldung zurückgeben soll, dass das Schema vorhanden ist, statt mit einem Fehler beendet zu werden, wenn das angegebene Schema bereits vorhanden ist. Diese Klausel ist bei der Skripterstellung nützlich, damit das Skript nicht fehlschlägt, wenn CREATE EXTERNAL SCHEMA versucht wird, ein Schema zu erstellen, das bereits existiert.

local_schema_name

Der Name des neuen externen Schemas. Weitere Informationen zu gültigen Namen finden Sie unter Namen und Kennungen.

FROM [ DATA CATALOG ] | HIVE METASTORE | POSTGRES | MYSQL | KINESIS | MSK | REDSHIFT

Ein Schlüsselwort, das angibt, wo sich die externe Datenbank befindet.

DATACATALOGgibt an, dass die externe Datenbank im Athena-Datenkatalog oder im AWS Glue Data Catalog definiert ist.

Wenn die externe Datenbank in einem externen Datenkatalog in einer anderen AWS Region definiert ist, ist der REGION Parameter erforderlich. DATACATALOGist die Standardeinstellung.

HIVEMETASTOREgibt an, dass die externe Datenbank in einem Apache Hive-Metastore definiert ist. Wenn HIVEMETASTORE, angegeben ist, URI ist erforderlich.

POSTGRESgibt an, dass die externe Datenbank in RDS Postgre SQL oder Aurora SQL Postgre definiert ist.

MYSQLgibt an, dass die externe Datenbank in RDS My SQL oder Aurora My definiert istSQL.

KINESISgibt an, dass die Datenquelle ein Stream aus Kinesis Data Streams ist.

MSKgibt an, dass es sich bei der Datenquelle um einen von Amazon MSK bereitgestellten oder serverlosen Cluster handelt.

FROM REDSHIFT

Ein Schlüsselwort, das angibt, dass sich die Datenbank in Amazon Redshift befindet.

DATABASE'redshift_database_name' 'redshift_schema_name' SCHEMA

Der Name der Amazon-Redshift-Datenbank.

Der redshift_schema_name gibt das Schema in Amazon Redshift an. Standardmäßig lautet der redshift_schema_name auf public.

DATABASE'Verbunddatenbankname'

Ein Schlüsselwort, das den Namen der externen Datenbank in einer unterstützten Postgre- oder My Database-Engine angibt. SQL SQL

[SCHEMA'Schemaname']

Der schema_name gibt das Schema in einer unterstützten Postgre-Datenbank-Engine an. SQL Der Standard-schema_name ist public.

Sie können a nicht angeben, SCHEMA wenn Sie eine Verbundabfrage für eine unterstützte My Database-Engine einrichten. SQL

REGION„AWS-Region

Wenn die externe Datenbank in einem Athena-Datenkatalog oder in der AWS Region definiert ist AWS Glue Data Catalog, in der sich die Datenbank befindet. Dieser Parameter ist erforderlich, wenn die Datenbank in einem externen Datenkatalog definiert ist.

URI['hive_metastore_uri' [Portnummer] | 'Hostname' [PORTPortnummer] | 'msk bootstrap'] PORT URL

Der Hostname und URI die Portnummer einer unterstützten SQL Postgre SQL - oder My-Datenbank-Engine. Der Hostname ist der Haarknoten des Replikatsatzes. Der Endpunkt muss vom Amazon-Redshift-Cluster aus erreichbar (routingfähig) sein. Die standardmäßige Postgre-Portnummer ist 5432SQL. Die Standardeinstellung Meine Portnummer ist 3306SQL.

Anmerkung

Die unterstützte Postgre SQL - oder My SQL Database-Engine muss sich in derselben Umgebung befinden VPC wie Ihr Amazon Redshift-Cluster mit einer Sicherheitsgruppe, die Amazon Redshift und RDS url- rsPostgre SQL oder Aurora Postgre verknüpft. SQL Darüber hinaus können Sie Enhanced VPC Routing verwenden, um einen anwendungsübergreifenden Fall zu konfigurieren. VPC Weitere Informationen finden Sie unter Von Redshift verwaltete Endpunkte. VPC

Einen Hive-Metastore angeben URI

Wenn sich die Datenbank in einem Hive-Metastore befindet, geben Sie die URI und optional die Portnummer für den Metastore an. Die Standard-Portnummer ist 9083.

A enthält URI keine Protokollspezifikation („http://“). Ein gültiges BeispielURI:uri '172.10.10.10'.

Angabe eines Brokers URI für die Streaming-Aufnahme

Die Einbindung des Bootstrap-Brokers URI bietet die Möglichkeit, eine Verbindung zu einem MSK Amazon-Cluster herzustellen und gestreamte Daten zu empfangen. Weitere Informationen und ein Beispiel finden Sie unter Erste Schritte mit der Streaming-Aufnahme von Amazon Managed Streaming for Apache Kafka.

IAM_ ROLE [Standard | 'SESSION' | 'arn:aws:iam::<AWS-Konto-id>:Rolle/<role-name>' ]

Verwenden Sie das Schlüsselwort default, damit Amazon Redshift die IAM Rolle verwendet, die als Standard festgelegt und dem Cluster zugeordnet ist, wenn der CREATE EXTERNAL SCHEMA Befehl ausgeführt wird.

Verwenden Sie 'SESSION', wenn Sie über eine Verbundidentität eine Verbindung zu Ihrem Amazon-Redshift-Cluster herstellen und über das mit diesem Befehl erstellte externe Schema auf die Tabellen zugreifen. Weitere Informationen finden Sie unter Verwenden einer Verbundidentität zur Verwaltung des Amazon-Redshift-Zugriffs auf lokale Ressourcen und externe Amazon-Redshift-Spectrum-Tabellen. Darin wird erläutert, wie Sie eine Verbundidentität konfigurieren. Beachten Sie, dass diese Konfiguration, die anstelle von verwendet wirdARN, nur verwendet werden kann, wenn das Schema mit DATA CATALOG erstellt wurde. 'SESSION'

Verwenden Sie den Amazon-Ressourcennamen (ARN) für eine IAM Rolle, die Ihr Cluster für die Authentifizierung und Autorisierung verwendet. Die IAM Rolle muss mindestens über die Berechtigung verfügen, einen LIST Vorgang auf dem Amazon S3 S3-Bucket auszuführen, auf den zugegriffen werden soll, und einen GET Vorgang auf den Amazon S3 S3-Objekten, die der Bucket enthält.

Im Folgenden wird die Syntax für die Zeichenfolge mit dem ROLE Parameter IAM _ für eine einzelne Zeichenfolge dargestelltARN.

IAM_ROLE 'arn:aws:iam::<aws-account-id>:role/<role-name>'

Sie können Rollen verketten, sodass Ihr Cluster eine andere IAM Rolle übernehmen kann, die möglicherweise zu einem anderen Konto gehört. Es können bis zu 10 Rollen miteinander verkettet werden. Ein Beispiel für die Verkettung von Rollen finden Sie unter Verkettung von IAM Rollen in Amazon Redshift Spectrum.

Fügen Sie dieser IAM Rolle eine IAM Berechtigungsrichtlinie hinzu, die der folgenden ähnelt.

{ "Version": "2012-10-17", "Statement": [ { "Sid": "AccessSecret", "Effect": "Allow", "Action": [ "secretsmanager:GetResourcePolicy", "secretsmanager:GetSecretValue", "secretsmanager:DescribeSecret", "secretsmanager:ListSecretVersionIds" ], "Resource": "arn:aws:secretsmanager:us-west-2:123456789012:secret:my-rds-secret-VNenFy" }, { "Sid": "VisualEditor1", "Effect": "Allow", "Action": [ "secretsmanager:GetRandomPassword", "secretsmanager:ListSecrets" ], "Resource": "*" } ] }

Die Schritte zum Erstellen einer IAM Rolle zur Verwendung mit Verbundabfragen finden Sie unterErstellen Sie ein Geheimnis und eine IAM Rolle für die Verwendung verbundener Abfragen.

Anmerkung

Fügen Sie keine Leerzeichen in die Liste der verketteten Rollen ein.

Nachfolgend finden Sie die Syntax für die Verkettung von drei Rollen.

IAM_ROLE 'arn:aws:iam::<aws-account-id>:role/<role-1-name>,arn:aws:iam::<aws-account-id>:role/<role-2-name>,arn:aws:iam::<aws-account-id>:role/<role-3-name>'
SECRET_ARN 'ssm-secret-arn'

Der Amazon-Ressourcenname (ARN) eines unterstützten Postgre SQL - oder My SQL Database-Engine-Geheimnisses, das mit AWS Secrets Manager erstellt wurde. Informationen zum Erstellen und Abrufen eines ARN geheimen Geheimnisses finden Sie unter Creating a Basic Secret und Retrieving the Secret Value Secret im AWS Secrets Manager Benutzerhandbuch.

CATALOG_ROLE [ 'SESSION' | catalog-role-arn-string]

Verwenden Sie 'SESSION', um mithilfe einer Verbundidentität eine Verbindung mit Ihrem Amazon-Redshift-Cluster herzustellen, um den Datenkatalog zu authentifizieren und zu autorisieren. Weitere Informationen zur Durchführung der Schritte für eine Verbundidentität finden Sie unter Verwenden einer Verbundidentität zur Verwaltung des Amazon-Redshift-Zugriffs auf lokale Ressourcen und externe Amazon-Redshift-Spectrum-Tabellen. Beachten Sie, dass die 'SESSION' Rolle nur verwendet werden kann, wenn das Schema in DATA CATALOG erstellt wurde.

Verwenden Sie den Amazon-Ressourcennamen ARN für eine IAM Rolle, die Ihr Cluster für die Authentifizierung und Autorisierung für den Datenkatalog verwendet.

Wenn CATALOG _ ROLE nicht angegeben ist, verwendet Amazon Redshift das angegebene IAM _ROLE. Die Katalogrolle muss über die Berechtigung verfügen, auf den Datenkatalog in AWS Glue oder Athena zuzugreifen. Weitere Informationen finden Sie unter IAMRichtlinien für Amazon Redshift Spectrum.

Im Folgenden wird die Syntax für die ROLE Parameterzeichenfolge CATALOG _ für eine einzelne ARN Zeichenfolge dargestellt.

CATALOG_ROLE 'arn:aws:iam::<aws-account-id>:role/<catalog-role>'

Sie können Rollen verketten, sodass Ihr Cluster eine andere IAM Rolle übernehmen kann, die möglicherweise zu einem anderen Konto gehört. Es können bis zu 10 Rollen miteinander verkettet werden. Weitere Informationen finden Sie unter Verkettung von IAM Rollen in Amazon Redshift Spectrum.

Anmerkung

Die Liste der verketteten Rollen darf keine Leerstellen enthalten.

Nachfolgend finden Sie die Syntax für die Verkettung von drei Rollen.

CATALOG_ROLE 'arn:aws:iam::<aws-account-id>:role/<catalog-role-1-name>,arn:aws:iam::<aws-account-id>:role/<catalog-role-2-name>,arn:aws:iam::<aws-account-id>:role/<catalog-role-3-name>'

CREATEEXTERNALDATABASEWENN NOT EXISTS

Eine Klausel, die eine externe Datenbank mit dem durch das DATABASE Argument angegebenen Namen erstellt, wenn die angegebene externe Datenbank nicht existiert. Wenn die angegebene externe Datenbank vorhanden ist, führt der Befehl keine Änderungen aus. In diesem Fall gibt der Befehl die Meldung zurück, dass die externe Datenbank vorhanden ist, statt mit einem Fehler beendet zu werden.

Anmerkung

Sie können CREATE EXTERNAL DATABASE IF nicht NOT EXISTS mit verwenden HIVEMETASTORE.

Um CREATE EXTERNAL DATABASE IF NOT EXISTS mit einem aktivierten Datenkatalog für zu verwenden AWS Lake Formation, benötigen Sie eine CREATE_DATABASE Genehmigung für den Datenkatalog.

CATALOG_ID 'Amazon Web Services Services-Konto-ID, die die Glue- oder Lake Formation Formation-Datenbank enthält'

Die Konto-ID, in der die Datenkatalogdatenbank gespeichert ist.

CATALOG_ID kann nur angegeben werden, wenn Sie planen, für die Authentifizierung und Autorisierung beim Datenkatalog mithilfe einer Verbundidentität eine Verbindung mit Ihrem Amazon-Redshift-Cluster oder Amazon Redshift Serverless herzustellen, indem Sie eine der folgenden Einstellungen festlegen:

  • CATALOG_ROLE auf 'SESSION'

  • IAM_ROLE auf 'SESSION' und 'CATALOG_ROLE' auf die Standardeinstellung festgelegt

Weitere Informationen zur Durchführung der Schritte für Verbundidentität finden Sie unter Verwenden einer Verbundidentität zur Verwaltung des Amazon-Redshift-Zugriffs auf lokale Ressourcen und externe Amazon-Redshift-Spectrum-Tabellen

AUTHENTICATION

Der für die Streaming-Erfassung definierte Authentifizierungstyp. Die Streaming-Erfassung mit Authentifizierungstypen kann mit Amazon Managed Streaming for Apache Kafka verwendet werden. Es stehen folgende AUTHENTICATION-Typen zur Verfügung:

  • none — Gibt an, dass keine Authentifizierung erforderlich ist. Dies entspricht Unauthentifizierter Zugriff auf. MSK

  • iam — Gibt die Authentifizierung an. IAM Wenn Sie diese Option wählen, stellen Sie sicher, dass die IAM Rolle über Berechtigungen zur IAM Authentifizierung verfügt. Weitere Informationen über die Definition des externen Schemas finden Sie unter Erste Schritte mit der Streaming-Aufnahme von Amazon Managed Streaming for Apache Kafka (Amazon) MSK.

  • mtls — Gibt an, dass Mutual Transport Layer Security eine sichere Kommunikation ermöglicht, indem die Authentifizierung zwischen einem Client und einem Server erleichtert wird. In diesem Fall ist der Client Redshift und der Server ist AmazonMSK. Weitere Informationen zur Konfiguration der Streaming-Aufnahme mit m TLS finden Sie unter. Authentifizierung mit m TLS für Redshift-Streaming-Ingestion von Amazon MSK

AUTHENTICATION_ARN

Das AWS Certificate Manager Zertifikat, das ARN von Amazon Redshift für die MTLS-Authentifizierung bei Amazon verwendet wird. MSK Das ARN ist in der ACM Konsole verfügbar, wenn Sie das ausgestellte Zertifikat auswählen.

CLUSTER_ARN

Für die Streaming-Aufnahme ARN ist CLUSTER _ die Cluster-ID für den Amazon Managed Streaming for Apache Kafka Kafka-Cluster, von dem Sie streamen. Wenn Sie CLUSTER _ verwendenARN, ist eine IAM Rollenrichtlinie erforderlich, die die Berechtigung beinhaltet. kafka:GetBootstrapBrokers Diese Option wird aus Gründen der Abwärtskompatibilität bereitgestellt. Derzeit empfehlen wir, die URI Bootstrap-Broker-Option zu verwenden, um eine Verbindung zu Amazon Managed Streaming for Apache Kafka Kafka-Cluster herzustellen. Weitere Informationen finden Sie unter Streaming-Erfassung.

Nutzungshinweise

Informationen über Beschränkungen bei der Verwendung des Athena-Datenkatalogs finden Sie unter Athena-Limits in der Allgemeine AWS-Referenz.

Informationen AWS Glue zu den Beschränkungen bei der Verwendung von finden Sie unter Grenzwerte in der AWS Glue Data Catalog. Allgemeine AWS-Referenz

Diese Begrenzungen gelten nicht für einen Hive-Metastore.

Pro Datenbank sind höchstens 9 900 Schemata zulässig. Weitere Informationen finden Sie unter Kontingente und Einschränkungen im Amazon-Redshift-Verwaltungshandbuch.

Verwenden Sie den DROP SCHEMA-Befehl, um die Registrierung des Schemas aufzuheben.

Um sich die Details zu externen Schemata anzeigen zu lassen, fragen Sie die folgenden Systemansichten ab:

Beispiele

Im folgenden Beispiel wird ein externes Schema unter Verwendung einer Datenbank in einem Athena-Datenkatalog namens sampledb in der Region USA West (Oregon) erstellt. Verwenden Sie dieses Beispiel mit einem Athena- oder AWS Glue Datenkatalog.

create external schema spectrum_schema from data catalog database 'sampledb' region 'us-west-2' iam_role 'arn:aws:iam::123456789012:role/MySpectrumRole';

Im folgenden Beispiel werden ein externes Schema und eine neue externe Datenbank namens erstellt spectrum_db.

create external schema spectrum_schema from data catalog database 'spectrum_db' iam_role 'arn:aws:iam::123456789012:role/MySpectrumRole' create external database if not exists;

Im folgenden Beispiel wird ein externes Schema mittels einer Hive-Metastore-Datenbank namens erstellt hive_db.

create external schema hive_schema from hive metastore database 'hive_db' uri '172.10.10.10' port 99 iam_role 'arn:aws:iam::123456789012:role/MySpectrumRole';

Im folgenden Beispiel miteinander verketteter Rollen wird die Rolle myS3Role für den Zugriff auf Amazon S3 und myAthenaRole für den Datenkatalogzugriff verwendet. Weitere Informationen finden Sie unter Verkettung von IAM Rollen in Amazon Redshift Spectrum.

create external schema spectrum_schema from data catalog database 'spectrum_db' iam_role 'arn:aws:iam::123456789012:role/myRedshiftRole,arn:aws:iam::123456789012:role/myS3Role' catalog_role 'arn:aws:iam::123456789012:role/myAthenaRole' create external database if not exists;

Im folgenden Beispiel wird ein externes Schema erstellt, das auf eine Aurora SQL Postgre-Datenbank verweist.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] myRedshiftSchema FROM POSTGRES DATABASE 'my_aurora_db' SCHEMA 'my_aurora_schema' URI 'endpoint to aurora hostname' PORT 5432 IAM_ROLE 'arn:aws:iam::123456789012:role/MyAuroraRole' SECRET_ARN 'arn:aws:secretsmanager:us-east-2:123456789012:secret:development/MyTestDatabase-AbCdEf'

Im folgenden Beispiel wird ein externes Schema erstellt, das auf die im Konsumenten-Cluster importierte sales_db verweist.

CREATE EXTERNAL SCHEMA sales_schema FROM REDSHIFT DATABASE 'sales_db' SCHEMA 'public';

Im folgenden Beispiel wird ein externes Schema erstellt, das auf eine Aurora SQL My-Datenbank verweist.

CREATE EXTERNAL SCHEMA [IF NOT EXISTS] myRedshiftSchema FROM MYSQL DATABASE 'my_aurora_db' URI 'endpoint to aurora hostname' IAM_ROLE 'arn:aws:iam::123456789012:role/MyAuroraRole' SECRET_ARN 'arn:aws:secretsmanager:us-east-2:123456789012:secret:development/MyTestDatabase-AbCdEf'