Amazon S3-Integration - Amazon Relational Database Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon S3-Integration

Sie können Dateien zwischen Ihrer DB-Instance von RDS for Oracle und einem Amazon-S3-Bucket übertragen. Sie können die Amazon-S3-Integration mit Oracle-Database-Funktionen wie Oracle Data Pump nutzen. Beispielsweise können Sie Data-Pump-Dateien von Amazon S3 auf Ihre RDS für Oracle DB-Instance herunterladen. Weitere Informationen finden Sie unter Importieren von Daten zu Oracle in Amazon RDS.

Anmerkung

Die DB-Instance und der Amazon-S3-Bucket müssen sich in der gleichen AWS-Region befinden.

Konfigurieren von IAM-Berechtigungen für die Integration von RDS for Oracle in Amazon S3

Damit RDS for Oracle in Amazon S3 integriert werden kann, benötigt Ihre DB-Instance Zugriff auf einen Amazon-S3-Bucket. Die von Ihrer DB-Instance verwendete Amazon VPC muss keinen Zugriff auf die Amazon S3-Endpunkte ermöglichen.

RDS for Oracle unterstützt die Übertragung von Dateien zwischen einer DB-Instance in einem Konto und einem Amazon S3 S3-Bucket in einem anderen Konto. Wenn zusätzliche Schritte erforderlich sind, werden diese in den folgenden Abschnitten vermerkt.

Schritt 1: Erstellen einer IAM-Richtlinie für Ihre Amazon-RDS-Rolle

In diesem Schritt erstellen Sie eine AWS Identity and Access Management (IAM-) Richtlinie mit den Berechtigungen, die für die Übertragung von Dateien zwischen Ihrem Amazon S3 S3-Bucket und Ihrer RDS-DB-Instance erforderlich sind. In diesem Schritt wird davon ausgegangen, dass Sie bereits einen S3-Bucket erstellt haben.

Notieren Sie sich vor dem Erstellen der Richtlinie die folgenden Informationen:

  • Amazon-Ressourcenname (ARN) Ihres Buckets

  • Der ARN für Ihren AWS KMS Schlüssel, wenn Ihr Bucket SSE-KMS- oder SSE-S3-Verschlüsselung verwendet

    Anmerkung

    Eine DB-Instance von RDS für Oracle kann nicht auf mit SSE-C verschlüsselte Amazon-S3-Buckets zugreifen.

Weitere Informationen finden Sie unter Schutz von Daten durch serverseitige Verschlüsselung im Amazon Simple Storage Service User Guide.

So erstellen Sie eine IAM-Richtlinie, die Amazon RDS Zugriff auf Ihren Amazon-S3-Bucket gewährt
  1. Öffnen Sie die IAM-Managementkonsole.

  2. Wählen Sie unter Zugriffsverwaltung Richtlinien aus.

  3. Wählen Sie Create Policy (Richtlinie erstellen) aus.

  4. Wählen Sie auf der Registerkarte Visueller Editor die Option Service auswählen und dann S3 aus.

  5. Wählen Sie unter Actions (Aktionen) die Option Expand all (Alle expandieren). Wählen Sie dann die Bucket-Berechtigungen und Objektberechtigungen aus, die benötigt werden, um Dateien aus einem Amazon S3-Bucket Amazon RDS zu übertragen. Führen Sie beispielsweise folgende Schritte aus:

    • Erweitern Sie Liste und wählen Sie dann aus. ListBucket

    • Erweitern Sie Lesen und wählen Sie dann aus GetObject.

    • Erweitern Sie Schreiben und wählen Sie dann PutObjectund aus DeleteObject.

    • Erweitern Sie Permissions management und wählen Sie dann PutObjectAcl aus. Diese Berechtigung ist erforderlich, wenn Sie planen, Dateien in einen Bucket hochzuladen, der einem anderen Konto gehört, und dieses Konto die volle Kontrolle über den Bucket-Inhalt benötigt.

    Objektberechtigungen sind Berechtigungen für Objektoperationen in Amazon S3. Sie müssen sie für Objekte in einem Bucket und nicht für den Bucket selbst erteilen. Weitere Informationen finden Sie unter Berechtigungen für Objektoperationen.

  6. Wählen Sie Ressourcen aus und gehen Sie wie folgt vor:

    1. Wählen Sie Spezifisch aus.

    2. Wählen Sie für Bucket die Option ARN hinzufügen aus. Geben Sie Ihren Bucket-ARN ein. Der Bucket-Name wird automatisch ausgefüllt. Wählen Sie dann Add (Hinzufügen).

    3. Wenn die Ressource Objekt angezeigt wird, wählen Sie entweder ARN hinzufügen aus, um Ressourcen manuell hinzuzufügen, oder klicken Sie auf Beliebige.

      Anmerkung

      Sie können für Amazon-Ressourcenname (ARN) einen spezifischen ARN-Wert einstellen, um Amazon RDS nur den Zugriff auf spezifische Dateien oder Order in einem Amazon S3-Bucket zu gewähren. Weitere Informationen über das Definieren von Zugriffsrichtlinien für Amazon S3 finden Sie unter Verwaltung der Zugriffsberechtigungen zu Ihren Amazon S3-Ressourcen.

  7. (Optional) Wählen Sie Zusätzliche Berechtigungen hinzufügen, um Ressourcen zur Richtlinie hinzuzufügen. Führen Sie beispielsweise folgende Schritte aus:

    1. Wenn Ihr Bucket mit einem benutzerdefinierten KMS-Schlüssel verschlüsselt ist, wählen Sie für den Service KMS aus.

    2. Wählen Sie für Manuelle Aktionen Folgendes aus:

      • Encrypt

      • ReEncrypt von und ReEncrypt nach

      • Decrypt

      • DescribeKey

      • GenerateDataSchlüssel

    3. Wählen Sie für Ressourcen die Option Spezifisch aus.

    4. Wählen Sie unter Schlüssel die Option ARN hinzufügen aus. Geben Sie den ARN Ihres benutzerdefinierten Schlüssels als Ressource ein und wählen Sie Hinzufügen aus.

      Weitere Informationen finden Sie unter Schützen von Daten mithilfe serverseitiger Verschlüsselung mit in gespeicherten KMS-Schlüsseln AWS Key Management Service (SSE-KMS) im Amazon Simple Storage Service-Benutzerhandbuch.

    5. Wenn Sie möchten, dass Amazon RDS auf andere Buckets zugreifen kann, fügen Sie die ARNs für diese Buckets hinzu. Alternativ können Sie auch Zugriff auf alle Buckets und Objekte in Amazon S3 erlauben.

  8. Wählen Sie Next: Tags (Weiter: Tags) und danach Next: Review (Weiter: Prüfen) aus.

  9. Geben Sie unter Name einen Namen für Ihre IAM-Richtlinie ein, z. B. rds-s3-integration-policy. Sie verwenden diesen Namen, wenn Sie eine IAM-Rolle erstellen, um sie Ihrer DB-Instance zuzuweisen. Sie können auch einen optionalen Wert für Description (Beschreibung) hinzufügen.

  10. Wählen Sie Richtlinie erstellen aus.

Erstellen Sie eine AWS Identity and Access Management (IAM-) Richtlinie, die Amazon RDS Zugriff auf einen Amazon S3 S3-Bucket gewährt. Nachdem Sie die Richtlinie erstellt haben, notieren Sie den ARN der Richtlinie. Sie benötigen den ARN bei einem nachfolgenden Schritt.

Schließen Sie basierend auf dem erforderlichen Zugriffstyp die entsprechenden Aktionen ein:

  • GetObject – Erforderlich für die Übertragung von Dateien aus einem Amazon S3-Bucket zu Amazon RDS.

  • ListBucket – Erforderlich für die Übertragung von Dateien aus einem Amazon S3-Bucket zu Amazon RDS.

  • PutObject – Erforderlich für die Übertragung von Dateien von Amazon RDS in einen Amazon S3-Bucket.

Mit dem folgenden AWS CLI Befehl wird eine IAM-Richtlinie rds-s3-integration-policy mit diesen Optionen erstellt. Sie gewährt Zugriff auf einen Bucket namens DOC-EXAMPLE-BUCKET.

Beispiel

Für LinuxmacOS, oderUnix:

aws iam create-policy \ --policy-name rds-s3-integration-policy \ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-BUCKET/*" ] } ] }'

Das folgende Beispiel enthält Berechtigungen für benutzerdefinierte KMS-Schlüssel.

aws iam create-policy \ --policy-name rds-s3-integration-policy \ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject", "kms:Decrypt", "kms:Encrypt", "kms:ReEncrypt*", "kms:GenerateDataKey", "kms:DescribeKey", ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-BUCKET/*", "arn:aws:kms:::your-kms-arn" ] } ] }'

Windows:

aws iam create-policy ^ --policy-name rds-s3-integration-policy ^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-BUCKET/*" ] } ] }'

Das folgende Beispiel enthält Berechtigungen für benutzerdefinierte KMS-Schlüssel.

aws iam create-policy ^ --policy-name rds-s3-integration-policy ^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject", "kms:Decrypt", "kms:Encrypt", "kms:ReEncrypt", "kms:GenerateDataKey", "kms:DescribeKey", ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-BUCKET/*", "arn:aws:kms:::your-kms-arn" ] } ] }'

Schritt 2: (Optional) Erstellen einer IAM-Richtlinie für Ihren Amazon-S3-Bucket

Dieser Schritt ist nur unter den folgenden Bedingungen erforderlich:

  • Sie planen, Dateien von einem Konto (Konto A) in einen Amazon-S3-Bucket hochzuladen und von einem anderen Konto (Konto B) auf sie zuzugreifen.

  • Konto B ist Eigentümer des Buckets.

  • Konto B benötigt die volle Kontrolle über Objekte, die in den Bucket geladen wurden.

Wenn die vorhergehenden Bedingungen nicht auf Sie zutreffen, fahren Sie mit Schritt 3: Erstellen einer IAM-Rolle für Ihre DB-Instance und Anfügen Ihrer Richtlinie fort.

Zum Erstellen Ihrer Bucket-Richtlinie müssen Sie über Folgendes verfügen:

  • Konto-ID für Konto A

  • Benutzername für Konto A

  • ARN-Wert für den Amazon-S3-Bucket in Konto B

Eine Bucket-Richtlinie erstellen oder bearbeiten
  1. Melden Sie sich bei der Amazon S3 S3-Konsole an AWS Management Console und öffnen Sie sie unter https://console.aws.amazon.com/s3/.

  2. Wählen Sie in der Liste Buckets den Namen des Buckets aus, für den Sie eine Bucket-Richtlinie erstellen wollen oder dessen Bucket-Richtlinie Sie bearbeiten wollen.

  3. Wählen Sie Permissions (Berechtigungen).

  4. Wählen Sie unter Bucket-Richtlinie Bearbeiten aus. Dies öffnet die Seite Bucket-Richtlinie bearbeiten.

  5. Untersuchen Sie auf der Seite Edit bucket policy (Bucket-Richtlinie bearbeiten) Policy examples (Richtlinienbeispiele) im Amazon-S3-Benutzerhandbuch, wählen Sie Policy generator (Richtliniengenerator) aus, um automatisch eine Richtlinie zu generieren, oder bearbeiten Sie die JSON im Abschnitt Policy (Richtlinie).

    Wenn Sie den Policy-Generator wählen, wird der AWS Policy-Generator in einem neuen Fenster geöffnet:

    1. Wählen Sie auf der Seite AWS -Richtliniengenerator unter Richtlinientyp auswählen die Option S3-Bucket-Richtlinie aus.

    2. Fügen Sie eine Anweisung hinzu, indem Sie die Informationen in die bereitgestellten Felder eingeben, und wählen Sie dann Anweisung hinzufügen. Wiederholen Sie diesen Vorgang für so viele Anweisungen, wie Sie hinzufügen möchten. Weitere Informationen zu diesen Feldern finden Sie in der Referenz zu den IAM-JSON-Richtlinienelementen im IAM-Benutzerhandbuch.

      Anmerkung

      Der Einfachheit halber zeigt die Seite Bucket-Richtlinie bearbeiten den Bucket-ARN (Amazon-Ressourcenname) des aktuellen Buckets über dem Richtlinientextfeld an. Sie können diesen ARN zur Verwendung in den Anweisungen auf der Seite AWS -Richtliniengenerator kopieren.

    3. Wenn Sie mit dem Hinzufügen von Anweisungen fertig sind, wählen Sie Generieren von Richtlinien.

    4. Kopieren Sie den generierten Richtlinientext, wählen Sie Schließen und kehren Sie zur Seite Bucket-Richtlinie bearbeiten in der Amazon-S3-Konsole zurück.

  6. Bearbeiten Sie im Feld Richtlinie die vorhandene Richtlinie oder fügen Sie die Bucket-Richtlinie aus dem Richtliniengenerator ein. Beheben Sie Sicherheitswarnungen, Fehler, allgemeine Warnungen und Vorschläge bevor Sie Ihre Richtlinie speichern.

    { "Version": "2012-10-17", "Statement": [ { "Sid": "Example permissions", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-A-ID:account-A-user" }, "Action": [ "s3:PutObject", "s3:PutObjectAcl" ], "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET/*" ] } ] }
  7. Wählen Sie Speichern Sie die Änderungen, wodurch Sie zu der Seite Bucket-Berechtigungen zurückkehren.

Schritt 3: Erstellen einer IAM-Rolle für Ihre DB-Instance und Anfügen Ihrer Richtlinie

In diesem Schritt wird davon ausgegangen, dass Sie die IAM-Richtlinie in Schritt 1: Erstellen einer IAM-Richtlinie für Ihre Amazon-RDS-Rolle erstellt haben. In diesem Schritt erstellen Sie eine Rolle für Ihre DB-Instance von RDS for Oracle und fügen dann Ihre Richtlinie an die Rolle an.

So erstellen Sie eine IAM-Rolle, um Amazon RDS Zugriff auf einen Amazon-S3-Bucket zu gewähren
  1. Öffnen Sie die IAM-Managementkonsole.

  2. Wählen Sie im Navigationsbereich Rollen aus.

  3. Wählen Sie Rolle erstellen aus.

  4. Wählen Sie einen AWS -Service aus.

  5. Für Anwendungsfälle für andere AWS Dienste: Wählen Sie RDS und dann RDS — Rolle zur Datenbank hinzufügen. Wählen Sie anschließend Weiter.

  6. Geben Sie für Suchen unter Berechtigungsrichtlinien anfügen den Namen der von Ihnen in Schritt 1: Erstellen einer IAM-Richtlinie für Ihre Amazon-RDS-Rolle erstellten IAM-Richtlinie ein. Wählen Sie die Richtlinie aus, wenn sie in der Liste erscheint. Wählen Sie anschließend Weiter.

  7. Geben Sie unter Rollenname einen Namen für Ihre IAM-Rolle ein, z. B. rds-s3-integration-role. Sie können auch einen optionalen Wert für Description (Beschreibung) hinzufügen.

  8. Wählen Sie Rolle erstellen aus.

So erstellen Sie eine Rolle und fügen ihr eine Richtlinie an
  1. Erstellen Sie eine IAM-Rolle, die Amazon RDS in Ihrem Auftrag annehmen kann, um auf Ihre Amazon S3-Buckets zuzugreifen.

    Wir empfehlen die Verwendung der globalen Bedingungskontextschlüssel aws:SourceArn und aws:SourceAccount in ressourcenbasierten Vertrauensbeziehungen, um die Berechtigungen des Services auf eine bestimmte Ressource zu beschränken. Dies ist der effektivste Weg, um sich vor dem verwirrtes Stellvertreterproblem zu schützen.

    Sie können beide globalen Bedingungskontextschlüssel verwenden und der Wert aws:SourceArn enthält die Konto-ID. Stellen Sie in diesen Fällen sicher, dass der Wert aws:SourceAccount und das Konto im Wert aws:SourceArn dieselbe Konto-ID verwenden, wenn sie in derselben Anweisung verwendet werden.

    • Verwenden von aws:SourceArn wenn Sie einen serviceübergreifenden Zugriff für eine einzelne Ressource wünschen.

    • Verwenden von aws:SourceAccount wenn Sie zulassen möchten, dass eine Ressource in diesem Konto mit der betriebsübergreifenden Verwendung verknüpft wird.

    Stellen Sie in der Vertrauensbeziehung sicher, dass Sie den globalen Bedingungskontextschlüssel aws:SourceArn mit dem vollständigen Amazon-Ressourcennamen (ARN) der Ressourcen verwenden, die auf die Rolle zugreifen.

    Mit dem folgenden AWS CLI Befehl wird die rds-s3-integration-role für diesen Zweck benannte Rolle erstellt.

    Beispiel

    Für LinuxmacOS, oderUnix:

    aws iam create-role \ --role-name rds-s3-integration-role \ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": my_account_ID, "aws:SourceArn": "arn:aws:rds:Region:my_account_ID:db:dbname" } } } ] }'

    Windows:

    aws iam create-role ^ --role-name rds-s3-integration-role ^ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": my_account_ID, "aws:SourceArn": "arn:aws:rds:Region:my_account_ID:db:dbname" } } } ] }'

    Weitere Informationen finden Sie unter Erstellen einer Rolle zum Delegieren von Berechtigungen an einen IAM-Benutzer im IAM-Benutzerhandbuch.

  2. Notieren Sie nach dem Erstellen der Rolle den ARN der Rolle. Sie benötigen den ARN bei einem nachfolgenden Schritt.

  3. Fügen Sie die erstellte Richtlinie an die erstellte Rolle an.

    Mit dem folgenden AWS CLI Befehl wird die Richtlinie an die angegebene rds-s3-integration-role Rolle angehängt.

    Beispiel

    Für LinuxmacOS, oderUnix:

    aws iam attach-role-policy \ --policy-arn your-policy-arn \ --role-name rds-s3-integration-role

    Windows:

    aws iam attach-role-policy ^ --policy-arn your-policy-arn ^ --role-name rds-s3-integration-role

    Ersetzen Sie your-policy-arn durch den Richtlinien-ARN, den Sie im vorherigen Schritt notiert haben.

Schritt 4: So ordnen Sie Ihre IAM-Rolle Ihrer DB-Instance von RDS für Oracle zu

Der letzte Schritt bei der Konfiguration der Berechtigungen für die Amazon S3-Integration ist die Zuordnung Ihrer IAM-Rolle zu Ihrer DB-Instance. Beachten Sie die folgenden Voraussetzungen:

  • Sie müssen Zugriff auf eine IAM-Rolle haben, der die Amazon-S3-Berechtigungsrichtlinie angefügt ist.

  • Sie können jeweils nur eine IAM-Rolle Ihrer DB-Instance von RDS für Oracle hinzufügen.

  • Ihre DB-Instance muss sich im Status Verfügbar befinden.

So ordnen Sie Ihre IAM-Rolle Ihrer DB-Instance von RDS for Oracle zu
  1. Melden Sie sich bei der Amazon RDS-Konsole an AWS Management Console und öffnen Sie sie unter https://console.aws.amazon.com/rds/.

  2. Wählen Sie aus dem Navigationsbereich Datenbanken aus.

  3. Wählen Sie den Namen der DB-Instance von RDS für Oracle aus, um deren Details anzuzeigen.

  4. Auf derKonnektivität & SicherheitScrollen Sie nach unten zumIAM-Rollen verwaltenunten auf der Seite.

  5. Wählen Sie unter IAM-Rollen zu dieser Instance hinzufügen die Rolle aus, die Sie in Schritt 3: Erstellen einer IAM-Rolle für Ihre DB-Instance und Anfügen Ihrer Richtlinie erstellt haben.

  6. Wählen Sie unter Feature (Funktion) die Option S3_INTEGRATION aus.

    Hinzufügen der S3_INTEGRATION-Rolle
  7. Wählen Sie Rolle hinzufügen.

Der folgende AWS CLI Befehl fügt die Rolle einer Oracle-DB-Instance mit dem Namen hinzumydbinstance.

Beispiel

Für LinuxmacOS, oderUnix:

aws rds add-role-to-db-instance \ --db-instance-identifier mydbinstance \ --feature-name S3_INTEGRATION \ --role-arn your-role-arn

Windows:

aws rds add-role-to-db-instance ^ --db-instance-identifier mydbinstance ^ --feature-name S3_INTEGRATION ^ --role-arn your-role-arn

Ersetzen Sie your-role-arn durch den Rollen-ARN, den Sie im vorherigen Schritt notiert haben. Für die Option S3_INTEGRATION muss --feature-name angegeben werden.

Hinzufügen der Amazon S3-Integrationsoption

Für die Integration von Amazon RDS für Oracle in Amazon S3 muss Ihre DB-Instance einer Optionsgruppe zugeordnet sein, in der die Option S3_INTEGRATION enthalten ist.

So konfigurieren Sie eine Optionsgruppe für die Amazon S3-Integration
  1. Erstellen Sie eine neue Optionsgruppe oder identifizieren Sie eine vorhandene Optionsgruppe, der Sie die Option S3_INTEGRATION hinzufügen können.

    Weitere Informationen zum Erstellen einer Optionsgruppe finden Sie unter Erstellen einer Optionsgruppe.

  2. Fügen Sie die Option S3_INTEGRATION zur Optionsgruppe hinzu.

    Weitere Informationen zum Hinzufügen einer Option zu einer Optionsgruppe finden Sie unter Hinzufügen einer Option zu einer Optionsgruppe.

  3. Erstellen Sie eine neue DB-Instance von RDS für Oracle und ordnen Sie ihr die Optionsgruppe zu oder ändern Sie eine DB-Instance von RDS für Oracle, sodass ihr die Optionsgruppe zugeordnet wird.

    Weitere Informationen zum Erstellen einer DB-Instance finden Sie unter Erstellen einer Amazon RDS-DB-Instance.

    Informationen zum Ändern einer DB-Instance finden Sie unter Ändern einer Amazon RDS-DB-Instance.

So konfigurieren Sie eine Optionsgruppe für die Amazon S3-Integration
  1. Erstellen Sie eine neue Optionsgruppe oder identifizieren Sie eine vorhandene Optionsgruppe, der Sie die Option S3_INTEGRATION hinzufügen können.

    Weitere Informationen zum Erstellen einer Optionsgruppe finden Sie unter Erstellen einer Optionsgruppe.

  2. Fügen Sie die Option S3_INTEGRATION zur Optionsgruppe hinzu.

    Mit dem folgenden AWS CLI Befehl wird die S3_INTEGRATION Option beispielsweise einer Optionsgruppe mit dem Namen hinzugefügtmyoptiongroup.

    Beispiel

    Für LinuxmacOS, oderUnix:

    aws rds add-option-to-option-group \ --option-group-name myoptiongroup \ --options OptionName=S3_INTEGRATION,OptionVersion=1.0

    Windows:

    aws rds add-option-to-option-group ^ --option-group-name myoptiongroup ^ --options OptionName=S3_INTEGRATION,OptionVersion=1.0
  3. Erstellen Sie eine neue DB-Instance von RDS für Oracle und ordnen Sie ihr die Optionsgruppe zu oder ändern Sie eine DB-Instance von RDS für Oracle, sodass ihr die Optionsgruppe zugeordnet wird.

    Weitere Informationen zum Erstellen einer DB-Instance finden Sie unter Erstellen einer Amazon RDS-DB-Instance.

    Informationen über das Ändern einer DB-Instance von RDS für Oracle DB finden Sie unter Ändern einer Amazon RDS-DB-Instance.

Übertragen von Dateien zwischen Amazon RDS for Oracle und einem Amazon S3-Bucket

Wenn Sie Dateien zwischen einer DB-Instance von RDS für Oracle und einem Amazon-S3-Bucket übertragen möchten, können Sie das Amazon-RDS-Paket rdsadmin_s3_tasks verwenden. Sie können Dateien beim Hochladen mit GZIP komprimieren und beim Herunterladen dekomprimieren.

Anforderungen und Einschränkungen für Dateiübertragungen

Bevor Sie Dateien zwischen Ihrer DB-Instance und einem Amazon S3 S3-Bucket übertragen, beachten Sie Folgendes:

  • Das rdsadmin_s3_tasks Paket überträgt Dateien, die sich in einem einzigen Verzeichnis befinden. Sie können keine Unterverzeichnisse in eine Übertragung einbeziehen.

  • Die maximale Objektgröße in einem Amazon S3-Bucket beträgt 5 TB.

  • Aufgaben, die von rdsadmin_s3_tasks run asynchron erstellt wurden.

  • Sie können Dateien aus dem Data Pump-Verzeichnis, z. B.DATA_PUMP_DIR, oder aus einem beliebigen vom Benutzer erstellten Verzeichnis hochladen. Sie können keine Dateien aus einem Verzeichnis hochladen, das von Oracle-Hintergrundprozessen verwendet wird, wie z. B. den trace Verzeichnissen adumpbdump, oder.

  • Das Download-Limit beträgt 2000 Dateien pro Prozeduraufruf fürdownload_from_s3. Wenn Sie mehr als 2000 Dateien von Amazon S3 herunterladen müssen, teilen Sie den Download in separate Aktionen mit maximal 2000 Dateien pro Prozeduraufruf auf.

  • Wenn in Ihrem Download-Ordner eine Datei vorhanden ist und Sie versuchen, eine Datei mit demselben Namen herunterzuladen überspringt download_from_s3 den Download. Um eine Datei aus dem Download-Verzeichnis zu entfernen, verwenden Sie die PL/SQL-Prozedur UTL_FILE.FREMOVE.

Hochladen von Dateien aus Ihrer DB-Instance von RDS for Oracle in einen Amazon-S3-Bucket

Verwenden Sie zum Hochladen von Dateien aus Ihrer Oracle DB-Instance in einen Amazon-S3-Bucket das Verfahren rdsadmin.rdsadmin_s3_tasks.upload_to_s3. Sie können beispielsweise Oracle Recovery Manager (RMAN)-Sicherungsdateien oder Oracle-Data-Pump-Dateien hochladen. Weitere Informationen zur Arbeit mit Objekten finden Sie im Amazon Simple Storage Service User Guide. Weitere Informationen zur Durchführung von RMAN-Sicherungen finden Sie unter Ausführen allgemeiner RMAN-Aufgaben für Oracle DB-Instances.

Die Prozedur rdsadmin.rdsadmin_s3_tasks.upload_to_s3 hat die folgenden Parameter.

Parametername Datentyp Standard Erforderlich Beschreibung

p_bucket_name

VARCHAR2

Erforderlich

Der Name des Amazon S3-Buckets, in den die Dateien hochgeladen werden sollen.

p_directory_name

VARCHAR2

Erforderlich

Der Name des Oracle-Verzeichnisobjekts, aus dem Dateien hochgeladen werden sollen. Das Verzeichnis kann jedes beliebige vom Benutzer erstellte Verzeichnisobjekt oder das Data Pump-Verzeichnis, z. B. , sei DATA_PUMP_DIR. Sie können keine Dateien aus einem Verzeichnis hochladen, das von Hintergrundprozessen wie, und verwendet wird. adump bdump trace

Anmerkung

Sie können nur Dateien aus dem angegebenen Verzeichnis hochladen. Sie können keine Dateien in Unterverzeichnisse des angegebenen Verzeichnisses hochladen.

p_s3_prefix

VARCHAR2

Erforderlich

Ein Amazon S3-Dateinamenspräfix, zu dem Dateien hochgeladen werden. Ein leeres Präfix lädt alle Dateien zur obersten Ebene im angegebenen Amazon S3-Bucket hoch und fügt kein Präfix an die Dateinamen an.

Bei dem Präfix folder_1/oradb werden Dateien z. B. zu folder_1 hochgeladen. In diesem Fall wird das Präfix oradb zu jeder Datei hinzugefügt.

p_prefix

VARCHAR2

Erforderlich

Ein Dateinamenspräfix, dem Dateinamen entsprechen müssen, damit die Dateien hochgeladen werden. Ein leeres Präfix lädt alle Dateien im angegebenen Verzeichnis hoch.

p_compression_level

NUMBER

0

optional

Der Grad der GZIP-Komprimierung. Der Bereich gültiger Werte lautet 0 bis 9:

  • 0 – Keine Komprimierung

  • 1 – Schnellste Komprimierung

  • 9 – Höchste Komprimierung

p_bucket_owner_full_control

VARCHAR2

optional

Die Einstellung der Zugriffssteuerung für den Bucket. Die einzigen gültigen Werte sind null und FULL_CONTROL. Diese Einstellung ist nur erforderlich, wenn Sie Dateien von einem Konto (Konto A) in einen Bucket hochladen, der einem anderen Konto (Konto B) gehört, und Konto B die vollständige Kontrolle über die Dateien benötigt.

Der Rückgabewert für die rdsadmin.rdsadmin_s3_tasks.upload_to_s3-Prozedur ist eine Aufgaben-ID.

Das folgende Beispiel lädt alle Dateien im DATA_PUMP_DIR Verzeichnis in den Amazon S3 S3-Bucket mit dem Namen DOC-EXAMPLE-BUCKET hoch. Die Dateien werden nicht komprimiert.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_prefix => '', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt alle Dateien mit dem Präfix db im Verzeichnis DATA_PUMP_DIR in den Amazon S3-Bucket DOC-EXAMPLE-BUCKET hoch. Amazon RDS wendet die höchste Stufe der GZIP-Komprimierung auf die Dateien an.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_prefix => 'db', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR', p_compression_level => 9) AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt alle Dateien im Verzeichnis DATA_PUMP_DIR in den Amazon S3-Bucket DOC-EXAMPLE-BUCKET hoch. Die Dateien werden in einen dbfiles-Ordner hochgeladen. In diesem Beispiel ist der GZIP-Komprimierungsgrad 1, was die schnellste Komprimierungsstufe ist.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_prefix => '', p_s3_prefix => 'dbfiles/', p_directory_name => 'DATA_PUMP_DIR', p_compression_level => 1) AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt alle Dateien im Verzeichnis DATA_PUMP_DIR in den Amazon S3-Bucket DOC-EXAMPLE-BUCKET hoch. Die Dateien werden in einen dbfiles-Order hochgeladen und ora wird an den Anfang eines jeden Dateinamens hinzugefügt. Es erfolgt keine Komprimierung.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_prefix => '', p_s3_prefix => 'dbfiles/ora', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

Im folgenden Beispiel wird davon ausgegangen, dass der Befehl in Konto A ausgeführt wird, aber Konto B die vollständige Kontrolle über den Bucket-Inhalt benötigt. Der Befehl rdsadmin_s3_tasks.upload_to_s3 überträgt alle Dateien im DATA_PUMP_DIR-Verzeichnis auf den Bucket namens s3bucketOwnedByAccountB. Die Zugriffskontrolle ist auf FULL_CONTROL eingestellt, damit Konto B auf die Dateien im Bucket zugreifen kann. Der GZIP-Komprimierungsgrad ist 6, was Geschwindigkeit und Dateigröße ausgleicht.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 's3bucketOwnedByAccountB', p_prefix => '', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR', p_bucket_owner_full_control => 'FULL_CONTROL', p_compression_level => 6) AS TASK_ID FROM DUAL;

In jedem Beispiel gibt die Anweisung SELECT die ID der Aufgabe in einem VARCHAR2-Datentyp zurück.

Sie können das Ergebnis anzeigen, indem Sie die Ausgabedatei der Aufgabe anzeigen.

SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-task-id.log'));

Ersetzen Sie task-id durch die von der Prozedur zurückgegebene Aufgaben-ID.

Anmerkung

Die Aufgaben werden asynchron ausgeführt.

Hochladen von Dateien aus einem Amazon S3-Bucket zu einer Oracle-DB-Instance

Verwenden Sie zum Herunterladen von Dateien aus einem Amazon-S3-Bucket zu einer RDS-für-Oracle-Instance das Amazon-RDS-Verfahren rdsadmin.rdsadmin_s3_tasks.download_from_s3.

Die Prozedur download_from_s3 hat die folgenden Parameter.

Parametername Datentyp Standard Erforderlich Beschreibung

p_bucket_name

VARCHAR2

Erforderlich

Der Name des Amazon S3-Buckets, aus dem die Dateien heruntergeladen werden sollen.

p_directory_name

VARCHAR2

Erforderlich

Der Name des Oracle-Verzeichnisobjekts, in das die Dateien heruntergeladen werden sollen. Das Verzeichnis kann jedes beliebige vom Benutzer erstellte Verzeichnisobjekt oder das Data Pump-Verzeichnis, z. B. , sei DATA_PUMP_DIR.

p_error_on_zero_downloads

VARCHAR2

FALSE

Optional

Ein Flag, das bestimmt, ob die Aufgabe einen Fehler auslöst, wenn keine Objekte im Amazon-S3-Bucket dem Präfix entsprechen. Wenn dieser Parameter nicht festgelegt oder auf FALSE (Standard) eingestellt ist, gibt die Aufgabe eine Meldung aus, dass keine Objekte gefunden wurden, löst jedoch keine Ausnahme oder einen Fehler aus. Wenn dieser Parameter TRUE ist, löst die Aufgabe eine Ausnahme und einen Fehler aus.

Beispiele für Präfixspezifikationen, die bei Übereinstimmungsprüfungen problematisch sein können, sind Leerzeichen in Präfixen wie in ' import/test9.log' und Groß- und Kleinschreibung wie in test9.log und test9.LOG.

p_s3_prefix

VARCHAR2

Erforderlich

Ein Dateinamenspräfix, dem Dateinamen entsprechen müssen, damit die Dateien heruntergeladen werden. Wenn das Präfix leer ist, werden alle Dateien auf der höchsten Verzeichnisebene des angegebenen Amazon S3-Buckets heruntergeladen, nicht jedoch Dateien in Unterordnern in diesem Bucket.

Das Verfahren lädt Amazon S3-Objekte nur aus dem Ordner der ersten Ebene mit dem entsprechenden Präfix herunter. Verschachtelte Verzeichnisstrukturen, die dem angegebenen Präfix entsprechen, werden nicht heruntergeladen.

Angenommen, ein Amazon S3-Bucket hat die Ordnerstruktur folder_1/folder_2/folder_3. Geben Sie das 'folder_1/folder_2/'-Präfix an. In diesem Fall werden nur die Dateien in folder_2 und nicht die Dateien in folder_1 oder folder_3 heruntergeladen.

Wenn Sie stattdessen das Präfix 'folder_1/folder_2' angeben, werden alle Dateien in folder_1, die mit dem Präfix 'folder_2' übereinstimmen, heruntergeladen, und es werden keine Dateien in folder_2 heruntergeladen.

p_decompression_format

VARCHAR2

Optional

Das Dekomprimierungsformat. Gültige Werte sind NONE für keine Dekomprimierung und GZIP für die Dekomprimierung.

Der Rückgabewert für die rdsadmin.rdsadmin_s3_tasks.download_from_s3-Prozedur ist eine Aufgaben-ID.

Das folgende Beispiel lädt alle Dateien namens DOC-EXAMPLE-BUCKET im Amazon-S3-Bucket in das DATA_PUMP_DIR-Verzeichnis herunter. Die Dateien werden nicht komprimiert, daher wird keine Dekomprimierung angewendet.

SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt alle Dateien mit dem Präfix db im Amazon S3-Bucket DOC-EXAMPLE-BUCKET in das Verzeichnis DATA_PUMP_DIR herunter. Die Dateien werden mit GZIP komprimiert, daher wird Dekomprimierung angewendet. Der Parameter p_error_on_zero_downloads aktiviert die Präfixfehlerüberprüfung. Wenn das Präfix also mit keiner Datei im Bucket übereinstimmt, löst die Aufgabe eine Ausnahme und einen Fehler aus.

SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_s3_prefix => 'db', p_directory_name => 'DATA_PUMP_DIR', p_decompression_format => 'GZIP', p_error_on_zero_downloads => 'TRUE') AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt alle Dateien im Ordner myfolder/ im Amazon S3-Bucket DOC-EXAMPLE-BUCKET in das Verzeichnis DATA_PUMP_DIR herunter. Verwenden Sie zur Angabe des Amazon-S3-Ordners den Parameter p_s3_prefix. Die hochgeladenen Dateien werden mit GZIP komprimiert, beim Download aber nicht dekomprimiert.

SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_s3_prefix => 'myfolder/', p_directory_name => 'DATA_PUMP_DIR', p_decompression_format => 'NONE') AS TASK_ID FROM DUAL;

Das folgende Beispiel lädt die Datei mydumpfile.dmp im Amazon-S3-Bucket DOC-EXAMPLE-BUCKET ins Verzeichnis DATA_PUMP_DIR herunter. Es erfolgt keine Dekomprimierung.

SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_s3_prefix => 'mydumpfile.dmp', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

In jedem Beispiel gibt die Anweisung SELECT die ID der Aufgabe in einem VARCHAR2-Datentyp zurück.

Sie können das Ergebnis anzeigen, indem Sie die Ausgabedatei der Aufgabe anzeigen.

SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-task-id.log'));

Ersetzen Sie task-id durch die von der Prozedur zurückgegebene Aufgaben-ID.

Anmerkung

Die Aufgaben werden asynchron ausgeführt.

Sie können mithilfe des Oracle-Verfahrens UTL_FILE.FREMOVE Dateien aus einem Verzeichnis entfernen. Weitere Informationen finden Sie unter FREMOVE Procedure in der Oracle-Dokumentation.

Überwachen des Status einer Dateiübertragung

Dateiübertragungsaufgaben veröffentlichen Amazon RDS-Ereignisse, wenn sie starten und wenn sie abgeschlossen werden. Die Ereignisnachricht enthält die Aufgaben-ID für die Dateiübertragung. Informationen zum Anzeigen dieser Grenze finden Sie unter Anzeigen von Amazon RDS-Ereignissen.

Sie können den Status einer laufenden Aufgabe in einer bdump-Datei einsehen. Die bdump-Dateien befinden sich im Verzeichnis /rdsdbdata/log/trace. Jeder bdump-Dateiname weist das folgende Format auf.

dbtask-task-id.log

Ersetzen Sie task-id durch die ID der Aufgabe, die Sie überwachen möchten.

Anmerkung

Die Aufgaben werden asynchron ausgeführt.

Sie können das gespeicherte Verfahren rdsadmin.rds_file_util.read_text_file zur Ansicht des Inhalts der bdump-Dateien verwenden. Beispiel: Die folgende Abfrage gibt den Inhalt der bdump-Datei dbtask-1234567890123-1234.log zurück.

SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-1234567890123-1234.log'));

Das folgende Beispiel zeigt die Protokolldatei für eine fehlgeschlagene Übertragung.

TASK_ID -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 1234567890123-1234 TEXT -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 2023-04-17 18:21:33.993 UTC [INFO ] File #1: Uploading the file /rdsdbdata/datapump/A123B4CDEF567890G1234567890H1234/sample.dmp to Amazon S3 with bucket name DOC-EXAMPLE-BUCKET and key sample.dmp. 2023-04-17 18:21:34.188 UTC [ERROR] RDS doesn't have permission to write to Amazon S3 bucket name DOC-EXAMPLE-BUCKET and key sample.dmp. 2023-04-17 18:21:34.189 UTC [INFO ] The task failed.

Fehlerbehebung für die Amazon-S3-Integration

Tipps zur Fehlerbehebung finden Sie im AWS re:POST-Artikel Wie behebe ich Probleme, wenn ich Amazon RDS for Oracle mit Amazon S3 integriere? .

Entfernen der Amazon S3-Integrationsoption

Sie können die Amazon S3-Integrationsoption aus einer DB-Instance entfernen.

Um die Amazon S3-Integrationsoption aus einer DB-Instance zu entfernen, führen Sie einen der folgenden Schritte durch:

  • Um die Amazon S3-Integrationsoption aus mehreren DB-Instances zu entfernen, entfernen Sie die Option S3_INTEGRATION aus der Optionsgruppe, der die DB-Instances angehören. Diese Änderung wirkt sich auf alle DB-Instances aus, die die betreffende Optionsgruppe verwenden. Weitere Informationen finden Sie unter Entfernen einer Option aus einer Optionsgruppe.

  • Um die Amazon S3-Integrationsoption aus einer einzelnen DB-Instance zu entfernen, ändern Sie die Instance und geben Sie eine andere Optionsgruppe an, in der die Option S3_INTEGRATION nicht enthalten ist. Sie können die (leere) Standardoptionsgruppe oder eine andere benutzerdefinierte Optionsgruppe angeben. Weitere Informationen finden Sie unter Ändern einer Amazon RDS-DB-Instance.