Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Übertragung von Dateien zwischen RDS Oracle und einem EFS Amazon-Dateisystem
Um Dateien zwischen einer RDS for Oracle-Instance und einem EFS Amazon-Dateisystem zu übertragen, erstellen Sie mindestens ein Oracle-Verzeichnis und konfigurieren Sie EFS Dateisystemberechtigungen, um den DB-Instance-Zugriff zu kontrollieren.
Themen
Erstellen eines Oracle-Verzeichnisses
verwenden Sie die Prozedur rdsadmin.rdsadmin_util.create_directory_efs
, um ein Oracle-Verzeichnis zu erstellen. Die Prozedur hat die folgenden Parameter.
Parametername | Datentyp | Standard | Erforderlich | Beschreibung |
---|---|---|---|---|
|
VARCHAR2 |
– |
Ja |
Der Name des Oracle-Verzeichnisses. |
|
VARCHAR2 |
– |
Ja |
Der Pfad im EFS Dateisystem. Das Präfix des Pfadnamens verwendet das Muster Wenn Ihr EFS Dateisystem beispielsweise benannt
|
Gehen Sie davon aus, dass Sie ein Unterverzeichnis mit dem Namen /datapump1
auf dem EFS Dateisystem erstellen. fs-1234567890abcdef0
Im folgenden Beispiel wird ein Oracle-Verzeichnis erstelltDATA_PUMP_DIR_EFS
, das auf das /datapump1
Verzeichnis im EFS Dateisystem verweist. Dem Dateisystempfadwert für den p_path_on_efs
-Parameter wird die Zeichenfolge /rdsefs-
vorangestellt.
BEGIN rdsadmin.rdsadmin_util.create_directory_efs( p_directory_name => 'DATA_PUMP_DIR_EFS', p_path_on_efs => '/rdsefs-
fs-1234567890abcdef0
/datapump1
'); END; /
Übertragung von Daten zu und von einem EFS Dateisystem: Beispiele
Im folgenden Beispiel wird Oracle Data Pump verwendet, um die Tabelle mit dem Namen MY_TABLE
in die Datei datapump.dmp
zu exportieren. Diese Datei befindet sich in einem EFS Dateisystem.
DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN(operation => 'EXPORT', job_mode => 'TABLE', job_name=>null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-exp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
Im folgenden Beispiel wird Oracle Data Pump verwendet, um die Tabelle mit dem Namen MY_TABLE
aus der Datei datapump.dmp
zu importieren. Diese Datei befindet sich in einem EFS Dateisystem.
DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'TABLE', job_name => null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-imp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
Weitere Informationen finden Sie unter Daten in Oracle auf Amazon importieren RDS.