Trasferimento di file tra RDS Oracle e un EFS file system Amazon - Amazon Relational Database Service

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Trasferimento di file tra RDS Oracle e un EFS file system Amazon

Per trasferire file tra un'istanza RDS for Oracle e un EFS file system Amazon, crea almeno una directory Oracle e configura le autorizzazioni del EFS file system per controllare l'accesso all'istanza DB.

Creazione di una directory Oracle

Per creare una directory Oracle, usa la procedura rdsadmin.rdsadmin_util.create_directory_efs. La procedura include i seguenti parametri.

Nome del parametro Tipo di dati Default Campo obbligatorio Descrizione

p_directory_name

VARCHAR2

Il nome della directory Oracle.

p_path_on_efs

VARCHAR2

Il percorso sul EFS file system. Il prefisso del nome del percorso utilizza lo schema/rdsefs-fsid/, dove fsid è un segnaposto per l'ID del EFS file system.

Ad esempio, se il EFS file system ha un nome fs-1234567890abcdef0 e si crea una sottodirectory su questo file system denominatamydir, è possibile specificare il seguente valore:

/rdsefs-fs-1234567890abcdef0/mydir

Si supponga di creare una sottodirectory denominata /datapump1 nel EFS file system. fs-1234567890abcdef0 L'esempio seguente crea una directory Oracle DATA_PUMP_DIR_EFS che punta alla /datapump1 directory del EFS file system. Il valore del percorso del file system per il parametrop_path_on_efs è preceduto dalla stringa /rdsefs-.

BEGIN rdsadmin.rdsadmin_util.create_directory_efs( p_directory_name => 'DATA_PUMP_DIR_EFS', p_path_on_efs => '/rdsefs-fs-1234567890abcdef0/datapump1'); END; /

Trasferimento di dati da e verso un EFS file system: esempi

Nell'esempio seguente si usa Oracle Data Pump per esportare la tabella denominata MY_TABLE nel file datapump.dmp. Questo file risiede in un EFS file system.

DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN(operation => 'EXPORT', job_mode => 'TABLE', job_name=>null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-exp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /

Nell'esempio seguente si usa Oracle Data Pump per importare la tabella denominata MY_TABLE dal file datapump.dmp. Questo file risiede in un EFS file system.

DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'TABLE', job_name => null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-imp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /

Per ulteriori informazioni, consulta Importazione di dati in Oracle su Amazon RDS.