Mengimpor menggunakan Oracle Data Pump - Layanan Basis Data Relasional Amazon

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Mengimpor menggunakan Oracle Data Pump

Oracle Data Pump adalah utilitas yang memungkinkan Anda untuk mengekspor data Oracle ke file dump dan mengimpornya ke basis data Oracle lain. Ini adalah pengganti jangka panjang untuk utilitas Ekspor/Impor Oracle. Oracle Data Pump adalah cara yang disarankan untuk memindahkan sejumlah besar data dari basis data Oracle ke instans DB Amazon RDS.

Contoh dalam bagian ini menunjukkan satu cara untuk mengimpor data ke dalam basis data Oracle, tetapi Oracle Data Pump mendukung teknik lainnya. Lihat informasi yang lebih lengkap dalam dokumentasi Oracle Database.

Contoh dalam bagian ini menggunakan paket DBMS_DATAPUMP. Anda dapat menyelesaikan tugas yang sama menggunakan utilitas baris perintah impdp dan expdp Oracle Data Pump. Anda dapat menginstal utilitas ini pada host jarak jauh sebagai bagian dari instalasi Oracle Client, termasuk Oracle Instant Client. Untuk informasi selengkapnya, lihat Bagaimana cara menggunakan Oracle Instant Client untuk menjalankan Impor atau Ekspor Data Pump untuk instans DB Amazon RDS for Oracle saya?

Gambaran umum Oracle Data Pump

Oracle Data Pump terdiri dari komponen-komponen berikut:

  • Klien baris perintah dan expdp impdp

  • Paket PL/SQL DBMS_DATAPUMP

  • Paket PL/SQL DBMS_METADATA

Anda dapat menggunakan Oracle Data Pump untuk skenario berikut:

  • Impor data dari basis data Oracle, baik on-premise maupun di sebuah instans Amazon EC2, ke instans DB RDS for Oracle.

  • Impor data dari instans DB RDS for Oracle ke basis data Oracle, baik on-premise maupun di sebuah instans Amazon EC2.

  • Impor data antara instans DB RDS for Oracle, misalnya, untuk memigrasi data dari EC2-Klasik ke VPC.

Untuk mengunduh utilitas Oracle Data Pump, lihat Unduhan perangkat lunak basis data Oracle di situs web Oracle Technology Network. Untuk pertimbangan kompatibilitas ketika memigrasikan antarversi Oracle Database, lihat dokumentasi Oracle Database.

Alur kerja Oracle Data Pump

Biasanya, Anda menggunakan Oracle Data Pump dalam tahapan berikut:

  1. Ekspor data Anda ke dalam file dump pada basis data sumber.

  2. Unggah file dump Anda ke instans DB RDS for Oracle tujuan Anda. Anda dapat mentransfer menggunakan bucket Amazon S3 atau menggunakan tautan basis data antara dua basis data tersebut.

  3. Impor data dari file dump Anda ke instans DB RDS for Oracle.

Praktik terbaik Oracle Data Pump

Saat Anda menggunakan Oracle Data Pump untuk mengimpor data ke dalam instans RDS for Oracle, kami merekomendasikan praktik terbaik berikut:

  • Lakukan impor dalam mode schema atau table untuk mengimpor skema dan objek tertentu.

  • Hanya impor skema yang diperlukan oleh aplikasi Anda.

  • Jangan mengimpor dalam mode full atau mengimpor skema untuk komponen yang dikelola sistem.

    Karena RDS for Oracle tidak mengizinkan akses untuk pengguna administratif SYS atau SYSDBA, tindakan ini dapat merusak kamus data Oracle dan memengaruhi stabilitas basis data Anda.

  • Saat memuat data dalam jumlah besar, lakukan hal berikut:

    1. Transfer file dump ke instans DB RDS for Oracle target.

    2. Ambil snapshot DB dari instans Anda.

    3. Uji pengimporan untuk memastikan keberhasilannya.

    Jika komponen basis data tidak divalidasi, Anda dapat menghapus instans DB dan membuat ulang instans tersebut dari snapshot DB. Instans DB yang dipulihkan mencakup file dump yang ditetapkan pada instans DB saat Anda mengambil snapshot DB.

  • Jangan mengimpor file dump yang dibuat menggunakan parameter ekspor Oracle Data PumpTRANSPORT_TABLESPACES, TRANSPORTABLE, atau TRANSPORT_FULL_CHECK. Instans DB RDS for Oracle tidak mendukung pengimporan file dump ini.

  • Jangan mengimpor file dump yang berisi objek Oracle Scheduler di SYS, SYSTEM ,RDSADMIN, RDSSEC, serta RDS_DATAGUARD, dan yang termasuk dalam kategori berikut:

    • Tugas

    • Program

    • Jadwal

    • Rantai

    • Aturan

    • Konteks evaluasi

    • Set aturan

    Instans DB RDS for Oracle tidak mendukung pengimporan file dump ini.

  • Untuk mengecualikan objek Oracle Scheduler yang tidak didukung, gunakan arahan tambahan selama ekspor Data Pump. Jika Anda menggunakanDBMS_DATAPUMP, Anda dapat menambahkan METADATA_FILTER tambahan sebelum DBMS_METADATA.START_JOB:

    DBMS_DATAPUMP.METADATA_FILTER( v_hdnl, 'EXCLUDE_NAME_EXPR', q'[IN (SELECT NAME FROM SYS.OBJ$ WHERE TYPE# IN (66,67,74,79,59,62,46) AND OWNER# IN (SELECT USER# FROM SYS.USER$ WHERE NAME IN ('RDSADMIN','SYS','SYSTEM','RDS_DATAGUARD','RDSSEC') ) ) ]', 'PROCOBJ' );

    Jika Anda menggunakanexpdp, buat file parameter yang berisi arahan exclude sebagaimana ditunjukkan dalam contoh berikut. Kemudian gunakan PARFILE=parameter_file dengan perintah expdp.

    exclude=procobj:"IN (SELECT NAME FROM sys.OBJ$ WHERE TYPE# IN (66,67,74,79,59,62,46) AND OWNER# IN (SELECT USER# FROM SYS.USER$ WHERE NAME IN ('RDSADMIN','SYS','SYSTEM','RDS_DATAGUARD','RDSSEC') ) )"

Mengimpor data dengan Oracle Data Pump dan bucket Amazon S3

Proses impor berikut menggunakan Oracle Data Pump dan bucket Amazon S3. Langkah-langkahnya adalah sebagai berikut:

  1. Ekspor data pada basis data sumber menggunakan paket DBMS_DATAPUMP Oracle.

  2. Tempatkan file dump di bucket Amazon S3.

  3. Unduh file dump dari bucket Amazon S3 ke direktori DATA_PUMP_DIR pada instans DB RDS for Oracle target.

  4. Impor data dari file dump yang disalin ke dalam instans DB RDS for Oracle menggunakan paket DBMS_DATAPUMP.

Persyaratan untuk Mengimpor data dengan Oracle Data Pump dan bucket Amazon S3

Proses ini memiliki persyaratan sebagai berikut:

  • Pastikan bucket Amazon S3 tersedia untuk transfer file, dan bucket Amazon S3 Wilayah AWS sama dengan instans DB. Untuk mengetahui petunjuknya, lihat Membuat bucket di Panduan Memulai Amazon Simple Storage Service.

  • Objek yang Anda unggah ke dalam bucket Amazon S3 harus sebesar 5 TB atau kurang. Untuk mengetahui informasi selengkapnya tentang cara menggunakan objek di Amazon S3, lihat Panduan Pengguna Amazon Simple Storage Service.

    catatan

    Jika file dump lebih besar dari 5 TB, Anda dapat menjalankan ekspor Oracle Data Pump dengan opsi paralel. Operasi ini menyebarkan data ke dalam banyak file dump sehingga setiap file tidak melebihi batas 5 TB.

  • Anda harus menyiapkan bucket Amazon S3 untuk integrasi Amazon RDS dengan mengikuti petunjuk di Mengonfigurasi izin IAM untuk integrasi RDS for Oracle dengan Amazon S3.

  • Anda harus memastikan bahwa ruang penyimpanan cukup untuk menyimpan file dump pada instans sumber dan instans DB target.

catatan

Proses ini mengimpor file dump ke dalam direktori DATA_PUMP_DIR, direktori yang telah dikonfigurasi di semua instans DB Oracle. Direktori ini terletak di volume penyimpanan yang sama dengan file data Anda. Saat Anda mengimpor file dump, file data Oracle yang ada menggunakan lebih banyak ruang. Dengan demikian, Anda harus memastikan bahwa instans DB Anda dapat mengakomodasi penggunaan ruang tambahan. File dump yang diimpor tidak secara otomatis dihapus atau dihilangkan dari direktori DATA_PUMP_DIR. Untuk menghapus file dump yang diimpor, gunakan UTL_FILE.FREMOVE, yang ada di situs web Oracle.

Langkah 1: Berikan hak istimewa kepada pengguna basis data pada instans DB target RDS for Oracle

Pada langkah ini, Anda membuat skema yang akan menerima impor data dan memberikan hak istimewa yang diperlukan kepada pengguna.

Untuk membuat pengguna dan memberikan hak istimewa yang diperlukan pada instans target RDS for Oracle
  1. Gunakan SQL*Plus atau Oracle SQL Developer untuk masuk sebagai pengguna master ke instans DB RDS for Oracle tempat data akan diimpor. Lihat informasi yang lebih lengkap tentang cara menghubungi instans Anda di Menghubungkan ke instans RDS for Oracle DB.

  2. Buat ruang tabel yang diperlukan sebelum Anda mengimpor data. Untuk informasi selengkapnya, lihat Membuat dan mengukur tablespace.

  3. Buat akun pengguna dan berikan izin serta peran yang diperlukan jika akun pengguna tempat impor data tidak ada. Jika Anda berencana mengimpor data ke dalam beberapa skema pengguna, buat setiap akun pengguna serta berikan hak istimewa dan peran yang diperlukan ke akun tersebut.

    Misalnya, pernyataan SQL berikut membuat pengguna baru serta memberikan izin dan peran yang diperlukan untuk mengimpor data ke dalam skema yang dimiliki oleh pengguna ini. Ganti schema_1 dengan nama skema Anda pada langkah ini dan pada langkah selanjutnya.

    CREATE USER schema_1 IDENTIFIED BY my_password; GRANT CREATE SESSION, RESOURCE TO schema_1; ALTER USER schema_1 QUOTA 100M ON users;
    catatan

    Tentukan kata sandi selain perintah yang ditampilkan di sini sebagai praktik terbaik keamanan.

    Pernyataan sebelumnya memberi pengguna baru hak istimewa CREATE SESSION dan peran RESOURCE. Anda mungkin memerlukan hak istimewa dan peran tambahan, tergantung objek basis data yang Anda impor.

Langkah 2: Ekspor data ke file dump menggunakan DBMS_DATAPUMP

Untuk membuat file dump, gunakan paket DBMS_DATAPUMP.

Untuk mengekspor data Oracle ke dalam file dump
  1. Gunakan SQL Plus atau Oracle SQL Developer untuk terhubung dengan instans DB Oracle sumber dengan pengguna administratif. Jika basis data sumber adalah instans DB RDS for Oracle, hubungkan dengan pengguna utama Amazon RDS.

  2. Ekspor data dengan memanggil prosedur DBMS_DATAPUMP.

    Skrip berikut mengekspor skema SCHEMA_1 ke file dump bernama sample.dmp dalam direktori DATA_PUMP_DIR. Ganti SCHEMA_1 dengan nama skema yang ingin Anda ekspor.

    DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'EXPORT', job_mode => 'SCHEMA', job_name => null ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl , filename => 'sample.dmp' , directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample_exp.log', directory => 'DATA_PUMP_DIR' , filetype => dbms_datapump.ku$_file_type_log_file ); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'SCHEMA_EXPR','IN (''SCHEMA_1'')'); DBMS_DATAPUMP.METADATA_FILTER( v_hdnl, 'EXCLUDE_NAME_EXPR', q'[IN (SELECT NAME FROM SYS.OBJ$ WHERE TYPE# IN (66,67,74,79,59,62,46) AND OWNER# IN (SELECT USER# FROM SYS.USER$ WHERE NAME IN ('RDSADMIN','SYS','SYSTEM','RDS_DATAGUARD','RDSSEC') ) ) ]', 'PROCOBJ' ); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
    catatan

    Data Pump memulai tugas secara asinkron. Untuk informasi tentang pemantauan tugas Data Pump, lihat Monitoring job status dalam dokumentasi Oracle.

  3. (Opsional) Lihat konten log ekspor dengan memanggil prosedur rdsadmin.rds_file_util.read_text_file. Untuk informasi selengkapnya, lihat Membaca file di direktori instans DB.

Langkah 3: Unggah file dump ke bucket Amazon S3 Anda

Gunakan prosedur Amazon RDS rdsadmin.rdsadmin_s3_tasks.upload_to_s3 untuk menyalin file dump ke bucket Amazon S3. Contoh berikut ini mengunggah semua file dari direktori DATA_PUMP_DIR ke bucket Amazon S3 bernama DOC-EXAMPLE-BUCKET.

SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

Pernyataan SELECT mengembalikan ID tugas dalam jenis data VARCHAR2. Untuk informasi selengkapnya, lihat Mengunggah file dari instans DB RDS for Oracle ke bucket Amazon S3.

Langkah 4: Unduh file dump dari bucket Amazon S3 Anda ke instans DB target Anda

Lakukan langkah ini menggunakan prosedur rdsadmin.rdsadmin_s3_tasks.download_from_s3 Amazon RDS. Saat Anda mengunduh file ke direktori, prosedur download_from_s3 melewatkan unduhan jika file bernama identik sudah ada di direktori. Untuk menghapus file dari direktori unduhan, gunakan UTL_FILE.FREMOVE, yang ada di situs web Oracle.

Untuk mengunduh file dump Anda
  1. Mulai SQL*Plus atau Oracle SQL Developer dan login sebagai master di instans DB Oracle target Amazon RDS Anda.

  2. Unduh file dump menggunakan prosedur rdsadmin.rdsadmin_s3_tasks.download_from_s3 Amazon RDS.

    Contoh berikut ini mengunduh semua file dari bucket Amazon S3 bernama DOC-EXAMPLE-BUCKET ke direktori DATA_PUMP_DIR.

    SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => 'DOC-EXAMPLE-BUCKET', p_directory_name => 'DATA_PUMP_DIR') AS TASK_ID FROM DUAL;

    Pernyataan SELECT mengembalikan ID tugas dalam jenis data VARCHAR2. Untuk informasi selengkapnya, lihat Mengunduh file dari bucket Amazon S3 ke instans DB Oracle.

Langkah 5: Impor file dump Anda ke instans DB target Anda menggunakan DBMS_DATAPUMP

Gunakan DBMS_DATAPUMP untuk mengimpor skema ke instans DB RDS for Oracle Anda. Opsi tambahan seperti METADATA_REMAP mungkin diperlukan.

Untuk mengimpor data ke instans DB target Anda
  1. Mulai SQL*Plus atau SQL Developer dan login sebagai pengguna master ke instans DB RDS for Oracle Anda.

  2. Impor data dengan memanggil DBMS_DATAPUMP prosedur.

    Contoh berikut mengimpor data SCHEMA_1 dari sample_copied.dmp ke instans DB target Anda.

    DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'SCHEMA', job_name => null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample_copied.dmp', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_dump_file); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample_imp.log', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'SCHEMA_EXPR','IN (''SCHEMA_1'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
    catatan

    Tugas Data Pump dimulai secara asinkron. Untuk informasi tentang pemantauan tugas Data Pump, lihat Monitoring job status dalam dokumentasi Oracle. Anda dapat melihat konten log impor menggunakan prosedur rdsadmin.rds_file_util.read_text_file. Untuk informasi selengkapnya, lihat Membaca file di direktori instans DB.

  3. Verifikasi impor data dengan mencantumkan tabel skema pada instans DB target Anda.

    Misalnya, kueri berikut mengembalikan jumlah tabel untuk SCHEMA_1.

    SELECT COUNT(*) FROM DBA_TABLES WHERE OWNER='SCHEMA_1';

Langkah 6: Bersihkan

Setelah data diimpor, Anda dapat menghapus file yang tidak ingin Anda simpan.

Untuk menghapus file yang tidak diperlukan
  1. Mulai SQL*Plus atau SQL Developer dan login sebagai pengguna master ke instans DB RDS for Oracle Anda.

  2. Cantumkan file di DATA_PUMP_DIR menggunakan perintah berikut.

    SELECT * FROM TABLE(rdsadmin.rds_file_util.listdir('DATA_PUMP_DIR')) ORDER BY MTIME;
  3. Hapus file di DATA_PUMP_DIR yang tidak lagi Anda perlukan menggunakan perintah berikut.

    EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','filename');

    Misalnya, perintah berikut menghapus file bernama sample_copied.dmp.

    EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','sample_copied.dmp');

Proses impor berikut menggunakan Oracle Data Pump dan paket DBMS_FILE_TRANSFER Oracle. Langkah-langkahnya adalah sebagai berikut:

  1. Hubungkan basis data Oracle sumber, yang dapat berupa basis data on-premise, instans Amazon EC2, atau instans DB RDS for Oracle.

  2. Ekspor data menggunakan paket DBMS_DATAPUMP.

  3. Gunakan DBMS_FILE_TRANSFER.PUT_FILE untuk menyalin file dump dari basis data Oracle ke direktori DATA_PUMP_DIR pada instans DB RDS for Oracle yang terhubung menggunakan tautan basis data.

  4. Impor data dari file dump yang disalin ke dalam instans DB RDS for Oracle menggunakan paket DBMS_DATAPUMP.

Proses impor yang menggunakan Oracle Data Pump dan paket DBMS_FILE_TRANSFER memiliki langkah-langkah berikut.

Persyaratan untuk mengimpor data dengan Oracle Data Pump dan tautan basis data

Proses ini memiliki persyaratan sebagai berikut:

  • Anda harus memiliki hak istimewa eksekusi pada paket DBMS_FILE_TRANSFER dan DBMS_DATAPUMP.

  • Anda harus memiliki hak istimewa tulis ke direktori DATA_PUMP_DIR pada instans DB sumber.

  • Anda harus memastikan bahwa ruang penyimpanan cukup untuk menyimpan file dump pada instans sumber dan instans DB target.

catatan

Proses ini mengimpor file dump ke dalam direktori DATA_PUMP_DIR, direktori yang telah dikonfigurasi di semua instans DB Oracle. Direktori ini terletak di volume penyimpanan yang sama dengan file data Anda. Saat Anda mengimpor file dump, file data Oracle yang ada menggunakan lebih banyak ruang. Dengan demikian, Anda harus memastikan bahwa instans DB Anda dapat mengakomodasi penggunaan ruang tambahan. File dump yang diimpor tidak secara otomatis dihapus atau dihilangkan dari direktori DATA_PUMP_DIR. Untuk menghapus file dump yang diimpor, gunakan UTL_FILE.FREMOVE, yang ada di situs web Oracle.

Langkah 1: Berikan hak istimewa kepada pengguna pada instans DB target RDS for Oracle

Untuk memberikan hak istimewa kepada pengguna pada instans DB target RDS for Oracle, lakukan langkah-langkah berikut:

  1. Gunakan SQL Plus atau Oracle SQL Developer untuk terhubung dengan instans DB RDS for Oracle yang datanya akan diimpor. Terhubung sebagai pengguna master Amazon RDS. Lihat informasi yang lebih lengkap tentang cara menghubungkan ke instans DB di Menghubungkan ke instans RDS for Oracle DB.

  2. Buat ruang tabel yang diperlukan sebelum Anda mengimpor data. Untuk informasi selengkapnya, lihat Membuat dan mengukur tablespace.

  3. Jika akun pengguna untuk impor data tidak ada, buat akun pengguna serta berikan izin dan peran yang diperlukan. Jika Anda berencana mengimpor data ke dalam beberapa skema pengguna, buat setiap akun pengguna serta berikan hak istimewa dan peran yang diperlukan ke akun tersebut.

    Misalnya, perintah berikut membuat pengguna baru bernama schema_1 dan memberikan izin dan peran yang diperlukan untuk mengimpor data ke dalam skema untuk pengguna ini.

    CREATE USER schema_1 IDENTIFIED BY my-password; GRANT CREATE SESSION, RESOURCE TO schema_1; ALTER USER schema_1 QUOTA 100M ON users;
    catatan

    Tentukan kata sandi selain perintah yang ditampilkan di sini sebagai praktik terbaik keamanan.

    Contoh sebelumnya memberi pengguna baru hak istimewa CREATE SESSION dan peran RESOURCE. Hak istimewa dan peran tambahan mungkin diperlukan bergantung pada objek basis data yang Anda impor.

    catatan

    Ganti schema_1 dengan nama skema Anda pada langkah ini dan pada langkah selanjutnya.

Langkah 2: Berikan hak istimewa kepada pengguna pada basis data sumber

Gunakan SQL*Plus atau Oracle SQL Developer untuk terhubung ke instans DB RDS for Oracle yang berisi data untuk diimpor. Jika perlu, buat akun pengguna dan berikan izin yang diperlukan.

catatan

Jika basis data sumber adalah instans Amazon RDS, Anda dapat melewati langkah ini. Anda menggunakan akun pengguna master Amazon RDS untuk melakukan ekspor.

Perintah berikut membuat pengguna baru dan memberikan izin yang diperlukan.

CREATE USER export_user IDENTIFIED BY my-password; GRANT CREATE SESSION, CREATE TABLE, CREATE DATABASE LINK TO export_user; ALTER USER export_user QUOTA 100M ON users; GRANT READ, WRITE ON DIRECTORY data_pump_dir TO export_user; GRANT SELECT_CATALOG_ROLE TO export_user; GRANT EXECUTE ON DBMS_DATAPUMP TO export_user; GRANT EXECUTE ON DBMS_FILE_TRANSFER TO export_user;
catatan

Tentukan kata sandi selain perintah yang ditampilkan di sini sebagai praktik terbaik keamanan.

Langkah 3: Buat file dump menggunakan DBMS_DATAPUMP

Untuk membuat file dump, lakukan hal berikut:

  1. Gunakan SQL*Plus atau Oracle SQL Developer untuk terhubung ke instans Oracle sumber dengan pengguna administratif atau pengguna yang Anda buat pada langkah 2. Jika basis data sumber adalah instans DB Amazon RDS for Oracle, hubungkan dengan pengguna utama Amazon RDS.

  2. Buat file dump menggunakan utilitas Oracle Data Pump.

    Skrip berikut membuat file dump bernama sampel.dmp dalam direktori DATA_PUMP_DIR.

    DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'EXPORT' , job_mode => 'SCHEMA' , job_name => null ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample.dmp' , directory => 'DATA_PUMP_DIR' , filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl , filename => 'sample_exp.log' , directory => 'DATA_PUMP_DIR' , filetype => dbms_datapump.ku$_file_type_log_file ); DBMS_DATAPUMP.METADATA_FILTER( v_hdnl , 'SCHEMA_EXPR' , 'IN (''SCHEMA_1'')' ); DBMS_DATAPUMP.METADATA_FILTER( v_hdnl, 'EXCLUDE_NAME_EXPR', q'[IN (SELECT NAME FROM sys.OBJ$ WHERE TYPE# IN (66,67,74,79,59,62,46) AND OWNER# IN (SELECT USER# FROM SYS.USER$ WHERE NAME IN ('RDSADMIN','SYS','SYSTEM','RDS_DATAGUARD','RDSSEC') ) ) ]', 'PROCOBJ' ); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
    catatan

    Tugas Data Pump dimulai secara asinkron. Untuk informasi tentang pemantauan tugas Data Pump, lihat Monitoring job status dalam dokumentasi Oracle. Anda dapat melihat konten log ekspor menggunakan prosedur rdsadmin.rds_file_util.read_text_file. Untuk informasi selengkapnya, lihat Membaca file di direktori instans DB.

Langkah 4: Buat tautan basis data ke instans DB target

Buat tautan basis data antara instans sumber Anda dan instans DB target Anda. Instans Oracle lokal Anda harus memiliki konektivitas jaringan ke instans DB untuk membuat tautan basis data dan untuk mentransfer file dump ekspor Anda.

Lakukan langkah ini dengan terhubung ke akun pengguna yang sama dengan langkah sebelumnya.

Jika Anda membuat tautan basis data antara dua instans DB di dalam VPC yang sama atau VPC terhubung, kedua instans DB tersebut harus memiliki rute yang valid di antara keduanya. Grup keamanan dari setiap instans DB harus mengizinkan ingress dan egress dari instans DB lainnya. Aturan masuk dan keluar grup keamanan dapat merujuk ke grup keamanan dari VPC yang sama atau VPC terhubung. Untuk informasi selengkapnya, lihat Menyesuaikan tautan basis data untuk penggunaan instans DB di VPC.

Perintah berikut membuat tautan basis data bernama to_rds yang terhubung dengan pengguna master Amazon RDS pada instans DB target.

CREATE DATABASE LINK to_rds CONNECT TO <master_user_account> IDENTIFIED BY <password> USING '(DESCRIPTION=(ADDRESS=(PROTOCOL=TCP)(HOST=<dns or ip address of remote db>) (PORT=<listener port>))(CONNECT_DATA=(SID=<remote SID>)))';

Langkah 5: Salin file dump yang diekspor ke instans DB target menggunakan DBMS_FILE_TRANSFER

Gunakan DBMS_FILE_TRANSFER untuk menyalin file dump dari instans basis data sumber ke instans DB target. Skrip berikut menyalin file dump bernama sample.dmp dari instans sumber ke tautan basis data target bernama to-rds (yang dibuat pada langkah sebelumnya).

BEGIN DBMS_FILE_TRANSFER.PUT_FILE( source_directory_object => 'DATA_PUMP_DIR', source_file_name => 'sample.dmp', destination_directory_object => 'DATA_PUMP_DIR', destination_file_name => 'sample_copied.dmp', destination_database => 'to_rds' ); END; /

Langkah 6: Impor file data ke instans DB target menggunakan DBMS_DATAPUMP

Gunakan Oracle Data Pump untuk mengimpor skema dalam instans DB. Opsi tambahan seperti METADATA_REMAP mungkin diperlukan.

Hubungkan ke instans DB dengan akun pengguna master Amazon RDS untuk melakukan impor.

DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'SCHEMA', job_name => null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample_copied.dmp', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'sample_imp.log', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'SCHEMA_EXPR','IN (''SCHEMA_1'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
catatan

Tugas Data Pump dimulai secara asinkron. Untuk informasi tentang pemantauan tugas Data Pump, lihat Monitoring job status dalam dokumentasi Oracle. Anda dapat melihat konten log impor menggunakan prosedur rdsadmin.rds_file_util.read_text_file. Untuk informasi selengkapnya, lihat Membaca file di direktori instans DB.

Anda dapat memverifikasi impor data dengan melihat tabel pengguna pada instans DB. Misalnya, kueri berikut mengembalikan jumlah tabel untuk schema_1.

SELECT COUNT(*) FROM DBA_TABLES WHERE OWNER='SCHEMA_1';

Langkah 7: Bersihkan

Setelah data diimpor, Anda dapat menghapus file yang tidak ingin Anda simpan. Anda dapat mencantumkan file di DATA_PUMP_DIR menggunakan perintah berikut.

SELECT * FROM TABLE(rdsadmin.rds_file_util.listdir('DATA_PUMP_DIR')) ORDER BY MTIME;

Untuk menghapus file di DATA_PUMP_DIR yang tidak lagi Anda perlukan, gunakan perintah berikut.

EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','<file name>');

Misalnya, perintah berikut menghapus file bernama "sample_copied.dmp".

EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','sample_copied.dmp');