Migrasi data Db2 melalui Amazon S3 ke Amazon untuk Db2 RDS - Layanan Basis Data Relasional Amazon

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Migrasi data Db2 melalui Amazon S3 ke Amazon untuk Db2 RDS

Dengan pendekatan migrasi ini, pertama-tama Anda menyimpan data dari satu tabel ke dalam file data yang Anda tempatkan di bucket Amazon S3. Kemudian, Anda menggunakan LOADperintah untuk memuat data dari file data itu ke dalam tabel di database Amazon RDS untuk Db2 Anda. Lihat informasi yang lebih lengkap tentang penggunaan Amazon S3 di Mengintegrasikan Amazon RDS untuk instans Db2 DB dengan Amazon S3.

Menyimpan data Anda ke Amazon S3

Untuk menyimpan data dari satu tabel ke Amazon S3, gunakan utilitas database untuk mengekstrak data dari sistem manajemen database (DBMS) ke dalam file. CSV Kemudian, unggah file data ke Amazon S3.

Untuk menyimpan file data di Amazon S3, Anda memerlukan komponen berikut: AWS

Memuat data Anda ke dalam RDS tabel Db2

Setelah menyimpan file data ke Amazon S3, Anda dapat memuat data dari file-file ini ke dalam tabel individual pada instans Db2 DB AndaRDS.

Untuk memuat data tabel Db2 Anda ke dalam tabel database Db2 DB Anda RDS
  1. Connect ke rdsadmin database menggunakan master username dan master password untuk instans Db2 DB AndaRDS. Dalam contoh berikut, ganti master_username and master_password dengan informasi Anda sendiri.

    db2 connect to rdsadmin user master_username using master_password
  2. Katalog alias akses penyimpanan yang mengarah ke bucket Amazon S3 tempat file yang disimpan disimpan. Catat nama alias ini untuk digunakan pada langkah berikutnya. Anda hanya perlu melakukan langkah ini sekali jika Anda berencana memuat beberapa tabel dari file data yang disimpan di bucket Amazon S3 yang sama.

    Contoh berikut katalog alias bernama my_s3_alias yang memberikan pengguna bernama jorge_souza akses ke bucket bernama amzn-s3-demo-bucket.

    db2 "call rdsadmin.catalog_storage_access(?, 'my_s3_alias', 'amzn-s3-demo-bucket', 'USER', 'jorge_souza')"

    Untuk informasi selengkapnya tentang prosedur tersimpan ini, Lihatrdsadmin.catalog_storage_access.

  3. Jalankan LOAD perintah menggunakan alias akses penyimpanan yang mengarah ke bucket Amazon S3 Anda.

    catatan

    Jika LOAD perintah mengembalikan kesalahan, Anda mungkin perlu membuat titik akhir VPC gateway untuk Amazon S3 dan menambahkan aturan keluar ke grup keamanan. Untuk informasi selengkapnya, lihat Kesalahan file I/O.

    Contoh berikut memuat data dari file data bernama my_s3_datafile.csv ke dalam sebuah tabel bernama my_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang diberi nama alias my_s3_alias menunjuk ke.

    db2 "load from db2remote://my_s3_alias//my_s3_datafile.csv of DEL insert into my_db2_table";

    Contoh berikut memuat LOBs dari file data bernama my_table1_export.ixf ke dalam sebuah tabel bernama my_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang diberi nama alias my_s3_alias menunjuk ke.

    db2 "call sysproc.admin_cmd('load from "db2remote://my_s3_alias//my_table1_export.ixf" of ixf lobs from "db2remote://my_s3_alias//" xml from "db2remote://my_s3_alias//" modified by lobsinfile implicitlyhiddeninclude identityoverride generatedoverride periodoverride transactionidoverride messages on server replace into "my_schema"."my_db2_table" nonrecoverable indexing mode incremental allow no access')"

    Ulangi langkah ini untuk setiap file data di bucket Amazon S3 yang ingin Anda muat ke dalam tabel di instans Db2 DB AndaRDS.

    Untuk informasi selengkapnya tentang LOAD perintah, lihat LOADperintah.