Mengintegrasikan instans Amazon RDS untuk SQL Server DB dengan Amazon S3 - Layanan Basis Data Relasional Amazon

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Mengintegrasikan instans Amazon RDS untuk SQL Server DB dengan Amazon S3

Anda dapat mentransfer file antara instans DB yang menjalankan Amazon RDS for SQL Server dan bucket Amazon S3. Dengan melakukan ini, Anda dapat menggunakan Amazon S3 dengan fitur SQL Server seperti. BULK INSERT Misalnya, Anda dapat mengunduh .csv, .xml, .txt, dan file lain dari Amazon S3 ke host instans DB dan mengimpor data dari D:\S3\ ke dalam basis data. Semua file disimpan di D:\S3\ pada instans DB.

Batasan berikut berlaku:

  • File yang ada di folder D:\S3 akan dihapus pada replika siaga setelah failover pada instans Multi-AZ. Untuk informasi selengkapnya, lihat Batasan Multi-AZ untuk integrasi S3.

  • Instans DB dan bucket S3 harus berada di AWS Region yang sama.

  • Jika Anda menjalankan lebih dari satu tugas integrasi S3 sekaligus, tugas akan berjalan secara berurutan, bukan secara paralel.

    catatan

    Tugas integrasi S3 akan berada di antrean yang sama dengan tugas pencadangan dan pemulihan native. Maksimal, Anda hanya dapat memiliki dua tugas yang berlangsung dalam antrean ini kapan saja. Oleh karena itu, dua tugas pencadangan dan pemulihan native yang berjalan akan memblokir tugas integrasi S3.

  • Anda harus mengaktifkan ulang fitur integrasi S3 pada instans yang dipulihkan. Integrasi S3 tidak akan disebarkan dari instans sumber ke instans yang dipulihkan. File dalam D:\S3 dihapus pada instans yang dipulihkan.

  • Pengunduhan ke instans DB dibatasi hingga 100 file. Dengan kata lain, tidak boleh ada lebih dari 100 file di D:\S3\.

  • Hanya file tanpa ekstensi file atau dengan ekstensi file berikut yang dapat diunduh: .abf, .asdatabase, .bcp, .configsettings, .csv, .dat, .deploymentoptions, .deploymenttargets, .fmt, .info, .ispac, .lst, .tbl, .txt, .xml, dan .xmla.

  • Bucket S3 harus memiliki pemilik yang sama dengan peran AWS Identity and Access Management (IAM) terkait. Oleh karena itu, integrasi S3 lintas akun tidak didukung.

  • bucket S3 tidak dapat dibuka untuk publik.

  • Ukuran file untuk upload dari RDS ke S3 dibatasi hingga 50 GB per file.

  • Ukuran file untuk unduhan dari S3 hingga RDS terbatas pada maksimum yang didukung oleh S3.

Untuk informasi selengkapnya tentang menggunakan file di Amazon S3, lihat Mulai menggunakan Amazon Simple Storage Service.

Batasan Multi-AZ untuk integrasi S3

Pada instans Multi-AZ, file dalam folder D:\S3 dihapus pada replika siaga setelah failover. Failover dapat direncanakan, misalnya, selama modifikasi instans DB seperti mengubah kelas instans atau meningkatkan versi mesin. Atau, failover bisa jadi tidak terencana, selama pemadaman replika primer.

catatan

Kami tidak menyarankan penggunaan D:\S3 untuk penyimpanan file. Praktik terbaiknya adalah mengunggah file yang dibuat ke Amazon S3 agar durabel, dan mengunduh file tersebut saat Anda perlu mengimpor data.

Untuk menentukan waktu failover terakhir, Anda dapat menggunakan prosedur tersimpan msdb.dbo.rds_failover_time. Untuk informasi selengkapnya, lihat Menentukan waktu failover terakhir untuk Amazon RDS untuk Server SQL.

contoh tidak ada failover terbaru

Contoh ini menampilkan output saat tidak ada failover terbaru dalam log kesalahan. Tidak terjadi failover sejak 2020-04-29 23:59:00.01.

Oleh karena itu, semua file yang diunduh setelah waktu tersebut yang belum dihapus menggunakan prosedur tersimpan rds_delete_from_filesystem masih dapat diakses di host saat ini. File yang diunduh sebelum waktu tersebut mungkin juga tersedia.

errorlog_available_from recent_failover_time

2020-04-29 23:59:00.0100000

null

contoh failover terbaru

Contoh ini menampilkan output saat ada failover dalam log kesalahan. Failover terbaru adalah pada 2020-05-05 18:57:51.89.

Semua file yang diunduh setelah waktu tersebut yang belum dihapus menggunakan prosedur tersimpan rds_delete_from_filesystem masih dapat diakses di host saat ini.

errorlog_available_from recent_failover_time

2020-04-29 23:59:00.0100000

05-05-2020 18:57:51.8900000