Mendapatkan segmen pengguna batch dengan sumber daya khusus - Amazon Personalize

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Mendapatkan segmen pengguna batch dengan sumber daya khusus

Untuk mendapatkan segmen pengguna, Anda menggunakan pekerjaan segmen batch. Pekerjaan segmen batch adalah alat yang mengimpor data masukan batch Anda dari bucket Amazon S3 dan menggunakan versi solusi yang dilatih dengan resep USER_SEGMENTATION untuk menghasilkan segmen pengguna untuk setiap baris data input.

Bergantung pada resepnya, data input adalah daftar item atau atribut metadata item dalam format JSON. Untuk atribut item, data input Anda dapat menyertakan ekspresi untuk membuat segmen pengguna berdasarkan beberapa atribut metadata. Pekerjaan segmen batch mengekspor segmen pengguna ke bucket Amazon S3 keluaran. Setiap segmen pengguna diurutkan dalam urutan menurun berdasarkan probabilitas bahwa setiap pengguna akan berinteraksi dengan item dalam data input Anda.

Saat membuat segmen pengguna, Amazon Personalize mempertimbangkan data dalam kumpulan data dari impor massal dan individual:

  • Untuk data massal, Amazon Personalize menghasilkan segmen hanya menggunakan data massal yang ada pada pelatihan versi solusi lengkap terakhir. Dan itu hanya menggunakan data massal yang Anda impor dengan mode impor FULL (mengganti data yang ada).

  • Untuk data dari operasi impor data individual, Amazon Personalize menghasilkan segmen pengguna menggunakan data yang ada pada pelatihan versi solusi lengkap terakhir. Agar catatan yang lebih baru memengaruhi segmen pengguna, buat versi solusi baru, lalu buat pekerjaan segmen batch.

Menghasilkan segmen pengguna berfungsi sebagai berikut:

  1. Siapkan dan unggah data masukan Anda dalam format JSON ke bucket Amazon S3. Format data input Anda tergantung pada resep yang Anda gunakan dan pekerjaan yang Anda buat. Lihat Mempersiapkan data input untuk segmen pengguna.

  2. Buat lokasi terpisah untuk data keluaran Anda, baik folder lain atau bucket Amazon S3 yang berbeda.

  3. Buat pekerjaan segmen batch. Lihat Mendapatkan segmen pengguna dengan pekerjaan segmen batch.

  4. Saat tugas segmen batch selesai, ambil segmen pengguna dari lokasi keluaran Anda di Amazon S3.

Pedoman dan persyaratan untuk mendapatkan segmen pengguna

Berikut ini adalah pedoman dan persyaratan untuk mendapatkan segmen batch:

  • Anda harus menggunakan resep USER_SEGMENTATION.

  • Peran layanan Amazon Personalisasi IAM Anda memerlukan izin untuk membaca dan menambahkan file ke bucket Amazon S3 Anda. Untuk informasi tentang pemberian izin, lihat. Kebijakan peran layanan untuk alur kerja batch Untuk informasi selengkapnya tentang izin bucket, lihat contoh kebijakan pengguna di Panduan Pengembang Layanan Penyimpanan Sederhana Amazon.

    Jika Anda menggunakan AWS Key Management Service (AWS KMS) untuk enkripsi, Anda harus memberikan izin Amazon Personalize dan Amazon Personalize IAM service role untuk menggunakan kunci Anda. Untuk informasi selengkapnya, lihat Memberikan izin Amazon Personalisasi untuk menggunakan kunci Anda AWS KMS.

  • Anda harus membuat solusi kustom dan versi solusi sebelum Anda membuat pekerjaan inferensi batch. Namun, Anda tidak perlu membuat kampanye Amazon Personalize. Jika Anda membuat grup kumpulan data Domain, Anda masih dapat membuat sumber daya kustom.

  • Data masukan Anda harus diformat seperti yang dijelaskan dalamMempersiapkan data input untuk segmen pengguna.

  • Jika Anda menggunakan resep Item-Atribute-Affinity, atribut dalam data input Anda tidak dapat menyertakan metadata item tekstual tidak terstruktur, seperti deskripsi produk.

  • Jika Anda menggunakan filter dengan parameter placeholder, Anda harus menyertakan nilai untuk parameter dalam data input Anda dalam objek. filterValues Untuk informasi selengkapnya, lihat Memberikan nilai filter di JSON masukan Anda.

  • Kami menyarankan Anda menggunakan lokasi yang berbeda untuk data keluaran Anda (baik folder atau bucket Amazon S3 yang berbeda) daripada data input Anda.