Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Memulai Amazon Managed Service untuk Apache Flink untuk Python

Mode fokus
Memulai Amazon Managed Service untuk Apache Flink untuk Python - Layanan Terkelola untuk Apache Flink

Amazon Managed Service untuk Apache Flink sebelumnya dikenal sebagai Amazon Kinesis Data Analytics untuk Apache Flink.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon Managed Service untuk Apache Flink sebelumnya dikenal sebagai Amazon Kinesis Data Analytics untuk Apache Flink.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Bagian ini memperkenalkan Anda pada konsep dasar Managed Service untuk Apache Flink menggunakan Python dan Table API. Ini menjelaskan opsi yang tersedia untuk membuat dan menguji aplikasi Anda. Ini juga memberikan petunjuk untuk menginstal alat yang diperlukan untuk menyelesaikan tutorial dalam panduan ini dan untuk membuat aplikasi pertama Anda.

Tinjau komponen Layanan Terkelola untuk aplikasi Apache Flink

catatan

Amazon Managed Service untuk Apache Flink mendukung semua Apache Flink. APIs Tergantung pada API yang Anda pilih, struktur aplikasi sedikit berbeda. Salah satu pendekatan populer ketika mengembangkan aplikasi Apache Flink di Python adalah untuk mendefinisikan aliran aplikasi menggunakan SQL tertanam dalam kode Python. Ini adalah pendekatan yang kita ikuti dalam tutorial Gettgin Started berikut.

Untuk memproses data, Layanan Terkelola untuk aplikasi Apache Flink Anda menggunakan skrip Python untuk menentukan aliran data yang memproses input dan menghasilkan output menggunakan runtime Apache Flink.

Layanan Terkelola khas untuk aplikasi Apache Flink memiliki komponen-komponen berikut:

  • Properti runtime: Anda dapat menggunakan properti runtime untuk mengonfigurasi aplikasi Anda tanpa mengompilasi ulang kode aplikasi Anda.

  • Sumber: Aplikasi mengkonsumsi data dari satu atau lebih sumber. Sumber menggunakan konektor untuk membaca data dari sistem eksternal seperti aliran data Kinesis, atau topik MSK Amazon. Anda juga dapat menggunakan konektor khusus untuk menghasilkan data dari dalam aplikasi. Bila Anda menggunakan SQL, aplikasi mendefinisikan sumber sebagai tabel sumber.

  • Transformasi: Aplikasi memproses data dengan menggunakan satu atau lebih transformasi yang dapat menyaring, memperkaya, atau mengumpulkan data. Bila Anda menggunakan SQL, aplikasi mendefinisikan transformasi sebagai query SQL.

  • Tenggelam: Aplikasi mengirimkan data ke sumber eksternal melalui sink. Wastafel menggunakan konektor untuk mengirim data ke sistem eksternal seperti aliran data Kinesis, topik MSK Amazon, bucket Amazon S3, atau database relasional. Anda juga dapat menggunakan konektor khusus untuk mencetak output untuk tujuan pengembangan. Saat Anda menggunakan SQL, aplikasi mendefinisikan sink sebagai tabel sink tempat Anda menyisipkan hasil. Untuk informasi selengkapnya, lihat Menulis data menggunakan sink di Managed Service untuk Apache Flink.

Aplikasi Python Anda mungkin juga memerlukan dependensi eksternal, seperti pustaka Python tambahan atau konektor Flink apa pun yang digunakan aplikasi Anda. Ketika Anda mengemas aplikasi Anda, Anda harus menyertakan setiap ketergantungan yang dibutuhkan aplikasi Anda. Tutorial ini menunjukkan cara menyertakan dependensi konektor dan cara mengemas aplikasi untuk penyebaran di Amazon Managed Service untuk Apache Flink.

Memenuhi prasyarat

Untuk menyelesaikan tutorial ini, Anda harus memiliki yang berikut:

  • Python 3.11 , sebaiknya menggunakan lingkungan mandiri seperti VirtualEnv (venv), Conda, atau Miniconda.

  • Klien Git - instal klien Git jika Anda belum melakukannya.

  • Java Development Kit (JDK) versi 11 - instal Java JDK 11 dan atur variabel JAVA_HOME lingkungan untuk menunjuk ke lokasi instalasi Anda. Jika Anda tidak memiliki JDK 11, Anda dapat menggunakan Amazon Correttoatau JDK standar pilihan kami.

    • Untuk memverifikasi bahwa Anda telah menginstal JDK dengan benar, jalankan perintah berikut. Outputnya akan berbeda jika Anda menggunakan JDK selain Amazon Corretto 11. Pastikan versinya 11.x.

      $ java --version openjdk 11.0.23 2024-04-16 LTS OpenJDK Runtime Environment Corretto-11.0.23.9.1 (build 11.0.23+9-LTS) OpenJDK 64-Bit Server VM Corretto-11.0.23.9.1 (build 11.0.23+9-LTS, mixed mode)
  • Apache Maven - instal Apache Maven jika Anda belum melakukannya. Untuk informasi selengkapnya, lihat Menginstal Apache Maven.

    • Untuk menguji instalasi Apache Maven Anda, gunakan perintah berikut:

      $ mvn -version
catatan

Meskipun aplikasi Anda ditulis dengan Python, Apache Flink berjalan di Java Virtual Machine (JVM). Ini mendistribusikan sebagian besar dependensi, seperti konektor Kinesis, sebagai file JAR. Untuk mengelola dependensi ini dan untuk mengemas aplikasi dalam file ZIP, gunakan Apache Maven. Tutorial ini menjelaskan cara melakukannya.

Awas

Kami menyarankan Anda menggunakan Python 3.11 untuk pengembangan lokal. Ini adalah versi Python yang sama yang digunakan oleh Amazon Managed Service untuk Apache Flink dengan runtime Flink 1.19.

Menginstal pustaka Python Flink 1.19 pada Python 3.12 mungkin gagal.

Jika Anda memiliki versi Python lain yang diinstal secara default pada mesin Anda, kami sarankan Anda membuat lingkungan mandiri seperti menggunakan VirtualEnv Python 3.11.

IDE untuk pengembangan lokal

Kami menyarankan Anda menggunakan lingkungan pengembangan seperti PyCharmatau Visual Studio Code untuk mengembangkan dan mengkompilasi aplikasi Anda.

Kemudian, selesaikan dua langkah pertama dariMemulai Layanan Terkelola Amazon untuk Apache Flink (API) DataStream :

Untuk memulai, lihat Membuat aplikasi.

Di halaman ini

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.