Servizio gestito per Apache Flink: come funziona - Servizio gestito per Apache Flink

Il servizio gestito da Amazon per Apache Flink era precedentemente noto come Analisi dei dati Amazon Kinesis per Apache Flink.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Servizio gestito per Apache Flink: come funziona

Managed Service for Apache Flink è un servizio Amazon completamente gestito che consente di utilizzare un'applicazione Apache Flink per elaborare dati in streaming. Innanzitutto, si programma l'applicazione Apache Flink, quindi si crea l'applicazione Managed Service for Apache Flink.

Programma la tua applicazione Apache Flink

Un'applicazione Apache Flink è un'applicazione Java o Scala creata con il framework Apache Flink. Puoi creare la tua applicazione Apache Flink in locale.

Le applicazioni utilizzano principalmente la DataStream APIo la tabella. API APIsSono disponibili anche gli altri Apache Flink, ma sono usati meno comunemente nella creazione di applicazioni di streaming.

Le caratteristiche dei due APIs sono le seguenti:

DataStream API

Il modello di DataStream API programmazione Apache Flink si basa su due componenti:

  • Flusso di dati: la rappresentazione strutturata di un flusso continuo di record di dati.

  • Operatore di trasformazione: accetta uno o più flussi di dati come input e produce uno o più flussi di dati come output.

Le applicazioni create con la DataStream API eseguono le seguenti operazioni:

  • Leggi i dati da un'origine dati (come uno stream Kinesis o un MSK argomento Amazon).

  • Trasformazione di dati, ad esempio filtraggio, aggregazione o arricchimento.

  • Scrittura dei dati trasformati in un sink di dati.

Le applicazioni che utilizzano il DataStream API possono essere scritte in Java o Scala e possono essere lette da un flusso di dati Kinesis, un MSK argomento Amazon o una fonte personalizzata.

L'applicazione elabora i dati utilizzando un connettore. Apache Flink utilizza i seguenti tipi di connettori:

  • Origine: connettore utilizzato per leggere dati esterni.

  • Sink: connettore utilizzato per scrivere in posizioni esterne.

  • Operatore: connettore utilizzato per elaborare i dati all'interno dell'applicazione.

Un'applicazione tipica è costituita da almeno un flusso di dati con un'origine, un flusso di dati con uno o più operatori e almeno un sink di dati.

Per ulteriori informazioni sull'utilizzo di DataStream API, consultaRivedi DataStream API i componenti.

Tabella API

Il modello di API programmazione Apache Flink Table si basa sui seguenti componenti:

  • Ambiente tabellare: interfaccia per i dati sottostanti utilizzata per creare e ospitare una o più tabelle.

  • Tabella: un oggetto che fornisce l'accesso a una SQL tabella o a una vista.

  • Fonte tabella: utilizzata per leggere dati da una fonte esterna, ad esempio un MSK argomento di Amazon.

  • Funzione di tabella: una SQL query o una API chiamata utilizzata per trasformare i dati.

  • Sink della tabella: serve per scrivere dati in un percorso esterno, ad esempio un bucket Amazon S3.

Le applicazioni create con la tabella API eseguono le seguenti operazioni:

  • Creazione di un TableEnvironment collegandosi a un'Table Source.

  • Crea una tabella TableEnvironment utilizzando le SQL interrogazioni o le API funzioni di tabella.

  • Esegui un'interrogazione sulla tabella utilizzando Table API o SQL

  • Applica trasformazioni ai risultati dell'interrogazione utilizzando Table Functions o SQL query.

  • Scrittura dei risultati della query o della funzione su un Table Sink.

Le applicazioni che utilizzano la tabella API possono essere scritte in Java o Scala e possono interrogare i dati utilizzando API chiamate o SQL query.

Per ulteriori informazioni sull'utilizzo della tabellaAPI, vedereRivedi API i componenti della tabella.

Crea il tuo servizio gestito per l'applicazione Apache Flink

Managed Service for Apache Flink è un AWS servizio che crea un ambiente per l'hosting dell'applicazione Apache Flink e fornisce le seguenti impostazioni:

È possibile creare ed eseguire un'applicazione del servizio gestito per Apache Flink utilizzando la console o la AWS CLI. Per iniziare a creare un'applicazione del servizio gestito da Amazon per Apache Flink, consulta Tutorial: inizia a usare Managed Service for Apache Flink DataStream API.