Esempi di Java per Managed Service for Apache Flink - Servizio gestito per Apache Flink

Il servizio gestito da Amazon per Apache Flink era precedentemente noto come Analisi dei dati Amazon Kinesis per Apache Flink.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esempi di Java per Managed Service for Apache Flink

Gli esempi seguenti mostrano come creare applicazioni scritte in Java.

Nota

La maggior parte degli esempi è progettata per essere eseguita sia localmente, sulla tua macchina di sviluppo e IDE di tua scelta, sia su Amazon Managed Service for Apache Flink. Dimostrano i meccanismi che è possibile utilizzare per passare i parametri dell'applicazione e come impostare correttamente la dipendenza per eseguire l'applicazione in entrambi gli ambienti senza modifiche.

Questo esempio mostra una semplice applicazione, che legge da un flusso di dati Kinesis e scrive su un altro flusso di dati Kinesis, utilizzando. DataStream API L'esempio dimostra come configurare il file con le dipendenze corrette, creare uber- e quindi analizzare i parametri di configurazioneJAR, in modo da poter eseguire l'applicazione sia localmente che in Amazon Managed Service for IDE Apache Flink.

Esempio di codice: GettingStarted

Questo esempio mostra una semplice applicazione che utilizza Table API andSQL. Dimostra come integrarlo DataStream API con Table API o SQL nella stessa applicazione Java. Dimostra inoltre come utilizzare il DataGen connettore per generare dati di test casuali dall'interno dell'applicazione Flink stessa, senza richiedere un generatore di dati esterno.

Esempio completo: GettingStartedTable

Questo esempio dimostra come usare DataStream API th's per FileSink scrivere JSON file in un bucket S3.

Esempio di codice: S3Sink

Questo esempio dimostra come configurare una sorgente che consuma da un flusso di dati Kinesis, utilizzando il consumer standard EFO o, e come configurare un sink per il flusso di dati Kinesis.

Esempio di codice: KinesisConnectors

Questo esempio mostra come inviare dati ad Amazon Data Firehose (precedentemente noto come Kinesis Data Firehose).

Esempio di codice: KinesisFirehoseSink

Questo esempio illustra quattro tipi di aggregazione di finestre in. DataStream API

  1. Finestra scorrevole basata sul tempo di elaborazione

  2. Finestra scorrevole basata sull'ora dell'evento

  3. Tumbling Window basata sul tempo di elaborazione

  4. Tumbling Window basata sull'ora dell'evento

Esempio di codice: Windowing

Questo esempio mostra come aggiungere metriche personalizzate all'applicazione Flink e inviarle alle metriche. CloudWatch

Esempio di codice: CustomMetrics

Questo esempio illustra come è possibile utilizzare i provider di configurazione Kafka per configurare un keystore e un truststore personalizzati con certificati per l'autenticazione m per il connettore Kafka. TLS Questa tecnica consente di caricare i certificati personalizzati richiesti da Amazon S3 e i segreti dell' AWS Secrets Manager avvio dell'applicazione.

Esempio di codice: Kafka-m -Keystore- TLS ConfigProviders

Questo esempio illustra come utilizzare i provider di configurazione Kafka per recuperare le credenziali AWS Secrets Manager e scaricare il truststore da Amazon S3 per SASL configurare/autenticare un connettore Kafka. SCRAM Questa tecnica consente di caricare i certificati personalizzati richiesti da Amazon S3 e i segreti dell' AWS Secrets Manager avvio dell'applicazione.

Esempio di codice: Kafka- _ - SASL SSL ConfigProviders