Il servizio gestito da Amazon per Apache Flink era precedentemente noto come Analisi dei dati Amazon Kinesis per Apache Flink.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esempi di Java per Managed Service for Apache Flink
Gli esempi seguenti mostrano come creare applicazioni scritte in Java.
Nota
La maggior parte degli esempi è progettata per essere eseguita sia localmente, sulla tua macchina di sviluppo e IDE di tua scelta, sia su Amazon Managed Service for Apache Flink. Dimostrano i meccanismi che è possibile utilizzare per passare i parametri dell'applicazione e come impostare correttamente la dipendenza per eseguire l'applicazione in entrambi gli ambienti senza modifiche.
Questo esempio illustra come definire qualcosa di personalizzato TypeInfo sul record o sull'oggetto di stato per evitare che la serializzazione ritorni alla serializzazione Kryo, meno efficiente. Ciò è necessario, ad esempio, quando gli oggetti contengono un o. List
Map
Per ulteriori informazioni, consulta Tipi di dati e serializzazione nella documentazione
Esempio di codice: CustomTypeInfo
Questo esempio mostra una semplice applicazione, che legge da un flusso di dati Kinesis e scrive su un altro flusso di dati Kinesis, utilizzando. DataStream
API L'esempio dimostra come configurare il file con le dipendenze corrette, creare uber- e quindi analizzare i parametri di configurazioneJAR, in modo da poter eseguire l'applicazione sia localmente che in Amazon Managed Service for IDE Apache Flink.
Esempio di codice: GettingStarted
Questo esempio mostra una semplice applicazione che utilizza Table
API andSQL. Dimostra come integrarlo DataStream
API con Table
API o SQL nella stessa applicazione Java. Dimostra inoltre come utilizzare il DataGen
connettore per generare dati di test casuali dall'interno dell'applicazione Flink stessa, senza richiedere un generatore di dati esterno.
Esempio completo: GettingStartedTable
Questo esempio dimostra come usare DataStream
API th's per FileSink
scrivere JSON file in un bucket S3.
Questo esempio dimostra come configurare una sorgente che consuma da un flusso di dati Kinesis, utilizzando il consumer standard EFO o, e come impostare un sink per il flusso di dati Kinesis.
Esempio di codice: KinesisConnectors
Questo esempio mostra come inviare dati ad Amazon Data Firehose (precedentemente noto come Kinesis Data Firehose).
Esempio di codice: KinesisFirehoseSink
Questo esempio illustra quattro tipi di aggregazione di finestre in. DataStream
API
-
Finestra scorrevole basata sul tempo di elaborazione
-
Finestra scorrevole basata sull'ora dell'evento
-
Tumbling Window basata sul tempo di elaborazione
-
Tumbling Window basata sull'ora dell'evento
Questo esempio mostra come aggiungere metriche personalizzate all'applicazione Flink e inviarle alle metriche. CloudWatch
Esempio di codice: CustomMetrics
Questo esempio illustra come è possibile utilizzare i provider di configurazione Kafka per configurare un keystore e un truststore personalizzati con certificati per l'autenticazione m per il connettore Kafka. TLS Questa tecnica consente di caricare i certificati personalizzati richiesti da Amazon S3 e i segreti dell' AWS Secrets Manager avvio dell'applicazione.
Esempio di codice: Kafka-m -Keystore- TLS ConfigProviders
Questo esempio illustra come utilizzare i provider di configurazione Kafka per recuperare le credenziali AWS Secrets Manager e scaricare il truststore da Amazon S3 per SASL configurare/autenticare un connettore Kafka. SCRAM Questa tecnica consente di caricare i certificati personalizzati richiesti da Amazon S3 e i segreti dell' AWS Secrets Manager avvio dell'applicazione.
Esempio di codice: Kafka- _ - SASL SSL ConfigProviders