Code d'application - Guide du développeur d'Amazon Kinesis Data Analytics SQL pour applications

Après mûre réflexion, nous avons décidé de mettre fin à Amazon Kinesis Data Analytics SQL pour les applications en deux étapes :

1. À compter du 15 octobre 2025, vous ne pourrez plus créer de nouveaux Kinesis Data Analytics SQL pour les applications.

2. Nous supprimerons vos candidatures à compter du 27 janvier 2026. Vous ne serez pas en mesure de démarrer ou d'utiliser votre Amazon Kinesis Data Analytics SQL pour les applications. Support ne sera plus disponible pour Amazon Kinesis Data Analytics à partir SQL de cette date. Pour de plus amples informations, veuillez consulter Arrêt d'Amazon Kinesis Data Analytics SQL pour applications.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Code d'application

Le code d'application est un ensemble d'instructions SQL qui traite une entrée et produit une sortie. Ces instructions SQL fonctionnent sur des flux et des tables de référence intégrés à l'application. Pour de plus amples informations, veuillez consulter Applications Amazon Kinesis Data Analytics pour SQL : fonctionnement.

Pour plus d’informations sur les éléments du langage SQL pris en charge par Kinesis Data Analytics, consultez la Référence SQL Amazon Kinesis Data Analytics.

Dans les bases de données relationnelles, vous gérez des tables à l'aide d'instructions INSERT pour ajouter des enregistrements et de l'instruction SELECT pour interroger les données. Dans Amazon Kinesis Data Analytics, vous travaillez avec des flux. Vous pouvez écrire une instruction SQL pour interroger ces flux. Les résultats de l'interrogation d'un flux intégré à l'application sont toujours envoyés à un autre flux intégré à l'application. Lorsque vous effectuez des analyses complexes, vous pouvez créer plusieurs flux intégrés à l'application pour conserver les résultats d'analyses intermédiaires. Enfin, vous configurez la sortie d'application pour conserver les résultats de l'analyse finale (à partir d'un ou de plusieurs flux intégrés à l'application) dans des destinations externes. Pour résumer, voici un modèle typique pour écrire du code d'application :

  • L'instruction SELECT est toujours utilisée dans le contexte d'une instruction INSERT. En d'autres termes, lorsque vous sélectionnez des lignes, vous insérez des résultats dans un autre flux intégré à l'application.

  • L'instruction INSERT est toujours utilisée dans le contexte d'une pompe. En d'autres termes, vous utilisez des pompes pour écrire dans un flux intégré à l'application.

L'exemple de code d'application suivant lit des enregistrements d'un flux intégré à l'application (SOURCE_SQL_STREAM_001) et écrit dans un autre flux intégré à l'application (DESTINATION_SQL_STREAM). Vous pouvez insérer des enregistrements dans des flux intégrés à l'application à l'aide de pompes, comme illustré ci-après :

CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (ticker_symbol VARCHAR(4), change DOUBLE, price DOUBLE); -- Create a pump and insert into output stream. CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM ticker_symbol, change,price FROM "SOURCE_SQL_STREAM_001";
Note

Les identificateurs que vous spécifiez pour les noms de flux et de colonne suivent les conventions SQL standard. Par exemple, si vous placez un identificateur entre guillemets, celui-ci sera sensible à la casse. Sinon, l'identificateur apparaît en majuscules par défaut. Pour plus d’informations sur les identifiants, consultez la section Identifiants dans le manuel Référence SQL du service géré Amazon pour Apache Flink SQL.

Votre code d'application peut être constitué de nombreuses instructions SQL. Par exemple :

  • Vous pouvez écrire des requêtes SQL de manière séquentielle de sorte que le résultat d'une instruction SQL soit intégré dans l'instruction SQL suivante.

  • Vous pouvez également écrire des requêtes SQL qui s'exécutent indépendamment les unes des autres. Par exemple, vous pouvez écrire deux instructions SQL qui interrogent le même flux intégré à l'application, mais qui envoient une sortie dans des flux intégrés à l'application différents. Vous pouvez ensuite interroger indépendamment les flux intégrés à l'application nouvellement créés.

Vous pouvez créer des flux intégrés à l'application pour enregistrer des résultats intermédiaires. Vous insérez les données dans des flux intégrés à l'application à l'aide de pompes. Pour de plus amples informations, veuillez consulter Flux et pompes intégrés à l'application.

Si vous ajoutez une table de référence intégrée à l'application, vous pouvez écrire du code SQL pour joindre des données de flux et de tables de référence intégrés à l'application. Pour de plus amples informations, veuillez consulter Exemple : ajout de données de référence à une application Kinesis Data Analytics.

Selon la configuration de sortie de l’application, Amazon Kinesis Data Analytics écrit les données de flux intégrés à l’application spécifiques dans la destination externe. Assurez-vous que votre code d'application écrit dans les flux intégrés à l'application spécifiés dans la configuration de sortie.

Pour plus d'informations, consultez les rubriques suivantes :