Étape 2 : Création d'une application d'analyse - Guide du développeur d'Amazon Kinesis Data Analytics SQL pour applications

Après mûre réflexion, nous avons décidé de mettre fin à Amazon Kinesis Data Analytics SQL pour les applications en deux étapes :

1. À compter du 15 octobre 2025, vous ne pourrez plus créer de nouveaux Kinesis Data Analytics SQL pour les applications.

2. Nous supprimerons vos candidatures à compter du 27 janvier 2026. Vous ne serez pas en mesure de démarrer ou d'utiliser votre Amazon Kinesis Data Analytics SQL pour les applications. Support ne sera plus disponible pour Amazon Kinesis Data Analytics à partir SQL de cette date. Pour de plus amples informations, veuillez consulter Arrêt d'Amazon Kinesis Data Analytics SQL pour applications.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Étape 2 : Création d'une application d'analyse

Dans cette section, vous allez créer une application Amazon Kinesis Data Analytics et la configurer pour utiliser le flux de données Kinesis que vous avez créé en tant que source de streaming dans Étape 1 : Préparation des données. Vous pouvez ensuite exécuter le code de l'application qui utilise la fonction RANDOM_CUT_FOREST_WITH_EXPLANATION.

Pour créer une application
  1. Ouvrez la console Kinesis à l'adresse https://console.aws.amazon.com/kinesis.

  2. Choisissez Data Analytics (Analyse des données) dans le volet de navigation, puis Create application (Créer une application).

  3. Attribuez un nom et une description (facultatif) à votre application, puis sélectionnez Create application

  4. Cliquez sur Connect streaming data (Connecter des données de diffusion), puis sélectionnez ExampleInputStream dans la liste.

  5. Sélectionnez Discover schema et vérifiez que Systolic et Diastolic apparaissent sous la forme de colonnes INTEGER. S'ils sont associés à un autre type, sélectionnez Edit schema et attribuez-leur le type INTEGER.

  6. Sous Real time analytics, sélectionnez Go to SQL editor. À l'invite, choisissez d'exécuter votre application.

  7. Collez le code suivant dans l'éditeur SQL, puis choisissez Save and run SQL.

    --Creates a temporary stream. CREATE OR REPLACE STREAM "TEMP_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); --Creates another stream for application output. CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); -- Compute an anomaly score with explanation for each record in the input stream -- using RANDOM_CUT_FOREST_WITH_EXPLANATION CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "TEMP_STREAM" SELECT STREAM "Systolic", "Diastolic", "BloodPressureLevel", ANOMALY_SCORE, ANOMALY_EXPLANATION FROM TABLE(RANDOM_CUT_FOREST_WITH_EXPLANATION( CURSOR(SELECT STREAM * FROM "SOURCE_SQL_STREAM_001"), 100, 256, 100000, 1, true)); -- Sort records by descending anomaly score, insert into output stream CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM * FROM "TEMP_STREAM" ORDER BY FLOOR("TEMP_STREAM".ROWTIME TO SECOND), ANOMALY_SCORE DESC;
Étape suivante

Étape 3 : Évaluation des résultats