Tras considerarlo detenidamente, hemos decidido retirar las aplicaciones de Amazon Kinesis Data Analytics para SQL en dos pasos:
1. A partir del 15 de octubre de 2025, no podrá crear nuevas aplicaciones de Kinesis Data Analytics para SQL.
2. Eliminaremos sus aplicaciones a partir del 27 de enero de 2026. No podrá iniciar ni utilizar sus aplicaciones de Amazon Kinesis Data Analytics para SQL. A partir de ese momento, el servicio de soporte de Amazon Kinesis Data Analytics para SQL dejará de estar disponible. Para obtener más información, consulte Retirada de las aplicaciones de Amazon Kinesis Data Analytics para SQL.
Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Paso 2: Crear una aplicación de análisis
En esta sección creará una aplicación de análisis de datos de Amazon Kinesis Data Analytics y la configurará para que utilice el flujo de datos de Kinesis que ha creado como origen de streaming en Paso 1: Preparar los datos. A continuación, ejecutará código de la aplicación que utiliza la función RANDOM_CUT_FOREST_WITH_EXPLANATION
.
Para crear una aplicación
Abra la consola de Kinesis en https://console.aws.amazon.com /kinesis.
-
Elija Data Analytics (Análisis de datos) en el panel de navegación y, a continuación, elija Create application (Crear aplicación).
-
Proporcione un nombre y una descripción (opcional) para la aplicación y elija Create application.
-
Selecciona Conectar datos de streaming y, a continuación, selecciona una opción ExampleInputStreamde la lista.
-
Elija Discover esquema y asegúrese de que
Systolic
yDiastolic
aparecen como columnas de tipoINTEGER
. Si son de otro tipo, seleccione Edit schema y asigne el tipoINTEGER
a cada una de ellas. -
En Real time analytics, elija Go to SQL editor. Cuando se le pregunte, elija la opción de ejecutar la aplicación.
-
Pegue el código siguiente en el editor de SQL y, a continuación, elija Save and run SQL.
--Creates a temporary stream. CREATE OR REPLACE STREAM "TEMP_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); --Creates another stream for application output. CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); -- Compute an anomaly score with explanation for each record in the input stream -- using RANDOM_CUT_FOREST_WITH_EXPLANATION CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "TEMP_STREAM" SELECT STREAM "Systolic", "Diastolic", "BloodPressureLevel", ANOMALY_SCORE, ANOMALY_EXPLANATION FROM TABLE(RANDOM_CUT_FOREST_WITH_EXPLANATION( CURSOR(SELECT STREAM * FROM "SOURCE_SQL_STREAM_001"), 100, 256, 100000, 1, true)); -- Sort records by descending anomaly score, insert into output stream CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM * FROM "TEMP_STREAM" ORDER BY FLOOR("TEMP_STREAM".ROWTIME TO SECOND), ANOMALY_SCORE DESC;
Paso siguiente
Paso 3: Examinar los resultados