Após uma análise cuidadosa, decidimos descontinuar o Amazon Kinesis Data Analytics SQL para aplicativos em duas etapas:
1. A partir de 15 de outubro de 2025, você não poderá criar um novo Kinesis Data Analytics SQL para aplicativos.
2. Excluiremos seus aplicativos a partir de 27 de janeiro de 2026. Você não poderá iniciar ou operar seu Amazon Kinesis Data Analytics SQL para aplicativos. O suporte não estará mais disponível para o Amazon Kinesis Data Analytics SQL a partir desse momento. Para obter mais informações, consulte Descontinuação do Amazon Kinesis Data Analytics SQL para aplicativos.
As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Etapa 2: Criar um aplicativo de análise
Nesta seção, você cria um aplicativo do Amazon Kinesis Data Analytics e o configura para usar o fluxo de dados do Kinesis que você criou em Etapa 1: Preparar os dados. Em seguida, você executa o código do aplicativo que usa a função RANDOM_CUT_FOREST_WITH_EXPLANATION
.
Para criar um aplicativo.
Abra o console do Kinesis em https://console.aws.amazon.com/kinesis
. -
Escolha Data Analytics (Análise de dados) no painel de navegação e, em seguida, Create application (Criar aplicativo).
-
Forneça o nome e a descrição do aplicativo (opcional) e escolha Create application.
-
Escolha Connect streaming data (Conectar fluxo de dados ) e, em seguida, escolha ExampleInputStream na lista.
-
Escolha Discover schema e verifique se
Systolic
eDiastolic
aparecem como colunasINTEGER
. Se elas tiverem um outro tipo, escolha Edit schema e atribua o tipoINTEGER
a ambas. -
Em Real time analytics, escolha Go to SQL editor. Quando solicitado, confirme a execução do aplicativo.
-
Cole o seguinte código no editor SQL e, em seguida, escolha Save and run SQL.
--Creates a temporary stream. CREATE OR REPLACE STREAM "TEMP_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); --Creates another stream for application output. CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); -- Compute an anomaly score with explanation for each record in the input stream -- using RANDOM_CUT_FOREST_WITH_EXPLANATION CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "TEMP_STREAM" SELECT STREAM "Systolic", "Diastolic", "BloodPressureLevel", ANOMALY_SCORE, ANOMALY_EXPLANATION FROM TABLE(RANDOM_CUT_FOREST_WITH_EXPLANATION( CURSOR(SELECT STREAM * FROM "SOURCE_SQL_STREAM_001"), 100, 256, 100000, 1, true)); -- Sort records by descending anomaly score, insert into output stream CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM * FROM "TEMP_STREAM" ORDER BY FLOOR("TEMP_STREAM".ROWTIME TO SECOND), ANOMALY_SCORE DESC;
Próxima etapa
Etapa 3: Examinar os resultados