Etapa 2: Criar um aplicativo de análise - Guia do desenvolvedor do Amazon Kinesis Data Analytics SQL para aplicativos

Após uma análise cuidadosa, decidimos descontinuar o Amazon Kinesis Data Analytics SQL para aplicativos em duas etapas:

1. A partir de 15 de outubro de 2025, você não poderá criar um novo Kinesis Data Analytics SQL para aplicativos.

2. Excluiremos seus aplicativos a partir de 27 de janeiro de 2026. Você não poderá iniciar ou operar seu Amazon Kinesis Data Analytics SQL para aplicativos. O suporte não estará mais disponível para o Amazon Kinesis Data Analytics SQL a partir desse momento. Para obter mais informações, consulte Descontinuação do Amazon Kinesis Data Analytics SQL para aplicativos.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Etapa 2: Criar um aplicativo de análise

Nesta seção, você cria um aplicativo do Amazon Kinesis Data Analytics e o configura para usar o fluxo de dados do Kinesis que você criou em Etapa 1: Preparar os dados. Em seguida, você executa o código do aplicativo que usa a função RANDOM_CUT_FOREST_WITH_EXPLANATION.

Para criar um aplicativo.
  1. Abra o console do Kinesis em https://console.aws.amazon.com/kinesis.

  2. Escolha Data Analytics (Análise de dados) no painel de navegação e, em seguida, Create application (Criar aplicativo).

  3. Forneça o nome e a descrição do aplicativo (opcional) e escolha Create application.

  4. Escolha Connect streaming data (Conectar fluxo de dados ) e, em seguida, escolha ExampleInputStream na lista.

  5. Escolha Discover schema e verifique se Systolic e Diastolic aparecem como colunas INTEGER. Se elas tiverem um outro tipo, escolha Edit schema e atribua o tipo INTEGER a ambas.

  6. Em Real time analytics, escolha Go to SQL editor. Quando solicitado, confirme a execução do aplicativo.

  7. Cole o seguinte código no editor SQL e, em seguida, escolha Save and run SQL.

    --Creates a temporary stream. CREATE OR REPLACE STREAM "TEMP_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); --Creates another stream for application output. CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" ( "Systolic" INTEGER, "Diastolic" INTEGER, "BloodPressureLevel" varchar(20), "ANOMALY_SCORE" DOUBLE, "ANOMALY_EXPLANATION" varchar(512)); -- Compute an anomaly score with explanation for each record in the input stream -- using RANDOM_CUT_FOREST_WITH_EXPLANATION CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "TEMP_STREAM" SELECT STREAM "Systolic", "Diastolic", "BloodPressureLevel", ANOMALY_SCORE, ANOMALY_EXPLANATION FROM TABLE(RANDOM_CUT_FOREST_WITH_EXPLANATION( CURSOR(SELECT STREAM * FROM "SOURCE_SQL_STREAM_001"), 100, 256, 100000, 1, true)); -- Sort records by descending anomaly score, insert into output stream CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM * FROM "TEMP_STREAM" ORDER BY FLOOR("TEMP_STREAM".ROWTIME TO SECOND), ANOMALY_SCORE DESC;
Próxima etapa

Etapa 3: Examinar os resultados