

Após uma análise cuidadosa, decidimos descontinuar o Amazon Kinesis Data Analytics para aplicativos SQL:

1. A partir de **1º de setembro de 2025,** não forneceremos nenhuma correção de bug para aplicativos do Amazon Kinesis Data Analytics para SQL porque teremos suporte limitado para ele, devido à próxima descontinuação.

2. A partir **de 15 de outubro de 2025,** você não poderá criar novos aplicativos Kinesis Data Analytics para SQL.

3. Excluiremos as aplicações a partir de **27 de janeiro de 2026**. Você não poderá mais iniciar nem operar as aplicações do Amazon Kinesis Data Analytics para SQL. A partir dessa data, não haverá mais suporte ao Amazon Kinesis Data Analytics para SQL. Para obter mais informações, consulte [Descontinuação de aplicações do Amazon Kinesis Data Analytics para SQL](discontinuation.md).

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Exemplo: divisão de strings de caracteres em vários campos (função VARIABLE\$1COLUMN\$1LOG\$1PARSE)
<a name="examples-transforming-strings-variablecolumnlogparse"></a>

Este exemplo usa a função `VARIABLE_COLUMN_LOG_PARSE` para manipular strings no Kinesis Data Analytics. O `VARIABLE_COLUMN_LOG_PARSE` divide uma string de entrada nos campos separados por um caractere delimitador ou uma string delimitadora. Para obter mais informações, consulte [VARIABLE\$1COLUMN\$1LOG\$1PARSE](https://docs.aws.amazon.com/kinesisanalytics/latest/sqlref/sql-reference-variable-column-log-parse.html) em *Amazon Managed Service for Apache Flink SQL Reference*.

Neste exemplo, você grava registros semiestruturados em um fluxo de dados do Amazon Kinesis Data Streams. Esta é a aparência dos registros de exemplo:

```
{ "Col_A" : "string",
  "Col_B" : "string",
  "Col_C" : "string",
  "Col_D_Unstructured" : "value,value,value,value"}
{ "Col_A" : "string",
  "Col_B" : "string",
  "Col_C" : "string",
  "Col_D_Unstructured" : "value,value,value,value"}
```



Em seguida, você criará um aplicativo Kinesis Data Analytics no console usando o stream Kinesis como origem de streaming. O processo de descoberta lê registros de exemplo na origem de streaming e infere um esquema de aplicativo com quatro colunas, como mostrado a seguir:

![\[Captura de tela do console mostrando o esquema no aplicativo com quatro colunas.\]](http://docs.aws.amazon.com/pt_br/kinesisanalytics/latest/dev/images/unstructured-10.png)


Em seguida, você usa o código do aplicativo com a função `VARIABLE_COLUMN_LOG_PARSE` para analisar os valores separados por vírgulas e insere linhas normalizadas em outro stream no aplicativo, como mostrado a seguir:



![\[Captura de tela do console mostrando a guia de análise em tempo real com o fluxo no aplicativo.\]](http://docs.aws.amazon.com/pt_br/kinesisanalytics/latest/dev/images/unstructured-20.png)


**Topics**
+ [Etapa 1: Criar um fluxo de dados Kinesis](#examples-transforming-strings-variablecolumnlogparse-1)
+ [Etapa 2: Criar o aplicativo Kinesis Data Analytics](#examples-transforming-strings-variablecolumnlogparse-2)

## Etapa 1: Criar um fluxo de dados Kinesis
<a name="examples-transforming-strings-variablecolumnlogparse-1"></a>

Crie um fluxo de dados do Amazon Kinesis e preencha registros de log da seguinte forma:

1. [Faça login no Console de gerenciamento da AWS e abra o console do Kinesis em https://console.aws.amazon.com /kinesis.](https://console.aws.amazon.com/kinesis)

1. Selecione **Data Streams (Fluxos de dados)** no painel de navegação.

1. Escolha **Create Kinesis stream (Criar fluxo do Kinesis)** e crie um fluxo com um estilhaço. Para obter mais informações, consulte [Criar um fluxo](https://docs.aws.amazon.com/streams/latest/dev/learning-kinesis-module-one-create-stream.html) no *Guia do desenvolvedor do Amazon Kinesis Data Streams*.

1. Execute o seguinte código Python para preencher os registros de log de exemplo. Esse código simples grava continuamente o mesmo registro de log no fluxo.

   ```
    
   import json
   import boto3
   
   STREAM_NAME = "ExampleInputStream"
   
   
   def get_data():
       return {"Col_A": "a", "Col_B": "b", "Col_C": "c", "Col_E_Unstructured": "x,y,z"}
   
   
   def generate(stream_name, kinesis_client):
       while True:
           data = get_data()
           print(data)
           kinesis_client.put_record(
               StreamName=stream_name, Data=json.dumps(data), PartitionKey="partitionkey"
           )
   
   
   if __name__ == "__main__":
       generate(STREAM_NAME, boto3.client("kinesis"))
   ```

   

## Etapa 2: Criar o aplicativo Kinesis Data Analytics
<a name="examples-transforming-strings-variablecolumnlogparse-2"></a>

Crie um aplicativo de análise de dados do Kinesis Data Analytics, da seguinte maneira:

1. [Abra o console do Managed Service for Apache Flink em https://console.aws.amazon.com /kinesisanalytics.](https://console.aws.amazon.com/kinesisanalytics)

1. Escolha **Create application (Criar aplicativo)**, digite um nome para o aplicativo e selecione **Create application (Criar aplicativo)**.

1. Na página de detalhes do aplicativo, escolha **Connect streaming data (Conectar dados de streaming)**. 

1. Na página **Connect to source (Conectar com a fonte)**, faça o seguinte:

   1. Escolha o stream criado na seção anterior.

   1. Escolha a opção para criar uma função do IAM.

   1. Escolha **Discover schema (Descobrir esquema)**. Aguarde o console mostrar o esquema inferido e os registros de exemplo usados para inferir o esquema do fluxo do aplicativo criado. Observe que o esquema inferido tem apenas uma coluna.

   1. Escolha **Save and continue**.

   

1. Na página de detalhes de aplicativo, escolha **Go to SQL editor (Ir para o editor de SQL)**. Para iniciar o aplicativo, escolha **Yes, start application (Sim, iniciar o aplicativo)** na caixa de diálogo exibida.

1. No editor SQL, escreva o código do aplicativo e verifique os resultados:

   1. Copie o código de aplicativo a seguir e cole-o no editor:

      ```
      CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM"(
                  "column_A" VARCHAR(16),
                  "column_B" VARCHAR(16),
                  "column_C" VARCHAR(16),
                  "COL_1" VARCHAR(16),             
                  "COL_2" VARCHAR(16),            
                  "COL_3" VARCHAR(16));
      
      CREATE OR REPLACE PUMP "SECOND_STREAM_PUMP" AS
      INSERT INTO "DESTINATION_SQL_STREAM"
         SELECT STREAM  t."Col_A", t."Col_B", t."Col_C",
                        t.r."COL_1", t.r."COL_2", t.r."COL_3"
         FROM (SELECT STREAM 
                 "Col_A", "Col_B", "Col_C",
                 VARIABLE_COLUMN_LOG_PARSE ("Col_E_Unstructured",
                                           'COL_1 TYPE VARCHAR(16), COL_2 TYPE VARCHAR(16), COL_3 TYPE VARCHAR(16)',
                                           ',') AS r 
               FROM "SOURCE_SQL_STREAM_001") as t;
      ```

   1. Escolha **Save and run SQL**. Na guia **Real-time analytics (Análise em tempo real)**, você pode ver todos os fluxos de aplicativo criados pelo aplicativo e verificar os dados.