

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Realización de análisis interactivo de los datos del flujo
<a name="how-zeppelin-interactive"></a>

Utiliza un portátil sin servidor con tecnología Apache Zeppelin para interactuar con sus datos de streaming. Su cuaderno puede tener varias notas y cada nota puede tener uno o más párrafos en los que puede escribir el código.

El siguiente ejemplo de consulta SQL muestra cómo recuperar datos de un origen de datos:

```
%flink.ssql(type=update)
select * from stock;
```

Para ver más ejemplos de consultas SQL de Flink Streaming, consulte [Ejemplos y tutoriales para cuadernos de Studio en Managed Service para Apache Flink](how-zeppelin-examples.md) a continuación y [Queries](https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/dev/table/sql/queries/overview/) en la documentación de Apache Flink.

Se puede utilizar las consultas SQL de Flink del cuaderno de Studio para consultar los datos de streaming. También puedes usar Python (API de tabla) y Scala (tabla y flujo de datos APIs) para escribir programas que consulten tus datos de streaming de forma interactiva. Se puede ver los resultados de sus consultas o programas, actualizarlos en cuestión de segundos y volver a ejecutarlos para ver los resultados actualizados.

## Intérpretes de Flink
<a name="how-zeppelin-interactive-interpreters"></a>

*Usted especifica el idioma que utiliza Managed Service para Apache Flink para ejecutar su aplicación mediante un intérprete.* Se puede usar los siguientes intérpretes con Managed Service para Apache Flink:


| Name | Clase | Description (Descripción) | 
| --- |--- |--- |
| %flink | FlinkInterpreter | Crea ExecutionEnvironment/StreamExecutionEnvironment/BatchTableEnvironment/StreamTableEnvironmenty proporciona un entorno Scala | 
| %flink.pyflink | PyFlinkInterpreter | Proporciona un entorno de python | 
| %flink.ipyflink | IPyFlinkInterpreter | Proporciona un entorno ipython | 
| %flink.ssql | FlinkStreamSqlInterpreter | Proporciona un entorno de flujo sql | 
| %flink.bsql | FlinkBatchSqlInterpreter | Proporciona un entorno sql por lotes | 

Para obtener más información sobre los intérpretes de Flink, consulte [Flink interpreter for Apache Zeppelin](https://zeppelin.apache.org/docs/0.9.0/interpreter/flink.html).

Si se utiliza `%flink.pyflink` o `%flink.ipyflink` como intérpretes, necesitará usar `ZeppelinContext` para visualizar los resultados en el cuaderno.

Para ver ejemplos más PyFlink específicos, consulte Consulte [sus flujos de datos de forma interactiva mediante Managed Service para Apache Flink Studio y Python](https://aws.amazon.com/blogs/big-data/query-your-data-streams-interactively-using-kinesis-data-analytics-studio-and-python/).

## Variables de entorno de la tabla de Apache Flink
<a name="how-zeppelin-interactive-env-vars"></a>

Apache Zeppelin proporciona acceso a los recursos del entorno de la tabla mediante variables de entorno. 

Se accede a los recursos del entorno de tablas de Scala con las siguientes variables:


| Variable | Recurso | 
| --- |--- |
| senv | StreamExecutionEnvironment | 
| stenv | StreamTableEnvironment for blink planner | 

Se puede acceder a los recursos del entorno de tablas de Python con las siguientes variables:


| Variable | Recurso | 
| --- |--- |
| s\$1env | StreamExecutionEnvironment | 
| st\$1env | StreamTableEnvironment for blink planner | 

Para obtener más información sobre el uso de entornos de tablas, consulte [Concepts and Common API](https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/dev/table/common/) en la documentación de Apache Flink. 