

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Apache Spark
<a name="using-other-services-read-spark"></a>

O Apache Spark é um mecanismo de analytics unificado para processamento de dados em grande escala. Ele fornece alto nível APIs em Java, Scala, Python e R e um mecanismo otimizado que suporta gráficos de execução geral. Você pode usar o Apache Spark para criar aplicações de processamento de fluxos que consumam os dados nos fluxos de dados do Kinesis. 

Para consumir os fluxos de dados do Kinesis usando o Apache Spark Structured Streaming, use o [conector](https://github.com/awslabs/spark-sql-kinesis-connector)do Amazon Kinesis Data Streams. Esse conector é compatível com o consumo com a distribuição avançada, o que fornece à sua aplicação throughput de leitura dedicada de até 2 MB de dados por segundo por fragmento. Para ter mais informações, consulte [Desenvolver consumidores personalizados com throughput dedicado (distribuição avançada)](https://docs.aws.amazon.com/streams/latest/dev/enhanced-consumers.html). 

Para o consumo de fluxos de dados do Kinesis usando o Spark Streaming, consulte [Spark Streaming \$1 integração com Kinesis](https://spark.apache.org/docs/latest/streaming-kinesis-integration.html). 