

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Apache Spark
<a name="using-other-services-read-spark"></a>

Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Fornisce contenuti di alto livello APIs in Java, Scala, Python e R e un motore ottimizzato che supporta grafici di esecuzione generali. Puoi utilizzare Apache Spark per creare applicazioni di elaborazione di flussi che utilizzano i dati nei tuoi flussi di dati Kinesis. 

[Per utilizzare i flussi di dati Kinesis utilizzando Apache Spark Structured Streaming, usa il connettore Amazon Kinesis Data Streams.](https://github.com/awslabs/spark-sql-kinesis-connector) Questo connettore supporta il consumo con Enhanced Fan-Out, che fornisce all'applicazione una velocità di lettura dedicata fino a 2 MB di dati al secondo per shard. Per ulteriori informazioni, vedere [Sviluppo di consumatori personalizzati con throughput dedicato](https://docs.aws.amazon.com/streams/latest/dev/enhanced-consumers.html) (Enhanced Fan-Out). 

Per utilizzare i flussi di dati Kinesis utilizzando Spark Streaming, consulta Spark Streaming \$1 Kinesis [Integration](https://spark.apache.org/docs/latest/streaming-kinesis-integration.html). 