

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Apache Spark
<a name="using-other-services-read-spark"></a>

Apache Spark は、大規模データ処理のための統合分析エンジンです。Java、Scala、Python、および R の高レベルな API と、汎用実行グラフをサポートする最適化されたエンジンを提供します。Apache Spark を使用して、Kinesis データストリーム内のデータを消費するストリーム処理アプリケーションを構築できます。

Apache Spark 構造化ストリーミングを使用して Kinesis データストリームを使用するには、Amazon Kinesis Data Streams [コネクタ](https://github.com/awslabs/spark-sql-kinesis-connector)を使用します。このコネクタは、拡張ファンアウトによる消費をサポートします。これにより、アプリケーションはシャードあたり 1 秒あたり最大 2 MB のデータの専用読み取りスループットが得られます。詳しくは、「[スループット専有 (拡張ファンアウト) カスタムコンシューマーの開発](https://docs.aws.amazon.com/streams/latest/dev/enhanced-consumers.html)」を参照してください。

Spark Streaming を使用した Kinesis データストリームを消費するには、「[Spark Streaming \$1 Kinesis Integration](https://spark.apache.org/docs/latest/streaming-kinesis-integration.html)」を参照してください。