翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
このセクションでは、Amazon Keyspaces にデータを一括アップロードまたは移行するために使用できるさまざまなツールを確認し、ニーズに応じて適切なツールを選定する方法を学びます。さらに、このセクションでは、Amazon Keyspaces にデータをインポートする方法を示す利用可能な step-by-stepチュートリアルの概要とユースケースについて説明します。
Apache Cassandra から Amazon Keyspaces にワークロードを移行するための戦略を確認するには、「Apache Cassandra から Amazon Keyspaces への移行の計画を立てる」を参照してください。
-
移行ツール
大規模な移行の場合は、抽出、変換、ロード (ETL) ツールの使用を検討してください。 AWS Glue を使用すると、データ変換移行を迅速かつ効果的に実行できます。詳細については、「オフライン移行プロセス: Apache Cassandra から Amazon Keyspaces への移行」を参照してください。
CQLReplicator – CQLReplicatorは、Github
で利用可能なオープンソースユーティリティで、Apache Cassandra から Amazon Keyspaces にほぼリアルタイムでデータを移行するのに役立ちます。 詳細については、「を使用したデータの移行 CQLReplicator」を参照してください。
Amazon Managed Streaming for Apache Kafka を使用して、デュアル書き込みによるオンライン移行プロセスを実装する方法の詳細については、「Guidance for continuous data migration from Apache Cassandra to Amazon Keyspaces
」を参照してください。 Apache Cassandra Spark コネクタを使用して Amazon Keyspaces にデータを書き込む方法については、「Apache Spark を使用した Amazon Keyspaces への接続」を参照してください。
cqlsh
COPY FROM
コマンドを使用してデータを Amazon Keyspaces にロードすることから始めます。cqlsh は、Apache Cassandra に含まれており、小さなデータセットまたはテストデータのロードに最適です。手順については step-by-step、「」を参照してくださいチュートリアル: cqlsh を使用した Amazon Keyspaces へのデータのロード。また、Apache Cassandra 用 DataStax Bulk Loader を使用して、
dsbulk
コマンドを使用して Amazon Keyspaces にデータをロードすることもできます。 は cqlsh よりも堅牢なインポート機能DSBulkを提供し、GitHub リポジトリから利用できます。 step-by-step 手順については、「」を参照してくださいチュートリアル: DSBulk を使用した Amazon Keyspaces へのデータのロード。
Amazon Keyspaces へのデータアップロードに関する一般的な考慮事項
-
データを小さな単位に分けてアップロードします。
生データサイズの観点から、次の移行単位とその潜在的なフットプリントを考慮してください。1 つまたは複数のフェーズで少量ずつデータをアップロードすれば、移行を簡単に進めることができます。
クラスター別 — すべての Cassandra データを一度に移行します。このアプローチはクラスターが小さければおそらく問題ありません。
-
キースペース別またはテーブル別 - 移行をキースペースまたはテーブルのグループに分割します。このアプローチは、各ワークロードの要件に基づいてフェーズでデータを移行する場合に役立ちます。
データ別 - データサイズを縮小するために、特定のユーザーまたは製品グループのデータを移行することを検討します。
-
最初に優先的にアップロードするデータを処理のしやすさに基づいて決めます。
特定の時間に変更されないデータ、夜間のバッチジョブのデータ、オフライン時間に使用されないデータ、内部アプリのデータなど、最初に簡単に移行できるデータがあるかどうかを検討します。