チュートリアル: を使用して Amazon Keyspaces にデータをロードする DSBulk - Amazon Keyspaces (Apache Cassandra 向け)

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

チュートリアル: を使用して Amazon Keyspaces にデータをロードする DSBulk

この step-by-step チュートリアルでは、 で利用可能な DataStax Bulk Loader (DSBulk) を使用して、Apache Cassandra から Amazon Keyspaces にデータを移行する方法について説明しますGitHub。DSBulk を使用すると、学術目的またはテスト目的で Amazon Keyspaces にデータセットをアップロードするのに役立ちます。本番ワークロードの移行方法の詳細については、「」を参照してくださいオフライン移行プロセス: Apache Cassandra から Amazon Keyspaces。このチュートリアルでは、次の手順を実行します。

前提条件 — のセットアップ AWS 認証情報を含む アカウント、証明書のJKS信頼ストアファイルの作成、 の設定cqlsh、 のダウンロードとインストールDSBulk、application.confおよび ファイルの設定を行います。

  1. ソーステーブルCSVとターゲットテーブルの作成 — ソースデータとしてCSVファイルを作成し、Amazon Keyspaces でターゲットキースペースとテーブルを作成します。

  2. データの準備 — CSV ファイル内のデータをランダム化して分析し、平均行サイズと最大行サイズを決定します。

  3. スループットキャパシティの設定 — データサイズと必要なロード時間に基づいて必要な書き込みキャパシティユニット (WCUs) を計算し、テーブルのプロビジョニングされたキャパシティを設定します。

  4. DSBulk 設定の構成 — 認証、SSL/、整合性レベルTLS、接続プールサイズなどの設定を使用して設定DSBulkファイルを作成します。

  5. DSBulk ロードコマンドを実行する – DSBulkロードコマンドを実行して、 CSV ファイルから Amazon Keyspaces テーブルにデータをアップロードし、進行状況をモニタリングします。