ステップ 5: cqlsh COPY FROM コマンドを実行して、CSVファイルからターゲットテーブルにデータをアップロードする - Amazon Keyspaces (Apache Cassandra 向け)

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

ステップ 5: cqlsh COPY FROM コマンドを実行して、CSVファイルからターゲットテーブルにデータをアップロードする

cqlsh COPY FROM コマンドを使用して、以下のステップを実行します。

  1. cqlsh を使用して Amazon Keyspaces に接続します。

  2. 次のコードがあるキースペースを選択します。

    USE catalog;
  3. 書き込み整合性を LOCAL_QUORUM に設定します。データの耐久性を確保するため、Amazon Keyspaces では他の書き込み整合性設定は使用できません。以下のコードを参照してください。

    CONSISTENCY LOCAL_QUORUM;
  4. 次のコード例を使用して cqlsh COPY FROM 構文を作成します。

    COPY book_awards FROM './keyspace.table.csv' WITH HEADER=true AND INGESTRATE=calculated ingestrate AND NUMPROCESSES=calculated numprocess AND MAXBATCHSIZE=20 AND CHUNKSIZE=calculated chunksize;
  5. 前のステップで準備したステートメントを実行します。cqlsh は、構成したすべての設定をエコーバックします。

    1. 設定が入力と一致していることを確認します。次の例を参照してください。

      Reading options from the command line: {'chunksize': '120', 'header': 'true', 'ingestrate': '36000', 'numprocesses': '15', 'maxbatchsize': '20'} Using 15 child processes
    2. 次の例に示すように、転送された行数と現在の平均レートを確認します。

      Processed: 57834 rows; Rate: 6561 rows/s; Avg. rate: 31751 rows/s
    3. cqlsh によるデータのアップロードが完了したら、次の例に示すように、データロード統計のサマリー (読み取られたファイルの数、ランタイム、スキップされた行数) を確認します。

      15556824 rows imported from 1 files in 8 minutes and 8.321 seconds (0 skipped).

このチュートリアルの最後のステップでは、データを Amazon Keyspaces にアップロードしました。

重要

データを転送したので、アプリケーションの通常のトラフィックパターンに合わせてターゲットテーブルのキャパシティモード設定を調整します。プロビジョンドキャパシティは、変更するまでは、時間ユニットで課金されます。