

Amazon Timestream for LiveAnalytics に類似した機能をご希望の場合は Amazon Timestream for InfluxDB をご検討ください。リアルタイム分析に適した、シンプルなデータインジェストと 1 桁ミリ秒のクエリ応答時間を特徴としています。詳細については、[こちら](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)を参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# コンソールでのバッチロードの使用
<a name="batch-load-using-console"></a>

以下は、 AWS マネジメントコンソールでバッチロードを使用する手順です。サンプル CSV は[サンプル CSV](samples/batch-load-sample-file.csv.zip) でダウンロードできます。

**Topics**
+ [バッチロードへのアクセス](#console_timestream.access-batch-load.using-console)
+ [バッチロードタスクを作成する](#console_timestream.create-batch-load.using-console)
+ [バッチロードタスクの再開](#console_timestream.resume-batch-load.using-console)
+ [ビジュアルビルダーの使用](#batch-load-using-visual-builder)

## バッチロードへのアクセス
<a name="console_timestream.access-batch-load.using-console"></a>

 AWS マネジメントコンソールを使用してバッチロードにアクセスするには、次の手順に従います。

1. [Amazon Timestream コンソール](https://console.aws.amazon.com/timestream)を開きます。

1. ナビゲーションペインで、**[管理ツール]**、**[バッチロードタスク]** の順に選択します。

1. ここから、バッチロードタスクのリストを表示し、特定のタスクの詳細を確認できます。タスクを作成および再開することもできます。

## バッチロードタスクを作成する
<a name="console_timestream.create-batch-load.using-console"></a>

 AWS マネジメントコンソールを使用してバッチロードタスクを作成するには、次の手順に従います。

1. [Amazon Timestream コンソール](https://console.aws.amazon.com/timestream)を開きます。

1. ナビゲーションペインで、**[管理ツール]**、**[バッチロードタスク]** の順に選択します。

1. **[バッチロードタスクを作成]** を選択します。

1. **[インポート先]** で、次を選択します。
   + **[ターゲットデータベース]** – 「[データベースを作成する](console_timestream.md#console_timestream.db.using-console)」で作成されたデータベース名を選択します。
   + **[ターゲットテーブル]** – 「[テーブルを作成する](console_timestream.md#console_timestream.table.using-console)」で作成されたテーブル名を選択します。

   必要に応じて、**[新しいテーブルを作成]** ボタンを使用して、このパネルからテーブルを追加できます。

1. **[データソース]** の **[データソースの S3 ロケーション]** から、ソースデータが保存されている S3 バケットを選択します。**S3 参照**ボタンを使用して、アクティブな AWS アカウントがアクセスできる S3 リソースを表示するか、S3 ロケーション URL を入力します。データソースは同じリージョンに配置する必要があります。

1. **[ファイル形式の設定]** (拡張可能セクション) では、デフォルト設定を使用して入力データを解析できます。**[高度な設定]** を選択することもできます。そこから **[CSV 形式のパラメータ]** を選択し、入力データを解析するパラメータを選択できます。これらのパラメータについては、「[CSV 形式パラメータ](batch-load-preparing-data-file.md#batch-load-data-file-options)」を参照してください。

1. **[データモデルマッピングを設定]** から、データモデルを設定します。データモデルに関するその他のガイダンスについては、「[バッチロードのデータモデルマッピング](batch-load-data-model-mappings.md)」を参照してください。
   + **[データモデルマッピング]** から **[マッピング設定入力]** を選択し、次のいずれかを選択します。
     + **[ビジュアルビルダー]** – データを視覚的にマッピングするには、**[TargetMultiMeasureName]** または **[MeasureNameColumn]** を選択します。次に、**[ビジュアルビルダー]** から列をマッピングします。

       ビジュアルビルダーは、単一の CSV ファイルがデータソースとして選択されたときに、データソースファイルからソース列ヘッダーを自動的に検出してロードします。属性とデータ型を選択してマッピングを作成します。

       ビジュアルビルダーの使用について詳しくは、「[ビジュアルビルダーの使用](#batch-load-using-visual-builder)」を参照してください。
     + **[JSON エディタ]** – データモデルを設定するための自由形式の JSON エディタ。Timestream for LiveAnalytics に精通しており、高度なデータモデルマッピングを構築する場合は、このオプションを選択します。
     + **[S3 からの JSON ファイル]** – S3 に保存した JSON モデルファイルを選択します。データモデルを既に設定していて、追加のバッチロードに再利用する場合は、このオプションを選択します。

1. **[エラーログレポート]** の **[エラーログの S3 ロケーション]** から、エラーの報告に使用される S3 ロケーションを選択します。このレポートの使用方法については、「[バッチロードエラーレポートの使用](batch-load-using-error-reports.md)」を参照してください。

1. **[暗号化キータイプ]** で、次のいずれかを選択します。
   + **[Amazon S3-managed キー (SSE-S3)]** – Amazon S3 が作成、管理、使用する暗号化キー。
   + **AWS KMS key (SSE-KMS)** – AWS Key Management Service () で保護された暗号化キーAWS KMS。

1. [**次へ**] を選択します。

1. **[レビューして作成]** ページで設定を確認し、必要に応じて編集します。
**注記**  
タスクの作成後にバッチロードタスク設定を変更することはできません。タスクの完了時間は、インポートされるデータの量によって異なります。

1. **[バッチロードタスクを作成]** を選択します。

## バッチロードタスクの再開
<a name="console_timestream.resume-batch-load.using-console"></a>

「進行が停止しました」というステータス (引き続き再開可能) のバッチロードタスクを選択すると、タスクを再開するように求められます。これらのタスクの詳細を表示すると、**[タスクを再開]** ボタンを含むバナーもあります。再開可能なタスクには「再開期限」日が記載されています。その日付を過ぎると、タスクを再開することはできません。

## ビジュアルビルダーの使用
<a name="batch-load-using-visual-builder"></a>

ビジュアルビルダーを使用して、S3 バケットに保存されている 1 つ以上の CSV ファイルのソースデータ列を、Timestream for LiveAnalytics テーブルの送信先列にマッピングできます。

**注記**  
ロールには、ファイルの `SelectObjectContent` 権限が必要です。この権限がない場合は、列を手動で追加および削除する必要があります。

### ソース列の自動ロードモード
<a name="batch-load-using-visual-builder-auto-load"></a>

Timestream for LiveAnalytics では、単一のバケットのみを指定すると、ソース CSV ファイルを自動的にスキャンして列名を探すことができます。既存のマッピングがない場合は、**[ソース列をインポート]** を選択できます。

1. **[マッピング設定入力設定]** から **[ビジュアルビルダー]** オプションを選択し、タイムスタンプの時間入力を設定します。`Milliseconds` がデフォルト設定です。

1. ソースデータファイルにある列ヘッダーをインポートするには、**[ソース列を読み込む]** ボタンをクリックします。テーブルには、データソースファイルのソース列ヘッダー名が入力されます。

1. 各ソース列の **[ターゲットテーブルの列名]**、**[Timestream 属性タイプ]**、**[データ型]** を選択します。

   これらの列と指定できる値の詳細については、「[フィールドのマッピング](#batch-load-using-visual-builder-mapping-fields)」を参照してください。

1. drag-to-fill 機能を使用して、一度に複数の列の値を設定します。

### ソース列を手動で追加する
<a name="batch-load-using-visual-builder-manually-add"></a>

単一の CSV ではなくバケットまたは CSV プレフィックスを使用している場合は、**[列マッピングを追加]** ボタンと **[列マッピングを削除]** ボタンを使用して、ビジュアルエディタから列マッピングを追加および削除できます。マッピングをリセットするボタンもあります。

### フィールドのマッピング
<a name="batch-load-using-visual-builder-mapping-fields"></a>
+ **[ソース列名]** – インポートするメジャーを表すソースファイル内の列の名前。Timestream for LiveAnalytics は、**[ソース列をインポート]** を使用するときに、この値を自動的に入力できます。
+ **[ターゲットテーブルの列名]** – ターゲットテーブルのメジャーの列名を示すオプションの入力。
+ **[Timestream 属性タイプ]** – `DIMENSION` など、指定されたソース列内のデータの属性タイプ。
  + **TIMESTAMP** – メジャーが収集された日時を指定します。
  + **MULTI** – 複数のメジャーが表されます。
  + **DIMENSION** – 時系列メタデータ。
  + **MEASURE\$1NAME** – 単一メジャーレコードの場合、これがメジャー名です。
+ **[データ型]** – `BOOLEAN` など、Timestream 列のタイプ。
  + **BIGINT** – 64 ビットの整数。
  + **BOOLEAN** – ロジックの 2 つの真理値である true と false。
  + **DOUBLE** – 64 ビットの可変精度数。
  + **TIMESTAMP** – UTC でナノ秒の精度時間を使用し、Unix エポックからの時間を追跡する時間内のインスタンス。