

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Quick Sight でのデータの更新
<a name="refreshing-data"></a>

データを更新する場合、Amazon Quick Sight は、接続プロパティとデータの保存場所に応じてデータセットを異なる方法で処理します。

Quick Sight が直接クエリを使用してデータストアに接続すると、関連するデータセット、分析、またはダッシュボードを開くとデータが自動的に更新されます。フィルターコントロールは 24 時間ごとに自動的に更新されます。

SPICE データセットを更新するには、Quick Sight は保存された認証情報を使用して個別に認証し、データに接続する必要があります。Quick Sight は接続と場所のメタデータを保存しないため、S3 バケットからであっても、Quick SPICESight は手動でアップロードされたデータを更新できません。S3 バケットに格納されているデータを自動的に更新するときは、**S3** データソースカードを使用してデータセットを作成します。

SPICE に手動でアップロードしたファイルの場合は、ファイルを再度インポートして手動で更新します。新しいファイルに元のデータセットの名前を再利用する場合は、まず元のデータセットの名前を変更または削除します。次に、新しいデータセットに優先する名前を付けます。また、フィールド名が同じ名前とデータ型であることを確認します。分析を開き、元のデータセットを新しいデータセットに置き換えます。詳細については、「[データセットの置き換え](replacing-data-sets.md)」を参照してください。

[SPICE](spice.md) データセットはいつでも更新できます。更新はデータを SPICE に再度インポートするので、データには前回のインポート後のすべての変更が含まれています。

Amazon Quick Sight Standard Edition では、いつでもSPICEデータを完全に更新できます。Amazon Quick Sight Enterprise Edition では、いつでもフル更新または増分更新 (SQL ベースのデータソースのみ) を実行できます。

**注記**  
データセットが CustomSQL を使用している場合は、増分更新によるメリットを得られない可能性があります。SQL クエリが複雑である場合、データベースはルックバック期間でフィルターを最適化できない場合があります。これは、データを取り込むクエリの時間が、フル更新よりも長くかかる原因になり得ます。カスタム SQL をリファクタリングして、クエリの実行時間を短縮してみることをお勧めします。実行する最適化のタイプに応じて結果が異なる場合があることに注意してください。

SPICE データは、以下の方法のいずれかを使用して更新できます。
+ **データセット**ページのオプションを使用する。
+ データセットの編集中にデータセットを更新する。
+ データの設定で更新をスケジュールする。
+ [CreateIngestion](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateIngestion.html) API オペレーションを使ってデータを更新できます。

SPICE データセットの作成または編集時に、データのロードステータスに関する E メール通知を有効にできます。このオプションは、データの読み込みまたは更新に失敗した場合にデータセットの所有者に通知します。通知をオンにするには、[**Finish data set creation** (データセットの作成を終了する)] 画面に表示される [**Email owners when a refresh fails** (更新が失敗したときに所有者にメールを送信)] を選択します。このオプションは、データセットページの [**Upload a File** (ファイルのアップロード)] を使って作成したデータセットでは使用できません。

以下のトピックでは、SPICE データを更新して使用するための異なるアプローチを説明します。

**Topics**
+ [SPICE へのデータのインポート](spice.md)
+ [SPICE データの更新](refreshing-imported-data.md)
+ [分析での SPICE データの使用](spice-in-an-analysis.md)
+ [SPICE 取り込み履歴を表示する](view-history-of-spice-ingestion.md)
+ [スキップされた行のエラーのトラブルシューティング](troubleshooting-skipped-rows.md)
+ [SPICE 取り込みエラーコード](errors-spice-ingestion.md)
+ [データセット内のファイルの更新](updating-file-dataset.md)

# SPICE へのデータのインポート
<a name="spice"></a>

直接 SQL クエリを使用するのではなく、データセットにデータをインポートすると、その保存方法によって*SPICEデータ*になります。 *SPICE (Super-fast, Parallel, In-memory Calculation Engine)*は、Amazon Quick Sight が使用する堅牢なインメモリエンジンです。SPICE は、高度な計算を迅速に実行し、データを提供するように設計されています。Enterprise Edition では、SPICE に保存されるデータが保管時に暗号化されます。

データセットを作成または編集するときは、データセットにアップロードされたファイルが含まれている場合を除き、SPICE または直接クエリの使用を選択します。SPICE にデータをインポートする (*取り込む*とも言います) ことにより、時間とコストを節約できます。
+ 分析クエリの処理速度が速くなる。
+ 直接クエリが処理されるまで待つ必要がない。
+ SPICE に保存されたデータは、追加コストを発生させることなく複数回再利用できる。クエリごとに課金されるデータソースを使用すると、最初にデータセットを作成するときと、後でデータセットを更新するときに、データのクエリに対して課金されます。

SPICE 容量は、それぞれに個別に割り当てられます AWS リージョン。デフォルトのSPICE容量はホームに自動的に割り当てられます AWS リージョン。 AWS アカウントごとに、Quick Sight を使用するすべてのユーザーが 1 つのアカウントでSPICE容量を共有します AWS リージョン。もう 1 AWS リージョン つは、購入を選択しない限りSPICE容量がありません。Quick Sight 管理者は、各 の[SPICE](#spice)容量 AWS リージョン と現在使用されている容量を表示できます。Quick Sight 管理者は、必要に応じてより多くのSPICE容量を購入したり、未使用のSPICE容量を解放したりできます。詳細については、「[SPICE メモリ容量を設定する](managing-spice-capacity.md)」を参照してください。

**Topics**
+ [SPICE データセットのサイズの推定](#spice-capacity-formula)

## SPICE データセットのサイズの推定
<a name="spice-capacity-formula"></a>

クイックアカウントのSPICE容量SPICEに対する のデータセットのサイズは、*論理サイズ*と呼ばれます。データセットの論理サイズは、データセットのソースファイルまたはテーブルのサイズと同じではありません。データセットの論理サイズの計算は、データの準備中にすべてのデータ型変換と計算列が定義された後に行われます。これらのフィールドは、クエリパフォーマンスを向上させるように SPICE でマテリアライズされます。分析で行われる変更は、SPICE 内のデータの論理サイズに影響を及ぼしません。データセットで保存された変更のみが SPICE 容量に適用されます。

SPICE データセットの論理サイズは、データセットフィールドのデータ型と、データセット内の行数によって異なります。SPICE データの 3 つの種類とは、小数、日付、文字列です。データビジュアライゼーションのニーズに合わせて、データの準備段階でフィールドのデータ型を変換できます。例えば、インポートするファイルには、すべての文字列 (テキスト) が含まれている場合があります。しかし、これらを分析で有効に活用するには、データ型を適切な形式に変更してデータを準備します。料金を含むフィールドは文字列から小数に変更でき、日付を含むフィールドは文字列から日付に変更できます。計算フィールドを作成し、ソーステーブルから不要なフィールドを除外することもできます。データセットの準備が完了し、すべての変換が完了したら、最終的なスキーマの論理サイズを見積もることができます。

**注記**  
地理空間データ型は、メタデータを使用して物理データ型を解釈します。緯度と経度は数値です。その他のすべての地理空間カテゴリは文字列です。

以下の式では、小数点と日付はセルあたり 8 バイトとして計算され、補助のために 4 バイトが追加されます。文字列は、UTF-8 エンコーディングでのテキストの長さに、補助のための 24 バイトを加えたものに基づいて計算されます。文字列のデータ型では、高いクエリパフォーマンスを実現するために SPICE によって追加のインデックス作成が必要とされるため、より多くの領域が必要になります。

```
Logical dataset size in bytes =
(Number of Numeric cells *  (12 bytes per cell))
+ (Number of Date cells    *  (12 bytes per cell))
+ SUM ((24 bytes + UTF-8 encoded length) per Text cell)
```

上記の式は、SPICE 内の単一のデータセットのサイズを推定する場合にのみ使用される必要があります。SPICE キャパシティ使用量は、特定のリージョンのアカウント内のすべてのデータセットの合計サイズです。Quick Sight アカウントが使用している合計SPICE容量を見積もるために、この式を使用することはお勧めしません。

# SPICE データの更新
<a name="refreshing-imported-data"></a>

## データセットの更新
<a name="refresh-spice-data"></a>

データ****タブの Amazon S3 またはデータベースデータソースに基づいて[SPICE](spice.md)データセットを更新するには、次の手順に従います。データベースにスキーマの変更がある場合、Quick Sight はそれを自動検出できず、取り込みが失敗します。データセットを編集して保存してスキーマを更新し、取り込みの失敗を回避します。

**データタブからSPICEデータを更新するには**

1. 左側のナビゲーションメニューから**データ**を選択します。**データセット**タブで、データセットを選択して開きます。

1. データセットの詳細ページが開くので、**[Refresh]** (更新) タブを選択し、次に **[Refresh now]** (今すぐ更新) を選択します。

1. 更新タイプは [**Full refresh** (フル更新)] のままにしておきます。

1. Amazon S3 のデータセットを更新する場合は、**S3 マニフェスト**の以下のオプションのいずれか 1 つを選択します。
   + 最後に Amazon Quick Sight に提供したのと同じマニフェストファイルを使用するには、**既存のマニフェスト**を選択します。前回指定したファイルの場所または URL にあるマニフェストファイルを変更している場合、返されるデータにはそれらの変更が反映されます。
   + ローカルネットワークからのアップロードにより新しいマニフェストファイルを指定するには、[**Upload Manifest**]、[**Upload manifest file**] の順に選択します。[**Open**] で、ファイルを選択してから [**Open**] を選択します。
   + URL の指定により新しいマニフェストファイルを指定するには、[**Input manifest URL (マニフェスト URL の入力)**] にマニフェストの URL を入力します。マニフェストファイルの URL は、Amazon S3 コンソールでマニフェストファイルのコンテキストメニュー (右クリック) を開き、[**Properties** (プロパティ)] を選択し、[**Link** (リンク)] ボックスを見ると確認できます。

1. **[更新]** を選択します。

1. Amazon S3 のデータセットを更新する場合は、[**OK**] を選択し、もう一度 [**OK**] を選択します。

   データベースのデータセットを更新する場合は、[**OK**] を選択します。

## データセットの増分更新
<a name="refresh-spice-data-incremental"></a>


|  | 
| --- |
|  適用対象: Enterprise Edition  | 

Amazon Redshift、Amazon Athena、PostgreSQL、または Snowflake などの SQL ベースのデータソースの場合、ルックバック期間内にデータを増分的に更新できます。

*増分更新*は、指定されたルックバック期間内で、データセットによって定義されたデータのみをクエリします。この更新は、その期間内に行われたデータセットへの挿入、削除、および変更のすべてをソースからデータセットに転送します。現在 SPICE 内にあるデータでその期間内にあてはまるものは削除され、更新されたデータに置き換えられます。

増分更新では、更新ごとにクエリおよび転送されるデータが少なくなります。例えば、1 月 1 日から 6 月 30 日までのデータが含まれた 180,000 個のレコードを持つデータセットがあるとします。7 月 1 日に、7 日間のルックバック期間でデータの増分更新を実行します。Quick Sight は、6 月 24 日 (7 日前) 以降のすべてのデータをデータベースに照会します。これは 7,000 レコードです。次に、Quick Sight は 6 月 24 日以降SPICEに現在 にあるデータを削除し、新しくクエリされたデータを追加します。翌日 (7 月 2 日）、Quick Sight は同じことを行いますが、6 月 25 日のクエリ (再度 7,000 レコード) は同じ日付から既存のデータセットから を削除します。毎日 180,000 個のレコードを取り込む代わりに、7,000 個のレコードを取り込むだけでよいことになります。

次の手順を使用して、[SPICE](spice.md)データセットタブから SQL データソースに基づいて**データセット**を段階的に更新します。

**SQL ベースの SPICE データセットを増分更新する**

1. 左側のナビゲーションメニューから**データ**を選択します。**データセット**タブで、データセットを選択して開きます。

1. データセットの詳細ページが開くので、**[Refresh]** (更新) タブを選択し、次に **[Refresh now]** (今すぐ更新) を選択します。

1. **[Refresh type]** (更新タイプ) には **[Incremental refresh]** (増分更新) を選択します。

1. これがデータセットで行う最初の増分更新である場合は、**[Configure]** (設定) をクリックします。

1. **[Configure incremental refresh]** (増分更新を設定) ページで、以下を実行します。

   1. **[Date column]** (日付の列) には、ルックバック期間の基準にする日付列を選択します。

   1. **[Window size]** (ウィンドウサイズ) には、**[size]** (サイズ) の数値を入力します。次に、変更についてルックバックする時間の単位を選択します。

      現時点から、指定された時間数、日数、または週数内に発生したデータへの変更を更新するように選択できます。例えば、現在の日付から 2 週間の間に発生したデータへの変更を更新するように選択できます。

1. [**Submit**] を選択してください。

## データの準備時におけるデータセットの更新
<a name="refresh-spice-data-prep"></a>

以下の手順に従って、データの準備中に Amazon S3 またはデータベースのデータソースに基づく [SPICE](spice.md) データセットを更新します。

**データの準備中に SPICE のデータを更新する**

1. 左側のナビゲーションメニューから**データ**を選択します。**データセット**タブで、データセットを選択し、**データセットの編集**を選択します。

1. データセット画面で、[**Refresh now** (今すぐ更新)] を選択します。

1. 更新のタイプは [**Full refresh** (フル更新)] のままにしておきます。

1. (オプション) Amazon S3 のデータセットを更新する場合は、**S3 マニフェスト**の以下のオプションのいずれか 1 つを選択します。
   + Amazon Quick Sight に最後に提供したのと同じマニフェストファイルを使用するには、**既存のマニフェスト**を選択します。前回指定したファイルの場所または URL にあるマニフェストファイルを変更している場合、返されるデータにはそれらの変更が反映されます。
   + ローカルネットワークからのアップロードにより新しいマニフェストファイルを指定するには、[**Upload Manifest**]、[**Upload manifest file**] の順に選択します。[**Open**] で、ファイルを選択してから [**Open**] を選択します。
   + URL の指定により新しいマニフェストファイルを指定するには、[**Input manifest URL (マニフェスト URL の入力)**] にマニフェストの URL を入力します。マニフェストファイルの URL は、Amazon S3 コンソールでマニフェストファイルのコンテキストメニュー (右クリック) を開き、[**Properties** (プロパティ)] を選択し、[**Link** (リンク)] ボックスを見ると確認できます。

1. **[更新]** を選択します。

1. Amazon S3 のデータセットを更新する場合は、[**OK**] を選択し、もう一度 [**OK**] を選択します。

   データベースのデータセットを更新する場合は、[**OK**] を選択します。

## スケジュールに基づいたデータセットの更新
<a name="schedule-data-refresh"></a>

以下の手順に従って、データの更新をスケジュールします。データセットが直接クエリに基づくもので、[SPICE](spice.md) に保存されていない場合は、データセットを開くことでデータを更新できます。分析またはダッシュボードのページを更新して、データを更新することもできます。

**スケジュールに基づいて [SPICE](spice.md) データを更新する**

1. 左側のナビゲーションメニューから**データ**を選択します。**データセット**タブで、データセットを選択して開きます。

1. データセットの詳細ページが開くので、**[Refresh]** (更新) タブを選択し、次に **[Add new schedule]** (新しいスケジュールを追加) を選択します。

1. **[Create a refresh schedule]** (更新スケジュールの作成) 画面で、以下のスケジュールの設定を選択します。

   1. [**Time zone (タイムゾーン)**] で、データの更新に適用されるタイムゾーンを選択します。

   1. **[Starting time]** (開始時間) で、更新を開始する日付と時刻を選択します。24 時間表記の「HH:MM」形式を使用します (例: 13:30)。

   1. **[Frequency]** (頻度) で、以下のいずれかを選択します。
      + Standard Edition または Enterprise Edition の場合は、[**毎日**]、[**毎週**]、または [**毎月**] を選択できます。
        + **Daily**: 毎日繰り返します。
        + **Weekly**: 毎週同じ日に繰り返します。
        + **Monthly**: 毎月同じ日に繰り返します。毎月の 29 日、30 日、または 31 日にデータを更新するには、リストから [**Last day of month**] を選択します。
      + Enterprise Edition の場合のみ、[**Hourly (毎時)**] を選択できます。この設定では、選択した時刻を開始点として 1 時間ごとにデータセットが更新されます。したがって、開始時刻として 1:05 を選択すると、その時間後に、毎時 5 分にデータが更新されます。

        1 時間ごとの更新を使用する場合は、追加の更新スケジュールを使用することもできません。時間単位のスケジュールを作成するには、そのデータセットの他の既存のスケジュールを削除します。また、毎日、毎週、または毎月のスケジュールを作成する前に、既存の時間単位のスケジュールを削除します。

1. **[保存]** を選択します。

スケジュールされたデータセットの取り込みは、スケジュールされた日時の 10 分以内に行われます。

クイックコンソールを使用して、データセットごとに 5 つのスケジュールを作成できます。スケジュールが 5 個作成されると、**[Create]** (作成) ボタンが無効になります。

## スケジュールに基づいたデータセットの増分更新
<a name="schedule-data-refresh-incremental"></a>


|  | 
| --- |
|  適用対象: Enterprise Edition  | 

Amazon Redshift、Athena、PostgreSQL、または Snowflake などの SQL ベースのデータソースには、増分更新をスケジュールできます。データセット****タブの SQL データソースに基づいて[SPICE](spice.md)データセットを段階的に更新するには、次の手順に従います。

**SQL ベースの SPICE データセットに増分更新スケジュールを設定する**

1. 左側のナビゲーションメニューから**データ**を選択します。**データセット**タブで、データセットを選択して開きます。

1. データセットの詳細ページが開くので、**[Refresh]** (更新) タブを選択し、次に **[Add new schedule]** (新しいスケジュールを追加) を選択します。

1. **[Create a schedule]** (スケジュールの作成) ページで、**[Refresh type]** (更新タイプ) に **[Incremental refresh]** (増分更新) を選択します。

1. これがこのデータセットの最初の増分更新である場合は、**[Configure]** (設定) をクリックして以下を実行します。

   1. **[Date column]** (日付の列) には、ルックバック期間の基準にする日付列を選択します。

   1. **[Window size]** (ウィンドウサイズ) には、**[size]** (サイズ) の数値を入力します。次に、変更についてルックバックする時間の単位を選択します。

      現時点から、指定された時間数、日数、または週数内に発生したデータへの変更を更新するように選択できます。例えば、現在の日付から 2 週間の間に発生したデータへの変更を更新するように選択できます。

   1. [**Submit**] を選択してください。

1. [**Time zone (タイムゾーン)**] で、データの更新に適用されるタイムゾーンを選択します。

1. [**繰り返し**] で、以下のいずれかのオプションを選択します。
   + **[Every 15 minutes]** (15 分ごと)、**[Every 30 minutes]** (30 分ごと）、**[Hourly]** (毎時)、**[Daily］** (毎日)、**[Weekly]** (毎週)、または **[Monthly]** (毎月) を選択できます。
     + **[Every 15 minutes]** (15 分ごと): 選択した時刻を開始点として 15 分ごとに繰り返されます。したがって、開始時刻として 1:05 を選択すると、データは 1:20 に更新され、その後 1:35 に再度更新されます。
     + **[Every 30 minutes]** (30 分ごと): 選択した時刻を開始点として 30 分ごとに繰り返されます。したがって、開始時刻として 1:05 を選択すると、データは 1:35 に更新され、その後 2:05 に再度更新されます。
     + **[Hourly]** (毎時): 選択した時刻を開始点として 1 時間ごとに繰り返されます。したがって、開始時刻として 1:05 を選択すると、その時間後に、毎時 5 分にデータが更新されます。
     + **Daily**: 毎日繰り返します。
     + **Weekly**: 毎週同じ日に繰り返します。
     + **Monthly**: 毎月同じ日に繰り返します。毎月の 29 日、30 日、または 31 日にデータを更新するには、リストから [**Last day of month**] を選択します。
   + 15 分ごと、30 分ごと、または毎時の更新を使用する場合は、追加の更新スケジュールを使用できません。15 分ごと、30 分ごと、または毎時の更新スケジュールを作成するには、そのデータセット用の他の既存スケジュールを削除してください。また、毎日、毎週、または毎月のスケジュールを作成する前にも、既存の分単位または毎時のスケジュールを削除してください。

1. [**Starting** (開始日)] では、更新を開始する日付を選択します。

1. [**At (時刻)**] では、更新を開始する時刻を指定します。24 時間表記の「HH:MM」形式を使用します (例: 13:30)。

スケジュールされたデータセットの取り込みは、スケジュールされた日時の 10 分以内に行われます。

場合によっては、データセットの増分更新で不具合が発生し、データセットをロールバックする必要が生じることがあります。または、データセットの増分更新を停止したいという場合もあります。このような場合は、スケジュールされた更新を削除できます。

削除するには、**[Datasets]** (データセット) ページでデータセットを選択し、**[Schedule a refresh]** (更新をスケジュール) をクリックしてから、スケジュールされた更新の右側にある [X] アイコンをクリックします。増分更新設定を削除すると、フル更新が開始されます。このフル更新の一環として、増分更新用に準備されたすべての設定が削除されます。

# 分析での SPICE データの使用
<a name="spice-in-an-analysis"></a>

保存されたデータを使用して分析を作成するときは、**[Field list]** (フィールドリスト) ペインの上部にあるデータセットリストの横に、データインポートインジケーターが表示されます。最初に分析を開いてデータセットをインポートすると、スピナーアイコンが表示されます。

SPICE インポートが完了すると、インジケーターに正常にインポートされた行の割合 (%) が表示されます。ビジュアライゼーションペインの上部にもメッセージが表示され、インポートおよびスキップされた行の数が表示されます。

行がスキップされた場合は、このメッセージバーの [**View summary (概要を表示)**] を選択して、その行がインポートに失敗した理由の詳細を表示できます。データセットを編集し、行がスキップされる原因となった問題を解決するには、**[Edit data set]** (データセットの編集) をクリックします。スキップされた行の一般的な原因の詳細については、「[スキップされた行のエラーのトラブルシューティング](troubleshooting-skipped-rows.md)」を参照してください。

インポートが完全に失敗すると、データインポートインジケーターが感嘆符アイコンとして表示され、「**Import failed (インポートに失敗)**」メッセージが表示されます。

# SPICE 取り込み履歴を表示する
<a name="view-history-of-spice-ingestion"></a>

SPICE データセットの取り込み履歴を表示して、最新の取り込みが開始された日時とそのステータスなどを確認することができます。

SPICE 取り込み履歴ページには、以下の情報が記載されています。
+ 取り込みが開始された日時 (UTC)
+ 取り込みのステータス
+ 取り込みにかかった時間
+ データセット内の集約された行の数。
+ 更新中に取り込まれた行の数。
+ スキップされた行、正常に取り込まれた (インポートされた) 行
+ 更新のジョブタイプ: スケジュール済み、フル更新など

以下の手順を実行して、データセットの SPICE 取り込み履歴を表示します。

**データセットの SPICE 取り込み履歴を表示する**

1. ホームページから、左側の**データ**を選択します。

1. **データセット**タブで、検査するデータセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Refresh]** (更新) タブを選択します。

   SPICE による取得の履歴は下部に表示されます。

1. (オプション) 過去 1 時間から過去 90 日までのエントリをフィルタリングする時間枠を選択します。

1. （オプション）特定のジョブステータスを選択して、エントリをフィルタリングします。たとえば、[**Running (実行中)**] や [**Completed (完了)**] などです。それ以外の場合は、[**All (すべて)**] を選択してすべてのエントリを表示できます。

# スキップされた行のエラーのトラブルシューティング
<a name="troubleshooting-skipped-rows"></a>

データをインポートすると、Amazon Quick Sight はデータの一部をプレビューします。何らかの理由で行を解釈できない場合、Quick Sight はその行をスキップします。場合によっては、インポートが失敗します。この場合、Quick Sight は失敗を説明するエラーメッセージを返します。

幸いなことに、エラーになる可能性があるものは限られています。次のような例を認識しておくことで、問題は回避できます。
+ フィールドのデータ型とフィールドデータとの間に矛盾がないことを確認します。例えば、数値データ型のフィールドに、文字列データが発生することが時折あります。テーブルの内容をスキャンする際に検出が困難になる可能性がある例を以下に挙げます。
  + `''` – 欠損値を示すために空の文字列を使用
  + `'NULL'` – 欠損値を示すために「null」という単語を使用
  + `$1000` – 通貨値に含めたドル記号を文字列に変換
  + `'O'Brien'` – 句読点を含む文字列をマークするために同じ句読点を使用している。

  ただし、この種のエラーが必ずしも見つけやすいわけではありません。特に、データが大量である場合や手作業で入力されている場合などです。例えば、顧客サービスや販売用アプリケーションの中には、顧客に口頭で情報を入力させるものがあります。最初にデータを入力した人は、間違ったフィールドに入力しているかもしれません。彼らは、文字や数字を追加したり、あるいは追加するのを忘れたりするかもしれません。例えば、日付を「0/10/12020」と入力したり、年齢のフィールドに性別を入力したりするかもしれません。
+ インポートしたファイルが、ヘッダーの有無にかかわらず正しく処理されていることを確認します。ヘッダー行がある場合は、アップロードのオプションで [**Contains header** (ヘッダーが含まれている)] を選択します。
+ データが 1 つまたは複数の [データソースのクォータ](data-source-limits.md) を超えていないことを確認します。
+ データが、[サポートされているデータ型と値](supported-data-types-and-values.md) と互換性があることを確認します。
+ 計算フィールドに、計算フィールドの関数と互換性がないデータやそこから除外されたデータではなく、計算と連動するデータが含まれていることを確認します。たとえば、データセットに を使用する計算フィールドがある場合[parseDate](parseDate-function.md)、Quick Sight は、そのフィールドに有効な日付が含まれていない行をスキップします。

Quick Sight は、SPICEエンジンがデータを取り込もうとしたときに発生するエラーの詳細なリストを提供します。保存されたデータセットがスキップされた行を報告するときエラーが表示されるので、ユーザーは問題修正のアクションをとることができます。

**SPICE 取り込み (データのインポート) 中にスキップされた行のエラーを表示する**

1. 左側の**データ**を選択します。**データセット**タブで、問題のあるデータセットを選択して開きます。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Refresh]** (更新) タブを選択します。

   SPICE による取得の履歴は下部に表示されます。

1. エラーのある取り込みについて、**[View error summary]** (エラーの概要を表示) を選択します。このリンクは **[Status]** (ステータス) 列の下にあります。

1. 開いた [**File import log** (ファイルインポートログ)] を確認します。以下のセクションが表示されます。
   + **Summary** (概要) - インポートの際、行の合計数のうち何行がスキップされたか、そのスコアをパーセンテージで示します。例えば、合計 1,728 行のうち 864 行がスキップされた場合、スコアは 50.00% になります。
   + **Skipped Rows** (スキップされた行) - 類似したスキップされた行のセットごとに、行数、フィールド名、およびエラーメッセージを示します。
   + **Troubleshooting** (トラブルシューティング) — エラー情報を含むファイルをダウンロードするためのリンクを示します。

1. [**Troubleshooting** (トラブルシューティング)] の下で、[**Download error rows file** (エラー行ファイルをダウンロード)] を選択します。

   エラーファイルには、各エラーに行があります。ファイルは `error-report_123_fe8.csv` と命名され、`123_fe8` は一意の識別文字列に置き換えられます。このファイルには次の列が含まれます。
   + **ERROR\$1TYPE** – この行をインポートしたときに発生したエラーの型またはエラーコードです。このエラーは、本手順の次の [SPICE 取り込みエラーコード](errors-spice-ingestion.md) のセクションで確認できます。
   + **COLUMN\$1NAME** – エラーの原因となった、データ内の列の名前です。
   + インポートした行のすべての列 — 残りの列は、データの行全体を複製します。行に複数のエラーが含まれていると、このファイルにそれが複数回現れることがあります。

1. データセットを変更するには、[**Edit data set** (データセットの編集)] を選択します。データのフィルタリング、フィールドの省略、データ型の変更、既存の計算フィールドの調整、データを検証するための計算フィールドの追加、などが行えます。

1. エラーコードで示された変更を行ったら、再度データをインポートします。ログに SPICE 取り込みのエラーがまだ表示される場合は、この手順を再度実行し、残りのエラーをすべて修正します。

**ヒント**  
データセットエディタを使用して合理的な時間内にデータの問題を解決できない場合は、データを所有している管理者またはデベロッパーに問い合わせてください。長期的にみると、分析のためにデータを準備している間に例外処理を追加するよりも、ソースに近いデータをクレンジングする方が、費用対効果は高くなります。ソースで修正すれば、複数のユーザーが異なる方法でエラーを修正し、その後異なるレポート結果が生じる状況を回避できます。

**スキップされた行のトラブルシューティングを練習するには**

1. [samples/csv-files-for-troubleshooting-skipped-rows.zip](samples/csv-files-for-troubleshooting-skipped-rows.zip) をダウンロードします。

1. サンプル .csv ファイルを Quick Sight にアップロードするために使用できるフォルダにファイルを抽出します。

   この zip ファイルには、次の 2 つのテキストファイルが含まれています。
   + `sample dataset - data ingestion error.csv` – 行がスキップされる原因となる問題が含まれたサンプル .csv ファイル。自分でファイルをインポートし、エラープロセスの仕組みを確認することができます。
   + `sample data ingestion error file` – サンプル .csv ファイルを Quick Sight にインポートする際にSPICE取り込み中に生成されたサンプルエラーファイル。

1. 次の手順に従って、データをインポートします。

   1. **「データセット**」タブ、**「新規**」、**「データセット**」を選択します。 ****

   1. [**Upload a file (ファイルのアップロード)**] を選択します。

   1. `sample dataset - data ingestion error.csv` という名前のファイルを見つけ、選択します。

   1. [**Upload a file** (ファイルのアップロード)]、[**Edit settings and prepare data** (設定の編集とデータの準備)] の順に選択します。

   1. [**Save** (保存)] を選択して終了します。

1. データセットを選択して情報を表示し、[**View error summary** (エラーの概要を表示)] を選択します。エラーとデータを調べ、問題解決に役立てます。

# SPICE 取り込みエラーコード
<a name="errors-spice-ingestion"></a>

以下のエラーコードと説明のリストは、SPICE へのデータの取り込みに関する問題を理解し、トラブルシューティングするために役立ちます。

## スキップされた行のエラーコード
<a name="errors-skipped-rows-during-import"></a>

次のエラーコードと説明の一覧は、スキップされた行に関する問題の理解とトラブルシューティングに役立ちます。

****ARITHMETIC\$1EXCEPTION**** – 値の処理中に算術例外が発生しました。

****ENCODING\$1EXCEPTION**** - データを SPICE に変換してエンコードする際に不明な例外が発生しました。

****OPENSEARCH\$1CURSOR\$1NOT\$1ENABLED**** — OpenSearch ドメインで SQL カーソルが有効になっていません (`"opendistro.sql.cursor.enabled" : "true"`)。詳細については、「[Amazon OpenSearch Service への接続の認証](opensearch.md)」を参照してください。

****INCORRECT\$1FIELD\$1COUNT**** – 1 つまたは複数の行に含まれるフィールドが多すぎます。各行のフィールド数が、スキーマで定義されているフィールド数と一致していることを確認します。

****INCORRECT\$1SAGEMAKER\$1OUTPUT\$1FIELD\$1COUNT**** – SageMaker AI の出力に予期しない数のフィールドが含まれています。

****INDEX\$1OUT\$1OF\$1BOUNDS**** – システムが、処理中の配列またはリストに無効なインデックスを要求しました。

****MALFORMED\$1DATE**** – フィールドの値を有効な日付に変換することができません。例えば、`"sale date"` や `"month-1"` のような値を含むフィールドを変換しようとすると、そのアクションで誤った形式の日付エラーが生成されます。このエラーを修正するには、データソースから日付以外の値を削除します。列ヘッダーがデータに混在しているファイルをインポートしていないことを確認します。文字列に、変換されない日付または時刻が含まれている場合は、[サポートされていない日付またはカスタム日付の使用](using-unsupported-dates.md) を参照してください。

****MISSING\$1SAGEMAKER\$1OUTPUT\$1FIELD**** – SageMaker AI の出力のフィールドが予期せず空です。

****NUMBER\$1BITWIDTH\$1TOO\$1LARGE**** - 数値が SPICE でサポートされている長さを超えています。例えば、数値が 19 桁を超えているなどですす。これは、`bigint` データ型の長さです。数学的な値ではない、長い数値シーケンスの場合は、`string` データ型を使用します。

N****NUMBER\$1PARSE\$1FAILURE**** – 数値フィールドの値が数値ではありません。例えば、データ型が `int` であるフィールドに、文字列または浮動小数点数が含まれているなどです。

****SAGEMAKER\$1OUTPUT\$1COLUMN\$1TYPE\$1MISMATCH**** – SageMaker AI スキーマで定義されているデータ型が、SageMaker AI から受信したデータ型と一致しません。

****STRING\$1TRUNCATION**** - 文字列が SPICE によって切り捨てられています。文字列は、その長さが SPICE のクォータを超えていると切り捨てられます。SPICE の詳細については、「[SPICE へのデータのインポート](spice.md)」を参照してください。クォータの詳細については[サービスクォータ](https://docs.aws.amazon.com/servicequotas/latest/userguide/intro.html)を参照してください。

****UNDEFINED**** — データの取り込み中に不明なエラーが発生しました。

****UNSUPPORTED\$1DATE\$1VALUE**** – 日付フィールドには、サポートされている形式の日付が含まれていますが、サポートされている日付範囲は含まれません。例えば、「12/31/1399」や「01/01/10000」などです。詳細については、「[サポートされていない日付またはカスタム日付の使用](using-unsupported-dates.md)」を参照してください。

## データインポート中のエラーコード
<a name="errors-during-import"></a>

インポートジョブとデータ更新ジョブが失敗した場合、Quick Sight は失敗の原因を示すエラーコードを提供します。以下のエラーコードと説明のリストは、SPICE へのデータの取り込みに関する問題を理解し、トラブルシューティングするために役立ちます。

****ACCOUNT\$1CAPACITY\$1LIMIT\$1EXCEEDED**** - このデータは現在の SPICE 容量を超えています。SPICE 容量を増やすか、既存の SSPICEデータをクリーンアップしてから、この取り込みを再試行してください。

****CONNECTION\$1FAILURE**** – Amazon Quick Sight はデータソースに接続できません。データソース接続の設定を確認して、もう一度お試しください。

****CUSTOMER\$1ERROR**** – データの分析中に問題が発生しました。これが解決しない場合は、Amazon Quick Sight テクニカルサポートにお問い合わせください。

****DATA\$1SET\$1DELETED**** – データソースまたはデータセットが取り込み中に削除されたか使用できなくなりました。

****DATA\$1SET\$1SIZE\$1LIMIT\$1EXCEEDED**** - このデータセットは、SPICE データセットの最大許容サイズを超えています。フィルタを使用してデータセットのサイズを縮小し、再試行してください。SPICE クォータの詳細については、[データソースのクォータ](data-source-limits.md) を参照してください。

****DATA\$1SOURCE\$1AUTH\$1FAILED**** – データソース認証に失敗しました。自分の認証情報を確認し、[**Edit data source** (データソースの編集)] オプションを使用して期限切れの認証情報を置き換えます。

****DATA\$1SOURCE\$1CONNECTION\$1FAILED**** – データソースの接続に失敗しました。URL を確認して、もう一度お試しください。このエラーが引き続き発生する場合は、データソース管理者に問い合わせてください。

****DATA\$1SOURCE\$1NOT\$1FOUND**** – データソースが見つかりません。Amazon Quick Sight データソースを確認します。

****DATA\$1TOLERANCE\$1EXCEPTION**** – 無効な行が多すぎます。Amazon Quick Sight は、スキップして取り込みを続行できる行のクォータに達しました。データを確認して、もう一度お試しください。

****FAILURE\$1TO\$1ASSUME\$1ROLE**** – Amazon Quick Sight は正しい AWS Identity and Access Management (IAM) ロールを引き受けられませんでした。IAM コンソールでの `Amazon Quick Sight-service-role` のポリシーを確認します。

****FAILURE\$1TO\$1PROCESS\$1JSON\$1FILE**** – Amazon Quick Sight はマニフェストファイルを有効な JSON として解析できませんでした。

****IAM\$1ROLE\$1NOT\$1AVAILABLE**** – Amazon Quick Sight にはデータソースへのアクセス許可がありません。リソースに対する AWS Amazon Quick Sight アクセス許可を管理するには、管理者として **Amazon Quick Sight の管理**オプションのセキュリティ**とアクセス許可**ページに移動します。

****INGESTION\$1CANCELED**** – 取り込みはユーザーによってキャンセルされました。

****INGESTION\$1SUPERSEDED**** – この取り込みは、別のワークフローによって置き換えられました。これは、別の取り込みがまだ進行中の間に新しい取り込みが作成されたときに発生します。データセットを短時間のあいだに複数回手動で編集することは避けてください。手動編集を実行する度に新しい取り込みが発生し、それにより前の取り込みが置き換えられて終了するためです。

****INTERNAL\$1SERVICE\$1ERROR**** – 内部のサービスエラーが発生しました。

****INVALID\$1DATA\$1SOURCE\$1CONFIG**** – 接続設定に無効な値が表示されました。接続の詳細を確認して、もう一度お試しください。

****INVALID\$1DATAPREP\$1SYNTAX**** – 演算フィールドの式に無効な構文が含まれています。構文を修正して、もう一度試してください。

****INVALID\$1DATE\$1FORMAT**** – 無効な日付書式が表示されました。

****IOT\$1DATA\$1SET\$1FILE\$1EMPTY**** – AWS IoT 分析データが見つかりませんでした。アカウントを確認して、もう一度お試しください。

****IOT\$1FILE\$1NOT\$1FOUND**** – 指定された AWS IoT 分析ファイルが見つかりませんでした。アカウントを確認して、もう一度お試しください。

****OAUTH\$1TOKEN\$1FAILURE**** – データソースの認証情報の有効期限が切れています。認証情報を更新して、この取り込みを再試行してください。

****PASSWORD\$1AUTHENTICATION\$1FAILURE**** – データソースに誤った認証情報が表示されました。データソースの認証情報を更新し、この取り込みを再試行してください。

****PERMISSION\$1DENIED**** – 要求されたリソースへのアクセスがデータソースによって拒否されました。データベース管理者に許可をリクエストするか、再試行する前に Amazon Quick Sight に適切な許可が付与されていることを確認します。

****QUERY\$1TIMEOUT**** – データソースに対するクエリが応答の待機中にタイムアウトしました。データソースログを確認して、もう一度試してください。

****ROW\$1SIZE\$1LIMIT\$1EXCEEDED**** – 行サイズのクォータが最大値を超えました。

****S3\$1FILE\$1INACCESSIBLE**** – S3 バケットに接続できませんでした。S3 バケットに接続する前に、Amazon Quick Sight とユーザーに必要なアクセス許可を付与してください。

****S3\$1MANIFEST\$1ERROR**** – S3 データに接続できませんでした。S3 マニフェストファイルが有効であることを確認します。また、S3 データへのアクセスも確認します。Amazon Quick Sight ユーザーと Amazon Quick Sight ユーザーの両方に、S3 データに接続するためのアクセス許可が必要です。

****S3\$1UPLOADED\$1FILE\$1DELETED**** – ファイルまたは取り込み用ファイルが削除されました (取り込みの間) 。S3 バケットを確認して、もう一度お試しください。

****SOURCE\$1API\$1LIMIT\$1EXCEEDED\$1FAILURE**** – この取り込みは、このデータソースの API クォータを超えています。詳細については、データソース管理者に問い合わせてください。

****SOURCE\$1RESOURCE\$1LIMIT\$1EXCEEDED**** – SQL クエリがデータソースのリソース制限を超えています。関連するリソースの例としては、同時クエリのクォータ、接続クォータ、物理サーバーのリソースなどがあります。詳細については、データソース管理者に問い合わせてください。

****SPICE\$1TABLE\$1NOT\$1FOUND**** – Amazon Quick Sight データソースまたはデータセットが、取り込み中に削除または使用不可になりました。Amazon Quick Sight でデータセットを確認して、もう一度試してください。詳細については、「[スキップされた行のエラーのトラブルシューティング](troubleshooting-skipped-rows.md)」を参照してください。

****SQL\$1EXCEPTION**** – 一般的な SQL エラーが発生しました。このエラーは、クエリのタイムアウト、リソースの制約、クエリ前またクエリ中の予期しないデータ定義言語 (DDL) の変更、およびその他のデータベースエラーによって発生する可能性があります。データベースの設定とクエリを確認して、もう一度試してください。

****SQL\$1INVALID\$1PARAMETER\$1VALUE**** – 無効な SQL パラメータが表示されました。SQL を確認して、もう一度お試しください。

****SQL\$1NUMERIC\$1OVERFLOW**** – Amazon Quick Sight でout-of-range数値例外が発生しました。関連する値と計算列にオーバーフローがないか確認し、もう一度やり直してください。

****SQL\$1SCHEMA\$1MISMATCH\$1ERROR**** – データソーススキーマが Amazon Quick Sight データセットと一致しません。Amazon Quick Sight データセット定義を更新します。

****SQL\$1TABLE\$1NOT\$1FOUND**** – Amazon Quick Sight はデータソースでテーブルを見つけることができません。データセットまたはカスタム SQL で指定されたテーブルを確認し、再度お試しください。

****SSL\$1CERTIFICATE\$1VALIDATION\$1FAILURE**** – Amazon Quick Sight は、データベースサーバー上の Secure Sockets Layer (SSL) 証明書を検証できません。そのサーバーの SSL ステータスをデータベース管理者に確認し、もう一度お試しください。

****UNRESOLVABLE\$1HOST**** – Amazon Quick Sight はデータソースのホスト名を解決できません。データソースのホスト名を確認し、もう一度お試しください。

****UNROUTABLE\$1HOST**** – Amazon Quick Sight はプライベートネットワーク内にあるため、データソースに到達できません。Enterprise Edition でプライベート VPC 接続が正しく設定されていることを確認するか、Amazon Quick Sight の IP アドレス範囲に Standard Edition の接続を許可してください。

# データセット内のファイルの更新
<a name="updating-file-dataset"></a>

ファイルの最新バージョンを取得するために、データセット内のファイルを更新できます。これらのタイプのファイルを更新できます。
+ カンマ区切り (CSV) とタブ区切り (TSV) のテキストファイル
+ 拡張ログ形式と共通ログ形式のファイル (ELF と CLF)
+ フラットファイルまたは半構造化データファイル (JSON)
+ Microsoft Excel (XLSX) ファイル

ファイルを更新する前に、現在データセット内にある元のファイルと同じフィールドが、同じ順序で新しいファイルに含まれていることを確認してください。2 つのファイルの間にフィールド (列) の不一致がある場合はエラーが発生するので、更新を再試行する前に不一致を修正する必要があります。これは、元のファイルと一致するように新しいファイルを編集することで実行できます。新しいフィールドを追加する場合は、ファイル内の元のフィールドの後に追加できます。例えば、Microsoft Excel スプレッドシートでは、元のフィールドの右側に新しいフィールドを追加できます。

**データセット内のファイルを更新する**

1. Quick Sight で、左側の**データ**を選択します。

1. **データセット**タブで、更新するデータセットを選択し、**データセットの編集**を選択します。

1. 表示される [データの準備] ページで、更新するファイルのドロップダウンリストを選択し、**[Update file]** (ファイルの更新) をクリックします。

1. 表示される **[Update file]** (ファイルの更新) ページで、**[Upload file]** (ファイルのアップロード) をクリックし、ファイルに移動します。

   Quick Sight はファイルをスキャンします。

1. ファイルが Microsoft Excel ファイルである場合は、表示される **[Choose your sheet]** (シートを選択します) ページで目的のシートを選択し、**[Select]** (選択) をクリックします。

1. 次のページで **[Confirm file update]** (ファイルの更新を確認) をクリックします。参照のために、シート列の一部のプレビューが表示されます。

   ファイルが正常に更新されたというメッセージが右上に表示されます。テーブルのプレビューが更新されて、新しいファイルデータが表示されます。