

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 統合とデータセットを使用してデータに接続する
<a name="connecting-to-data-examples"></a>

Amazon Quick Sight をさまざまなタイプのデータソースに接続できます。これには、Software-as-a-Service (SaaS) アプリケーションに保存されたデータ、Amazon S3 バケットに保存されたフラットファイル、Salesforce などのサードパーティーのサービスからのデータ、Athena からのクエリ結果が含まれます。以下の例を使用して、特定のデータソースに接続するための要件の詳細について学びます。

**Topics**
+ [Amazon Athena データを使用したデータセットの作成](create-a-data-set-athena.md)
+ [Amazon Quick Sight での Amazon OpenSearch Service の使用](connecting-to-os.md)
+ [Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md)
+ [Apache Spark を使用したデータソースの作成](create-a-data-source-spark.md)
+ [Quick Sight での Databricks の使用](quicksight-databricks.md)
+ [Google BigQuery を使用してデータセットを作成する](quicksight-google-big-query.md)
+ [Google Sheets データソースを使用したデータセットの作成](create-a-dataset-google-sheets.md)
+ [Apache Impala データソースを使用したデータセットの作成](create-a-dataset-impala.md)
+ [Microsoft Excel ファイルを使用したデータセットの作成](create-a-data-set-excel.md)
+ [Presto を使用したデータソースの作成](create-a-data-source-presto.md)
+ [Amazon Quick Sight での Snowflake の使用](connecting-to-snowflake.md)
+ [Amazon Quick Sight での Starburst の使用](connecting-to-starburst.md)
+ [SaaS ソースからのデータソースとデータセットの作成](connecting-to-saas-data-sources.md)
+ [Salesforce からのデータセットの作成](create-a-data-set-salesforce.md)
+ [Amazon Quick Sight での Trino の使用](connecting-to-trino.md)
+ [ローカルテキストファイルを使用したデータセットの作成](create-a-data-set-file.md)
+ [Amazon Quick Sight での Amazon Timestream データの使用](using-data-from-timestream.md)

# Amazon Athena データを使用したデータセットの作成
<a name="create-a-data-set-athena"></a>

Amazon Athena データまたは Athena フェデレーティッドクエリデータに接続する新しいデータセットを作成するには、次の手順に従います。

**Amazon Athena に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **「作成**」を選択し、**「新しいデータセット**」を選択します。

1. 

   1. 既存の Athena 接続プロファイル (共通) を使用するには、使用する既存のデータソースのカードを選択します。**[選択]** を選択します。

      カードには、Athena データソースアイコンと、接続を作成したユーザーによって指定された名前が表示されています。

   1. 新しい Athena 接続プロファイルを作成するには (まれなケース) 、次の手順を実行します。

      1. **新しいデータソース**を選択し、**Athena **データソースカードを選択します。

      1. [**次へ**] を選択します。

      1. **[Data source name]** (データソース名) に、わかりやすい名前を入力します。

      1. **[Athena workgroup]** (Athena ワークグループ) には、自分のワークグループを選択します。

      1. [**Validate connection (接続を検証)**] を選択して、接続を検証します。

      1. **[データソースを作成]** を選択します。

      1. (オプション) クエリを実行する IAM ロール ARN を選択します。

1. **[Choose your table]** (テーブルの選択) 画面で、以下を実行します。

   1. **[Catalog]** (カタログ)で、以下のいずれかを選択します。
      + Athena フェデレーションクエリを使用している場合は、使用するカタログを選択します。
      + それ以外の場合は、**[AwsDataCatalog]** を選択します。

   1. 次のいずれかを選択します。
      + SQL クエリを作成するには、**[Use custom SQL]** (カスタム SQL を使用) を選択する。
      + データベースとテーブルを選択するには、**[Catalog]** (カタログ) の下のドロップダウンで、自分のデータベースを含むカタログを選択する。次に、**[Database]** (データベース) の下のドロップダウンでデータベースを選択し、データベースで表示された **[Tables]** (テーブル) 一覧からテーブルを選択する。

   適切なアクセス許可を持っていない場合、「You don't have sufficient permissions to connect to this dataset or run this query. (このデータセットに接続するまたはこのクエリを実行するための十分なアクセス許可がありません。)」というエラーメッセージが表示されます。サポートが必要な場合は、クイック管理者にお問い合わせください。詳細については、「[Amazon Athena への接続の認可](athena.md)」を参照してください。

1. **[Edit/Preview data]** (データの編集/プレビュー) を選択します。

1. データセットを作成しテーブルを使用して [**視覚化する**] を選択し、データを分析します。詳細については、「[分析とレポート: Amazon Quick Sight でのデータの視覚化](working-with-visuals.md)」を参照してください。

# Amazon Quick Sight での Amazon OpenSearch Service の使用
<a name="connecting-to-os"></a>

以下は、Amazon Quick Sight を使用して Amazon OpenSearch Service データに接続する方法を示しています。

## OpenSearch Service の新しい Quick Sight データソース接続の作成
<a name="create-connection-to-es"></a>

ここでは、OpenSearch Service に接続する方法について説明しています。

続行する前に、Amazon Quick Sight が Amazon OpenSearch Service に接続する権限を持っている必要があります。接続が有効になっていないと、接続しようとしたときにエラーが発生します。Quick Sight 管理者は、 AWS リソースへの接続を許可できます。

**Quick Sight が OpenSearch Service への接続を開始することを許可するには**

1. 右上のプロファイルアイコンをクリックしてメニューを開き、**高速管理**を選択します。プロファイルメニューに**「高速管理**」オプションが表示されない場合は、Amazon Quick 管理者にお問い合わせください。

1. [**Security & Permissions (セキュリティとアクセス許可)**] で、[**Add or remove (追加または削除)**] を選択します。

1. [**OpenSearch**] オプションを有効にします。

1. **[更新]** を選択します。

OpenSearch Service がアクセス可能になったら、指定されたドメインをユーザーが使用可能にするため、データソースを作成します。

**OpenSearch Service に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択し、データセット**の作成**と**新規**を選択します。

1. [**Amazon OpenSearch**] データソースカードを選択します。

1. **[Data source name]** (データソース名) で、OpenSearch Service のデータソース接続のために分かりやすい名前を入力します (例: `OpenSearch Service ML Data`)。OpenSearch Service への接続からはデータセットを多数作成することがあるので、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) では、使用するネットワークを選択します。Amazon VPC ベースの仮想プライベートクラウド (VPC) またはパブリックネットワークを使用できます。VPC のリストには、VPC の ID ではなく VPC 接続の名前が記載されています。これらの名前は、クイック管理者が定義します。

1. **[Domain]** (ドメイン) で、接続先の OpenSearch Service ドメインを選択します。

1. **[Validate connection]** (接続を検証) を選択し、OpenSearch Service に正常に接続できていることを確認します。

1. **[Create data source]** (データソースを作成) を選択し、先へ進みます。

1. **[Tables]** (テーブル) で使用するテーブルを選択し、**[Select]** (選択) を選択して、先へ進みます。

1. 次のいずれかを行います。
   + Quick Sight インメモリエンジン ( と呼ばれるSPICE) にデータをインポートするには、 **にインポートSPICEを選択して分析を高速化**します。OpenSearch データのインポートを有効にする方法については、「[Amazon OpenSearch Service への接続の認証](opensearch.md)」を参照してください。
   + データセットを更新するか、分析またはダッシュボードを使用するたびに Quick Sight がデータに対してクエリを実行できるようにするには、**データの直接クエリ**を選択します。

     OpenSearch Service データを使用している公開済みのダッシュボードで自動更新を有効にするには、OpenSearch Service データセットが直接クエリを使用している必要があります。

1. **[Edit/Preview]** (編集/プレビュー) を選択し、**[Save]** (保存) を選択してデータセットを保存し、閉じます。

## OpenSearch Service データでのアクセス許可の管理
<a name="dataset-permissions-for-es"></a>

以下の手順では、同じ OpenSearch Service データソースに対するアクセス許可の表示、追加、取り消しの方法について説明します。追加するユーザーは、追加する前に Quick Sight でアクティブユーザーである必要があります。

**データソースに対するアクセス許可を編集するには**

1. 左側の**データ**を選択し、下にスクロールして Amazon OpenSearch Service 接続のデータソースカードを見つけます。例えば `US Amazon OpenSearch Service Data` などです。

1. **[Amazon OpenSearch]** データセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   現在のアクセス許可の一覧が表示されます。

1. アクセス許可を追加するには、**[Add users & groups]** (ユーザーとグループの追加) を選択し、続いて以下の手順を実行します。

   1. 同じデータセットの使用を許可するユーザーまたはグループを追加します。

   1. 目的のユーザーをすべて追加したら、それらのユーザーに適用する **[Permission]** (アクセス許可) を選択します。

1. (オプション) アクセス許可を編集するには、**[Viewer]** (ビューワー) または **[Owner]** (所有者) を選択します。
   + 読み取りアクセスを許可する **[Viewer]** (ビューワー) を選択します。
   + **所有者**を選択して、そのユーザーがこの Quick Sight データセットを編集、共有、または削除できるようにします。

1. (オプション) アクセス許可を取り消すときは、**[Revoke access]** (アクセス権の取り消し) を選択します。アクセス権が取り消された人は、このデータソースから新しいデータセットを作成できなくなります。ただし、その人の既存のデータセットからは、引き続きこのデータソースにアクセスすることができます。

1. 完了したら、**閉じる** を選択します。

## OpenSearch Service の新しい Quick Sight データセットの追加
<a name="create-dataset-using-es"></a>

OpenSearch Service の既存のデータソース接続を取得した後、分析のための OpenSearch Service データセットを作成できるようになります。

**OpenSearch Service を使用してデータセットを作成するには**

1. 開始ページから、**データ**、**作成**、**新しいデータセット**を選択します。

1. 下部にある、OpenSearch Service 接続用のデータソースカードまでスクロールします。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. [**Amazon OpenSearch**] のデータソースカードを選択し、[**データセットの作成**] をクリックします。

1. **[Tables]** (テーブル) で、使用する OpenSearch Service インデックスを選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. **[Save]** (保存) を選択し、データセットを保存して閉じます。

## OpenSearch Service データの分析への追加
<a name="open-analysis-add-dataset-for-es"></a>

OpenSearch Service データセットが利用可能になったら、Quick Sight 分析に追加できます。これを開始する前に、使用する OpenSearch Service のデータが含まれているデータセットが、既に用意されていることを確認します。

**OpenSearch Service のデータを分析に追加するには**

1. 左側で **[Analyses]** (分析) を選択します。

1. 次のいずれかを行ってください。
   + 新しい分析を作成するときは、右側で **[New analysis]** (新しい分析) を選択します。
   + 既存の分析に追加するときは、編集する分析を開きます。
     + 左上の鉛筆アイコンを選択します。
     + **[Add data set]** (データセットを追加) を選択します。

1. 追加する OpenSearch Service データセットを選択します。

   可視化のために OpenSearch Service を使用する方法については、「[OpenSearch Service の使用に関する制限](#limitations-for-es)」を参照してください。

1. 詳細については、「[分析での作業](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)」を参照してください。

## OpenSearch Service の使用に関する制限
<a name="limitations-for-es"></a>

OpenSearch Service データセットの使用には、以下の制限が適用されます。
+ OpenSearch Service データセットでは、ビジュアルタイプ、ソートオプション、フィルターオプションのサブセットがサポートされます。
+ OpenSearch Service データを使用している公開済みのダッシュボードで自動更新を有効にするには、OpenSearch Service データセットが直接クエリを使用している必要があります。
+ マルチサブクエリ操作はサポートされていません。視覚化中のエラーを回避するには、フィールドウェルに複数のフィールドを追加せず、視覚化ごとに 1 つまたは 2 つのフィールドを使用し、**[カラー]** フィールドウェルを使用しないようにします。
+ カスタム SQL はサポートされていません。
+ クロスデータセット結合と自己結合はサポートされていません。
+ 集計フィールドはサポートされていません。
+ テキストフィールドはサポートされていません。
+ [other (その他)] カテゴリはサポートされていません。カテゴリで「その他」をサポートしている可視化機能で OpenSearch Service データセットを使用する場合は、ビジュアル上のメニューから、「その他」カテゴリの無効化を行います。

# Amazon S3 ファイルを使用したデータセットの作成
<a name="create-a-data-set-s3"></a>

Amazon S3 から 1 つ以上のテキストファイル (.csv、.tsv、.clf、.elf) を使用してデータセットを作成するには、Quick Sight のマニフェストを作成します。Quick Sight はこのマニフェストを使用して、使用するファイルと、それらのインポートに必要なアップロード設定を識別します。Amazon S3 を使用してデータセットを作成すると、ファイルデータが [SPICE](spice.md) に自動的にインポートされます。

ファイルを読み取る Amazon S3 バケットへのアクセスを Quick Sight に許可する必要があります。Quick Sight に AWS リソースへのアクセスを許可する方法については、「」を参照してください[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md)。

**Topics**
+ [Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md)
+ [Amazon S3 データセットを作成する](create-a-data-set-s3-procedure.md)
+ [別の AWS アカウントの S3 ファイルを使用するデータセット](using-s3-files-in-another-aws-account.md)

# Amazon S3 のマニフェストファイルでサポートされている形式
<a name="supported-manifest-file-format"></a>

JSON マニフェストファイルを使用して、Quick Sight にインポートする Amazon S3 のファイルを指定します。これらの JSON マニフェストファイルは、Amazon Redshift データベースデベロッパーガイドの「マニ[フェストを使用してデータファイルを指定する](https://docs.aws.amazon.com/redshift/latest/dg/loading-data-files-using-manifest.html)」で説明されている Quick Sight 形式または「Amazon Redshift 形式」のいずれかを使用できます。 **Amazon Redshift マニフェストファイル形式を使用する際に、Amazon Redshift を使用している必要はありません。

Quick Sight マニフェストファイルを使用する場合は、 などの .json 拡張子が必要です`my_manifest.json`。Amazon Redshift 形式のマニフェストファイルを使用する場合は、任意の拡張子を付けることができます。

Amazon Redshift マニフェストファイルを使用する場合、Quick Sight は Amazon Redshift と同様にオプションの `mandatory` オプションを処理します。関連付けられたファイルが見つからない場合、Quick Sight はインポートプロセスを終了し、エラーを返します。

インポート用に選択するファイルは、文字区切り形式 (.csv や .tsv など) 、ログ (.clf)、拡張ログ (.elf) 形式、または JSON (.json) である必要があります。1 つのマニフェストファイルで識別されるすべてのファイルでは、同じファイル形式を使用する必要があります。さらに、列の数とタイプが同じである必要があります。Quick Sight は UTF-8 ファイルエンコーディングをサポートしていますが、バイトオーダーマーク (BOM) 付きの UTF-8 はサポートしていません。JSON ファイルをインポートする場合は、`globalUploadSettings` に `format` を指定する必要がありますが、`delimiter`、`textqualifier`、`containsHeader` を指定する必要がありません。

指定したファイルが、Quick Sight アクセスを許可した Amazon S3 バケットにあることを確認します。Quick Sight に AWS リソースへのアクセスを許可する方法については、「」を参照してください[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md)。

## Quick Sight のマニフェストファイル形式
<a name="quicksight-manifest-file-format"></a>

Quick Sight マニフェストファイルは、次の JSON 形式を使用します。

```
{
    "fileLocations": [
        {
            "URIs": [
                "uri1",
                "uri2",
                "uri3"
            ]
        },
        {
            "URIPrefixes": [
                "prefix1",
                "prefix2",
                "prefix3"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON",
        "delimiter": ",",
        "textqualifier": "'",
        "containsHeader": "true"
    }
}
```

`fileLocations` 要素内のフィールドではインポートするファイルを指定し、`globalUploadSettings` 要素内のフィールドではそれらのファイルのインポート設定 (フィールド区切り文字など) を指定します。

マニフェストファイルの要素について以下に説明します。
+ **fileLocations** - インポートするファイルを指定するときはこの要素を使用します。`URIs` 配列と `URIPrefixes` 配列のいずれかまたは両方を使用してファイルを指定できます。そのいずれかで、値を 1 つ以上指定する必要があります。
  + **URI** - インポートする特定のファイルの URI をリスト化するときは、この配列を使用します。

    Quick Sight は、任意の にある Amazon S3 ファイルにアクセスできます AWS リージョン。ただし、Amazon S3 バケットの AWS リージョンがクイックアカウントで使用されているリージョンと異なる場合は、そのリージョンを識別する URI 形式を使用する必要があります。

    以下の形式の URI がサポートされています。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-manifest-file-format.html)
  + **URIPrefixes** - S3 バケットおよびフォルダの URI プレフィックスをリスト化するときは、この配列を使用します。指定したバケットまたはフォルダ内のすべてのファイルがインポートされます。Quick Sight は、子フォルダからファイルを再帰的に取得します。

    Quick Sight は、任意の にある Amazon S3 バケットまたはフォルダにアクセスできます AWS リージョン。S3 バケットがクイックアカウントで使用されているものとは異なる AWS リージョン 場合は、S3 バケットを識別する URI プレフィックス形式を使用してください。

    以下の形式の URI プレフィックスがサポートされています。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-manifest-file-format.html)
+ **globalUploadSettings** - (オプション) この要素は、Amazon S3 ファイルのインポート設定 (フィールド区切り文字など) を指定するときに使用します。この要素が指定されていない場合、Quick Sight はこのセクションのフィールドにデフォルト値を使用します。
**重要**  
ログ形式 (.clf) と拡張ログ形式 (.elf) のファイルでは、このセクションの **format** フィールドのみが適用されるため、その他のフィールドは省略できます。他のフィールドを含めている場合、それらの値は無視されます。
  + **format** - (オプション) インポートするファイルの形式を指定します。有効な形式は、**CSV**、**TSV**、**CLF**、**ELF**、および **JSON** です。デフォルト値は **CSV** です。
  + **delimiter** - (オプション) ファイルのフィールド区切り文字を指定します。この値は、`format` フィールドで指定しているファイルタイプに対応している必要があります。有効な値は、.csv ファイルではカンマ (**,**)、.tsv ファイルではタブ (**\$1t**) です。デフォルト値はカンマ (**,**) です。
  + **textqualifier** (オプション) ファイルのテキスト修飾子を指定します。有効な形式は、一重引用符 (**'**)、二重引用符 (**\$1"**) です。先頭のバックスラッシュは、JSON で二重引用符に必須のエスケープ文字です。デフォルト値は二重引用符 (**\$1"**) です。テキストにテキスト修飾子が必要ない場合は、このプロパティを含めないでください。
  + **containsHeader** - (オプション) ファイルにヘッダー行を入れるかどうかを指定します。有効な形式は、**true** または **false** です。デフォルト値は **true** です。

### Quick Sight のマニフェストファイルの例
<a name="quicksight-manifest-file-examples"></a>

以下は、完了した Quick Sight マニフェストファイルの例です。

次の例では、インポートする 2 つ .csv ファイルを特定するマニフェストファイルを示しています。これらのファイルでは、テキスト修飾子として二重引用符を使用しています。`format`、`delimiter`、および `containsHeader` フィールドは、デフォルト値のままで問題ないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.csv",
                "https://yourBucket.s3.amazonaws.com/data-file-2.csv"
            ]
        }
    ],
    "globalUploadSettings": {
        "textqualifier": "\""
    }
}
```

次の例では、インポートする 1 つの .tsv ファイルを特定するマニフェストファイルを示しています。このファイルには、インポート用の追加の .tsv ファイルが含まれる別の AWS リージョンのバケットも含まれます。`textqualifier` および `containsHeader` フィールドは、デフォルト値のままで問題ないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://s3.amazonaws.com/amzn-s3-demo-bucket/data.tsv"
            ]
        },
        {
            "URIPrefixes": [
                "https://s3-us-east-1.amazonaws.com/amzn-s3-demo-bucket/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "TSV",
        "delimiter": "\t"
    }
}
```

次の例では、インポートする .clf ファイルを含む 2 つのバケットを識別します。1 つはクイックアカウント AWS リージョン と同じ にあり、もう 1 つは別の にあります AWS リージョン。`delimiter`、`textqualifier`、および `containsHeader` フィールドは、ログ形式のファイルには適用されないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIPrefixes": [
                "https://amzn-s3-demo-bucket1.your-s3-url.com",
                "s3://amzn-s3-demo-bucket2/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "CLF"
    }
}
```

次の例では、Amazon Redshift 形式を使用して、インポートする .csv ファイルを特定しています。

```
{
    "entries": [
        {
            "url": "https://amzn-s3-demo-bucket.your-s3-url.com/myalias-test/file-to-import.csv",
            "mandatory": true
        }
    ]
}
```

次の例では、Amazon Redshift 形式を使用して、インポートする 2 つの JSON ファイルを特定しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.json",
                "https://yourBucket.s3.amazonaws.com/data-file-2.json"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON"
    }
}
```

# Amazon S3 データセットを作成する
<a name="create-a-data-set-s3-procedure"></a>

**Amazon S3 データセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットのファイルセットがデータソースのクォータを超えていないことを確認します。

1. 「[Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md)」で指定されているいずれかの形式を使用して、インポートするファイルを特定するためのマニフェストファイルを作成します。

1. マニフェストファイルをローカルディレクトリに保存するか、Amazon S3 にアップロードします。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、データセット**の作成**と**新規**作成を選択します。

1. Amazon S3 アイコンを選択し、次**へ**を選択します。

1. [**Data source name (データソース名)**] に、データソースの説明を入力します。この名前はこのデータソースを他と区別しやすくするためです。

1. [**Upload a manifest file**] で、以下のいずれかを実行します。
   + ローカルのマニフェストファイルを使用するには、[**Upload**]、[**Upload a JSON manifest file**] の順に選択します。[**Open**] で、ファイルを選択してから [**Open**] を選択します。
   + Amazon S3 のマニフェストファイルを使用するには、**[URL]** を選択し、マニフェストファイルの URL を入力します。Amazon S3 コンソールで既存のマニフェストファイルの URL を検索するには、該当するファイルに移動し、そのファイルを選択します。リンク URL を含むプロパティパネルが表示されます。URL をコピーして Quick Sight に貼り付けることができます。

1. **接続** を選択します。

1. 接続が完了したことを確認するには、[**Edit/Preview data**] を選択します。または、データをそのまま使用する分析を作成するには、[**Visualize**] を選択します。

   **[Edit/Preview data]** (データの編集/プレビュー) を選択した場合は、データの準備の一環としてデータセット名を指定できます。それ以外の場合、データセット名はマニフェストファイルの名前と一致します。

   データ準備の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

## 複数の Amazon S3 ファイルに基づいてデータセットを作成する
<a name="data-sets-based-on-multiple-s3-files"></a>

Quick Sight 内の Amazon S3 バケットのファイルをマージまたは結合するには、次のいずれかの方法を使用できます。
+ **マニフェストを使用してファイルを結合する** - この場合、各ファイルのフィールド (列) 数は同じでなければなりません。データ型がファイルの同じ位置のフィールド間で一致している必要があります。例えば、最初のフィールドはそれぞれのファイルで同じデータ型ある必要があります。2 番目のフィールド、3 番目のフィールド、それ以降も同様です。Quick Sight は、最初のファイルからフィールド名を取得します。

  ファイルはマニフェストに明示的にリストされている必要があります。ただし、同じ Amazon S3 バケット内にある必要はありません。

  さらに、ファイルは [Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md) に説明されているルールに従う必要があります。

  マニフェストを使用してファイルを組み合わせることの詳細については、「[Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md)」を参照してください。
+ **マニフェストを使用せずにファイルを統合する** - 複数のファイルを、マニフェスト内に個別にリスト化せずに、1 個に統合するときは、Athena を使用します。この方法では、データベースのテーブルにある場合のように、テキストファイルを単にクエリすることができます。詳細については、ビッグデータブログの「[S3 のデータを Amazon Athena を使って分析する](https://aws.amazon.com/blogs/big-data/analyzing-data-in-s3-using-amazon-athena/)」記事を参照してください。
+ **スクリプトを使用してファイルをインポートする前に添付する** - ファイルをアップロードする前に、結合用に設計されたスクリプトを使用します。

# 別の AWS アカウントの S3 ファイルを使用するデータセット
<a name="using-s3-files-in-another-aws-account"></a>

このセクションでは、Quick Sight を使用して別の AWS アカウントの Amazon S3 ファイルにアクセスできるようにセキュリティを設定する方法について説明します。

ユーザーが、別のアカウントにあるファイルにアクセスするには、別のアカウントの所有者が、先に、Amazon S3 でこのユーザーにファイル読み取りのアクセスを許可するように設定しておく必要があります。次に、Quick Sight で、共有されたバケットへのアクセスを設定する必要があります。この両方のステップが完了した後に、マニフェストを使用してデータセットを作成できるようになります。

**注記**  
 パブリックに共有されているファイルにアクセスするには、特別なセキュリティを設定する必要はありません。ただし、マニフェストファイルは必要です。

**Topics**
+ [別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する](#setup-S3-to-allow-access-from-a-different-quicksight-account)
+ [別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定](#setup-quicksight-to-access-S3-in-a-different-account)

## 別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する
<a name="setup-S3-to-allow-access-from-a-different-quicksight-account"></a>

このセクションでは、別の AWS アカウントの Quick Sight がアクセスできるように Amazon S3 ファイルでアクセス許可を設定する方法について説明します。

Quick Sight アカウントから別のアカウントの Amazon S3 ファイルにアクセスする方法については、「」を参照してください[別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定](#setup-quicksight-to-access-S3-in-a-different-account)。S3 でのアクセス許可の詳細については、「[Amazon S3 での Identity and Access Management](https://docs.aws.amazon.com/AmazonS3/latest/dev/s3-access-control.html)」と「[How do I set permissions on an object?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/set-object-permissions.html)」(オブジェクトにアクセス許可を設定するにはどうしたらよいですか?) を参照してください。

次の手順を使用して、S3 コンソールからこのアクセスを設定できます。または、 を使用する AWS CLI か、スクリプトを記述することで、アクセス許可を付与できます。共有するファイルが多数ある場合は、代わりに `s3:GetObject` アクションで S3 バケットポリシーを作成できます。バケットポリシーを使用するには、ポリシーをファイルのアクセス許可ではなくバケットのアクセス許可に追加します。バケットポリシーについては、「*Amazon S3 デベロッパーガイド*」の「[バケットポリシーの例](https://docs.aws.amazon.com/AmazonS3/latest/dev/example-bucket-policies.html)」を参照してください。

**S3 コンソールから別のクイックアカウントからのアクセスを設定するには**

1. 共有する AWS アカウントの E メールアドレスを取得します。または、正規ユーザー ID を取得して使用できます。正規ユーザー ID の詳細については、「[AWS 全般のリファレンス](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html)」の「*AWS アカウント ID*」を参照してください。

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) で Amazon S3 コンソールを開きます。

1. Quick Sight と共有したい Amazon S3 バケットを見つけます。**[アクセス許可]** を選択します。

1. **アカウントの追加**を選択し、共有する AWS アカウントの E メールアドレスを入力するか、正規ユーザー ID を貼り付けます。この E メールアドレスは、 AWS アカウントのプライマリアドレスである必要があります。

1. **[Read bucket permissions]** (バケットの読み取りアクセス許可) および **[List objects]** (オブジェクトのリスト化) の両方に対して、**[Yes]** (はい) を選択します。

   [**保存**] を選択して確定します。

1. 共有するファイルを見つけ、ファイルのアクセス許可設定を開きます。

1. 共有する AWS アカウントの E メールアドレスまたは正規ユーザー ID を入力します。この E メールアドレスは、 AWS アカウントのプライマリメールアドレスである必要があります。

1. Quick Sight がアクセスする必要がある各ファイルの**オブジェクト読み取り**アクセス許可を有効にします。

1. ファイルが使用可能になったことを Quick ユーザーに通知します。

## 別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定
<a name="setup-quicksight-to-access-S3-in-a-different-account"></a>

このセクションでは、別の AWS アカウントの Amazon S3 ファイルにアクセスできるように Quick Sight を設定する方法について説明します。他のユーザーがクイックアカウントから Amazon S3 ファイルにアクセスできるようにする方法については、「」を参照してください[別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する](#setup-S3-to-allow-access-from-a-different-quicksight-account)。

Quick Sight から別のアカウントの Amazon S3 ファイルにアクセスするには、次の手順に従います。この手順を使用するには、別の AWS アカウントのユーザーが、その Amazon S3 バケット内のファイルを、お客様と共有する必要があります。

**Quick Sight から別のアカウントの Amazon S3 ファイルにアクセスするには**

1. 別の AWS アカウントのユーザーが、問題の S3 バケットへの読み取りおよび書き込みアクセス許可をアカウントに付与していることを確認します。

1. プロファイルアイコンを選択し、**クイックサイトの管理**を選択します。

1. [**Security & permissions (セキュリティとアクセス許可)**] を選択します。

1. ** AWS サービスへのクイックサイトアクセス**で、**管理**を選択します。

1. **[Select S3 buckets]** (S3 バケットの選択) を選択します。

1. **[Select Amazon S3 buckets]** (Amazon S3 バケットの選択) 画面で、**[S3 buckets you can access across AWS]** ( 全体でアクセスできる S3 バケット) タブを選択します。

   デフォルトのタブには、**Quick Sight アカウントにリンクされた S3 バケットという名前が付けられています**。クイックアカウントがアクセスできるすべてのバケットが表示されます。

1. 次のいずれかを行います。
   + 使用することが自分に許可されているバケットをすべて追加するには、**[他の AWS アカウントからアクセスできるバケットを選択]** を選択します。
   + 追加する Amazon S3 バケットが 1 つ以上ある場合は、その名前を入力します。Amazon S3 バケットの一意の名前と正確に一致している必要があります。

     適切なアクセス許可がない場合は「We can't connect to this S3 bucket。指定する S3 バケットが、 AWS このクイックアカウントの作成に使用したアカウントに関連付けられていることを確認します。」 このエラーメッセージは、アカウントアクセス許可または Quick Sight アクセス許可がない場合に表示されます。
**注記**  
Amazon Athena を使用するには、Quick Sight が Athena が使用する Amazon S3 バケットにアクセスする必要があります。  
ここで 1 つずつ追加することも、**他の AWS アカウントからアクセス可能なバケットを選択**オプションを使用することもできます。

1. [**Select buckets**] を選択して、選択を確定します。

1. Amazon S3 に基づいて新しいデータセットを作成し、マニフェストファイルをアップロードします。Amazon S3 データセットの詳細については、[Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md) を参照してください。

# Apache Spark を使用したデータソースの作成
<a name="create-a-data-source-spark"></a>

Quick Sight を使用して Apache Spark に直接接続することも、Spark SQL を使用して Spark に接続することもできます。クエリの結果、またはテーブルやビューへの直接リンクを使用して、Quick Sight でデータソースを作成します。Spark 経由でデータを直接クエリする、またはクエリの結果を [SPICE](spice.md) にインポートすることができます。

Spark 製品で Quick Sight を使用する前に、Spark for Quick Sight を設定する必要があります。

Quick Sight では、Spark バージョン 2.0 以降で使用できる LDAP を使用して Spark サーバーを保護し、認証する必要があります。Spark が認証されていないアクセスを許可するように設定されている場合、Quick Sight はサーバーへの接続を拒否します。Quick Sight を Spark クライアントとして使用するには、Spark と連携するように LDAP 認証を設定する必要があります。

そのセットアップ方法については、Spark のドキュメントに記載されています。開始するには、HTTPS 経由のフロントエンド LDAP 認証を有効にするように設定する必要があります。Spark に関する一般的な情報については、[Apache Spark のウェブサイト](http://spark.apache.org/)を参照してください。Spark とセキュリティに的を絞った情報については、Spark ドキュメントの「[Spark Security](http://spark.apache.org/docs/latest/security.html)」を参照してください。

Quick Sight アクセス用にサーバーが設定されていることを確認するには、「」の手順に従います[ネットワークとデータベースの設定要件](configure-access.md)。

# Quick Sight での Databricks の使用
<a name="quicksight-databricks"></a>

このセクションでは、Quick Sight から Databricks に接続する方法について説明します。

**Databricks に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **Create** then **New Dataset** を選択します。

1. **[Databricks]** (データブリック) データソースカードを選択します。

1. **[Data source name]** (データソース名) に、Databricks のデータソース接続のための分かりやすい名前を入力します (例: `Databricks CS`)。Databricks への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。
   + **パブリックネットワーク** — データがパブリックに共有されている場合。
   + **VPC** — データが VPC 内にある場合。
**注記**  
VPC を使用していて、リストに表示されない場合は、管理者に確認してください。

1.  **[Database server]** (データベースサーバー) には、Databricks 接続の詳細で指定されている **[Hostname of workspace]** (ワークスペースのホスト名) を入力します。

1.  **[HTTP Path]** (HTTP パス) には、Databricks 接続の詳細で指定されている **[Partial URL for the spark instance]** (スパークインスタンスの部分 URL) を入力します。

1.  **[Port]** (ポート) には、Databricks 接続の詳細で指定されている **[port]** (ポート) を入力します。

1.  **[Username]** (ユーザー名) と **[Password]** (パスワード) に、接続認証情報を入力します。

1.  接続が機能していることを確認するには、**[Validate connection]** (接続を検証) をクリックします。

1.  完了後データソースを作成するには、**[Create data source]** (データソースの作成) をクリックします。

## Databricks 用の新しい Quick Sight データセットの追加
<a name="quicksight-databricks-create-dataset"></a>

Databricks データの既存のデータソース接続を取得した後、分析に使用する Databricks データセットを作成できるようになります。

**Databricks を使用してデータセットを作成するには**

1. 左側の**データ**を選択し、下にスクロールして Databricks 接続のデータソースカードを見つけます。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. **[Databricks]** (データブリック) のデータソースカードを選択し、**[Create data set]** (データセットの作成) をクリックします。

1. 接続するテーブルを指定するには、まず使用する Catalog と Schema を選択します。**[Tables]** (テーブル) で、使用するテーブルを選択します。独自の SQL ステートメントを使用したい場合は、**[Use custom SQL]** (カスタム SQL を使用する) を選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

   1. 右上にある **[Add data]** (データを追加) を選択します。

   1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

   1. UI のプロンプトに従ってデータの追加を完成させます。

   1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

   1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

   1. SageMaker AI からモデルを追加するときは、**[SageMaker によるオーグメント]** を選択します。このオプションは Quick Enterprise Edition でのみ使用できます。

   1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

   1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

## Databricks を接続するための Quick Sight 管理者ガイド
<a name="quicksight-databricks-administration-setup"></a>

Amazon Quick Sight を使用して Databricks に接続できます AWS。Marketplace または Databricks ウェブサイトから にサインアップした AWS かどうかにかかわらず、 で AWS Databricks に接続できます。

Databricks に接続する前に、接続に必要な既存のリソースを作成または特定します。このセクションは、Quick Sight から Databricks に接続するために必要なリソースを収集するのに役立ちます。
+ Databricks 接続の詳細を取得する方法については、「[Databricks ODBC and JDBC connections](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#get-server-hostname-port-http-path-and-jdbc-url)」(Databricks の ODBC 接続と JDBC 接続) をご覧ください。
+ 認証用の Databricks 認証情報 (個人アクセストークンまたはユーザー名とパスワード) を取得する方法については、「[Databricks documentation](https://docs.databricks.com/index.html)」(Databricks ドキュメント) の「[Authentication requirements](https://docs.databricks.com/integrations/bi/jdbc-odbc-bi.html#authentication-requirements)」(認証要件) を参照してください。

  Databricks クラスターに接続するには `Can Attach To` と `Can Restart` の権限が必要です。これらの権限は Databricks で管理されます。詳細については、「[Databricks documentation](https://docs.databricks.com/index.html)」(Databricks ドキュメント) の「[Permission Requirements](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#permission-requirements)」(権限要件) を参照してください。
+ Databricks のプライベート接続を設定する場合は、Quick Sight で使用する VPC を設定する方法の詳細については、Quick Sight ドキュメントの[「Amazon Quick Sight を使用した VPC への接続](https://docs.aws.amazon.com/quicksight/latest/user/working-with-aws-vpc.html)」を参照してください。接続が表示されない場合は、ネットワークに「[inbound endpoints for Amazon Route 53](https://docs.aws.amazon.com/quicksight/latest/user/vpc-route-53.html)」(Amazon Route 53 のインバウンドエンドポイント) が開いていることをシステム管理者に確認してください。Databricks ワークスペースのホスト名はパブリック IP を使用するため、Route 53 セキュリティグループの DNS ポート 53 でのトラフィックを許可するには、DNS TCP と DNS UDP のインバウンドルールとアウトバウンドルールが必要です。管理者は 2 つのインバウンドルールを含むセキュリティグループを作成する必要があります。1 つは VPC CIDR へのポート 53 の DNS (TCP) 用で、もう 1 つは VPC CIDR へのポート 53 の DNS (UDP) 用です。

  パブリック接続の代わりに PrivateLink を使用している場合の Databricks 関連の詳細については、[Databricks ドキュメント](https://docs.databricks.com/index.html)の[「Enable AWS PrivateLink](https://docs.databricks.com/administration-guide/cloud-configurations/aws/privatelink.html)」を参照してください。

# Google BigQuery を使用してデータセットを作成する
<a name="quicksight-google-big-query"></a>

**注記**  
Quick Sight が から受信した情報を使用して転送する場合Google APIs、[GoogleAPI サービスユーザーデータポリシー](https://developers.google.com/terms/api-services-user-data-policy)に従います。

Google BigQuery は、お客様がデータの管理と分析に使用するフルマネージド型のサーバーレスデータウェアハウスです。Google BigQuery のお客様は SQL を使用して、インフラストラクチャ管理なしでデータをクエリします。

## Google BigQuery でデータソース接続を作成する
<a name="quicksight-google-big-query-connect"></a>

**前提条件**

作業を始める前に、以下のものが揃っていることを確認してください。Google BigQuery でデータソース接続を作成するには、これらがすべて必要です。
+ **プロジェクト ID** – Google アカウントに関連付けられたプロジェクト ID。これを見つけるには、Google Cloudコンソールに移動し、Quick Sight に接続するプロジェクトの名前を選択します。新しいウィンドウに表示されるプロジェクト ID をコピーし、後で使用するために記録します。
+ **データセットリージョン** – Google BigQuery プロジェクトが存在する Google リージョン。データセットリージョンを検索するには、Google BigQuery コンソールに移動し、**[エクスプローラー]** を選択します。接続するプロジェクトを見つけて展開し、使用するデータセットを選択します。ポップアップが開き、データセットリージョンが表示されます。
+ **Google アカウントログイン認証情報** – Google アカウントのログイン認証情報。この情報がない場合は、Google アカウントの管理者に問い合わせてください。
+ アクセス**Google BigQuery許可** – Googleアカウントを Quick Sight に接続するには、Googleアカウントに次のアクセス許可があることを確認します。
  + `Project` レベルの `BigQuery Job User`。
  + `Dataset` または `Table` レベルの `BigQuery Data Viewer`。
  + `Project` レベルの `BigQuery Metadata Viewer`。

前述の前提条件情報を取得する方法については、「Unlock [the power of unified business intelligence with Google Cloud BigQuery and Quick Sight](https://aws.amazon.com/blogs/business-intelligence/unlock-the-power-of-unified-business-intelligence-with-google-cloud-bigquery-and-amazon-quicksight/)」を参照してください。

クイックアカウントをGoogle BigQueryデータソースに接続するには、次の手順に従います。

**Quick Sight からGoogle BigQueryデータソースへの新しい接続を作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 左側のナビゲーションペインで、**データ**を選択します。

1. **Create** を選択し、**New Dataset** を選択します。

1. **[Google BigQuery]** タイルを選択します。

1. 前の前提条件セクションで記録したデータソースの詳細を追加します。
   + **データソース名** – データソースの名前。
   + **プロジェクト ID** – Google Platform プロジェクト ID。このフィールドでは、大文字と小文字が区別されます。
   + **データセットリージョン** – 接続するプロジェクトの Google クラウドプラットフォームデータセットリージョン。

1. [**サインイン**] を選択します。

1. 新しいウィンドウが開いたら、接続する Google アカウントのログイン認証情報を入力します。

1. **続行** を選択して、 への Quick Sight アクセスを許可しますGoogle BigQuery。

1. 新しいデータソース接続を作成したら、次の手順の[Step 4](#gbq-step-4) に進みます。

## の新しい Quick Sight データセットの追加 Google BigQuery
<a name="quicksight-google-big-query-create"></a>

Google BigQuery でデータソース接続を作成したら、分析用の Google BigQuery データセットを作成できます。Google BigQuery を使用するデータセットは、SPICE にのみ保存できます。

**Google BigQuery を使用してデータセットを作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 開始ページから、**データ**を選択します。

1. **Create** を選択し、**New Dataset** を選択します。

1. **Google BigQuery** タイルを選択し、**データセットの作成**を選択します。

1. <a name="gbq-step-4"></a>**[テーブル]** で、以下のいずれかを実行します。
   + 使用するテーブルを選択します。
   + 独自のパーソナル SQL ステートメントを使用するには、**[カスタム SQL を使用]** を選択します。Quick Sight でのカスタム SQL の使用の詳細については、「」を参照してください[データをカスタマイズするための SQL の使用](adding-a-SQL-query.md)。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) **[Data prep]** ページで、計算フィールド、フィルター、結合を使用してデータをカスタマイズできます。

1. 変更が完了したら、**[保存]** を選択し、データセットを保存して閉じます。

# Google Sheets データソースを使用したデータセットの作成
<a name="create-a-dataset-google-sheets"></a>

Google Sheets は、ユーザーがリアルタイムでデータを作成、編集、コラボレーションできるウェブベースのスプレッドシートアプリケーションです。包括的な関数と計算式のセットにより、ビジネスインテリジェンスと分析のための強力なデータソースとして機能します。ユーザーはインサイトを効率的に整理、分析、共有できます。シームレスなコラボレーション機能により、データ駆動型プロジェクトに取り組むチームに最適なプラットフォームとなります。

## Amazon Quick での管理者設定
<a name="google-sheets-admin-config"></a>

Amazon Quick 管理者は、1 回限りのセットアップを実行して、データソースとして Google Sheets を有効にする必要があります。詳細な手順と重要な考慮事項については、「[ブログ](https://aws.amazon.com//blogs/business-intelligence/transform-your-google-sheets-data-into-powerful-analytics-with-amazon-quicksight/)」を参照してください。

## Google Sheets データソースを使用したデータセットの作成
<a name="google-sheets-create-dataset"></a>

以下の手順に従って、Google Sheets データソースを使用してデータセットを作成します。

**Google Sheets データソースを使用してデータセットを作成するには**

1. クイックスタートページから、**データセット**を選択します。

1. **[データセット]** のページで、**[新しいデータセット]** を選択します。

1. **Google シート**を選択します。

1. データソースの名前を選択し、**[接続]** を選択します。

1. Google のサインインページにリダイレクトされたら、次の操作を行います。

   1. Google アカウントの認証情報を入力し、**[次へ]** を選択します。

   1. アクセス許可を確認して、 AWS アカウントが Google Sheets に接続することを許可し、**続行**を選択します。

1. **[テーブルの選択]** メニューで、データを見つけます。メニューには、Google アカウントのすべてのフォルダ、サブフォルダ、シート、タブが表示されます。タブを表示するには、表示されたリストからシートを選択します。

1. 操作するタブを選択します。

1. **[データの編集とプレビュー]** を選択して、データ準備ページに移動します。**[データを追加]** を選択して、追加のタブを含めます。

1. 結合を設定し、**公開と視覚化**を選択して Quick Sight で Google Sheets データを分析します。

**注記**  
このコネクタは SPICE 機能のみをサポートします。
OAuth トークンの有効期限が切れた場合 (取り込みエラーレポートまたは新しいデータセットの作成時に表示される)、データソースの **[編集]** を選択して再承認し、更新します。

# Apache Impala データソースを使用したデータセットの作成
<a name="create-a-dataset-impala"></a>

Apache Impala は、Apache Hadoop でネイティブに実行されるように設計された高性能超並列処理 (MPP) SQL クエリエンジンです。以下の手順を使用して、Quick Sight と Apache Impala 間の安全な接続を確立します。

Quick Sight と Apache Impala 間のすべてのトラフィックは、SSL を使用して暗号化されます。Quick Sight は、Impala 接続の標準的なユーザー名とパスワード認証をサポートしています。

接続を確立するには、Impala インスタンスで SSL 設定を設定し、認証情報を準備し、Impala サーバーの詳細を使用して Quick Sight で接続を設定し、接続を検証して安全なデータアクセスを確保する必要があります。

**Apache Impala データソースを使用してデータセットを作成するには**

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**を選択します。

1. [**Data source**] を選択する。

1. **Impala** を選択し、次**へ**を選択します。

1. データソースの名前を入力します。

1. パブリック接続の場合:

   1. **[データベースサーバー]**、**[HTTP パス]**、**[ポート]**、**[ユーザー名]**、および **[パスワード]**の接続の詳細を入力します。

   1. 検証が成功したら、**[データソースの作成]** を選択します。

1. プライベート接続の場合:

   1. 接続の詳細を入力する前に、管理者と協力して VPC 接続を設定します。

     ユーザーまたは管理者は、[Quick で VPC 接続を設定できます](vpc-creating-a-connection-in-quicksight.md)。SSL は、安全なデータ転送を確保するためにデフォルトで有効になっています。接続検証エラーが発生した場合は、接続と VPC の詳細を確認してください。

     問題が解決しない場合は、管理者に連絡して、Quick Sight の[承認済み証明書リスト](configure-access.md#ca-certificates)に認証局が含まれていることを確認してください。

1. **[テーブルの選択]** メニューでは、次のいずれかを実行できます。

   1. 特定のスキーマまたはテーブルを選択し、**[選択]** を選択します。

   1. SQL クエリを書き込むには、**[カスタム SQL を使用]** を選択します。

1. 選択が完了すると、データ準備ページにリダイレクトされます。データを調整し、**公開と視覚化**を選択して Quick Sight で Impala データを分析します。

**注記**  
このコネクタは以下をサポートしています。  
ユーザー名およびパスワード認証
パブリック接続とプライベート接続
テーブル検出とカスタム SQL クエリ
取り込み中の完全なデータ更新
SPICE ストレージのみ

# Microsoft Excel ファイルを使用したデータセットの作成
<a name="create-a-data-set-excel"></a>

Microsoft Excel ファイルを使用してデータセットを作成するには、ローカルまたはネットワークドライブから .xlsx ファイルをアップロードします。データは [SPICE](spice.md) にインポートされます。

 Amazon S3 データソースを使用した新しい Amazon S3 データセットの作成の詳細については、[既存の Amazon S3 データソースを使用したデータセットの作成](create-a-data-set-existing.md#create-a-data-set-existing-s3) または [Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md) を参照してください。

**Excel ファイルに基づいたデータセットを作成する**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットファイルがデータソースのクォータを超えていないことを確認します。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**してから**新しいデータセット**を選択します。

1. [**Upload a file (ファイルのアップロード)**] を選択します。

1. [**Open**] ダイアログボックスで、ファイルを選択してから、[**Open**] を選択します。

   Quick Sight にアップロードするファイルは 1 GB 以下である必要があります。

1. Excel ファイルに複数のシートがある場合は、インポートするシートを選択します。このシートの選択は、後のデータ準備で変更できます。

1. 
**注記**  
以降の画面では、データ準備を行う複数の機会があります。それぞれの機会に、[**Prepare Data**] 画面に移動します。この画面は、データのインポートが完了した後にアクセスできる画面と同じです。この画面では、アップロードが完了した後でもアップロード設定を変更できます。

    [**Select**] を選択して、設定を確定します。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備を行うことができます。

   次の画面にデータのプレビューが表示されます。データプレビューで直接変更することはできません。

1. データの見出しや内容が正しく表示されない場合は、**[Edit settings and prepare data]** (設定の編集とデータの準備) を選択し、ファイルのアップロード設定を修正できます。

   それ以外の場合は**[次へ]** を選択してください。

1. [**Data Source Details**] 画面で、[**Edit/Preview data**] を選択できます。**[Prepare Data]** (データの準備)画面でデータセット名を指定できます。

   データ準備を行う必要がない場合は、データをそのまま使用する分析を作成することを選択できます。[**Visualize (視覚化する)**] を選択します。これにより、データセットはソースファイルと同じ名前になり、**[Analysis]** (分析) 画面に移動します。データ準備と Excel のアップロード設定の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

**注記**  
新しいフィールドの追加など、ファイルに変更を加える場合はいつでも、Microsoft Excel で変更を行い、Quick Sight で更新されたバージョンを使用して新しいデータセットを作成する必要があります。データセットを変更すると可能性のある影響の詳細については、「[データセットを編集するときに考慮すべきこと](edit-a-data-set.md#change-a-data-set)」を参照してください。

# Presto を使用したデータソースの作成
<a name="create-a-data-source-presto"></a>

Presto (または PrestoDB) は、オープンソースの分散型 SQL クエリエンジンであり、あらゆるサイズのデータに高速な分析クエリを実行できるように設計されています。非リレーショナルデータソースとリレーショナルデータソースの両方をサポートしています。サポートされている非リレーショナルデータソースには、Hadoop Distributed File System (HDFS)、Amazon S3、Cassandra、MongoDB、HBase などがあります。サポートされているリレーショナルデータソースには、MySQL、PostgreSQL、Amazon Redshift、Microsoft SQL Server、Teradata などがあります。

Presto の詳細については、以下を参照してください。
+ [Presto の概要](https://aws.amazon.com/big-data/what-is-presto/)、 AWS ウェブサイトでの Presto の説明。
+ 「Amazon EMR リリースガイド」の「[Creating a Presto cluster with Amazon Elastic MapReduce (EMR)](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html)」(Amazon Elastic MapReduce (EMR) を使用した Presto クラスターの作成)。
+ Presto に関する一般的な情報については、「[Presto Documentation](https://trino.io/docs/current/)」を参照してください。

Presto クエリエンジンで実行したクエリの結果は、Quick Sight データセットに変換できます。Presto は、バックエンドデータベースで分析クエリを処理します。次に、Quick Sight クライアントに結果を返します。Presto 経由でデータを直接クエリする、またはクエリの結果を SPICE にインポートすることができます。

Quick Sight を Presto クライアントとして使用してクエリを実行する前に、必ずデータソースプロファイルを設定してください。Quick Sight には、アクセスする Presto データソースごとにデータソースプロファイルが必要です。Presto への接続を作成するには、次の手順を実行します。

**Amazon Quick Sight から presto データソースへの新しい接続を作成するには (コンソール)**

1. Amazon Quick Sight の開始ページで、左側の**データ**を選択します。

1. **Create** then **New データセット**を選択します。

1. **Presto** タイルを選択します。
**注記**  
ほとんどのブラウザでは、Ctrl-F または Cmd-F を使用して検索ボックスを開き、「**presto**」と入力してタイルを見つけることができます。

1. 新しいデータソースの設定を追加します。
   + ****データソース名**** - データソース接続用のわかりやすい名前を入力します。この名前は、[**データセット**] 画面の下部にある [**既存のデータソース**] セクションに表示されます。
   + ****接続タイプ**** - Prestoへの接続に使用する接続タイプを選択します。

     パブリックネットワーク経由で接続するには、[**パブリックネットワーク**] を選択します。

     パブリックネットワークを使用する場合は、Lightweight Directory Access Protocol (LDAP) を使用して Presto サーバーを保護および認証する必要があります。LDAP を使用するように Presto を設定する方法については、Presto のドキュメントの「[LDAP authentication](https://trino.io/docs/current/security/ldap.html)」(LDAP 認証) を参照してください。

     仮想プライベート接続を介して接続するには、[**VPC 接続**] リストから適切な VPC 名を選択します。

     Presto サーバーで認証されていないアクセスが許可されている場合、 はプライベート VPC 接続を使用してそのサーバーに安全に接続 AWS する必要があります。新しい VPC の設定については、「[Amazon Quick Sight での VPC 接続の設定](working-with-aws-vpc.md)」を参照してください。
   + ****Database server (データベースサーバー)****- データベースサーバーの名前。
   + ****ポート**** – Amazon Quick Sight からの着信接続を受け入れるためにサーバーが使用するポート 
   + ****Catalog (カタログ)**** - 使用するカタログの名前。
   + ****Authentication required (認証が必要です)**** - (オプション) このオプションは、VPC 接続タイプを選択した場合にのみ表示されます。接続先の Presto データソースで認証を必要としない場合は **[No]** (いいえ) を選択し、 そうでない場合はデフォルトの設定 **[Yes]** (はい) のままにします。
   + ****Username (ユーザーネーム)**** — Prestoへの接続に使用するユーザー名を入力します。Quick Sight は、このデータソースプロファイルを使用するすべての接続に同じユーザー名とパスワードを適用します。Quick Sight を他のアカウントとは別にモニタリングする場合は、Quick Sight データソースプロファイルごとに Presto アカウントを作成します。

     使用する Presto アカウントは、データベースにアクセスできること、および少なくとも1つのテーブルに対して `SELECT` ステートメントを実行できることが必要です。
   + ****Password (パスワード)**** — Presto ユーザー名と一緒に使用するパスワード。Amazon Quick Sight は、データソースプロファイルで使用するすべての認証情報を暗号化します。詳細については、「[Amazon Quick でのデータ暗号化](data-encryption.md)」を参照してください。
   + ****Enable SSL (SSL の有効化)**** - SSL は、デフォルトで有効になります。

1. [**接続の検証**] を選択して、設定をテストします。

1. 設定を検証したら、[**データソースの作成**] を選択して接続を完了します。

# Amazon Quick Sight での Snowflake の使用
<a name="connecting-to-snowflake"></a>

Snowflake は、データウェアハウスやコラボレーションからデータサイエンスや生成 AI まで、データソリューションを提供する AI データクラウドプラットフォームです。Snowflake は、生成 AI、Machine Learning、データおよび分析、小売における AWS ISV コンピテンシーを含む複数の AWS 認定を持つ[AWS パートナー](https://partners.amazonaws.com/partners/001E000000d8qQcIAI/Snowflake)です。

Amazon Quick Sight には、Snowflake ログイン認証情報と OAuth クライアント認証情報の 2 つの方法で Snowflake に接続できます。次のセクションでは、両方の接続方法について学習します。

**Topics**
+ [ログイン認証情報を使用した Snowflake への Quick Sight データソース接続の作成](#create-connection-to-snowflake)
+ [OAuth クライアント認証情報を使用した Snowflake への Quick Sight データソース接続の作成](#create-connection-to-snowflake-oauth-credentials)

## ログイン認証情報を使用した Snowflake への Quick Sight データソース接続の作成
<a name="create-connection-to-snowflake"></a>

 このセクションでは、Snowflake ログイン認証情報を使用して Quick Sight と Snowflake 間の接続を作成する方法について説明します。Quick Sight と Snowflake 間のすべてのトラフィックは、SSL によって有効になります。

**Quick Sight と Snowflake 間の接続を作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 左側のナビゲーションペインで、**データ**を選択し、**作成**を選択し、**新しいデータセット**を選択します。

1. **[Snowflake]** データソースカードを選択します。

1. 表示されるポップアップに、次の情報を入力します。

   1. **[データソース名]** に、Snowflake のデータソース接続のための分かりやすい名前を入力します。Snowflake への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

   1. **[接続タイプ]** で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内に存在する場合は **[VPC]** を選択します。Quick Sight で VPC 接続を設定するには、「」を参照してください[Amazon Quick での VPC 接続の管理](vpc-creating-a-connection-in-quicksight.md)。

   1. **[データベースサーバー]** には、Snowflake 接続の詳細で指定されているホスト名を入力します。

1. **[データベース名とウェアハウス]** に、接続するそれぞれの Snowflake データベースとウェアハウスを入力します。

1. **[ユーザー名]** と **[パスワード]** に、Snowflake の接続認証情報を入力します。

Quick Sight アカウントと Snowflake アカウントの間にデータソース接続が正常に作成されたら、Snowflake データを含む [データセットの作成](creating-data-sets.md) を開始できます。

## OAuth クライアント認証情報を使用した Snowflake への Quick Sight データソース接続の作成
<a name="create-connection-to-snowflake-oauth-credentials"></a>

OAuth クライアント認証情報を使用して、Quick Sight [ APIs を介して Quick Sight](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) アカウントを Snowflake に接続できます。 *OAuth* は、高度なセキュリティ要件を持つアプリケーションによく使用される標準の認可プロトコルです。OAuth クライアント認証情報を使用して Snowflake に接続すると、Quick Sight APIs と Quick Sight UI を使用して Snowflake データを含むデータセットを作成できます。Snowflake での OAuth の設定の詳細については、「[Snowflake OAuth の概要](https://docs.snowflake.com/en/user-guide/oauth-snowflake-overview)」を参照してください。

Quick Sight はグラン`client credentials`OAuthトタイプをサポートします。 OAuthクライアント認証情報は、machine-to-machine通信のアクセストークンを取得するために使用されます。この方法は、ユーザーが関与せずにサーバーでホストされているリソースにクライアントがアクセスする必要があるシナリオに適しています。

OAuth.2.0 のクライアント認証情報フローには、認可サーバーでクライアントアプリケーションを認証するために使用できるクライアント認証メカニズムがいくつかあります。Quick Sight は、Snowflake OAuthに基づくクライアント認証情報を次の 2 つのメカニズムでサポートします。
+ **トークン (クライアントシークレットベースの OAuth)**: シークレットベースのクライアント認証メカニズムは、クライアント認証情報とともに使用され、認可サーバーで認証するためにフローを付与します。この認証スキームでは、OAuth クライアントアプリケーションの `client_id` と `client_secret` を Secrets Manager に保存する必要があります。
+ **X509 (クライアントプライベートキー JWT ベースの OAuth)**: X509 証明書キーベースのソリューションは、クライアントシークレットの代わりに認証に使用されるクライアント証明書を使用して OAuth メカニズムに追加のセキュリティレイヤーを提供します。この方法は主に、この方法を使用して 2 つのサービス間の強い信頼を持つ認可サーバーで認証するプライベートクライアントによって使用されます。

Quick Sight は、次の ID プロバイダーとOAuthの接続を検証しました。
+ OKTA
+ PingFederate

### Secrets Manager での OAuth 認証情報の保存
<a name="create-connection-to-snowflake-oauth-store-credentials"></a>

OAuth クライアント認証情報は machine-to-machine のユースケースを対象としており、インタラクティブに設計されていません。Quick Sight と Snowflake の間にデータソース接続を作成するには、OAuthクライアントアプリケーションの認証情報を含む新しいシークレットを Secrets Manager で作成します。新しいシークレットで作成されたシークレット ARN を使用して、Quick Sight に Snowflake データを含むデータセットを作成できます。Quick Sight で Secrets Manager キーを使用する方法の詳細については、「」を参照してください[Quick でデータベース認証情報の代わりに AWS Secrets Manager シークレットを使用する](secrets-manager-integration.md)。

Secrets Manager に保存する必要がある認証情報は、使用する OAuth メカニズムによって決まります。X509-based OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Snowflake に接続するときに使用する Snowflake アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_private_key`: OAuth クライアントのプライベートキー
+ `client_public_key`: OAuthクライアント証明書のパブリックキーとその暗号化されたアルゴリズム (例: `{"alg": "RS256", "kid", "cert_kid"}`)

トークンベースの OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Snowflake に接続するときに使用する Snowflake アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_secret`: OAuth クライアントシークレット

### Quick Sight APIs を使用した Snowflake OAuth接続の作成
<a name="create-connection-to-snowflake-oauth-example"></a>

Snowflake OAuth認証情報を含むシークレットを Secrets Manager で作成し、Quick アカウントを Secrets Manager に接続したら、Quick Sight APIs と SDK を使用して Quick Sight と Snowflake 間のデータソース接続を確立できます。次の例では、トークンOAuthクライアントの認証情報を使用して Snowflake データソース接続を作成します。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "UNIQUEDATASOURCEID",
    "Name": "NAME",
    "Type": "SNOWFLAKE",
    "DataSourceParameters": {
        "SnowflakeParameters": {
            "Host": "HOSTNAME",
            "Database": "DATABASENAME",
            "Warehouse": "WAREHOUSENAME",
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "snowflake-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN" 
             }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Snowflake"
    }
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

CreateDatasource API オペレーションの詳細については、「[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)」を参照してください。

Quick Sight と Snowflake 間の接続が確立され、Quick Sight APIsまたは SDK を使用してデータソースが作成されると、新しいデータソースが Quick Sight に表示されます。Quick Sight の作成者は、このデータソースを使用して Snowflake データを含むデータセットを作成できます。テーブルは、`CreateDataSource` API コールで渡される `DatabaseAccessControlRole`パラメータで使用されるロールに基づいて表示されます。データソース接続の作成時にこのパラメータが定義されていない場合は、デフォルトの Snowflake ロールが使用されます。

Quick Sight アカウントと Snowflake アカウントの間にデータソース接続が正常に作成されたら、Snowflake データを含む [データセットの作成](creating-data-sets.md) を開始できます。

# Amazon Quick Sight での Starburst の使用
<a name="connecting-to-starburst"></a>

Starburst は、超並列処理 (MPP) クエリエンジンである Trino をベースに構築された、フル機能のデータレイク分析サービスです。このセクションでは、Amazon Quick Sight から Starburst に接続する方法について説明します。Quick Sight と Starburst 間のすべてのトラフィックは SSL によって有効になります。Starburst Galaxy に接続する場合は、Starburst Galaxy アカウントにログインして **Partner Connect** を選択し、**Quick Sight **を選択して、必要な接続の詳細を取得できます。ホスト名やポートなどの情報が表示されるはずです。Amazon Quick Sight は、Starburst への基本的なユーザー名とパスワード認証をサポートしています。

Quick Sight には、Starburst ログイン認証情報またはOAuthクライアント認証情報を使用して Starburst に接続する 2 つの方法があります。次のセクションでは、両方の接続方法について学習します。

**Topics**
+ [ログイン認証情報を使用した Starburst への Quick Sight データソース接続の作成](#create-connection-to-starburst)
+ [OAuth クライアント認証情報を使用した Starburst への Quick Sight データソース接続の作成](#create-connection-to-starburst-oauth)

## ログイン認証情報を使用した Starburst への Quick Sight データソース接続の作成
<a name="create-connection-to-starburst"></a>

1. まず、新しいデータセットを作成します。左側のナビゲーションペインで、**データ**を選択し、**作成**を選択し、**新しいデータセット**を選択します。

1. **[Starburst]** データソースカードを選択します。

1. Starburst の製品タイプを選択します。オンプレミスの Starburst インスタンスには **[Starburst Enterprise]** を選択します。マネージドインスタンスには **[Starburst Galaxy]** を選択します。

1. **[データソース名]** に、Starburst のデータソース接続のための分かりやすい名前を入力します。Starburst への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内にある場合は **[VPC]** を選択します。Amazon Quick Sight で VPC 接続を設定するには、[「Amazon Quick Sight での VPC 接続の設定](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)」を参照してください。この接続タイプは Starburst Galaxy では使用できません。

1. **[データベースサーバー]** には、Starburst 接続の詳細で指定されているホスト名を入力します。

1. **[カタログ]** には、Starburst 接続の詳細で指定されているカタログを入力します。

1. **[ポート]** には、Starburst 接続の詳細で指定されているポートを入力します。Starburst Galaxy のデフォルトは 443 です。

1. **[ユーザー名]** と **[パスワード]** には、Starburst の接続認証情報を入力します。

1. 接続が機能していることを確認するには、**[接続を検証]** を選択します。

1. 完了してデータソースを作成するには、**[データソースの作成]** を選択します。

**注記**  
Amazon Quick Sight と Starburst 間の接続は、Starburst バージョン 420 を使用して検証されました。

Quick Sight アカウントと Starburst アカウントの間にデータソース接続が正常に作成されたら、Starburst データ[データセットの作成](creating-data-sets.md)を含む を開始できます。

## OAuth クライアント認証情報を使用した Starburst への Quick Sight データソース接続の作成
<a name="create-connection-to-starburst-oauth"></a>

OAuth クライアント認証情報を使用して、Quick Sight [ APIs を介して Quick Sight](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) アカウントを Starburst に接続できます。 *OAuth* は、高度なセキュリティ要件を持つアプリケーションによく使用される標準の認可プロトコルです。OAuth クライアント認証情報を使用して Starburst に接続すると、Quick Sight APIs と Quick Sight UI で Starburst データを含むデータセットを作成できます。Starburst OAuth での設定の詳細については、「[OAuth 2.0 authentication](https://docs.starburst.io/latest/security/oauth2.html)」を参照してください。

Quick Sight はグラン`client credentials`OAuthトタイプをサポートしています。 OAuthクライアント認証情報は、machine-to-machine通信用のアクセストークンを取得するために使用されます。この方法は、ユーザーが関与せずにサーバーでホストされているリソースにクライアントがアクセスする必要があるシナリオに適しています。

OAuth.2.0 のクライアント認証情報フローには、認可サーバーでクライアントアプリケーションを認証するために使用できるクライアント認証メカニズムがいくつかあります。Quick Sight は、Starburst OAuthに基づくクライアント認証情報を次の 2 つのメカニズムでサポートします。
+ **トークン (クライアントシークレットベースの OAuth)**: シークレットベースのクライアント認証メカニズムは、クライアント認証情報とともに使用され、認可サーバーで認証するためにフローを付与します。この認証スキームでは、OAuth クライアントアプリケーションの `client_id` と `client_secret` を Secrets Manager に保存する必要があります。
+ **X509 (クライアントプライベートキー JWT ベースの OAuth)**: X509 証明書キーベースのソリューションは、クライアントシークレットの代わりに認証に使用されるクライアント証明書を使用して OAuth メカニズムに追加のセキュリティレイヤーを提供します。この方法は主に、この方法を使用して 2 つのサービス間の強い信頼を持つ認可サーバーで認証するプライベートクライアントによって使用されます。

Quick Sight は、次の ID プロバイダーとOAuthの接続を検証しました。
+ OKTA
+ PingFederate

### Secrets Manager での OAuth 認証情報の保存
<a name="create-connection-to-starburst-oauth-store-credentials"></a>

OAuth クライアント認証情報は machine-to-machine のユースケースを対象としており、インタラクティブに設計されていません。Quick Sight と Starburst の間にデータソース接続を作成するには、OAuthクライアントアプリケーションの認証情報を含む新しいシークレットを Secrets Manager で作成します。新しいシークレットで作成されたシークレット ARN を使用して、Quick Sight に Starburst データを含むデータセットを作成できます。Quick Sight で Secrets Manager キーを使用する方法の詳細については、「」を参照してください[Quick でデータベース認証情報の代わりに AWS Secrets Manager シークレットを使用する](secrets-manager-integration.md)。

Secrets Manager に保存する必要がある認証情報は、使用する OAuth メカニズムによって決まります。X509-based OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Starburst に接続するときに使用する Starburst アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_private_key`: OAuth クライアントのプライベートキー
+ `client_public_key`: OAuthクライアント証明書のパブリックキーとその暗号化されたアルゴリズム (例: `{"alg": "RS256", "kid", "cert_kid"}`)

トークンベースの OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Starburst に接続するときに使用する Starburst アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_secret`: OAuth クライアントシークレット

### Quick Sight APIs を使用した Starburst OAuth接続の作成
<a name="create-connection-to-starburst-oauth-example"></a>

Starburst OAuth認証情報を含むシークレットを Secrets Manager で作成し、Quick アカウントを Secrets Manager に接続したら、Quick Sight APIs と SDK を使用して Quick Sight と Starburst 間のデータソース接続を確立できます。次の例では、トークン OAuth クライアントの認証情報を使用して Starburst データソース接続を作成します。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "DATASOURCEID",
    "Name": "NAME",
    "Type": "STARBURST",
    "DataSourceParameters": {
        "StarburstParameters": {
            "Host": "STARBURST_HOST_NAME",
            "Port": "STARBURST_PORT",
            "Catalog": "STARBURST_CATALOG",
            "ProductType": "STARBURST_PRODUCT_TYPE",     
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "starburst-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN"
            }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Starburst"
    },
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

CreateDatasource API オペレーションの詳細については、「[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)」を参照してください。

Quick Sight と Starburst 間の接続が確立され、Quick Sight APIsまたは SDK を使用してデータソースが作成されると、新しいデータソースが Quick Sight に表示されます。Quick Sight の作成者は、このデータソースを使用して、Starburst データを含むデータセットを作成できます。テーブルは、`CreateDataSource` API コールで渡される `DatabaseAccessControlRole`パラメータで使用されるロールに基づいて表示されます。データソース接続の作成時にこのパラメータが定義されていない場合は、デフォルトの Starburst ロールが使用されます。

Quick Sight アカウントと Starburst アカウントの間にデータソース接続が正常に作成されたら、Starburst データ[データセットの作成](creating-data-sets.md)を含む を開始できます。

# SaaS ソースからのデータソースとデータセットの作成
<a name="connecting-to-saas-data-sources"></a>

Software as a Service (SaaS) アプリケーションからのデータを分析してレポートするには、SaaS コネクタを使用して Quick Sight から直接データにアクセスできます。SaaS コネクタは、中間データストアに一切データをエクスポートすることなく、単純に OAuth を使用してサードパーティーのアプリケーションソースにアクセスします。

SaaS アプリケーションのクラウドベースまたはサーバーベースのインスタンスのいずれかを使用できます。企業ネットワークで実行されている SaaS アプリケーションに接続するには、Quick Sight がネットワーク経由でアプリケーションのドメインネームシステム (DNS) 名にアクセスできることを確認してください。Quick Sight が SaaS アプリケーションにアクセスできない場合、不明なホストエラーが生成されます。

SaaS データを使用するいくつか方法の例を紹介します。
+ JIRA を使用して問題やバグを追跡しているエンジニアリングチームは、デベロッパーの効率とバグのバーンダウンを報告できます。
+ マーケティング組織は Quick Sight を Adobe Analytics と統合して、統合されたダッシュボードを構築し、オンラインおよびウェブマーケティングデータを視覚化できます。

Software as a Service (SaaS) から、利用可能なソースに接続してデータソースとデータセットを作成するには、次の手順に従います。この手順では、例として GitHub への接続を使用します。その他の SaaS データソースは同じプロセスに従いますが、画面、特に SaaS 画面の外観は、異なることがあります。

**SaaS 経由でソースに接続してデータソースとデータセットを作成するには**

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**を選択し、**新しいデータセット**を選択します。

1. 使用する SaaS ソースを表すアイコンを選択します。例えば、Adobe Analytics または GitHub を選択することができます。

   OAuth を使用するソースについては、コネクタにより SaaS サイトに移動して接続が認可された後に、データソースを作成することができます。

1. データソースの名前を選択し、入力します。さらに多くの画面の手順がある場合は、適切な情報を入力します。次に、[**Create data source**] (データソースの作成) を選択します。

1. プロンプトが表示されたら、SaaS ログインページに認証情報を入力します。

1. プロンプトが表示されたら、SaaS データソースと Quick Sight 間の接続を承認します。

   次の例は、Quick Sight ドキュメントの GitHub アカウントにアクセスするための Quick Sight の認可を示しています。
**注記**  
Quick Sight ドキュメントが GitHub で利用可能になりました。このユーザーガイドに変更を加える必要がある場合は、GitHub を使用して直接編集できます。

   (オプション) SaaS アカウントが組織アカウントの一部である場合、Quick Sight の承認の一環として組織のアクセスをリクエストするよう求められることがあります。これを行うには、SaaS 画面のプロンプトに従って、Quick Sight を承認するように選択します。

1. 認可が完了したら、接続先のテーブルまたはオブジェクトを選択します。続いて、**[Select]** (選択) を選択します。

1. **[Finish data set creation]** (データセットの作成を終了する) 画面で、次のいずれかのオプションを選択します。
   + データソースとデータセットを保存するには、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。次に、上部のメニューバーから [**保存**] を選択します。
   + データセットを作成し、そのデータをそのまま使用して分析を作成するには、**[Visualize]** (視覚化する) を選択します。このオプションでは、データソースとデータセットが自動的に保存されます。

     分析を作成する前に、[**Edit/Preview data**] (データの編集/プレビュー) を選択してデータを準備することもできます。これにより、データ準備画面が開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

以下の制約が適用されます。
+ SaaS ソースは、Quick Sight が接続するための REST API オペレーションをサポートしている必要があります。
+ Jira に接続する場合、URL はパブリックアドレスでなければなりません。
+ 十分な [SPICE](spice.md) 容量がない場合は、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。データ準備画面で、データセットからフィールドを削除してデータセットのサイズを減らしたり、フィルターを適用して返される行数を減らしたりできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

# Salesforce からのデータセットの作成
<a name="create-a-data-set-salesforce"></a>

Salesforce に接続してデータを提供するレポートまたはオブジェクトを選択し、データセットを作成するには、次の手順に従います。

**Salesforce を使用してレポートまたはオブジェクトから データセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットレポートまたはターゲットオブジェクトがデータソースのクォータを越えていないことを確認します。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**してから**新しいデータセット**を選択します。

1. **Salesforce** アイコンを選択します。

1. データソースの名前を入力し、[**Create data source (データソースの作成)**] を選択します。

1. Salesforce のログインページで、Salesforce の認証情報を入力します。

1. [**Data elements: contain your data**] で、[**Select**] を選択してから、[**REPORT**] または [**OBJECT**] のいずれかを選択します。
**注記**  
結合されたレポートは、Quick Sight データソースとしてサポートされていません。

1. 次のいずれかのオプションを選択します。
   + 分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + それ以外の場合は、レポートまたはオブジェクトを選択してから、[**Select**] を選択します。

1. 次のいずれかのオプションを選択します。
   + データセットを作成し、そのデータをそのまま使用して分析を作成するには、**[Visualize]** (視覚化する) を選択します。
**注記**  
十分な [SPICE](spice.md) 容量がない場合は、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。データ準備では、データセットからフィールドを除去してデータセットのサイズを減らしたり、返される行数を減らすフィルターを適用したりできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + 分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択して、選択したレポートまたはオブジェクトのためのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

**注記**  
Salesforce コネクタは、ユーザーが名前空間分離を通じて認証する埋め込みコンソールデプロイではサポートされていません。OAuth 認証フローでは、サインインプロセスを完了するために Amazon Quick Sight コンソールに直接アクセスする必要があります。

# Amazon Quick Sight での Trino の使用
<a name="connecting-to-trino"></a>

Trino は、ペタバイトのデータを含むデータレイクを迅速にクエリするために構築された超並列処理 (MPP) クエリエンジンです。このセクションでは、Amazon Quick Sight から Trino に接続する方法について説明します。Amazon Quick Sight と Trino 間のすべてのトラフィックは、SSL によって有効になります。Amazon Quick Sight は、Trino への基本的なユーザー名とパスワード認証をサポートしています。

## Trino 用のデータソース接続の作成
<a name="create-connection-to-trino"></a>

1. まず、新しいデータセットを作成します。左側のナビゲーションペインで、**データ**を選択します。**Create** then **New Dataset** を選択します。

1. **[Trino]** データソースカードを選択します。

1. **[データソース名]** に、Trino のデータソース接続のための分かりやすい名前を入力します。Trino への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内にある場合は **[VPC]** を選択します。Amazon Quick Sight で VPC 接続を設定するには、[「Amazon Quick Sight での VPC 接続の設定](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)」を参照してください。

1. **[データベースサーバー]** には、Trino 接続の詳細で指定されているホスト名を入力します。

1. **[カタログ]** には、Trino 接続の詳細で指定されているカタログを入力します。

1. **[ポート]** には、Trino 接続の詳細で指定されているポートを入力します。

1. **[ユーザー名]** と **[パスワード]** には、Trino の接続認証情報を入力します。

1. 接続が機能していることを確認するには、**[接続を検証]** を選択します。

1. 完了してデータソースを作成するには、**[データソースの作成]** を選択します。

## Trino 用の新しい Amazon Quick Sight データセットの追加
<a name="create-dataset-using-trino"></a>

Trino の[データソース作成プロセス](https://docs.aws.amazon.com/create-connection-to-starburst.html)を完了した後は分析に使用する Trino データセットを作成できるようになります。新規または既存の Trino データソースから新しいデータセットを作成できます。新しいデータソースを作成すると、Amazon Quick Sight はすぐにデータセットの作成に移動します。これは、以下のステップ 3 です。既存のデータソースを使用して新しいデータセットを作成する場合は、以下のステップ 1 から始めてください。

Trino データソースを使用してデータセットを作成するには、以下の手順を参照してください。

1. 開始ページから、**データ**を選択します。**Create** then **New データセット**を選択します。

1. 作成した Trino データソースを選択します。

1. [**データセットを作成**] を選択します。

1. 接続するテーブルを指定するには、スキーマを選択します。スキーマを選択しない場合は、独自の SQL ステートメントを使用することもできます。

1. 接続するテーブルを指定するには、まず使用する **[スキーマ]** を選択します。**[Tables]** (テーブル) で、使用するテーブルを選択します。独自の SQL ステートメントを使用したい場合は、**[Use custom SQL]** (カスタム SQL を使用する) を選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

1. 右上にある **[データを追加]** を選択します。

1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

1. プロンプトに従ってデータの追加を完成させます。

1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

**注記**  
Quick Sight と Trino 間の接続は、Trino バージョン 410 を使用して検証されました。

# ローカルテキストファイルを使用したデータセットの作成
<a name="create-a-data-set-file"></a>

ローカルテキストファイルをデータソースとして使用してデータセットを作成するときは、ファイルの場所を特定し、そのファイルをアップロードします。そのファイルのデータは、データセットの作成の一環として [SPICE](spice.md) に自動的にインポートされます。

**ローカルのテキストファイルに基づいてデータセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットファイルがデータソースのクォータを超えていないことを確認します。

   サポートされているファイルの種類は、.csv、.tsv、.json、.clf、または .elf です。

1. クイックスタートページで、**データ**を選択します。

1. **Create ** then **New データセット**を選択します。

1. [**Upload a file (ファイルのアップロード)**] を選択します。

1. [**Open**] ダイアログボックスで、ファイルを参照して選択してから、[**Open**] を選択します。

   Quick Sight にアップロードするファイルは 1 GB 以下である必要があります。

1. データセットを作成する前にデータを準備するには、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。または、データをそのまま使用する分析を作成するには、[**Visualize**] を選択します。

   データ準備を行うことを選択した場合は、データの準備の一環としてデータセット名を指定できます。データ準備を行わないことを選択した場合は、ソースファイルと同じ名前のデータセットが作成されます。データ準備の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

# Amazon Quick Sight での Amazon Timestream データの使用
<a name="using-data-from-timestream"></a>

以下は、Amazon Quick Sight を使用して Amazon Timestream データに接続する方法を示しています。簡単な概要については、YouTube でビデオチュートリアル「[Getting Started with Amazon Timestream and Amazon QuickSight](https://youtu.be/TzW4HWl-L8s)」(Amazon Timestream と Amazon QuickSight の使用開始) をご覧ください。

## Timestream データベースの新しい Amazon Quick Sight データソース接続の作成
<a name="create-connection-to-timestream"></a>

以下は、Amazon Quick Sight から Amazon Timestream に接続する方法を示しています。

続行する前に、Amazon Quick Sight が Amazon Timestream に接続する権限を持っている必要があります。接続が有効になっていないと、接続しようとしたときにエラーが発生します。Quick Sight 管理者は、 AWS リソースへの接続を許可できます。承認するには、右上にあるプロフィールのアイコンをクリックしてメニューを開きます。**[Manage QuickSight]** (QuickSight の管理)、**[Security & permissions]** (セキュリティとアクセス許可)、**[Add or remove]** (追加または削除する) の順に選択します。次に、Amazon Timestream のチェックボックスを有効にし、**[Update]** (更新) を選択して確定します。詳細については、[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md) を参照してください。

**Amazon Timestream に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **Create** then **New Dataset** を選択します。

1. Timestream のデータソースカードを選択します。

1. [**Data source name (データソース名)**] に、Timestream のデータソース接続のための分かりやすい名前を入力します (例: `US Timestream Data`)。Timestream への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Validate connection]** (接続を検証) を選択し、Timestream に正常に接続できていることを確認します。

1. **[Create data source]** (データソースを作成) を選択し、先へ進みます。

1. **[Database]** (データベース) で、**[Select]** (選択) を選択し、使用可能なオプションの一覧を表示します。

1. 使用するものを選択したら、**[Select]** (選択) をクリックして先へ進みます。

1. 次のいずれかを行います。
   + Quick Sight のインメモリエンジン ( と呼ばれるSPICE) にデータをインポートするには、 **にインポートSPICEを選択して分析を迅速化**します。
   + Quick Sight がデータセットを更新するか、分析またはダッシュボードを使用するたびにデータに対してクエリを実行できるようにするには、**データの直接クエリ**を選択します。

   Timestream のデータを使用する公開済みダッシュボードで自動更新を有効にするには、Timestream のデータセットで直接クエリを使用する必要があります。

1. **[Edit/Preview]** (編集/プレビュー) を選択し、**[Save]** (保存) を選択してデータセットを保存し、閉じます。

1. これらの手順を、データセットで開く Timestream への同時直接接続の数だけ繰り返します。たとえば、Quick Sight データセットで 4 つのテーブルを使用するとします。現在、Quick Sight データセットは、Timestream データソースから一度に 1 つのテーブルにのみ接続されます。同じデータセットで 4 つのテーブルを使用するには、Quick Sight に 4 つのデータソース接続を追加する必要があります。

## Timestream データに対する許可の管理
<a name="dataset-permissions-for-timestream"></a>

以下の手順では、同じ Timestream データソースへのアクセスを許可するアクセス許可の、表示、追加、取り消しの方法について説明します。追加するユーザーは、追加する前に Quick Sight でアクティブユーザーである必要があります。

**データセットに対するアクセス許可を編集するには**

1. 左側の**データ**を選択し、下にスクロールして Timestream 接続のデータセットを見つけます。例えば `US Timestream Data` などです。

1. **[Timestream]** のデータセットを選択し、それを開きます。

1. [dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   現在のアクセス許可の一覧が表示されます。

1. アクセス許可を追加するには、**[Add users & groups]** (ユーザーとグループの追加) を選択し、続いて以下の手順を実行します。

   1. 同じデータセットの使用を許可するユーザーまたはグループを追加します。

   1. 目的のユーザーをすべて追加したら、それらのユーザーに適用する **[Permission]** (アクセス許可) を選択します。

1. (オプション) アクセス許可を編集するには、**[Viewer]** (ビューワー) または **[Owner]** (所有者) を選択します。
   + 読み取りアクセスを許可する **[Viewer]** (ビューワー) を選択します。
   + Owner ****を選択して、そのユーザーがこの Quick Sight データソースを編集、共有、または削除できるようにします。

1. (オプション) アクセス許可を取り消すときは、**[Revoke access]** (アクセス権の取り消し) を選択します。アクセス権が取り消されたユーザーは、データセットの作成、編集、共有、削除ができなくなります。

1. 完了したら、**閉じる** を選択します。

## Timestream の新しい Quick Sight データセットの追加
<a name="create-dataset-using-timestream"></a>

Timestream データ用の既存のデータソース接続を作成したら、分析に使用する Timestream データセットを作成することができます。

現在、Timestream 接続は、データセット内の 1 つのテーブルに対してのみ使用できます。1 つのデータセット内の複数の Timestream テーブルからデータを追加するには、テーブルごとに追加の Quick Sight データソース接続を作成します。

**Amazon Timestream を使用してデータセットを作成するには**

1. 左側の**データ**を選択し、下にスクロールして Timestream 接続のデータソースカードを見つけます。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. **[Timestream]** のデータソースカードを選択し、[**Create data set (データセットの作成)]** を選択します。

1. **[Database**] (データベース) で、**[Select]** (選択) を選択して使用可能なデータベースの一覧を表示し、使用するデータベースを選択します。

1. **[Tables]** (テーブル) で、使用するテーブルを選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

   1. 右上にある **[Add data]** (データを追加) を選択します。

   1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

   1. UI のプロンプトに従ってデータの追加を完成させます。

   1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

   1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

   1. SageMaker AI からモデルを追加するときは、**[SageMaker によるオーグメント]** を選択します。このオプションは Amazon Quick Enterprise Edition でのみ使用できます。

   1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

   1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

## 分析への Timestream データの追加
<a name="open-analysis-add-dataset-for-timestream"></a>

以下は、Amazon Timestream データセットを Quick Sight 分析に追加する方法を示しています。開始する前に、既存のデータセットに、使用する Timestream のデータが含まれていることを確認します。

**Amazon Timestream のデータを分析に追加するには**

1. 左側で **[Analyses]** (分析) を選択します。

1. 次のいずれかを行ってください。
   + 新しい分析を作成するときは、右側で **[New analysis]** (新しい分析) を選択します。
   + 既存の分析に追加するときは、編集する分析を開きます。
     + 左上の鉛筆アイコンを選択します。
     + **[Add data set]** (データセットを追加) を選択します。

1. 追加する Timestream データセットを選択します。

詳細については、「[分析での作業](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)」を参照してください。