

AWS Application Discovery Service は新規お客様に公開されなくなりました。または、同様の機能 AWS Transform を提供する を使用します。詳細については、[AWS 「Application Discovery Service の可用性の変更](https://docs.aws.amazon.com/application-discovery/latest/userguide/application-discovery-service-availability-change.html)」を参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Migration Hub へのデータのインポート
<a name="discovery-import"></a>

AWS Migration Hub (Migration Hub) インポートを使用すると、Application Discovery Service Agentless Collector (Agentless Collector) または AWS Application Discovery Agent (Discovery Agent) を使用せずに、オンプレミス環境の詳細を Migration Hub に直接インポートできるため、インポートしたデータから直接移行評価と計画を実行できます。デバイスをアプリケーションとしてグループ化し、それらの移行ステータスを追跡することもできます。

このページでは、インポートリクエストを完了する手順について説明します。まず、次の 2 つのオプションのいずれかを使用してオンプレミスサーバーデータを準備します。
+ 一般的なサードパーティーツールを使用して、オンプレミスサーバーデータを含むファイルを生成します。
+ カンマ区切り値 (CSV) インポートテンプレートをダウンロードし、オンプレミスサーバーデータを入力します。

前述の 2 つの方法のいずれかを使用してオンプレミスデータファイルを作成したら、Migration Hub コンソール AWS CLI、または SDK のいずれか AWS を使用してファイルを Migration Hub にアップロードします。 SDKs 2 つのオプションの詳細については、「」を参照してください[サポートされているインポート形式](#import-supported-formats)。

複数のインポートリクエストを送信できます。各リクエストは順番に処理されます。インポートリクエストのステータスは、コンソールまたはインポート API を使用していつでも確認できます。

インポートリクエストが完了したら、インポートされた各レコードの詳細を表示することができます。使用率データ、タグ、およびアプリケーションマッピングを、Migration Hub コンソール内から直接表示します。インポート中にエラーが発生した場合は、成功したレコードと失敗したレコードの数や、失敗した各レコードのエラー詳細を確認できます。

**エラーの処理:** エラーログと失敗したレコードのファイルを CSV ファイルとして圧縮アーカイブにダウンロードするためのリンクが用意されています。これらのファイルを使用して、エラーを修正してから、インポートリクエストを再送信します。

インポートされたレコード、インポートされたサーバー、および保持できる削除されたレコードの数には、制限が適用されます。詳細については、「[AWS Application Discovery Service クォータ](ads_service_limits.md)」を参照してください。

## サポートされているインポート形式
<a name="import-supported-formats"></a>



**Topics**
+ [RVTools](#import-rvtools)
+ [Migration Hub インポートテンプレート](#import-template-fields)

### RVTools
<a name="import-rvtools"></a>

Migration Hub は、RVTools を介した VMware vSphere のエクスポートのインポートをサポートしています。RVTools からデータを保存するときは、まずすべての を **csv にエクスポート** オプションまたはすべての を **Excel にエクスポート** オプションを選択し、次にフォルダを圧縮して、ZIP ファイルを Migration Hub にインポートします。ZIP では、次のファイルが必要です: vInfo、vNetwork、vCpu、vMemory、vDisk、vPartition、vSource、vTools、vHost、vNic、vSC\$1VMK。

### Migration Hub インポートテンプレート
<a name="import-template-fields"></a>

Migration Hub のインポートでは、あらゆるソースからデータをインポートできます。提供されるデータは、CSV ファイルでサポートされている形式である必要があります。また、データには、サポートされている範囲を持つサポートされているフィールドのみが含まれている必要があります。

次の表のインポートフィールド名の横にあるアスタリスク (\$1) は、それが必須フィールドであることを示します。インポートファイルの各レコードには、サーバーまたはアプリケーションを一意に識別するために、必須フィールドが 1 つ以上含まれている必要があります。必須フィールドが 1 つもないレコードはインポートできません。

次の表のインポートファイル名の横にあるキャレット (^) は、serverId が指定されている場合、読み取り専用であることを示します。

**注記**  
VMware.MoRefId または VMWare.VCenterId を使用してレコードを識別している場合は、同じレコードに両方のフィールドが必要です。


| インポートフィールド名 | 説明 | 例 | 
| --- | --- | --- | 
| ExternalId\$1^ | 各レコードに一意であることをマークすることができるカスタム識別子。たとえば、[ExternalId] は、データセンター内のサーバーのインベントリ ID を指します。 | Inventory Id 1 Server 2 CMBD Id 3  | 
| SMBiosId^ | システム管理 BIOS (SMBIOS) ID。 |  | 
| IPAddress\$1^ | サーバーの IP アドレスのカンマ区切りリスト (引用符で囲む)。 | 192.0.0.2 "10.12.31.233, 10.12.32.11" | 
| MACAddress\$1^ | サーバーの MAC アドレスのカンマ区切りリスト (引用符で囲む)。 | 00:1B:44:11:3A:B7 "00-15-E9-2B-99-3C, 00-14-22-01-23-45" | 
| HostName\$1^ | サーバーのホスト名。この値には完全修飾ドメイン名 (FQDN) を使用することをお勧めします。 | ip-1-2-3-4localhost.domain | 
| VMware.MoRefId\$1^ | マネージド型オブジェクトのリファレンス ID。VMware.VCenterId で指定する必要があります。 |  | 
| VMware.VCenterId\$1^ | 仮想マシンの一意の ID。VMware.MoRefId で指定する必要があります。 |  | 
| CPU.NumberOfProcessors^ | CPU の数。 | 4 | 
| CPU.NumberOfCores^ | 物理コアの合計数。 | 8 | 
| CPU.NumberOfLogicalCores^ | サーバー内のすべての CPU で同時に実行できるスレッドの合計数。一部の CPU は、単一の CPU コアにおける複数のスレッドの同時実行をサポートしています。このような場合、この数は物理 (または仮想) コアの数よりも大きくなります。 | 16 | 
| OS.Name^ | オペレーティングシステムの名前。 | LinuxWindows.Hat | 
| OS.Version^ | オペレーティングシステムのバージョン。 | 16.04.3NT 6.2.8 | 
| VMware.VMName^ | 仮想マシンの名前。 | Corp1 | 
| RAM.TotalSizeInMB^ | サーバーで使用可能な合計 RAM (MB)。 | 64128 | 
| RAM.UsedSizeInMB.Avg^ | サーバーで使用されている RAM の平均容量 (MB)。 | 64128 | 
| RAM.UsedSizeInMB.Max^ | サーバーで使用できる RAM の最大容量 (MB)。 | 64128 | 
| CPU.UsagePct.Avg^ | 検出ツールでデータを収集していたときの平均 CPU 使用率。 | 4523.9 | 
| CPU.UsagePct.Max^ | 検出ツールでデータを収集していたときの最大 CPU 使用率。 | 55.3424 | 
| DiskReadsPerSecondInKB.Avg^ | 1 秒あたりのディスク読み取りの平均数 (KB)。 | 115984506 | 
| DiskWritesPerSecondInKB.Avg^ | 1 秒あたりのディスク書き込みの平均数 (KB)。 | 1996197 | 
| DiskReadsPerSecondInKB.Max^ | 1 秒あたりのディスク読み取りの最大数 (KB)。 | 37892869962 | 
| DiskWritesPerSecondInKB.Max^ | 1 秒あたりのディスク書き込みの最大数 (KB)。 | 184361808 | 
| DiskReadsOpsPerSecond.Avg^ | 1 秒あたりのディスク読み取り操作の平均回数。 | 4528 | 
| DiskWritesOpsPerSecond.Avg^ | 1 秒あたりのディスク書き込み 操作の平均回数。 | 83 | 
| DiskReadsOpsPerSecond.Max^ | 1 秒あたりのディスク読み取りオペレーションの最大数。 | 1083176 | 
| DiskWritesOpsPerSecond.Max^ | 1 秒あたりのディスク書き込みオペレーションの最大数。 | 53571 | 
| NetworkReadsPerSecondInKB.Avg^ | 1 秒あたりのネットワーク読み取りオペレーションの平均数 (KB)。 | 4528 | 
| NetworkWritesPerSecondInKB.Avg^ | 1 秒あたりのネットワーク書き込みオペレーションの平均数 (KB)。 | 83 | 
| NetworkReadsPerSecondInKB.Max^ | 1 秒あたりのネットワーク読み取りオペレーションの最大数 (KB)。 | 1083176 | 
| NetworkWritesPerSecondInKB.Max^ | 1 秒あたりのネットワーク書き込みオペレーションの最大数 (KB)。 | 53571 | 
| アプリケーション | このサーバーを含むアプリケーションのカンマ区切りリスト (引用符で囲む)。この値には、既存のアプリケーションや、インポート時に作成された新規アプリケーションを含めることができます。 | Application1"Application2, Application3" | 
| ApplicationWave | このサーバーの移行ウェーブ。 |  | 
| タグ^ | name:value 形式のタグのカンマ区切りリスト。  タグに機密情報 (個人データなど) を保存しないでください。  | "zone:1, critical:yes""zone:3, critical:no, zone:1" | 
| serverId | Migration Hub サーバーリストに表示されるサーバー識別子。 | d-server-01kk9i6ywwaxmp | 

インポートテンプレートで定義されているすべてのフィールドにデータが入力されていなくても、各レコードに 1 つ以上の必須フィールドが含まれていれば、データをインポートすることができます。重複は、外部または内部の一致キーを使用して、複数のインポートリクエスト間で管理されます。独自の一致キー `External ID` を入力する場合は、このフィールドでレコードを一意に識別してインポートします。一致キーが指定されていない場合、インポートテンプレートの一部の列から派生した内部生成の一致キーがインポートに使用されます。この一致の詳細については、「[検出されたサーバーとアプリケーションの一致ロジック](view-data.md#add-match-logic)」を参照してください。

**注記**  
Migration Hub のインポートは、インポートテンプレートで定義されているもの以外のフィールドをサポートしません。カスタムフィールドは無視され、インポートもされません。

## インポートアクセス許可の設定
<a name="import-perms"></a>

データをインポートする前に、インポートファイルを Amazon S3 にアップロード (`s3:PutObject`) し、オブジェクトを読み取るために必要な Amazon S3 アクセス許可が IAM ユーザーに付与されていることを確認します ()`s3:GetObject`。また、IAM ポリシーを作成し、 AWS アカウントでインポートを実行する IAM ユーザーにアタッチして、プログラムによるアクセス ( の場合 AWS CLI) またはコンソールアクセスを確立する必要があります。

------
#### [ Console Permissions ]

次の手順を使用して、 コンソールを使用して AWS アカウントでインポートリクエストを行う IAM ユーザーのアクセス許可ポリシーを編集します。

**ユーザーにアタッチされている管理ポリシーを編集する**

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam) で IAM コンソールを開きます。

1. ナビゲーションペインで **[ユーザー]** を選択します。

1. アクセス許可ポリシーを変更する対象のユーザーの名前を選択します。

1. [**アクセス許可**] タブを選択後、[**アクセス許可の追加**] を選択します。

1. [**Attach existing policies directly (既存のポリシーを直接アタッチ)**]、[**ポリシーの作成**] の順に選択します。

   1. 表示された [**ポリシーの作成**] ページで [**JSON**] を選択し、次のポリシーに貼り付けます。バケットの名前を、IAM ユーザーがインポートファイルをアップロードする実際のバケットの名前に置き換えることを忘れないでください。

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Action": [
              "s3:GetBucketLocation",
              "s3:ListAllMyBuckets"
            ],
            "Resource": "*"
          },
          {
            "Effect": "Allow",
            "Action": ["s3:ListBucket"],
            "Resource": ["arn:aws:s3:::importBucket"]
          },
          {
            "Effect": "Allow",
            "Action": [
              "s3:PutObject",
              "s3:GetObject",
              "s3:DeleteObject"
            ],
            "Resource": ["arn:aws:s3:::importBucket/*"]
          }
        ]
      }
      ```

------

   1. **[ポリシーの確認]** を選択します。

   1. ポリシーに新しい [**名前**] と説明 (オプション) を入力してから、ポリシーの概要を確認します。

   1. [**Create policy**] (ポリシーの作成) を選択します。

1. アカウント AWS でインポートリクエストを行うユーザーのアクセス**許可を付与**する IAM コンソールページに戻ります。

1. ポリシーのテーブルを更新し、先ほど作成したポリシーの名前を検索します。

1. **[次へ: レビュー]** を選択します。

1. [**Add permissions**] を選択します。

IAM ユーザーにポリシーを追加したところで、インポートプロセスを開始する準備が整いました。

------
#### [ AWS CLI Permissions ]

以下の手順を使用して、 を使用してデータインポートリクエストを行うアクセス許可を IAM ユーザーに付与するために必要な管理ポリシーを作成します AWS CLI。

**管理ポリシーを作成してアタッチするには**

1. `aws iam create-policy` AWS CLI コマンドを使用して、次のアクセス許可を持つ IAM ポリシーを作成します。バケットの名前を、IAM ユーザーがインポートファイルをアップロードする実際のバケットの名前に置き換えることを忘れないでください。

------
#### [ JSON ]

****  

   ```
   {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
       {
         "Effect": "Allow",
         "Action": ["s3:ListBucket"],
         "Resource": ["arn:aws:s3:::importBucket"]
       },
       {
         "Effect": "Allow",
         "Action": [
           "s3:PutObject",
           "s3:GetObject",
           "s3:DeleteObject"
         ],
         "Resource": ["arn:aws:s3:::importBucket/*"]
       }
     ]
   }
   ```

------

   このコマンドの使用に関する詳細については、*AWS CLI コマンドリファレンス*の「[create-policy](https://docs.aws.amazon.com/cli/latest/reference/iam/create-policy.html)」を参照してください。

1. `aws iam create-policy` AWS CLI コマンドを使用して、次のアクセス許可を持つ追加の IAM ポリシーを作成します。

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Effect": "Allow",
               "Action": [
                   "discovery:ListConfigurations",
                   "discovery:CreateApplication",
                   "discovery:UpdateApplication",
                   "discovery:AssociateConfigurationItemsToApplication",
                   "discovery:DisassociateConfigurationItemsFromApplication",
                   "discovery:GetDiscoverySummary",
                   "discovery:StartImportTask",
                   "discovery:DescribeImportTasks",
                   "discovery:BatchDeleteImportData"
               ],
               "Resource": "*"
           }
       ]
   }
   ```

------

1. `aws iam attach-user-policy` AWS CLI コマンドを使用して、 を使用してアカウントでインポートリクエストを実行する IAM ユーザーに、前の 2 つのステップで作成したポリシーをアタッチします AWS AWS CLI。このコマンドの使用に関する詳細については、*AWS CLI コマンドリファレンス*の「[attach-user-policy](https://docs.aws.amazon.com/cli/latest/reference/iam/attach-user-policy.html)」を参照してください。

ポリシーを IAM ユーザーに追加したので、インポートプロセスを開始する準備が整いました。

------

IAM ユーザーが指定した Amazon S3 バケットにオブジェクトをアップロードするときは、ユーザーがオブジェクトを読み取れるように、オブジェクトセットのデフォルトのアクセス許可を残す必要があることに注意してください。

## インポートファイルを Amazon S3 にアップロードする
<a name="migration-hub-import-s3-upload"></a>

次に、CSV 形式のインポートファイルをインポートできるように、それを Amazon S3 にアップロードする必要があります。開始する前に、インポートファイルを格納する Amazon S3 バケットを事前に作成および/または選択しておく必要があります。

------
#### [ Console S3 Upload ]

**Amazon S3 にインポートファイルをアップロードする**

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) で Amazon S3 コンソールを開きます。

1. [**Bucket name (バケット名)**] リストで、オブジェクトのアップロード先のバケットの名前を選択します。

1. **アップロード** を選択します。

1. [**Upload (アップロード)**] ダイアログボックスで、[**Add files (ファイルの追加)**] を選択してアップロードするファイルを選択します。

1. アップロードするファイルを選択し、続いて **[オープン]** を選択します。

1. **アップロード** を選択します。

1. ファイルがアップロードされたら、バケットのダッシュボードからデータファイルオブジェクトの名前を選択します。

1. オブジェクトの詳細ページの [**概要**] タブから、[**オブジェクト URL**] をコピーします。この情報は、インポートリクエストを作成するときに必要になります。

1. 「」の説明に従って、Migration Hub コンソールの**インポート**ページに移動します[データのインポート](#start-data-import)。次に、Amazon **Amazon S3**を貼り付けます。

------
#### [ AWS CLI S3 Upload ]

**Amazon S3 にインポートファイルをアップロードする**

1. ターミナルウィンドウを開き、インポートファイルが保存されているディレクトリに移動します。

1. 次のコマンドを入力します。

   ```
   aws s3 cp ImportFile.csv s3://BucketName/ImportFile.csv
   ```

1. これにより、次の結果が返されます。

   ```
   upload: .\ImportFile.csv to s3://BucketName/ImportFile.csv
   ```

1. 返された完全な Amazon S3 オブジェクトパスをコピーします。これは、インポートリクエストを作成するときに必要になります。

------

## データのインポート
<a name="start-data-import"></a>

Migration Hub コンソールからインポートテンプレートをダウンロードし、既存のオンプレミスサーバーデータを入力すると、Migration Hub へのデータのインポートを開始する準備が整います。次の手順では、コンソールを使用するか、 を使用して API コールを実行するという 2 つの方法について説明します AWS CLI。

------
#### [ Console Import ]

Migration Hub コンソールの **[Tools]** (ツール) ページでデータのインポートを開始します。

**データのインポートを開始する**

1. ナビゲーションペインの [**Discover (検出)**] で [**Tools (ツール)**] を選択します。

1. インポートテンプレートへの入力が完了していない場合は、**[Import]** (インポート) ボックスで **[import template]** (インポートテンプレート) を選択することによってテンプレートをダウンロードできます。ダウンロードしたテンプレートを開き、既存のオンプレミスサーバーデータを入力します。インポートテンプレートは、[https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import\$1template.csv](https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv) にある Amazon S3 バケットからもダウンロードできます。

1. **インポート**ページを開くには、**インポート**ボックスで**インポート**を選択します。

1. **インポート名**で、インポートの名前を指定します。

1. **Amazon S3 オブジェクト URL** フィールドに入力します。このステップを実行するには、インポートデータファイルを Amazon S3 にアップロードする必要があります。詳細については、「[インポートファイルを Amazon S3 にアップロードする](#migration-hub-import-s3-upload)」を参照してください。

1. 右下エリアにある [**インポート**] を選択します。[**インポート**] ページが開きます。テーブルには、インポートとそのステータスが表示されます。

前の手順に従って、データのインポートを開始したら、各インポートリクエストの詳細 (例: 進行状況のステータス、完了時間、レコードの成功/失敗数 (ダウンロード可能)) が [**インポート**] ページに表示されます。この画面から、**[Discover]** (検出) の **[Servers]** (サーバー) ページに移動して、インポートされた実際のデータを確認することもできます。

[**サーバー**] ページでは、検出されたすべてのサーバー (デバイス) とインポート名を確認できます。名前****列にリストされているインポートの名前を選択して**インポート** (インポート履歴) ページから移動すると、**サーバー**ページに移動し、選択したインポートのデータセットに基づいてフィルターが適用されます。次に、その特定のインポートに属するデータのみが表示されます。

アーカイブは、.zip 形式で提供され、`errors-file` と `failed-entries-file` の 2 つのファイルが含まれます。エラーファイルには、失敗した各行に関連付けられたエラーメッセージのリストと、インポートに失敗したデータファイルの関連付けられた列の名前が含まれます。このファイルを使用して、問題の発生原因をすばやく特定することができます。失敗したエントリファイルには、失敗した各行と提供されたすべての列が含まれます。このファイルのエラーファイルで変更を呼び出し、修正した情報を使用してファイルのインポートを再試行することができます。

------
#### [ AWS CLI Import ]

からデータインポートプロセスを開始するには AWS CLI、まず を環境にインストール AWS CLI する必要があります。詳細については、「 *AWS Command Line Interface ユーザーガイド*[」の AWS 「 コマンドラインインターフェイスのインストール](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-install.html)」を参照してください。

**注記**  
インポートテンプレートへの入力が完了していない場合は、[https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import\$1template.csv](https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv) にある Amazon S3 バケットからインポートテンプレートをダウンロードできます。

**データのインポートを開始する**

1. ターミナルウィンドウを開いて、次のコマンドを入力します。

   ```
   aws discovery start-import-task --import-url s3://BucketName/ImportFile.csv --name ImportName
   ```

1. これにより、インポートタスクが作成され、次のステータス情報が返ります。

   ```
   {
       "task": {
           "status": "IMPORT_IN_PROGRESS",
           "applicationImportSuccess": 0,
           "serverImportFailure": 0,
           "serverImportSuccess": 0,
           "name": "ImportName",
           "importRequestTime": 1547682819.801,
           "applicationImportFailure": 0,
           "clientRequestToken": "EXAMPLE1-abcd-1234-abcd-EXAMPLE1234",
           "importUrl": "s3://BucketName/ImportFile.csv",
           "importTaskId": "import-task-EXAMPLE1229949eabfEXAMPLE03862c0"
       }
   }
   ```

------

## Migration Hub のインポートリクエストの追跡
<a name="tracking-import-request"></a>

Migration Hub インポートリクエストのステータスは、 コンソール AWS CLI、またはいずれかの AWS SDKs を使用して追跡できます。

------
#### [ Console Tracking ]

Migration Hub コンソールの **[Imports]** (インポート) ダッシュボードからは、以下の要素を確認できます。
+ **名前** – インポートリクエストの名前。
+ **インポート ID** – インポートリクエストの固有 ID。
+ **インポート時間** – インポートリクエストが作成された日時。
+ **インポートステータス** – インポートリクエストのステータス。これは、以下の値のいずれかになります。
  + **インポート中** – このデータファイルは現在インポート中です。
  + **インポート済み** – データファイル全体が正常にインポートされました。
  + **インポート時にエラーが発生** – データファイル内の 1 つ、または複数のレコードのインポートが失敗しました。失敗したレコードを解決するには、インポートタスクの [**Download failed records (失敗したレコードのダウンロード)**] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。
  + **インポート失敗** – データファイル内のどのレコードもインポートされませんでした。失敗したレコードを解決するには、インポートタスクの [**Download failed records (失敗したレコードのダウンロード)**] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。
+ **インポートされたレコード** – 特定のデータファイル内の正常にインポートされたレコードの数です。
+ **失敗したレコード** – 特定のデータファイル内のインポートされなかったレコードの数です。

------
#### [ CLI Tracking ]

コマンドを使用して、インポートタスクのステータスを追跡できます`aws discovery describe-import-tasks` AWS CLI 。

1. ターミナルウィンドウを開いて、次のコマンドを入力します。

   ```
   aws discovery describe-import-tasks
   ```

1. これにより、すべてのインポートタスクのリストが JSON 形式で返り、ステータスやその他の関連情報が含まれます。必要に応じて、インポートタスクのサブセットが返るように結果をフィルタリングすることができます。

インポートタスクを追跡すると、返った `serverImportFailure` 値がゼロより大きいことがわかります。この場合、インポートファイルには、インポートできなかったエントリが 1 つ以上含まれています。この問題を解消するには、失敗したレコードのアーカイブをダウンロードして、中のファイルを確認し、変更した failed-entries.csv ファイルを使用してインポートリクエストを行います。

------

インポートタスクを作成したら、データ移行の管理と追跡に役立つ他の操作を実行できます。たとえば、特定のリクエストに対して失敗したレコードのアーカイブをダウンロードできます。失敗したレコードのアーカイブを使用して、インポートの問題を解消する方法については、「[失敗したインポートレコードのトラブルシューティング](troubleshooting.md#troubleshooting-import-failed-records)」を参照してください。