Migration Hub へのデータのインポート - AWS Application Discovery Service

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Migration Hub へのデータのインポート

AWS Migration Hub (Migration Hub) インポートを使用すると、Application Discovery Service Agentless Collector (Agentless Collector) または AWS Application Discovery Agent (Discovery Agent) を使用せずに、オンプレミス環境の詳細を Migration Hub に直接インポートできるため、インポートしたデータから直接移行評価と計画を実行できます。デバイスをアプリケーションとしてグループ化し、それらの移行ステータスを追跡することもできます。

このページでは、インポートリクエストを完了する手順について説明します。まず、次の 2 つのオプションのいずれかを使用してオンプレミスサーバーデータを準備します。

  • 一般的なサードパーティーツールを使用して、オンプレミスサーバーデータを含むファイルを生成します。

  • カンマ区切り値 (CSV) インポートテンプレートをダウンロードし、オンプレミスサーバーデータを入力します。

前述の 2 つの方法のいずれかを使用してオンプレミスデータファイルを作成したら、Migration Hub コンソール AWS CLI、または のいずれかを使用してファイルを Migration Hub にアップロードします AWS SDKs。2 つのオプションの詳細については、「」を参照してくださいサポートされているインポート形式

複数のインポートリクエストを送信できます。各リクエストは順番に処理されます。インポートリクエストのステータスは、コンソールまたはインポート からいつでも確認できますAPIs。

インポートリクエストが完了したら、インポートされた各レコードの詳細を表示することができます。使用率データ、タグ、およびアプリケーションマッピングを、Migration Hub コンソール内から直接表示します。インポート中にエラーが発生した場合は、成功したレコードと失敗したレコードの数や、失敗した各レコードのエラー詳細を確認できます。

エラーの処理: エラーログと失敗したレコードファイルを圧縮アーカイブのCSVファイルとしてダウンロードするためのリンクが提供されます。これらのファイルを使用して、エラーを修正してから、インポートリクエストを再送信します。

インポートされたレコード、インポートされたサーバー、および保持できる削除されたレコードの数には、制限が適用されます。詳細については、「AWS Application Discovery Service のクォータ」を参照してください。

サポートされているインポート形式

Migration Hub では、次のインポート形式がサポートされています。

RVTools

Migration Hub は、 VMware vSphere を介した のエクスポートのインポートをサポートしていますRVTools。からデータを保存するときはRVTools、まずすべての を csv にエクスポート オプションを選択し、次に ZIP フォルダを選択して、ZIPファイルを Migration Hub にインポートします。

Migration Hub インポートテンプレート

Migration Hub のインポートでは、あらゆるソースからデータをインポートできます。提供されるデータは、CSVファイルでサポートされている形式である必要があり、データには、それらのフィールドでサポートされている範囲を持つサポートされているフィールドのみが含まれている必要があります。

次の表のインポートフィールド名の横にあるアスタリスク (*) は、それが必須フィールドであることを示します。インポートファイルの各レコードには、サーバーまたはアプリケーションを一意に識別するために、必須フィールドが 1 つ以上含まれている必要があります。必須フィールドが 1 つもないレコードはインポートできません。

次の表のインポートファイル名の横にあるキャレット (^) は、 serverId が指定されている場合、読み取り専用であることを示します。

注記

VMware.MoRefId or のいずれかを使用している場合VMWareVCenterId、レコードを識別するには、同じレコードに両方のフィールドが必要です。

インポートフィールド名 説明
ExternalId*^ 各レコードに一意であることをマークすることができるカスタム識別子。例えば、 ExternalIdはデータセンター内のサーバーのインベントリ ID にすることができます。

Inventory Id 1

Server 2

CMBD ID 3

SMBiosId^ システム管理 BIOS (SMBIOS) ID。
IPAddress*^ サーバーの IP アドレスのカンマ区切りリスト (引用符で囲む)。

192.0.0.2

"10.12.31.233, 10.12.32.11"

MACAddress*^ サーバーのMACアドレスのカンマ区切りリスト。引用符で囲まれています。

00:1B:44:11:3A:B7

"00-15-E9-2B-99-3C, 00-14-22-01-23-45"

HostName*^ サーバーのホスト名。この値には完全修飾ドメイン名 (FQDN) を使用することをお勧めします。

ip-1-2-3-4

localhost.domain

VMware.MoRefId*^ マネージド型オブジェクトのリファレンス ID。を指定する必要がありますVMwareVCenterId。
VMware.VCenterId*^ 仮想マシンの一意の ID。を指定する必要がありますVMwareMoRefId。
CPU.NumberOfProcessors^ の数CPUs。

4

CPU.NumberOfCores^ 物理コアの合計数。 8
CPU.NumberOfLogicalCores^ サーバーCPUs内のすべての で同時に実行できるスレッドの合計数。一部の は、単一のCPUコアで同時に実行するために複数のスレッドCPUsをサポートしています。このような場合、この数は物理 (または仮想) コアの数よりも大きくなります。

16

OS.Name^ オペレーティングシステムの名前。

Linux

Windows.Hat

OS.Version^ オペレーティングシステムのバージョン。

16.04.3

NT 6.2.8

VMware.VMName^ 仮想マシンの名前。

Corp1

RAM.TotalSizeInMB^ サーバーでRAM使用可能な合計、MB。

64

128

RAM.UsedSizeInMB.Avg^ サーバーRAMで使用されている の平均量を MB 単位で表します。

64

128

RAM.UsedSizeInMB.Max^ サーバーRAMで使用できる最大使用量。MB 単位。

64

128

CPU.UsagePct。平均^ 検出ツールがデータを収集していたときの平均CPU使用率。

45

23.9

CPU.UsagePct。最大^ 検出ツールがデータを収集していた場合の最大CPU使用率。

55.34

24

DiskReadsPerSecondInKB.Avg^ 1 秒あたりのディスク読み取りの平均数 (KB)。

1159

84506

DiskWritesPerSecondInKB.Avg^ 1 秒あたりのディスク書き込みの平均数 (KB)。

199

6197

DiskReadsPerSecondInKB.Max^ 1 秒あたりのディスク読み取りの最大数 (KB)。

37892

869962

DiskWritesPerSecondInKB.Max^ 1 秒あたりのディスク書き込みの最大数 (KB)。

18436

1808

DiskReadsOpsPerSecond平均^ 1 秒あたりのディスク読み取り操作の平均回数。

45

28

DiskWritesOpsPerSecond平均^ 1 秒あたりのディスク書き込み 操作の平均回数。

8

3

DiskReadsOpsPerSecond.Max^ 1 秒あたりのディスク読み取りオペレーションの最大数。

1083

176

DiskWritesOpsPerSecond.Max^ 1 秒あたりのディスク書き込みオペレーションの最大数。

535

71

NetworkReadsPerSecondInKB.Avg^ 1 秒あたりのネットワーク読み取りオペレーションの平均数 (KB)。

45

28

NetworkWritesPerSecondInKB.Avg^ 1 秒あたりのネットワーク書き込みオペレーションの平均数 (KB)。

8

3

NetworkReadsPerSecondInKB.Max^ 1 秒あたりのネットワーク読み取りオペレーションの最大数 (KB)。

1083

176

NetworkWritesPerSecondInKB.Max^ 1 秒あたりのネットワーク書き込みオペレーションの最大数 (KB)。

535

71

アプリケーション このサーバーを含むアプリケーションのカンマ区切りリスト (引用符で囲む)。この値には、既存のアプリケーションや、インポート時に作成された新規アプリケーションを含めることができます。

Application1

"Application2, Application3"

ApplicationWave このサーバーの移行ウェーブ。
タグ^

name:value 形式のタグのカンマ区切りリスト。

重要

タグに機密情報 (個人データなど) を保存しないでください。

"zone:1, critical:yes"

"zone:3, critical:no, zone:1"

ServerId Migration Hub サーバーリストに表示されるサーバー識別子。 d-server-01kk9i6ywwaxmp

インポートテンプレートで定義されているすべてのフィールドにデータが入力されていなくても、各レコードに 1 つ以上の必須フィールドが含まれていれば、データをインポートすることができます。重複は、外部または内部の一致キーを使用して、複数のインポートリクエスト間で管理されます。独自の一致キー External ID を入力する場合は、このフィールドでレコードを一意に識別してインポートします。一致キーが指定されていない場合、インポートテンプレートの一部の列から派生した内部生成の一致キーがインポートに使用されます。この一致の詳細については、「検出されたサーバーとアプリケーションのマッチングロジック」を参照してください。

注記

Migration Hub のインポートは、インポートテンプレートで定義されているもの以外のフィールドをサポートしません。カスタムフィールドは無視され、インポートもされません。

インポート許可の設定

データをインポートする前に、インポートファイルを Amazon S3 にアップロード (s3:PutObject) し、オブジェクトを読み取る () ために必要な Amazon S3 アクセス許可がIAMユーザーに付与されていることを確認しますs3:GetObject。また、 IAMポリシーを作成し、 AWS アカウントでインポートを実行するIAMユーザーにアタッチして、プログラムによるアクセス ( の場合 AWS CLI) またはコンソールアクセスを確立する必要があります。

Console Permissions

以下の手順を使用して、 コンソールを使用して AWS アカウントでインポートリクエストを行うIAMユーザーのアクセス許可ポリシーを編集します。

ユーザーにアタッチされている管理ポリシーを編集する
  1. にサインイン AWS Management Console し、 で IAMコンソールを開きますhttps://console.aws.amazon.com/iam/

  2. ナビゲーションペインで [ユーザー] を選択します。

  3. アクセス許可ポリシーを変更する対象のユーザーの名前を選択します。

  4. [アクセス許可] タブを選択後、[アクセス許可の追加] を選択します。

  5. [Attach existing policies directly (既存のポリシーを直接アタッチ)]、[ポリシーの作成] の順に選択します。

    1. 開いたポリシーの作成ページで、 を選択しJSON、次のポリシーに貼り付けます。バケットの名前は、IAMユーザーがインポートファイルをアップロードするバケットの実際の名前に置き換えてください。

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetBucketLocation", "s3:ListAllMyBuckets" ], "Resource": "*" }, { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }
    2. [ポリシーの確認] を選択します。

    3. ポリシーに新しい [名前] と説明 (オプション) を入力してから、ポリシーの概要を確認します。

    4. [Create policy] を選択します。

  6. アカウント AWS でインポートリクエストを行うユーザーのアクセス許可の付与IAMコンソールページに戻ります。

  7. ポリシーのテーブルを更新し、先ほど作成したポリシーの名前を検索します。

  8. [次へ: レビュー] を選択します。

  9. [Add permissions] を選択します。

ポリシーが IAM ユーザーに追加され、インポートプロセスを開始できるようになりました。

AWS CLI Permissions

以下の手順を使用して、 を使用してデータインポートリクエストを行うアクセス許可を IAMユーザーに付与するために必要な 管理ポリシーを作成します AWS CLI。

管理ポリシーを作成してアタッチするには
  1. aws iam create-policy AWS CLI コマンドを使用して、次のアクセス許可を持つ IAMポリシーを作成します。バケットの名前は、IAMユーザーがインポートファイルをアップロードするバケットの実際の名前に置き換えてください。

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }

    このコマンドの使用に関する詳細については、AWS CLI コマンドリファレンスの「create-policy」を参照してください。

  2. aws iam create-policy AWS CLI コマンドを使用して、次のアクセス許可を持つ追加のIAMポリシーを作成します。

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "discovery:ListConfigurations", "discovery:CreateApplication", "discovery:UpdateApplication", "discovery:AssociateConfigurationItemsToApplication", "discovery:DisassociateConfigurationItemsFromApplication", "discovery:GetDiscoverySummary", "discovery:StartImportTask", "discovery:DescribeImportTasks", "discovery:BatchDeleteImportData" ], "Resource": "*" } ] }
  3. aws iam attach-user-policy AWS CLI コマンドを使用して、 を使用してアカウントでインポートリクエストを実行するIAMユーザーに、前の 2 つのステップで作成したポリシーをアタッチします AWS AWS CLI。このコマンドの使用の詳細については、「 コマンドリファレンスattach-user-policy」の「」を参照してください。 AWS CLI

ポリシーをIAMユーザーに追加したので、インポートプロセスを開始する準備が整いました。

IAM ユーザーが指定した Amazon S3 バケットにオブジェクトをアップロードするときは、ユーザーがオブジェクトを読み取れるように、オブジェクトセットのデフォルトのアクセス許可を残す必要があることに注意してください。

インポートファイルを Amazon S3 にアップロードする

次に、フォーマットされたインポートファイルを Amazon CSV S3 にアップロードして、インポートできるようにする必要があります。 Amazon S3 開始する前に、インポートファイルを格納する Amazon S3 バケットを事前に作成および/または選択しておく必要があります。

Console S3 Upload
Amazon S3 にインポートファイルをアップロードする
  1. にサインイン AWS Management Console し、 で Amazon S3 コンソールを開きますhttps://console.aws.amazon.com/s3/

  2. [Bucket name (バケット名)] リストで、オブジェクトのアップロード先のバケットの名前を選択します。

  3. [アップロード] を選択します。

  4. [Upload (アップロード)] ダイアログボックスで、[Add files (ファイルの追加)] を選択してアップロードするファイルを選択します。

  5. アップロードするファイルを選択し、続いて [オープン] を選択します。

  6. [アップロード] を選択します。

  7. ファイルがアップロードされたら、バケットのダッシュボードからデータファイルオブジェクトの名前を選択します。

  8. オブジェクトの詳細ページの概要タブから、オブジェクト URLをコピーします。この情報は、インポートリクエストを作成するときに必要になります。

  9. 「」の説明に従って、Migration Hub コンソールのインポートページに移動します データのインポート。次に、Amazon S3 オブジェクトフィールドにオブジェクトURLURLを貼り付けます。

AWS CLI S3 Upload
Amazon S3 にインポートファイルをアップロードする
  1. ターミナルウィンドウを開き、インポートファイルが保存されているディレクトリに移動します。

  2. 次のコマンドを入力します。

    aws s3 cp ImportFile.csv s3://BucketName/ImportFile.csv
  3. これにより、次の結果が返されます。

    upload: .\ImportFile.csv to s3://BucketName/ImportFile.csv
  4. 返された完全な Amazon S3 オブジェクトパスをコピーします。これは、インポートリクエストを作成するときに必要になります。

データのインポート

Migration Hub コンソールからインポートテンプレートをダウンロードし、既存のオンプレミスサーバーデータを入力すると、Migration Hub へのデータのインポートを開始できます。次の手順では、 コンソールを使用するか、 を介してAPI呼び出しを行う 2 つの方法について説明します AWS CLI。

Console Import

Migration Hub コンソールの [Tools] (ツール) ページでデータのインポートを開始します。

データのインポートを開始する
  1. ナビゲーションペインの [Discover (検出)] で [Tools (ツール)] を選択します。

  2. インポートテンプレートへの入力が完了していない場合は、[Import] (インポート) ボックスで [import template] (インポートテンプレート) を選択することによってテンプレートをダウンロードできます。ダウンロードしたテンプレートを開き、既存のオンプレミスサーバーデータを入力します。Amazon S3 バケットから importhttps://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/_template.csv でインポートテンプレートをダウンロードすることもできます。

  3. インポートページを開くには、インポートボックスでインポートを選択します。

  4. インポート名で、インポートの名前を指定します。

  5. Amazon S3 オブジェクトURLフィールドに入力します。このステップを実行するには、インポートデータファイルを Amazon S3 にアップロードする必要があります。詳細については、「インポートファイルを Amazon S3 にアップロードする」を参照してください。

  6. 右下エリアにある [インポート] を選択します。[インポート] ページが開きます。テーブルには、インポートとそのステータスが表示されます。

前の手順に従って、データのインポートを開始したら、各インポートリクエストの詳細 (例: 進行状況のステータス、完了時間、レコードの成功/失敗数 (ダウンロード可能)) が [インポート] ページに表示されます。この画面から、[Discover] (検出) の [Servers] (サーバー) ページに移動して、インポートされた実際のデータを確認することもできます。

[サーバー] ページでは、検出されたすべてのサーバー (デバイス) とインポート名を確認できます。名前列にリストされているインポートの名前を選択してインポート (インポート履歴) ページから移動すると、選択したインポートのデータセットに基づいてフィルターが適用されるサーバーページが表示されます。次に、その特定のインポートに属するデータのみが表示されます。

アーカイブは、.zip 形式で提供され、errors-filefailed-entries-file の 2 つのファイルが含まれます。エラーファイルには、失敗した各行に関連付けられたエラーメッセージのリストと、インポートに失敗したデータファイルの関連付けられた列の名前が含まれます。このファイルを使用して、問題の発生原因をすばやく特定することができます。失敗したエントリファイルには、失敗した各行と提供されたすべての列が含まれます。このファイルのエラーファイルで変更を呼び出し、修正した情報を使用してファイルのインポートを再試行することができます。

AWS CLI Import

からデータインポートプロセスを開始するには AWS CLI、まず を環境にインストール AWS CLI する必要があります。詳細については、「 AWS Command Line Interface ユーザーガイド」の AWS 「 コマンドラインインターフェイスのインストール」を参照してください。

注記

インポートテンプレートをまだ入力していない場合は、Amazon S3 バケットからインポートテンプレートをダウンロードできます: https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv

データのインポートを開始する
  1. ターミナルウィンドウを開いて、次のコマンドを入力します。

    aws discovery start-import-task --import-url s3://BucketName/ImportFile.csv --name ImportName
  2. これにより、インポートタスクが作成され、次のステータス情報が返ります。

    { "task": { "status": "IMPORT_IN_PROGRESS", "applicationImportSuccess": 0, "serverImportFailure": 0, "serverImportSuccess": 0, "name": "ImportName", "importRequestTime": 1547682819.801, "applicationImportFailure": 0, "clientRequestToken": "EXAMPLE1-abcd-1234-abcd-EXAMPLE1234", "importUrl": "s3://BucketName/ImportFile.csv", "importTaskId": "import-task-EXAMPLE1229949eabfEXAMPLE03862c0" } }

Migration Hub のインポートリクエストの追跡

Migration Hub インポートリクエストのステータスは、 コンソール AWS CLI、または のいずれかを使用して追跡できます AWS SDKs。

Console Tracking

Migration Hub コンソールの [Imports] (インポート) ダッシュボードからは、以下の要素を確認できます。

  • 名前 – インポートリクエストの名前。

  • インポート ID – インポートリクエストの固有 ID。

  • インポート時間 – インポートリクエストが作成された日時。

  • インポートステータス – インポートリクエストのステータス。これは、以下の値のいずれかになります。

    • インポート中 – このデータファイルは現在インポート中です。

    • インポート済み – データファイル全体が正常にインポートされました。

    • インポート時にエラーが発生 – データファイル内の 1 つ、または複数のレコードのインポートが失敗しました。失敗したレコードを解決するには、インポートタスクの [Download failed records (失敗したレコードのダウンロード)] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。

    • インポート失敗 – データファイル内のどのレコードもインポートされませんでした。失敗したレコードを解決するには、インポートタスクの [Download failed records (失敗したレコードのダウンロード)] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。

  • インポートされたレコード – 特定のデータファイル内の正常にインポートされたレコードの数です。

  • 失敗したレコード – 特定のデータファイル内のインポートされなかったレコードの数です。

CLI Tracking

aws discovery describe-import-tasks AWS CLI コマンドを使用して、インポートタスクのステータスを追跡できます。

  1. ターミナルウィンドウを開いて、次のコマンドを入力します。

    aws discovery describe-import-tasks
  2. これにより、すべてのインポートタスクのリストが JSON形式で返され、ステータスやその他の関連情報が表示されます。必要に応じて、インポートタスクのサブセットが返るように結果をフィルタリングすることができます。

インポートタスクを追跡すると、返った serverImportFailure 値がゼロより大きいことがわかります。この場合、インポートファイルには、インポートできなかったエントリが 1 つ以上含まれています。この問題を解消するには、失敗したレコードのアーカイブをダウンロードして、中のファイルを確認し、変更した failed-entries.csv ファイルを使用してインポートリクエストを行います。

インポートタスクを作成したら、データ移行の管理と追跡に役立つ他の操作を実行できます。たとえば、特定のリクエストに対して失敗したレコードのアーカイブをダウンロードできます。失敗したレコードのアーカイブを使用して、インポートの問題を解消する方法については、「失敗したインポートレコードのトラブルシューティング」を参照してください。