Migration Hub로 데이터 가져오기 - AWS 애플리케이션 검색 서비스

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Migration Hub로 데이터 가져오기

AWS Migration Hub (Migration Hub) 가져오기를 사용하면 Application Discovery Service Agentless Collector(Agentless Collector) 또는 AWS Application Discovery Agent(Discovery Agent)를 사용하지 않고 온프레미스 환경의 세부 정보를 Migration Hub로 직접 가져올 수 있으므로 가져온 데이터에서 직접 마이그레이션 평가 및 계획을 수행할 수 있습니다. 디바이스를 애플리케이션으로 그룹화하고 해당 마이그레이션 상태를 추적할 수도 있습니다.

이 페이지에서는 가져오기 요청을 완료하는 단계를 설명합니다. 먼저 다음 두 옵션 중 하나를 사용하여 온프레미스 서버 데이터를 준비합니다.

  • 일반적인 타사 도구를 사용하여 온프레미스 서버 데이터가 포함된 파일을 생성합니다.

  • 쉼표로 구분된 값(CSV) 가져오기 템플릿을 다운로드하여 온프레미스 서버 데이터로 채웁니다.

앞서 설명한 두 방법 중 하나를 사용하여 온프레미스 데이터 파일을 생성한 후 Migration Hub 콘솔 AWS CLI또는 중 하나를 사용하여 Migration Hub에 파일을 업로드합니다 AWS SDKs. 두 옵션에 대한 자세한 내용은 섹션을 참조하세요지원되는 가져오기 형식.

여러 가져오기 요청을 제출할 수 있습니다. 각 요청은 순차적으로 처리됩니다. 콘솔 또는 가져오기를 통해 언제든지 가져오기 요청의 상태를 확인할 수 있습니다APIs.

가져오기 요청이 완료되면 가져온 개별 레코드의 세부 정보를 볼 수 있습니다. Migration Hub 콘솔 내에서 직접 사용률 데이터, 태그 및 애플리케이션 매핑을 봅니다. 가져오는 동안 오류가 발생할 경우 성공한 레코드와 실패한 레코드 수 및 실패한 각 레코드에 대한 오류 세부 정보를 검토할 수 있습니다.

오류 처리: 오류 로그와 실패한 레코드 파일을 압축된 아카이브의 CSV 파일로 다운로드할 수 있는 링크가 제공됩니다. 이러한 파일을 사용하여 오류 수정 후 가져오기 요청을 다시 제출합니다.

가져온 레코드, 가져온 서버, 삭제한 레코드를 보관할 수 있는 수는 제한됩니다. 자세한 내용은 AWS Application Discovery Service 할당량 단원을 참조하십시오.

지원되는 가져오기 형식

Migration Hub는 다음과 같은 가져오기 형식을 지원합니다.

RVTools

Migration Hub는를 VMware vSphere 통해의 내보내기 가져오기를 지원합니다RVTools. 에서 데이터를 저장할 때 RVTools먼저 모두 csv로 내보내기 옵션을 선택한 다음 ZIP 폴더를 선택하고 ZIP 파일을 Migration Hub로 가져옵니다.

Migration Hub 가져오기 템플릿

Migration Hub 가져오기를 사용하면 모든 소스에서 데이터를 가져올 수 있습니다. 제공된 데이터는 CSV 파일에 대해 지원되는 형식이어야 하며, 데이터에는 해당 필드에 대해 지원되는 범위가 있는 지원되는 필드만 포함되어야 합니다.

다음 표의 가져오기 필드 이름 옆에 있는 별표(*)는 필수 필드임을 나타냅니다. 가져오기 파일의 각 레코드는 서버 또는 애플리케이션을 고유하게 식별하기 위해 값을 채운 이러한 필수 필드를 한 개 이상 가져야 합니다. 그렇지 않을 경우 필수 필드가 없는 레코드를 가져올 때 실패합니다.

다음 표의 가져오기 파일 이름 옆에 있는 캐럿(^) serverId 은이 제공된 경우 읽기 전용임을 나타냅니다.

참고

VMware.MoRefId 또는 VMWare.VCenterId를 사용하여 레코드를 식별하는 경우 동일한 레코드에 두 필드가 모두 있어야 합니다.

가져오기 필드 이름 설명 예시
ExternalId*^ 각 레코드를 고유하게 표시할 수 있는 사용자 정의 식별자입니다. 예를 들어 ExternalId는 데이터 센터의 서버의 인벤토리 ID일 수 있습니다.

Inventory Id 1

Server 2

CMBD ID 3

SMBiosId^ 시스템 관리BIOS(SMBIOS) ID.
IPAddress*^ 따옴표로 묶은 서버 IP 주소의 쉼표 구분 목록.

192.0.0.2

"10.12.31.233, 10.12.32.11"

MACAddress*^ 쉼표로 구분된 서버 MAC 주소 목록으로, 따옴표로 표시됩니다.

00:1B:44:11:3A:B7

"00-15-E9-2B-99-3C, 00-14-22-01-23-45"

HostName*^ 서버의 호스트 이름입니다. 이 값에는 정규화된 도메인 이름(FQDN)을 사용하는 것이 좋습니다.

ip-1-2-3-4

localhost.domain

VMware.MoRefId*^ 관리되는 객체 참조 ID. 와 함께 제공되어야 합니다VMwareVCenterId.
VMware.VCenterId*^ 가상 머신 고유 식별자. 와 함께 제공되어야 합니다VMwareMoRefId.
CPU.NumberOfProcessors^ 의 수입니다CPUs.

4

CPU.NumberOfCores^ 물리적 코어 총수 8
CPU.NumberOfLogicalCores^ 서버의 모든에서 동시에 실행할 수 있는 총 스레드 수CPUs입니다. 일부는 단일 CPU 코어에서 동시에 실행되는 여러 스레드를 CPUs 지원합니다. 이 경우 이 숫자는 물리적(또는 가상) 코어의 수보다 더 많습니다.

16

OS.Name^ 운영 체제 이름.

Linux

Windows.Hat

OS.Version^ 운영 체제 버전.

16.04.3

NT 6.2.8

VMware.VMName^ 가상 머신의 이름.

Corp1

RAM.TotalSizeInMB^ 서버에서 RAM 사용할 수 있는 총 수입니다.

64

128

RAM.UsedSizeInMB.Avg^ 서버에서 사용되는 평균 양RAM, MB.

64

128

RAM.UsedSizeInMB.Max^ 서버에서 사용할 RAM 수 있는 최대 사용량은 MB입니다.

64

128

CPU.UsagePct.평균^ 검색 도구가 데이터를 수집할 때의 평균 CPU 사용률입니다.

45

23.9

CPU.UsagePct.최대^ 검색 도구가 데이터를 수집할 때의 최대 CPU 사용률입니다.

55.34

24

DiskReadsPerSecondInKB.Avg^ 초당 평균 디스크 읽기 수(KB).

1159

84506

DiskWritesPerSecondInKB.Avg^ 초당 평균 디스크 쓰기 수(KB).

199

6197

DiskReadsPerSecondInKB.Max^ 초당 최대 디스크 읽기 수(KB).

37892

869962

DiskWritesPerSecondInKB.Max^ 초당 최대 디스크 쓰기 수(KB).

18436

1808

DiskReadsOpsPerSecond.평균^ 초당 평균 디스크 I/O 연산 수.

45

28

DiskWritesOpsPerSecond.평균^ 초당 평균 디스크 쓰기 연산 수

8

3

DiskReadsOpsPerSecond.Max^ 초당 최대 디스크 읽기 작업 수.

1083

176

DiskWritesOpsPerSecond.Max^ 초당 최대 디스크 쓰기 작업 수.

535

71

NetworkReadsPerSecondInKB.Avg^ 초당 평균 네트워크 읽기 작업 수(KB)

45

28

NetworkWritesPerSecondInKB.Avg^ 초당 평균 네트워크 쓰기 작업 수(KB)

8

3

NetworkReadsPerSecondInKB.Max^ 초당 최대 네트워크 읽기 작업 수(KB)

1083

176

NetworkWritesPerSecondInKB.Max^ 초당 최대 네트워크 쓰기 작업 수(KB)

535

71

애플리케이션 이 서버를 포함하는 애플리케이션의 쉼표 구분 목록(따옴표로 묶음). 이 값에는 기존 애플리케이션 및/또는 가져올 때 생성되는 새 애플리케이션이 포함될 수 있습니다.

Application1

"Application2, Application3"

ApplicationWave 이 서버의 마이그레이션 웨이브입니다.
태그^

이름:값 형식의 태그를 쉼표로 구분한 목록.

중요

태그에 민감한 정보(예: 개인 데이터)를 저장하지 마십시오.

"zone:1, critical:yes"

"zone:3, critical:no, zone:1"

ServerId Migration Hub 서버 목록에 표시된 서버 식별자입니다. d-server-01kk9i6ywwaxmp

각 레코드에 적어도 한 개의 필수 필드가 있으면, 가져오기 템플릿에 정의된 일부 필드에 데이터가 없어도 데이터를 가져올 수 있습니다. 중복은 외부 또는 내부 일치 키를 사용하여 여러 가져오기 요청에서 관리됩니다. 자체 일치 키 External ID를 입력할 경우 이 필드는 레코드를 고유하게 식별하고 가져오는 데 사용됩니다. 일치 키를 지정하지 않으면 가져오기에서 가져오기 템플릿에 있는 일부 열에서 파생된 내부 생성 일치 키를 사용합니다. 이 일치에 대한 자세한 내용은 검색된 서버 및 애플리케이션의 일치하는 로직 단원을 참조하십시오.

참고

Migration Hub 가져오기는 가져오기 템플릿에 정의된 필드 이외의 필드는 지원하지 않습니다. 제공한 사용자 지정 필드는 무시되며 가져오지 않습니다.

가져오기 권한 설정

데이터를 가져오기 전에 IAM 사용자가 가져오기 파일을 Amazon S3에 업로드(s3:PutObject)하고 객체()를 읽는 데 필요한 Amazon S3 권한이 있는지 확인합니다s3:GetObject. 또한 IAM 정책을 생성하고 AWS 계정에서 가져오기를 수행하는 IAM 사용자에게 연결하여 프로그래밍 방식 액세스(용 AWS CLI) 또는 콘솔 액세스를 설정해야 합니다.

Console Permissions

다음 절차에 따라 콘솔을 사용하여 AWS 계정에서 가져오기 요청을 수행할 IAM 사용자의 권한 정책을 편집합니다.

사용자의 연결된 관리형 정책을 편집하려면
  1. 에 로그인 AWS Management Console 하고에서 IAM 콘솔을 엽니다https://console.aws.amazon.com/iam/.

  2. 탐색 창에서 사용자를 선택합니다.

  3. 권한 정책을 변경하려는 사용자의 이름을 선택합니다.

  4. 권한 탭을 선택한 후 권한 추가를 선택합니다.

  5. 기존 정책 직접 연결을 선택한 후 정책 생성을 선택합니다.

    1. 정책 생성 페이지가 열리면를 선택하고 다음 정책에 JSON붙여 넣습니다. 버킷의 이름을 IAM 사용자가 가져오기 파일을 업로드할 버킷의 실제 이름으로 바꿔야 합니다.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetBucketLocation", "s3:ListAllMyBuckets" ], "Resource": "*" }, { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }
    2. 정책 검토를 선택합니다.

    3. 정책 요약을 검토하기 전에 이름에 새 정책 이름을 지정하고, 필요한 경우 설명을 입력합니다.

    4. 정책 생성을 선택합니다.

  6. 계정 AWS 에서 가져오기 요청을 수행할 사용자의 권한 부여 IAM 콘솔 페이지로 돌아갑니다.

  7. 정책 테이블을 새로 고치고 방금 생성한 정책의 이름을 검색합니다.

  8. 다음: 검토를 선택합니다.

  9. 권한 추가를 선택합니다.

IAM 사용자에게 정책을 추가했으며 이제 가져오기 프로세스를 시작할 수 있습니다.

AWS CLI Permissions

다음 절차에 따라 IAM 사용자에게를 사용하여 데이터 가져오기 요청을 수행할 수 있는 권한을 부여하는 데 필요한 관리형 정책을 생성합니다 AWS CLI.

관리형 정책을 생성하고 연결하려면
  1. aws iam create-policy AWS CLI 명령을 사용하여 다음 권한으로 IAM 정책을 생성합니다. 버킷의 이름을 IAM 사용자가 가져오기 파일을 업로드할 버킷의 실제 이름으로 바꿔야 합니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }

    이 명령 사용에 대한 자세한 내용은 AWS CLI 명령 참조create-policy를 참조하세요.

  2. aws iam create-policy AWS CLI 명령을 사용하여 다음 권한으로 추가 IAM 정책을 생성합니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "discovery:ListConfigurations", "discovery:CreateApplication", "discovery:UpdateApplication", "discovery:AssociateConfigurationItemsToApplication", "discovery:DisassociateConfigurationItemsFromApplication", "discovery:GetDiscoverySummary", "discovery:StartImportTask", "discovery:DescribeImportTasks", "discovery:BatchDeleteImportData" ], "Resource": "*" } ] }
  3. aws iam attach-user-policy AWS CLI 명령을 사용하여 이전 두 단계에서 생성한 정책을를 사용하여 계정 AWS 에서 가져오기 요청을 수행할 IAM 사용자에게 연결합니다 AWS CLI. 이 명령 사용에 대한 자세한 내용은 AWS CLI 명령 참조attach-user-policy의 섹션을 참조하세요.

이제 IAM 사용자에게 정책을 추가했으므로 가져오기 프로세스를 시작할 준비가 되었습니다.

IAM 사용자가 지정한 Amazon S3 버킷에 객체를 업로드할 때는 사용자가 객체를 읽을 수 있도록 객체 세트에 대한 기본 권한을 그대로 두어야 합니다.

Amazon S3에 가져오기 파일 업로드

그런 다음CSV, 서식 있는 가져오기 파일을 Amazon S3에 업로드하여 가져올 수 있도록 해야 합니다. 시작하기 전에 가져오기 파일을 미리 생성 및/또는 선택한 Amazon S3 버킷이 있어야 합니다.

Console S3 Upload
Amazon S3에 가져오기 파일을 업로드하려면
  1. 에 로그인 AWS Management Console 하고에서 Amazon S3 콘솔을 엽니다https://console.aws.amazon.com/s3/.

  2. 버킷 이름 목록에서 객체를 업로드하려는 버킷 이름을 선택합니다.

  3. 업로드를 선택합니다.

  4. 업로드 대화 상자에서 파일 추가를 선택한 후 업로드할 파일을 선택합니다.

  5. 업로드할 파일을 선택한 후 열기를 선택합니다.

  6. 업로드를 선택합니다.

  7. 파일을 업로드한 후 버킷 대시보드에서 데이터 파일 객체 이름을 선택합니다.

  8. 객체 세부 정보 페이지의 개요 탭에서 객체 URL를 복사합니다. 이 URL은 가져오기 요청을 생성할 때 필요합니다.

  9. 에 설명된 대로 Migration Hub 콘솔의 가져오기 페이지로 이동합니다데이터 가져오기. 그런 다음 Amazon S3 객체 필드에 객체URLURL를 붙여 넣습니다.

AWS CLI S3 Upload
Amazon S3에 가져오기 파일을 업로드하려면
  1. 터미널 창을 열고 가져오기 파일이 저장된 디렉터리로 이동합니다.

  2. 다음 명령을 입력합니다.

    aws s3 cp ImportFile.csv s3://BucketName/ImportFile.csv
  3. 그러면 다음 결과가 반환됩니다.

    upload: .\ImportFile.csv to s3://BucketName/ImportFile.csv
  4. 반환된 전체 Amazon S3 객체 경로를 복사합니다. 가져오기 요청을 생성할 때이 정보가 필요합니다.

데이터 가져오기

Migration Hub 콘솔에서 가져오기 템플릿을 다운로드하고 기존 온프레미스 서버 데이터로 채운 후에는 Migration Hub로 데이터 가져오기를 시작할 준비가 된 것입니다. 다음 지침에서는 콘솔을 사용하거나를 통해 API 호출하는 두 가지 방법을 설명합니다 AWS CLI.

Console Import

Migration Hub 콘솔의 도구 페이지에서 데이터 가져오기를 시작합니다.

데이터 가져오기를 시작하려면
  1. 탐색 창의 검색에서 도구를 선택합니다.

  2. 가져오기 템플릿을 아직 작성하지 않은 경우 가져오기 상자에서 템플릿 가져오기를 선택하여 템플릿을 다운로드할 수 있습니다. 다운로드한 템플릿을 열고 기존 온프레미스 서버 데이터로 채웁니다. import_template.csv의 Amazon S3 버킷에서 가져오기 템플릿을 다운로드할 수도 있습니다. https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/

  3. 가져오기 페이지를 열려면 가져오기 상자에서 가져오기를 선택합니다.

  4. 가져오기 이름에서 가져오기 이름을 지정합니다.

  5. Amazon S3 객체 URL 필드를 작성합니다. 이 단계를 수행하려면 가져오기 데이터 파일을 Amazon S3에 업로드해야 합니다. 자세한 내용은 Amazon S3에 가져오기 파일 업로드 단원을 참조하십시오.

  6. 하단 오른쪽 부분에서 가져오기를 선택합니다. 그러면 가져오기 페이지가 열립니다. 이 페이지의 표에서 가져오기와 해당 상태를 볼 수 있습니다.

데이터 가져오기를 시작하기 위한 선행 절차를 수행하면, 가져오기 페이지에 진행 상태, 완료 시간, 성공 또는 실패한 레코드 수를 비롯하여 각 가져오기 요청의 세부 정보가 표시되고 해당 레코드를 다운로드할 수 있는 기능이 제공됩니다. 이 화면에서 서버 페이지의 검색으로 이동하여 실제 가져온 데이터를 볼 수도 있습니다.

서버 페이지에서 검색된 모든 서버(디바이스) 목록과 가져오기 이름을 볼 수 있습니다. 이름 열에 나열된 가져오기의 이름을 선택하여 가져오기(가져오기 기록) 페이지에서 탐색하면 선택한 가져오기의 데이터 세트를 기반으로 필터가 적용되는 서버 페이지로 이동합니다. 그러면 해당 특정 가져오기에 속한 데이터만 표시됩니다.

아카이브는 .zip 형식이며, errors-file 파일과 failed-entries-file 파일이 들어 있습니다. 오류 파일에는 각 실패한 각 행과 연결된 오류 메시지 및 가져오기에 실패한 데이터 파일의 관련 열 이름이 들어 있습니다. 이 파일을 사용하여 문제가 발생한 위치를 빠르게 식별할 수 있습니다. 실패한 항목 파일에는 각 행과 실패한 모든 열이 포함되어 있습니다. 이 파일의 오류 파일에서 호출된 내용을 변경하고 수정된 정보로 파일을 다시 가져오십시오.

AWS CLI Import

에서 데이터 가져오기 프로세스를 시작하려면 먼저 환경에 AWS CLI를 설치해야 AWS CLI 합니다. 자세한 내용은 AWS Command Line Interface 사용 설명서의 AWS 명령줄 인터페이스 설치를 참조하세요.

참고

아직 가져오기 템플릿을 작성하지 않은 경우 여기에서 Amazon S3 버킷에서 가져오기 템플릿을 다운로드할 수 있습니다. https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv

데이터 가져오기를 시작하려면
  1. 터미널 창을 열고 다음 명령을 입력합니다.

    aws discovery start-import-task --import-url s3://BucketName/ImportFile.csv --name ImportName
  2. 그러면 가져오기 작업이 생성되고 다음 상태 정보가 반환됩니다.

    { "task": { "status": "IMPORT_IN_PROGRESS", "applicationImportSuccess": 0, "serverImportFailure": 0, "serverImportSuccess": 0, "name": "ImportName", "importRequestTime": 1547682819.801, "applicationImportFailure": 0, "clientRequestToken": "EXAMPLE1-abcd-1234-abcd-EXAMPLE1234", "importUrl": "s3://BucketName/ImportFile.csv", "importTaskId": "import-task-EXAMPLE1229949eabfEXAMPLE03862c0" } }

Migration Hub 가져오기 요청 추적

콘솔 AWS CLI또는 중 하나를 사용하여 Migration Hub 가져오기 요청의 상태를 추적할 수 있습니다 AWS SDKs.

Console Tracking

Migration Hub 콘솔의 가져오기 대시보드에서 다음 요소를 찾을 수 있습니다.

  • 이름 - 가져오기 요청의 이름입니다.

  • 가져오기 ID - 가져오기 요청의 고유 ID입니다.

  • 가져오기 시간 - 가져오기 요청이 생성된 날짜 및 시간입니다.

  • 가져오기 상태 - 가져오기 요청의 상태입니다. 다음 값 중 하나일 수 있습니다:

    • 가져오기 -이 데이터 파일을 현재 가져오고 있습니다.

    • 가져오기 - 전체 데이터 파일을 성공적으로 가져왔습니다.

    • 오류와 함께 가져오기 - 데이터 파일의 레코드 중 하나 이상을 가져오지 못했습니다. 실패한 레코드를 해결하려면 가져오기 작업에 대해 레코드를 다운로드하지 못함을 선택하고 실패한 항목 csv 파일의 오류를 해결한 후 다시 가져오기를 수행합니다.

    • 가져오기 실패 - 가져온 데이터 파일의 레코드가 없습니다. 실패한 레코드를 해결하려면 가져오기 작업에 대해 레코드를 다운로드하지 못함을 선택하고 실패한 항목 csv 파일의 오류를 해결한 후 다시 가져오기를 수행합니다.

  • 가져온 레코드 - 성공적으로 가져온 특정 데이터 파일의 레코드 수입니다.

  • 실패한 레코드 - 가져오지 않은 특정 데이터 파일의 레코드 수입니다.

CLI Tracking

aws discovery describe-import-tasks AWS CLI 명령을 사용하여 가져오기 작업의 상태를 추적할 수 있습니다.

  1. 터미널 창을 열고 다음 명령을 입력합니다.

    aws discovery describe-import-tasks
  2. 그러면 모든 가져오기 작업의 목록이 상태 및 기타 관련 정보와 함께 JSON 형식으로 반환됩니다. 결과를 필터링하여 가져오기 작업의 하위 집합을 반환할 수도 있습니다(선택 사항).

가져오기 작업을 추적할 경우 반환된 serverImportFailure 값이 0보다 큰 것을 볼 수 있습니다. 이 경우 가져오기 파일에 가져오지 못한 항목이 한 개 이상 있는 것입니다. 이 문제는 실패한 레코드 아카이브를 다운로드하고, 내부의 파일을 검토하며, 수정된 failure-entries.csv 파일로 다른 가져오기 요청을 수행하여 해결할 수 있습니다.

가져오기 작업을 생성한 후 추가 작업을 수행하여 데이터 마이그레이션을 관리하고 추적할 수 있습니다. 예를 들어 특정 요청에 대해 실패한 레코드의 아카이브를 다운로드할 수 있습니다. 실패한 레코드 아카이브를 사용하여 가져오기 문제를 해결하는 방법은 실패한 가져오기 레코드 문제 해결 단원을 참조하십시오.