

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 를 사용하여 데이터 전송 AWS DataSync
<a name="transferring-data-datasync"></a>

를 사용하면 온프레미스 AWS DataSync, 내부 AWS또는 다른 클라우드에 있는 스토리지와 데이터를 주고받을 수 있습니다.

DataSync 전송을 설정하려면 일반적으로 다음 단계가 필요합니다.

1. DataSync가 [전송을 지원하는지](working-with-locations.md) 확인합니다.

1. 전송에 [DataSync 에이전트가 필요한 경우](do-i-need-datasync-agent.md) 스토리지 시스템 중 하나에 최대한 가깝게 에이전트를 배포하고 활성화합니다.

   예를 들어 온프레미스 Network File System(NFS) 파일 서버에서 전송하는 경우 해당 파일 서버에 최대한 가깝게 에이전트를 배포합니다.

1. DataSync에 스토리지 시스템 액세스 권한을 제공합니다.

   DataSync에는 스토리지에서 읽거나 쓸 수 있는 권한이 필요합니다(스토리지가 소스인지 대상 위치인지에 따라 다름). 예를 들어 [DataSync에 NFS 파일 서버 액세스 권한을 제공](create-nfs-location.md#accessing-nfs)하는 방법을 알아봅니다.

1. 스토리지 시스템과 DataSync 간의 트래픽에 대해 [네트워크를 연결](networking-datasync.md)합니다.

1. DataSync 콘솔, AWS CLI또는 DataSync API를 사용하여 소스 스토리지 시스템의 위치를 생성합니다.

   예를 들어 [NFS 위치](create-nfs-location.md#create-nfs-location-how-to) 또는 [Amazon S3 위치](create-s3-location.md#create-s3-location-how-to)를 생성하는 방법을 알아봅니다.

1. 3\$15단계를 반복하여 전송의 대상 위치를 생성합니다.

1. 소스 및 대상 위치가 포함된 [DataSync 전송 작업을 생성하고 시작](create-task-how-to.md)합니다.

**Topics**
+ [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md)
+ [를 사용하여 온프레미스 스토리지로 또는 온프레미스 스토리지에서 전송 AWS DataSync](transferring-on-premises-storage.md)
+ [를 사용하여 AWS 스토리지로 또는 스토리지에서 전송 AWS DataSync](transferring-aws-storage.md)
+ [를 사용하여 다른 클라우드 스토리지로 또는 다른 클라우드 스토리지에서 전송 AWS DataSync](transferring-other-cloud-storage.md)
+ [사용자 데이터 전송을 위한 작업 생성](create-task-how-to.md)
+ [데이터 전송 작업 시작](run-task.md)

# 데이터를 어디로 전송할 수 있나요 AWS DataSync?
<a name="working-with-locations"></a>

를 사용하여 데이터를 전송할 수 있는 위치는 다음 요인에 AWS DataSync 따라 달라집니다.
+ 전송의 출처 및 대상 [위치](how-datasync-transfer-works.md#sync-locations)
+ 위치가 다른 경우 AWS 계정
+ 위치가 다른 경우 AWS 리전
+ 가 기본 모드 또는 향상된 모드를 사용하는 경우

## 동일한에서 지원되는 전송 AWS 계정
<a name="working-with-locations-same-account"></a>

DataSync는 동일한 AWS 계정과 연결된 다음 스토리지 리소스 간의 전송을 지원합니다.


| 소스 | Destination | 에이전트가 필요합니까? | 지원되는 작업 모드 | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  기본 모드에만 해당  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  기본 모드에만 해당  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 

## 에서 지원되는 전송 AWS 계정
<a name="working-with-locations-across-accounts"></a>

DataSync는 서로 다른 AWS 계정과 연결된 스토리지 리소스 간의 일부 전송을 지원합니다.


| 소스 | Destination | 에이전트가 필요합니까? | 지원되는 작업 모드 | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본, 향상된  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  아니요  |  기본 전용  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/working-with-locations.html)  |  예(NFS/SMB 위치로 사용되는 경우)  |  기본 전용  | 

1 [NFS 위치](create-nfs-location.md)로 구성됨.

2 [SMB 위치](create-smb-location.md)로 구성됨.

3 NFS 또는 SMB 위치로 구성됩니다.

## 동일한에서 지원되는 전송 AWS 리전
<a name="working-with-locations-same-region"></a>

동일한 AWS 리전 내에서 데이터를 전송할 때는 제한이 없습니다([옵트인 리전](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) 포함). 자세한 내용은 [AWS 리전 DataSync 지원](https://docs.aws.amazon.com/general/latest/gr/datasync.html)을 참조하십시오.

## 간 지원되는 전송 AWS 리전
<a name="working-with-locations-cross-regions"></a>

[DataSync에서 지원하는AWS 리전](https://docs.aws.amazon.com/general/latest/gr/datasync.html) 간에 데이터를 전송할 때 다음 사항에 유의하세요.
+ 서로 다른의 AWS 스토리지 서비스 간에 전송할 때는 두 위치 중 AWS 리전하나가 DataSync를 사용하는 리전에 있어야 합니다.
+ NFS, SMB, HDFS 또는 객체 스토리지 위치가 있는 리전에서는 전송할 수 없습니다. 이러한 상황에서는 두 전송 위치가 모두 [DataSync 에이전트를 활성화](activate-agent.md)한 리전과 동일한 리전에 있어야 합니다.
+  AWS GovCloud (US) 리전을 사용하면 다음을 수행할 수 있습니다.
  +  AWS GovCloud(미국 동부) 리전과 AWS GovCloud(미국 서부) 리전 간에 전송합니다.
  + 리전과 미국 동부(버지니아 북부) AWS 리전와 같은 상용 AWS GovCloud (US) 간 전송. Amazon EFS 또는 Amazon FSx 파일 시스템 간에 전송하는 경우 이러한 유형의 전송에는 [에이전트](agent-requirements.md)가 필요합니다.

**중요**  
사이에 전송된 데이터에 대해 비용을 지불합니다 AWS 리전. 이 전송은 원본 리전에서 대상 리전으로의 데이터 전송으로 요금이 청구됩니다. 자세한 내용은 [AWS DataSync 요금](https://aws.amazon.com/datasync/pricing/)을 참조하세요.

## 전송에 DataSync 에이전트가 필요한지 여부 확인
<a name="datasync-transfer-requirements"></a>

전송 시나리오에 따라 DataSync 에이전트가 필요할 수 있습니다. 자세한 내용은 [AWS DataSync 에이전트가 필요합니까?](do-i-need-datasync-agent.md) 섹션을 참조하세요.

# 를 사용하여 온프레미스 스토리지로 또는 온프레미스 스토리지에서 전송 AWS DataSync
<a name="transferring-on-premises-storage"></a>

를 사용하면 여러 온프레미스 또는 자체 관리형 스토리지 시스템과 다음 AWS 스토리지 서비스 간에 파일과 객체를 전송할 AWS DataSync수 있습니다.
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx for Windows File Server](create-fsx-location.md)
+ [Amazon FSx for Lustre](create-lustre-location.md)
+ [Amazon FSx for OpenZFS](create-openzfs-location.md)
+ [Amazon FSx for NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [NFS 파일 서버를 사용하여 AWS DataSync 전송 구성](create-nfs-location.md)
+ [SMB 파일 서버를 사용하여 AWS DataSync 전송 구성](create-smb-location.md)
+ [HDFS 클러스터를 사용하여 AWS DataSync 전송 구성](create-hdfs-location.md)
+ [객체 스토리지 시스템을 사용하는 DataSync 전송 구성](create-object-location.md)

# NFS 파일 서버를 사용하여 AWS DataSync 전송 구성
<a name="create-nfs-location"></a>

를 사용하면 NFS(Network File System) 파일 서버와 다음 AWS 스토리지 서비스 간에 데이터를 전송할 AWS DataSync수 있습니다. 지원되는 스토리지 서비스는 아래와 같이 작업 모드에 따라 달라집니다.


| 기본 모드 | 확장 모드 | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-nfs-location.html)  | 

이러한 종류의 전송을 설정하려면 NFS 파일 서버의 [위치](how-datasync-transfer-works.md#sync-locations)를 생성해야 합니다. 이 위치를 전송의 소스 또는 대상으로 사용할 수 있습니다.

## DataSync에 NFS 파일 서버 액세스 권한 제공
<a name="accessing-nfs"></a>

DataSync에서 NFS 파일 서버에 액세스하려면 DataSync [에이전트](how-datasync-transfer-works.md#sync-agents)가 필요합니다. 에이전트는 NFS 프로토콜을 사용하여 파일 서버에 내보내기를 마운트합니다. 원하는 작업 모드에 해당하는 에이전트를 사용해야 합니다.

**Topics**
+ [NFS 내보내기 구성](#accessing-nfs-configuring-export)
+ [지원되는 NFS 버전](#supported-nfs-versions)

### NFS 내보내기 구성
<a name="accessing-nfs-configuring-export"></a>

전송을 위해 DataSync에서 필요한 내보내기는 NFS 파일 서버가 소스 위치인지 대상 위치인지와 파일 서버 권한이 구성된 방식에 따라 달라집니다.

파일 서버가 소스 위치인 경우 DataSync는 파일과 폴더를 읽고 탐색하기만 하면 됩니다. 대상 위치인 경우 DataSync에서 위치에 쓰기를 수행하고 복사하려는 파일 및 폴더에 소유권, 권한 및 기타 메타데이터를 설정할 수 있는 루트 액세스 권한이 필요합니다. `no_root_squash` 옵션을 사용하여 내보내기에 루트 액세스를 허용할 수 있습니다.

다음 예제는 DataSync에 대한 액세스를 제공하는 NFS 내보내기를 구성하는 방법을 설명합니다.

**NFS 파일 서버가 소스 위치인 경우(루트 액세스)**  
DataSync 읽기 전용 권한(`ro`) 및 루트 액세스(`no_root_squash`)를 제공하는 다음 명령을 사용하여 내보내기를 구성합니다.

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**NFS 파일 서버가 대상 위치인 경우**  
DataSync 쓰기 전용 권한(`rw`) 및 루트 액세스(`no_root_squash`)를 제공하는 다음 명령을 사용하여 내보내기를 구성합니다.

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**NFS 파일 서버가 소스 위치인 경우(루트 액세스 아님)**  
내보내기에 대한 DataSync 읽기 전용 권한을 제공하는 것으로 알고 있는 POSIX 사용자 ID(UID) 및 GID(그룹 ID)를 지정하는 다음 명령을 사용하여 내보내기를 구성합니다.

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### 지원되는 NFS 버전
<a name="supported-nfs-versions"></a>

기본적으로 DataSync는 NFS 버전 4.1을 사용합니다. DataSync는 NFS 4.0 및 3.x도 지원합니다.

## NFS 전송을 위한 네트워크 구성
<a name="configure-network-nfs-location"></a>

DataSync 전송의 경우 몇 가지 네트워크 연결에 대한 트래픽을 구성해야 합니다.

1. DataSync 에이전트에서 NFS 파일 서버로 다음 포트의 트래픽을 허용합니다.
   + **NFS 버전 4.1 및 4.0**-TCP 포트 2049
   + **NFS 버전 3.x**-TCP 포트 111 및 2049

   네트워크의 다른 NFS 클라이언트는 데이터 전송에 사용하는 NFS 내보내기를 마운트할 수 있어야 합니다. 내보내기는 Kerberos 인증 없이도 액세스할 수 있어야 합니다.

1. [서비스 엔드포인트 연결](datasync-network.md)(예: VPC, 퍼블릭 또는 FIPS 엔드포인트)에 대한 트래픽을 구성합니다.

1. DataSync 서비스에서 전송 중인 [AWS 스토리지 서비스](datasync-network.md#storage-service-network-requirements)로의 트래픽을 허용합니다.

## NFS 전송 위치 생성
<a name="create-nfs-location-how-to"></a>

시작하기 전에 다음 사항에 유의하세요.
+ 데이터를 전송할 NFS 파일 서버가 필요합니다.
+ [파일 서버에 액세스](#accessing-nfs)할 수 있는 DataSync 에이전트가 필요합니다.
+  DataSync는 NFS 버전 4 액세스 제어 목록(ACL) 복사를 지원하지 않습니다.

### DataSync 콘솔 사용
<a name="create-nfs-location-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **네트워크 파일 시스템(NFS)**을 선택합니다.

1. **에이전트**에서 NFS 파일 서버에 연결할 수 있는 DataSync 에이전트를 선택합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 설명은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents)섹션을 참조하세요.

1. **NFS 서버**에는 DataSync 에이전트가 연결하는 NFS 파일 서버의 도메인 이름 시스템(DNS) 이름 또는 IP 주소를 입력합니다.

1. **마운트 경로**에는 DataSync에서 마운트할 NFS 내보내기 경로를 입력합니다.

   이 경로(또는 경로의 하위 디렉터리)는 DataSync가 데이터를 전송하고 전송 받는 곳입니다. 자세한 설명은 [NFS 내보내기 구성](#accessing-nfs-configuring-export)섹션을 참조하세요.

1. (선택 사항) **추가 설정**을 확장하고 DataSync가 파일 서버에 액세스할 때 사용할 특정 **NFS 버전**을 선택합니다.

   자세한 설명은 [지원되는 NFS 버전](#supported-nfs-versions)섹션을 참조하세요.

1. (선택 사항) **태그 추가**를 선택하여 NFS 위치에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-nfs-cli"></a>
+ 다음 명령을 사용하여 NFS 위치를 생성합니다.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  위치 생성에 대한 자세한 정보는 [DataSync에 NFS 파일 서버 액세스 권한 제공](#accessing-nfs)(을)를 참조하세요.

  NFS 위치에서 읽는 데 사용하는 NFS 버전을 DataSync가 자동으로 선택합니다. NFS 버전을 지정하려면 [NfsMountOptions](API_NfsMountOptions.md) API 작업에서 선택적 `Version` 파라미터를 사용합니다.

이들 명령은 다음과 같은 Amazon 리소스 이름(ARN)과 비슷한 NFS 위치의 ARN을 반환합니다.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

디렉터리를 탑재할 수 있는지 확인하려면 에이전트와 동일한 네트워크 구성을 가진 컴퓨터에 연결하여 다음 명령을 실행하세요.

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

다음은 명령의 예제입니다.

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# SMB 파일 서버를 사용하여 AWS DataSync 전송 구성
<a name="create-smb-location"></a>

를 사용하면 SMB(Server Message Block) 파일 서버와 다음 AWS 스토리지 서비스 간에 데이터를 전송할 AWS DataSync수 있습니다. 지원되는 스토리지 서비스는 아래와 같이 작업 모드에 따라 달라집니다.


| 기본 모드 | 확장 모드 | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-smb-location.html)  | 

이러한 종류의 전송을 설정하려면 SMB 파일 서버의 [위치](how-datasync-transfer-works.md#sync-locations)를 생성해야 합니다. 이를 전송의 소스 또는 대상으로 사용할 수 있습니다. 원하는 작업 모드에 해당하는 에이전트를 사용해야 합니다.

## DataSync에 SMB 파일 서버 액세스 권한 제공
<a name="configuring-smb"></a>

DataSync는 SMB 프로토콜을 사용하여 파일 서버에 연결하고 NTLM 또는 Kerberos로 인증할 수 있습니다.

**Topics**
+ [지원되는 SMB 버전](#configuring-smb-version)
+ [NTLM 인증 사용](#configuring-smb-ntlm-authentication)
+ [Kerberos 인증 사용](#configuring-smb-kerberos-authentication)
+ [필수 권한](#configuring-smb-permissions)
+ [DFS 네임스페이스](#configuring-smb-location-dfs)

### 지원되는 SMB 버전
<a name="configuring-smb-version"></a>

기본적으로 DataSync는 SMB 파일 서버와의 협상을 기반으로 SMB 프로토콜 버전을 자동으로 선택합니다.

특정 SMB 버전을 사용하도록 DataSync를 구성할 수도 있지만 DataSync가 SMB 파일 서버와 자동으로 협상하는 데 문제가 있는 경우에만 이렇게 하는 것이 좋습니다. DataSync는 SMB 버전 1.0 이상을 지원합니다. 보안상의 이유로 SMB 버전 3.0.2 이상을 사용하는 것이 좋습니다. SMB 1.0과 같은 이전 버전에는 알려진 보안 취약성이 포함되어 있어, 공격자가 데이터를 손상시키기 위해 이를 악용할 수 있습니다.

DataSync 콘솔 및 API의 옵션 목록은 다음 표를 참조하세요.


| 콘솔 옵션 | API 옵션 | 설명 | 
| --- | --- | --- | 
| 자동 |  `AUTOMATIC`  |  DataSync와 SMB 파일 서버는 2.1과 3.1.1 사이에서 상호 지원하는 SMB의 가장 높은 버전을 협상합니다. 이는 기본값이며 권장 옵션입니다. 대신 파일 서버에서 지원하지 않는 특정 버전을 선택하면 `Operation Not Supported` 오류가 발생할 수 있습니다.  | 
|  SMB 3.0.2  |  `SMB3`  |  프로토콜 협상을 SMB 버전 3.0.2로만 제한합니다.  | 
| SMB 2.1 |  `SMB2`  | 프로토콜 협상을 SMB 버전 2.1로만 제한합니다. | 
| SMB 2.0 | `SMB2_0` | 프로토콜 협상을 SMB 버전 2.0으로만 제한합니다. | 
| SMB 1.0 | `SMB1` | 프로토콜 협상을 SMB 버전 1.0으로만 제한합니다. | 

### NTLM 인증 사용
<a name="configuring-smb-ntlm-authentication"></a>

NTLM 인증을 사용하려면 사용자 이름과 암호를 제공하여 DataSync가 전송을 주고 받는 SMB 파일 서버에 액세스하도록 허용합니다. 해당 사용자는 파일 서버의 로컬 사용자이거나 Microsoft Active Directory의 도메인 사용자일 수 있습니다.

### Kerberos 인증 사용
<a name="configuring-smb-kerberos-authentication"></a>

Kerberos 인증을 사용하려면 Kerberos 보안 주체, Kerberos 키 테이블(키 탭) 파일, Kerberos 구성 파일을 제공하여 DataSync가 전송을 주고 받는 SMB 파일 서버에 액세스하도록 허용합니다.

**Topics**
+ [사전 조건](#configuring-smb-kerberos-prerequisites)
+ [Kerberos에 대한 DataSync 구성 옵션](#configuring-smb-kerberos-options)

#### 사전 조건
<a name="configuring-smb-kerberos-prerequisites"></a>

몇 가지 Kerberos 아티팩트를 생성하고 네트워크를 구성하면 DataSync가 SMB 파일 서버에 액세스할 수 있습니다.
+ [ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass) 또는 [kutil](https://web.mit.edu/kerberos/krb5-1.12/doc/admin/admin_commands/ktutil.html) 유틸리티를 사용하여 Kerberos 키탭 파일을 생성합니다.

  다음 예시에서는 `ktpass`를 사용하여 키탭 파일을 생성합니다. 지정한 Kerberos 영역(`MYDOMAIN.ORG`)은 대문자여야 합니다.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ 간소화된 버전의 Kerberos 구성 파일(`krb5.conf`)을 준비합니다. 영역, 도메인 관리자 서버의 위치, Kerberos 영역에 대한 호스트 이름 매핑에 대한 정보를 포함합니다.

  `krb5.conf` 콘텐츠가 영역 및 도메인 영역 이름에 대한 올바른 대/소문자 형식으로 혼합되어 있는지 확인합니다. 예제:

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ 네트워크 구성에서 Kerberos 키 분배 센터(KDC) 서버 포트가 열려 있는지 확인합니다. KDC 포트는 일반적으로 TCP 포트 88입니다.

#### Kerberos에 대한 DataSync 구성 옵션
<a name="configuring-smb-kerberos-options"></a>

Kerberos를 사용하는 SMB 위치를 생성할 때 다음 옵션을 구성합니다.


| 콘솔 옵션 | API 옵션 | 설명 | 
| --- | --- | --- | 
|  **SMB 서버**  |  `ServerHostName`  |  DataSync 에이전트가 탑재할 SMB 파일 서버의 도메인 이름입니다. Kerberos에서는 파일 서버의 IP 주소를 지정할 수 없습니다.  | 
|  **Kerberos 보안 주체**  |  `KerberosPrincipal`  |  Kerberos 영역의 자격 증명으로, SMB 파일 서버의 파일, 폴더, 파일 메타데이터에 액세스할 권한을 가집니다. Kerberos 보안 주체는 `HOST/kerberosuser@MYDOMAIN.ORG`처럼 보일 수 있습니다. 보안 주체 이름은 대/소문자를 구분합니다.  | 
|  **키탭 파일**  |  `KerberosKeytab`   |  Kerberos 보안 주체와 암호화 키 간의 매핑을 포함하는 Kerberos 키 테이블(키탭) 파일입니다.  | 
|  **Kerberos 구성 파일**  |  `KerberosKrbConf`  |  Kerberos 영역 구성을 정의하는 `krb5.conf` 파일입니다.  | 
|  **DNS IP 주소**(선택 사항)  |  `DnsIpAddresses`  |  SMB 파일 서버가 속한 DNS 서버의 IPv4 주소입니다. 환경에 여러 도메인이 있는 경우 이를 구성하면 DataSync가 올바른 SMB 파일 서버에 연결되도록 할 수 있습니다.  | 

### 필수 권한
<a name="configuring-smb-permissions"></a>

DataSync에 SMB 파일 서버의 파일, 폴더, 파일 메타데이터를 탑재하고 액세스하기 위한 필수 권한을 제공해야 합니다.

Active Directory에 자격 증명을 제공하는 경우, 이는 다음 사용자 권한 중 하나 또는 둘 다([DataSync가 복사할 메타데이터](configure-metadata.md)에 따라 다름)를 가진 Active Directory 그룹의 구성원이어야 합니다.


| 사용자 권한 | 설명 | 
| --- | --- | 
|  **파일 및 디렉터리 복원**(`SE_RESTORE_NAME`)  |  DataSync가 객체 소유권, 권한, 파일 메타데이터, NTFS 임의 액세스 목록(DACL)을 복사하도록 허용합니다. 이 사용자 권한은 일반적으로 **도메인 관리자** 및 **백업 운영자** 그룹(둘 다 기본 Active Directory 그룹)의 멤버에게 부여됩니다.  | 
|  **감사 및 보안 로그 관리**(`SE_SECURITY_NAME`)  |  DataSync가 NTFS 시스템 액세스 제어 목록(SACL)을 복사하도록 허용합니다. 이 사용자 권한은 일반적으로 **도메인 관리자** 그룹의 멤버에게 부여됩니다.  | 

Windows ACL을 복사하려는 경우와 SMB 파일 서버 및 SMB를 사용하는 다른 스토리지 시스템(예: Amazon FSx for Windows File Server 또는 FSx for ONTAP) 간에 전송하는 경우, DataSync에 제공하는 자격 증명은 같은 Active Directory 도메인에 속하거나 도메인 간에 Active Directory 신뢰 관계가 있어야 합니다.

### DFS 네임스페이스
<a name="configuring-smb-location-dfs"></a>

DataSync는 Microsoft 분산 파일 시스템(DFS) 네임스페이스를 지원하지 않습니다. DataSync 위치를 생성할 때 기본 파일 서버 또는 공유를 지정하는 것이 좋습니다.

## SMB 전송 위치 생성
<a name="create-smb-location-how-to"></a>

시작하려면 데이터를 전송할 SMB 파일 서버가 필요합니다.

### DataSync 콘솔 사용
<a name="create-smb-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **Location type(위치 유형)**에서 **Server Message Block (SMB)(SMB(Server Message Block))**을 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **에이전트**에서 SMB 파일 서버에 연결할 수 있는 DataSync 에이전트를 선택합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 내용은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 단원을 참조하십시오.

1. **SMB 서버**에서 DataSync 에이전트가 탑재할 SMB 파일 서버의 도메인 이름 또는 IP 주소를 입력합니다.

   이 설정에서는 다음 사항에 유의하세요.
   + IP 버전 6(IPv6) 주소는 지정할 수 없습니다.
   + Kerberos 인증을 사용하는 경우 도메인 이름을 지정해야 합니다.

1. **공유 이름**에는 DataSync가 데이터를 읽거나 쓸 SMB 파일 서버에서 내보낸 공유의 이름을 입력합니다.

   공유 경로에 하위 디렉토리(예: `/path/to/subdirectory`)를 포함할 수 있습니다. 네트워크의 다른 SMB 클라이언트도 이 경로를 마운트할 수 있는지 확인하세요.

   하위 디렉터리의 모든 데이터를 복사하려면 DataSync가 SMB 공유를 마운트하고 모든 데이터에 액세스할 수 있어야 합니다. 자세한 설명은 [필수 권한](#configuring-smb-permissions)섹션을 참조하세요.

1. (선택 사항) **추가 설정**을 확장하고 DataSync가 파일 서버에 액세스할 때 사용할 **SMB 버전**을 선택합니다.

   기본적으로 DataSync는 SMB 파일 서버와의 협상을 기반으로 버전을 자동으로 선택합니다. 자세한 내용은 [지원되는 SMB 버전](#configuring-smb-version) 단원을 참조하세요.

1. **인증 유형**에서 **NTLM** 또는 **Kerberos**를 선택합니다.

1. 선택한 인증 유형에 따라 다음 중 하나를 수행합니다.

------
#### [ NTLM ]
   + **사용자**에는 SMB 파일 서버를 마운트할 수 있고 전송과 관련된 파일 및 폴더에 액세스할 수 있는 권한을 가진 사용자 이름을 입력합니다.

     자세한 설명은 [필수 권한](#configuring-smb-permissions)섹션을 참조하세요.
   + **암호**에는 SMB 파일 서버를 마운트할 수 있고 전송과 관련된 파일 및 폴더에 액세스할 수 있는 권한을 가진 사용자의 암호를 입력합니다.
   + (선택 사항) **도메인**에는 SMB 파일 서버가 속하는 Windows 도메인 이름을 입력합니다.

     환경에 여러 도메인이 있는 경우 이 설정을 구성하면 DataSync가 올바른 SMB 파일 서버에 연결할 수 있습니다.

------
#### [ Kerberos ]
   + **Kerberos 보안 주체**에서 SMB 파일 서버의 파일, 폴더, 파일 메타데이터에 액세스할 권한이 있는 보안 주체를 Kerberos 영역에 지정합니다.

     Kerberos 보안 주체는 `HOST/kerberosuser@MYDOMAIN.ORG`처럼 보일 수 있습니다.

     보안 주체 이름은 대/소문자를 구분합니다. 이 설정에 대해 지정한 보안 주체가 키탭 파일 생성에 사용하는 보안 주체와 정확히 일치하지 않으면 DataSync 작업 실행이 실패합니다.
   + **Keytab 파일**에서 Kerberos 보안 주체와 암호화 키 간의 매핑을 포함하는 키탭 파일을 업로드합니다.
   + **Kerberos 구성 파일**에서 Kerberos 영역 구성을 정의하는 `krb5.conf` 파일을 업로드합니다.
   + (선택 사항) **DNS IP 주소**에서 SMB 파일 서버가 속한 DNS 서버에 대해 최대 2개의 IPv4 주소를 지정합니다.

     환경에 여러 도메인이 있는 경우 이 파라미터를 구성하면 DataSync가 올바른 SMB 파일 서버에 연결되도록 할 수 있습니다.

------

1. (선택 사항) **태그 추가**를 선택하여 SMB 위치에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-smb-cli"></a>

다음 지침은 NTLM 또는 Kerberos 인증을 사용하여 SMB 위치를 생성하는 방법을 설명합니다.

------
#### [ NTLM ]

1. 다음 `create-location-smb`명령을 복사합니다.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. `--agent-arns`에서 SMB 파일 서버에 연결할 DataSync 에이전트를 지정합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 내용은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 단원을 참조하십시오.

1. `--server-hostname`에서 DataSync 에이전트가 탑재할 SMB 파일 서버의 도메인 이름 또는 IPv4 주소를 지정합니다.

1. `--subdirectory`에서 DataSync가 데이터를 읽거나 쓸 SMB 파일 서버에서 내보낸 공유 이름을 지정합니다.

   공유 경로에 하위 디렉토리(예: `/path/to/subdirectory`)를 포함할 수 있습니다. 네트워크의 다른 SMB 클라이언트도 이 경로를 마운트할 수 있는지 확인하세요.

   하위 디렉터리의 모든 데이터를 복사하려면 DataSync가 SMB 공유를 마운트하고 모든 데이터에 액세스할 수 있어야 합니다. 자세한 내용은 [필수 권한](#configuring-smb-permissions) 단원을 참조하십시오.

1. `--user`에서 사용자의 SMB 파일 서버를 탑재할 수 있고 전송과 관련된 파일 및 폴더에 액세스할 권한을 가진 사용자 이름을 지정합니다.

   자세한 내용은 [필수 권한](#configuring-smb-permissions) 단원을 참조하십시오.

1. `--password`에서 사용자 SMB 파일 서버를 탑재하고 전송과 관련된 파일과 폴더에 액세스할 권한이 있는 사용자의 암호를 지정합니다.

1. (선택 사항) `--domain`에서 SMB 파일 서버가 속한 Windows 도메인 이름을 지정합니다.

   환경에 여러 도메인이 있는 경우 이 설정을 구성하면 DataSync가 올바른 SMB 파일 서버에 연결할 수 있습니다.

1. (선택 사항) DataSync가 특정 SMB 버전을 사용하도록 하려면 `--version` 옵션을 추가합니다. 자세한 내용은 [지원되는 SMB 버전](#configuring-smb-version) 단원을 참조하십시오.

1. `create-location-smb` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. 다음 `create-location-smb`명령을 복사합니다.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. `--agent-arns`에서 SMB 파일 서버에 연결할 DataSync 에이전트를 지정합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 내용은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 단원을 참조하십시오.

1. `--server-hostname`에서 DataSync 에이전트가 탑재할 SMB 파일 서버의 도메인 이름을 지정합니다.

1. `--subdirectory`에서 DataSync가 데이터를 읽거나 쓸 SMB 파일 서버에서 내보낸 공유 이름을 지정합니다.

   공유 경로에 하위 디렉토리(예: `/path/to/subdirectory`)를 포함할 수 있습니다. 네트워크의 다른 SMB 클라이언트도 이 경로를 마운트할 수 있는지 확인하세요.

   하위 디렉터리의 모든 데이터를 복사하려면 DataSync가 SMB 공유를 마운트하고 모든 데이터에 액세스할 수 있어야 합니다. 자세한 내용은 [필수 권한](#configuring-smb-permissions) 단원을 참조하십시오.

1. Kerberos 옵션의 경우 다음을 수행합니다.
   + `--kerberos-principal`: SMB 파일 서버의 파일, 폴더, 파일 메타데이터에 액세스할 권한이 있는 보안 주체를 Kerberos 영역에 지정합니다.

     Kerberos 보안 주체는 `HOST/kerberosuser@MYDOMAIN.ORG`처럼 보일 수 있습니다.

     보안 주체 이름은 대/소문자를 구분합니다. 이 옵션에 대해 지정한 보안 주체가 키탭 파일 생성에 사용하는 보안 주체와 정확히 일치하지 않으면 DataSync 작업 실행이 실패합니다.
   + `--kerberos-keytab`: Kerberos 보안 주체와 암호화 키 간의 매핑을 포함하는 키탭 파일을 지정합니다.
   + `--kerberos-krb5-conf`: Kerberos 영역 구성을 정의하는 `krb5.conf` 파일을 지정합니다.
   + (선택 사항) `--dns-ip-addresses`: SMB 파일 서버가 속한 DNS 서버에 대해 최대 2개의 IPv4 주소를 지정합니다.

     환경에 여러 도메인이 있는 경우 이 파라미터를 구성하면 DataSync가 올바른 SMB 파일 서버에 연결되도록 할 수 있습니다.

1. (선택 사항) DataSync가 특정 SMB 버전을 사용하도록 하려면 `--version` 옵션을 추가합니다. 자세한 내용은 [지원되는 SMB 버전](#configuring-smb-version) 단원을 참조하십시오.

1. `create-location-smb` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# HDFS 클러스터를 사용하여 AWS DataSync 전송 구성
<a name="create-hdfs-location"></a>

를 사용하면 기본 모드 작업을 사용하여 하둡 분산 파일 시스템(HDFS) 클러스터와 다음 AWS 스토리지 서비스 중 하나 간에 데이터를 전송할 AWS DataSync수 있습니다.
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx for Windows File Server](create-fsx-location.md)
+ [Amazon FSx for Lustre](create-lustre-location.md)
+ [Amazon FSx for OpenZFS](create-openzfs-location.md)
+ [Amazon FSx for NetApp ONTAP](create-ontap-location.md)

이러한 종류의 전송을 설정하려면 HDFS 클러스터의 [위치](how-datasync-transfer-works.md#sync-locations)를 생성해야 합니다. 이 위치를 전송의 소스 또는 대상으로 사용할 수 있습니다.

## DataSync에 HDFS 클러스터 액세스 권한 제공
<a name="accessing-hdfs"></a>

DataSync는 HDFS 클러스터에 연결하기 위해 HDFS 클러스터에 최대한 가깝게 [배포하는](deploy-agents.md) 기본 모드 에이전트를 사용합니다. DataSync 에이전트는 HDFS 클라이언트 역할을 하며 클러스터의 NameNodes 및 DataNodes와 통신합니다.

전송 작업을 시작하면 DataSync는 클러스터의 파일 및 폴더 위치에 대한 NameNode 쿼리를 제기합니다. HDFS 위치가 소스 위치로 구성된 경우 DataSync는 클러스터의 DataNodes에서 파일 및 폴더 데이터를 읽고 데이터를 대상으로 복사합니다. HDFS 위치가 대상 위치로 구성된 경우 DataSync는 소스에서 클러스터의 DataNodes로 파일 및 폴더를 씁니다.

### Authentication
<a name="accessing-hdfs-authentication"></a>

HDFS 클러스터에 연결할 때 DataSync는 단순 인증 또는 Kerberos 인증을 지원합니다. 단순 인증을 사용하려면 HDFS 클러스터에 대한 읽기 및 쓰기 권한이 있는 사용자의 사용자 이름을 제공하세요. Kerberos 인증을 사용하려면 Kerberos 구성 파일, Kerberos 키 테이블(keytab) 파일 및 Kerberos 보안 주체를 제공하세요. Kerberos 보안 주체의 보안 인증은 제공된 keytab 파일에 있어야 합니다.

### 암호화(Encryption)
<a name="accessing-hdfs-encryption"></a>

Kerberos 인증을 사용하는 경우 DataSync는 DataSync 에이전트와 HDFS 클러스터 간에 전송되는 데이터의 암호화를 지원합니다. HDFS 위치를 생성할 때 HDFS 클러스터의 QOP(Quality of Protection) 구성 설정을 사용하고 QOP 설정을 지정하여 데이터를 암호화합니다. QOP 구성에는 데이터 전송 보호 및 원격 프로시저 호출(RPC) 보호 설정이 포함됩니다.

**DataSync는 다음과 같은 Kerberos 암호화 유형을 지원합니다.**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

투명한 데이터 암호화(TDE)를 사용하여 유휴 시 암호화에 대해 HDFS 클러스터를 구성할 수도 있습니다. 단순 인증을 사용하는 경우 DataSync는 TDE 지원 클러스터를 읽고 씁니다. DataSync를 사용하여 TDE 지원 클러스터에 데이터를 복사하는 경우 먼저 HDFS 클러스터에서 암호화 영역을 구성하세요. DataSync는 암호화 영역을 생성하지 않습니다.

## 지원되지 않는 HDFS 기능
<a name="hdfs-unsupported-features"></a>

다음과 같은 HDFS의 기능은 현재 DataSync에서 지원되지 않습니다.
+ Kerberos 인증 사용 시 투명한 데이터 암호화(TDE)
+ 다중 NameNode 구성
+ HTTP를 통한 Hadoop HDFS(HTTPFS)
+ POSIX 액세스 제어 목록(ACL)
+ HDFS 확장 속성(xatter)
+ Apache HBase를 사용하는 HDFS 클러스터

## HDFS 전송 위치 생성
<a name="create-hdfs-location-how-to"></a>

이 위치를 DataSync 전송의 소스 또는 대상으로 사용할 수 있습니다.

**시작하기 전**: 다음을 수행하여 에이전트와 Hadoop 클러스터 간의 네트워크 연결을 확인합니다.
+ [온프레미스, 자체 관리형 및 기타 클라우드 스토리지에 대한 네트워크 요구 사항](datasync-network.md#on-premises-network-requirements)에 나열된 TCP 포트에 대한 액세스를 테스트합니다.
+ 로컬 에이전트와 Hadoop 클러스터 간의 액세스를 테스트합니다. 지침은 [에이전트의 스토리지 시스템 연결 확인](test-agent-connections.md#self-managed-storage-connectivity) 섹션을 참조하세요.

### DataSync 콘솔 사용
<a name="create-hdfs-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Hadoop 분산 파일 시스템(HDFS)**을 선택합니다.

   나중에 이 위치를 소스 또는 대상으로 구성할 수 있습니다.

1. **에이전트**에서 HDFS 클러스터에 연결할 수 있는 에이전트를 선택합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 내용은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 단원을 참조하십시오.

1. **NameNode**에서 HDFS 클러스터의 기본 NameNode의 도메인 이름 또는 IP 주소를 입력합니다.

1. **폴더**에서 DataSync가 데이터 전송에 사용하길 원하는 HDFS 클러스터의 폴더를 입력합니다.

   HDFS 위치가 소스인 경우 DataSync는 이 폴더의 파일을 대상으로 복사합니다. 위치가 대상인 경우 DataSync는 이 폴더에 파일을 씁니다.

1. **블록 크기** 또는 **복제 인수**를 설정하려면 **추가 설정**을 선택합니다.

   기본 블록 크기는 128MiB입니다. 제공하는 블록 크기는 512바이트의 배수여야 합니다.

   HDFS 클러스터로 전송할 때 기본 복제 인수는 세 개의 DataNode입니다.

1. **보안** 섹션에서 HDFS 클러스터에 사용되는 **인증 유형**을 선택합니다.
   + **단순** – **사용자**에, HDFS 클러스터에서 다음 권한을 가진 사용자 이름을 지정합니다(사용 사례에 따라 다름).
     + 이 위치를 소스 위치로 사용하려는 경우 읽기 권한만 있는 사용자를 지정합니다.
     + 이 위치를 대상 위치로 사용하려는 경우 읽기 권한과 쓰기 권한이 있는 사용자를 지정합니다.

     선택적으로, HDFS 클러스터의 키 관리 서버(KMS) URI를 지정합니다.
   + **Kerberos** – HDFS 클러스터에 액세스할 수 있는 Kerberos **보안 주체를** 지정합니다. 다음으로, 제공된 Kerberos 보안 주체가 포함된 **KeyTab 파일**을 제공합니다. 그런 다음 **Kerberos 구성 파일**을 제공합니다. 마지막으로 **RPC 보호** 및 **데이터 전송 보호** 드롭다운 목록에서 전송 중 암호화 보호 유형을 지정합니다.

1. (선택 사항) **태그 추가**를 선택하여 HDFS 위치에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-hdfs-cli"></a>

1. 다음 `create-location-hdfs`명령을 복사합니다.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. `--name-nodes` 파라미터에서 HDFS 클러스터의 기본 NameNode의 호스트 이름 또는 IP 주소와 NameNode가 수신 대기 중인 TCP 포트를 지정합니다.

1. `--authentication-type` 파라미터에서 Hadoop 클러스터에 연결할 때 사용할 인증 유형을 지정합니다. `SIMPLE` 또는 `KERBEROS`를 지정할 수 있습니다.

   `SIMPLE` 인증을 사용하는 경우 `--simple-user`파라미터를 사용하여 사용자의 사용자 이름을 지정합니다. `KERBEROS` 인증을 사용하는 경우 `--kerberos-principal`, `--kerberos-keytab`, 및 `--kerberos-krb5-conf`파라미터를 사용합니다. 자세한 내용은 [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html)를 참조하세요.

1. `--agent-arns` 파라미터에서 HDFS 클러스터에 연결할 수 있는 DataSync 에이전트의 ARN을 지정합니다.

   2개 이상의 에이전트를 선택할 수 있습니다. 자세한 내용은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 단원을 참조하십시오.

1. (선택 사항) `--subdirectory` 파라미터에서 DataSync가 데이터 전송에 사용할 HDFS 클러스터의 폴더를 지정합니다.

   HDFS 위치가 소스인 경우 DataSync는 이 폴더의 파일을 대상으로 복사합니다. 위치가 대상인 경우 DataSync는 이 폴더에 파일을 씁니다.

1. `create-location-hdfs` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# 객체 스토리지 시스템을 사용하는 DataSync 전송 구성
<a name="create-object-location"></a>

를 사용하면 기본 모드 작업을 사용하여 객체 스토리지 시스템과 다음 AWS 스토리지 서비스 중 하나 간에 데이터를 전송할 AWS DataSync수 있습니다.
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx for Windows File Server](create-fsx-location.md)
+ [Amazon FSx for Lustre](create-lustre-location.md)
+ [Amazon FSx for OpenZFS](create-openzfs-location.md)
+ [Amazon FSx for NetApp ONTAP](create-ontap-location.md)

이러한 종류의 전송을 설정하려면 객체 스토리지 시스템의 [위치](how-datasync-transfer-works.md#sync-locations)를 생성해야 합니다. 이 위치를 전송의 소스 또는 대상으로 사용할 수 있습니다. 온프레미스 객체 스토리지에서 데이터를 전송하려면 기본 모드 DataSync 에이전트가 필요합니다.

## 사전 조건
<a name="create-object-location-prerequisites"></a>

DataSync가 연결하려면 클라우드 객체 스토리지 시스템이 다음의 [Amazon S3 API 작업](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html)과 호환되어야 합니다.
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## 객체 스토리지 전송 위치 생성
<a name="create-object-location-how-to"></a>

시작하려면 데이터를 주고받으며 전송할 객체 스토리지 시스템이 필요합니다.

### DataSync 콘솔 사용
<a name="create-object-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **객체 스토리지**를 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **서버**에는 객체 스토리지 서버의 도메인 이름 또는 IP 주소를 지정합니다.

1. **버킷 이름**에는 전송과 관련된 객체 스토리지 버킷의 이름을 입력합니다.

1. **폴더**에는 객체 접두사를 입력합니다.

   DataSync는 이 접두사가 있는 객체만 복사합니다.

1. 전송에 에이전트가 필요한 경우 **에이전트 사용**을 선택한 다음 DataSync 에이전트를 선택하여 객체 스토리지 시스템에 연결합니다.

   일부 전송에는 에이전트가 필요하지 않습니다. 다른 시나리오에서는 둘 이상의 에이전트를 사용하는 것이 좋을 수 있습니다. 자세한 내용은 [DataSync 에이전트가 필요하지 않은 상황](do-i-need-datasync-agent.md#when-agent-not-required) 및 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents) 섹션을 참조하세요.

1. 객체 스토리지 서버에 대한 연결을 구성하려면 **추가 설정**을 확장하고 다음을 수행하세요.

   1. **서버 프로토콜**에서 **HTTP** 또는 **HTTPS**를 선택합니다.

   1. **서버 포트**에는 기본 포트(HTTP의 경우 **80**, HTTPS의 경우 **443**)를 사용하거나 필요한 경우 사용자 지정 포트를 지정합니다.

   1. **인증서**에서 객체 스토리지 시스템이 프라이빗 또는 자체 서명된 인증 기관(CA)을 사용하는 경우 **파일 선택**을 선택하고 전체 인증서 체인이 있는 단일 `.pem` 파일을 지정합니다.

      인증서 체인에는 다음이 포함될 수 있습니다.
      + 객체 스토리지 시스템의 인증서
      + 모든 중간 인증서(있는 경우)
      + 서명 CA의 루트 인증서

      인증서를 `.pem` 파일로 연결할 수 있습니다(base64 인코딩 전 최대 32,768바이트). 다음 예제의 `cat` 명령은 세 개의 인증서가 포함된 `object_storage_certificates.pem` 파일을 생성합니다.

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. 객체 스토리지 서버가 액세스를 위해 자격 증명을 요구하는 경우 **자격 증명 필요**를 선택하고 버킷에 액세스하기 위한 **액세스 키**를 입력합니다. 그런 다음 **보안 키를** 직접 입력하거나 키가 포함된 AWS Secrets Manager 보안 암호를 지정합니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.

   액세스 키와 비밀 키는 각각 사용자 이름과 암호일 수 있습니다.

1. (선택 사항) **태그 추가**를 선택하여 객체 스토리지 위치에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-object-cli"></a>

1. 다음 `create-location-object-storage`명령을 복사합니다.

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. 명령에서 다음 필수 파라미터를 지정합니다.
   + `--server-hostname` – 객체 스토리지 서버의 도메인 이름 또는 IP 주소를 지정합니다.
   + `--bucket-name` – 전송을 보내거나 받는 객체 스토리지 서버의 버킷 이름을 지정합니다.

1. (선택 사항) 명령에 다음 파라미터 중 하나를 추가합니다.
   + `--agent-arns` – 객체 스토리지 서버에 연결할 DataSync 에이전트를 지정합니다.
   + `--server-port` – 객체 스토리지 서버가 인바운드 네트워크 트래픽을 수락하는 포트(예: 포트 `443`)를 지정합니다.
   + `--server-protocol` – 객체 스토리지 서버의 통신에 사용되는 프로토콜(`HTTP` 또는 `HTTPS`)을 지정합니다.
   + `--access-key` – 객체 스토리지 서버에 인증하는 데 보안 인증이 필요한 경우 액세스 키(예: 사용자 이름)를 지정합니다.
   + `--secret-key` – 객체 스토리지 서버에 인증하는 데 보안 인증이 필요한 경우 보안 암호 키(예: 암호)를 지정합니다.

     또한 AWS Secrets Manager를 사용하여 키를 보호하기 위한 추가 파라미터를 제공할 수 있습니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.
   + `--server-certificate`-시스템이 프라이빗 또는 자체 서명 인증 기관(CA)을 사용하는 경우 DataSync가 객체 스토리지 시스템으로 인증하기 위한 인증서 체인을 지정합니다. 전체 인증서 체인(예: `file:///home/user/.ssh/object_storage_certificates.pem`)이 있는 단일 `.pem` 파일을 지정해야 합니다.

     인증서 체인에는 다음이 포함될 수 있습니다.
     + 객체 스토리지 시스템의 인증서
     + 모든 중간 인증서(있는 경우)
     + 서명 CA의 루트 인증서

     인증서를 `.pem` 파일로 연결할 수 있습니다(base64 인코딩 전 최대 32,768바이트). 다음 예제의 `cat` 명령은 세 개의 인증서가 포함된 `object_storage_certificates.pem` 파일을 생성합니다.

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory` – 객체 스토리지 서버의 객체 접두사를 지정합니다.

     DataSync는 이 접두사가 있는 객체만 복사합니다.
   + `--tags` – 리소스에 추가하려는 태그를 나타내는 키-값 페어를 지정합니다.

     태그는 리소스 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 생성하는 것이 좋습니다.

1. `create-location-object-storage` 명령을 실행합니다.

   방금 생성한 위치 ARN을 보여주는 응답을 받게 됩니다.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# 를 사용하여 AWS 스토리지로 또는 스토리지에서 전송 AWS DataSync
<a name="transferring-aws-storage"></a>

를 사용하면 여러 AWS 스토리지 서비스와 데이터를 주고받을 AWS DataSync수 있습니다. 자세한 내용은 [Where can I transfer my data with DataSync?](working-with-locations.md) 섹션을 참조하세요.

**Topics**
+ [Amazon S3를 사용하여 AWS DataSync 전송 구성](create-s3-location.md)
+ [Amazon EFS를 사용하여 AWS DataSync 전송 구성](create-efs-location.md)
+ [FSx for Windows File Server를 사용하여 전송 구성](create-fsx-location.md)
+ [FSx for Lustre를 사용하여 DataSync 전송 구성](create-lustre-location.md)
+ [Amazon FSx for OpenZFS를 사용하여 DataSync 전송 구성](create-openzfs-location.md)
+ [Amazon FSx for NetApp ONTAP를 사용하여 전송 구성](create-ontap-location.md)

# Amazon S3를 사용하여 AWS DataSync 전송 구성
<a name="create-s3-location"></a>

Amazon S3 버킷에서 데이터를 전송하려면 AWS DataSync 전송 *위치를* 생성합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 S3 버킷 액세스 권한 제공
<a name="create-s3-location-access"></a>

DataSync는 전송 중인 S3 버킷에 대한 액세스가 필요합니다. 이렇게 하려면 DataSync가 버킷에 액세스하는 데 필요한 권한으로 수임하는 AWS Identity and Access Management (IAM) 역할을 생성해야 합니다. [DataSync의 Amazon S3 위치를 생성](#create-s3-location-how-to)할 때 이 역할을 지정합니다.

**Contents**
+ [필수 권한](#create-s3-location-required-permissions)
+ [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](#create-role-manually)
+ [서버측 암호화를 사용하여 S3 버킷에 액세스](#create-s3-location-encryption)
+ [제한된 S3 버킷 액세스](#denying-s3-access)
+ [VPC 액세스가 제한된 S3 버킷 액세스](#create-s3-location-restricted-vpc)

### 필수 권한
<a name="create-s3-location-required-permissions"></a>

IAM 역할에 필요한 권한은 버킷이 DataSync 소스인지 대상 위치인지에 따라 달라질 수 있습니다. Amazon S3 on Outposts에는 다른 권한 집합이 필요합니다.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성
<a name="create-role-manually"></a>

콘솔에서 [Amazon S3 위치를 생성](#create-s3-location-how-to)할 때 DataSync는 일반적으로 S3 버킷에 액세스할 수 있는 적절한 권한을 가진 IAM 역할을 자동으로 생성하고 그 역할을 맡을 수 있습니다.

경우에 따라이 역할을 수동으로 생성해야 할 수 있습니다(예: 추가 보안 계층이 있는 버킷에 액세스하거나 다른의 버킷으로 또는 버킷에서 전송 AWS 계정).

#### DataSync를 위한 IAM 역할 수동 생성
<a name="create-role-manually-steps"></a>

1. IAM 콘솔([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/))을 엽니다.

1. 왼쪽 탐색 창의 **액세스 관리**에서 **역할**을 선택한 다음, **역할 생성**을 선택합니다.

1. **신뢰할 수 있는 엔터티 선택** 페이지에서 **신뢰할 수 있는 엔터티 유형**으로 **AWS 서비스**를 선택합니다.

1. **사용 사례**로 드롭다운 목록에서 **DataSync**를 선택하고 **DataSync**를 선택합니다. **다음**을 선택합니다.

1. **권한 추가** 페이지에서 **다음**을 선택합니다. 역할 이름을 제공하고 **역할 생성**을 선택합니다.

1. **역할** 페이지에서 방금 생성한 역할의 이름을 검색해 선택합니다.

1. 역할의 세부 정보 페이지에서 **권한** 탭을 선택합니다. **권한 추가**를 선택한 후 **인라인 정책 추가**를 선택합니다.

1. **JSON** 탭을 선택하고 버킷에 액세스하는 데 [필요한 권한을 정책 편집기에 추가](#create-s3-location-required-permissions)합니다.

1. **다음**을 선택합니다. 정책에 이름을 제공하고 **정책 생성**을 선택합니다.

1. (권장) [교차 서비스 혼동된 대리자 문제](cross-service-confused-deputy-prevention.md)를 방지하려면 다음을 수행합니다.

   1. 역할의 세부 정도 페이지에서 **신뢰 관계** 탭을 선택합니다. **신뢰 정책 편집**을 선택합니다.

   1. `aws:SourceArn` 및 `aws:SourceAccount`전역 조건 컨텍스트 키가 포함된 다음 예를 사용하여 신뢰 정책을 업데이트하세요.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. **정책 업데이트**를 선택합니다.

Amazon S3 위치를 생성할 때 이 역할을 지정할 수 있습니다.

### 서버측 암호화를 사용하여 S3 버킷에 액세스
<a name="create-s3-location-encryption"></a>

DataSync는 [서버측 암호화를 사용하는 S3 버킷](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html)으로 또는 S3 버킷에서 데이터를 전송할 수 있습니다. 버킷이 사용하는 암호화 키의 유형에 따라 DataSync가 버킷에 액세스할 수 있도록 허용하는 사용자 지정 정책이 필요한지 여부를 결정할 수 있습니다.

서버측 암호화를 사용하는 S3 버킷으로 DataSync를 사용할 때는 다음 사항을 기억하세요.
+ **S3 버킷이 AWS 관리형 키로 암호화된 경우** - 모든 리소스가 동일한 AWS 계정에 있는 경우 DataSync는 기본적으로 버킷의 객체에 액세스할 수 있습니다.
+ **S3 버킷이 고객 관리 AWS Key Management Service 형(AWS KMS) 키(SSE-KMS)로 암호화된 경우** - [키의 정책에](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) DataSync가 버킷에 액세스하는 데 사용하는 IAM 역할이 포함되어야 합니다.
+ **S3 버킷이 고객 관리형 SSE-KMS 키 및 다른 로 암호화된 경우 AWS 계정** - DataSync는 다른의 버킷에 액세스할 수 있는 권한이 필요합니다 AWS 계정. 다음을 수행하여 이를 설정할 수 있습니다.
  + DataSync가 사용하는 IAM 역할에서 키의 정규화된 Amazon 리소스 이름(ARN)을 사용하여 교차 계정 버킷의 SSE-KMS 키를 지정해야 합니다. 버킷의 [기본 암호화](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html)를 구성하는 데 사용하는 것과 동일한 키 ARN입니다. 이 상황에서는 키 ID, 별칭 이름 또는 별칭 ARN을 지정할 수 없습니다.

    다음은 키 ARN의 예제입니다.

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    IAM 정책 문에서 KMS 키를 지정하는 방법에 대한 자세한 내용은 *[AWS Key Management Service 개발자 가이드](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*를 참조하세요.
  + SSE-KMS 키 정책에서 [DataSync에서 사용하는 IAM 역할을 지정합니다](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html).
+ **이중 계층 서버 측 암호화를 위해 S3 버킷을 고객 관리형 AWS KMS 키(DSSE-KMS)로 암호화하는 경우 -** [키의 정책에](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) DataSync가 버킷에 액세스하는 데 사용하는 IAM 역할이 포함되어야 합니다. (DSSE-KMS는 AWS KMS 요청 비용을 줄일 수 있는 [S3 버킷 키를](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html) 지원하지 않습니다.)
+ **S3 버킷이 고객 제공 암호화 키(SSE-C)로 암호화된 경우** – DataSync가 이 버킷에 액세스할 수 없습니다.

#### 예: DataSync에 대한 SSE-KMS 키 정책
<a name="create-s3-location-encryption-example"></a>

다음 예제는 고객 관리형 SSE-KMS 키의 [키 정책](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html)입니다. 정책은 서버측 암호화를 사용하는 S3 버킷에 연결됩니다.

다음 예제를 사용하려면 다음 값을 본인의 것으로 바꿉니다.
+ *account-id* – AWS 계정.
+ *admin-role-name* - 키를 관리할 수 있는 IAM 역할의 이름입니다.
+ *datasync-role-name* - DataSync가 버킷에 액세스할 때 키를 사용하도록 허용하는 IAM 역할의 이름입니다.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### 제한된 S3 버킷 액세스
<a name="denying-s3-access"></a>

일반적으로 모든 액세스를 거부하는 S3 버킷으로 또는 S3 버킷에서 전송해야 하는 경우, DataSync가 전송을 위해서만 버킷에 액세스할 수 있도록 버킷 정책을 편집할 수 있습니다.

#### 예제: IAM 역할을 기반으로 액세스 허용
<a name="denying-s3-access-example"></a>

1. 다음 S3 버킷 정책을 복사합니다.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. 이 정책에서 다음 값을 바꿉니다.
   + `amzn-s3-demo-bucket` - 제한된 S3 버킷의 이름을 지정합니다.
   + `datasync-iam-role-id` - [DataSync가 버킷에 액세스하는 데 사용하는 IAM 역할](#create-s3-location-access)의 ID를 지정합니다.

     다음 AWS CLI 명령을 실행하여 IAM 역할 ID를 가져옵니다.

     `aws iam get-role --role-name datasync-iam-role-name`

     출력에서 `RoleId`값을 찾습니다.

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id` - 버킷의 DataSync 위치를 생성하는 데 사용하는 IAM 역할의 ID를 지정합니다.

     다음 명령을 실행하여 IAM 역할 ID를 가져옵니다:

     `aws iam get-role --role-name your-iam-role-name`

     출력에서 `RoleId`값을 찾습니다.

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. S3 버킷 정책에 [이 정책을 추가](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html)합니다.

1. 제한된 버킷과 함께 DataSync 사용을 완료했으면 버킷 정책에서 두 IAM 역할의 조건을 모두 제거합니다.

### VPC 액세스가 제한된 S3 버킷 액세스
<a name="create-s3-location-restricted-vpc"></a>

[특정 가상 프라이빗 클라우드(VPC) 엔드포인트 또는 VPC에 대한 액세스를 제한](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html)하는 Amazon S3 버킷은 DataSync가 해당 버킷으로 또는 버킷에서 전송하지 못하도록 거부합니다. 이러한 상황에서 전송을 활성화하려면 [DataSync 위치에 지정](#create-s3-location-how-to)한 IAM 역할을 포함하도록 버킷의 정책을 업데이트할 수 있습니다.

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

S3 버킷 정책에서 DataSync 위치 IAM 역할의 Amazon 리소스 이름(ARN)을 지정할 수 있습니다.

다음 예제는 두 VPC(`vpc-1234567890abcdef0` 및 `vpc-abcdef01234567890`)를 제외한 모든 VPC의 액세스를 거부하는 S3 버킷 정책입니다. 그러나 정책에는 DataSync 위치 역할의 ARN이 버킷에 액세스할 수 있는 [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html) 조건 및 [aws:PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) 조건 키도 포함됩니다.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

S3 버킷 정책에서 DataSync 위치 IAM 역할에 연결된 태그를 지정할 수 있습니다.

다음 예제는 두 VPC(`vpc-1234567890abcdef0` 및 `vpc-abcdef01234567890`)를 제외한 모든 VPC의 액세스를 거부하는 S3 버킷 정책입니다. 그러나 정책에는 태그 키 `exclude-from-vpc-restriction`와 값이 `true`인 보안 주체를 허용하는 [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html) 조건 및 [aws:PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) 조건 키도 포함됩니다. DataSync 위치 역할에 연결된 태그를 지정하여 버킷 정책에서 유사한 접근 방식을 시도할 수 있습니다.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Amazon S3 전송 시 스토리지 클래스 고려 사항
<a name="using-storage-classes"></a>

Amazon S3가 대상 위치인 경우, DataSync는 데이터를 특정 [Amazon S3 스토리지 클래스](https://aws.amazon.com/s3/storage-classes/)로 직접 전송할 수 있습니다.

일부 스토리지 클래스에는 Amazon S3 스토리지 비용에 영향을 미칠 수 있는 동작이 있습니다. 객체 덮어쓰기, 삭제 또는 검색에 대한 추가 요금이 발생할 수 있는 스토리지 클래스를 사용하는 경우 객체 데이터나 메타데이터를 변경하면 해당 요금이 발생합니다. 자세한 내용은 [Amazon S3 요금](https://aws.amazon.com/s3/pricing/)을 참조하세요.

**중요**  
Amazon S3에 전송된 새 객체는 [위치를 생성](#create-s3-location-how-to)할 때 지정하는 스토리지 클래스를 사용하여 저장됩니다.  
기본적으로 DataSync는 [모든 데이터를 전송](configure-metadata.md#task-option-transfer-mode)하도록 작업을 구성하지 않는 한 대상 위치에 있는 기존 객체의 스토리지 클래스를 보존합니다. 이러한 상황에서는 위치 생성 시 지정하는 스토리지 클래스가 모든 객체에 적용됩니다.


| Amazon S3 스토리지 클래스 | 고려 사항 | 
| --- | --- | 
| S3 Standard | S3 Standard을 선택하면 지리적으로 분리된 여러 가용 영역에 자주 액세스하는 파일을 중복 저장합니다. 이는 스토리지 클래스를 지정하지 않는 경우 기본값입니다. | 
| S3 Intelligent-Tiering |  S3 Intelligent-Tiering을 선택하면 가장 비용 효과적인 스토리지 액세스 계층으로 데이터를 자동으로 이동하여 스토리지 비용을 최적화합니다. S3 Intelligent-Tiering 스토리지 클래스에 저장된 객체에 대해 매월 요금을 지불합니다. 이 Amazon S3 요금에는 데이터 액세스 패턴 모니터링 및 티어 간 객체 이동이 포함됩니다.  | 
| S3 Standard-IA |  S3 Standard\$1IA를 선택하면 지리적으로 분리된 여러 가용 영역에 자주 액세스하지 않는 객체를 중복 저장합니다. S3 Standard-IA 스토리지 클래스에 저장된 객체는 덮어쓰기, 삭제 또는 검색에 추가 비용을 발생시킬 수 있습니다. 이 객체가 얼마나 자주 변경되는지, 이 객체를 얼마나 오래 유지할 계획인지, 이 객체에 얼마나 자주 액세스해야 하는지 고려합니다. 객체 데이터 또는 메타데이터 변경은 객체를 삭제하고 이를 대체할 새 객체를 생성하는 것과 같습니다. 이로 인해 S3 Standard-IA 스토리지 클래스에 저장된 객체에 추가 요금이 발생합니다. 128KB 미만의 객체는 S3 Standard-IA 스토리지 클래스에서 객체당 최소 용량 요금보다 작습니다. 이러한 객체는 S3 Standard 스토리지 클래스에 저장됩니다.  | 
| S3 One Zone-IA  |  S3 One Zone-IA를 선택하면 단일 가용 영역에 자주 액세스하지 않는 객체를 저장합니다. S3 One Zone-IA 스토리지 클래스에 저장된 객체는 덮어쓰기, 삭제 또는 검색에 추가 비용을 발생시킬 수 있습니다. 이 객체가 얼마나 자주 변경되는지, 이 객체를 얼마나 오래 유지할 계획인지, 이 객체에 얼마나 자주 액세스해야 하는지 고려합니다. 객체 데이터 또는 메타데이터 변경은 객체를 삭제하고 이를 대체할 새 객체를 생성하는 것과 같습니다. 이로 인해 S3 One Zone-IA 스토리지 클래스에 저장된 객체에 추가 요금이 발생합니다. 128KB 미만의 객체는 S3 One Zone-IA 스토리지 클래스에서 객체당 최소 용량 요금보다 작습니다. 이러한 객체는 S3 Standard 스토리지 클래스에 저장됩니다.  | 
| S3 Glacier Instant Retrieval |  거의 액세스하지 않지만 밀리초 단위로 검색해야 하는 객체를 아카이브하려면 S3 Glacier Instant Retrieval을 선택합니다. S3 Glacier Instant Retrieval 스토리지 클래스에 저장된 데이터는 동일한 대기 시간 및 처리량 성능의 S3 Standard-IA 스토리지 클래스보다 비용을 절감합니다. 그러나 S3 Glacier Instant Retrieval은 S3 Standard-IA보다 데이터 액세스 비용이 더 높습니다. S3 Glacier Instant Retrieval에 저장된 객체는 덮어쓰기, 삭제 또는 검색에 추가 비용을 발생시킬 수 있습니다. 이 객체가 얼마나 자주 변경되는지, 이 객체를 얼마나 오래 유지할 계획인지, 이 객체에 얼마나 자주 액세스해야 하는지 고려합니다. 객체 데이터 또는 메타데이터 변경은 객체를 삭제하고 이를 대체할 새 객체를 생성하는 것과 같습니다. 이로 인해 S3 Glacier Instant Retrieval 스토리지 클래스에 저장된 객체에 추가 요금이 발생합니다. 128KB 미만의 객체는 S3 Glacier Instant Retrieval 스토리지 클래스에서 객체당 최소 용량 요금보다 작습니다. 이러한 객체는 S3 Standard 스토리지 클래스에 저장됩니다.  | 
| S3 Glacier Flexible Retrieval | 더 많은 활성 아카이브를 원하면 S3 Glacier Flexible Retrieval을 선택합니다.S3 Glacier Flexible Retrieval에 저장된 객체는 덮어쓰기, 삭제 또는 검색에 추가 비용을 발생시킬 수 있습니다. 이 객체가 얼마나 자주 변경되는지, 이 객체를 얼마나 오래 유지할 계획인지, 이 객체에 얼마나 자주 액세스해야 하는지 고려합니다. 객체 데이터 또는 메타데이터 변경은 객체를 삭제하고 이를 대체할 새 객체를 생성하는 것과 같습니다. 이로 인해 S3 Glacier Flexible Retrieval 스토리지 클래스에 저장된 객체에 추가 요금이 발생합니다.S3 Glacier Flexible Retrieval 스토리지 클래스에는 아카이빙된 각 객체에 대해 40KB의 추가 메타데이터가 필요합니다. DataSync는 40KB보다 작은 객체를 S3 Standard 스토리지 클래스에 저장합니다.DataSync에서 읽을 수 있으려면 먼저 이 스토리지 클래스에 보관된 객체를 복원해야 합니다. 해당 내용은 Amazon S3 사용 설명서의 [아카이브된 객체 작업](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html)을 참조하세요.S3 Glacier Flexible Retrieval을 사용하는 경우 **전송된 데이터만 확인**을 선택하여 전송이 끝날 때 데이터와 메타데이터 체크섬을 비교합니다. 이 스토리지 클래스에는 **대상의 모든 데이터 확인**을 사용할 수 없습니다. 대상에서 기존의 모든 객체를 검색해야 하기 때문입니다. | 
| S3 Glacier Deep Archive |  객체를 장기 보관하고 데이터를 일년에 한 번이나 두 번 액세스하도록 디지털 보존하려면 S3 Glacier Deep Archive를 선택하세요. S3 Glacier Deep Archive에 저장된 객체는 덮어쓰기, 삭제 또는 검색에 추가 비용을 발생시킬 수 있습니다. 이 객체가 얼마나 자주 변경되는지, 이 객체를 얼마나 오래 유지할 계획인지, 이 객체에 얼마나 자주 액세스해야 하는지 고려합니다. 객체 데이터 또는 메타데이터 변경은 객체를 삭제하고 이를 대체할 새 객체를 생성하는 것과 같습니다. 이로 인해 S3 Glacier Deep Archive 스토리지 클래스에 저장된 객체에 추가 요금이 발생합니다. S3 Glacier Deep Archive 스토리지 클래스에는 아카이빙된 각 객체에 대해 40KB의 추가 메타데이터가 필요합니다. DataSync는 40KB보다 작은 객체를 S3 Standard 스토리지 클래스에 저장합니다. DataSync에서 읽을 수 있으려면 먼저 이 스토리지 클래스에 보관된 객체를 복원해야 합니다. 해당 내용은 *Amazon S3 사용 설명서*의 [아카이브된 객체 작업](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html)을 참조하세요. S3 Glacier Deep Archive를 사용하는 경우 **전송된 데이터만 확인**을 선택하여 전송이 끝날 때 데이터와 메타데이터 체크섬을 비교합니다. 이 스토리지 클래스에는 **대상의 모든 데이터 확인**을 사용할 수 없습니다. 대상에서 기존의 모든 객체를 검색해야 하기 때문입니다.  | 
|  S3 Outposts  |  Amazon S3 on Outposts에 대한 스토리지 클래스.  | 

## DataSync 사용 시 S3 요청 비용 평가
<a name="create-s3-location-s3-requests"></a>

Amazon S3 위치를 사용하면 DataSync에서 수행한 S3 API 요청과 관련된 비용이 발생합니다. 이 섹션은 DataSync에서 이러한 요청을 사용하는 방식과 이러한 요청이 [Amazon S3](https://aws.amazon.com/s3/pricing/) 비용에 미치는 영향을 이해하는 데 도움이 될 수 있습니다.

**Topics**
+ [DataSync에서 수행한 S3 요청](#create-s3-location-s3-requests-made)
+ [비용 고려 사항](#create-s3-location-s3-requests-cost)

### DataSync에서 수행한 S3 요청
<a name="create-s3-location-s3-requests-made"></a>

다음 표에는 데이터를 Amazon S3 위치에 복사하거나 Amazon S3 위치에서 복사할 때 DataSync가 전송할 수 있는 S3 요청이 설명되어 있습니다.


| S3 요청 | DataSync에서 사용하는 방법 | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync는 순방향 슬래시(`/`)로 끝나는 모든 객체에 대해 해당 접두사로 시작하는 객체를 나열하도록 하나 이상의 `LIST`요청을 수행합니다. 이 요청은 작업 [준비](run-task.md#understand-task-execution-statuses) 단계에서 호출됩니다.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync는 작업의 [준비](run-task.md#understand-task-execution-statuses) 및 [검증](run-task.md#understand-task-execution-statuses) 단계에서 객체 메타데이터를 검색하도록 `HEAD`요청을 수행합니다. [DataSync에서 전송하는 데이터의 무결성을 확인](configure-data-verification-options.md)하는 방법에 따라 객체당 여러 `HEAD`요청이 있을 수 있습니다. | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync는 작업 [전송](run-task.md#understand-task-execution-statuses) 단계에서 객체에서 데이터를 읽도록 `GET`요청을 수행합니다. 대용량 객체에 대해 여러 `GET`요청이 있을 수 있습니다.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  [객체 태그를 복사](configure-metadata.md)하도록 작업을 구성하면 DataSync는 이러한 `GET` 요청에 따라 작업 [준비](run-task.md#understand-task-execution-statuses) 및 [전송](run-task.md#understand-task-execution-statuses) 단계에서 객체 태그 확인을 수행합니다.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync는 작업 [전송](run-task.md#understand-task-execution-statuses) 단계 중에 대상 S3 버킷에 객체와 접두사를 생성하도록 `PUT`요청을 수행합니다. DataSync는 [Amazon S3 멀티파트 업로드](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) 기능을 사용하므로 대용량 객체의 경우 여러 `PUT`요청이 있을 수 있습니다. 스토리지 비용을 최소화하려면 [수명 주기 구성]()을 사용하여 미완료 멀티파트 업로드를 중지하는 것이 좋습니다.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | 소스 객체에 태그가 있고 [객체 태그를 복사](configure-metadata.md)하도록 작업을 구성한 경우, DataSync는 해당 태그를 [전송](run-task.md#understand-task-execution-statuses)할 때 이러한 `PUT`요청을 보냅니다. | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync는 객체의 메타데이터가 변경된 경우에만 객체의 복사본을 생성하도록 `COPY`요청을 수행합니다. 이는 원래 메타데이터를 전달하지 않는 다른 서비스나 도구를 사용하여 S3 버킷에 데이터를 복사한 경우 발생할 수 있습니다.  | 

### 비용 고려 사항
<a name="create-s3-location-s3-requests-cost"></a>

DataSync는 작업을 실행할 때마다 S3 버킷에서 S3 요청을 보냅니다. 이로 인해 특정 상황에서 요금이 누적될 수 있습니다. 예제:
+ S3 버킷으로 또는 S3 버킷에서 객체를 전송하는 경우가 많습니다.
+ 많은 데이터를 전송하지 않을 수도 있지만 S3 버킷에 많은 객체가 있습니다. DataSync가 각 버킷의 객체에 대해 S3 요청을 하기 때문에 이 시나리오에서도 여전히 높은 요금이 발생할 수 있습니다.
+ S3 버킷 간에 전송을 수행하므로 DataSync는 소스와 대상에서 S3 요청을 보냅니다.

DataSync와 관련된 S3 요청 비용을 최소화하려면 다음 사항을 고려하세요.

**Topics**
+ [어떤 S3 스토리지 클래스를 사용하고 있습니까?](#create-s3-location-s3-requests-storage-classes)
+ [데이터를 얼마나 자주 전송해야 하나요?](#create-s3-location-s3-requests-recurring-transfers)

#### 어떤 S3 스토리지 클래스를 사용하고 있습니까?
<a name="create-s3-location-s3-requests-storage-classes"></a>

S3 요청 요금은 특히 객체를 아카이브하는 클래스(S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 클래스)의 경우 객체가 사용하는 Amazon S3 스토리지 클래스에 따라 달라질 수 있습니다.

다음은 DataSync를 사용할 때 스토리지 클래스가 S3 요청 요금에 영향을 미칠 수 있는 몇 가지 시나리오입니다.
+ 작업을 실행할 때마다 DataSync가 객체 메타데이터를 검색하도록 `HEAD`요청을 수행합니다. 이러한 요청으로 인해 객체를 이동하지 않더라도 요금이 발생합니다. 이러한 요청이 청구서에 미치는 영향은 객체가 사용하는 스토리지 클래스와 DataSync가 스캔하는 객체 수에 따라 달라집니다.
+ 객체를 S3 Glacier Instant Retrieval 스토리지 클래스로 이동하는 경우(직접 또는 버킷 수명 주기 구성을 통해), 이 클래스의 객체에 대한 요청은 다른 스토리지 클래스의 객체보다 비용이 많이 듭니다.
+ [소스 및 대상 위치가 완전히 동기화되었는지 확인](configure-data-verification-options.md)하도록 DataSync 작업을 구성하면 모든 스토리지 클래스(S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 제외)에서 각 객체에 대한 `GET`요청이 발생합니다.
+ `GET` 요청에 더해 S3 Standard-IA, S3 One Zone-IA 또는 S3 Glacier Instant Retrieval 스토리지 클래스의 객체에 대한 데이터 검색 비용이 발생합니다.

자세한 내용은 [Amazon S3 요금](https://aws.amazon.com/s3/pricing/)을 참조하세요.

#### 데이터를 얼마나 자주 전송해야 하나요?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

데이터를 반복적으로 이동해야 하는 경우 필요 이상으로 많은 작업을 실행하지 않는 [일정](task-scheduling.md)을 고려하세요.

전송 범위를 제한하는 것도 고려할 수 있습니다. 예를 들어 특정 접두사의 객체에 초점을 맞추거나 전송되는 [데이터를 필터링](filtering.md)하도록 DataSync를 구성할 수 있습니다. 이러한 옵션은 DataSync 작업을 실행할 때마다 발생하는 S3 요청 수를 줄이는 데 도움이 될 수 있습니다.

## Amazon S3 전송 시 객체 고려 사항
<a name="create-s3-location-considerations"></a>
+ S3 버킷에서 전송하는 경우 [S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html)를 사용하여 이동하는 객체 수를 파악합니다.
+ S3 버킷 간에 전송할 때는 DataSync 작업 [할당량](datasync-limits.md)이 적용되지 않으므로 [확장 작업 모드](choosing-task-mode.md)를 사용하는 것이 좋습니다.
+ 이름에 비표준 문자가 있는 경우 DataSync는 객체를 전송하지 않을 수 있습니다. 자세한 내용은 *Amazon S3 사용 설명서*의 [객체 키 명명 지침](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines)을 참조하세요.
+ [버전 관리](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html)를 사용하는 S3 버킷으로 DataSync를 사용할 때는 다음 사항을 기억하세요.
  + S3 버킷으로 전송할 때 DataSync는 객체가 소스에서 수정된 경우 객체의 새 버전을 생성합니다. 이로 인해 추가 요금이 발생합니다.
  + 객체의 소스 버킷과 대상 버킷에서 버전 ID가 다릅니다.
  + 각 객체의 최신 버전만 소스 버킷에서 전송됩니다. 이전 버전은 대상으로 복사되지 않습니다.
+ 처음에 S3 버킷에서 파일 시스템(예: NFS 또는 Amazon FSx)으로 데이터를 전송한 후 동일한 DataSync 작업의 후속 실행에는 수정되었지만 처음 전송할 때와 크기가 같은 객체는 포함되지 않습니다.

## Amazon S3 범용 버킷의 전송 위치 생성
<a name="create-s3-location-how-to"></a>

전송을 위한 위치를 생성하려면 기존 S3 범용 버킷이 필요합니다. 해당 버킷이 없는 경우 [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html)를 참조하세요.

**중요**  
위치를 생성하기 전에 다음 섹션을 읽어야 합니다.  
[Amazon S3 전송 시 스토리지 클래스 고려 사항](#using-storage-classes)
[DataSync 사용 시 S3 요청 비용 평가](#create-s3-location-s3-requests)

### DataSync 콘솔 사용
<a name="create-s3-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon S3**를 선택한 다음 **범용 버킷**을 선택합니다.

1. **S3 URI**에는 사용자의 위치에 사용할 버킷과 접두사를 입력하거나 선택합니다.
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. **대상으로 사용할 S3 스토리지 클래스**에서 Amazon S3가 전송 대상일 때 객체가 사용할 스토리지 클래스를 선택합니다.

   자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](#using-storage-classes) 단원을 참조하십시오.

1. **IAM 역할**에 대해 다음 중 하나를 수행합니다.
   + DataSync가 S3 버킷에 액세스하는 데 필요한 권한을 가진 IAM 역할을 자동으로 생성하도록 **자동생성**을 선택합니다.

     이전에 DataSync에서 이 S3 버킷에 대한 IAM 역할을 만든 경우, 해당 역할이 기본적으로 선택됩니다.
   + 생성한 사용자 지정 IAM 역할을 선택합니다. 자세한 내용은 [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](#create-role-manually) 단원을 참조하십시오.

1. (선택 사항) **새 태그 추가**를 선택하여 Amazon S3 위치에 태그를 지정합니다.

   태그는 리소스 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-s3-cli"></a>

1. 다음 `create-location-s3`명령을 복사합니다.

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. `--s3-bucket-arn`에서 위치로 사용할 S3 버킷의 ARN을 지정합니다.

1. `--s3-storage-class`에서 Amazon S3가 전송 대상일 때 객체가 사용할 스토리지 클래스를 지정합니다.

1. `--s3-config`에서 DataSync가 버킷에 액세스하는 데 필요한 IAM 역할의 ARN을 지정합니다.

   자세한 내용은 [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](#create-role-manually) 단원을 참조하십시오.

1. `--subdirectory`에서 DataSync가 읽거나 쓰는 S3 버킷의 접두사를 지정합니다(버킷이 소스인지 대상 위치인지에 따라 다름).
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. `create-location-s3` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

이 위치를 DataSync 작업의 소스 또는 대상으로 사용할 수 있습니다.

## S3 on Outposts 버킷의 전송 위치 생성
<a name="create-s3-location-outposts-how-to"></a>

전송을 위한 위치를 생성하려면 기존 Amazon S3 on Outposts 버킷이 필요합니다. 해당 버킷이 없는 경우 [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html)를 참조하세요.

DataSync 에이전트도 필요합니다. 자세한 내용은 [에 기본 모드 에이전트 배포 AWS Outposts](deploy-agents.md#outposts-agent) 단원을 참조하십시오.

대용량 데이터세트(예: 수십만 개 또는 수백만 개의 객체)가 포함된 S3 on Outposts 버킷 접두사에서 전송하는 경우 DataSync 작업이 시간 초과될 수 있습니다. 이를 방지하려면 전송해야 하는 정확한 객체를 지정할 수 있는 [DataSync 매니페스트](transferring-with-manifest.md)를 사용하는 것이 좋습니다.

### DataSync 콘솔 사용
<a name="create-s3-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon S3**를 선택한 다음 **Outposts 버킷**을 선택합니다.

1. **S3 버킷**에서 S3 on Outposts 버킷에 액세스할 수 있는 Amazon S3 액세스 포인트를 선택합니다.

   자세한 내용은 [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html)를 참조하세요.

1. **대상으로 사용할 S3 스토리지 클래스**에서 Amazon S3가 전송 대상일 때 객체가 사용할 스토리지 클래스를 선택합니다.

   자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](#using-storage-classes) 단원을 참조하십시오. DataSync는 기본적으로 Amazon S3 on Outposts용 S3 Outposts 스토리지 클래스를 사용합니다.

1. **에이전트**에서 Outpost의 DataSync 에이전트에 대한 Amazon 리소스 이름(ARN)을 지정합니다.

1. **폴더**에 DataSync가 읽거나 쓰는 S3 버킷의 접두사를 입력합니다(버킷이 소스인지 대상 위치인지에 따라 다름).
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. **IAM 역할**에 대해 다음 중 하나를 수행합니다.
   + DataSync가 S3 버킷에 액세스하는 데 필요한 권한을 가진 IAM 역할을 자동으로 생성하도록 **자동생성**을 선택합니다.

     이전에 DataSync에서 이 S3 버킷에 대한 IAM 역할을 만든 경우, 해당 역할이 기본적으로 선택됩니다.
   + 생성한 사용자 지정 IAM 역할을 선택합니다. 자세한 내용은 [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](#create-role-manually) 단원을 참조하십시오.

1. (선택 사항) **새 태그 추가**를 선택하여 Amazon S3 위치에 태그를 지정합니다.

   태그는 리소스 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-s3-cli"></a>

1. 다음 `create-location-s3`명령을 복사합니다.

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. `--s3-bucket-arn`에서 S3 on Outposts 버킷에 액세스할 수 있는 Amazon S3 액세스 포인트의 ARN을 선택합니다.

   자세한 내용은 [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html)를 참조하세요.

1. `--s3-storage-class`에서 Amazon S3가 전송 대상일 때 객체가 사용할 스토리지 클래스를 지정합니다.

   자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](#using-storage-classes) 단원을 참조하십시오. DataSync는 기본적으로 S3 on Outposts용 S3 Outposts 스토리지 클래스를 사용합니다.

1. `--s3-config`에서 DataSync가 버킷에 액세스하는 데 필요한 IAM 역할의 ARN을 지정합니다.

   자세한 내용은 [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](#create-role-manually) 단원을 참조하십시오.

1. `--subdirectory`에서 DataSync가 읽거나 쓰는 S3 버킷의 접두사를 지정합니다(버킷이 소스인지 대상 위치인지에 따라 다름).
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. `--agent-arns`에서 Outpost에 있는 DataSync 에이전트의 ARN을 지정합니다.

1. `create-location-s3` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

이 위치를 DataSync 작업의 소스 또는 대상으로 사용할 수 있습니다.

## 를 통한 Amazon S3 전송 AWS 계정
<a name="create-s3-location-cross-transfers"></a>

DataSync를 사용하면 [다른 AWS 계정](working-with-locations.md#working-with-locations-across-accounts)에서 데이터를 S3 버킷으로 또는 S3 버킷에서 이동할 수 있습니다. 자세한 내용은 다음 튜토리얼을 참조하세요.
+ [를 통해 온프레미스 스토리지에서 Amazon S3로 데이터 전송 AWS 계정](s3-cross-account-transfer.md)
+ [에서 Amazon S3에서 Amazon S3로 데이터 전송 AWS 계정](tutorial_s3-s3-cross-account-transfer.md)

## 상용 및 간의 Amazon S3 전송 AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

기본적으로 DataSync는 상용 및 AWS GovCloud (US) Regions의 S3 버킷 간에 전송하지 않습니다. 하지만 전송 시 S3 버킷 중 하나에 대한 객체 스토리지 위치를 생성하여 이러한 전송 유형을 설정할 수 있습니다. 에이전트를 사용하거나 사용하지 않고 이러한 유형의 전송을 수행할 수 있습니다. 에이전트를 사용하는 경우 작업을 **기본** 모드로 구성해야 합니다. 에이전트 없이 전송하려면 **확장** 모드를 사용해야 합니다.

**시작하기 전에**: 리전 간 전송으로 인한 비용 영향을 이해해야 합니다 자세한 내용은 [AWS DataSync 요금](https://aws.amazon.com/datasync/pricing/)을 참조하세요.

**Contents**
+ [DataSync에 객체 스토리지 위치의 버킷 액세스 권한 제공](#create-s3-location-govcloud-iam)
+ [DataSync 에이전트 생성(선택 사항)](#create-s3-location-govcloud-create-agent)
+ [S3 버킷의 객체 스토리지 위치 생성](#create-s3-location-govcloud-how-to)

### DataSync에 객체 스토리지 위치의 버킷 액세스 권한 제공
<a name="create-s3-location-govcloud-iam"></a>

이 전송을 위한 객체 스토리지 위치를 생성할 때 DataSync에 해당 위치의 S3 버킷에 액세스할 수 있는 권한과 함께 IAM 사용자의 자격 증명을 제공해야 합니다. 자세한 내용은 [필수 권한](#create-s3-location-required-permissions) 단원을 참조하십시오.

**주의**  
IAM 사용자는 장기 자격 증명을 가지므로 보안 위험이 있습니다. 이 위험을 줄이려면 이러한 사용자에게 작업을 수행하는 데 필요한 권한만 제공하고 더 이상 필요하지 않을 경우 이러한 사용자를 제거하는 것이 좋습니다.

### DataSync 에이전트 생성(선택 사항)
<a name="create-s3-location-govcloud-create-agent"></a>

**기본** 모드를 사용하여 전송을 실행하려면 에이전트를 사용해야 합니다. 상용 및 간에 전송하기 때문에 DataSync 에이전트를 리전 중 하나에 Amazon EC2 인스턴스로 AWS GovCloud (US) Region배포합니다. 퍼블릭 인터넷으로의 데이터 전송 요금을 방지하려면 에이전트가 VPC 서비스 엔드포인트를 사용하는 것이 좋습니다. 자세한 내용은 [Amazon EC2 Data 데이터 전송 요금](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer)을 참조하세요.

DataSync 작업을 실행하려는 리전을 기반으로 에이전트를 생성하는 방법을 설명하는 다음 시나리오 중 하나를 선택합니다.

#### 상용 리전에서 DataSync 작업을 실행하는 경우
<a name="using-datasync-in-commercial"></a>

다음 다이어그램은 DataSync 작업과 에이전트가 상용 리전에 있는 전송을 보여줍니다.

![\[AWS GovCloud (US) Region의 S3 버킷으로 리전 간 전송을 위해 상용 리전에 배포된 DataSync 에이전트입니다.\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/images/s3-task-in-commercial.png)



| 레퍼런스 | 설명 | 
| --- | --- | 
| 1 | DataSync 작업을 실행하는 상용 리전에서 소스 S3 버킷으로부터 데이터를 전송합니다. 소스 버킷은 상용 리전의 [Amazon S3 위치](#create-s3-location-how-to)로 구성됩니다. | 
| 2 | VPC 서비스 엔드포인트 및 [네트워크 인터페이스](required-network-interfaces.md)가 있는 동일한 VPC 및 서브넷에 있는 DataSync 에이전트를 통해 데이터를 전송합니다. | 
| 3 |  AWS GovCloud (US) Region의 대상 S3 버킷으로 데이터를 전송합니다. 대상 버킷은 상용 리전의 [객체 스토리지 위치](#create-s3-location-govcloud-how-to)로 구성됩니다. | 

이 동일한 설정을 사용하여 반대 방향을에서 상용 리전 AWS GovCloud (US) Region 으로 전송할 수도 있습니다.

**DataSync 에이전트를 생성하려면**

1. 상용 리전에 [Amazon EC2 에이전트를 배포](deploy-agents.md#ec2-deploy-agent-how-to)합니다.

1. [VPC 서비스 엔드포인트](choose-service-endpoint.md#datasync-in-vpc)를 사용하도록 에이전트를 구성합니다.

1. [에이전트 활성화](activate-agent.md).

#### GovCloud(미국) 리전에서 DataSync 작업을 실행하는 경우
<a name="using-datasync-in-govcloud-1"></a>

다음 다이어그램은 DataSync 작업과 에이전트가 AWS GovCloud (US) Region에 있는 전송을 보여줍니다.

![\[에 배포된 DataSync 에이전트 AWS GovCloud (US) Region 또는 동일한의 S3 버킷으로 리전 간 전송 AWS GovCloud (US) Region.\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| 레퍼런스 | 설명 | 
| --- | --- | 
| 1 | 상용 리전의 소스 S3 버킷에서 DataSync 작업을 실행하는 AWS GovCloud (US) Region 로 데이터를 전송합니다. 소스 버킷은 AWS GovCloud (US) Region에서 [객체 스토리지 위치](#create-s3-location-govcloud-how-to)로 구성됩니다. | 
| 2 | 에서 AWS GovCloud (US) Region데이터는 VPC 서비스 엔드포인트 및 [네트워크 인터페이스](required-network-interfaces.md)가 위치한 동일한 VPC 및 서브넷의 DataSync 에이전트를 통해 전송됩니다. | 
| 3 |  AWS GovCloud (US) Region의 대상 S3 버킷으로 데이터를 전송합니다. 대상 버킷은 AWS GovCloud (US) Region에서 [Amazon S3 위치](#create-s3-location-how-to)로 구성됩니다. | 

이 동일한 설정을 사용하여 반대 방향을에서 상용 리전 AWS GovCloud (US) Region 으로 전송할 수도 있습니다.

**DataSync 에이전트를 생성하려면**

1. 에[ Amazon EC2 에이전트를 배포](deploy-agents.md#ec2-deploy-agent-how-to)합니다 AWS GovCloud (US) Region.

1. [VPC 서비스 엔드포인트](choose-service-endpoint.md#datasync-in-vpc)를 사용하도록 에이전트를 구성합니다.

1. [에이전트 활성화](activate-agent.md).

데이터세트의 압축성이 높으면 AWS GovCloud (US) Region에서 작업을 실행하는 동안 상용 리전에서 에이전트를 생성하여 비용을 절감할 수 있습니다. 상용 리전에서 사용할 에이전트 준비를 포함하여 이 에이전트를 생성하는 데 평소보다 설정이 더 많습니다. 이 설정을 위한 에이전트 생성에 대한 자세한 내용은를 사용하여 안[팎 AWS GovCloud (US) 으로 데이터 이동 블로그를 참조하세요 AWS DataSync](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### S3 버킷의 객체 스토리지 위치 생성
<a name="create-s3-location-govcloud-how-to"></a>

DataSync 작업을 실행하지 않는 리전에 있는 S3 버킷의 객체 스토리지 위치가 필요합니다.

#### DataSync 콘솔 사용
<a name="create-s3-location-govcloud-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 작업을 실행하려는 리전과 동일한 리전에 있어야 합니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **객체 스토리지**를 선택합니다.

1. **에이전트**에서 이 전송을 위해 생성한 DataSync 에이전트를 선택합니다.

1. **서버**에서 다음 형식 중 하나를 사용하여 버킷의 Amazon S3 엔드포인트를 입력합니다.
   + **상용 리전 버킷:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region 버킷**: `s3.your-gov-region.amazonaws.com`

   Amazon S3 엔드포인트 목록은 *[AWS 일반 참조](https://docs.aws.amazon.com/general/latest/gr/s3.html)* 섹션을 참조하세요.

1. **버킷** 이름에서 S3 버킷의 이름을 입력합니다.

1. **폴더**에 DataSync가 읽거나 쓰는 S3 버킷의 접두사를 입력합니다(버킷이 소스인지 대상 위치인지에 따라 다름).
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. **자격 증명 필요**를 선택하고 다음을 수행합니다.
   + **액세스 키**에서 버킷에 액세스할 수 있는 [IAM 사용자](#create-s3-location-govcloud-iam)의 액세스 키를 입력합니다.
   + **보안 키**에서 동일한 IAM 사용자의 보안 키를 입력합니다.

1. (선택 사항) **태그 추가**를 선택하여 위치에 태그를 지정합니다.

   태그는 리소스 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

#### 사용 AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. 다음 `create-location-object-storage`명령을 복사합니다.

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. `--server-hostname` 파라미터에 다음 형식 중 하나를 사용하여 버킷에 대한 Amazon S3 엔드포인트를 지정합니다.
   + **상용 리전 버킷:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region 버킷**: `s3.your-gov-region.amazonaws.com`

   엔드포인트의 리전에서 작업을 실행하려는 리전과 동일한 리전을 지정해야 합니다.

   Amazon S3 엔드포인트 목록은 *[AWS 일반 참조](https://docs.aws.amazon.com/general/latest/gr/s3.html)* 섹션을 참조하세요.

1. `--bucket-name` 파라미터에서 S3 버킷의 이름을 지정합니다.

1. `--agent-arns` 파라미터에서 이 전송을 위해 생성한 DataSync 에이전트를 지정합니다.

1. `--access-key` 파라미터에서 버킷에 액세스할 수 있는 [IAM 사용자](#create-s3-location-govcloud-iam)의 액세스 키를 지정합니다.

1. `--secret-key` 파라미터에서 동일한 IAM 사용자의 보안 키를 입력합니다.

1. (선택 사항) `--subdirectory` 파라미터에서 DataSync가 읽거나 쓰는 S3 버킷의 접두사를 입력합니다(버킷이 소스인지 대상 위치인지에 따라 다름).
**주의**  
DataSync는 슬래시(`/`)로 시작하거나 `//`, `/./` 또는 `/../` 패턴을 포함하는 접두사가 있는 객체를 전송할 수 없습니다. 예제:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (선택 사항) `--tags` 파라미터에서 위치 리소스의 태그를 나타내는 키-값 페어를 지정합니다.

   태그는 리소스 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 생성하는 것이 좋습니다.

1. `create-location-object-storage` 명령을 실행합니다.

   방금 생성한 위치 ARN을 보여주는 응답을 받게 됩니다.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

이 위치를 DataSync 작업의 소스 또는 대상으로 사용할 수 있습니다. 이 전송의 다른 S3 버킷에서 [Amazon S3 위치를 생성](#create-s3-location-how-to)합니다.

## 다음 단계
<a name="create-s3-location-next-steps"></a>

몇 가지 가능한 다음 단계는 다음과 같습니다.

1. 필요한 경우 다른 위치를 생성합니다. 자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. 전송할 파일, 메타데이터 처리 방법 등 [DataSync 작업 설정을 구성](task-options.md)합니다.

1. DataSync 작업 [일정을 설정](task-scheduling.md)합니다.

1. DataSync 작업에 대한 [모니터링을 구성](monitoring-overview.md)합니다.

1. 작업을 [시작](run-task.md)합니다.

# Amazon EFS를 사용하여 AWS DataSync 전송 구성
<a name="create-efs-location"></a>

Amazon EFS 파일 시스템으로 또는 Amazon EFS 파일 시스템에서 데이터를 전송하려면 AWS DataSync 전송 *위치*를 생성해야 합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 Amazon EFS 파일 시스템 액세스 권한 제공
<a name="create-efs-location-access"></a>

[위치를 생성](#create-efs-location-how-to)하려면 DataSync가 스토리지에 액세스하는 방법을 이해해야 합니다. Amazon EFS에서 DataSync는 [네트워크 인터페이스](required-network-interfaces.md)를 사용하여 가상 프라이빗 클라우드(VPC)에서 루트 사용자로 파일 시스템을 탑재합니다.

**Contents**
+ [탑재 대상의 서브넷 및 보안 그룹 확인](#create-efs-location-mount-target)
+ [제한된 파일 시스템 액세스](#create-efs-location-iam)
  + [파일 시스템 액세스를 위한 DataSync IAM 역할 생성](#create-efs-location-iam-role)
  + [DataSync 액세스를 허용하는 파일 시스템 정책 예제](#create-efs-location-iam-policy)

### 탑재 대상의 서브넷 및 보안 그룹 확인
<a name="create-efs-location-mount-target"></a>

위치를 생성할 때 DataSync가 Amazon EFS 파일 시스템의 [탑재 대상](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) 중 하나에 연결하도록 허용하는 서브넷 및 보안 그룹을 지정합니다.

지정한 서브넷은 다음과 같이 위치해야 합니다.
+ 파일 시스템과 동일한 VPC
+ 하나 이상의 파일 시스템 탑재 대상과 동일한 가용 영역

**참고**  
파일 시스템 탑재 대상을 포함하는 서브넷을 지정할 필요가 없습니다.

지정하는 보안 그룹은 Network File System(NFS) 포트 2049에서 인바운드 트래픽을 허용해야 합니다. 탑재 대상의 보안 그룹 생성 및 업데이트에 대한 자세한 내용은 [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html)를 참조하세요.

**탑재 대상과 연결된 보안 그룹 지정**  
파일 시스템의 탑재 대상 중 하나와 연결된 보안 그룹을 지정할 수 있습니다. 네트워크 관리 관점에서 이 접근 방식을 사용하는 것이 좋습니다.

**탑재 대상과 연결되지 않은 보안 그룹 지정**  
파일 시스템의 탑재 대상 중 하나와 연결되지 않은 보안 그룹을 지정할 수도 있습니다. 그러나 이 보안 그룹은 탑재 대상의 보안 그룹과 통신할 수 있어야 합니다.  
예를 들어 보안 그룹 D(DataSync용)와 보안 그룹 M(탑재 대상영) 간의 관계를 생성하는 방법은 다음과 같습니다.  
+ 위치를 생성할 때 지정하는 보안 그룹 D에는 NFS 포트 2049에서 보안 그룹 M으로의 아웃바운드 연결을 허용하는 규칙이 있어야 합니다.
+ 탑재 대상과 연결되는 보안 그룹 M은 보안 그룹 D의 NFS 포트 2049에서 인바운드 액세스를 허용해야 합니다.

**탑재 대상의 보안 그룹을 찾으려면**

다음 지침은 DataSync가 전송에 사용할 Amazon EFS 파일 시스템 탑재 대상의 보안 그룹을 식별하는 데 도움이 될 수 있습니다.

1. 에서 다음 `describe-mount-targets` 명령을 AWS CLI실행합니다.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   이 명령은 파일 시스템의 탑재 대상에 대한 정보를 반환합니다(다음 예제 출력과 유사).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. 사용하려는 `MountTargetId` 값을 기록해 둡니다.

1. `MountTargetId`를 사용하는 다음 `describe-mount-target-security-groups` 명령을 실행하면 탑재 대상의 보안 그룹을 찾을 수 있습니다.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

[위치를 생성](#create-efs-location-how-to)할 때 이 보안 그룹을 지정합니다.

### 제한된 파일 시스템 액세스
<a name="create-efs-location-iam"></a>

DataSync는 [액세스 포인트](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) 및 [IAM 정책](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html)을 통해 액세스를 제한하는 Amazon EFS 파일 시스템으로 또는 Amazon EFS 파일 시스템에서 전송할 수 있습니다.

**참고**  
DataSync가 [사용자 자격 증명을 적용](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points)하는 액세스 포인트를 통해 대상 파일 시스템에 액세스하는 경우, [소유권을 복사](configure-metadata.md)하도록 DataSync 작업을 구성하면 소스 데이터의 POSIX 사용자 및 그룹 ID가 보존되지 않습니다. 대신 전송된 파일 및 폴더는 액세스 포인트의 사용자 및 그룹 ID로 설정됩니다. 이 경우 DataSync가 소스 및 대상 위치의 메타데이터 간 불일치를 감지하기 때문에 작업 확인이 실패합니다.

**Contents**
+ [파일 시스템 액세스를 위한 DataSync IAM 역할 생성](#create-efs-location-iam-role)
+ [DataSync 액세스를 허용하는 파일 시스템 정책 예제](#create-efs-location-iam-policy)

#### 파일 시스템 액세스를 위한 DataSync IAM 역할 생성
<a name="create-efs-location-iam-role"></a>

IAM 정책을 통해 액세스를 제한하는 Amazon EFS 파일 시스템이 있는 경우 DataSync에 파일 시스템에서 데이터를 읽거나 쓸 수 있는 권한을 제공하는 IAM 역할을 생성할 수 있습니다. 그런 다음 [파일 시스템 정책](#create-efs-location-iam-policy)에서 해당 역할을 지정해야 할 수 있습니다.

**DataSync IAM 역할을 생성하려면**

1. IAM 콘솔([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/))을 엽니다.

1. 왼쪽 탐색 창의 **액세스 관리**에서 **역할**을 선택한 다음, **역할 생성**을 선택합니다.

1. **신뢰할 수 있는 엔터티 선택** 페이지에서 **신뢰할 수 있는 엔터티 유형**으로 **사용자 지정 신뢰 정책**을 선택합니다.

1. 다음 JSON을 정책 편집기에 붙여넣습니다.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. **다음**을 선택합니다. **권한 추가** 페이지에서 **다음**을 선택합니다.

1. 역할 이름을 제공하고 **역할 생성**을 선택합니다.

[위치를 생성](#create-efs-location-how-to)할 때 이 역할을 지정합니다.

#### DataSync 액세스를 허용하는 파일 시스템 정책 예제
<a name="create-efs-location-iam-policy"></a>

다음 예제 파일 시스템 정책은 Amazon EFS 파일 시스템(정책에서 `fs-1234567890abcdef0`로 식별됨)에 대한 액세스가 제한되지만 `MyDataSyncRole`이라는 IAM 역할을 통해 DataSync에 대한 액세스를 허용하는 방법을 보여줍니다.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal` - DataSync에 파일 시스템에 대한 액세스 권한을 부여하는 [IAM 역할](#create-efs-location-iam)을 지정합니다.
+ `Action` - DataSync에 루트 액세스 권한을 부여하고 파일 시스템에서 읽고 쓸 수 있게 합니다.
+ `aws:SecureTransport` - 파일 시스템에 연결할 때 NFS 클라이언트가 TLS를 사용하도록 요구합니다.
+ `elasticfilesystem:AccessPointArn` - 특정 액세스 포인트를 통해서만 파일 시스템에 액세스할 수 있습니다.

## Amazon EFS 전송 시 네트워크 고려 사항
<a name="efs-network-considerations"></a>

DataSync와 함께 사용하는 VPC에는 기본 테넌시가 있어야 합니다. 전용 테넌시가 있는 VPC는 지원되지 않습니다.

## Amazon EFS 전송 시 성능 고려 사항
<a name="efs-considerations"></a>

Amazon EFS 파일 시스템의 처리량 모드는 전송 기간 및 전송 중 파일 시스템 성능에 영향을 미칠 수 있습니다. 다음을 고려하세요.
+ 최상의 결과를 얻으려면 탄력적 처리량 모드를 사용하는 것이 좋습니다. 탄력적 처리량 모드를 사용하지 않는 경우 전송 시간이 더 오래 걸릴 수 있습니다.
+ 버스트 처리량 모드를 사용하는 경우 DataSync가 파일 시스템 버스트 크레딧을 사용하기 때문에 파일 시스템 애플리케이션의 성능이 영향을 받을 수 있습니다.
+ [전송된 데이터를 확인하도록 DataSync를 구성](configure-data-verification-options.md)하는 방법은 파일 시스템 성능 및 데이터 액세스 비용에 영향을 미칠 수 있습니다.

자세한 내용은 *Amazon Elastic File System 사용 설명서*의 [Amazon EFS performance](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 및 [Amazon EFS 요금](https://aws.amazon.com/efs/pricing/) 페이지를 참조하세요.

## Amazon EFS 전송 위치 생성
<a name="create-efs-location-how-to"></a>

전송 위치를 생성하려면 기존 Amazon EFS 파일 시스템이 필요합니다. 파일 시스템이 없는 경우 *Amazon Elastic File System 사용 설명서*의 [Amazon EFS 시작하기](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html)를 참조하세요.

### DataSync 콘솔 사용
<a name="create-efs-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**으로 **Amazon EFS 파일 시스템**을 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **파일 시스템**에서 위치로 사용하려는 Amazon EFS 파일 시스템을 선택합니다.

1. **마운트 경로**에는 Amazon EFS 파일 시스템의 마운트 경로를 입력합니다.

   DataSync가 파일 시스템의 데이터를 읽거나 쓰는 위치를 지정합니다(소스 위치인지 대상 위치인지에 따라 다름).

   기본적으로 DataSync는 루트 디렉터리(또는 **EFS 액세스 포인트** 설정에 루트 디렉터리를 제공하는 경우 [액세스 포인트](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html))를 사용합니다. 전방향 슬래시(예: `/path/to/directory`)를 사용하여 하위 디렉터리를 지정할 수도 있습니다.

1. **서브넷**에서 DataSync가 데이터 전송 트래픽 관리를 위한 [네트워크 인터페이스](required-network-interfaces.md)를 생성하는 서브넷을 선택합니다.

   서브넷은 다음 위치에 있어야 합니다.
   + 파일 시스템과 동일한 VPC
   + 하나 이상의 파일 시스템 탑재 대상과 동일한 가용 영역.
**참고**  
파일 시스템 탑재 대상을 포함하는 서브넷을 지정할 필요가 없습니다.

1. **보안 그룹**에서 Amazon EFS 파일 시스템의 탑재 대상과 연결된 보안 그룹을 선택합니다. 보안 그룹을 두 개 이상 선택할 수 있습니다.
**참고**  
지정하는 보안 그룹은 NFS 포트 2049에서 인바운드 트래픽을 허용해야 합니다. 자세한 내용은 [탑재 대상의 서브넷 및 보안 그룹 확인](#create-efs-location-mount-target) 단원을 참조하십시오.

1. **전송 중 암호화**에서 DataSync가 파일 시스템으로 또는 파일 시스템에서 데이터를 전송할 때 Transport Layer Security(TLS) 암호화를 사용할지 여부를 선택합니다.
**참고**  
Amazon EFS 위치에 따라 액세스 포인트, IAM 역할 또는 둘 다를 구성하려면 이 설정을 활성화해야 합니다.

1. (선택 사항) **EFS 액세스 포인트**에서 DataSync가 파일 시스템을 탑재하는 데 사용할 수 있는 액세스 포인트를 선택합니다.

   자세한 내용은 [제한된 파일 시스템 액세스](#create-efs-location-iam) 단원을 참조하십시오.

1. (선택 사항) **IAM 역할**에는 DataSync가 파일 시스템에 액세스할 수 있도록 허용하는 역할을 지정합니다.

   이 역할을 생성하는 방법에 대한 자세한 내용은 [파일 시스템 액세스를 위한 DataSync IAM 역할 생성](#create-efs-location-iam-role) 섹션을 참조하세요.

1. (선택 사항) **태그 추가**를 선택하여 파일 시스템에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-efs-cli"></a>

1. 다음 `create-location-efs`명령을 복사합니다.

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. `--efs-filesystem-arn`에서, 전송할 Amazon EFS 파일 시스템의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--subdirectory`에서 파일 시스템의 탑재 경로를 지정합니다.

   DataSync가 파일 시스템의 데이터를 읽거나 쓰는 위치입니다(소스 위치인지 대상 위치인지에 따라 다름).

   기본적으로 DataSync는 루트 디렉터리(또는 사용자가 `--access-point-arn`에 루트 디렉터리를 제공하는 경우 [액세스 포인트](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html))를 사용합니다. 전방향 슬래시(예: `/path/to/directory`)를 사용하여 하위 디렉터리를 지정할 수도 있습니다.

1. `--ec2-config`에서 다음을 수행합니다.
   + `SecurityGroupArns`에서 파일 시스템의 탑재 대상과 연결된 보안 그룹의 ARN을 지정합니다. 보안 그룹을 두 개 이상 지정할 수 있습니다.
**참고**  
지정하는 보안 그룹은 NFS 포트 2049에서 인바운드 트래픽을 허용해야 합니다. 자세한 내용은 [탑재 대상의 서브넷 및 보안 그룹 확인](#create-efs-location-mount-target) 단원을 참조하십시오.
   + `SubnetArn`에서 DataSync가 데이터 전송 트래픽 관리를 위한 [네트워크 인터페이스](required-network-interfaces.md)를 생성하는 서브넷의 ARN을 지정합니다.

     서브넷은 다음 위치에 있어야 합니다.
     + 파일 시스템과 동일한 VPC
     + 하나 이상의 파일 시스템 탑재 대상과 동일한 가용 영역.
**참고**  
파일 시스템 탑재 대상을 포함하는 서브넷을 지정할 필요가 없습니다.

1. `--in-transit-encryption`에서 DataSync가 파일 시스템으로 또는 파일 시스템에서 데이터를 전송할 때 Transport Layer Security(TLS) 암호화를 사용할지 여부를 지정합니다.
**참고**  
Amazon EFS 위치에 따라 액세스 포인트, IAM 역할 또는 둘 다를 구성하려면 이것을 `TLS1_2`로 설정해야 합니다.

1. (선택 사항) `--access-point-arn`에서 DataSync가 파일 시스템을 탑재하는 데 사용할 수 있는 액세스 포인트의 ARN을 지정합니다.

   자세한 내용은 [제한된 파일 시스템 액세스](#create-efs-location-iam) 단원을 참조하십시오.

1. (선택 사항) `--file-system-access-role-arn`에서 DataSync가 파일 시스템에 액세스하도록 허용하는 IAM 역할의 ARN을 지정합니다.

   이 역할을 생성하는 방법에 대한 자세한 내용은 [파일 시스템 액세스를 위한 DataSync IAM 역할 생성](#create-efs-location-iam-role) 섹션을 참조하세요.

1. `create-location-efs` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# FSx for Windows File Server를 사용하여 전송 구성
<a name="create-fsx-location"></a>

Amazon FSx for Windows File Server 파일 시스템과의 데이터 전송을 수행하려면 AWS DataSync 전송 *위치*를 생성해야 합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 FSx for Windows File Server 파일 시스템 액세스 권한 제공
<a name="create-fsx-location-access"></a>

DataSync는 Server Message Block(SMB) 프로토콜을 사용하여 FSx for Windows File Server 파일 시스템에 연결하고 [네트워크 인터페이스](required-network-interfaces.md)를 사용하여 가상 프라이빗 클라우드(VPC)에서 파일 시스템을 탑재합니다.

**참고**  
DataSync와 함께 사용하는 VPC에는 기본 테넌시가 있어야 합니다. 전용 테넌시가 있는 VPC는 지원되지 않습니다.

**Topics**
+ [필수 권한](#create-fsx-windows-location-permissions)
+ [필요한 인증 프로토콜](#configuring-fsx-windows-authentication-protocols)
+ [DFS 네임스페이스](#configuring-fsx-windows-location-dfs)

### 필수 권한
<a name="create-fsx-windows-location-permissions"></a>

DataSync에 FSx for Windows File Server 파일, 폴더 및 파일 메타데이터를 탑재하고 액세스하는 데 필요한 권한을 제공해야 합니다.

이 사용자는 파일 시스템을 관리하기 위해 Microsoft Active Directory 그룹에 속하는 것이 좋습니다. 이 그룹의 세부 정보는 Active Directory 설정에 따라 달라집니다.
+ FSx for Windows File Server와 AWS Directory Service for Microsoft Active Directory 함께를 사용하는 경우 사용자는 **AWS 위임된 FSx 관리자** 그룹의 멤버여야 합니다.
+ FSx for Windows File Server에 자체 관리형 Active Directory를 사용하는 경우 사용자는 두 그룹 중 하나의 멤버여야 합니다.
  + 기본 위임된 관리자 그룹인 **도메인 관리자** 그룹입니다.
  + DataSync가 객체 소유권 권한 및 Windows 액세스 제어 목록(ACL)을 복사하도록 허용하는 사용자 권한이 있는 사용자 지정 위임형 관리자 그룹입니다.
**중요**  
파일 시스템이 배포된 후에는 위임된 관리자 그룹을 변경할 수 없습니다. DataSync가 메타데이터를 복사하는 데 필요한 다음 사용자 권한과 함께 사용자 지정 위임된 관리자 그룹을 사용하려면 파일 시스템을 재배포하거나 백업에서 복원해야 합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-fsx-location.html)
+ Windows ACL을 복사하고, SMB 파일 서버와 FSx for Windows File Server 파일 시스템 간에 또는 FSx for Windows File Server 파일 시스템 간에 전송하려면 DataSync를 제공하는 사용자는 동일한 Active Directory 도메인에 속하거나 도메인 간에 Active Directory 신뢰 관계가 있어야 합니다.

**주의**  
FSx for Windows File Server 파일 시스템의 SYSTEM 사용자는 파일 시스템의 모든 폴더에 대한 **전체 제어** 권한이 있어야 합니다. 폴더에서 이 사용자의 NTFS ACL 권한을 변경하지 마세요. 이 경우 DataSync는 파일 공유에 액세스할 수 없게 하고 파일 시스템 백업을 사용할 수 없게 하는 방식으로 파일 시스템의 권한을 변경할 수 있습니다. 파일 및 폴더 수준 액세스에 대한 자세한 내용은 *[Amazon FSx for Windows File Server 사용 설명서](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)*를 참조하세요.

### 필요한 인증 프로토콜
<a name="configuring-fsx-windows-authentication-protocols"></a>

DataSync에서 액세스하려면 FSx for Windows File Server가 NTLM 인증을 사용해야 합니다. DataSync는 Kerberos 인증을 사용하는 파일 서버에 액세스할 수 없습니다.

### DFS 네임스페이스
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync는 Microsoft 분산 파일 시스템(DFS) 네임스페이스를 지원하지 않습니다. DataSync 위치를 생성할 때 기본 파일 서버 또는 공유를 지정하는 것이 좋습니다.

자세한 내용은 *Amazon FSx for Windows File Server 사용 설명서*의 [Grouping multiple file systems with DFS Namespaces](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) 섹션을 참조하세요.

## FSx for Windows File Server 전송 위치 생성
<a name="create-fsx-location-how-to"></a>

시작하기 전에 AWS 리전에 기존 FSx for Windows File Server가 있는지 확인합니다. 자세한 내용은 *Amazon FSx for Windows File Server 사용 설명서*의 [Amazon FSx 시작하기](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html)를 참조하세요.

### DataSync 콘솔 사용
<a name="create-fsx-location-access-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon FSx**를 선택합니다.

1. **FSx 파일 시스템**에는 위치로 사용하려는 FSx for Windows File Server 파일 시스템을 선택합니다.

1. **공유 이름**에는 순방향 슬래시를 사용하여 FSx for Windows File Server의 마운트 경로를 입력합니다.

   이렇게 하면 DataSync가 데이터를 읽거나 쓰는 경로를 지정합니다(소스 위치인지 대상 위치인지에 따라 다름).

   하위 디렉터리도 포함할 수 있습니다(예: `/path/to/directory`).

1. **보안 그룹**에는 파일 시스템의 기본 설정 서브넷에 대한 액세스를 제공하는 Amazon EC2 보안 그룹을 최대 5개까지 선택합니다.

   선택한 보안 그룹은 파일 시스템의 보안 그룹과 통신할 수 있어야 합니다. 파일 시스템 액세스를 위한 보안 그룹 구성에 대한 자세한 내용은 [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html)를 참조하세요.
**참고**  
보안 그룹 자체 내 내부 연결을 허용하지 않는 보안 그룹을 선택한 경우 다음 중 하나를 수행합니다.  
보안 그룹 자체 내 통신을 허용하도록 보안 그룹 구성을 구성합니다.
탑재 대상의 보안 그룹과 통신할 수 있는 다른 보안 그룹을 선택합니다.

1. **사용자**에서 FSx for Windows File Server에 액세스할 수 있는 사용자 이름을 입력합니다.

   자세한 내용은 [필수 권한](#create-fsx-windows-location-permissions) 단원을 참조하십시오.

1. **암호**에서 사용자 이름의 암호를 입력합니다.

1. (선택 사항) **도메인**에서 FSx for Windows File Server 파일 시스템이 속한 Windows 도메인의 이름을 입력합니다.

   환경에 여러 Active Directory 도메인이 있는 경우 이 설정을 구성하면 DataSync가 올바른 파일 시스템에 연결되게 할 수 있습니다.

1. (선택 사항) **키**와 **값** 필드에는 FSx for Windows File Server에 태그를 지정하기 위한 값을 입력합니다.

   태그는 AWS 리소스를 관리, 필터링 및 검색하는 데 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-fsx-cli"></a>

**를 사용하여 FSx for Windows File Server 위치를 생성하려면 AWS CLI**
+ 다음 명령을 사용하여 Amazon FSx 위치를 생성합니다.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  `create-location-fsx-windows` 명령에서 다음을 수행합니다.
  + `fsx-filesystem-arn`-전송으로 주고받을 파일 시스템의 Amazon 리소스 이름(ARN)을 지정합니다.
  + `security-group-arns`-파일 시스템의 기본 설정 서브넷에 대한 액세스를 제공하는 Amazon EC2 보안 그룹 최대 5개의 ARN을 지정합니다.

    지정한 보안 그룹은 파일 시스템의 보안 그룹과 통신할 수 있어야 합니다. 파일 시스템 액세스를 위한 보안 그룹 구성에 대한 자세한 내용은 [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html)를 참조하세요.
**참고**  
보안 그룹 자체 내 내부 연결을 허용하지 않는 보안 그룹을 선택한 경우 다음 중 하나를 수행합니다.  
보안 그룹 자체 내 통신을 허용하도록 보안 그룹 구성을 구성합니다.
탑재 대상의 보안 그룹과 통신할 수 있는 다른 보안 그룹을 선택합니다.
  +  AWS 리전 - 지정하는 리전은 대상 Amazon FSx 파일 시스템이 위치한 리전입니다.

위의 명령은 다음 중 한 가지와 유사한 위치 ARN을 반환합니다.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# FSx for Lustre를 사용하여 DataSync 전송 구성
<a name="create-lustre-location"></a>

Amazon FSx for Lustre 파일 시스템으로 또는 Amazon FSx for Lustre 파일 시스템에서 데이터를 전송하려면 AWS DataSync 전송 *위치*를 생성해야 합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 FSx for Lustre 파일 시스템 액세스 권한 제공
<a name="create-lustre-location-access"></a>

DataSync는 Lustre 클라이언트를 사용하여 FSx for Lustre 파일 시스템에 액세스합니다. DataSync를 사용하려면 FSx for Lustre 파일 시스템에 있는 모든 데이터에 대한 액세스 권한이 필요합니다. DataSync는 이 액세스 수준을 갖기 위해 `0`의 사용자 ID(UID)와 그룹 ID(GID)를 사용하여 루트 사용자로 파일 시스템을 마운트합니다. 

DataSync는 [네트워크 인터페이스](required-network-interfaces.md)를 사용하여 Virtual Private Cloud(VPC)에서 파일 시스템을 마운트합니다. DataSync는 사용자를 대신하여 이러한 네트워크 인터페이스의 생성, 사용 및 삭제를 완전히 관리합니다.

**참고**  
DataSync와 함께 사용하는 VPC에는 기본 테넌시가 있어야 합니다. 전용 테넌시가 있는 VPC는 지원되지 않습니다.

## FSx for Lustre 전송 위치 생성
<a name="create-lustre-location-how-to"></a>

전송 위치를 생성하려면 기존 FSx for Lustre 파일 시스템이 필요합니다. 자세한 내용은 *Amazon FSx for Lustre 사용 설명서*의 [Amazon FSx for Lustre 시작하기](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html)를 참조하세요.

### DataSync 콘솔 사용
<a name="create-lustre-location-how-to-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon FSx**를 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **FSx 파일 시스템**에는 위치로 사용하려는 FSx for Lustre 파일 시스템을 선택합니다.

1. **마운트 경로**에는 FSx for Lustre 파일 시스템의 마운트 경로를 입력합니다.

   경로에는 하위 디렉터리가 포함될 수 있습니다. 위치가 소스로 사용되는 경우 DataSync는 마운트 경로에서 데이터를 읽습니다. 위치가 대상으로 사용되는 경우 DataSync는 모든 데이터를 마운트 경로에 씁니다. 하위 디렉터리가 제공되지 않는 경우 DataSync는 루트 디렉터리(`/`)를 사용합니다.

1. **보안 그룹**에서 FSx for Lustre 파일 시스템에 대한 액세스를 제공하는 보안 그룹을 최대 5개까지 선택합니다.

   보안 그룹은 파일 시스템의 포트에 액세스할 수 있어야 합니다. 또한 파일 시스템은 보안 그룹의 액세스를 허용해야 합니다.

   보안 그룹에 대한 자세한 내용은 *Amazon FSx for Lustre 사용 설명서*의 [Amazon VPC로 파일 시스템 액세스 제어](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html)를 참조하세요.

1. (선택 사항) **키**와 **값** 필드에는 FSx for Lustre 파일 시스템에 태그를 지정하기 위한 값을 입력합니다.

   태그는 AWS 리소스를 관리, 필터링 및 검색하는 데 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-location-lustre-cli"></a>

**를 사용하여 FSx for Lustre 위치를 생성하려면 AWS CLI**
+ 다음 명령을 사용하여 FSx for Lustre 위치를 생성합니다.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  다음 파라미터는 `create-location-fsx-lustre`명령의 필수 파라미터입니다.
  + `fsx-filesystem-arn` – 읽거나 쓰려는 파일 시스템의 정규화된 Amazon 리소스 이름(ARN)입니다.
  + `security-group-arns` – 파일 시스템의 기본 설정 서브넷의 [네트워크 인터페이스](required-network-interfaces.md)에 적용하는 Amazon EC2 보안 그룹의 ARN입니다.

위의 명령은 다음과 유사한 위치 ARN을 반환합니다.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Amazon FSx for OpenZFS를 사용하여 DataSync 전송 구성
<a name="create-openzfs-location"></a>

Amazon FSx for OpenZFS 파일 시스템으로 또는 Amazon FSx for OpenZFS 파일 시스템에서 데이터를 전송하려면 AWS DataSync 전송 *위치*를 생성해야 합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 FSx for OpenZFS 파일 시스템 액세스 권한 제공
<a name="create-openzfs-access"></a>

DataSync는 [네트워크 인터페이스](required-network-interfaces.md)를 사용하여 Virtual Private Cloud(VPC)에서 FSx for OpenZFS 파일 시스템을 마운트합니다. DataSync는 사용자를 대신하여 이러한 네트워크 인터페이스의 생성, 사용 및 삭제를 완전히 관리합니다.

**참고**  
DataSync와 함께 사용하는 VPC에는 기본 테넌시가 있어야 합니다. 전용 테넌시가 있는 VPC는 지원되지 않습니다.

## FSx for OpenZFS 파일 시스템 인증 구성
<a name="configure-openzfs-authorization"></a>

DataSync는 NFS 클라이언트로 FSx for OpenZFS 파일 시스템에 액세스하여 `0`의 사용자 ID(UID)와 그룹 ID(GID)를 사용해 루트 사용자로 파일 시스템을 마운트합니다.

DataSync가 모든 파일 메타데이터를 복사하려면(`no_root_squash`을)를 사용하여 파일 시스템 볼륨의 NFS 내보내기 설정을 구성해야 합니다. 하지만 이 액세스 수준을 특정 DataSync 작업으로만 제한할 수 있습니다.

자세한 내용을 알아보려면 *Amazon FSx for OpenZFS User Guide*(Amazon FSx for OpenZFS 사용 설명서)의 [Volume properties](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties)(볼륨 속성)를 참조하세요.

### DataSync 고유 NFS 내보내기 구성(권장)
<a name="configure-nfs-export-recommended"></a>

DataSync 작업에서만 액세스하는 각 볼륨에만 해당하는 NFS 내보내기를 구성할 수 있습니다. 이 작업은 FSx for OpenZFS 위치를 생성할 때 지정한 마운트 경로의 가장 최근 상위 볼륨에 대해 수행합니다.

**DataSync 고유 NFS 내보내기를 구성하려면**

1. [DataSync 작업](create-task-how-to.md)을 생성합니다.

   이를 통해 NFS 내보내기 설정에서 지정할 작업의 네트워크 인터페이스를 생성합니다.

1. Amazon EC2 콘솔 또는를 사용하여 작업 네트워크 인터페이스의 프라이빗 IP 주소를 찾습니다 AWS CLI.

1. FSx for OpenZFS 파일 시스템 볼륨에는 다음과 같이 각 작업의 네트워크 인터페이스의 NFS 내보내기 설정을 구성합니다.
   + **클라이언트 주소**: 네트워크 인터페이스의 프라이빗 IP 주소(예: `10.24.34.0`)를 입력합니다.
   + **NFS 옵션**: `rw,no_root_squash`를 입력합니다.

### 모든 클라이언트에 대한 NFS 내보내기 구성
<a name="configure-nfs-export-general"></a>

모든 클라이언트에 대한 루트 액세스를 허용하는 NFS 내보내기를 지정할 수 있습니다.

**모든 클라이언트에 대해 NFS 내보내기를 구성하려면**
+ FSx for OpenZFS 파일 시스템 볼륨에는 다음과 같이 NFS 내보내기 설정을 구성합니다.
  + **클라이언트 주소**: `*`를 입력합니다.
  + **NFS 옵션**: `rw,no_root_squash`를 입력합니다.

## FSx for OpenZFS 전송 위치 생성
<a name="create-openzfs-location-how-to"></a>

위치를 생성하려면 기존 FSx for OpenZFS 파일 시스템이 필요합니다. 파일 시스템이 없는 경우 *Amazon FSx for OpenZFS 사용 설명서*의 [Amazon FSx for OpenZFS 시작하기](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html)를 참조하세요.

### DataSync 콘솔 사용
<a name="create-openzfs-location-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **위치**를 선택한 다음 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon FSx**를 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **FSx 파일 시스템**에는 위치로 사용하려는 FSx for OpenZFS 파일 시스템을 선택합니다.

1. **마운트 경로**에는 FSx for OpenZFS 파일 시스템의 마운트 경로를 입력합니다.

   경로는 `/fsx`로 시작해야 하며 파일 시스템의 기존 디렉토리 경로일 수 있습니다. 위치가 소스로 사용되는 경우 DataSync는 마운트 경로에서 데이터를 읽습니다. 위치가 대상으로 사용되는 경우 DataSync는 모든 데이터를 마운트 경로에 씁니다. 하위 디렉터리가 제공되지 않는 경우 DataSync는 루트 볼륨 디렉터리(예: `/fsx`)를 사용합니다.

1. **보안 그룹**에서 FSx for OpenZFS 파일 시스템에 대한 네트워크 액세스를 제공하는 보안 그룹을 최대 5개까지 선택합니다.

   보안 그룹은 FSx for OpenZFS 파일 시스템이 사용하는 네트워크 포트에 대한 액세스를 제공해야 합니다. 파일 시스템은 보안 그룹의 네트워크 액세스를 허용해야 합니다.

   보안 그룹에 대한 자세한 내용은 *Amazon FSx for OpenZFS 사용 설명서*의 [Amazon VPC로 파일 시스템 액세스 제어](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html)를 참조하세요.

1. (선택 사항) **추가 설정**을 확장하고 **NFS 버전**으로 DataSync가 파일 서버에 액세스할 때 사용하는 NFS 버전을 선택합니다.

   기본적으로 DataSync는 NFS 버전 4.1을 사용합니다.

1. (선택 사항) **키**와 **값** 필드에는 FSx for OpenZFS 파일 시스템에 태그를 지정하기 위한 값을 입력합니다.

   태그는 위치에 대한 관리, 필터링 및 검색에 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-openzfs-location-cli"></a>

**를 사용하여 FSx for OpenZFS 위치를 생성하려면 AWS CLI**

1. 다음 `create-location-fsx-open-zfs`명령을 복사합니다.

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. 명령에서 다음 필수 옵션을 지정합니다.
   + `fsx-filesystem-arn`에 위치 파일 시스템의 정규화된 Amazon 리소스 이름(ARN)을 지정합니다. 여기에는 파일 시스템이 AWS 리전 있는 , AWS 계정및 파일 시스템 ID가 포함됩니다.
   + `security-group-arns`에 FSx for OpenZFS 파일 시스템의 기본 설정 서브넷의 [네트워크 인터페이스](required-network-interfaces.md)에 대한 액세스를 제공하는 Amazon EC2 보안 그룹의 ARN을 지정합니다. 여기에는 Amazon EC2 인스턴스 AWS 리전 가 있는 , AWS 계정및 보안 그룹 ID가 포함됩니다.

     보안 그룹에 대한 자세한 내용은 *Amazon FSx for OpenZFS 사용 설명서*의 [Amazon VPC로 파일 시스템 액세스 제어](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html)를 참조하세요.
   + `protocol`에서 DataSync가 파일 시스템에 액세스하는 데 사용하는 프로토콜을 지정합니다. (DataSync는 현재 NFS만 지원합니다.)

1.  명령을 실행합니다. 방금 생성한 위치를 보여주는 응답을 받게 됩니다.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Amazon FSx for NetApp ONTAP를 사용하여 전송 구성
<a name="create-ontap-location"></a>

Amazon FSx for NetApp ONTAP 파일 시스템으로 또는 Amazon FSx for NetApp ONTAP 파일 시스템에서 데이터를 전송하려면 AWS DataSync 전송 *위치*를 생성해야 합니다. DataSync는 이 위치를 데이터 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 FSx for ONTAP 파일 시스템 액세스 권한 제공
<a name="create-ontap-location-access"></a>

FSx for ONTAP 파일 시스템에 액세스하기 위해 DataSync는 Virtual Private Cloud(VPC)의 [네트워크 인터페이스](required-network-interfaces.md)를 사용하여 파일 시스템에 스토리지 가상 머신(SVM)을 마운트합니다. DataSync는 FSx for ONTAP 위치를 포함하는 작업을 생성할 때만 파일 시스템의 기본 설정 서브넷에서 이러한 네트워크 인터페이스를 생성합니다.

**참고**  
DataSync와 함께 사용하는 VPC에는 기본 테넌시가 있어야 합니다. 전용 테넌시가 있는 VPC는 지원되지 않습니다.

DataSync는 Network File System(NFS) 또는 Server Message Block(SMB) 프로토콜을 사용하여 FSx for ONTAP 파일 시스템의 SVM에 연결하고 데이터를 복사할 수 있습니다.

**Topics**
+ [NFS 프로토콜 사용](#create-ontap-location-supported-protocols)
+ [SMB 프로토콜 사용](#create-ontap-location-smb)
+ [지원되지 않는 프로토콜](#create-ontap-location-unsupported-protocols)
+ [올바른 프로토콜 선택](#create-ontap-location-choosing-protocol)
+ [SnapLock 볼륨 액세스](#create-ontap-location-snaplock)

### NFS 프로토콜 사용
<a name="create-ontap-location-supported-protocols"></a>

NFS 프로토콜을 사용하는 경우 DataSync는 `0`의 사용자 ID(UID) 및 그룹 ID(GID)로 `AUTH_SYS` 보안 메커니즘을 사용하여 SVM을 인증합니다.

**참고**  
DataSync는 현재 FSx for ONTAP 위치에 대해 NFS 버전 3만 지원합니다.

### SMB 프로토콜 사용
<a name="create-ontap-location-smb"></a>

SMB 프로토콜을 사용하는 경우 DataSync는 사용자가 제공한 자격 증명을 사용하여 SVM을 인증합니다.

**지원되는 SMB 버전**  
기본적으로 DataSync는 SMB 파일 서버와의 협상을 기반으로 SMB 프로토콜 버전을 자동으로 선택합니다. 특정 버전을 사용하도록 DataSync를 구성할 수도 있지만 DataSync가 SMB 파일 서버와 자동으로 협상하는 데 문제가 있는 경우에만 이렇게 하는 것이 좋습니다. 보안상의 이유로 SMB 버전 3.0.2 이상을 사용하는 것이 좋습니다.  
FSx for ONTAP 위치를 사용하여 SMB 버전을 구성하기 위한 DataSync 콘솔 및 API의 옵션 목록은 다음 표를 참조하세요.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-ontap-location.html)

**필수 권한**  
SVM의 로컬 사용자 또는 Microsoft Active Directory의 도메인 사용자가 파일, 폴더 및 파일 메타데이터를 탑재하고 액세스하는 데 필요한 권한을 DataSync에 제공해야 합니다.  
Active Directory에서 사용자를 제공하는 경우, 다음 사항에 유의하세요.  
+  AWS Directory Service for Microsoft Active Directory를 사용하는 경우 사용자는 **AWS 위임된 FSx 관리자** 그룹의 멤버여야 합니다.
+ 자체 관리형 Active Directory를 사용하는 경우 사용자는 두 그룹 중 하나의 멤버여야 합니다.
  + 기본 위임된 관리자 그룹인 **도메인 관리자** 그룹입니다.
  + DataSync가 객체 소유권 권한 및 Windows 액세스 제어 목록(ACL)을 복사하도록 허용하는 사용자 권한이 있는 사용자 지정 위임형 관리자 그룹입니다.
**중요**  
파일 시스템이 배포된 후에는 위임된 관리자 그룹을 변경할 수 없습니다. DataSync가 메타데이터를 복사하는 데 필요한 다음 사용자 권한과 함께 사용자 지정 위임된 관리자 그룹을 사용하려면 파일 시스템을 재배포하거나 백업에서 복원해야 합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/create-ontap-location.html)
+ Windows ACL을 복사하고, SMB를 사용하는 FSx for ONTAP 파일 시스템(또는 SMB를 사용하는 다른 파일 시스템 유형) 간에 전송하려면 DataSync를 제공하는 사용자는 동일한 Active Directory 도메인에 속하거나 도메인 간에 Active Directory 신뢰 관계가 있어야 합니다.

**필요한 인증 프로토콜**  
DataSync에서 SMB 공유에 액세스하려면 FSx for ONTAP 파일 시스템이 반드시 NTLM 인증을 사용해야 합니다. DataSync는 Kerberos 인증을 사용하는 FSx for ONTAP 파일 서버에 액세스할 수 없습니다.

**DFS 네임스페이스**  
DataSync는 Microsoft 분산 파일 시스템(DFS) 네임스페이스를 지원하지 않습니다. DataSync 위치를 생성할 때 기본 파일 서버 또는 공유를 지정하는 것이 좋습니다.

### 지원되지 않는 프로토콜
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync는 iSCSI(Internet Small Computer Systems Interface) 프로토콜을 사용하여 FSx for ONTAP 파일 시스템에 액세스할 수 없습니다.

### 올바른 프로토콜 선택
<a name="create-ontap-location-choosing-protocol"></a>

FSx for ONTAP 마이그레이의에서 파일 메타데이터를 보존하려면 DataSync 소스 및 대상 위치가 동일한 프로토콜을 사용하도록 구성하세요. 지원되는 프로토콜 사이에서 SMB는 메타데이터를 가장 높은 충실도로 보존합니다(자세한 내용은 [DataSync가 파일 및 객체 메타데이터를 처리하는 방법 이해](metadata-copied.md)참조).

NFS를 통해 사용자에게 서비스를 제공하는 Unix(Linux) 서버 또는 네트워크 연결 스토리지(NAS) 공유에서 마이그레이션할 때는 다음을 수행하세요.

1. Unix(Linux) 서버 또는 NAS 공유를 위한 [NFS 위치를 생성](create-nfs-location.md)합니다. (여기가 소스 위치가 됩니다.)

1. [Unix 보안 스타일](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style)을 사용하여 데이터를 전송하는 FSx for ONTAP 볼륨을 구성합니다.

1. NFS용으로 구성된 FSx for ONTAP 파일 시스템에 위치를 생성합니다. (여기가 대상 위치가 됩니다.)

SMB를 통해 사용자에게 서비스를 제공하는 Windows 서버 또는 NAS 공유에서 마이그레이션할 때는 다음을 수행하세요.

1. Windows 서버 또는 NAS 공유를 위한 [SMB 위치를 생성](create-smb-location.md)합니다. (여기가 소스 위치가 됩니다.)

1. [NTFS 보안 스타일](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style)을 사용하여 데이터를 전송하는 FSx for ONTAP 볼륨을 구성합니다.

1. SMB용으로 구성된 FSx for ONTAP 파일 시스템에 위치를 생성합니다. (여기가 대상 위치가 됩니다.)

FSx for ONTAP 환경에서 여러 프로토콜을 사용하는 경우 AWS 스토리지 전문가와 협력하는 것이 좋습니다. 멀티프로토콜 액세스의 모범 사례에 대해 알아보려면 [Amazon FSx for NetApp ONTAP를 사용하여 멀티프로토콜 워크로드 활성화](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/)를 참조하세요.

### SnapLock 볼륨 액세스
<a name="create-ontap-location-snaplock"></a>

FSx for ONTAP 파일 시스템의 [SnapLock 볼륨](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html)으로 데이터를 전송하는 경우 전송 중 볼륨에서 SnapLock 설정 **자동 커밋** 및 **볼륨 추가 모드**가 비활성화되어 있는지 확인합니다. 데이터 전송이 완료되면 이러한 설정을 다시 활성화할 수 있습니다.

## FSx for ONTAP 전송 위치 생성
<a name="create-ontap-location-how-to"></a>

위치를 생성하려면 기존 FSx for ONTAP 파일 시스템이 필요합니다. 파일 시스템이 없는 경우 *Amazon FSx for NetApp ONTAP 사용 설명서*의 [Amazon FSx for NetApp ONTAP 시작하기](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html)를 참조하세요.

### DataSync 콘솔 사용
<a name="create-ontap-location-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **Amazon FSx**를 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **FSx 파일 시스템**에는 위치로 사용하려는 FSx for ONTAP 파일 시스템을 선택합니다.

1. **스토리지 가상 머신**에서는 데이터를 복사하려는 파일 시스템의 스토리지 가상 머신(SVM)을 선택합니다.

1. **마운트 경로**에는 데이터를 복사할 SVM의 파일 공유 경로를 지정합니다.

   정션 경로(탑재 지점이라고도 함), qtree 경로(NFS 파일 공유의 경우) 또는 공유 이름(SMB 파일 공유의 경우)을 지정할 수 있습니다. 예를 들어, 탑재 경로는 `/vol1`, `/vol1/tree1`또는 `/share1`일 수 있습니다.
**작은 정보**  
SVM의 루트 볼륨에 경로를 지정하지 않습니다. 자세한 설명은 *Amazon FSx for NetApp ONTAP User Guide*(Amazon FSx for NetApp ONTAP 사용자 가이드)의 [Managing FSx for ONTAP storage virtual machines](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html)(FSx for ONTAP 스토리지 가상 머신 관리)를 참조하세요.

1. **보안 그룹**에는 파일 시스템의 기본 설정 서브넷에 대한 액세스를 제공하는 Amazon EC2 보안 그룹을 최대 5개까지 선택합니다.

   보안 그룹은 다음 포트에서 아웃바운드 트래픽을 허용해야 합니다(사용 중인 프로토콜에 따라 다름).
   + **NFS** - TCP 포트 111, 635 및 2049 
   + **SMB** - TCP 포트 445

   파일 시스템의 보안 그룹은 동일한 포트에서 인바운드 트래픽도 허용해야 합니다.

1. **프로토콜**에는 DataSync가 파일 시스템의 SVM에 액세스하는 데 사용하는 데이터 전송 프로토콜을 선택합니다.

   자세한 설명은 [올바른 프로토콜 선택](#create-ontap-location-choosing-protocol)섹션을 참조하세요.

------
#### [ NFS ]

   DataSync는 NFS 버전 3을 사용합니다.

------
#### [ SMB ]

   SVM에 액세스하려면 SMB 버전, 사용자, 암호, Active Directory 도메인 이름(필요한 경우)을 구성합니다.
   + (선택 사항) **추가 설정**을 확장하고 DataSync가 SVM에 액세스할 때 사용할 **SMB 버전**을 선택합니다.

     기본적으로 DataSync는 SMB 파일 서버와의 협상을 기반으로 버전을 자동으로 선택합니다. 자세한 내용은 [SMB 프로토콜 사용](#create-ontap-location-smb) 단원을 참조하십시오.
   + **사용자**에서 SVM에서 전송할 파일, 폴더, 메타데이터를 탑재하고 이에 액세스할 수 있는 사용자 이름을 입력합니다.

     자세한 내용은 [SMB 프로토콜 사용](#create-ontap-location-smb) 단원을 참조하십시오.
   + **암호**에서 SVM에 액세스할 수 있다고 지정한 사용자의 암호를 입력합니다.
   + (선택 사항) **Active Directory 도메인 이름**에 SVM이 속한 Active Directory의 정규화된 도메인 이름(FQDN)을 입력합니다.

     환경에 여러 도메인이 있는 경우 이 설정을 구성하면 DataSync가 올바른 SVM에 연결되게 할 수 있습니다.

------

1. (선택 사항) **키**와 **값** 필드에는 FSx for ONTAP 파일 시스템에 태그를 지정하기 위한 값을 입력합니다.

   태그는 AWS 리소스를 관리, 필터링 및 검색하는 데 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="create-ontap-location-cli"></a>

**를 사용하여 FSx for ONTAP 위치를 생성하려면 AWS CLI**

1. 다음 `create-location-fsx-ontap`명령을 복사합니다.

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. 명령에서 다음 필수 옵션을 지정합니다.
   + `storage-virtual-machine-arn`에 데이터를 복사하려는 파일 시스템에서 스토리지 가상 머신(SVM)의 정규화된 Amazon 리소스 이름(ARN)을 지정합니다.

     이 ARN에는 파일 시스템이 AWS 리전 있는 , AWS 계정및 파일 시스템 및 SVM IDs 포함됩니다.
   + `security-group-arns`에 파일 시스템의 기본 설정 서브넷의 [네트워크 인터페이스](required-network-interfaces.md)에 대한 액세스를 제공하는 Amazon EC2 보안 그룹의 ARN을 지정합니다.

     여기에는 Amazon EC2 인스턴스 AWS 리전 가 상주하는 , AWS 계정및 보안 그룹 IDs 포함됩니다. 보안 그룹에서 최대 5개의 보안 그룹 ARN을 지정할 수 있습니다.

     보안 그룹에 대한 자세한 내용은 *Amazon FSx for NetApp ONTAP 사용 설명서*의 [Amazon VPC로 파일 시스템 액세스 제어](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html)를 참조하세요.
   + `protocol`에 DataSync가 파일 시스템의 SVM에 액세스하는 데 사용하는 프로토콜을 구성합니다.
     + NFS의 경우, 기본 구성을 사용할 수 있습니다.

       `--protocol NFS={}`
     + SMB의 경우, SVM에 액세스할 수 있는 사용자 이름과 암호를 지정해야 합니다.

       `--protocol SMB={User=smb-user,Password=smb-password}`

1.  명령을 실행합니다.

   방금 생성한 위치를 보여주는 응답을 받게 됩니다.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# 를 사용하여 다른 클라우드 스토리지로 또는 다른 클라우드 스토리지에서 전송 AWS DataSync
<a name="transferring-other-cloud-storage"></a>

 AWS DataSync를 사용하면 다른 클라우드 공급자와 AWS 스토리지 서비스 간에 데이터를 전송할 수 있습니다. 자세한 내용은 [Where can I transfer my data with DataSync?](working-with-locations.md) 섹션을 참조하세요.

**Topics**
+ [타사 클라우드 스토리지 시스템과 전송 계획](third-party-cloud-transfer-considerations.md)
+ [Google Cloud Storage를 사용하여 AWS DataSync 전송 구성](tutorial_transfer-google-cloud-storage.md)
+ [Microsoft Azure Blob Storage를 사용하여 전송 구성](creating-azure-blob-location.md)
+ [Microsoft Azure Files SMB 공유를 사용하여 AWS DataSync 전송 구성](transferring-azure-files.md)
+ [다른 클라우드 객체 스토리지를 사용한 전송 구성](creating-other-cloud-object-location.md)

# 타사 클라우드 스토리지 시스템과 전송 계획
<a name="third-party-cloud-transfer-considerations"></a>

클라우드 간 데이터 전송을 계획할 때는 다음 사항을 고려하세요.
+ **에이전트 사용:** 에이전트는 기본 모드 작업을 사용할 때 다른 클라우드의 스토리지에 액세스하기 위해서만 필요합니다. [확장 모드 작업](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html)에는 에이전트가 필요하지 않습니다. 에이전트를 사용하기로 결정한 경우 클라우드 공급자의 S3 호환 객체 스토리지에서 전송 시 [Amazon EC2 인스턴스](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent)로서 배포할 수 있으며, 해당 특정 스토리지 서비스에서 전송 시 Google Compute Engine 또는 Azure Virtual Machine으로 각각 배포할 수 있습니다. Google 및 Azure의 파일 시스템에서 전송 시 에이전트를 Google 또는 Azure VM으로 배포하여 에이전트를 파일 시스템에 최대한 가까이 두는 것이 좋습니다. 또한 DataSync는 에이전트의 데이터를 로 압축 AWS하므로 송신 비용을 줄이는 데 도움이 될 수 있습니다. DataSync는 필요한 [Amazon S3 API 호환성](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access)을 제공하는 [검증된 클라우드 위치](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html) 목록을 제공합니다.
+ **다른 클라우드의 객체 스토리지 엔드포인트:** 타사 클라우드 공급자의 스토리지 엔드포인트는 일반적으로 리전 또는 계정별로 다릅니다. 리전 엔드포인트는 지정된 버킷 이름과 함께 DataSync 객체 스토리지 위치의 서버로 사용됩니다.
+ **소스 객체의 스토리지 클래스:** Amazon S3와 마찬가지로 일부 클라우드 공급자는 아카이브 계층을 지원하며, 아카이브된 객체에 액세스하려면 먼저 복원을 거쳐야 합니다. 예를 들어 Azure Blob 아카이브 계층의 객체는 데이터 전송 전에 표준 액세스를 위해 검색해야 합니다. Google Cloud Storage 아카이브 계층의 객체는 즉시 액세스할 수 있고 복원이 필요하지 않지만, 아카이브 계층에 직접 액세스할 경우 검색 비용이 발생합니다. 데이터 전송을 시작하기 전에 클라우드 간 스토리지 클래스 설명서를 검토하여 액세스 요구 사항 및 검색 요금을 확인합니다. Amazon S3에 아카이브된 객체를 복원하는 방법에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [아카이브된 객체 복원](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html)을 참조하세요.
+ **객체 스토리지 액세스:** 타사 클라우드 공급자 간에 데이터를 전송하려면 인증 키 형태로 다른 클라우드의 객체 스토리지에 액세스해야 합니다. 예를 들어 Google Cloud Storage에 대한 액세스를 제공하려면 DataSync 객체 스토리지 위치를 구성하여, [Google Cloud Storage XML API](https://cloud.google.com/storage/docs/xml-api/overview)에 연결하고, 서비스 계정에 대한 [해시 기반 메시지 인증 코드(HMAC) 키](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key)를 사용하여 인증합니다. Azure Blob 스토리지의 경우, 전용 [Azure Blob DataSync 위치](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to)를 구성하여 [SAS 토큰](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access)을 사용하여 인증합니다. DataSync는 AWS Secrets Manager 를 사용하여 객체 스토리지 자격 증명을 안전하게 저장합니다. 자세한 내용은 [스토리지 위치 자격 증명 생성](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.
+ **객체 태그 지원:**
  + Amazon S3와 달리, 모든 클라우드 공급자가 [객체 태그](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html)를 지원하지는 않습니다. 클라우드 공급자가 Amazon S3 API를 통해 객체 태그를 지원하지 않거나 제공한 자격 증명이 태그를 검색하기에 충분하지 않은 경우, 소스 위치에서 태그를 읽으려고 시도하는 과정에서 DataSync 작업이 실패할 수 있습니다. 객체 태그를 지원하지 않거나 사용자가 태그를 유지하지 않으려는 경우 DataSync는 전송 중에 [객체 태그 읽기 및 복사](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags)를 비활성화할 수 있는 작업 옵션을 제공합니다. 클라우드 공급자 설명서를 검토하여 객체 태그가 지원되는지 확인하고 전송을 시작하기 전에 전송 작업의 객체 태그 설정을 확인합니다.
  + Amazon S3 API를 사용하여 클라우드 공급자가 `get-object-tagging` 요청을 반환하는지 확인할 수 있습니다. 자세한 내용은 *AWS CLI 명령 레퍼런스*의 [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html)을 참조하세요.

    객체 태그를 지원하는 클라우드 공급자는 다음 예시와 유사한 응답을 반환합니다.

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    `get-object-tagging`을 지원하지 않는 클라우드 공급자는 다음 메시지를 반환합니다.

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **요청 및 데이터 송신 관련 비용:** 클라우드 객체 스토리지에서 데이터 전송 시, 데이터 읽기 및 데이터 전송과 관련된 [요청 및 송신 비용](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs)이 발생합니다. 요청 요금은 클라우드 공급자별로 다르며, 해당하는 경우 스토리지 클래스별로 다릅니다. 읽으려는 스토리지 클래스와 관련된 요청의 특정 비용에 대해서는 클라우드 공급자 설명서를 참조하세요. DataSync가 데이터 전송에 부과하는 요청 요금에 대한 개요는 [ DataSync 사용 시 S3 요청 비용 평가](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) 및 [AWS DataSync 요금](https://aws.amazon.com/datasync/pricing/)을 참조하세요. 특정 클라우드 공급자에게서 데이터를 전송하면 송신 요금이 발생합니다. 데이터 전송 비용은 클라우드 공급자마다 다르며 데이터가 저장되는 리전에 따라 달라집니다.
+ **객체 스토리지 요청 속도:** 클라우드 공급자는 객체 스토리지 플랫폼에 대해 다양한 성능 및 요청 속도 특성을 가집니다. 다른 클라우드 공급자의 요청 속도를 검토하고 요청 제한이 어디에 적용되는지 확인합니다. 여러 에이전트로 구성된 고도로 병렬화된 전송을 미리 계획할 때 특정 파티셔닝 또는 성능 향상이 필요할 수 있다는 점을 고려합니다.

  Amazon S3에는 솔루션 구축 시 참고할 수 있는 요청 속도가 문서화되어 제공됩니다. Amazon S3 요청 속도는 파티셔닝된 접두사별로 적용되며, 여러 접두사에 걸쳐 확장 가능합니다. 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [모범 사례 설계 패턴: Amazon S3 성능 최적화](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html)를 참조하세요.

# Google Cloud Storage를 사용하여 AWS DataSync 전송 구성
<a name="tutorial_transfer-google-cloud-storage"></a>

를 사용하면 Google Cloud Storage와 다음 AWS 스토리지 서비스 간에 데이터를 전송할 AWS DataSync수 있습니다.
+ Amazon S3
+ Amazon EFS
+ Amazon FSx for Windows File Server
+ Amazon FSx for Lustre
+ Amazon FSx for OpenZFS
+ Amazon FSx for NetApp ONTAP

전송 설정을 시작하려면 Google Cloud Storage의 위치를 생성합니다. 이 위치를 전송의 소스 또는 대상으로 사용할 수 있습니다. DataSync 에이전트는 Google Cloud Storage와 Amazon EFS 간에, 또는 Amazon FSx 간에 데이터를 전송하는 경우나 **기본 모드** 작업을 사용하는 경우에만 필요합니다. Google Cloud Storage와 Amazon S3 간 **확장 모드** 데이터 전송에는 에이전트가 필요하지 않습니다.

**참고**  
Google Cloud Storage와 간의 프라이빗 클라우드 연결을 위해 에이전트와 함께 기본 모드를 AWS사용합니다.

## 개요
<a name="transfer-google-cloud-storage-overview"></a>

DataSync는 데이터 전송에 [Google Cloud Storage XML API](https://cloud.google.com/storage/docs/xml-api/overview)를 사용합니다. 이 API는 Google Cloud Storage 버킷을 사용하여 데이터를 읽고 쓸 수 있는 Amazon S3 호환 인터페이스를 제공합니다.

전송에 기본 모드를 사용하는 경우 Google Cloud Storage 또는 Amazon VPC에 에이전트를 배포할 수 있습니다.

------
#### [ Agent in Google Cloud ]

1. Google Cloud 환경에 DataSync 에이전트를 배포합니다.

1. 에이전트는 해시 기반 메시지 인증 코드(HMAC) 키를 사용하여 Google Cloud Storage 버킷을 읽습니다.

1. Google Cloud Storage 버킷의 객체는 퍼블릭 엔드포인트를 사용하여 TLS 1.3 AWS 클라우드 을 통해 로 안전하게 전송됩니다.

1. DataSync 서비스는 S3 버킷에 데이터를 씁니다.

다음 다이어그램에서 전송을 보여 줍니다.

![\[DataSync 전송의 예제는 객체 데이터가 Google Cloud Storage 버킷에서 S3 버킷으로 전송되는 방법을 보여줍니다. 먼저 DataSync 에이전트가 Google 클라우드 환경에 배포됩니다. 그런 다음 DataSync 에이전트는 Google Cloud Storage 버킷을 읽습니다. 데이터는 퍼블릭 엔드포인트를 통해 로 안전하게 이동하며 AWS, 여기서 DataSync는 DataSync를 사용하는 AWS 리전 동일한의 S3 버킷에 객체를 씁니다.\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. DataSync 에이전트를 사용자 AWS 환경의 Virtual Private Cloud(VPC)에 배포합니다. 

1. 에이전트는 해시 기반 메시지 인증 코드(HMAC) 키를 사용하여 Google Cloud Storage 버킷을 읽습니다.

1. Google Cloud Storage 버킷의 객체는 프라이빗 VPC 엔드포인트를 사용하여 TLS 1.3 AWS 클라우드 을 통해 로 안전하게 전송됩니다.

1. DataSync 서비스는 S3 버킷에 데이터를 씁니다.

다음 다이어그램에서 전송을 보여 줍니다.

![\[DataSync 전송의 예제는 객체 데이터가 Google Cloud Storage 버킷에서 S3 버킷으로 전송되는 방법을 보여줍니다. 먼저 DataSync 에이전트가 VPC에 배포됩니다. AWS그런 다음 DataSync 에이전트는 Google Cloud Storage 버킷을 읽습니다. 데이터는 VPC 엔드포인트를 통해 로 안전하게 이동하며 AWS, 여기서 DataSync는 VPC AWS 리전 와 동일한의 S3 버킷에 객체를 씁니다.\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## 비용
<a name="transfer-google-cloud-storage-cost"></a>

이 마이그레이션과 관련된 수수료에는 다음이 포함됩니다.
+ Google [컴퓨팅 엔진](https://cloud.google.com/compute/all-pricing) 가상 머신 인스턴스 실행(Google 클라우드에 사용자 DataSync 에이전트를 배포하는 경우)
+ [Amazon EC2](https://aws.amazon.com/ec2/pricing/) 인스턴스 실행(사용자 DataSync 에이전트를 AWS내부 VPC에 배포하는 경우)
+ [DataSync](https://aws.amazon.com/datasync/pricing/)를 사용하여 데이터 전송. 여기에는 [Google Cloud Storage](https://cloud.google.com/storage/pricing) 및 [Amazon S3](create-s3-location.md#create-s3-location-s3-requests)와 관련된 요청 요금이 포함됩니다(S3가 사용자 전송 위치인 경우) 
+ [Google Cloud Storage](https://cloud.google.com/storage/pricing) 밖으로 데이터 전송
+ [Amazon S3](https://aws.amazon.com/s3/pricing/)에 데이터 저장

## 사전 조건
<a name="transfer-google-cloud-storage-prerequisites"></a>

아직 다음 사항을 수행하지 않았다면 시작하기 전에 이를 수행합니다.
+  AWS(으)로 전송하려는 객체가 포함된 [Google Cloud Storage 버킷을 생성](https://cloud.google.com/storage/docs/creating-buckets)합니다.
+ [AWS 계정에 로그인 합니다](https://portal.aws.amazon.com/billing/signup)
+ 객체가 AWS에 들어오면 저장할 수 있는 [Amazon S3 버킷](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html)을 생성합니다.

## Google Cloud Storage 버킷에 HMAC 키 생성
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync는 Google 서비스 계정과 연결된 HMAC 키를 사용하여 데이터를 전송하는 버킷을 인증하고 이를 읽습니다. (HMAC 키를 만드는 방법에 대한 자세한 지침은 [Google Cloud Storage 설명서](https://cloud.google.com/storage/docs/authentication/hmackeys)를 참조하세요.)

**HMAC 키 생성**

1. Google 서비스 계정용 HMAC 키를 만드세요.

1. Google 서비스 계정에 최소한 `Storage Object Viewer`권한이 있는지 확인하세요.

1. HMAC 키 액세스 ID와 비밀 번호를 안전한 위치에 저장합니다.

   이러한 항목은 나중에 DataSync 소스 위치를 구성하는 데 필요합니다.

## 2단계: 사용자 네트워크 구성
<a name="transfer-google-cloud-storage-configure-network"></a>

네트워크 구성은 전송 시 DataSync 에이전트를 사용하는 경우에만 필요합니다. 마이그레이션에 필요한 네트워크 요구 사항은 사용자가 선택한 에이전트 배포 위치에 따라 달라집니다.

### 구글 클라우드의 DataSync 에이전트의 경우
<a name="transfer-google-cloud-storage-configure-public"></a>

Google Cloud에서 DataSync 에이전트를 호스팅하려면 [DataSync가 퍼블릭 엔드포인트를 통해 전송을 할 수 있도록](datasync-network.md#using-public-endpoints) 네트워크를 구성합니다.

### VPC의 DataSync 에이전트용
<a name="transfer-google-cloud-storage-configure-vpc"></a>

에이전트를 호스팅하려면 인터페이스 엔드포인트가 있는 VPC가 AWS필요합니다. DataSync는 VPC 엔드포인트를 사용하여 전송을 용이하게 합니다.

**VPC 엔드포인트에 맞게 네트워크를 구성하려면**

1. VPC가 없는 경우 S3 버킷 AWS 리전 과 동일한에 [VPC를 생성합니다](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC).

1. [VPC용 프라이빗 서브넷을 생성합니다.](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html)

1. DataSync에 대한 [VPC 엔드포인트를 생성](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html)합니다.

1. [DataSync가 VPC 서비스 엔드포인트를 통해 전송을 허용하도록](datasync-network.md#using-vpc-endpoint) 사용자 네트워크를 구성합니다.

   이렇게 하려면 VPC 서비스 엔드포인트와 연결된 [보안 그룹](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html)을 수정합니다.

## 3단계: DataSync 에이전트 생성(선택 사항)
<a name="transfer-google-cloud-storage-create-agent"></a>

DataSync 에이전트는 **기본** 모드 작업을 사용할 때만 필요합니다. **확장** 모드를 사용하여 GCS(Google Cloud Storage)와 Amazon S3 간에 전송하는 경우 에이전트가 필요하지 않습니다. **기본** 모드를 사용하려면 GCS 버킷에 액세스할 수 있는 DataSync 에이전트가 필요합니다.

### Google Cloud의 경우
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

이 시나리오에서 DataSync 에이전트는 Google Cloud 환경에서 실행됩니다.

**시작하기 전**: [Google 클라우드 CLI를 설치합니다](https://cloud.google.com/sdk/docs/install).

**Google 클라우드용 에이전트를 생성하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **에이전트**를 선택한 다음, **에이전트 생성**을 선택합니다.

1. **하이퍼바이저의** 경우 **VMware ESXi**를 선택한 다음 **이미지 다운로드**를 선택하여 에이전트가 포함된 `.zip` 파일을 다운로드합니다.

1. 터미널을 엽니다. 다음 명령을 실행하여 이미지의 압축을 풉니다.

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. 다음 명령을 실행하여 `aws-datasync`로 시작하는 에이전트 `.ova`파일의 내용을 추출합니다.

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. 다음 Google Cloud CLI 명령어를 실행하여 에이전트의 `.vmdk`파일을 Google Cloud로 가져옵니다.

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**참고**  
`.vmdk`파일을 가져오는 데 최대 2시간이 걸릴 수 있습니다.

1. 방금 가져온 에이전트 이미지의 VM 인스턴스를 만들고 시작합니다.

   인스턴스에는 다음과 같은 에이전트 구성이 필요합니다. (인스턴스를 만드는 방법에 대한 자세한 지침은 [Google Cloud Compute Engine 설명서](https://cloud.google.com/compute/docs/instances)를 참조하세요.)
   + 머신 유형은 다음 중 하나를 선택합니다.
     + **e2-standard-8** - 최대 2천만 개의 객체를 처리하는 DataSync 작업 실행.
     + **e2-standard-16** - 2천만 개 이상의 객체를 처리하는 DataSync 작업 실행.
   + 부팅 디스크 설정은 커스텀 이미지 섹션으로 갑니다. 그런 다음 방금 가져온 DataSync 에이전트 이미지를 선택합니다.
   + 서비스 계정 설정에서 Google 서비스 계정([1단계에서 사용한(](#transfer-google-cloud-storage-create-hmac-key)와)과 동일한 계정)을 선택합니다.
   + 방화벽 설정에서 HTTP(포트 80) 트래픽을 허용하는 옵션을 선택합니다.

     DataSync 에이전트를 활성화하려면 에이전트에 포트 80이 열려 있어야 합니다. 이 포트는 공개적으로 액세스 되지 않아도 됩니다. 활성화되면 DataSync는 포트를 닫습니다.

1. VM 인스턴스를 실행한 후 해당 퍼블릭 IP 주소를 메모해 둡니다.

   에이전트를 활성화하려면 이 IP 주소가 필요합니다.

1. DataSync 콘솔로 되돌아 갑니다. 에이전트 이미지를 다운로드한 **에이전트 생성** 화면에서 다음을 수행하여 에이전트를 활성화합니다.
   + **엔드포인트 유형**에서 공용 서비스 엔드포인트 옵션(예: **미국 동부 오하이오의 공공 서비스 엔드포인트**)을 선택합니다.
   + **활성화 키**서 **에이전트로부터 자동으로 활성화 키 받기**를 선택합니다.
   + **에이전트 주소**에는 방금 생성한 에이전트 VM 인스턴스의 퍼블릭 IP 주소를 입력합니다.
   + **Get key**를 선택합니다.

1. 에이전트 이름을 입력한 다음 **에이전트 생성**을 선택합니다.

에이전트가 온라인 상태이며 데이터를 전송할 준비가 되어 있습니다.

### VPC의 경우
<a name="transfer-google-cloud-storage-deploy-agent"></a>

이 시나리오에서 에이전트는와 연결된 VPC에서 Amazon EC2 인스턴스로 실행됩니다 AWS 계정.

**시작하기 전**:([AWS Command Line InterfaceAWS CLI)를 설정하세요.](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html)

**VPC용 에이전트를 만들려면**

1. 터미널을 엽니다. S3 버킷과 연결된 계정을 사용하도록 AWS CLI 프로필을 구성해야 합니다.

1. 다음 명령을 복사합니다. `vpc-region`을 사용자 VPC가 있는 AWS 리전 로 바꿉니다(예, `us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1.  명령을 실행합니다. 출력에 표시된 `"Value"`속성을 메모해 둡니다.

   이 값은 사용자가 지정한 리전의 DataSync Amazon Machine Image(AMI) ID입니다. 예를 들어 AMI ID는 `ami-1234567890abcdef0`과 같을 수 있습니다.

1. 다음 URL을 복사합니다. 다시 한번, `vpc-region`을 사용자 VPC가 있는 AWS 리전 로 바꿉니다. `ami-id`을 이전 단계에서 기록한 AMI ID로 바꿉니다.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. 브라우저에 URL을 붙여 넣습니다.

   의 Amazon EC2 인스턴스 시작 페이지가 AWS Management Console 표시됩니다.

1. **인스턴스 유형**에서 [DataSync 에이전트용 권장 Amazon EC2 인스턴스](agent-requirements.md#ec2-instance-types) 중 하나를 선택합니다.

1. **키 페어 이름**에서 기존 키 페어를 선택하거나 새 이름을 생성합니다.

1. **네트워크 설정**에서 에이전트를 배포하려는 VPC와 서브넷을 선택합니다.

1. **인스턴스 시작**을 선택합니다.

1. Amazon EC2 인스턴스가 실행되면 [VPC 엔드포인트를 선택](choose-service-endpoint.md#datasync-in-vpc)합니다.

1. [에이전트 활성화](activate-agent.md).

## 4단계: Google Cloud Storag 버킷에 DataSync 소스 위치 생성
<a name="transfer-google-cloud-storage-create-source"></a>

Google Cloud Storage 버킷의 DataSync 위치를 설정하려면 [1단계](#transfer-google-cloud-storage-create-hmac-key)에서 생성한 HMAC 키의 액세스 ID와 비밀번호가 필요합니다.

**DataSync 소스 위치를 만들려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **객체 스토리지**를 선택합니다.

1. **서버**에 **storage.googleapis.com**를 입력합니다.

1. **버킷 이름**에 Google Cloud Storage 버킷의 이름을 입력합니다.

1. **폴더**에는 객체 접두사를 입력합니다.

   DataSync는 이 접두사가 있는 객체만 복사합니다.

1. 전송에 에이전트가 필요한 경우 **에이전트 사용**을 선택한 다음 [3단계](#transfer-google-cloud-storage-create-agent)에서 생성한 에이전트를 선택합니다.

1. **추가 설정**을 폅니다. **서버 프로토콜**에서 **HTTPS**를 선택합니다. **서버 포트**에서 **443**을 선택합니다.

1. **인증** 섹션까지 아래로 스크롤합니다. **자격 증명 필요** 확인란이 선택되어 있는지 확인하고 다음을 수행하세요.
   + **액세스 키**에 사용자 HMAC 키의 액세스 ID를 입력합니다.
   + **비밀 키**에 HMAC 키의 비밀 키를 직접 입력하거나 키가 포함된 AWS Secrets Manager 비밀을 지정합니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.

1. **위치 생성**을 선택합니다.

## 5단계: S3 버킷용 DataSync 대상 위치 생성
<a name="transfer-google-cloud-storage-create-destination"></a>

데이터가 최종적으로 가야 할 DataSync 위치가 필요합니다.

**DataSync 대상 위치를 만들려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼쳐서 **위치**와 **위치 생성**을 선택합니다.

1. [S3 버킷의 DataSync 위치를 생성합니다.](create-s3-location.md)

   VPC에 DataSync 에이전트를 배포한 경우이 자습서에서는 S3 버킷이 VPC 및 DataSync 에이전트 AWS 리전 와 동일한에 있다고 가정합니다.

## 6단계: DataSync 작업 생성 및 시작
<a name="transfer-google-cloud-storage-start-task"></a>

소스 및 대상 위치가 구성된 상태에서 데이터를 이동할 수 있습니다 AWS.

**DataSync 작업을 생성하고 시작하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. **소스 위치 구성** 페이지에서 다음 작업을 수행하세요.

   1. **기존 위치 선택**을 선택합니다.

   1. [4단계](#transfer-google-cloud-storage-create-source)에서 생성한 소스 위치를 선택한 후 **다음**을 선택합니다.

1. **대상 위치 구성** 페이지에서 다음 작업을 수행하세요.

   1. **기존 위치 선택**을 선택합니다.

   1. [5단계](#transfer-google-cloud-storage-create-destination)에서 생성한 대상 위치를 선택한 후 **다음**을 선택합니다.

1. **설정 구성** 페이지에서 다음을 수행합니다.

   1. **데이터 전송 구성**에서 **추가 설정**을 펼쳐서 **개체 태그 복사** 확인란의 선택을 취소합니다.
**중요**  
Google Cloud Storage XML API는 객체 태그 읽기 또는 쓰기를 지원하지 않으므로 객체 태그 복사 시 DataSync 작업이 실패할 수 있습니다.

   1. 원하는 다른 작업 설정을 구성한 후 **다음**을 선택합니다.

1. **검토** 페이지에서 설정을 검토한 다음 **작업 생성**을 선택합니다.

1. 작업의 세부 정보 페이지에서 **시작**을 선택하고 다음 중 하나를 선택하세요:
   + 수정하지 않고 작업을 실행하려면 **기본값으로 시작**을 선택합니다.
   + 작업을 실행하기 전에 수정하려면 **재정의 옵션으로 시작**을 선택합니다.

작업이 완료되면 Google Cloud Storage 버킷의 객체가 S3 버킷에 있음을 확인할 수 있습니다.

# Microsoft Azure Blob Storage를 사용하여 전송 구성
<a name="creating-azure-blob-location"></a>

를 사용하면 Microsoft Azure Blob Storage (Azure Data Lake Storage Gen2Blob 스토리지 포함)와 다음 AWS 스토리지 서비스 간에 데이터를 전송할 AWS DataSync수 있습니다.
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx for Windows File Server](create-fsx-location.md)
+ [Amazon FSx for Lustre](create-lustre-location.md)
+ [Amazon FSx for OpenZFS](create-openzfs-location.md)
+ [Amazon FSx for NetApp ONTAP](create-ontap-location.md)

이러한 종류의 전송을 설정하려면 Azure Blob Storage의 [위치](how-datasync-transfer-works.md#sync-locations)를 생성해야 합니다. 이 위치를 전송의 소스 또는 대상으로 사용할 수 있습니다. DataSync 에이전트는 Azure Blob과 Amazon EFS 또는 Amazon FSx 간에 데이터를 전송하거나 **기본** 모드 작업을 사용할 때만 필요합니다. **확장 모드**를 사용하여 Azure Blob과 Amazon S3 간에 데이터를 전송하는 데는 에이전트가 필요하지 않습니다.

## DataSync에 Azure Blob Storage 액세스 권한 제공
<a name="azure-blob-access"></a>

DataSync가 귀하의 Azure Blob Storage에 액세스하는 방법은 Blob 스토리지로 전송하는지 또는 Blob 스토리지에서 전송하는지 여부, 사용 중인 [공유 액세스 서명(SAS) 토큰](#azure-blob-sas-tokens) 의 종류 등 여러 요인에 따라 달라집니다. 또한 객체는 DataSync가 사용할 수 있는 [액세스 티어](#azure-blob-access-tiers)에 속해야 합니다.

**Topics**
+ [SAS 토큰](#azure-blob-sas-tokens)
+ [액세스 티어](#azure-blob-access-tiers)

### SAS 토큰
<a name="azure-blob-sas-tokens"></a>

SAS 토큰은 Blob 스토리지에 대한 액세스 권한을 지정합니다. (SAS에 대한 자세한 설명은 [Azure Blob Storage설명서](https://learn.microsoft.com/azure/storage/common/storage-sas-overview)를 참조하십시오.)

SAS 토큰을 생성하여 다양한 수준의 액세스를 제공할 수 있습니다. DataSync는 다음과 같은 액세스 수준의 토큰을 지원합니다.
+ Account
+ 컨테이너

DataSync에 필요한 액세스 권한은 토큰의 범위에 따라 달라집니다. 올바른 권한이 없으면 전송이 실패할 수 있습니다. 예컨대, 태그가 있는 객체를 Azure Blob Storage로 이동하는데 SAS 토큰에 태그 권한이 없는 경우, 전송이 성공하지 못합니다.

**Topics**
+ [계정 수준 액세스를 위한 SAS 토큰 권한](#account-sas-tokens)
+ [컨테이너 수준 액세스를 위한 SAS 토큰 권한](#container-sas-tokens)
+ [SAS 만료 정책](#azure-blob-sas-expiration-policies)

#### 계정 수준 액세스를 위한 SAS 토큰 권한
<a name="account-sas-tokens"></a>

DataSync에는 다음과 같은 권한이 있는 계정 수준 액세스 토큰이 필요합니다(Azure Blob Storage로 전송 또는 로부터의 수신 여부에 따라 다름). 

------
#### [ Transfers from blob storage ]
+ **허용된 서비스 - **Blob
+ **허용된 리소스 타입** - 컨테이너, 개체

  이러한 권한을 포함하지 않으면 DataSync는 [객체 태그](#azure-blob-considerations-object-tags)를 포함한 객체 메타데이터를 전송할 수 없습니다.
+ **허용된 권한** - 읽기, 목록
+ **허용된 Blob 인덱스 권한** - 읽기/쓰기(DataSync가 [객체 태그](#azure-blob-considerations-object-tags)를 복제하도록 하려는 경우)

------
#### [ Transfers to blob storage ]
+ **허용된 서비스 - **Blob
+ **허용된 리소스 타입** - 컨테이너, 개체

  이러한 권한을 포함하지 않으면 DataSync는 [객체 태그](#azure-blob-considerations-object-tags)를 포함한 객체 메타데이터를 전송할 수 없습니다.
+ **허용된 권한** - 읽기, 쓰기, 열거, 삭제(DataSync가 전송 소스에 없는 파일을 제거하도록 하려는 경우)
+ **허용된 Blob 인덱스 권한** - 읽기/쓰기(DataSync가 [객체 태그](#azure-blob-considerations-object-tags)를 복제하도록 하려는 경우)

------

#### 컨테이너 수준 액세스를 위한 SAS 토큰 권한
<a name="container-sas-tokens"></a>

DataSync에는 다음과 같은 권한이 있는 컨테이너 수준 액세스 토큰이 필요합니다(Azure Blob Storage로 전송 또는 로부터의 수신 여부에 따라 다름).

------
#### [ Transfers from blob storage ]
+ 읽기
+ List
+ 태그(DataSync가 [객체 태그](#azure-blob-considerations-object-tags)를 복제하도록 하려는 경우)
**참고**  
Azure 포털에서 SAS 토큰을 생성할 때는 태그 권한을 추가할 수 없습니다. 태그 권한을 추가하려면 대신 [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)앱을 사용하여 토큰을 생성하거나 [계정 수준 액세스를 제공하는 SAS 토큰](#account-sas-tokens)을 생성하세요.

------
#### [ Transfers to blob storage ]
+ 읽기
+ 쓰기
+ List
+ 삭제(DataSync가 전송 소스에 없는 파일을 제거하도록 하려는 경우)
+ 태그(DataSync가 [객체 태그](#azure-blob-considerations-object-tags)를 복제하도록 하려는 경우)
**참고**  
Azure 포털에서 SAS 토큰을 생성할 때는 태그 권한을 추가할 수 없습니다. 태그 권한을 추가하려면 대신 [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)앱을 사용하여 토큰을 생성하거나 [계정 수준 액세스를 제공하는 SAS 토큰](#account-sas-tokens)을 생성하세요.

------

#### SAS 만료 정책
<a name="azure-blob-sas-expiration-policies"></a>

전송을 완료하기 전에 SAS가 만료되지 않도록 하세요. SAS 만료 정책 구성에 대한 자세한 설명은 [Azure Blob Storage설명서를](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy) 참조하세요.

전송 중에 SAS가 만료되면 DataSync는 더 이상 귀하의 Azure Blob Storage위치에 액세스할 수 없습니다. (디렉터리 열기 실패 오류가 표시될 수 있습니다.) 이 경우, 새 SAS 토큰으로 [위치를 업데이트하고](#azure-blob-update-location) DataSync 작업을 다시 시작하세요.

### 액세스 티어
<a name="azure-blob-access-tiers"></a>

Azure Blob Storage로부터 전송할 때 DataSync는 핫 티어와 쿨 티어의 객체를 복사할 수 있습니다. 아카이브 액세스 티어에 있는 객체의 경우, 복제하려면 먼저 해당 객체를 핫 또는 쿨 계층으로 다시 하이드레이션해야 합니다.

Azure Blob Storage로 전송할 때 DataSync는 객체를 핫, 쿨 및 아카이브 액세스 티어으로 복제할 수 있습니다. 아카이브 액세스 티어에 객체를 복제하는 경우, [목적지의 모든 데이터를 확인](configure-data-verification-options.md)하려는 경우, DataSync에서 전송을 확인할 수 없습니다.

DataSync는 콜드 액세스 티어를 지원하지 않습니다. 액세스 티어에 대한 자세한 설명은 [Azure Blob Storage설명서](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal)를 참조하세요.

## Azure Blob Storage전송 관련 고려 사항
<a name="azure-blob-considerations"></a>

DataSync를 사용하여 데이터를 Azure Blob Storage와 주고받을 때 유의해야 할 몇 가지 사항이 있습니다.

**Topics**
+ [비용](#azure-blob-considerations-costs)
+ [블럽 타입](#blob-types)
+ [AWS 리전 가용성](#azure-blob-considerations-regions)
+ [객체 태그 복사](#azure-blob-considerations-object-tags)
+ [Amazon S3로 전송](#azure-blob-considerations-s3)
+ [전송 목적지의 디렉터리 삭제](#azure-blob-considerations-deleted-files)
+ [제한 사항](#azure-blob-limitations)

### 비용
<a name="azure-blob-considerations-costs"></a>

Azure Blob Storage과 주고 받는 데이터 이동과 관련된 수수료에는 다음이 포함될 수 있습니다.
+ [Azure 가상 머신(VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) 실행(Azure에서 DataSync 에이전트를 배포하는 경우)
+ [Amazon EC2](https://aws.amazon.com/ec2/pricing/) 인스턴스 실행(DataSync 에이전트를 AWS내부 VPC에 배포하는 경우)
+ [DataSync](https://aws.amazon.com/datasync/pricing/)를 사용하여 데이터 전송, [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)및 [Amazon S3](create-s3-location.md#create-s3-location-s3-requests)와 관련된 요청 요금 포함(S3가 전송 위치 중 하나인 경우)
+ 데이터를 [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)내부 또는 외부로 전송 
+ DataSync에서 지원하는 [AWS 스토리지 서비스](working-with-locations.md)에 데이터 저장

### 블럽 타입
<a name="blob-types"></a>

DataSync가 블럽 타입으로 작동하는 방식은 Azure Blob Storage이 전송의 출처인가 또는 목적지인가에 의존합니다. 데이터를 Blob 스토리지로 이동할 때 DataSync가 전송하는 객체 또는 파일은 블록 블롭만 될 수 있습니다. Blob 스토리지 외부로 데이터를 이동할 때 DataSync는 블록을 전송하고, 페이징하고, 블롭을 추가할 수 있습니다.

Blob 타입에 대한 자세한 설명은 [Azure Blob Storage설명서](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs)를 참조하십시오.

### AWS 리전 가용성
<a name="azure-blob-considerations-regions"></a>

[DataSync에서AWS 리전 지원하는](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region) 모든 위치에서 Azure Blob Storage전송 위치를 생성할 수 있습니다.

### 객체 태그 복사
<a name="azure-blob-considerations-object-tags"></a>

데이터를 Azure Blob Storage과 주고 받을 때 DataSync가 객체 태그를 보존하는 기능은 다음 요인에 의존합니다:
+ **객체 태그의 크기** - DataSync는 태그가 2KB를 초과하는 객체를 전송할 수 없습니다.
+ **DataSync가 객체 태그를 복제하도록 구성되었는지 여부** - DataSync는 기본적으로 [객체 태그를 복제](configure-metadata.md)합니다.
+ **Azure스토리지 계정에서 사용하는 네임스페이스** - DataSync는 Azure스토리지 계정이 플랫 네임스페이스를 사용하는 경우, 객체 태그를 복제할 수 있지만, 계정이 계층적 네임스페이스 를 사용하는 경우에는 복제할 수 없습니다(Azure Data Lake Storage Gen2의 기능) . 스토리지 계정이 계층적 네임스페이스를 사용하고 객체 태그를 복제하려고 하면 DataSync 작업이 실패합니다.
+ **SAS 토큰이 태깅을 승인하는지 여부** - 객체 태그를 복제하는 데 필요한 권한은 토큰이 제공하는 액세스 수준에 따라 다릅니다. 객체 태그를 복제하려고 하는데 토큰에 태깅을 위한 적절한 권한이 없는 경우, 작업이 실패합니다. 자세한 설명은 [계정 수준 액세스 토큰 또는 [컨테이너](#container-sas-tokens) 수준 액세스 토큰에](#account-sas-tokens) 대한 권한 요건을 확인하세요.

### Amazon S3로 전송
<a name="azure-blob-considerations-s3"></a>

Amazon S3로 전송할 때 DataSync는 5TB보다 큰 객체 또는 2KB보다 큰 메타데이터가 있는 Azure Blob Storage객체를 전송하지 않습니다.

### 전송 목적지의 디렉터리 삭제
<a name="azure-blob-considerations-deleted-files"></a>

Azure Blob Storage로 전송할 때 DataSync는 [전송 소스에 없는 Blob 스토리지의 객체를 제거할 수 있습니다](configure-metadata.md). (DataSync 콘솔에서 **삭제된 파일 유지** 설정을 지우면 이 옵션을 구성할 수 있습니다. [SAS 토큰에도](#azure-blob-sas-tokens) 삭제 권한이 있어야 합니다.

이러한 방식으로 전송을 구성하면 Azure스토리지 계정이 계층적 네임스페이스를 사용하는 경우, DataSync는 Blob 스토리지의 디렉터리를 삭제하지 않습니다. 이 경우, [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)를 사용하는 등의 방법으로 디렉터리를 수동으로 삭제해야 합니다. 

### 제한 사항
<a name="azure-blob-limitations"></a>

Azure Blob Storage과 데이터를 주고 받을 때 다음과 같은 제한이 적용됩니다:
+ DataSync는 전송을 용이하게 하기 위해 특정 위치에 [일부 디렉터리를 생성](filtering.md#directories-ignored-during-transfers)합니다. Azure Blob Storage가 대상 위치이고 스토리지 계정에서 계층적 네임스페이스를 사용하는 경우, `/.aws-datasync` 폴더에 작업별 하위 디렉터리(예:`task-000011112222abcde`)가 있을 수 있습니다. DataSync는 일반적으로 전송 후 이러한 하위 디렉터리를 삭제합니다. 그렇지 않은 경우, 작업이 실행되지 않는 한 이러한 작업별 디렉터리를 직접 삭제할 수 있습니다.
+ DataSync는 SAS 토큰을 사용하여 Azure Blob Storage컨테이너의 특정 폴더에만 액세스하는 것을 지원하지 않습니다. 
+ Blob 스토리지에 액세스하기 위한 사용자 위임 SAS 토큰은 DataSync에 제공할 수 없습니다.

## DataSync 에이전트 생성(선택 사항)
<a name="azure-blob-creating-agent"></a>

DataSync 에이전트는 Azure Blob과 Amazon EFS 또는 Amazon FSx 간에 데이터를 전송하거나 **기본** 모드 작업을 사용할 때만 필요합니다. **확장 모드**를 사용하여 Azure Blob과 Amazon S3 간에 데이터를 전송하는 데는 에이전트가 필요하지 않습니다. 이 섹션에서는 에이전트를 배포하고 활성화하는 방법을 설명합니다.

**작은 정보**  
Amazon EC2 인스턴스에 에이전트를 배포할 수 있지만 Microsoft Hyper-V에이전트를 사용하면 네트워크 지연 시간이 줄어들고 데이터 압축률이 높아질 수 있습니다.

### Microsoft Hyper-V 에이전트
<a name="azure-blob-creating-agent-hyper-v"></a>

Microsoft Hyper-V이미지와 함께 DataSync 에이전트를 Azure에 직접 배포할 수 있습니다. 

**작은 정보**  
계속하기 전에 Hyper-V 에이전트를 더 빠르게 Azure에 배포하는 데 도움이 될 수 있는 쉘 스크립트를 사용해 보세요. [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure)에서 자세한 정보를 얻고 코드를 다운로드할 수 있습니다.  
스크립트를 사용하는 경우, [에이전트의 활성화 키 받기](#azure-blob-creating-agent-hyper-v-3)에 대한 섹션으로 건너뛸 수 있습니다.

**Topics**
+ [사전 조건](#azure-blob-creating-agent-hyper-v-0)
+ [에이전트 다운로드 및 준비](#azure-blob-creating-agent-hyper-v-1)
+ [Azure에 에이전트 배포하기](#azure-blob-creating-agent-hyper-v-2)
+ [에이전트의 활성화 키 받기](#azure-blob-creating-agent-hyper-v-3)
+ [에이전트 활성화하기](#azure-blob-creating-agent-hyper-v-4)

#### 사전 조건
<a name="azure-blob-creating-agent-hyper-v-0"></a>

DataSync 에이전트를 준비하고 Azure에 배포하려면 다음을 수행해야 합니다: 
+ 로컬 Hyper-V시스템에서 활성화합니다.
+ [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1)를 설치합니다(Hyper-V Module 포함).
+ [Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli)를 설치합니다.
+ [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json)을 설치합니다.

#### 에이전트 다운로드 및 준비
<a name="azure-blob-creating-agent-hyper-v-1"></a>

DataSync 콘솔에서 에이전트를 다운로드합니다. 에이전트를 Azure에 배포하려면 먼저 고정 크기의 가상 하드 디스크(VHD) 로 변환해야 합니다. 자세한 설명은 [Azure설명서](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image)를 참조하세요.

**에이전트를 다운로드하고 준비하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **에이전트**를 선택한 다음, **에에이전트 생성**을 선택합니다.

1. **하이퍼바이저**의 경우, **Microsoft Hyper-V**를 선택한 다음 **이미지 다운로드**를 선택합니다.

   에이전트는 `.vhdx`파일이 포함된 `.zip`파일로 다운로드합니다.

1. 로컬 시스템에서 `.vhdx`파일을 추출합니다.

1. PowerShell를 열고 다음 중 하나를 수행합니다.

   1. 다음 `Convert-VHD`cmdlet을 복제합니다.

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. `local-path-to-vhdx-file`의 각 인스턴스를 로컬 기기의 `.vhdx`파일 위치로 바꿉니다.

   1.  명령을 실행합니다.

   에이전트는 이제 고정 크기의 VHD(`.vhd`파일 형식 포함) 가 되어 Azure에에 배포할 준비가 되었습니다. 

#### Azure에 에이전트 배포하기
<a name="azure-blob-creating-agent-hyper-v-2"></a>

Azure에 DataSync 에이전트를 배포하는 작업에는 다음이 포함됩니다. 
+ Azure에서 관리 디스크 만들기 
+ 해당 관리 디스크에 에이전트 업로드
+ Linux 가상 시스템에 관리 디스크 연결

**에이전트를 Azure에 배포하려면**

1. PowerShell에서 에이전트의 `.vhd`파일이 들어 있는 디렉터리로 이동합니다.

1. `ls`명령을 실행하고 `Length`값을 저장합니다(예:`85899346432`).

   이는 이미지를 보관할 관리 디스크를 만들 때 필요한 에이전트 이미지의 크기(바이트) 입니다.

1. 관리 디스크를 만들려면 다음과 같이 하세요:

   1. 다음 AzureCLI 명령을 복사합니다:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. `your-managed-disk`을 관리 디스크의 이름으로 바꿉니다.

   1. `your-resource-group`을 스토리지 계정이 속한 Azure리소스 그룹의 명칭으로 바꾸세요.

   1. `your-azure-region`을 귀하의 리소스 그룹이 위치한 Azure리전으로 바꾸세요.

   1. `agent-size-bytes`을 귀하의 에이전트 이미지 크기로 바꾸세요.

   1.  명령을 실행합니다.

   이 명령을 실행하면 DataSync 에이전트를 업로드할 수 있는 [표준 SKU가](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types) 포함된 빈 관리 디스크가 생성됩니다.

1. 관리 디스크에 대한 쓰기 액세스를 허용하는 공유 액세스 서명(SAS) 을 생성하려면 다음을 수행하세요.

   1. 다음 AzureCLI 명령을 복사합니다:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. `your-managed-disk`을 귀하가 생성한 관리 디스크의 명칭으로 바꿉니다.

   1. `your-resource-group`을 스토리지 계정이 속한 Azure리소스 그룹의 명칭으로 바꾸세요.

   1.  명령을 실행합니다.

      출력에 표시된 SAS URI를 메모해 둡니다. 에이전트를 Azure에 업로드할 때 이 URI가 필요합니다. 

   SAS를 사용하면 디스크에 최대 1시간 동안 쓸 수 있습니다. 즉, 에이전트를 관리 디스크에 업로드하는 데 한 시간이 걸립니다.

1. 에이전트를 Azure의 관리 디스크에 업로드하려면 다음을 수행하세요:

   1. 다음 `AzCopy`명령을 복사합니다:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. `local-path-to-vhd-file`을 귀하의 로컬 기기에서 에이전트 `.vhd`파일 위치로 바꾸세요.

   1. `sas-uri`을 `az disk grant-access`명령을 실행할 때 받은 SAS URI로 바꾸세요.

   1.  명령을 실행합니다.

1. 에이전트 업로드가 완료되면 관리 디스크에 대한 액세스 권한을 취소하세요. 그렇게 하려면 다음의 AzureCLI 명령을 복사합니다:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. `your-resource-group`을 스토리지 계정이 속한 Azure리소스 그룹의 명칭으로 바꾸세요.

   1. `your-managed-disk`을 귀하가 생성한 관리 디스크의 명칭으로 바꿉니다.

   1.  명령을 실행합니다.

1. 관리 디스크를 새 LinuxVM에 연결하려면 다음을 수행하세요.

   1. 다음 AzureCLI 명령을 복사합니다:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. `your-resource-group`을 스토리지 계정이 속한 Azure리소스 그룹의 명칭으로 바꾸세요.

   1. `your-agent-vm`을 귀하가 기억할 수 있는 VM 이름으로 바꾸세요.

   1. `your-managed-disk`을 VM에 연결하는 관리 디스크의 이름으로 바꿉니다.

   1.  명령을 실행합니다.

에이전트를 배포했습니다. 데이터 전송 구성을 시작하려면 먼저 에이전트를 활성화해야 합니다.

#### 에이전트의 활성화 키 받기
<a name="azure-blob-creating-agent-hyper-v-3"></a>

DataSync 에이전트의 활성화 키를 수동으로 가져오려면 다음 단계를 따르세요.

또는 [DataSync가 자동으로 활성화 키를 귀하에게 가져올 수도](activate-agent.md) 있지만 이 접근 방식에는 일부 네트워크 구성이 필요합니다.

**에이전트의 활성화 키를 받으려면**

1. Azure포털에서 **사용자 지정 스토리지 계정 활성화**를 설정으로 선택하고 귀하의 Azure스토리지 계정을 지정하여 [에이전트용 VM에 대한 부팅 진단을 활성화](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics)합니다. 

   에이전트의 VM에 대한 부팅 진단을 활성화한 후 에이전트의 로컬 콘솔에 액세스하여 활성화 키를 가져올 수 있습니다.

1. Azure포털에 있는 동안 VM으로 이동하여 **직렬 콘솔을** 선택합니다.

1. 에이전트의 로컬 콘솔에서 다음 기본 자격 증명을 사용하여 로그인합니다.
   + **사용자 이름** – **admin**
   + **암호** – **password**

   어느 시점에서든 최소한 에이전트의 비밀번호는 변경하는 것이 좋습니다. 에이전트의 로컬 콘솔에서 기본 메뉴에 **5**를 입력한 다음 `passwd`명령을 사용하여 암호를 변경합니다.

1. 에이전트의 활성화 키를 가져오려면 **0**를 누르세요.

1. DataSync를 사용 중인 AWS 리전 를 입력합니다(예: **us-east-1**).

1. 에이전트가 연결하는 데 사용할 [서비스 엔드포인트](choose-service-endpoint.md)를 선택합니다 AWS.

1. `Activation key` 출력의 값을 저장합니다.

#### 에이전트 활성화하기
<a name="azure-blob-creating-agent-hyper-v-4"></a>

활성화 키가 있으면 DataSync 에이전트 생성을 완료할 수 있습니다.

**에이전트를 활성화하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **에이전트**를 선택한 다음, **에에이전트 생성**을 선택합니다.

1. **하이퍼바이저**의 경우, **Microsoft Hyper-V**를 선택하세요. 

1. **엔드포인트 타입**의 경우, 에이전트의 활성화 키를 받을 때 지정한 것과 동일한 타입의 서비스 엔드포인트를 선택합니다(예: ***리전* 이름에서 공용 서비스 엔드포인트** 선택).

1. 에이전트가 사용하는 서비스 엔드포인트 타입과 작동하도록 네트워크를 구성하세요. 서비스 엔드포인트 네트워크 요건은 다음 항목을 참조하세요:
   + [VPC 엔드포인트](datasync-network.md#using-vpc-endpoint)
   + [퍼블릭 엔드포인트](datasync-network.md#using-public-endpoints)
   + [Federal Information Processing Standard(FIPS) 엔드포인트](datasync-network.md#using-public-endpoints)

1. **활성화 키**의 경우, 다음을 수행하세요:

   1. **에이전트의 활성화 키를 수동으로 입력합니다**를 선택합니다.

   1. 에이전트의 로컬 콘솔에서 받은 활성화 키를 입력합니다.

1. **Create agent(에이전트 생성)**을 선택합니다.

에이전트가 귀하의 Azure Blob Storage과 연결할 준비가 되었습니다. 자세한 설명은 [귀하의 Azure Blob Storage전송 위치 생성](#creating-azure-blob-location-how-to)섹션을 참조하세요.

### Amazon EC2 에에이전트
<a name="azure-blob-creating-agent-ec2"></a>

Amazon EC2 인스턴스에 DataSync 에이전트를 배포할 수 있습니다.

**Amazon EC2 에이전트를 만들려면**

1. [Amazon EC2 에이전트를 배포합니다](deploy-agents.md#ec2-deploy-agent).

1. [에이전트가 AWS와 통신하는 데 사용하는 서비스 엔드포인트를 선택합니다](choose-service-endpoint.md). 

   이 경우, Virtual Private Cloud(VPC) 서비스 엔드포인트를 사용하는 것이 좋습니다.

1. [VPC 서비스엔드포인트](datasync-network.md#using-vpc-endpoint) 와 함께 작동하도록 네트워크를 구성합니다.

1. [에이전트를 활성화합니다](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## 귀하의 Azure Blob Storage전송 위치 생성
<a name="creating-azure-blob-location-how-to"></a>

귀하의 Azure Blob Storage를 전송 소스 또는 목적지로 사용하도록 DataSync를 구성할 수 있습니다.

**시작하기 전 준비 사항**  
[DataSync가 액세스 티어 및 Blob 타입에 Azure Blob Storage액세스하고 이를 처리하는 방법을](#azure-blob-access) [알고 [있어야](#azure-blob-access-tiers) 합니다.](#blob-types) 귀하의 Azure Blob Storage컨테이너에 연결할 수 있는 [DataSync 에이전트](#azure-blob-creating-agent)도 필요합니다. 

### DataSync 콘솔 사용
<a name="creating-azure-blob-location-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 타입**에서 **Microsoft Azure Blob Storage**를 선택합니다.

1. **컨테이너 URL**에는 전송과 관련된 컨테이너의 URL을 입력합니다.

1. (옵션) **목적지로 사용되는 액세스 등급의 경우, **귀하의 객체 또는 파일들이 이전되기 바라는 [액세스 등급](#azure-blob-access-tiers)을 선택합니다.

1. 전송을 컨테이너의 가상 디렉터리로만 제한하려면 **폴더**에 경로 세그먼트를 입력합니다(예: `/my/images`).

1. 전송에 에이전트가 필요한 경우 **에이전트 사용**을 선택한 다음 Azure Blob Storage 컨테이너에 연결할 수 있는 DataSync 에이전트를 선택합니다.

1. **SAS 토큰**의 경우 DataSync가 Blob 스토리지에 액세스하는 데 필요한 자격 증명을 제공합니다. Azure Blob 스토리지의 일부 퍼블릭 데이터세트에는 자격 증명이 필요하지 않습니다. SAS 토큰을 직접 입력하거나 토큰이 포함된 AWS Secrets Manager 보안 암호를 지정할 수 있습니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.

   SAS 토큰은 스토리지 리소스 URI와 물음표(`?`) 다음에 오는 SAS URI 문자열의 일부입니다. 토큰은 다음과 같은 형태입니다:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (옵션) 위치에 태그를 지정하려면 **키** 및 **값** 필드에 값을 입력합니다.

   태그는 AWS 리소스를 관리, 필터링 및 검색하는 데 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

### 사용 AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. 다음 `create-location-azure-blob`명령을 복사합니다:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. `--container-url`파라미터에는 전송에 관련된 Azure Blob Storage컨테이너의 URL을 지정합니다.

1. `--authentication-type` 파라미터에서 `SAS`를 지정합니다. 인증이 필요하지 않은 퍼블릭 데이터세트에 액세스하는 경우 `NONE`을 지정합니다.

1. `--sas-configuration`파라미터 `Token`옵션의 경우, DataSync가 Blob 스토리지에 액세스할 수 있도록 허용하는 SAS 토큰을 지정합니다.

   또한 AWS Secrets Manager를 사용하여 키를 보호하기 위한 추가 파라미터를 제공할 수 있습니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.

   SAS 토큰은 스토리지 리소스 URI와 물음표(`?`) 다음에 오는 SAS URI 문자열의 일부입니다. 토큰은 다음과 같은 형태입니다:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (선택 사항) `--agent-arns` 파라미터에 컨테이너에 연결할 수 있는 DataSync 에이전트의 Amazon 리소스 이름(ARN)을 지정합니다.

   다음은 에이전트 ARN의 예입니다: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   복수의 에이전트를 지정할 수 있습니다. 자세한 설명은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents)섹션을 참조하세요.

1. `--subdirectory` 파라미터에 관하여, 컨테이너의 가상 디렉터리로 전송을 제한하려면 경로 세그먼트를 지정하세요(예:`/my/images`). 

1. (옵션) `--access-tier`파라미터에 관하여, 귀하의 객체 또는 파일들이 이전되기 바라는 [액세스 등급](#azure-blob-access-tiers)(`HOT`, `COOL`, 또는 `ARCHIVE`)을 선택합니다.

   이 파라미터는 이 위치를 전송 목적지로 사용하는 경우에만 적용됩니다.

1. (옵션) 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 쌍을 `--tags`파라미터에 지정합니다.

   위치에 이름 태그를 생성하는 것이 좋습니다.

1. `create-location-azure-blob` 명령을 실행합니다.

   명령이 성공하면 생성한 위치의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Azure Blob Storage전송 위치 보기
<a name="azure-blob-view-location"></a>

귀하의 Azure Blob Storage을 위한 기존 DataSync 전송 위치에 대한 세부 정보를 얻을 수 있습니다. 

### DataSync 콘솔 사용
<a name="azure-blob-view-location-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송을** 펼친 다음 **위치**를 선택합니다.

1. Azure Blob Storage 위치를 선택합니다.

   위치를 사용하는 모든 DataSync 전송 작업을 포함하여 위치에 대한 세부 정보를 볼 수 있습니다.

### 사용 AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. 다음 `describe-location-azure-blob`명령을 복사합니다:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. `--location-arn`파라미터에는 귀하가 생성한 Azure Blob Storage위치의 ARN(예:`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`)을 지정합니다. 

1. `describe-location-azure-blob` 명령을 실행합니다.

   위치에 대한 세부 정보를 보여주는 응답을 받게 됩니다. 예제:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Azure Blob Storage전송 위치 업데이트
<a name="azure-blob-update-location"></a>

필요한 경우, 콘솔에서 또는 AWS CLI를 사용하여 위치 구성을 수정할 수 있습니다.

### 사용 AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. 다음 `update-location-azure-blob`명령을 복사합니다:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. `--location-arn`파라미터에는 업데이트하려는 Azure Blob Storage위치의 ARN을 지정합니다(예:`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`). 

1. `--authentication-type` 파라미터에서 `SAS`를 지정합니다.

1. `--sas-configuration`파라미터 `Token`옵션의 경우, DataSync가 Blob 스토리지에 액세스할 수 있도록 허용하는 SAS 토큰을 지정합니다.

   토큰은 스토리지 리소스 URI와 물음표(`?`) 다음에 오는 SAS URI 문자열의 일부입니다. 토큰은 다음과 같은 형태입니다:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. `--agent-arns`파라미터에는 컨테이너에 연결할 DataSync 에이전트의 Amazon 리소스 이름(ARN) 을 지정합니다.

   다음은 에이전트 ARN의 예입니다: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   복수의 에이전트를 지정할 수 있습니다. 자세한 설명은 [여러 DataSync 에이전트 사용](do-i-need-datasync-agent.md#multiple-agents)섹션을 참조하세요.

1. `--subdirectory` 파라미터에 관하여, 컨테이너의 가상 디렉터리로 전송을 제한하려면 경로 세그먼트를 지정하세요(예:`/my/images`). 

1. (옵션) `--access-tier`파라미터에 관하여 귀하의 객체 또는 파일들이 이전되기 바라는 [액세스 등급](#azure-blob-access-tiers)(`HOT`, `COOL`, 또는 `ARCHIVE`)을 선택합니다.

   이 파라미터는 이 위치를 전송 목적지로 사용하는 경우에만 적용됩니다.

## 다음 단계
<a name="create-azure-blob-location-next-steps"></a>

귀하의 Azure Blob Storage을 위한 DataSync 위치 생성을 완료한 후 전송 설정을 계속할 수 있습니다. 고려해야 할 몇 가지 단계는 다음과 같습니다.

1. 아직 만들지 않았다면 [다른 위치를 만들어](working-with-locations.md) 데이터를 귀하의 Azure Blob Storage와 주고받을 수도 있습니다.

1. 특히 전송 위치에 유사한 메타데이터 구조가 없는 경우, [DataSync가 메타데이터와 특수 파일을 처리하는](metadata-copied.md) 방법을 알아보세요.

1. 데이터 전송 방식을 구성하세요. 예컨대, Blob 스토리지에서 [데이터의 일부만 전송하거나](filtering.md) 소스 위치에 없는 파일을 삭제할 수 있습니다([SAS 토큰](#azure-blob-sas-tokens)에 삭제 권한이 있는 한).

1. [전송을 시작하세요](run-task.md).

# Microsoft Azure Files SMB 공유를 사용하여 AWS DataSync 전송 구성
<a name="transferring-azure-files"></a>

Microsoft Azure Files 서버 메시지 블록(SMB) 공유에서 데이터를 전송 AWS DataSync 하도록를 구성할 수 있습니다.

**작은 정보**  
Azure Files SMB 공유에서 로 데이터를 이동하는 방법에 대한 전체 연습은 [AWS 스토리지 블로그](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)를 AWS참조하세요.

## DataSync에 SMB 공유 액세스 권한 제공
<a name="configuring-smb-azure-files"></a>

DataSync는 SMB 프로토콜을 사용하여 SMB 공유에 연결하고 사용자가 제공한 자격 증명으로 인증합니다.

**Topics**
+ [지원되는 SMB 프로토콜 버전](#configuring-smb-version-azure-files)
+ [필수 권한](#configuring-smb-permissions-azure-files)

### 지원되는 SMB 프로토콜 버전
<a name="configuring-smb-version-azure-files"></a>

기본적으로 DataSync는 SMB 파일 서버와의 협상을 기반으로 SMB 프로토콜 버전을 자동으로 선택합니다.

특정 SMB 버전을 사용하도록 DataSync를 구성할 수도 있지만 DataSync가 SMB 파일 서버와 자동으로 협상하는 데 문제가 있는 경우에만 이렇게 하는 것이 좋습니다. DataSync는 SMB 버전 1.0 이상을 지원합니다. 보안상의 이유로 SMB 버전 3.0.2 이상을 사용하는 것이 좋습니다. SMB 1.0과 같은 이전 버전에는 알려진 보안 취약성이 포함되어 있어, 공격자가 데이터를 손상시키기 위해 이를 악용할 수 있습니다.

DataSync 콘솔 및 API의 옵션 목록은 다음 표를 참조하세요.


| 콘솔 옵션 | API 옵션 | 설명 | 
| --- | --- | --- | 
| 자동 |  `AUTOMATIC`  |  DataSync와 SMB 파일 서버는 2.1과 3.1.1 사이에서 상호 지원하는 SMB의 가장 높은 버전을 협상합니다. 이는 기본값이며 권장 옵션입니다. 대신 파일 서버에서 지원하지 않는 특정 버전을 선택하면 `Operation Not Supported` 오류가 발생할 수 있습니다.  | 
|  SMB 3.0.2  |  `SMB3`  |  프로토콜 협상을 SMB 버전 3.0.2로만 제한합니다.  | 
| SMB 2.1 |  `SMB2`  | 프로토콜 협상을 SMB 버전 2.1로만 제한합니다. | 
| SMB 2.0 | `SMB2_0` | 프로토콜 협상을 SMB 버전 2.0으로만 제한합니다. | 
| SMB 1.0 | `SMB1` | 프로토콜 협상을 SMB 버전 1.0으로만 제한합니다. | 

### 필수 권한
<a name="configuring-smb-permissions-azure-files"></a>

DataSync에는 SMB 위치를 마운트하고 액세스할 수 있는 권한이 있는 사용자가 필요합니다. 이 사용자는 Windows File Server의 로컬 사용자이거나 Microsoft Active Directory에 정의된 도메인 사용자일 수 있습니다.

객체 소유권을 설정하려면 `SE_RESTORE_NAME`권한이 필요하며, 이 권한은 일반적으로 내장된 Active Directory 그룹 회원 **백업 운영자** 및 **도메인 관리자**에게 부여됩니다. 사용자에게 이 권한을 DataSync에 제공하면 NTFS 시스템 액세스 제어 목록(SACL)을 제외한 파일, 폴더 및 파일 메타데이터에 대한 충분한 권한을 보장하는 데도 도움이 됩니다.

SACL을 복사하려면 추가 권한이 필요합니다. 이 작업에는 특히 Windows `SE_SECURITY_NAME`권한이 필요하며, 이 권한은 **Domain Admins** 그룹의 멤버에게 부여됩니다. SACL을 복사하도록 태스크를 구성하는 경우, 사용자에게 필요한 권한이 있는지 확인해야 합니다. SACL을 복사하도록 작업을 구성하는 방법에 대한 자세한 내용은 [파일, 객체 및 메타데이터 처리 방법 구성](configure-metadata.md)단원을 참조하세요.

SMB 파일 서버와 Amazon FSx for Windows File Server 파일 시스템 간에 데이터를 복사하는 경우 원본 및 대상 위치는 동일한 Microsoft Active Directory 도메인에 속하거나 해당 도메인 간에 Active Directory 신뢰 관계를 가져야 합니다.

## 콘솔을 사용하여 Azure File Transfer 위치 생성
<a name="create-azure-files-smb-location-how-to"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **Location type(위치 유형)**에서 **Server Message Block (SMB)(SMB(Server Message Block))**을 선택합니다.

   나중에 이 위치를 소스 또는 대상 주소로서 구성합니다.

1. **에이전트의** 경우 SMB 공유에 연결할 DataSync 에이전트를 하나 이상 선택합니다.

   에이전트를 두 개 이상 선택하는 경우 [한 위치에 여러 에이전트](do-i-need-datasync-agent.md#multiple-agents)를 사용하는 것을 이해해야 합니다.

1. **SMB 서버**의 경우 DataSync 에이전트가 마운트할 SMB 공유의 도메인 이름 시스템(DNS) 이름 또는 IP 주소를 입력합니다.
**참고**  
IP 버전 6(IPv6) 주소는 지정할 수 없습니다.

1. **공유 이름**에는 DataSync가 데이터를 읽거나 쓸 SMB 공유에서 내보낸 공유의 이름을 입력합니다.

   공유 경로에 하위 디렉토리(예: `/path/to/subdirectory`)를 포함할 수 있습니다. 네트워크의 다른 SMB 클라이언트도 이 경로를 마운트할 수 있는지 확인하세요.

   하위 디렉터리의 모든 데이터를 복사하려면 DataSync가 SMB 공유를 마운트하고 모든 데이터에 액세스할 수 있어야 합니다. 자세한 설명은 [필수 권한](create-smb-location.md#configuring-smb-permissions)섹션을 참조하세요.

1. (선택 사항) **추가 설정을** 확장하고 SMB 공유에 액세스할 때 DataSync에서 사용할 **SMB 버전을** 선택합니다.

   기본적으로 DataSync는 SMB 공유와의 협상을 기반으로 버전을 자동으로 선택합니다. 자세한 내용은 [지원되는 SMB 버전](create-smb-location.md#configuring-smb-version)을 참조하십시오.

1. **사용자**에 SMB 공유를 마운트할 수 있고 전송과 관련된 파일 및 폴더에 액세스할 권한이 있는 사용자 이름을 입력합니다.

   자세한 설명은 [필수 권한](create-smb-location.md#configuring-smb-permissions)섹션을 참조하세요.

1. **암호**에 귀하의 SMB 공유를 탑재할 수 있으며 전송에 관련된 파일과 폴더에 액세스할 수 있는 권한이 있는 사용자의 암호를 입력합니다.

1. (선택 사항) **도메인**에는 SMB 공유가 속한 Windows 도메인 이름을 입력합니다.

   환경에 여러 도메인이 있는 경우 이 설정을 구성하면 DataSync가 올바른 공유에 연결되도록 할 수 있습니다.

1. (선택 사항) **태그 추가**를 선택하여 위치에 태그를 지정합니다.

   *태그*는 위치를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 쌍입니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

# 다른 클라우드 객체 스토리지를 사용한 전송 구성
<a name="creating-other-cloud-object-location"></a>

를 사용하면 [AWS 스토리지 서비스와](transferring-aws-storage.md) 다음 클라우드 객체 스토리지 공급자 간에 데이터를 전송할 AWS DataSync수 있습니다.
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

DataSync 에이전트는 다른 클라우드와 Amazon EFS 또는 Amazon FSx의 스토리지 시스템 간에 데이터를 전송하거나 **기본** 모드 작업을 사용할 때만 필요합니다. **확장** 모드를 사용하면 에이전트가 다른 클라우드의 스토리지 시스템과 Amazon S3 간에 데이터를 전송할 필요가 없습니다.

에이전트 사용 여부와 관계없이 클라우드 객체 스토리지를 위한 전송 [위치](how-datasync-transfer-works.md#sync-locations)(특히 **객체 스토리지** 위치)를 생성해야 합니다. DataSync는 이 위치를 전송의 소스 또는 목적지로 사용할 수 있습니다.

## DataSync에 다른 클라우드 객체 스토리지에 대한 액세스 권한 제공
<a name="other-cloud-access"></a>

DataSync가 클라우드 객체 스토리지에 액세스하는 방법은 스토리지가 Amazon S3 API와 호환되는지 여부, DataSync가 스토리지에 액세스하는 데 필요한 권한 및 보안 인증을 포함하는 여러 요인에 따라 달라집니다.

**Topics**
+ [Amazon S3 API 호환성](#other-cloud-s3-compatibility)
+ [스토리지 권한 및 엔드포인트](#other-cloud-permissions)
+ [스토리지 보안 인증](#other-cloud-credentials)

### Amazon S3 API 호환성
<a name="other-cloud-s3-compatibility"></a>

DataSync를 연결하려면 클라우드 객체 스토리지가 다음의 [Amazon S3 API 작업](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html)과 호환되어야 합니다.
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### 스토리지 권한 및 엔드포인트
<a name="other-cloud-permissions"></a>

DataSync가 클라우드 객체 스토리지에 액세스할 수 있도록 권한을 구성해야 합니다. 객체 스토리지가 소스 위치인 경우 DataSync에는 데이터를 전송하는 버킷에 대한 읽기 및 나열 권한이 필요합니다. 객체 스토리지가 대상 위치인 경우 DataSync에는 버킷에 대한 읽기, 나열, 쓰기, 삭제 권한이 필요합니다.

또한 DataSync에는 스토리지에 연결하기 위한 엔드포인트(또는 서버)가 필요합니다. 다음 표는 DataSync가 다른 클라우드 객체 스토리지에 액세스하는 데 사용할 수 있는 엔드포인트를 설명합니다.


| 기타 클라우드 제공업체 | 엔드포인트 | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com`(대부분의 리전)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**중요**  
스토리지 엔드포인트에서 버킷 권한 및 업데이트된 정보를 구성하는 방법에 대한 자세한 내용은 클라우드 제공자의 설명서를 참조하세요.

### 스토리지 보안 인증
<a name="other-cloud-credentials"></a>

또한 DataSync에는 전송과 관련된 객체 스토리지 버킷에 액세스하기 위한 자격 증명 또한 필요합니다. 이는 클라우드 스토리지 공급자가 이러한 보안 인증을 참조하는 방식에 따라 액세스 키, 비밀 키 또는 이와 유사한 것일 수 있습니다.

자세한 내용은 클라우드 공급자의 설명서를 참조하세요.

## 다른 클라우드 개체 스토리지에서 전송할 때 고려할 사항
<a name="other-cloud-considerations"></a>

DataSync를 사용하여 다른 클라우드 스토리지 제공자로 또는 다른 클라우드 스토리지 제공자로부터 객체를 전송할 계획이라면 몇 가지 염두에 두어야 할 사항이 있습니다.

**Topics**
+ [비용](#other-cloud-considerations-costs)
+ [스토리지 클래스](#other-cloud-considerations-storage-classes)
+ [객체 태그](#other-cloud-considerations-object-tags)
+ [Amazon S3로 전송](#other-cloud-considerations-s3)

### 비용
<a name="other-cloud-considerations-costs"></a>

다른 클라우드 스토리지 제공업체에서 데이터를 주고받는 데 따르는 수수료에는 다음이 포함될 수 있습니다.
+ DataSync 에이전트용 [Amazon EC2](https://aws.amazon.com/ec2/pricing/) 인스턴스 실행
+ [DataSync](https://aws.amazon.com/datasync/pricing/)를 사용한 데이터 전송, 여기에는 클라우드 객체 스토리지 및 [Amazon S3](create-s3-location.md#create-s3-location-s3-requests)와 관련된 요청 요금이 포함됩니다(S3가 전송 목적지인 경우).
+ 클라우드 스토리지 내부 또는 외부 데이터 전송(클라우드 제공업체 요금 확인)
+ DataSync에서 지원하는 [AWS 스토리지 서비스](transferring-aws-storage.md)에 데이터 저장
+ 다른 클라우드 공급자에 데이터 저장(클라우드 제공업체 가격 확인)

### 스토리지 클래스
<a name="other-cloud-considerations-storage-classes"></a>

일부 클라우드 스토리지 제공자에는([Amazon S3](create-s3-location.md#using-storage-classes)와 유사한) 스토리지 클래스가 있습니다. 이 클래스는 DataSync가 먼저 복원하지 않으면 읽을 수 없습니다. 예를 들어, Oracle Cloud Infrastructure Object Storage에는 아카이브 스토리지 클래스가 있습니다. DataSync에서 객체를 전송하려면 먼저 해당 스토리지 클래스의 객체를 복원해야 합니다. 자세한 내용은 클라우드 공급자의 문서를 참조하세요.

### 객체 태그
<a name="other-cloud-considerations-object-tags"></a>

모든 클라우드 공급자가 객체 태그를 지원하지는 않습니다. 그런 경우 Amazon S3 API를 통한 태그 쿼리가 허용되지 않을 수 있습니다. 어떤 상황에서든 객체 태그를 복사하려고 하면 DataSync 전송 태스크가 실패할 수 있습니다.

태스크를 생성, 시작 또는 업데이트할 때 DataSync 콘솔에서 **객체 태그 복사** 확인란을 선택 해제하면 이러한 문제를 피할 수 있습니다.

### Amazon S3로 전송
<a name="other-cloud-considerations-s3"></a>

Amazon S3로 전송할 때 DataSync는 5TB보다 큰 객체를 전송할 수 없습니다. 또한 DataSync는 객체 메타데이터를 최대 2KB까지만 복사할 수 있습니다.

## DataSync 에이전트 생성
<a name="other-cloud-creating-agent"></a>

DataSync 에이전트는 다른 클라우드와 Amazon EFS 또는 Amazon FSx의 스토리지 시스템 간에 데이터를 전송하거나 **기본** 모드 작업을 사용할 때만 필요합니다. **확장** 모드를 사용하면 에이전트가 다른 클라우드의 스토리지 시스템과 Amazon S3 간에 데이터를 전송할 필요가 없습니다. 이 섹션에서는 AWS가상 프라이빗 클라우드(VPC)의 Amazon EC2 인스턴스에 에이전트를 배포하고 활성화하는 방법을 설명합니다.

**Amazon EC2 에이전트를 만들려면**

1. [Amazon EC2 에이전트를 배포합니다](deploy-agents.md#ec2-deploy-agent).

1. 에이전트가 통신하는 데 사용하는 [서비스 엔드포인트를 선택합니다](choose-service-endpoint.md) AWS.

   이러한 경우 VPC 서비스 엔드포인트를 사용하는 것이 좋습니다.

1. [VPC 서비스 엔드포인트](datasync-network.md#using-vpc-endpoint)와 함께 작동하도록 네트워크를 구성합니다.

1. [에이전트를 활성화합니다](activate-agent.md).

## 다른 클라우드 객체 스토리지를 위한 전송 위치 생성
<a name="creating-other-cloud-location-how-to"></a>

클라우드 객체 스토리지를 소스 또는 대상 위치로서 사용하도록 DataSync를 구성할 수 있습니다.

**시작하기 전 준비 사항**  
[DataSync가 클라우드 객체 스토리지에 액세스하는 방법](#other-cloud-access)을 알고 있어야 합니다. 또한 클라우드 객체 스토리지에 연결할 수 있는 [DataSync에이전트](#other-cloud-creating-agent)가 필요합니다.

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 펼친 다음, **위치**와 **위치 생성**을 선택합니다.

1. **위치 유형**에서 **객체 스토리지**를 선택합니다.

1. **서버**의 경우 DataSync가 클라우드 객체 스토리지에 액세스하는 데 사용할 수 있는 [엔드포인트를](#other-cloud-permissions) 입력합니다.
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**-(`region.object.ncloudstorage.com`대부분의 리전)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. **버킷 이름**에는 데이터를 주고받는 객체 스토리지 버킷의 이름을 입력합니다.

1. **폴더**에는 객체 접두사를 입력합니다. DataSync는 이 접두사가 있는 객체만 전송합니다.

1. 전송에 에이전트가 필요한 경우 **에이전트 사용**을 선택한 다음 클라우드 객체 스토리지에 연결할 수 있는 DataSync 에이전트를 선택합니다.

1. **추가 설정**을 폅니다. **서버 프로토콜**에서 **HTTPS**를 선택합니다. **서버 포트**에서 **443**을 선택합니다.

1. **인증** 섹션까지 아래로 스크롤합니다. **보안 인증 필요** 확인란이 선택되어 있는지 확인한 다음 DataSync에 [스토리지 보안 인증](#other-cloud-credentials)을 제공하세요.
   + **액세스 키**에 클라우드 객체 스토리지에 액세스할 ID를 입력합니다.
   + **보안 키**에 클라우드 개체 스토리지에 액세스할 암호를 입력합니다. 키를 직접 입력하거나 키가 포함된 AWS Secrets Manager 보안 암호를 지정할 수 있습니다. 자세한 내용은 [스토리지 위치에 대한 자격 증명 제공](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html)을 참조하세요.

1. (선택 사항) **키**와 **값** 필드에는 위치에 태그를 지정하기 위한 값을 입력합니다.

   태그는 AWS 리소스를 관리, 필터링 및 검색하는 데 도움이 됩니다. 위치에 이름 태그를 하나 이상 생성하는 것이 좋습니다.

1. **위치 생성**을 선택합니다.

## 다음 단계
<a name="other-cloud-location-next-steps"></a>

클라우드 객체 스토리지를 위한 DataSync 위치 생성을 완료한 후 전송 설정을 계속할 수 있습니다. 고려해야 할 몇 가지 단계는 다음과 같습니다.

1. 아직 만들지 않았다면 [또다른 장소를 만들어서](transferring-aws-storage.md) AWS에서 데이터를 주고 받도록 계획합니다 .

1. DataSync가 객체 스토리지 위치의 [메타데이터와 특수 파일을 처리하는](metadata-copied.md) 방법을 알아봅니다.

1. 데이터 전송 방식을 구성하세요. 예를 들어 [데이터의 일부만 전송](filtering.md)하길 원할 수 있습니다.
**중요**  
DataSync가 객체 태그를 올바르게 복사하는 방법을 구성했는지 확인합니다. 자세한 내용은 [객체 태그](#other-cloud-considerations-object-tags) 사용의 고려 사항을 참조하세요.

1. [전송을 시작하세요](run-task.md).

 

# 사용자 데이터 전송을 위한 작업 생성
<a name="create-task-how-to"></a>

*작업은*가 데이터를 AWS DataSync 전송하는 위치와 방법을 설명합니다. 작업은 다음과 같이 구성됩니다.
+ [**소스 위치**](working-with-locations.md) - DataSync가 데이터를 전송하는 소스 스토리지 시스템 또는 서비스입니다.
+ [**대상 위치**](working-with-locations.md) - DataSync가 데이터를 전송하는 대상 스토리지 시스템 또는 서비스입니다.
+ [**작업 옵션**](task-options.md) - 전송할 파일, 데이터 확인 방법, 작업 실행 시기 등의 설정입니다.
+ [**태스크 실행**](run-task.md) - 태스크를 실행하는 것을 *태스크 실행*이라고 합니다.

## 작업 생성
<a name="create-task-steps"></a>

DataSync 작업을 생성할 때 소스 및 대상 위치를 지정합니다. 전송할 파일, 메타데이터 처리 방법, 일정 설정 등을 선택하여 작업을 사용자 지정할 수도 있습니다.

작업을 생성하기 전에 [DataSync 전송 방식](how-datasync-transfer-works.md#transferring-files)을 이해하고 [작업 할당량](datasync-limits.md#task-hard-limits)을 검토해야 합니다.

**중요**  
Amazon S3 위치와 데이터를 주고받을 계획이라면 시작하기 전에 [DataSync가 S3 요청 요금에 미치는 영향](create-s3-location.md#create-s3-location-s3-requests) 및 [DataSync 요금 페이지](https://aws.amazon.com/datasync/pricing/)를 검토하세요.

### DataSync 콘솔 사용
<a name="create-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 데이터를 전송 AWS 리전 하려는 중 하나에 있는지 확인합니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. **소스 위치 구성** 페이지에서 소스 위치를 [생성](transferring-data-datasync.md)하거나 선택하고 **다음**을 선택합니다.

1. **대상 위치 구성** 페이지에서 대상 위치를 [생성](transferring-data-datasync.md)하거나 선택하고 **다음**을 선택합니다.

1. (권장) **설정 구성** 페이지에서 작업에 기억할 수 있는 이름을 지정합니다.

1. **설정 구성** 페이지에서 작업 옵션을 선택하거나 기본 설정을 사용합니다.

   다음 옵션 중 일부에 관심이 있을 수 있습니다.
   + 사용할 [작업 모드](choosing-task-mode.md)를 지정합니다.
   + [매니페스트](transferring-with-manifest.md) 또는 [필터](filtering.md)를 사용하여 전송할 데이터를 지정합니다.
   + [파일 메타데이터를 처리](configure-metadata.md)하고 [데이터 무결성을 확인](configure-data-verification-options.md)하는 방법을 구성합니다.
   + [작업 보고서](task-reports.md) 또는 [Amazon CloudWatch](monitor-datasync.md)를 사용하여 전송을 모니터링합니다. 작업에 대한 일종의 모니터링을 설정하는 것이 좋습니다.

   완료했으면 **다음**을 선택합니다.

1. 작업 구성을 검토한 후 **작업 생성**을 선택합니다.

[작업을 시작](run-task.md)할 준비가 되었습니다.

### 사용 AWS CLI
<a name="create-task-cli"></a>

[DataSync 소스 및 대상 위치를 생성](transferring-data-datasync.md)하면 작업을 생성할 수 있습니다.

1.  AWS CLI 설정에서 데이터를 전송 AWS 리전 하려는 중 하나를 사용하고 있는지 확인합니다.

1. 다음 `create-task`명령을 복사합니다.

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. `--source-location-arn`에서 소스 위치의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--destination-location-arn`에서 대상 위치의 ARN을 지정합니다.

    AWS 리전 또는 계정 간에 전송하는 경우 ARN에 다른 리전 또는 계정 ID가 포함되어 있는지 확인합니다.

1. (권장) `--name`에서 기억할 수 있는 작업의 이름을 지정합니다.

1. 필요에 따라 다른 작업 옵션을 지정합니다. 다음 옵션 중 일부에 관심이 있을 수 있습니다.
   + [매니페스트](transferring-with-manifest.md) 또는 [필터](filtering.md)를 사용하여 전송할 데이터를 지정합니다.
   + [파일 메타데이터를 처리](configure-metadata.md)하고 [데이터 무결성을 확인](configure-data-verification-options.md)하는 방법을 구성합니다.
   + [작업 보고서](task-reports.md) 또는 [Amazon CloudWatch](monitor-datasync.md)를 사용하여 전송을 모니터링합니다. 작업에 대한 일종의 모니터링을 설정하는 것이 좋습니다.

   자세한 옵션은 [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html) 섹션을 참조하세요. 다음은 여러 옵션을 지정하는 예제 `create-task` 명령입니다.

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. `create-task` 명령을 실행합니다.

   명령이 성공하면 생성한 작업의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

[작업을 시작](run-task.md)할 준비가 되었습니다.

## 태스크 상태
<a name="understand-task-creation-statuses"></a>

DataSync 작업을 생성할 때 상태를 확인하여 실행할 준비가 되었는지 확인할 수 있습니다.


| 콘솔 상태 | API 상태 | 설명 | 
| --- | --- | --- | 
| Available |  `AVAILABLE`  |  작업이 데이터 전송을 시작할 준비가 되었습니다.  | 
| 실행 |  `RUNNING`  | 작업 실행이 진행 중입니다. 자세한 내용은 [태스크 실행 상태](run-task.md#understand-task-execution-statuses) 단원을 참조하십시오. | 
|  Unavailable  |  `UNAVAILABLE`  |  태스크에 사용되는 DataSync 에이전트는 오프라인 상태입니다. 자세한 내용은 [에이전트가 오프라인 상태인 경우, 어떻게 해야 하나요?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline) 섹션을 참조하세요.  | 
|  대기됨  |  `QUEUED`  |  동일한 DataSync 에이전트를 사용하는 다른 작업 실행이 진행 중입니다. 자세한 내용은 [작업이 대기열에 있는 시점 파악](run-task.md#queue-task-execution) 단원을 참조하십시오.  | 

## 여러 작업으로 대규모 데이터세트 파티셔닝
<a name="multiple-tasks-large-dataset"></a>

수백만 개의 파일 또는 객체 [마이그레이션](datasync-large-migration.md)과 같은 대규모 데이터 세트를 전송하는 경우 전송에 DataSync Enhanced 모드를 사용하는 것이 좋습니다.이 모드는 거의 무제한의 파일로 데이터 세트를 전송할 수 있습니다. 수십억 개의 파일이 있는 매우 큰 데이터 세트의 경우 여러 DataSync 작업으로 데이터 세트를 분할하는 것을 고려해야 합니다. 여러 작업(및 위치에 따라 [에이전트](do-i-need-datasync-agent.md#multiple-agents))에 데이터를 분할하면 DataSync가 데이터를 준비하고 전송하는 데 걸리는 시간을 줄일 수 있습니다.

여러 DataSync 작업에 걸쳐 대규모 데이터세트를 분할할 수 있는 몇 가지 방법을 고려하세요.
+ 개별 폴더를 전송하는 작업을 생성합니다. 예를 들어 소스 스토리지에서 각각 `/FolderA` 및 `/FolderB`를 대상으로 하는 두 개의 작업을 생성할 수 있습니다.
+ [매니페스트](transferring-with-manifest.md) 또는 [필터](filtering.md)를 사용하여 파일, 객체, 폴더의 하위 집합을 전송하는 작업을 생성합니다.

이러한 접근 방식으로 스토리지 시스템의 I/O 작업이 증가하고 네트워크 대역폭에 영향을 미칠 수 있다는 점에 유의하세요. 자세한 내용은 [How to accelerate your data transfers with DataSync scale out architectures](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/)에 관한 블로그를 참조하세요.

## 여러 작업을 사용하여 전송된 데이터 분할
<a name="multiple-tasks-organize-transfer"></a>

서로 다른 데이터세트를 동일한 대상으로 전송하는 경우 전송하는 데이터를 분할하는 데 도움이 되는 여러 작업을 생성할 수 있습니다.

예를 들어 `MyBucket`이라는 동일한 S3 버킷으로 전송하는 경우 각 작업에 해당하는 다른 접두사를 버킷에 생성할수 있습니다. 이 접근 방식은 파일 이름이 데이터세트와 충돌하는 것을 방지하고 각 접두사에 대해 서로 다른 권한을 설정할 수 있습니다. 이를 설정하는 방법은 다음과 같습니다.

1. `task1`, `task2`, `task3`라는 이름의 대상 `MyBucket`에 세 개의 접두사를 생성합니다.
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. `task1`, `task2`, `task3`라는 이름의 DataSync 작업 세 개를 생성하여 `MyBucket`의 해당 접두사로 전송합니다.

# 데이터 전송을 위한 작업 모드 선택
<a name="choosing-task-mode"></a>

 AWS DataSync 작업은 다음 모드 중 하나로 실행할 수 있습니다.
+ **향상된 모드** - 기본 모드보다 성능이 뛰어난 파일 또는 객체를 사실상 무제한으로 전송합니다. 확장 모드 작업은 데이터를 병렬로 나열, 준비, 전송, 확인하여 데이터 전송 프로세스를 최적화합니다. 향상된 모드는 현재 Amazon S3 위치 간 전송, 에이전트 없이 Azure Blob와 Amazon S3 간 전송, 에이전트 없이 다른 클라우드와 Amazon S3 간 전송, 향상된 모드 에이전트를 사용하여 NFS 또는 SMB 파일 서버와 Amazon S3 간 전송에 사용할 수 있습니다.
+ **기본 모드** - AWS 스토리지와 지원되는 다른 모든 DataSync 위치 간에 파일 또는 객체를 전송합니다. 기본 모드 작업에는 데이터세트의 파일, 객체, 디렉터리 수에 대한 [할당량](datasync-limits.md)이 적용됩니다. 기본 모드는 데이터를 순차적으로 준비, 전송, 확인하므로 대부분의 워크로드에서 확장 모드보다 느립니다.

## 작업 모드 차이점 이해
<a name="task-mode-differences"></a>

다음 정보는 사용할 작업 모드를 결정하는 데 도움이 될 수 있습니다.


| 기능 | 확장 모드 동작 | 기본 모드 동작 | 
| --- | --- | --- | 
| [성능](how-datasync-transfer-works.md#transferring-files) | DataSync는 데이터를 병렬로 나열, 준비, 전송, 확인합니다. 대부분의 워크로드에 대해 기본 모드보다 높은 성능 제공(대용량 객체 전송 등) | DataSync는 데이터를 순차적으로 준비, 전송, 확인합니다. 대부분의 워크로드에서 확장 모드보다 성능이 느림 | 
| DataSync가 작업 실행당 사용할 수 있는 데이터세트의 항목 수 |  사실상 무제한의 객체  |  [할당량](datasync-limits.md#task-hard-limits) 적용  | 
|  데이터 전송 [카운터](transfer-performance-counters.md) 및 [지표](monitor-datasync.md)  |  DataSync가 소스 위치에서 찾는 객체 수, 각 작업 실행 중에 준비되는 객체 수, 파일 및 객체 카운터와 유사한 폴더 카운터 등 기본 모드보다 더 많은 카운터 및 지표  |  확장 모드보다 카운터 및 지표가 적음  | 
|  [로깅](configure-logging.md)  | 정형 로그(JSON 형식) | 비정형 로그 | 
|  [지원 위치](working-with-locations.md)  | 현재 Amazon S3 위치 간 전송, 에이전트 없이 Azure Blob와 Amazon S3 간 전송, 에이전트 없이 다른 클라우드와 Amazon S3 간 전송, 향상된 모드 에이전트를 사용하여 NFS 또는 SMB 파일 서버와 Amazon S3 간 전송의 경우. |  DataSync가 지원하는 모든 위치 간 전송의 경우  | 
|  [데이터 확인 옵션](configure-data-verification-options.md)  | DataSync가 전송된 데이터만 확인 | DataSync가 기본적으로 모든 데이터를 확인 | 
| 비용 | 자세한 내용은 [DataSync 요금](https://aws.amazon.com/datasync/pricing) 페이지를 참조하세요. | 자세한 내용은 [DataSync 요금](https://aws.amazon.com/datasync/pricing) 페이지를 참조하세요. | 
| 지원하지 않는 객체 태그에 대한 장애 처리 | 객체 태그 지정을 지원하지 않는 위치로 클라우드 스토리지를 전송하거나 해당 위치에서 전송 받는 경우 ObjectTags 옵션이 지정되지 않거나 PRESERVE으로 설정되어 있으면 작업 실행이 즉시 실패합니다. | 객체 태그 지정을 지원하지 않는 위치로 클라우드 스토리지를 전송하거나 해당 위치에서 전송 받는 경우 작업 실행이 정상적으로 수행되지만 ObjectTags 옵션이 지정되지 않았거나 PRESERVE로 설정되어 있으면 태그가 지정된 객체에 대한 객체별 실패를 보고합니다. | 

## 작업 모드 선택
<a name="choosing-task-mode-how-to"></a>

향상된 모드 에이전트를 사용하여 Amazon S3 위치 간 전송, 에이전트 없이 Azure Blob와 Amazon S3 간 전송, 에이전트 없이 다른 클라우드와 Amazon S3 간 전송, NFS 또는 SMB 파일 서버와 Amazon S3 간 전송에 대해서만 향상된 모드를 선택할 수 있습니다. 그렇지 않으면 기본 모드를 사용해야 합니다. 예를 들어 온프레미스 [HDFS 위치에서](create-hdfs-location.md) S3 위치로 전송하려면 기본 모드가 필요합니다.

작업 옵션과 성능은 선택한 작업 모드에 따라 다를 수 있습니다. 작업을 생성한 후에는 작업 모드를 변경할 수 없습니다.

**필수 권한**  
확장 모드 작업을 생성하려면 DataSync를 사용하는 IAM 역할에 `iam:CreateServiceLinkedRole` 권한이 있어야 합니다.  
DataSync 사용자 권한을 설정하려면 [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess)를 사용하는 것이 좋습니다. 이는 사용자에게 DataSync에 대한 전체 액세스 권한과 해당 종속성에 대한 최소 액세스를 제공하는 AWS 관리형 정책입니다.

### DataSync 콘솔 사용
<a name="choosing-task-mode-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **작업 모드**의 경우, 다음 옵션 중 하나를 선택합니다.
   + **Enhanced**
   + **기본**

   자세한 내용은 [작업 모드 차이점 이해](#task-mode-differences) 단원을 참조하십시오.

1. **설정 구성** 페이지에서 작업 옵션을 선택하거나 기본 설정을 사용합니다.

   다음 옵션 중 일부에 관심이 있을 수 있습니다.
   + [매니페스트](transferring-with-manifest.md) 또는 [필터](filtering.md)를 사용하여 전송할 데이터를 지정합니다.
   + [파일 메타데이터를 처리](configure-metadata.md)하고 [데이터 무결성을 확인](configure-data-verification-options.md)하는 방법을 구성합니다.
   + [작업 보고서](task-reports.md) 또는 [Amazon CloudWatch Logs](monitor-datasync.md)를 사용하여 전송을 모니터링합니다.

   완료했으면 **다음**을 선택합니다.

1. 작업 구성을 검토한 후 **작업 생성**을 선택합니다.

### 사용 AWS CLI
<a name="choosing-task-mode-cli"></a>

1.  AWS CLI 설정에서 데이터를 전송 AWS 리전 하려는 중 하나를 사용하고 있는지 확인합니다.

1. 다음 `create-task`명령을 복사합니다.

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. `--source-location-arn`에서 소스 위치의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--destination-location-arn`에서 대상 위치의 ARN을 지정합니다.

    AWS 리전 또는 계정 간에 전송하는 경우 ARN에 다른 리전 또는 계정 ID가 포함되어 있는지 확인합니다.

1. `--task-mode`에 대해 `ENHANCED` 또는 `BASIC`을 지정합니다.

   자세한 내용은 [작업 모드 차이점 이해](#task-mode-differences) 단원을 참조하십시오.

1. 필요에 따라 다른 작업 옵션을 지정합니다. 다음 옵션 중 일부에 관심이 있을 수 있습니다.
   + [매니페스트](transferring-with-manifest.md) 또는 [필터](filtering.md)를 사용하여 전송할 데이터를 지정합니다.
   + [파일 메타데이터를 처리](configure-metadata.md)하고 [데이터 무결성을 확인](configure-data-verification-options.md)하는 방법을 구성합니다.
   + [작업 보고서](task-reports.md) 또는 [Amazon CloudWatch Logs](monitor-datasync.md)를 사용하여 전송을 모니터링합니다.

   자세한 옵션은 [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html) 섹션을 참조하세요. 다음은 확장 모드 및 여러 기타 옵션을 지정하는 `create-task` 명령의 예시입니다.

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. `create-task` 명령을 실행합니다.

   명령이 성공하면 생성한 작업의 ARN을 보여주는 응답을 받게 됩니다. 예제:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### DataSync API 사용
<a name="choosing-task-mode-api"></a>

[CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html) 작업에서 `TaskMode` 파라미터를 구성하여 DataSync 작업 모드를 지정할 수 있습니다.

# AWS DataSync 전송할 항목 선택
<a name="task-options"></a>

AWS DataSync 를 사용하면 전송할 항목과 데이터 처리 방법을 선택할 수 있습니다. 몇 가지 옵션은 다음과 같습니다.
+ 매니페스트를 사용하여 파일 또는 객체의 정확한 목록을 전송합니다.
+ 필터를 사용하여 전송에 특정 유형의 데이터를 포함하거나 제외합니다.
+ 반복 전송의 경우 마지막 전송 이후 변경된 데이터만 이동합니다.
+ 소스 위치에 있는 것과 일치하도록 대상 위치의 데이터를 덮어씁니다.
+ 스토리지 위치 간에 보존할 파일 또는 객체 메타데이터를 선택합니다.

**Topics**
+ [매니페스트를 사용하여 특정 파일 또는 객체 전송](transferring-with-manifest.md)
+ [필터를 사용하여 특정 파일, 객체 및 폴더 전송](filtering.md)
+ [DataSync가 파일 및 객체 메타데이터를 처리하는 방법 이해](metadata-copied.md)
+ [에서 복사한 링크 및 디렉터리 AWS DataSync](special-files-copied.md)
+ [파일, 객체 및 메타데이터 처리 방법 구성](configure-metadata.md)

# 매니페스트를 사용하여 특정 파일 또는 객체 전송
<a name="transferring-with-manifest"></a>

*매니페스트*는 전송 AWS DataSync 하려는 파일 또는 객체의 목록입니다. 예를 들어 잠재적으로 수백만 개의 객체가 있는 S3 버킷의 모든 것을 전송해야 하는 대신 DataSync는 매니페스트에 나열한 객체만 전송합니다.

매니페스트는 [필터](filtering.md)와 비슷하지만 필터 패턴과 일치하는 데이터 대신 전송할 파일 또는 객체를 정확하게 식별할 수 있습니다.

**참고**  
확장 모드 작업을 포함한 매니페스트 파일의 최대 허용 크기는 20GB입니다.

## 매니페스트 생성
<a name="transferring-with-manifest-create"></a>

매니페스트는 DataSync가 전송할 소스 위치의 파일 또는 객체를 나열하는 쉼표로 구분된 값(CSV) 형식의 파일입니다. 소스가 S3 버킷인 경우 전송할 객체 버전을 포함할 수도 있습니다.

**Topics**
+ [지침](#transferring-with-manifest-guidelines)
+ [매니페스트 예제](#manifest-examples)

### 지침
<a name="transferring-with-manifest-guidelines"></a>

이 지침을 사용하면 DataSync에서 작동하는 매니페스트를 생성하는 데 도움이 됩니다.

------
#### [ Do ]
+ 전송하려는 각 파일 또는 객체의 전체 경로를 지정합니다.

  모든 콘텐츠를 전송할 의도로 디렉터리 또는 폴더만 지정할 수는 없습니다. 이러한 상황에서는 매니페스트 대신 [포함 필터](filtering.md)를 사용하는 것이 좋습니다.
+ 각 파일 또는 객체 경로가 DataSync 소스 위치를 구성할 때 지정한 마운트 경로, 폴더, 디렉터리 또는 접두사와 관련이 있는지 확인합니다.

  예를 들어 접두사가 `photos`인 [S3 위치를 구성](create-s3-location.md#create-s3-location-how-to)한다고 가정해 보겠습니다. 이 접두사에는 전송하려는 `my-picture.png` 객체가 포함됩니다. 매니페스트에서 접두사 및 객체(`photos/my-picture.png`) 대신 객체(`my-picture.png`)만 지정하면 됩니다.
+ Amazon S3 객체 버전 ID를 지정하려면 쉼표를 사용하여 객체의 경로와 버전 ID를 구분합니다.

  다음 예제에서는 두 개의 필드가 있는 매니페스트 항목을 보여줍니다. 첫 번째 필드에는 `picture1.png`라는 객체가 포함됩니다. 두 번째 필드는 쉼표로 구분되며 `111111`의 버전 ID를 포함합니다.

  ```
  picture1.png,111111
  ```
+ 다음과 같은 상황에서는 따옴표를 사용합니다.
  + 경로에 특수 문자(쉼표, 따옴표, 줄 끝)가 포함된 경우:

    `"filename,with,commas.txt"`
  + 경로가 여러 줄에 걸쳐 있는 경우:

    ```
    "this
    is
    a
    filename.txt"
    ```
  + 경로에 따옴표가 포함된 경우:

    `filename""with""quotes.txt`

    이는 `filename"with"quotes.txt`라는 경로를 나타냅니다.

  이러한 따옴표 규칙은 버전 ID 필드에도 적용됩니다. 일반적으로 매니페스트 필드에 따옴표가 있는 경우 다른 따옴표로 이스케이프해야 합니다.
+ 각 파일 또는 객체 항목을 새 줄로 구분합니다.

  Linux(라인 피드 또는 캐리지 반환) 또는 Windows(캐리지 반환 후 라인 피드) 스타일 라인 분리를 사용하여 라인을 분리할 수 있습니다.
+ 매니페스트(예: `my-manifest.csv` 또는 `my-manifest.txt`)를 저장합니다.
+ [DataSync가 액세스할 수 있는](#transferring-with-manifest-access) S3 버킷에 매니페스트를 업로드합니다.

  이 버킷은 DataSync를 사용하는 동일한 AWS 리전 또는 계정에 있을 필요는 없습니다.

------
#### [ Don't ]
+ 모든 콘텐츠를 전송할 의도로 디렉터리 또는 폴더만 지정합니다.

  매니페스트는 전송하려는 파일 또는 객체에 대한 전체 경로만 포함할 수 있습니다. 특정 탑재 경로, 폴더, 디렉터리 또는 접두사를 사용하도록 소스 위치를 구성하는 경우 매니페스트에 포함할 필요가 없습니다.
+ 4,096자를 초과하는 파일 또는 객체 경로를 지정합니다.
+ 1,024바이트를 초과하는 파일 경로, 객체 경로 또는 Amazon S3 객체 버전 ID를 지정합니다.
+ 중복 파일 또는 객체 경로를 지정합니다.
+ 소스 위치가 S3 버킷이 아닌 경우 객체 버전 ID를 포함합니다.
+ 매니페스트 항목에 두 개 이상의 필드를 포함합니다.

  항목에는 파일 또는 객체 경로와 (해당하는 경우) Amazon S3 객체 버전 ID만 포함될 수 있습니다.
+ UTF-8 인코딩을 준수하지 않는 문자를 포함합니다.
+ 따옴표 외부의 입력 필드에 의도하지 않은 공백을 포함합니다.

------

### 매니페스트 예제
<a name="manifest-examples"></a>

이 예제를 사용하면 DataSync에서 작동하는 매니페스트를 생성하는 데 도움이 됩니다.

**전체 파일 또는 객체 경로가 있는 매니페스트**  
다음 예제에서는 전송할 전체 파일 또는 객체 경로가 있는 매니페스트를 보여줍니다.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**객체 키만 있는 매니페스트**  
다음 예제에서는 Amazon S3 소스 위치에서 전송할 객체가 있는 매니페스트를 보여줍니다. [위치는 접두사 `photos`로 구성](create-s3-location.md#create-s3-location-how-to)되므로 객체 키만 지정됩니다.  

```
picture1.png
picture2.png
picture3.png
```

**객체 경로 및 버전 ID가 있는 매니페스트**  
다음 매니페스트 예제의 처음 두 항목에는 전송할 특정 Amazon S3 객체 버전이 포함됩니다.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**UTF-8 문자가 포함된 매니페스트**  
다음 예제에서는 UTF-8 문자가 포함된 파일이 있는 매니페스트를 보여줍니다.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## DataSync에 매니페스트 액세스 권한 제공
<a name="transferring-with-manifest-access"></a>

DataSync에 S3 버킷의 매니페스트에 대한 액세스 권한을 부여하는 AWS Identity and Access Management (IAM) 역할이 필요합니다. 이 역할에는 다음 권한이 포함되어야 합니다.
+ `s3:GetObject`
+ `s3:GetObjectVersion`

DataSync 콘솔에서 이 역할을 자동으로 생성하거나 직접 생성할 수 있습니다.

**참고**  
매니페스트가 다른에 AWS 계정있는 경우이 역할을 수동으로 생성해야 합니다.

### IAM 역할 자동 생성
<a name="creating-manfiest-role-automatically"></a>

콘솔에서 전송 작업을 생성하거나 시작할 때 DataSync는 매니페스트에 액세스하는 데 필요한 `s3:GetObject` 및 `s3:GetObjectVersion` 권한을 사용하여 IAM 역할을 생성할 수 있습니다.

**역할을 자동으로 생성하기 위해 필요한 권한**  
역할을 자동으로 생성하려면 DataSync 콘솔에 액세스하는 데 사용하는 역할에 다음 권한이 있는지 확인합니다.  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### IAM 역할 생성(동일한 계정)
<a name="creating-manfiest-role-automatically-same-account"></a>

DataSync가 매니페스트에 액세스하는 데 필요한 IAM 역할을 수동으로 생성할 수 있습니다. 다음 지침은 DataSync를 사용하고 매니페스트의 S3 버킷이 있는 동일한 AWS 계정 에 있다고 가정합니다.

1. IAM 콘솔([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/))을 엽니다.

1. 왼쪽 탐색 창의 **액세스 관리**에서 **역할**을 선택한 다음, **역할 생성**을 선택합니다.

1. **신뢰할 수 있는 엔터티 선택** 페이지에서 **신뢰할 수 있는 엔터티 유형**으로 **AWS 서비스**를 선택합니다.

1. **사용 사례**로 드롭다운 목록에서 **DataSync**를 선택하고 **DataSync**를 선택합니다. **다음**을 선택합니다.

1. **권한 추가** 페이지에서 **다음**을 선택합니다. 역할 이름을 제공하고 **역할 생성**을 선택합니다.

1. **역할** 페이지에서 방금 생성한 역할의 이름을 검색해 선택합니다.

1. 역할의 세부 정보 페이지에서 **권한** 탭을 선택합니다. **권한 추가**를 선택한 후 **인라인 정책 추가**를 선택합니다.

1. **JSON** 탭을 선택하고 다음 샘플 정책을 정책 편집기에 붙여 넣습니다.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. 방금 붙여넣은 샘플 정책에서 다음 값을 자체 값으로 바꿉니다.

   1. `amzn-s3-demo-bucket`을 매니페스트를 호스팅하는 S3 버킷의 이름으로 바꿉니다.

   1. `my-manifest.csv`를 매니페스트 파일의 이름으로 바꿉니다.

1. **다음**을 선택합니다. 정책에 이름을 제공하고 **정책 생성**을 선택합니다.

1. (권장) [교차 서비스 혼동된 대리자 문제](cross-service-confused-deputy-prevention.md)를 방지하려면 다음을 수행합니다.

   1. 역할의 세부 정도 페이지에서 **신뢰 관계** 탭을 선택합니다. **신뢰 정책 편집**을 선택합니다.

   1. `aws:SourceArn` 및 `aws:SourceAccount`전역 조건 컨텍스트 키가 포함된 다음 예를 사용하여 신뢰 정책을 업데이트하세요.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + 각 인스턴스를 DataSync를 사용하는 AWS 계정 ID`account-id`로 바꿉니다.
      + 를 DataSync를 사용하는 AWS 리전 `region`로 바꿉니다.

   1. **정책 업데이트**를 선택합니다.

DataSync가 매니페스트에 액세스하도록 허용하는 IAM 역할을 생성했습니다. 작업을 [생성](#manifest-creating-task)하거나 [시작](#manifest-starting-task)할 때 이 역할을 지정합니다.

### IAM 역할 생성(다른 계정)
<a name="creating-manfiest-role-automatically-different-account"></a>

매니페스트가 다른에 속하는 S3 버킷에 있는 AWS 계정경우 DataSync가 매니페스트에 액세스하는 데 사용하는 IAM 역할을 수동으로 생성해야 합니다. 그런 다음 매니페스트가 AWS 계정 있는에서 S3 버킷 정책에 역할을 포함해야 합니다.

#### 역할 만들기
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. IAM 콘솔([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/))을 엽니다.

1. 왼쪽 탐색 창의 **액세스 관리**에서 **역할**을 선택한 다음, **역할 생성**을 선택합니다.

1. **신뢰할 수 있는 엔터티 선택** 페이지에서 **신뢰할 수 있는 엔터티 유형**으로 **AWS 서비스**를 선택합니다.

1. **사용 사례**로 드롭다운 목록에서 **DataSync**를 선택하고 **DataSync**를 선택합니다. **다음**을 선택합니다.

1. **권한 추가** 페이지에서 **다음**을 선택합니다. 역할 이름을 제공하고 **역할 생성**을 선택합니다.

1. **역할** 페이지에서 방금 생성한 역할의 이름을 검색해 선택합니다.

1. 역할의 세부 정보 페이지에서 **권한** 탭을 선택합니다. **권한 추가**를 선택한 후 **인라인 정책 추가**를 선택합니다.

1. **JSON** 탭을 선택하고 다음 샘플 정책을 정책 편집기에 붙여 넣습니다.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. 방금 붙여넣은 샘플 정책에서 다음 값을 자체 값으로 바꿉니다.

   1. `amzn-s3-demo-bucket`을 매니페스트를 호스팅하는 S3 버킷의 이름으로 바꿉니다.

   1. `my-manifest.csv`를 매니페스트 파일의 이름으로 바꿉니다.

1. **다음**을 선택합니다. 정책에 이름을 제공하고 **정책 생성**을 선택합니다.

1. (권장) [교차 서비스 혼동된 대리자 문제](cross-service-confused-deputy-prevention.md)를 방지하려면 다음을 수행합니다.

   1. 역할의 세부 정도 페이지에서 **신뢰 관계** 탭을 선택합니다. **신뢰 정책 편집**을 선택합니다.

   1. `aws:SourceArn` 및 `aws:SourceAccount`전역 조건 컨텍스트 키가 포함된 다음 예를 사용하여 신뢰 정책을 업데이트하세요.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + 의 각 인스턴스를 DataSync를 사용하는 AWS 계정 ID`account-id`로 바꿉니다.
      + 를 DataSync를 사용하는 AWS 리전 `region`로 바꿉니다.

   1. **정책 업데이트**를 선택합니다.

S3 버킷 정책에 포함할 수 있는 IAM 역할을 생성했습니다.

#### 역할로 S3 버킷 정책 업데이트
<a name="creating-manfiest-role-automatically-different-account-2"></a>

IAM 역할을 생성한 후에는 매니페스트가 AWS 계정 있는 다른의 S3 버킷 정책에 추가해야 합니다.

1. 에서 매니페스트의 S3 버킷이 있는 계정으로 AWS Management Console전환합니다.

1. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)에서 S3 콘솔을 엽니다.

1. 버킷 세부 사항 페이지에서 **권한** 탭을 선택합니다.

1. **버킷 정책**에서 **편집**을 선택하고 다음을 수행하여 S3 버킷 정책을 수정하세요.

   1. 편집기에 있는 내용을 업데이트하여 다음 정책 설명을 포함하세요.

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. 를 DataSync를 사용하는 계정의 AWS 계정 ID로 `account-id` 바꿉니다.

   1. `datasync-role`을 방금 생성한 IAM 역할로 바꾸면 DataSync가 매니페스트에 액세스할 수 있습니다.

   1. `amzn-s3-demo-bucket`을 다른 AWS 계정에서 매니페스트를 호스팅하는 S3 버킷의 이름으로 바꿉니다.

1. **변경 사항 저장**을 선택합니다.

DataSync가 다른 계정의 매니페스트에 액세스하도록 허용하는 IAM 역할을 생성했습니다. 작업을 [생성](#manifest-creating-task)하거나 [시작](#manifest-starting-task)할 때 이 역할을 지정합니다.

## 작업 생성 시 매니페스트 지정
<a name="manifest-creating-task"></a>

작업을 생성할 때 DataSync가 사용할 매니페스트를 지정할 수 있습니다.

### DataSync 콘솔 사용
<a name="manifest-creating-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **작업**을 선택한 후 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **스캔할 콘텐츠**에서 **특정 파일, 객체 및 폴더**를 선택한 다음 **매니페스트 사용**을 선택합니다.

1. **S3 URI**에서 S3 버킷에 호스팅되는 매니페스트를 선택합니다.

   또는 URI(예: `s3://bucket/prefix/my-manifest.csv`)를 입력할 수 있습니다.

1. **객체 버전**에서 DataSync가 사용할 매니페스트의 버전을 선택합니다.

   기본적으로 DataSync는 최신 버전의 객체를 사용합니다.

1. **매니페스트 액세스 역할**에서 다음 중 하나를 수행합니다.
   + DataSync가 S3 버킷의 매니페스트에 액세스하는 데 필요한 권한을 가진 IAM 역할을 자동으로 생성하도록 **자동 생성**을 선택합니다.
   + 매니페스트에 액세스할 수 있는 기존 IAM 역할을 선택합니다.

   자세한 내용은 [DataSync에 매니페스트 액세스 권한 제공](#transferring-with-manifest-access) 단원을 참조하십시오.

1. 필요한 다른 작업 설정을 구성한 후 **다음**을 선택합니다.

1. **작업 생성**을 선택합니다.

### 사용 AWS CLI
<a name="manifest-creating-task-cli"></a>

1. 다음 `create-task`명령을 복사합니다.

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. `--source-location-arn` 파라미터에서 데이터를 전송하는 소스 위치의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--destination-location-arn` 파라미터에서 데이터를 전송하는 대상 위치의 ARN을 지정합니다.

1. `--manifest-config` 파라미터에 관하여 다음을 수행합니다.
   + `ManifestObjectPath`-매니페스트의 S3 객체 키를 지정합니다.
   + `BucketAccessRoleArn`-DataSync가 S3 버킷의 매니페스트에 액세스하도록 허용하는 IAM 역할을 지정합니다.

     자세한 내용은 [DataSync에 매니페스트 액세스 권한 제공](#transferring-with-manifest-access) 단원을 참조하십시오.
   + `S3BucketArn`-매니페스트를 호스팅하는 S3 버킷의 ARN을 지정합니다.
   + `ManifestObjectVersionId`-DataSync에서 사용할 매니페스트의 버전을 지정합니다.

     기본적으로 DataSync는 최신 버전의 객체를 사용합니다.

1. `create-task` 명령을 실행하여 작업을 생성합니다.

준비가 되면 [전송 작업을 시작](run-task.md)할 수 있습니다.

## 작업을 시작할 때 매니페스트 지정
<a name="manifest-starting-task"></a>

작업을 실행할 때 DataSync가 사용할 매니페스트를 지정할 수 있습니다.

### DataSync 콘솔 사용
<a name="manifest-starting-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **작업**을 선택한 다음 시작할 작업을 선택합니다.

1. 작업 개요 페이지에서 **시작**을 선택한 다음 **재정의 옵션으로 시작**을 선택합니다.

1. **스캔할 콘텐츠**에서 **특정 파일, 객체 및 폴더**를 선택한 다음 **매니페스트 사용**을 선택합니다.

1. **S3 URI**에서 S3 버킷에 호스팅되는 매니페스트를 선택합니다.

   또는 URI(예: `s3://bucket/prefix/my-manifest.csv`)를 입력할 수 있습니다.

1. **객체 버전**에서 DataSync가 사용할 매니페스트의 버전을 선택합니다.

   기본적으로 DataSync는 최신 버전의 객체를 사용합니다.

1. **매니페스트 액세스 역할**에서 다음 중 하나를 수행합니다.
   + DataSync에 대해 **자동 생성**을 선택하여 S3 버킷에서 매니페스트에 액세스할 IAM 역할을 자동으로 생성합니다.
   + 매니페스트에 액세스할 수 있는 기존 IAM 역할을 선택합니다.

   자세한 내용은 [DataSync에 매니페스트 액세스 권한 제공](#transferring-with-manifest-access) 단원을 참조하십시오.

1. **시작**을 선택하여 전송을 시작합니다.

### 사용 AWS CLI
<a name="manifest-starting-task-cli"></a>

1. 다음 `start-task-execution`명령을 복사합니다.

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. `--task-arn` 파라미터에는 시작하려는 작업의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--manifest-config` 파라미터에 관하여 다음을 수행합니다.
   + `ManifestObjectPath`-매니페스트의 S3 객체 키를 지정합니다.
   + `BucketAccessRoleArn`-DataSync가 S3 버킷의 매니페스트에 액세스하도록 허용하는 IAM 역할을 지정합니다.

     자세한 내용은 [DataSync에 매니페스트 액세스 권한 제공](#transferring-with-manifest-access) 단원을 참조하십시오.
   + `S3BucketArn`-매니페스트를 호스팅하는 S3 버킷의 ARN을 지정합니다.
   + `ManifestObjectVersionId`-DataSync에서 사용할 매니페스트의 버전을 지정합니다.

     기본적으로 DataSync는 최신 버전의 객체를 사용합니다.

1. `start-task-execution` 명령을 실행하여 전송을 시작합니다.

## 제한 사항
<a name="transferring-with-manifest-limitations"></a>
+ 매니페스트를 [필터](filtering.md)와 함께 사용할 수 없습니다.
+ 모든 콘텐츠를 전송할 의도로 디렉터리 또는 폴더만 지정할 수는 없습니다. 이러한 상황에서는 매니페스트 대신 [포함 필터](filtering.md)를 사용하는 것이 좋습니다.
+ **삭제된 파일 유지** 작업 옵션([API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)의 `PreserveDeletedFiles`)을 사용하여 [소스에 없는 대상의 파일 또는 객체를 유지](configure-metadata.md)할 수 없습니다. DataSync는 매니페스트에 나열된 항목만 전송하며 대상의 아무것도 삭제하지 않습니다.

## 문제 해결
<a name="manifests-troubleshooting"></a>

**`HeadObject` 또는 `GetObjectTagging` 관련 오류**  
S3 버킷에서 특정 버전 ID가 있는 객체를 전송하는 경우 `HeadObject` 또는 `GetObjectTagging` 관련 오류가 발생할 수 있습니다. 예를 들어 `GetObjectTagging` 관련 오류는 다음과 같습니다.

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

이러한 오류 중 하나가 표시되면 DataSync가 S3 소스 위치에 액세스하는 데 사용하는 IAM 역할에 다음 권한이 있는지 확인합니다.
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

이러한 권한으로 역할을 업데이트해야 하는 경우 [DataSync가 Amazon S3 위치에 액세스할 수 있도록 IAM 역할 생성](create-s3-location.md#create-role-manually) 섹션을 참조하세요.

**오류: `ManifestFileDoesNotExist`**  
이 오류는 매니페스트 내의 파일을 소스에서 찾을 수 없음을 나타냅니다. 매니페스트 생성 [지침](#transferring-with-manifest-guidelines)을 검토합니다.

## 다음 단계
<a name="manifests-next-steps"></a>

아직 작업을 시작하지 않은 경우 [작업을 시작](run-task.md)합니다. 그렇지 않으면 [작업의 활동을 모니터링](monitoring-overview.md)합니다.

# 필터를 사용하여 특정 파일, 객체 및 폴더 전송
<a name="filtering"></a>

AWS DataSync 를 사용하면 필터를 적용하여 전송 시 소스 위치에서 데이터를 포함하거나 제외할 수 있습니다. 예를 들어 `.tmp`로 끝나는 임시 파일을 전송하지 않으려면 해당 파일이 대상 위치로 전송되지 않게 하는 제외 필터를 생성할 수 있습니다.

동일한 전송 작업에 제외 필터와 포함 필터를 조합하여 사용할 수 있습니다. 작업의 필터를 수정하면 다음 번에 작업을 실행할 때 이러한 변경 사항이 적용됩니다.

## 필터링 용어, 정의 및 구문
<a name="filter-overview"></a>

DataSync 필터링과 관련된 개념을 숙지하세요.

**필터 **  
특정 필터(예, `*.tmp``|``*.temp`혹은 `/folderA|/folderB`)를 구성하는 전체 문자열입니다.  
필터는 하나의 파이프(\$1)를 사용하여 구분되는 패턴으로 구성됩니다. 각 패턴을 개별적으로 추가하므로 DataSync 콘솔에 패턴을 추가할 때 구분 기호를 사용할 필요가 없습니다.  
필터 값은 대소문자를 구분합니다. 예를 들어 필터 `/folderA`은 `/FolderA`와 일치하지 않습니다.

**패턴**  
필터 내 패턴입니다. 예를 들어, `*.tmp`은 `*.tmp``|``*.temp`필터의 일부인 패턴입니다. 필터에 여러 패턴이 있는 경우 파이프(\$1)를 사용하여 각 패턴을 구분합니다.

**폴더**  
+ 모든 필터는 소스 위치 경로와 관련이 있습니다. 예를 들어, 사용자가 사용자 소스 위치와 작업을 생성할 때 `/my_source/`을 소스 경로로 지정한다면 포함 필터 `/transfer_this/`를 지정합니다. 이 경우 DataSync는 디렉터리 `/my_source/transfer_this/`과 그 콘텐츠만 전송합니다.
+ 소스 위치 바로 밑에 직접 폴더를 지정하려면 폴더 이름 앞에 슬래시(/)를 포함시키십시오. 이전 예제에서 패턴은 `transfer_this`가 아닌 `/transfer_this`를 사용합니다.
+ DataSync는 다음 패턴을 동일한 방식으로 해석하여 폴더와 해당 콘텐츠 모두를 일치시킵니다.

  `/dir` 

  `/dir/`
+ `/`Amazon S3 버킷로 혹은 거기에서 데이터를 전송할 때 DataSync는 객체 키의 문자를 파일 시스템의 폴더와 동등하게 취급합니다.

**특수 문자**  
필터링에 사용할 특수 문자는 다음과 같습니다.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/filtering.html)

## 필터 예제
<a name="sample-filters"></a>

다음 예제에서는 DataSync에 사용할 수 있는 공통 필터를 보여 줍니다.

**참고**  
필터에 사용할 수 있는 문자 수에는 제한이 있습니다. 자세한 설명은 [DataSync 할당량](datasync-limits.md#task-hard-limits)섹션을 참조하세요.

**소스 위치에서 일부 폴더 제외**  
경우에 따라 소스 위치의 폴더가 대상 위치로 복사 되지 않도록 제외 필터를 원할 수도 있습니다. 예를 들어, 작업 진행 중인 임시 폴더가 있는 경우 다음 필터와 같은 것을 사용할 수 있습니다.

`*/.temp`

비슷한 콘텐츠(예: `/reports2021`및`/reports2022)`) 가 있는 폴더를 제외하려면 다음과 같은 제외 필터를 사용할 수 있습니다.

`/reports*`

파일 계층 구조의 모든 레벨 폴더를 제외하려면 제외 필터를 다음과 같이 사용하면 됩니다.

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

소스 위치의 최상위 레벨 폴더를 제외하려면 제외 필터를 다음과 같이 사용하면 됩니다.

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**소스 위치에 폴더 서브셋을 포함시킵니다**  
경우에 따라 소스 위치가 대규모 공유가 되면 해당 루트 아래에 있는 폴더의 서브셋만 전송해야 합니다. 특정 폴더를 포함하려면 다음과 같은 포함 필터가 있는 작업 실행을 시작합니다.

`/folder-to-transfer/*`

**특정 파일 유형 제외**  
전송에서 특정 파일 유형을 제외하려면 `*.temp`와 같은 제외 필터가 있는 작업 실행을 생성하면 됩니다.

**지정한 개별 파일만 전송**  
일련의 개별 파일을 전송하려면 다음의 제외 필터가 있는 작업 실행을 시작합니다: “`/folder/subfolder/file1.txt`\$1`/folder/subfolder/file2.txt`\$1`/folder/subfolder/file2.txt`”

## 포함 필터 생성
<a name="include-filters"></a>

포함 필터는 DataSync가 전송할 파일, 객체, 폴더를 정의합니다. 작업을 생성하거나 편집 또는 시작할 때 포함 필터를 구성할 수 있습니다.

DataSync는 포함 필터와 일치하는 파일 및 폴더만 스캔하고 전송합니다. 예를 들어, 소스 폴더의 서브셋만 포함하려면 `/important_folder_1`\$1`/important_folder_2`를 지정하면 됩니다.

**참고**  
포함 필터는 와일드 카드 (\$1) 문자를 패턴에서 오른쪽 끝에 둡니다. 예를 들어, `/documents*`\$1`/code*`는 지원되지만 `*.txt`은 지원되지 않습니다.

### DataSync 콘솔 사용
<a name="include-filters-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **작업**을 선택한 후 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **스캔할 콘텐츠**에서 **특정 파일, 객체 및 폴더**를 선택한 다음 **필터 사용**을 선택합니다.

1. **포함**에서 필터를 입력한 다음(예: 중요한 디렉터리를 포함하려면 `/important_folders`) **패턴 추가**를 선택합니다.

1. 필요에 따라 다른 포함 필터를 추가합니다.

### 사용 AWS CLI
<a name="include-filters-cli"></a>

를 사용할 때는 필터 주위에 작은따옴표(`'`)를 사용하고 필터가 두 개 이상인 경우 \$1(파이프)를 구분 기호로 사용해야 AWS CLI합니다.

다음 예제에서는 `create-task` 명령을 실행할 때 포함 필터 `/important_folder1`과 `/important_folder2` 두 가지를 지정합니다.

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## 제외 필터 생성
<a name="exclude-filters"></a>

제외 필터는 DataSync가 전송하지 않도록 소스 위치의 파일, 객체 및 폴더를 정의합니다. 작업을 생성하거나 편집 또는 시작할 때 이러한 필터를 구성할 수 있습니다.

**Topics**
+ [기본값으로 제외된 데이터](#directories-ignored-during-transfers)

### 기본값으로 제외된 데이터
<a name="directories-ignored-during-transfers"></a>

DataSync는 일부 데이터가 전송되지 않도록 자동으로 제외합니다.
+ `.snapshot`-DataSync는 `.snapshot`로 끝나는 모든 경로를 무시합니다. 이 경로는 일반적으로 스토리지 시스템의 파일 또는 디렉터리의 특정 시점 스냅샷에 사용됩니다.
+ `/.aws-datasync` 및 `/.awssync`-DataSync는 전송을 용이하게 하기 위해 사용자 위치에 이러한 폴더를 생성합니다.
+ `/.zfs`-Amazon FSx for OpenZFS의 위치에 이 폴더가 표시될 수 있습니다.

### DataSync 콘솔 사용
<a name="adding-exclude-filters"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **작업**을 선택한 후 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **제외**에서 필터를 입력한 다음(예: 임시 폴더를 제외하려면 `*/temp`) **패턴 추가**를 선택합니다.

1. 필요에 따라 다른 제외 필터를 추가합니다.

1. 필요한 경우 [포함 필터](#include-filters)를 추가합니다.

### 사용 AWS CLI
<a name="adding-exclude-filters-cli"></a>

를 사용할 때는 필터 주위에 작은따옴표(`'`)를 사용하고 필터가 두 개 이상인 경우 \$1(파이프)를 구분 기호로 사용해야 AWS CLI합니다.

다음 예제에서는 `create-task` 명령을 실행할 때 제외 필터 `*/temp`과 `*/tmp` 두 가지를 지정합니다.

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# DataSync가 파일 및 객체 메타데이터를 처리하는 방법 이해
<a name="metadata-copied"></a>

AWS DataSync 는 데이터 전송 중에 파일 또는 객체 메타데이터를 보존할 수 있습니다. 메타데이터를 복사하는 방법은 전송 위치 및 전송 위치에서 유사한 유형의 메타데이터를 사용하는지 여부에 따라 달라집니다.

## 시스템 수준 메타데이터
<a name="metadata-copied-system-level"></a>

일반적으로 DataSync는 시스템 수준 메타데이터를 복사하지 않습니다. 예를 들어, SMB 파일 서버에서 전송하는 경우, 파일 시스템 수준에서 구성한 권한은 목적지 스토리지 시스템에 복사되지 않습니다.

예외는 있습니다. Amazon S3와 다른 객체 스토리지 간에 전송할 때 DataSync는 일부[시스템 정의 객체 메타데이터를 복사합니다](#metadata-copied-between-object-s3).

## Amazon S3 전송에서 복사된 메타데이터
<a name="metadata-copied-amazon-s3"></a>

다음 표는 전송에 Amazon S3 위치가 포함된 경우 DataSync가 복사할 수 있는 메타데이터를 설명합니다.

**Topics**
+ [Amazon S3로](#metadata-copied-to-s3)
+ [Amazon S3와 다른 객체 스토리지 사이에서](#metadata-copied-between-object-s3)
+ [Amazon S3와 HDFS 사이에서](#metadata-copied-between-hdfs-s3)

### Amazon S3로
<a name="metadata-copied-to-s3"></a>


| 다음 위치 중 하나에서 복사하는 경우 | 이 위치로 | DataSync는 다음을 복사할 수 있습니다 | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  Amazon S3 사용자 메타데이터로서 복사할 수 있습니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html) Amazon S3 사용자 메타데이터에 저장된 파일 메타데이터는 AWS Storage Gateway을 사용하는 File Gateway에서 NFS와 상호 운용할 수 있습니다. File Gateway를 사용하면 온 프레미스 네트워크에서 DataSync가 Amazon S3로 복사한 데이터에 지연 시간이 짧게 액세스할 수 있습니다. 이 메타데이터는 Lustre용 FSx와도 상호 운용할 수 있습니다. DataSync가 이 메타데이터를 포함하는 객체를 다시 NFS 서버로 복사하는 경우, 파일 메타데이터가 복원됩니다. 메타데이터를 복원하려면 NFS 서버에 상향 조정된 권한을 부여해야 합니다. 자세한 설명은 [NFS 파일 서버를 사용하여 AWS DataSync 전송 구성](create-nfs-location.md)섹션을 참조하세요.  | 

### Amazon S3와 다른 객체 스토리지 사이에서
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)

### Amazon S3와 HDFS 사이에서
<a name="metadata-copied-between-hdfs-s3"></a>


| 이러한 위치 사이에 복사하는 경우 | DataSync는 다음을 | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  | Amazon S3 사용자 메타데이터로서 복사할 수 있습니다.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)HDFS는 UID 및 GID와 같은 숫자 식별자 대신, 문자열을 사용하여 파일 및 폴더 사용자 및 그룹 소유권을 저장합니다. | 

## NFS 전송 시 복사된 메타데이터
<a name="metadata-copied-nfs"></a>

다음 표에서는 NFS(네트워크 파일 시스템)를 사용하는 위치 간에 DataSync가 복사할 수 있는 메타데이터를 설명합니다.


| 이러한 위치 사이에 복사하는 경우 | DataSync는 다음을 복사할 수 있습니다 | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  | 

## SMB 전송 시 복사된 메타데이터
<a name="metadata-copied-smb"></a>

다음 표에서는 서버 메시지 블록(SMB)을 사용하는 위치 사이에서 DataSync가 복사할 수 있는 메타데이터를 설명합니다.


| 이러한 위치 사이에 복사하는 경우 | DataSync는 다음을 복사할 수 있습니다 | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  | 

## 다른 전송 시나리오에서 복사된 메타데이터
<a name="metadata-copied-different"></a>

DataSync는 이 스토리지 시스템들(대부분 메타데이터 구조가 다름) 간에 복제할 때 다음과 같은 방식으로 메타데이터를 처리합니다.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)

## DataSync가 기본 POSIX 메타데이터를 적용하는 시기와 방법에 대한 이해
<a name="POSIX-metadata"></a>

DataSync는 다음과 같은 경우에 기본 POSIX 메타데이터를 적용합니다.
+ 사용자 전송의 소스 및 대상 위치에 유사한 메타데이터 구조가 없는 경우
+ 소스 위치에 메타데이터가 누락된 경우

다음 표는 DataSync가 이러한 유형의 전송 중에 기본 POSIX 메타데이터를 적용하는 방법을 설명합니다.


| 소스 | Destination | 파일 권한 | 폴더 권한 | UID | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 이전에 DataSync에 의해 적용한 메타데이터가 객체에 없는 경우.

# 에서 복사한 링크 및 디렉터리 AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync 는 전송과 관련된 스토리지 위치에 따라 하드 링크, 심볼 링크 및 디렉터리를 다르게 처리합니다.

## 하드 링크
<a name="special-files-copied-hard-links"></a>

DataSync가 몇 가지 일반적인 전송 시나리오에서 하드 링크를 처리하는 방법은 다음과 같습니다.
+ **NFS 파일 서버, Lustre용 FSx, OpenZFS용 FSx, ONTAP용 FSx(NFS 사용) 및 Amazon EFS 간에 전송하는 경우** 하드 링크가 보존됩니다.
+ **Amazon S3로 전송할 때** 하드 링크로 참조되는 각 기본 파일은 한 번만 전송됩니다. 증분 전송 중에는 S3 버킷에 별도의 객체가 생성됩니다. Amazon S3에서 하드 링크가 변경되지 않은 경우, NFS 파일 서버, Lustre 용 FsX, OpenZFS용 FSx, ONTAP용 FSx(NFS 사용) 또는 Amazon EFS 파일 시스템으로 전송될 때 하드링크는 올바르게 복원됩니다.
+ **Microsoft Azure Blob Storage로 전송할 때** 하드 링크로 참조되는 각 기본 파일은 한 번만 전송됩니다. 증분 전송 시 원본에 새 참조가 있는 경우 blob 저장소에 별도의 객체가 생성됩니다. Azure Blob Storage에서 전송할 때 DataSync는 하드 링크를 개별 파일인 것처럼 전송합니다.
+ **SMB 파일 서버, Windows File Server용 FSx 및 ONTAP용 FSx(SMB 사용) 간에 전송하는 경우** 하드 링크는 지원되지 않습니다. 이러한 상황에서 DataSync가 하드 링크와 마주치게 되면, 전송 작업이 완료되고 오류가 발생합니다. 자세한 내용은 CloudWatch 로그를 확인하세요.
+ **HDFS로 전송할 때** 하드 링크는 지원되지 않습니다. CloudWatch 로그에는 이러한 링크가 건너뛰기 한 것으로 표시됩니다.

## 심볼 링크
<a name="special-files-copied-symbolic-links"></a>

DataSync가 몇 가지 일반적인 전송 시나리오에서 심볼 링크를 처리하는 방법은 다음과 같습니다.
+ **NFS 파일 서버, Lustre용 FSx, OpenZFS용 FSx, ONTAP용 FSx(NFS 사용) 및 Amazon EFS 간에 전송하는 경우** 심볼 링크가 보존됩니다.
+ **Amazon S3로 전송할 때** 링크 대상 경로가 Amazon S3 객체에 저장됩니다. NFS 파일 서버, Lustre 용 FsX, OpenZFS용 FSx, ONTAP용 FSx (NFS 사용) 또는 Amazon EFS 파일 시스템으로 전송될 때 링크는 올바르게 복원됩니다.
+ **Azure Blob Storage로 전송할 때** 심볼 링크는 지원되지 않습니다. CloudWatch 로그에는 이러한 링크가 건너뛰기 한 것으로 표시됩니다.
+ **SMB 파일 서버, Windows File Server의 경우 FSx 및 ONTAP용 FSx(SMB 사용) 간에 전송하는 경우** 심볼 링크는 지원되지 않습니다. DataSync는 심볼 링크 자체를 전송하지 않고 대신 심볼 링크에서 참조하는 파일을 전송합니다. 중복 파일을 인식하고 심볼 링크를 사용하여 중복 제거하려면 대상 파일 시스템에서 중복 제거를 구성해야 합니다.
+ **HDFS로 전송할 때** 심볼 링크는 지원되지 않습니다. CloudWatch 로그에는 이러한 링크가 건너뛰기 한 것으로 표시됩니다.

## 디렉터리
<a name="special-files-copied-directories"></a>

일반적으로 DataSync는 스토리지 시스템 간 전송 시 디렉토리를 보존합니다. 이는 다음과 같은 경우에는 해당되지 않습니다.
+ **Amazon S3로 전송할 때** 디렉터리는 접두사가 있고 포워드 슬래시(`/`)로 끝나는 빈 객체로 표시됩니다.
+ **계층적 네임스페이스 없이 Azure Blob Storage로 전송할 때는** 디렉터리가 존재하지 않습니다. 디렉터리처럼 보이는 것은 개체 이름의 일부일 뿐입니다.

# 파일, 객체 및 메타데이터 처리 방법 구성
<a name="configure-metadata"></a>

위치 간에 전송할 때가 파일, 객체 및 관련 메타데이터를 AWS DataSync 처리하는 방법을 구성할 수 있습니다.

예를 들어 반복 전송의 경우 위치를 동기화하기 위해 대상의 파일을 원본의 변경 내용으로 덮어쓰고 싶을 수 있습니다. 파일 및 폴더에 대한 POSIX 권한, 객체와 관련된 태그, 액세스 제어 목록(ACL) 과 같은 속성을 복사할 수 있습니다.

## 전송 모드 옵션
<a name="task-option-transfer-mode"></a>

DataSync가 초기 복사 후 변경된 데이터(메타데이터 포함)만 전송할지 아니면 작업을 실행할 때마다 모든 데이터를 전송할지를 구성할 수 있습니다. 반복 전송을 계획한다면 이전 작업 실행 이후 변경된 내용만 전송하는 것이 좋을 수 있습니다.


| 콘솔 내 옵션 | API 내 옵션 | 설명 | 
| --- | --- | --- | 
|  **변경된 데이터만 전송**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)를 `CHANGED`(으)로 설정  | 최초 전체 전송 후 DataSync는 소스 위치와 대상 위치 간에 서로 다른 데이터와 메타데이터만 복사합니다. | 
|  **모든 데이터 전송**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)를 `ALL`(으)로 설정  |  DataSync는 위치 간의 차이를 비교하지 않고 소스의 모든 데이터를 대상으로 복사합니다.  | 

## 파일 및 객체 처리 옵션
<a name="task-option-file-object-handling"></a>

DataSync가 대상 위치의 파일 또는 객체를 처리하는 방식 중 일부를 제어할 수 있습니다. 예를 들어 DataSync는 소스에는 없는 대상 내 파일을 삭제할 수 있습니다.


| 콘솔 내 옵션 | API 내 옵션 | 설명 | 
| --- | --- | --- | 
|  **삭제된 파일 유지**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  DataSync가 소스에는 존재하지 않는 파일이나 객체를 대상 위치에 유지할지 여부를 지정합니다. Amazon S3 버킷에서 객체를 삭제하도록 작업을 구성하는 경우, 특정 스토리지 클래스에 대한 최소 스토리지 기간 요금이 발생할 수 있습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes)섹션을 참조하세요.  대상의 데이터를 삭제하면서, 동시에 [모든 데이터를 전송](#task-option-transfer-mode)하도록 작업을 구성할 수는 없습니다. 모든 데이터를 전송할 때 DataSync는 목적지 위치를 스캔하지 않으므로 무엇을 삭제해야 할지 모릅니다.   | 
|  **파일 덮어쓰기**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  소스 데이터 또는 메타데이터가 변경되었을 때 DataSync가 대상 위치의 데이터를 수정할지 여부를 지정합니다. 데이터를 덮어쓰도록 작업을 구성하지 않으면 소스 데이터가 다르더라도 대상 데이터를 덮어쓰지 않습니다. 태스크에서 객체를 덮어쓰는 경우, 특정 스토리지 클래스(예: 검색 또는 조기 삭제) 에 대한 추가 요금이 발생할 수 있습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes)섹션을 참조하세요.  | 

## 메타데이터 처리 옵션
<a name="task-option-metadata-handling"></a>

DataSync는 데이터 전송 중에 파일 또는 객체 메타데이터를 보존할 수 있습니다. DataSync가 보존할 수 있는 메타데이터는 관련된 스토리지 시스템과 해당 시스템이 유사한 메타데이터 구조를 사용하는지 여부에 따라 달라집니다.

작업을 구성하기 전에 DataSync가 소스와 대상 위치 간 전송 시 [메타데이터](metadata-copied.md) 및 [특수 파일](special-files-copied.md)을 처리하는 방법을 이해해야 합니다.

**중요**  
DataSync는 Google Cloud Storage 및 IBM Cloud 객체 스토리지와 같은 특정 타사 클라우드 스토리지 시스템으로 보내거나 받는 양방향 전송을 지원하며, 이는 S3과 완전히 호환되지는 않는 방식으로 시스템 메타데이터를 처리합니다. 이러한 전송을 위해 DataSync는 최선을 다해 `ContentType`, `ContentEncoding`, `ContentLanguage`, `CacheControl`와 같은 메타데이터 속성을 복사하고자 시도합니다. 대상 스토리지 시스템이 이러한 속성을 적용하지 않으면 해당 속성은 작업 확인 중에 무시됩니다.


| 콘솔 내 옵션 | API 내 옵션 | 설명 | 
| --- | --- | --- | 
|  **소유권 복사**  | [GID](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) 및 [UID](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Uid) |  DataSync는 파일 소유자의 그룹 ID 및 파일 소유자의 사용자 ID와 같은 POSIX 파일 및 폴더 소유권의 복사 여부를 지정합니다.  | 
|  **복사 권한**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  DataSync는 파일 및 폴더에 대한 POSIX 권한을 소스에서 대상으로 복사할지 여부를 지정합니다.  | 
| 타임스탬프 복사 | [Atime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime) 및 [Mtime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Mtime) |  DataSync는 타임스탬프 메타데이터를 소스에서 대상으로 복사할지 여부를 지정합니다. 이 옵션은 작업을 두 번 이상 실행해야 하는 경우에 필요합니다.  | 
| 객체 태그 복사 | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  DataSync는 객체 스토리지 시스템 간 전송 시 객체와 관련된 태그 보존 여부를 지정합니다.  | 
| 소유권, DACL 및 SACL 복사 | [SecurityDescriptorCopyFlags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)를 OWNER\$1DACL\$1SACL(으)로 설정 |  DataSync는 다음을 복사합니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/configure-metadata.html)  | 
| 소유권 및 DACL 복사 | [SecurityDescriptorCopyFlags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)를 OWNER\$1DACL(으)로 설정 |  DataSync는 다음을 복사합니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/datasync/latest/userguide/configure-metadata.html) 이 옵션을 선택하면, DataSync는 SACL을 복사하지 않습니다.  | 
| 소유권이나 ACL을 복사하지 마세요. | [SecurityDescriptorCopyFlags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)를 NONE(으)로 설정 |  DataSync는 소유권 또는 권한 데이터를 복사하지 않습니다. DataSync가 대상 위치에 쓰는 객체가 DataSync가 대상에 액세스할 수 있도록 보안 인증을 제공한 사용자가 소유합니다. 대상 객체 권한은 대상 서버에 구성된 권한에 따라 결정됩니다.  | 

## 파일, 객체, 메타데이터 처리 옵션 구성
<a name="configure-file-metadata-options"></a>

전송 작업을 생성, 편집, 시작할 때 DataSync가 파일, 객체, 메타데이터를 처리하는 방법을 구성할 수 있습니다.

### DataSync 콘솔 사용
<a name="configure-metadata-console"></a>

다음 지침에서는 작업 생성 시 파일, 객체, 메타데이터 처리 옵션을 구성하는 방법을 설명합니다.

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **전송 모드**의 경우, 다음 옵션 중 하나를 선택합니다.
   + **변경된 데이터만 전송**
   + **모든 데이터 전송**

   이러한 옵션에 대한 자세한 내용은 [전송 모드 옵션](#task-option-transfer-mode) 섹션을 참조하세요.

1. DataSync가 소스에 없는 대상 위치의 파일 또는 객체를 유지하도록 하려면 **삭제된 파일 유지**를 선택합니다.

   이 옵션을 선택하지 않고 사용자의 태스크가 Amazon S3에서 객체를 삭제하는 경우, 특정 스토리지 클래스에 대한 최소 스토리지 기간 요금이 발생할 수 있습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes)섹션을 참조하세요.
**주의**  
이 옵션을 선택 취소하고 **모든 데이터 전송**을 활성화할 수는 없습니다. 모든 데이터를 전송할 때 DataSync는 목적지 위치를 스캔하지 않으므로 무엇을 삭제해야 할지 모릅니다.

1. 소스 데이터 또는 메타데이터가 변경되었을 때 DataSync가 대상 위치의 데이터를 수정하도록 하려면 **파일 덮어쓰기**를 선택합니다.

   태스크에서 객체를 덮어쓰는 경우, 특정 스토리지 클래스(예: 검색 또는 조기 삭제) 에 대한 추가 요금이 발생할 수 있습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes)섹션을 참조하세요.

   이 옵션을 선택하지 않으면, 소스 데이터가 다르더라도 대상 데이터를 덮어쓰지 않습니다.

1. **전송 옵션**에서 DataSync가 메타데이터를 처리하는 방법을 선택합니다. 이러한 옵션에 대한 자세한 내용은 [메타데이터 처리 옵션](#task-option-metadata-handling)을 참조하세요.
**중요**  
콘솔에 표시되는 옵션은 작업의 소스 및 대상 위치에 따라 달라집니다. 이러한 옵션을 보려면 **추가 설정**을 확장해야 할 수 있습니다.
   + **소유권 복사**
   + **복사 권한**
   + **타임스탬프 복사**
   + **객체 태그 복사**
   + **소유권, DACL 및 SACL 복사**
   + **소유권 및 DACL 복사**
   + **소유권이나 ACL을 복사하지 마세요.**

### DataSync API 사용
<a name="configure-file-metadata-options-api"></a>

다음 작업 중 하나와 함께 `Options` 파라미터를 사용하여 파일, 객체, 메타데이터 처리 옵션을 구성할 수 있습니다.
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# 가 데이터 무결성을 AWS DataSync 확인하는 방법 구성
<a name="configure-data-verification-options"></a>

전송 중에는 체크섬 확인을 AWS DataSync 사용하여 위치 간에 복사하는 데이터의 무결성을 확인합니다. 전송이 끝날 때 추가 확인을 수행하도록 DataSync를 구성할 수도 있습니다.

## 데이터 확인 옵션
<a name="data-verification-options"></a>

다음 정보를 사용하면 DataSync가 이러한 추가 검사를 수행할지 여부와 방법을 결정하는 데 도움이 됩니다.


| 콘솔 옵션 | API 옵션 | 설명 | 
| --- | --- | --- | 
|  **전송된 데이터만 확인**(권장)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)를 `ONLY_FILES_TRANSFERRED`(으)로 설정  |  DataSync는 소스 위치에서 전송된 데이터(메타데이터 포함)의 체크섬을 계산합니다. 전송이 끝날 때, DataSync가 이 체크섬을 대상에서의 동일한 데이터에 대해 계산된 체크섬과 비교합니다. S3 Glacier Flexible Retrieval 또는 S3 Glacier Deep Archive 스토리지 클래스로 전송하는 경우, 이 옵션을 사용하는 것이 좋습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes) 단원을 참조하십시오.  | 
|  **모든 데이터 확인**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)를 `POINT_IN_TIME_CONSISTENT`(으)로 설정  |  전송 종료 시 DataSync는 전체 소스와 대상을 검사하여 두 위치가 완전히 동기화되었는지 확인합니다.  작업이 [확장 모드](choosing-task-mode.md)를 사용하는 경우 지원되지 않습니다.  [매니페스트](transferring-with-manifest.md)를 사용하는 경우 DataSync는 매니페스트에 나열된 항목만 스캔하고 확인합니다. S3 Glacier Flexible Retrieval 또는 S3 Glacier Deep Archive 스토리지 클래스로 전송하는 경우 이 옵션을 사용할 수 없습니다. 자세한 내용은 [Amazon S3 전송 시 스토리지 클래스 고려 사항](create-s3-location.md#using-storage-classes) 단원을 참조하십시오.  | 
| 전송 후 데이터 확인 안 함 |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)를 `NONE`(으)로 설정  | DataSync는 전송 중에만 데이터 무결성 검사를 수행합니다. 다른 옵션과 달리 전송이 끝날 때 추가 확인은 없습니다. | 

## 데이터 확인 구성
<a name="configure-data-verification"></a>

작업을 생성하거나, 작업을 업데이트하거나, 작업 실행을 시작할 때 데이터 확인 옵션을 구성할 수 있습니다.

### DataSync 콘솔 사용
<a name="configure-data-verification-options-console"></a>

다음 지침에서는 태스크를 생성 시 데이터 확인 옵션을 구성하는 방법을 설명합니다.

**콘솔을 사용하여 데이터 검사를 구성하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **확인**에서 다음 중 하나를 선택합니다.
   + **전송된 데이터만 확인**(권장)
   + **모든 데이터 확인**
   + **전송 후 데이터 확인 안 함**

### DataSync API 사용
<a name="configure-data-verification-options-api"></a>

다음 작업을 통해 `VerifyMode` 파라미터를 사용하여 DataSync가 데이터를 검사하는 방법을 구성할 수 있습니다.
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# AWS DataSync 작업에 대한 대역폭 제한 설정
<a name="configure-bandwidth"></a>

 AWS DataSync 작업 및 각 실행에 대한 네트워크 대역폭 제한을 구성할 수 있습니다.

## 태스크의 대역폭 제한
<a name="configure-bandwidth-create"></a>

태스크를 생성, 편집 또는 시작할 때 대역폭 제한을 설정합니다.

### DataSync 콘솔 사용
<a name="configure-bandwidth-create-console"></a>

다음 지침은 태스크 생성 시 태스크의 대역폭 제한을 구성하는 방법을 설명합니다.

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **대역폭 제한**에서 다음 중 하나를 선택합니다.
   + 각 태스크 실행에 대하여 모든 사용 가능한 네트워크 대역폭을 사용하려면 **사용하기 가능** 을 선택합니다.
   + **대역폭 제한 설정(MiB/s)** 을 선택하고 DataSync가 각 태스크 실행에 사용할 최대 대역폭을 입력합니다.

### DataSync API 사용
<a name="configure-bandwidth-create-api"></a>

다음 태스크 중 하나에서 `BytesPerSecond`파라미터를 사용하여 태스크의 대역폭 제한을 구성할 수 있습니다.
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## 태스크 실행을 위한 대역폭 조절
<a name="adjust-bandwidth-throttling"></a>

실행 중이거나 대기 중인 태스크 실행의 대역폭 제한을 수정할 수 있습니다.

### DataSync 콘솔 사용
<a name="adjust-bandwidth-throttling-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 탐색 창에서 **데이터 전송**을 확장한 다음 **태스크**를 선택합니다.

1. 태스크를 선택한 다음 **기록**을 선택하여 태스크 실행을 확인합니다.

1. 수정할 태스크 실행을 선택한 후 **편집**을 선택합니다.

1. 대화 상자에서 다음 중 하나를 수행합니다.
   + 태스크 실행에 모든 사용 가능한 네트워크 대역폭을 사용하려면 **사용하기 가능**을 선택합니다.
   + **대역폭 제한 설정(MiB/s)**을 선택하고 DataSync가 태스크 실행에 사용할 최대 대역폭을 입력합니다.

1. **변경 사항 저장**을 선택합니다.

   새 대역폭 제한은 60초 이내에 적용됩니다.

### DataSync API 사용
<a name="adjust-bandwidth-throttling-api"></a>

[UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)을 가지고 `BytesPerSecond`파라미터를 사용하여 실행 중이거나 대기중인 태스크 실행에 대한 대역폭 제한을 수정할 수 있습니다.

# AWS DataSync 작업 실행 시 예약
<a name="task-scheduling"></a>

스토리지 위치 간에 데이터를 정기적으로 전송하도록 AWS DataSync 작업을 설정할 수 있습니다.

## DataSync 작업 예약 작동 방식
<a name="how-task-scheduling-works"></a>

예약된 DataSync 작업은 사용자가 지정한 빈도(최소 1시간 간격)로 실행됩니다. Cron 또는 Rate 표현식을 사용하여 작업 일정을 생성할 수 있습니다.

**중요**  
1시간 이내의 간격으로 작업이 실행되도록 예약할 수 없습니다.

**cron 표현식 사용**  
특정 시간 및 날짜에 실행되는 작업 일정에 Cron 표현식을 사용합니다. 예를 들어 일요일과 수요일 오후 12:00 UTC에 AWS CLI에서 실행되는 작업 일정을 구성하는 방법은 다음과 같습니다.  

```
cron(0 12 ? * SUN,WED *)
```

**Rate 표현식 사용**  
12시간마다와 같이 정기적으로 실행되는 작업 일정에 Rate 표현식을 사용합니다. 예를 들어 12시간마다 AWS CLI에서 실행되는 작업 일정을 구성하는 방법은 다음과 같습니다.  

```
rate(12 hours)
```

**작은 정보**  
Cron 표현식 및 Rate 표현식 구문에 대한 자세한 내용은 [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html)를 참조하세요.

## DataSync 작업 일정 생성
<a name="configure-task-schedule"></a>

DataSync 콘솔, AWS CLI 또는 DataSync API를 사용하여 작업 실행 빈도를 예약할 수 있습니다.

### DataSync 콘솔 사용
<a name="configure-task-schedule-console"></a>

다음 지침은 작업을 생성할 때 일정을 설정하는 방법을 설명합니다. 작업을 편집할 경우 나중에 일정을 수정할 수 있습니다.

콘솔에서 일부 예약 옵션을 사용하면 작업이 실행되는 정확한 시간(예: 매일 오후 10시 30분)을 지정할 수 있습니다. 이러한 옵션에 시간을 포함하지 않으면 작업는 작업을 생성(또는 업데이트)하는 시점에 실행됩니다.

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)에서 AWS DataSync콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. 일정 **빈도**에서 다음 중 하나를 수행합니다.
   + 작업이 일정에 따라 실행되지 않게 하려면 **예약되지 않음**을 선택합니다.
   + **시간별**을 선택한 다음 작업을 실행할 시간 중 분을 선택합니다.
   + **일별**을 선택하고 작업을 실행할 UTC 시간을 입력합니다.
   + **주별** 및 요일을 선택하고 작업을 실행할 UTC 시간을 입력합니다.
   + **요일**을 선택하고 특정 요일을 선택한 다음 작업을 실행할 UTC 시간을 HH:MM 형식으로 입력합니다.
   + **사용자 지정**을 선택한 다음 **Cron 표현식** 또는 **Rate 표현식**을 선택합니다. 최소 1시간 간격으로 작업 일정을 입력합니다.

### AWS CLI 사용
<a name="configure-task-schedule-api"></a>

`--schedule` 파라미터를 `create-task`, `update-task` 또는 `start-task-execution` 명령과 함께 사용하여 DataSync 작업의 일정을 생성할 수 있습니다.

다음 지침은 `create-task` 명령을 사용하여 이 작업을 수행하는 방법을 설명합니다.

1. 다음 `create-task`명령을 복사합니다.

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. `--source-location-arn` 파라미터에서 데이터를 전송하는 소스 위치의 Amazon 리소스 이름(ARN)을 지정합니다.

1. `--destination-location-arn` 파라미터에서 데이터를 전송하는 대상 위치의 ARN을 지정합니다.

1. `--schedule` 파라미터에서 일정에 대한 Cron 또는 Rate 표현식을 지정합니다.

   이 예제에서 Cron 표현식 `cron(0 12 ? * SUN,WED *)`은 매주 일요일과 수요일 오후 12:00 UTC에 실행되는 작업 일정을 설정합니다.

1. `create-task` 명령을 실행하여 일정이 있는 작업을 생성합니다.

## DataSync 작업 일정 일시 중지
<a name="pause-task-schedule"></a>

DataSync 작업 일정을 일시 중지해야 하는 상황이 있을 수 있습니다. 예를 들어 작업 문제를 해결하거나 스토리지 시스템에서 유지 관리를 수행하려면 반복 전송을 일시적으로 비활성화해야 할 수 있습니다.

DataSync는 다음과 같은 이유로 작업 일정을 자동으로 비활성화할 수 있습니다.
+ 동일한 오류로 작업이 반복적으로 실패합니다.
+ 작업에서 사용 중인 [AWS 리전을 비활성화](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)합니다.

### DataSync 콘솔 사용
<a name="pause-scheduled-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)에서 AWS DataSync콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **작업**을 선택합니다.

1. 일정을 일시 중지하려는 작업을 선택한 다음 **편집**을 선택합니다.

1. **일정**에서 **일정 활성화**를 끕니다. **변경 사항 저장**을 선택합니다.

### AWS CLI 사용
<a name="pause-scheduled-task-cli"></a>

1. 다음 `update-task`명령을 복사합니다.

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. `--task-arn` 파라미터에서 일정을 일시 중지하려는 작업의 ARN을 지정합니다.

1. `--schedule` 파라미터에 관하여 다음을 수행합니다.
   + `ScheduleExpression`에서 일정에 대한 Cron 또는 Rate 표현식을 지정합니다.

     이 예제에서 표현식 `cron(0 12 ? * SUN,WED *)`은 매주 일요일과 수요일 오후 12:00 UTC에 실행되는 작업 일정을 설정합니다.
   + `Status`에서 작업 일정을 일시 중지하도록 `DISABLED`로 지정합니다.

1. `update-task` 명령을 실행합니다.

1. 일정을 재개하려면 `Status`를 `ENABLED`로 설정하여 동일한 `update-task` 명령을 실행합니다.

## DataSync 작업 일정 상태 확인
<a name="check-scheduled-task"></a>

DataSync 작업 일정이 활성화되어 있는지 확인할 수 있습니다.

### DataSync 콘솔 사용
<a name="check-scheduled-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)에서 AWS DataSync콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **작업**을 선택합니다.

1. **일정** 열에서 작업의 일정이 활성화되어 있는지 비활성화되어 있는지 확인합니다.

### AWS CLI 사용
<a name="check-scheduled-task-cli"></a>

1. 다음 `describe-task`명령을 복사합니다.

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. `--task-arn` 파라미터에서 정보를 원하는 작업의 ARN을 지정합니다.

1. `describe-task` 명령을 실행합니다.

일정을 포함하여 작업에 대한 세부 정보를 제공하는 응답을 받습니다. (다음 예제는 주로 작업 일정 구성에 초점을 맞추고 전체 `describe-task` 응답을 표시하지 않습니다.)

이 예제는 작업의 일정이 수동으로 비활성화되었음을 보여줍니다. DataSync `SERVICE`에 의해 일정이 비활성화된 경우 작업이 계속 실패하는 이유를 이해하는 데 도움이 되는 `DisabledReason`에 대한 오류 메시지가 표시됩니다. 자세한 내용은 [AWS DataSync 문제 해결](troubleshooting-datasync.md) 섹션을 참조하세요.

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# AWS DataSync 작업에 태그 지정
<a name="tagging-tasks"></a>

*태그*는 AWS DataSync 리소스를 관리, 필터링 및 검색하는 데 도움이 되는 키-값 페어입니다. 각 DataSync 태스크 및 태스크 실행에 최대 50개의 태그를 추가할 수 있습니다.

예를 들어, 대규모 데이터 마이그레이션을 위한 태스크를 생성하고 해당 태스크에 **Project**키와 값**Large Migration**을 태그할 수 있습니다. 마이그레이션을 더 체계적으로 구성하려면 한 번의 태스크 실행에 **Transfer Date**키와 값을 태그로 지정할 수 있습니다(**May 2021**후속 태그 실행에는 **June 2021**, **July 2021**등의 태그가 지정될 수 있음).

## DataSync 작업 태그 지정
<a name="tagging-tasks-console"></a>

태스크를 생성할 때만 DataSync 태스크에 태그를 지정할 수 있습니다.

### DataSync 콘솔 사용
<a name="tagging-tasks-console-steps"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음 **작업**을 선택하고 **작업 생성**을 선택합니다.

1. 태스크의 소스 및 대상 위치를 구성합니다.

   자세한 내용은 [데이터를 어디로 전송할 수 있나요 AWS DataSync?](working-with-locations.md) 섹션을 참조하세요.

1. **설정 구성** 페이지에서 **새 태그 추가**를 선택하여 작업에 태그를 지정합니다.

### 사용 AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. 다음 `create-task`명령을 복사합니다.

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. 명령에서 다음 파라미터를 지정합니다.
   + `--source-location-arn`- 전송할 때 소스 위치의 Amazon 리소스 이름(ARN) 을 지정합니다.
   + `--destination-location-arn` – 전송할 대상 위치의 ARN을 지정합니다.
   + `--tags` – 태스크에 적용할 태그를 지정합니다.

     태그가 두 개 이상인 경우 각 키-값 쌍을 공백으로 구분하세요.

1. (선택 사항) 전송 시나리오에 적합한 다른 파라미터를 지정하세요.

   `--options`목록의 경우, [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html) 명령을 참조하세요.

1. `create-task` 명령을 실행합니다.

   방금 생성한 태스크를 보여주는 응답을 받게 됩니다.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

이 태스크에 추가한 태그를 보려면 [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html) 명령을 사용할 수 있습니다.

## DataSync 작업 실행 태그 지정
<a name="tagging-task-executions-console"></a>

DataSync 태스크의 각 실행에 태그를 지정할 수 있습니다.

태스크에 이미 태그가 있는 경우, 태스크 실행 시 태그 사용에 관한 다음 사항을 기억하세요.
+ 콘솔에서 태스크를 시작하면 사용자가 생성한 태그가 태스크 실행에 자동으로 적용됩니다. 그러나 `aws:`로 시작하는 시스템 생성 태그는 적용되지 않습니다.
+ DataSync API 또는를 사용하여 작업을 시작하면 AWS CLI해당 태그가 작업 실행에 자동으로 적용되지 않습니다.

### DataSync 콘솔 사용
<a name="tagging-task-executions-console"></a>

태스크 실행에서 태그를 추가, 편집 또는 제거하려면 우선 적용 옵션을 사용하여 태스크를 시작해야 합니다.

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/) AWS DataSync 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **태스크**를 선택합니다.

1. 작업을 선택합니다.

1. **시작**을 선택하고, 다음 옵션 중 하나를 선택합니다.
   + **기본값으로 시작** - 태스크과 관련된 모든 태그를 적용합니다.
   + **우선 적용 옵션으로 시작** - 이 특정 태스크 실행에 대한 태그를 추가, 편집 또는 제거할 수 있습니다.

### 사용 AWS CLI
<a name="tagging-task-executions-cli"></a>

1. 다음 `start-task-execution`명령을 복사합니다.

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. 명령에서 다음 파라미터를 지정합니다.
   + `--task-arn`- 시작하려는 태스크의 ARN을 지정합니다.
   + `--tags`— 이 태스크 실행에 적용할 태그를 지정합니다.

     태그가 두 개 이상인 경우 각 키-값 쌍을 공백으로 구분하세요.

1. (선택 사항) 사용자의 상황 적합한 다른 파라미터를 지정하십시오.

   자세한 내용은[start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html) 단원을 참조하십시오.

1. `start-task-execution` 명령을 실행합니다.

   방금 시작한 태스크를 보여주는 응답을 받게 됩니다.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

이 태스크에 추가한 태그를 보려면 [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html) 명령을 사용할 수 있습니다.

# 데이터 전송 작업 시작
<a name="run-task"></a>

AWS DataSync전송 태스크를 생성하고 나면 데이터 이동을 시작할 수 있습니다. 각 태스크를 운영하는 것을 *태스크 실행*이라고 합니다. 작업 실행 중 발생하는 상황에 대한 자세한 내용은 [DataSync가 파일, 객체, 디렉터리를 전송하는 방법](how-datasync-transfer-works.md#transferring-files)을(를) 참조하세요.

**중요**  
Amazon S3 위치와 데이터를 주고받을 계획이라면 시작하기 전에 [DataSync가 S3 요청 요금에 미치는 영향](create-s3-location.md#create-s3-location-s3-requests) 및 [DataSync 요금 페이지](https://aws.amazon.com/datasync/pricing/)를 검토하세요.

## 태스크 시작하
<a name="starting-task"></a>

태스크를 생성하고 나면 바로 데이터 이동을 시작할 수 있습니다.

### DataSync 콘솔 사용
<a name="starting-task-console"></a>

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)에서 AWS DataSync콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송** 확장한 다음, **태스크**를 선택합니다.

1. 실행하려는 태스크를 선택합니다.

   태스크가 **사용 가능** 상태인지 확인하세요. 여러 태스크를 선택할 수도 있습니다.

1. **실행**를 선택하고, 다음 옵션 중 하나를 선택합니다.
   + **시작** - 태스크(또는 둘 이상을 선택한 경우 태스크)를 실행합니다.
   + **우선 적용 옵션으로 시작** - 데이터 이동을 시작하기 전에 일부 태스크 설정을 수정할 수 있습니다. 준비가 되면, **시작**을 선택합니다.

1. **실행 세부 정보 보기** 를 선택하여 실행중인 태스크 실행에 대한 세부 정보를 확인합니다.

### AWS CLI 사용
<a name="start-task-execution"></a>

DataSync 작업을 시작하려면 실행하려는 작업의 Amazon 리소스 이름(ARN)을 지정하기만 하면 됩니다. 다음은 `start-task-execution`명령의 예입니다.

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

다음 예제에서는 작업의 기본 설정과 다른 몇 가지 설정을 사용하여 작업을 시작합니다.

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

이 명령은 다음 예제와 유사한 작업 실행에 대한 ARN을 반환합니다.

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**참고**  
각 에이전트는 작업을 한 번에 하나씩 실행할 수 있습니다.

### DataSync API 사용
<a name="starting-task-api"></a>

[StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)을 사용하여 태스크를 시작할 수 있습니다. [DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html) 태스크를 사용하면 실행중인 태스크 실행에 대한 세부 정보를 가져올 수 있습니다.

일단 시작되면 DataSync가 데이터를 복사할 때 [작업 실행 상태를 확인](#understand-task-execution-statuses)할 수 있습니다. 필요한 경우 [태스크 실행의 대역폭을 제한](configure-bandwidth.md#adjust-bandwidth-throttling)할 수도 있습니다.

## 태스크 실행 상태
<a name="understand-task-execution-statuses"></a>

DataSync 태스크를 시작하면 다음과 같은 상태가 표시될 수 있습니다. ([작업 상태](create-task-how-to.md#understand-task-creation-statuses)는 작업 실행 상태와 다릅니다.)


| 콘솔 상태 | API 상태 | 설명 | 
| --- | --- | --- | 
|  대기열  |  `QUEUED`  |  다른 작업 실행이 실행 중이며 동일한 DataSync 에이전트를 사용하고 있습니다. 자세한 내용은 [작업이 대기열에 있는 시점 파악](#queue-task-execution) 섹션을 참조하세요.  | 
|  실행  |  `LAUNCHING`  |  DataSync는 작업 실행을 초기화합니다. 이 상태는 일반적으로 빠르게 지나가지만, 최대 몇 분이 소요될 수 있습니다.  | 
| 시작됨 | `LAUNCHED` | DataSync가 작업 실행을 시작했습니다. | 
|  준비 중  |  `PREPARING`  |  DataSync는 전송이 필요한 데이터를 결정합니다. 이 단계는 두 위치의 파일, 객체, 디렉터리 수와 작업 구성 방식에 따라 단 몇 분에서 몇 시간, 또는 그 이상이 걸릴 수 있습니다. 준비 작업 방식 또한 작업 모드에 따라 달라집니다. 자세한 내용은 [DataSync가 데이터 전송을 준비하는 방법](how-datasync-transfer-works.md#how-datasync-prepares) 섹션을 참조하세요.  | 
|  전송 중  |  `TRANSFERRING`  |  DataSync는 실제 데이터 전송을 수행합니다.  | 
|  검사 중  |  `VERIFYING`  |  DataSync는 전송이 끝나면 데이터의 무결성을 확인합니다.  | 
|  Success  |  `SUCCESS`  |  작업 실행에 성공했습니다.  | 
|  취소 중  |  `CANCELLING`  | 작업 실행이 취소되는 중입니다. | 
|  오류  |  `ERROR`  |  작업 실행에 실패했습니다.  | 

## 작업이 대기열에 있는 시점 파악
<a name="queue-task-execution"></a>

여러 작업을 실행할 때(예: [대규모 데이터세트를 전송](create-task-how-to.md#multiple-tasks-large-dataset)하는 경우) DataSync는 시리즈로 실행되도록 작업을 대기열에 넣을 수 있습니다(선입선출). 이러한 상황이 발생하는 몇 가지 예제는 다음과 같습니다.
+ 동일한 DataSync 에이전트를 사용하는 서로 다른 작업을 실행합니다. 동일한 에이전트를 여러 작업에 사용할 수 있지만 에이전트는 한 번에 하나의 작업만 실행할 수 있습니다.
+ 작업 실행이 진행 중이며 다른 [필터](filtering.md) 또는 [매니페스트](transferring-with-manifest.md)를 사용하여 동일한 작업의 추가 실행을 시작합니다.

각 예제에서 대기 중인 작업은 앞에 있는 작업이 완료될 때까지 시작되지 않습니다.

## 작업 실행 취소
<a name="cancel-running-task"></a>

 실행 중이거나 대기 중인 작업 실행을 모두 중지할 수 있습니다.

**콘솔을 사용하여 작업 실행을 취소하려면**

1. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)에서 AWS DataSync콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **데이터 전송**을 확장한 다음, **태스크**를 선택합니다.

1. 모니터링하고자 하는 실행 중인 태스크의 **태스크 ID**를 선택합니다.

   태스크 상태는 **실행** 중이어야 합니다.

1. 태스크 실행을 보려면 **기록**을 선택합니다.

1. 중지하려는 태스크 실행을 선택한 후 **중지**를 선택합니다.

1. 대화 상자에서 **중지**를 선택합니다.

DataSync API를 사용하여 실행 중이거나 대기중인 태스크를 취소하려면 [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html)을 참조하세요.

### 멈춘 작업 자동 취소
<a name="auto-cancel-stuck-tasks"></a>

때때로 실행 중인 DataSync 작업 실행이 멈추기도 합니다.