

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Transferindo seus dados com AWS DataSync
<a name="transferring-data-datasync"></a>

Com AWS DataSync, você pode transferir dados de ou para um armazenamento local AWS, em ou em outras nuvens.

A configuração de uma DataSync transferência geralmente envolve as seguintes etapas:

1. Determine se DataSync [suporta sua transferência](working-with-locations.md).

1. Se [você precisar de um DataSync agente](do-i-need-datasync-agent.md) para sua transferência, implante e ative um agente o mais próximo possível de um dos seus sistemas de armazenamento.

   Por exemplo, se você fizer uma transferência de um servidor de arquivos Network File System (NFS) on-premises, implante o agente o mais perto possível desse servidor de arquivos.

1. Forneça DataSync acesso ao seu sistema de armazenamento.

   DataSync precisa de permissão para ler ou gravar em seu armazenamento (dependendo se o armazenamento é um local de origem ou destino). Por exemplo, saiba como [fornecer DataSync acesso aos servidores de arquivos NFS](create-nfs-location.md#accessing-nfs).

1. [Conecte sua rede](networking-datasync.md) para obter tráfego entre seu sistema de armazenamento DataSync e.

1. Crie um local para seu sistema de armazenamento de origem usando o DataSync console ou a DataSync API. AWS CLI

   Por exemplo, aprenda a [criar um local NFS[ ou um ](create-s3-location.md#create-s3-location-how-to)local do Amazon S3](create-nfs-location.md#create-nfs-location-how-to).

1. Repita as etapas 3 a 5 para criar o local de destino da sua transferência.

1. [Crie e inicie uma tarefa DataSync de transferência](create-task-how-to.md) que inclua seus locais de origem e destino.

**Topics**
+ [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md)
+ [Transferindo de ou para o armazenamento local com AWS DataSync](transferring-on-premises-storage.md)
+ [Transferindo de ou para o AWS armazenamento com AWS DataSync](transferring-aws-storage.md)
+ [Transferindo de ou para outro armazenamento em nuvem com AWS DataSync](transferring-other-cloud-storage.md)
+ [Como criar uma tarefa para transferir os dados](create-task-how-to.md)
+ [Como iniciar uma tarefa para transferir dados](run-task.md)

# Para onde posso transferir meus dados AWS DataSync?
<a name="working-with-locations"></a>

O local para onde você pode transferir seus dados AWS DataSync depende dos seguintes fatores:
+ [Locais](how-datasync-transfer-works.md#sync-locations) de origem e destino da sua transferência
+ Se suas localizações estiverem em locais diferentes Contas da AWS
+ Se suas localizações estiverem em locais diferentes Regiões da AWS
+ Se você estiver usando o modo Básico ou o Modo Avançado

## Transferências suportadas no mesmo Conta da AWS
<a name="working-with-locations-same-account"></a>

DataSync suporta transferências entre os seguintes recursos de armazenamento associados aos mesmos Conta da AWS.


| Fonte | Destino | Requer um agente? | Modo de tarefa suportado | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Somente para o modo Básico  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Somente para o modo Básico  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 

## Transferências suportadas em Contas da AWS
<a name="working-with-locations-across-accounts"></a>

DataSync suporta algumas transferências entre recursos de armazenamento associados a diferentes Contas da AWS.


| Fonte | Destino | Requer um agente? | Modo de tarefa suportado | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Básico, aprimorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Não  |  Somente básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/working-with-locations.html)  |  Sim (quando usado como NFS/SMB local)  |  Somente básico  | 

1 Configurado como um [local NFS](create-nfs-location.md).

2 Configurado como um [local SMB](create-smb-location.md).

3 Configurado como um local NFS ou SMB.

## Transferências suportadas no mesmo Região da AWS
<a name="working-with-locations-same-region"></a>

Não há restrições ao transferir dados dentro da mesma Região da AWS (incluindo [regiões de adesão opcional](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)). Para obter mais informações, consulte [Regiões da AWS suportado por DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html).

## Transferências suportadas entre Regiões da AWS
<a name="working-with-locations-cross-regions"></a>

Observe o seguinte ao transferir dados entre os [Regiões da AWS compatíveis com: DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html)
+ Ao transferir entre serviços AWS de armazenamento diferentes Regiões da AWS, um dos dois locais deve estar na região em que você está usando DataSync.
+ Você não pode transferir entre regiões com um NFS, SMB, HDFS ou um local de armazenamento de objetos. Nessas situações, os dois locais de transferência devem estar na mesma região em que você [ativa seu DataSync agente](activate-agent.md).
+ Com AWS GovCloud (US) as Regiões, você pode:
  + Transferência entre as regiões AWS GovCloud (Leste dos EUA) e AWS GovCloud (Oeste dos EUA).
  + Transferência entre uma AWS GovCloud (US) região e uma área comercial Região da AWS, como o Leste dos EUA (Norte da Virgínia). Esse tipo de transferência requer um [agente](agent-requirements.md) ao transferir entre o Amazon EFS ou os sistemas de FSx arquivos da Amazon.

**Importante**  
Você paga pelos dados transferidos entre Regiões da AWS. Essa transferência é cobrada como transferência de dados para fora, da região de origem para a região de destino. Para obter mais informações, consulte [Preços do AWS DataSync](https://aws.amazon.com/datasync/pricing/).

## Determinar se sua transferência requer um DataSync agente
<a name="datasync-transfer-requirements"></a>

Dependendo do seu cenário de transferência, talvez você precise de um DataSync agente. Para obter mais informações, consulte [Eu preciso de um AWS DataSync agente?](do-i-need-datasync-agent.md).

# Transferindo de ou para o armazenamento local com AWS DataSync
<a name="transferring-on-premises-storage"></a>

Com AWS DataSync, você pode transferir arquivos e objetos entre vários sistemas de armazenamento locais ou autogerenciados e os seguintes serviços AWS de armazenamento:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de arquivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [Configurando AWS DataSync transferências com um servidor de arquivos NFS](create-nfs-location.md)
+ [Configurando AWS DataSync transferências com um servidor de arquivos SMB](create-smb-location.md)
+ [Configurando AWS DataSync transferências com um cluster HDFS](create-hdfs-location.md)
+ [Configurando DataSync transferências com um sistema de armazenamento de objetos](create-object-location.md)

# Configurando AWS DataSync transferências com um servidor de arquivos NFS
<a name="create-nfs-location"></a>

Com AWS DataSync, você pode transferir dados entre o servidor de arquivos do Network File System (NFS) e os seguintes serviços AWS de armazenamento. Os serviços de armazenamento compatíveis dependem do seu modo de tarefa, conforme mostrado abaixo:


| Modo básico | Modo Avançado | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-nfs-location.html)  | 

Para configurar esse tipo de transferência, você cria um [local](how-datasync-transfer-works.md#sync-locations) para o servidor de arquivos NFS. Você pode usar esse local como origem ou destino de uma transferência.

## Fornecendo DataSync acesso aos servidores de arquivos NFS
<a name="accessing-nfs"></a>

 DataSync Para acessar seu servidor de arquivos NFS, você precisa de um DataSync [agente](how-datasync-transfer-works.md#sync-agents). O agente monta uma exportação em seu servidor de arquivos usando o protocolo NFS. Certifique-se de usar o agente que corresponde ao modo de tarefa desejado.

**Topics**
+ [Configurar sua exportação NFS](#accessing-nfs-configuring-export)
+ [Versões NFS com suporte](#supported-nfs-versions)

### Configurar sua exportação NFS
<a name="accessing-nfs-configuring-export"></a>

A exportação DataSync necessária para sua transferência depende de seu servidor de arquivos NFS ser um local de origem ou destino e de como as permissões do servidor de arquivos estão configuradas.

Se o seu servidor de arquivos for um local de origem, DataSync basta ler e percorrer seus arquivos e pastas. Se for um local de destino, DataSync precisa de acesso root para gravar no local e definir a propriedade, as permissões e outros metadados nos arquivos e pastas que você está copiando. Você pode usar a opção `no_root_squash` para permitir o acesso raiz para sua exportação.

Os exemplos a seguir descrevem como configurar uma exportação NFS que forneça acesso a. DataSync

**Quando seu servidor de arquivos NFS é um local de origem (acesso raiz)**  
Configure sua exportação usando o comando a seguir, que fornece permissões DataSync somente leitura (`ro`) e acesso root (`no_root_squash`):

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**Quando o servidor de arquivos NFS é um local de destino**  
Configure sua exportação usando o comando a seguir, que fornece permissões de DataSync gravação (`rw`) e acesso root (`no_root_squash`):

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**Quando o servidor de arquivos NFS é um local de origem (sem acesso raiz)**  
Configure sua exportação usando o comando a seguir, que especifica o ID de usuário (UID) e o ID de grupo (GID) do POSIX que você sabe que forneceriam permissões somente de DataSync leitura na exportação:

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### Versões NFS com suporte
<a name="supported-nfs-versions"></a>

Por padrão, DataSync usa a versão 4.1 do NFS. DataSync também suporta NFS 4.0 e 3.x.

## Configuração da rede para transferências do NFS
<a name="configure-network-nfs-location"></a>

Para sua DataSync transferência, você deve configurar o tráfego para algumas conexões de rede: 

1. Permita o tráfego nas seguintes portas do seu DataSync agente para o servidor de arquivos NFS:
   + **Para NFS versão 4.1 e 4.0**: porta TCP 2049
   + **Para NFS versão 3.x**: portas TCP 111 e 2049

   Outros clientes NFS em sua rede devem ser capazes de montar a exportação NFS que você está usando para transferir dados. A exportação também deve estar acessível sem a autenticação Kerberos.

1. Configure o tráfego para a [conexão de endpoint de serviço](datasync-network.md) (como um endpoint público, FIPS ou da VPC).

1. Permita o tráfego do DataSync serviço para o [serviço AWS de armazenamento](datasync-network.md#storage-service-network-requirements) para o qual você está transferindo ou do qual você está transferindo.

## Criar seu local de transferência de NFS
<a name="create-nfs-location-how-to"></a>

Antes de começar, verifique o seguinte:
+ Você precisa de um servidor de arquivos NFS do qual deseja transferir dados.
+ Você precisa de um DataSync agente que possa [acessar seu servidor de arquivos](#accessing-nfs).
+  DataSync não suporta a cópia de listas de controle de acesso (ACLs) do NFS versão 4.

### Usando o DataSync console
<a name="create-nfs-location-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Network File System (NFS)**.

1. Para **Agentes**, escolha o DataSync agente que pode se conectar ao seu servidor de arquivos NFS.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para **servidor NFS**, insira o nome do Sistema de Nomes de Domínio (DNS) ou o endereço IP do servidor de arquivos NFS ao qual seu DataSync agente se conecta.

1. Em **Caminho de montagem**, insira o caminho de exportação do NFS que você DataSync deseja montar.

   Esse caminho (ou um subdiretório do caminho) é onde os dados são DataSync transferidos de ou para. Para obter mais informações, consulte [Configurar sua exportação NFS](#accessing-nfs-configuring-export).

1. (Opcional) Expanda **Configurações adicionais** e escolha uma **versão específica do NFS** DataSync para usar ao acessar seu servidor de arquivos.

   Para obter mais informações, consulte [Versões NFS com suporte](#supported-nfs-versions).

1. (Opcional) Escolha **Adicionar tag** para marcar sua localização NFS.

   As *Tags* são pares de chave-valor que ajudam você a gerenciar, filtrar e pesquisar seus locais. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-nfs-cli"></a>
+ Use o comando a seguir para criar um local do NFS.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  Para obter mais informações sobre como criar o local, consulte [Fornecendo DataSync acesso aos servidores de arquivos NFS](#accessing-nfs).

  DataSync escolhe automaticamente a versão do NFS que ele usa para ler de um local do NFS. Para especificar uma versão do NFS, use o parâmetro opcional `Version` na operação de API [NfsMountOptions](API_NfsMountOptions.md).

Esse comando retornará o nome de recurso da Amazon (ARN) do local de NFS, semelhante ao ARN mostrado a seguir.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

Para garantir que o diretório possa ser montado, conecte-se a qualquer computador que tenha a mesma configuração de rede que seu agente e execute o comando a seguir. 

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

Veja a seguir um exemplo do comando .

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# Configurando AWS DataSync transferências com um servidor de arquivos SMB
<a name="create-smb-location"></a>

Com AWS DataSync, você pode transferir dados entre o servidor de arquivos Server Message Block (SMB) e os seguintes serviços AWS de armazenamento. Os serviços de armazenamento compatíveis dependem do seu modo de tarefa, conforme mostrado abaixo:


| Modo básico | Modo Avançado | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-smb-location.html)  | 

Para configurar esse tipo de transferência, você cria um [local](how-datasync-transfer-works.md#sync-locations) para o servidor de arquivos SMB. Você pode usar esse local como origem ou destino de uma transferência. Certifique-se de usar o agente que corresponde ao modo de tarefa desejado.

## Fornecendo DataSync acesso a servidores de arquivos SMB
<a name="configuring-smb"></a>

DataSync se conecta ao seu servidor de arquivos usando o protocolo SMB e pode se autenticar com NTLM ou Kerberos.

**Topics**
+ [Versões compatíveis do SMB](#configuring-smb-version)
+ [Como usar a autenticação NTLM](#configuring-smb-ntlm-authentication)
+ [Usar a autenticação Kerberos](#configuring-smb-kerberos-authentication)
+ [Permissões obrigatórias](#configuring-smb-permissions)
+ [Namespaces do DFS](#configuring-smb-location-dfs)

### Versões compatíveis do SMB
<a name="configuring-smb-version"></a>

Por padrão, escolhe DataSync automaticamente uma versão do protocolo SMB com base na negociação com seu servidor de arquivos SMB.

Você também pode configurar DataSync para usar uma versão SMB específica, mas recomendamos fazer isso somente se DataSync tiver problemas para negociar com o servidor de arquivos SMB automaticamente. DataSync oferece suporte às versões 1.0 e posteriores do SMB. Por motivos de segurança, recomendamos usar a versão 3.0.2 ou posterior do SMB. Versões anteriores, como a SMB 1.0, contêm vulnerabilidades de segurança conhecidas que os invasores podem explorar para comprometer os dados.

Consulte a tabela a seguir para ver uma lista de opções no DataSync console e na API:


| Opção do console | Opção de API | Descrição | 
| --- | --- | --- | 
| Automatico |  `AUTOMATIC`  |  DataSync e o servidor de arquivos SMB negociam a versão mais alta do SMB que eles suportam mutuamente entre 2.1 e 3.1.1. Essa é a opção recomendada e também a padrão. Se, em vez disso, você escolher uma versão específica que seu servidor de arquivos não suporta, você pode receber um erro `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Restringe a negociação do protocolo somente à versão 3.0.2 do SMB.  | 
| SMB 2.1 |  `SMB2`  | Restringe a negociação do protocolo somente à versão 2.1 do SMB. | 
| SMB 2.0 | `SMB2_0` | Restringe a negociação do protocolo somente à versão 2.0 do SMB. | 
| SMB 1.0 | `SMB1` | : restringe a negociação do protocolo somente à versão 3.0.2 do SMB. | 

### Como usar a autenticação NTLM
<a name="configuring-smb-ntlm-authentication"></a>

Para usar a autenticação NTLM, você fornece um nome de usuário e uma senha que permitem DataSync acessar o servidor de arquivos SMB para o qual você está transferindo ou de. O usuário pode ser um usuário local no servidor de arquivos ou um usuário de domínio no Microsoft Active Directory.

### Usar a autenticação Kerberos
<a name="configuring-smb-kerberos-authentication"></a>

Para usar a autenticação Kerberos, você fornece um arquivo Kerberos principal, uma tabela de chaves Kerberos (keytab) e um arquivo de configuração Kerberos que permitem acessar o servidor de arquivos SMB que você está transferindo DataSync para ou do qual você está transferindo.

**Topics**
+ [Pré-requisitos](#configuring-smb-kerberos-prerequisites)
+ [DataSync opções de configuração para Kerberos](#configuring-smb-kerberos-options)

#### Pré-requisitos
<a name="configuring-smb-kerberos-prerequisites"></a>

Você precisa criar alguns artefatos Kerberos e configurar sua rede para que DataSync possa acessar seu servidor de arquivos SMB.
+ Crie um arquivo keytab Kerberos usando o utilitário [ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass) ou [kutil](https://web.mit.edu/kerberos/krb5-1.12/doc/admin/admin_commands/ktutil.html).

  O exemplo a seguir cria um arquivo keytab usando `ktpass`. O realm Kerberos que você especifica (`MYDOMAIN.ORG`) deve estar em maiúsculas.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ Prepare uma versão simplificada do arquivo de configuração Kerberos (`krb5.conf`). Inclua informações sobre o realm, o local dos servidores de administração do domínio e mapeamentos de nomes de host em um reino Kerberos.

  Verifique se o `krb5.conf` conteúdo está formatado com a combinação correta de maiúsculas e minúsculas para os realms e os nomes de realm dos domínios. Por exemplo:

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ Na configuração de rede, verifique se a porta do servidor Kerberos Key Distribution Center (KDC) está aberta. A porta KDC é normalmente a porta TCP 88.

#### DataSync opções de configuração para Kerberos
<a name="configuring-smb-kerberos-options"></a>

Ao criar um local SMB que usa Kerberos, você configura as seguintes opções.


| Opção do console | Opção de API | Description | 
| --- | --- | --- | 
|  **Servidor SMB**  |  `ServerHostName`  |  O nome de domínio do servidor de arquivos SMB que seu DataSync agente montará. Para o Kerberos, você não pode especificar o endereço IP do servidor de arquivos.  | 
|  **Entidade principal Kerberos**  |  `KerberosPrincipal`  |  Uma identidade no realm Kerberos que tem permissão para acessar os arquivos, pastas e metadados de arquivos no servidor de arquivos SMB. Uma entidade principal Kerberos pode ter a aparência de `HOST/kerberosuser@MYDOMAIN.ORG`. Os nomes de entidade principal diferenciam letras maiúsculas de minúsculas  | 
|  **Arquivo Keytab**  |  `KerberosKeytab`   |  Um arquivo da tabela de chaves Kerberos (keytab), que inclui mapeamentos entre a entidade principal Kerberos e as chaves de criptografia.  | 
|  **Arquivo de configuração Kerberos**  |  `KerberosKrbConf`  |  Um `krb5.conf` arquivo que define a configuração do realm Kerberos.  | 
|  **Endereços IP DNS** (opcional)  |  `DnsIpAddresses`  |  Os IPv4 endereços dos servidores DNS aos quais seu servidor de arquivos SMB pertence. Se você tiver vários domínios em seu ambiente, a configuração garante que ele se DataSync conecte ao servidor de arquivos SMB correto.  | 

### Permissões obrigatórias
<a name="configuring-smb-permissions"></a>

A identidade que você fornece DataSync deve ter permissão para montar e acessar os arquivos, pastas e metadados de arquivos do seu servidor de arquivos SMB.

Se você fornecer uma identidade no Active Directory, ela deverá ser membro de um grupo do Active Directory com um ou ambos os seguintes direitos de usuário (dependendo dos [metadados que você DataSync deseja copiar](configure-metadata.md)):


| Direito do usuário | Description | 
| --- | --- | 
|  **Restaurar arquivos e diretórios** (`SE_RESTORE_NAME`)  |  Permite copiar DataSync a propriedade do objeto, as permissões, os metadados do arquivo e as listas de acesso discricionário do NTFS (). DACLs Esse direito de usuário geralmente é concedido aos membros dos grupos **Administradores de domínio e** **Operadores de backup** (ambos grupos padrão do Active Directory).  | 
|  **Gerenciar logs de auditoria e segurança** (`SE_SECURITY_NAME`)  |  Permite DataSync copiar listas de controle de acesso do sistema NTFS (SACLs). Esse direito de usuário geralmente é concedido aos membros do grupo **Administradores de domínio**.   | 

Se você quiser copiar o Windows ACLs e estiver fazendo a transferência entre um servidor de arquivos SMB e outro sistema de armazenamento que usa SMB (como Amazon FSx for Windows File Server ou FSx ONTAP), a identidade fornecida DataSync deverá pertencer ao mesmo domínio do Active Directory ou ter uma relação de confiança do Active Directory entre seus domínios.

### Namespaces do DFS
<a name="configuring-smb-location-dfs"></a>

DataSync não oferece suporte a namespaces do Microsoft Distributed File System (DFS). Em vez disso, recomendamos especificar um servidor ou compartilhamento de arquivos subjacente ao criar sua DataSync localização.

## Criar seu local de transferência do SMB
<a name="create-smb-location-how-to"></a>

Antes de começar, é preciso um servidor de arquivos SMB do qual você deseja transferir dados.

### Usando o DataSync console
<a name="create-smb-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de local**, escolha **Server Message Block (SMB)**.

   Você configurará esse local como origem ou destino posteriormente.

1. Para **Agentes**, escolha o DataSync agente que pode se conectar ao seu servidor de arquivos SMB.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para **servidor SMB**, insira o nome de domínio ou endereço IP do servidor de arquivos SMB que seu DataSync agente montará.

   Lembre-se do seguinte com essa configuração:
   + Você não pode especificar um endereço IP versão 6 (IPv6).
   + Se você estiver usando a autenticação Kerberos, deverá especificar um nome de domínio.

1. Em **Nome do compartilhamento**, insira o nome do compartilhamento exportado pelo seu servidor de arquivos SMB onde os dados DataSync serão lidos ou gravados.

   Você pode incluir um subdiretório no caminho de compartilhamento (por exemplo, `/path/to/subdirectory`). Certifique-se de que outros clientes do SMB em sua rede também possam montar este caminho. 

   Para copiar todos os dados no subdiretório, DataSync deve ser capaz de montar o compartilhamento SMB e acessar todos os seus dados. Para obter mais informações, consulte [Permissões obrigatórias](#configuring-smb-permissions).

1. (Opcional) Expanda **Configurações adicionais** e escolha uma **versão SMB** DataSync para usar ao acessar seu servidor de arquivos.

   Por padrão, escolhe DataSync automaticamente uma versão com base na negociação com o servidor de arquivos SMB. Para mais informações, consulte [Versões compatíveis do SMB](#configuring-smb-version).

1. Para **Tipo de autenticação**, escolha **NTLM** ou **Kerberos**.

1. Siga um destes procedimentos, dependendo do tipo de autenticação escolhido:

------
#### [ NTLM ]
   + Em **Usuário**, insira um nome de usuário que possa montar o servidor de arquivos SMB e tenha permissão para acessar os arquivos e pastas envolvidos na sua transferência.

     Para obter mais informações, consulte [Permissões obrigatórias](#configuring-smb-permissions).
   + Em **Senha**, especifique a senha do usuário que pode montar o servidor de arquivos do SMB e tem permissão para acessar os arquivos e pastas envolvidos na sua transferência.
   + (Opcional) Para **Domínio**, insira o nome do domínio do Windows ao qual pertence o servidor de arquivos SMB.

     Se você tiver vários domínios em seu ambiente, definir essa configuração garante que ele se DataSync conecte ao servidor de arquivos SMB correto.

------
#### [ Kerberos ]
   + Para **Entidade principal Kerberos**, especifique uma entidade principal no realm Kerberos que tenha permissão para acessar os arquivos, pastas e metadados de arquivos no servidor de arquivos SMB.

     Uma entidade principal Kerberos pode ter a aparência de `HOST/kerberosuser@MYDOMAIN.ORG`.

     Os nomes de entidade principal diferenciam letras maiúsculas de minúsculas A execução da DataSync tarefa falhará se o principal que você especificar para essa configuração não corresponder exatamente ao principal usado para criar o arquivo keytab.
   + Para **Arquivo Keytab**, faça upload de um arquivo keytab que inclua mapeamentos entre as chaves de entidade principal e de criptografia do Kerberos.
   + Para **Arquivo de configuração Kerberos**, faça upload de um `krb5.conf` arquivo que defina a configuração do realm Kerberos.
   + (Opcional) Para **endereços IP DNS**, especifique até dois IPv4 endereços para os servidores DNS aos quais seu servidor de arquivos SMB pertence. 

     Se você tiver vários domínios em seu ambiente, a configuração desse parâmetro garante que ele se DataSync conecte ao servidor de arquivos SMB correto.

------

1. (Opcional) Escolha **Adicionar tag** para marcar sua localização SMB.

   As *Tags* são pares de chave-valor que ajudam você a gerenciar, filtrar e pesquisar seus locais. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-smb-cli"></a>

As instruções a seguir descrevem como criar locais SMB com autenticação NTLM ou Kerberos.

------
#### [ NTLM ]

1. Copie o seguinte comando `create-location-smb`:

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. Para`--agent-arns`, especifique o DataSync agente que pode se conectar ao seu servidor de arquivos SMB.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para`--server-hostname`, especifique o nome de domínio ou IPv4 endereço do servidor de arquivos SMB que seu DataSync agente montará. 

1. Para`--subdirectory`, especifique o nome do compartilhamento exportado pelo seu servidor de arquivos SMB onde DataSync lerá ou gravará dados.

   Você pode incluir um subdiretório no caminho de compartilhamento (por exemplo, `/path/to/subdirectory`). Certifique-se de que outros clientes do SMB em sua rede também possam montar este caminho. 

   Para copiar todos os dados no subdiretório, DataSync deve ser capaz de montar o compartilhamento SMB e acessar todos os seus dados. Para obter mais informações, consulte [Permissões obrigatórias](#configuring-smb-permissions).

1. Para `--user`, especifique um nome de usuário que possa montar o servidor de arquivos SMB e tenha permissão para acessar os arquivos e pastas envolvidos na transferência.

   Para obter mais informações, consulte [Permissões obrigatórias](#configuring-smb-permissions).

1. Para `--password`, especifique a senha do usuário que pode montar o servidor de arquivos SMB e tenha permissão para acessar os arquivos e pastas envolvidos na sua transferência.

1. (Opcional) Para `--domain`, especifique o nome do domínio do Windows ao qual pertence o servidor de arquivos SMB.

   Se você tiver vários domínios em seu ambiente, definir essa configuração garante que ele se DataSync conecte ao servidor de arquivos SMB correto.

1. (Opcional) Adicione a `--version` opção se quiser DataSync usar uma versão SMB específica. Para obter mais informações, consulte [Versões compatíveis do SMB](#configuring-smb-version).

1. Execute o comando `create-location-smb`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. Copie o seguinte comando `create-location-smb`:

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. Para`--agent-arns`, especifique o DataSync agente que pode se conectar ao seu servidor de arquivos SMB.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para`--server-hostname`, especifique o nome de domínio do servidor de arquivos SMB que seu DataSync agente montará. 

1. Para`--subdirectory`, especifique o nome do compartilhamento exportado pelo seu servidor de arquivos SMB onde DataSync lerá ou gravará dados.

   Você pode incluir um subdiretório no caminho de compartilhamento (por exemplo, `/path/to/subdirectory`). Certifique-se de que outros clientes do SMB em sua rede também possam montar este caminho. 

   Para copiar todos os dados no subdiretório, DataSync deve ser capaz de montar o compartilhamento SMB e acessar todos os seus dados. Para obter mais informações, consulte [Permissões obrigatórias](#configuring-smb-permissions).

1. Para as opções de Kerberos, faça o seguinte:
   + `--kerberos-principal`: especifique uma entidade principal no realm Kerberos que tenha permissão para acessar os arquivos, pastas e metadados de arquivos no servidor de arquivos SMB.

     Uma entidade principal Kerberos pode ter a aparência de `HOST/kerberosuser@MYDOMAIN.ORG`.

     Os nomes de entidade principal diferenciam letras maiúsculas de minúsculas A execução da DataSync tarefa falhará se o principal que você especificar para essa opção não corresponder exatamente ao principal usado para criar o arquivo keytab.
   + `--kerberos-keytab`: especifique um arquivo keytab que inclua mapeamentos entre as chaves de entidade principal e de criptografia do Kerberos.
   + `--kerberos-krb5-conf`: especifique um `krb5.conf` arquivo que defina a configuração do realm Kerberos.
   + (Opcional)`--dns-ip-addresses`: especifique até dois IPv4 endereços para os servidores DNS aos quais seu servidor de arquivos SMB pertence. 

     Se você tiver vários domínios em seu ambiente, a configuração desse parâmetro garante que ele se DataSync conecte ao servidor de arquivos SMB correto.

1. (Opcional) Adicione a `--version` opção se quiser DataSync usar uma versão SMB específica. Para obter mais informações, consulte [Versões compatíveis do SMB](#configuring-smb-version).

1. Execute o comando `create-location-smb`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# Configurando AWS DataSync transferências com um cluster HDFS
<a name="create-hdfs-location"></a>

Com AWS DataSync, você pode transferir dados entre seu cluster Hadoop Distributed File System (HDFS) e um dos seguintes serviços de AWS armazenamento usando tarefas do modo Básico:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de arquivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar esse tipo de transferência, você cria um [local](how-datasync-transfer-works.md#sync-locations) para o cluster do HDFS. Você pode usar esse local como origem ou destino de uma transferência.

## Fornecendo DataSync acesso aos clusters do HDFS
<a name="accessing-hdfs"></a>

Para se conectar ao seu cluster HDFS, DataSync use um [agente de modo Básico que você implanta](deploy-agents.md) o mais próximo possível do seu cluster HDFS. O DataSync agente atua como um cliente HDFS e se comunica com o NameNodes e DataNodes em seu cluster.

Quando você inicia uma tarefa de transferência, DataSync consulta NameNode os locais dos arquivos e pastas no cluster. Se você configurar a localização do HDFS como uma localização de origem, DataSync lê os dados dos arquivos e pastas do DataNodes seu cluster e copia esses dados para o destino. Se você configurar seu local do HDFS como um local de destino, então DataSync grava arquivos e pastas da origem para o DataNodes em seu cluster.

### Autenticação
<a name="accessing-hdfs-authentication"></a>

Ao se conectar a um cluster HDFS, DataSync oferece suporte à autenticação simples ou à autenticação Kerberos. Para usar a autenticação simples, forneça o nome de usuário de um usuário com direitos de leitura e gravação no cluster HDFS. Para usar a autenticação Kerberos, forneça um arquivo de configuração Kerberos, um arquivo de tabela de chaves Kerberos (keytab) e um nome principal Kerberos. As credenciais da entidade principal do Kerberos devem estar no arquivo keytab fornecido.

### Criptografia
<a name="accessing-hdfs-encryption"></a>

Ao usar a autenticação Kerberos, DataSync oferece suporte à criptografia de dados à medida que são transmitidos entre o DataSync agente e seu cluster HDFS. Criptografe seus dados usando as configurações de Qualidade de Proteção (QOP) em seu cluster HDFS e especificando as configurações de QOP ao criar sua localização HDFS. A configuração de QOP inclui configurações para proteção de transferência de dados e proteção RPC (Remote Procedure Call). 

**DataSync suporta os seguintes tipos de criptografia Kerberos:**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

Você também pode configurar clusters HDFS para criptografia em repouso usando a Transparent Data Encryption, TDE (Criptografia transparente de dados). Ao usar a autenticação simples, DataSync lê e grava em clusters habilitados para TDE. Se você estiver usando DataSync para copiar dados para um cluster habilitado para TDE, primeiro configure as zonas de criptografia no cluster HDFS. DataSync não cria zonas de criptografia. 

## Recursos do HDFS não compatíveis
<a name="hdfs-unsupported-features"></a>

Atualmente, os seguintes recursos do HDFS não são compatíveis com: DataSync
+ Transparent Data Encryption (TDE) ao usar a autenticação Kerberos
+ Configurando vários NameNodes
+ Hadoop HDFS sobre HTTP (HttpFS)
+ Listas de controle de acesso POSIX () ACLs
+ Atributos estendidos do HDFS (xattrs)
+ Clusters HDFS usando Apache HBase

## Criar seu local de transferência HDFS
<a name="create-hdfs-location-how-to"></a>

Você pode usar sua localização como origem ou destino para sua DataSync transferência.

**Antes de começar**: verifique a conectividade de rede entre seu agente e o cluster Hadoop fazendo o seguinte:
+ Teste o acesso às portas TCP listadas em [Requisitos de rede para armazenamento local, autogerenciado e outros tipos de armazenamento em nuvem](datasync-network.md#on-premises-network-requirements).
+ Teste o acesso entre seu agente local e seu cluster Hadoop. Para obter instruções, consulte [Verificação da conexão do agente com sistema de armazenamento](test-agent-connections.md#self-managed-storage-connectivity).

### Usando o DataSync console
<a name="create-hdfs-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Sistema de arquivos distribuído Hadoop (HDFS)**.

   Você configurará esse local como origem ou destino posteriormente. 

1. Em **Agentes**, escolha o agente do DataSync que pode se conectar ao cluster do HDFS.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para **NameNode**, forneça o nome de domínio ou endereço IP do principal NameNode do seu cluster HDFS.

1. Em **Pasta**, insira uma pasta no cluster HDFS que você deseja usar DataSync para a transferência de dados.

   Se a localização do HDFS for uma fonte, DataSync copie os arquivos dessa pasta para o destino. Se sua localização for um destino, DataSync grava arquivos nessa pasta.

1. Para definir o **Tamanho do bloco** ou o **Fator de replicação**, escolha **Configurações adicionais**.

   O tamanho de bloco padrão é 128 MiB. O tamanho fornecido deve ser um múltiplo de 512 bytes.

   O fator de replicação padrão é três DataNodes ao transferir para o cluster HDFS. 

1. Na seção **Segurança**, escolha o **Tipo de autenticação** usado no cluster HDFS. 
   + **Simples**: em **Usuário**, especifique o nome do usuário com as seguintes permissões no cluster HDFS (dependendo do seu caso de uso):
     + Se você planeja usar esse local como local de origem, especifique um usuário que tenha apenas permissões de leitura.
     + Se você planeja usar esse local como local de origem, especifique um usuário que tenha apenas permissões de leitura e gravação.

     Opcionalmente, especifique o URI do Key Management Server (KMS) do cluster do HDFS. 
   + **Kerberos**: especifique o Kerberos **Principal** com acesso ao cluster HDFS. Em seguida, forneça o **KeyTabarquivo** que contém o principal Kerberos fornecido. Depois, forneça o **arquivo de configuração do Kerberos**. Por fim, especifique o tipo de criptografia na proteção de trânsito nas listas suspensas **Proteção RPC** e **Proteção de transferência de dados**.

1. (Opcional) Escolha **Adicionar tag** para marcar sua localização HDFS.

   As *Tags* são pares de chave-valor que ajudam você a gerenciar, filtrar e pesquisar seus locais. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Copie o seguinte comando `create-location-hdfs`:

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Para o `--name-nodes` parâmetro, especifique o nome do host ou endereço IP do seu cluster HDFS primário NameNode e a porta TCP na qual ele NameNode está escutando.

1. No parâmetro `--authentication-type`, especifique o tipo de autenticação a ser usada ao se conectar ao cluster do Hadoop. É possível especificar `SIMPLE` ou `KERBEROS`.

   Se você usa a autenticação `SIMPLE`, use o parâmetro `--simple-user` para especificar o nome de usuário do usuário. Se você usa a autenticação `KERBEROS`, use os parâmetros `--kerberos-principal`, `--kerberos-keytab` e `--kerberos-krb5-conf`. Para obter mais informações, consulte [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Para o `--agent-arns` parâmetro, especifique o ARN do DataSync agente que pode se conectar ao seu cluster HDFS.

   Você pode escolher mais de um agente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. (Opcional) Para o `--subdirectory` parâmetro, especifique uma pasta no cluster HDFS que você deseja usar DataSync para a transferência de dados.

   Se a localização do HDFS for uma fonte, DataSync copie os arquivos dessa pasta para o destino. Se sua localização for um destino, DataSync grava arquivos nessa pasta.

1. Execute o comando `create-location-hdfs`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# Configurando DataSync transferências com um sistema de armazenamento de objetos
<a name="create-object-location"></a>

Com AWS DataSync, você pode transferir dados entre seu sistema de armazenamento de objetos e um dos seguintes serviços de AWS armazenamento usando tarefas do modo Básico:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de arquivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar esse tipo de transferência, você cria um [local](how-datasync-transfer-works.md#sync-locations) para o sistema de armazenamento de objetos. Você pode usar esse local como origem ou destino de uma transferência. A transferência de dados para ou do seu armazenamento de objetos local requer um agente do modo DataSync Básico.

## Pré-requisitos
<a name="create-object-location-prerequisites"></a>

Seu sistema de armazenamento de objetos deve ser compatível com as seguintes [operações de API do Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) para se conectar DataSync a ele:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## Criar o local de transferência de armazenamento de objetos
<a name="create-object-location-how-to"></a>

Antes de começar, você precisa de um sistema de armazenamento de objetos do qual e para o qual você planeja transferir dados.

### Usando o DataSync console
<a name="create-object-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Armazenamento de objetos**.

   Você configurará esse local como origem ou destino posteriormente.

1. Em **Servidor**, forneça o nome do domínio ou o endereço IP do servidor de armazenamento de objetos. 

1. Especifica o **Nome do bucket** de armazenamento de objetos envolvido na transferência.

1. Em **Pasta**, insira um prefixo de objeto.

   DataSync copia somente objetos com esse prefixo. 

1. Se sua transferência exigir um agente, escolha **Usar agentes** e, em seguida, escolha o DataSync agente que se conecta ao seu sistema de armazenamento de objetos.

   Algumas transferências não exigem atendentes. Em outros cenários, você pode desejar usar mais de um atendente. Para obter mais informações, consulte [Situações em que você não precisa de um DataSync agente](do-i-need-datasync-agent.md#when-agent-not-required) e [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para configurar a conexão com o servidor de armazenamento de objetos, expanda **Configurações adicionais** e faça o seguinte:

   1. Em **Protocolo de servidor**, escolha **HTTP** ou **HTTPS**.

   1. Em **Porta do servidor**, use uma porta padrão (**80** para HTTP ou **443** para HTTPS) ou especifique uma porta personalizada, se necessário.

   1. Em **Certificado**, se o sistema de armazenamento de objetos usar uma autoridade de certificação (CA) privada ou autoassinada, selecione **Escolher arquivo** e especifique um único arquivo `.pem` com uma cadeia de certificados completa.

      A cadeia de certificados pode incluir:
      + O certificado do sistema de armazenamento de objetos
      + Todos os certificados intermediários (se for o caso)
      + O certificado-raiz da CA assinante

      Você pode concatenar os certificados em um arquivo `.pem` (que pode ter até 32.768 bytes antes da codificação base64). O exemplo de comando `cat` a seguir cria um arquivo `object_storage_certificates.pem` que inclui três certificados:

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. Se o servidor de armazenamento de objetos exigir credenciais de acesso, selecione **Requer credenciais** e insira a **Chave de acesso** que você usa para acessar o bucket Em seguida, insira a **chave secreta** diretamente ou especifique um AWS Secrets Manager segredo que contenha a chave. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   A chave de acesso e a chave secreta podem ser um nome de usuário e uma senha, respectivamente.

1. (Opcional) Escolha **Adicionar tag** para marcar o local de armazenamento do objeto.

   As *Tags* são pares de chave-valor que ajudam você a gerenciar, filtrar e pesquisar seus locais. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-object-cli"></a>

1. Copie o seguinte comando `create-location-object-storage`:

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. Especifique os parâmetros exigidos a seguir no comando:
   + `--server-hostname`: especifica o nome do domínio ou o endereço IP do seu servidor de armazenamento de objetos.
   + `--bucket-name`: especifica o nome do bucket no servidor de armazenamento de objetos para o qual você está transferindo ou do qual você está transferindo.

1. (Opcional) Adicione qualquer um dos seguintes parâmetros ao comando:
   + `--agent-arns`— Especifique os DataSync agentes que você deseja conectar ao seu servidor de armazenamento de objetos.
   + `--server-port`: especifica a porta em que o servidor de armazenamento de objetos aceita o tráfego de rede de entrada (por exemplo, a porta `443`).
   + `--server-protocol`: especifica o protocolo (`HTTP` ou `HTTPS`) que o servidor de armazenamento de objetos utiliza para se comunicar.
   + `--access-key`: especifica a chave de acesso (por exemplo, um nome de usuário) se as credenciais forem necessárias para autenticação no servidor de armazenamento de objetos.
   + `--secret-key`: especifica a chave secreta (por exemplo, uma senha) se as credenciais forem necessárias para autenticação no servidor de armazenamento de objetos.

     Você também pode fornecer parâmetros adicionais para proteger as chaves usando AWS Secrets Manager. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
   + `--server-certificate`— Especifica uma cadeia de certificados DataSync para autenticação em seu sistema de armazenamento de objetos se o sistema usar uma autoridade de certificação (CA) privada ou autoassinada. Você deve especificar um único arquivo `.pem` com uma cadeia de certificados completa (por exemplo, `file:///home/user/.ssh/object_storage_certificates.pem`).

     A cadeia de certificados pode incluir:
     + O certificado do sistema de armazenamento de objetos
     + Todos os certificados intermediários (se for o caso)
     + O certificado-raiz da CA assinante

     Você pode concatenar os certificados em um arquivo `.pem` (que pode ter até 32.768 bytes antes da codificação base64). O exemplo de comando `cat` a seguir cria um arquivo `object_storage_certificates.pem` que inclui três certificados:

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory`: especifica o prefixo de objeto do servidor de armazenamento de objetos.

     DataSync copia somente objetos com esse prefixo. 
   + `--tags`: especifica o par de chave-valor que representa uma etiqueta que você deseja adicionar ao recurso do local.

     Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

1. Execute o comando `create-location-object-storage`.

   Você recebe uma resposta que mostra o ARN do local que você acabou de criar.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# Transferindo de ou para o AWS armazenamento com AWS DataSync
<a name="transferring-aws-storage"></a>

Com AWS DataSync, você pode transferir dados de ou para vários serviços de AWS armazenamento. Para obter mais informações, consulte [Com onde posso transferir meus dados DataSync?](working-with-locations.md)

**Topics**
+ [Configurando AWS DataSync transferências com o Amazon S3](create-s3-location.md)
+ [Configurando AWS DataSync transferências com o Amazon EFS](create-efs-location.md)
+ [Configurando transferências com o FSx Windows File Server](create-fsx-location.md)
+ [Configurando DataSync transferências com FSx for Lustre](create-lustre-location.md)
+ [Configurando DataSync transferências com a Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Configurando transferências com a Amazon FSx para ONTAP NetApp](create-ontap-location.md)

# Configurando AWS DataSync transferências com o Amazon S3
<a name="create-s3-location"></a>

*Para transferir dados para ou do seu bucket do Amazon S3, você cria um local de AWS DataSync transferência.* DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso aos buckets do S3
<a name="create-s3-location-access"></a>

DataSync precisa acessar o bucket do S3 para o qual você está transferindo ou do qual você está transferindo. Para fazer isso, você deve criar uma função AWS Identity and Access Management (IAM) que DataSync assuma as permissões necessárias para acessar o bucket. Em seguida, você especifica essa função ao [criar sua localização no Amazon S3](#create-s3-location-how-to) para. DataSync

**Contents**
+ [Permissões obrigatórias](#create-s3-location-required-permissions)
+ [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](#create-role-manually)
+ [Acessar buckets do S3 usando criptografia no lado do servidor](#create-s3-location-encryption)
+ [Acesso aos buckets restritos do S3](#denying-s3-access)
+ [Acesso aos buckets do S3 com acesso restrito à VPC](#create-s3-location-restricted-vpc)

### Permissões obrigatórias
<a name="create-s3-location-required-permissions"></a>

As permissões que sua função do IAM precisa podem depender se o bucket é um local de DataSync origem ou destino. O Amazon S3 no Outposts requer um conjunto diferente de permissões.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3
<a name="create-role-manually"></a>

Ao [criar sua localização do Amazon S3](#create-s3-location-how-to) no console, DataSync você pode criar e assumir automaticamente uma função do IAM que normalmente tem as permissões certas para acessar seu bucket do S3.

Em algumas situações, talvez seja necessário criar essa função manualmente (por exemplo, acessar buckets com camadas extras de segurança ou transferir para ou de um bucket em outro Contas da AWS).

#### Criação manual de uma função do IAM para DataSync
<a name="create-role-manually-steps"></a>

1. Abra o console do IAM em [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. No painel de navegação esquerdo, em **Gerenciamento de acesso**, escolha **Perfis** e, em seguida, escolha **Criar perfil**.

1. Na página **Selecionar entidade confiável**, para **Tipo de entidade confiável**, escolha **AWS service (Serviço da AWS)**.

1. **Em Caso de uso**, escolha **DataSync**na lista suspensa e selecione. **DataSync** Escolha **Próximo**.

1. Na página **Adicionar permissões**, escolha **Próximo**. Forneça um nome ao perfil e escolha **Criar perfil**.

1. Na página **Perfis**, procure o perfil que você acabou de criar e escolha seu nome.

1. Na página do perfil, escolha a guia **Permissões**. Selecione **Adicionar permissões** e, em seguida, **Criar política em linha**.

1. Escolha a guia **JSON** e [adicione as permissões necessárias](#create-s3-location-required-permissions) para acessar o bucket no editor de políticas.

1. Escolha **Próximo**. Digite um nome para a política e escolha **Criar política**.

1. (Recomendado) Para evitar o [problema “confused deputy” entre serviços](cross-service-confused-deputy-prevention.md), faça o seguinte:

   1. Na página Detalhes do perfil, escolha a guia **Relações de confiança**. Escolha **Editar política de confiança**.

   1. Atualize a política de confiança usando o exemplo a seguir, que inclui as chaves de contexto de condição global `aws:SourceArn` e `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Escolha **Atualizar política**.

Você pode especificar esse perfil ao criar seu local no Amazon S3.

### Acessar buckets do S3 usando criptografia no lado do servidor
<a name="create-s3-location-encryption"></a>

DataSync pode transferir dados de ou para [buckets do S3 que usam criptografia do lado do servidor](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html). O tipo de chave de criptografia que um bucket usa pode determinar se você precisa de uma política personalizada que DataSync permita acessar o bucket.

Ao usar DataSync com buckets S3 que usam criptografia do lado do servidor, lembre-se do seguinte:
+ **Se seu bucket do S3 estiver criptografado com uma chave AWS gerenciada**, DataSync poderá acessar os objetos do bucket por padrão se todos os seus recursos estiverem no mesmo Conta da AWS.
+ **Se seu bucket do S3 estiver criptografado com uma chave gerenciada pelo cliente AWS Key Management Service (AWS KMS) (SSE-KMS)**, a [política da chave](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) deve incluir a função do IAM DataSync usada para acessar o bucket.
+ **Se seu bucket do S3 estiver criptografado com uma chave SSE-KMS gerenciada pelo cliente e em uma chave diferente Conta da AWS**, DataSync precisará de permissão para acessar o bucket no outro. Conta da AWS Para isso, você pode configurar fazendo o seguinte:
  + Na função do IAM DataSync usada, você deve especificar a chave SSE-KMS do bucket entre contas usando o Amazon Resource Name (ARN) totalmente qualificado da chave. Esse é o mesmo ARN da chave que você usa para configurar a criptografia [padrão](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) do bucket. Você não pode especificar um ID de chave, um nome alias ou um ARN alias nessa situação.

    Aqui está um exemplo de ARN de chave:

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    Para obter mais informações sobre a especificação de chaves do KMS em instruções de política do IAM, consulte o *[Guia do desenvolvedor do AWS Key Management Service](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*.
  + Na política de chaves SSE-KMS, [especifique a função do IAM usada](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) por. DataSync
+ **Se seu bucket do S3 for criptografado com uma AWS KMS chave gerenciada pelo cliente (DSSE-KMS) para criptografia de camada dupla no lado do servidor**, a [política da chave deve incluir a função do IAM usada](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) para acessar o bucket. DataSync (Lembre-se de que o DSSE-KMS não é compatível com [chaves de bucket do S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html), o que pode reduzir AWS KMS os custos da solicitação.)
+ **Se seu bucket do S3 estiver criptografado com uma chave de criptografia fornecida pelo cliente (SSE-C)**, não é DataSync possível acessar esse bucket.

#### Exemplo: política de chaves SSE-KMS para DataSync
<a name="create-s3-location-encryption-example"></a>

O exemplo a seguir é uma [política de chave](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) para uma chave SSE-KMS gerenciada pelo cliente. A política está associada a um bucket do S3 que usa criptografia no lado do servidor.

Se você desejar usar esse exemplo, substitua os valores a seguir pelos seus:
+ *account-id*— Seu Conta da AWS.
+ *admin-role-name*— O nome da função do IAM que pode administrar a chave.
+ *datasync-role-name*— O nome da função do IAM que permite DataSync usar a chave ao acessar o bucket.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Acesso aos buckets restritos do S3
<a name="denying-s3-access"></a>

Se você precisar transferir para ou de um bucket do S3 que normalmente nega todo o acesso, você pode editar a política do bucket para que DataSync possa acessar o bucket somente para sua transferência.

#### Exemplo: permissão de acesso com base nos perfis do IAM
<a name="denying-s3-access-example"></a>

1. Copie a política de bucket do S3 a seguir.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. Na política, substitua os seguintes valores:
   + `amzn-s3-demo-bucket`: especifique o nome do bucket restrito do S3.
   + `datasync-iam-role-id`— Especifique o ID da [função do IAM DataSync usada](#create-s3-location-access) para acessar o bucket.

     Execute o AWS CLI comando a seguir para obter o ID da função do IAM:

     `aws iam get-role --role-name datasync-iam-role-name`

     Na saída, procure o valor `RoleId`:

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Especifique o ID da função do IAM que você usa para criar sua DataSync localização para o bucket.

     Execute o comando a seguir para criar a ID do perfil do IAM:

     `aws iam get-role --role-name your-iam-role-name`

     Na saída, procure o valor `RoleId`:

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Adicione essa política](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) à política do bucket do S3.

1. Quando você terminar de usar DataSync o bucket restrito, remova as condições para ambas as funções do IAM da política do bucket.

### Acesso aos buckets do S3 com acesso restrito à VPC
<a name="create-s3-location-restricted-vpc"></a>

Um bucket do Amazon S3 que [limita o acesso a endpoints específicos de nuvem privada virtual (VPC) ou VPCs negará a transferência DataSync de ou](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) para esse bucket. Para permitir transferências nessas situações, você pode atualizar a política do bucket para incluir a função do IAM que você [especifica com sua DataSync localização](#create-s3-location-how-to).

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

Na política de bucket do S3, você pode especificar o Amazon Resource Name (ARN) da DataSync sua função de localização do IAM.

O exemplo a seguir é uma política de bucket do S3 que nega o acesso de todos, exceto dois VPCs (`vpc-1234567890abcdef0`e`vpc-abcdef01234567890`). No entanto, a política também inclui a [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condição e a chave de PrincipalArn condição [aws:](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn), que permitem que o ARN de uma função de DataSync localização acesse o bucket.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

Na política de bucket do S3, você pode especificar uma tag anexada à sua função de DataSync localização do IAM.

O exemplo a seguir é uma política de bucket do S3 que nega o acesso de todos, exceto dois VPCs (`vpc-1234567890abcdef0`e`vpc-abcdef01234567890`). No entanto, a política também inclui a [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condição e [aws: PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition key, que permitem um principal com a chave `exclude-from-vpc-restriction` e o valor da tag`true`. Você pode tentar uma abordagem semelhante em sua política de bucket especificando uma tag anexada à sua função de DataSync localização.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Considerações sobre a classes de armazenamento com transferências do Amazon S3
<a name="using-storage-classes"></a>

Quando o Amazon S3 é seu local de destino, DataSync você pode transferir seus dados diretamente para uma classe de armazenamento específica do [Amazon S3](https://aws.amazon.com/s3/storage-classes/).

Algumas classes de armazenamento têm comportamentos que podem afetar os custos de armazenamento do Amazon S3. Ao usar classes de armazenamento que podem gerar custos adicionais por substituição, exclusão ou recuperação de objetos, as alterações em dados ou metadados de objetos resultam nesses custos. Para obter mais informações, consulte [Preço do Amazon S3](https://aws.amazon.com/s3/pricing/).

**Importante**  
Novos objetos transferidos para o local de destino no Amazon S3 são armazenados usando a classe de armazenamento que você especifica ao [criar o local](#create-s3-location-how-to).  
Por padrão, DataSync preserva a classe de armazenamento dos objetos existentes em seu local de destino, a menos que você configure sua tarefa para [transferir todos os dados](configure-metadata.md#task-option-transfer-mode). Nessas situações, a classe de armazenamento que você especifica ao criar o local é usada para todos os objetos.


| Classe de armazenamento do Amazon S3 | Considerações | 
| --- | --- | 
| S3 Standard | Selecione S3 Standard (Padrão) para armazenar seus arquivos acessados com frequência de forma redundante em várias zonas de disponibilidade separadas geograficamente. Esse será o padrão se você não especificar uma classe de armazenamento.  | 
| S3 Intelligent-Tiering |  Escolha S3 Intelligent-Tiering para otimizar os custos de armazenamento movendo automaticamente os dados para o nível de acesso de armazenamento mais econômico. Você paga uma taxa mensal por objeto armazenado na classe de armazenamento S3 Intelligent-Tiering. Essa cobrança do Amazon S3 inclui o monitoramento de padrões de acesso a dados e a movimentação de objetos entre níveis.  | 
| S3 Standard – IA |  Selecione S3 Standard-IA para armazenar seus objetos raramente acessados de forma redundante em várias zonas de disponibilidade separadas geograficamente.  Os objetos armazenados na classe de armazenamento S3 Standard-IA podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Standard-IA. Objetos com menos de 128 KB são menores que a cobrança de capacidade mínima por objeto na classe de armazenamento S3 Standard-IA. Esses objetos são armazenados na classe de armazenamento S3 Standard.  | 
| S3 One Zone-IA  |  Selecione S3 One Zone-IA para armazenar seus objetos raramente acessados em uma única zona de disponibilidade.  Os objetos armazenados na classe de armazenamento S3 One Zone-IA podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 One Zone-IA. Objetos com menos de 128 KB são menores que a cobrança de capacidade mínima por objeto na classe de armazenamento S3 One Zone-IA. Esses objetos são armazenados na classe de armazenamento S3 Standard.  | 
| S3 Glacier Instant Retrieval |  Escolha o S3 Glacier Instant Retrieval para arquivar objetos que raramente são acessados, mas que precisam ser recuperados em milissegundos. Os dados armazenados na classe de armazenamento S3 Glacier Instant Retrieval oferecem economia de custos em comparação à classe de armazenamento S3 Standard – IA, com a mesma latência e performance do throughput. Contudo, os custos de acesso a dados do S3 Glacier Instant Retrieval são mais altos que os do S3 Standard-IA. Os objetos armazenados no S3 Glacier Instant Retrieval podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Instant Retrieval. Objetos com menos de 128 KB são menores que a cobrança mínima de capacidade por objeto na classe de armazenamento S3 Glacier Instant Retrieval. Esses objetos são armazenados na classe de armazenamento S3 Standard.  | 
| S3 Glacier Flexible Retrieval | Escolha S3 Glacier Flexible Retrieval para arquivos mais ativos.Os objetos armazenados na classe S3 Glacier Flexible Retrieval podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Flexible Retrieval.A classe de armazenamento S3 Glacier Flexible Retrieval exige 40 KB de metadados adicionais para cada objeto arquivado. DataSync coloca objetos com menos de 40 KB na classe de armazenamento S3 Standard. Você deve restaurar objetos arquivados nessa classe de armazenamento antes de DataSync poder lê-los. Para obter mais informações, consulte [Trabalhar com objetos arquivados](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) no Guia do usuário do Amazon S3.Ao usar o S3 Glacier Flexible Retrieval, escolha a opção de tarefa **Verificar somente os dados transferidos** para comparar somas de verificação de dados e metadados no final da transferência. Você não pode usar a opção **Verificar todos os dados no destino** para essa classe de armazenamento, pois requer a recuperação de todos os objetos existentes do destino. | 
| S3 Glacier Deep Archive |  Escolha S3 Glacier Deep Archive para arquivar seus objetos para retenção de dados de longo prazo e preservação digital, no caso em que os dados são acessados uma ou duas vezes por ano. Os objetos armazenados no S3 Glacier Deep Archive podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Deep Archive. A classe de armazenamento S3 Glacier Deep Archive exige 40 KB de metadados adicionais para cada objeto arquivado. DataSync coloca objetos com menos de 40 KB na classe de armazenamento S3 Standard. Você deve restaurar objetos arquivados nessa classe de armazenamento antes de DataSync poder lê-los. Para obter mais informações, consulte [Trabalhar com objetos arquivados](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) no *Guia do usuário do Amazon S3*. Ao usar o S3 Glacier Deep Archive, escolha a opção de tarefa **Verificar somente os dados transferidos** para comparar somas de verificação de dados e metadados no final da transferência. Você não pode usar a opção **Verificar todos os dados no destino** para essa classe de armazenamento, pois requer a recuperação de todos os objetos existentes do destino.  | 
|  S3 Outposts  |  Classe de armazenamento para o Amazon S3 no Outposts.  | 

## Avaliando os custos de solicitação do S3 ao usar DataSync
<a name="create-s3-location-s3-requests"></a>

Com os locais do Amazon S3, você incorre em custos relacionados às solicitações de API do S3 feitas por. DataSync Esta seção pode ajudá-lo a entender como DataSync usa essas solicitações e como elas podem afetar seus custos do [Amazon S3](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Solicitações do S3 feitas por DataSync](#create-s3-location-s3-requests-made)
+ [Considerações sobre custos](#create-s3-location-s3-requests-cost)

### Solicitações do S3 feitas por DataSync
<a name="create-s3-location-s3-requests-made"></a>

A tabela a seguir descreve as solicitações do S3 que você DataSync pode fazer quando você está copiando dados de ou para um local do Amazon S3.


| Solicitação do S3 | Como DataSync o usa | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync faz pelo menos uma `LIST` solicitação para cada objeto que termina em uma barra (`/`) para listar os objetos que começam com esse prefixo. Essa solicitação é chamada durante a fase de [preparação](run-task.md#understand-task-execution-statuses) de uma tarefa.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync faz `HEAD` solicitações para recuperar metadados do objeto durante as fases de [preparação](run-task.md#understand-task-execution-statuses) e [verificação](run-task.md#understand-task-execution-statuses) de uma tarefa. Pode haver várias `HEAD` solicitações por objeto, dependendo de como você DataSync deseja [verificar a integridade dos dados que ele transfere](configure-data-verification-options.md). | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync faz `GET` solicitações para ler dados de um objeto durante a fase de [transferência](run-task.md#understand-task-execution-statuses) de uma tarefa. Pode haver várias solicitações de `GET` para objetos grandes.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Se você configurar sua tarefa para [copiar tags de objeto](configure-metadata.md), DataSync faça essas `GET` solicitações para verificar as tags de objeto durante as fases de [preparação](run-task.md#understand-task-execution-statuses) e [transferência](run-task.md#understand-task-execution-statuses) da tarefa.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync faz `PUT` solicitações para criar objetos e prefixos em um bucket do S3 de destino durante a fase de [transferência](run-task.md#understand-task-execution-statuses) de uma tarefa. Como DataSync usa o [recurso de upload de várias partes do Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html), pode haver várias `PUT` solicitações para objetos grandes. Para ajudar a minimizar os custos de armazenamento, recomendamos o uso de uma [configuração de ciclo de vida]() para impedir uploads incompletos de várias partes.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | Se seus objetos de origem tiverem tags e você configurar sua tarefa para [copiar tags de objetos](configure-metadata.md), DataSync faça essas `PUT` solicitações ao [transferir](run-task.md#understand-task-execution-statuses) essas tags. | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync faz uma `COPY` solicitação para criar uma cópia de um objeto somente se os metadados desse objeto mudarem. Isso pode acontecer se você copiou originalmente os dados para o bucket do S3 usando outro serviço ou ferramenta que não transferiu seus metadados.  | 

### Considerações sobre custos
<a name="create-s3-location-s3-requests-cost"></a>

DataSync faz solicitações do S3 nos buckets do S3 toda vez que você executa sua tarefa. Isso pode fazer com que as cobranças aumentem em determinadas situações. Por exemplo:
+ Você está frequentemente transferindo objetos para ou de um bucket do S3.
+ Talvez você não esteja transferindo muitos dados, mas o bucket do S3 contém muitos objetos. Você ainda pode ver altas cobranças nesse cenário porque DataSync faz solicitações do S3 em cada um dos objetos do bucket.
+ Você está transferindo entre buckets do S3, assim DataSync como fazendo solicitações do S3 na origem e no destino.

Para ajudar a minimizar os custos de solicitação do S3 relacionados a DataSync, considere o seguinte:

**Topics**
+ [Quais classes de armazenamento do S3 eu estou usando?](#create-s3-location-s3-requests-storage-classes)
+ [Com que frequência preciso transferir meus dados?](#create-s3-location-s3-requests-recurring-transfers)

#### Quais classes de armazenamento do S3 eu estou usando?
<a name="create-s3-location-s3-requests-storage-classes"></a>

As taxas de solicitação do S3 podem variar de acordo com a classe de armazenamento do Amazon S3 que os objetos estão usando, principalmente para classes que arquivam objetos (como S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

Aqui estão alguns cenários nos quais as classes de armazenamento podem afetar suas cobranças de solicitação do S3 durante o uso DataSync:
+ Sempre que você executa uma tarefa, DataSync faz `HEAD` solicitações para recuperar metadados do objeto. Essas solicitações resultam em cobranças mesmo se você não estiver movendo nenhum objeto. O quanto essas solicitações afetam sua fatura depende da classe de armazenamento que seus objetos estão usando, juntamente com o número de objetos DataSync digitalizados.
+ Se você moveu objetos para a classe de armazenamento S3 Glacier Instant Retrieval (diretamente ou por meio de uma configuração de ciclo de vida do bucket), as solicitações de objetos dessa classe são mais caras do que de outras classes de armazenamento.
+ Se você configurar sua DataSync tarefa para [verificar se os locais de origem e destino estão totalmente sincronizados](configure-data-verification-options.md), haverá `GET` solicitações para cada objeto em todas as classes de armazenamento (exceto S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).
+ Além das solicitações de `GET`, você incorre em custos de recuperação de dados para objetos nas classes de armazenamento S3 Standard-IA, S3 One Zone-IA ou S3 Glacier Instant Retrieval.

Para obter mais informações, consulte [Definição de preço do Amazon S3](https://aws.amazon.com/s3/pricing/).

#### Com que frequência preciso transferir meus dados?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Se você precisar mover dados de forma recorrente, pense em um [cronograma](task-scheduling.md) que não execute mais tarefas do que o necessário.

Você também pode considerar limitar o escopo de suas transferências. Por exemplo, você pode configurar DataSync para focar em objetos em determinados prefixos ou [filtrar quais dados são transferidos](filtering.md). Essas opções podem ajudar a reduzir o número de solicitações do S3 feitas sempre que você executa sua DataSync tarefa.

## Outras considerações sobre transferências do Amazon S3
<a name="create-s3-location-considerations"></a>
+ Se você estiver transferindo de um bucket S3, use a [Lente de Armazenamento do S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html) para descobrir quantos objetos você está movendo.
+ [Ao transferir entre buckets do S3, recomendamos usar o [modo de tarefa aprimorado](choosing-task-mode.md) porque você não está sujeito às DataSync cotas de tarefas.](datasync-limits.md)
+ DataSync talvez não transfira um objeto com caracteres não padrão em seu nome. Para obter mais informações, consulte [Diretrizes de nomeação de chave de objeto](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) no *Guia do usuário do Amazon S3*.
+ Ao usar DataSync com um bucket do S3 que usa controle de [versão, lembre-se do](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html) seguinte:
  + Ao transferir para um bucket do S3, DataSync cria uma nova versão de um objeto se esse objeto for modificado na origem. Isso resulta em custos adicionais.
  + Um objeto tem uma versão diferente IDs nos buckets de origem e destino.
  + Somente a versão mais recente de cada objeto é transferida do bucket de origem. Versões anteriores não são copiadas para o destino.
+ Depois de transferir inicialmente os dados de um bucket do S3 para um sistema de arquivos (por exemplo, NFS ou Amazon FSx), as execuções subsequentes da mesma DataSync tarefa não incluirão objetos que foram modificados, mas têm o mesmo tamanho da primeira transferência.

## Como criar o local de transferência para um bucket de uso geral do Amazon S3
<a name="create-s3-location-how-to"></a>

Para criar um local para a transferência, você precisa de um bucket de uso geral do S3 existente. Se você não tiver um, consulte o [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**Importante**  
Antes de criar seu local, leia as seguintes seções:  
[Considerações sobre a classes de armazenamento com transferências do Amazon S3](#using-storage-classes)
[Avaliando os custos de solicitação do S3 ao usar DataSync](#create-s3-location-s3-requests)

### Usando o DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Para **Tipo de local**, escolha **Amazon S3** e, em seguida, escolha **Bucket de uso geral**.

1. Para **URI do S3**, insira ou escolha o bucket e o prefixo que você deseja usar para o local.
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Para **Classe de armazenamento do S3 quando usada como destino**, escolha uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

   Para obter mais informações, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](#using-storage-classes).

1. Em **Perfil do IAM**, siga um destes procedimentos:
   + Escolha **Autogenerate** DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

     Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.
   + Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](#create-role-manually).

1. (Opcional) Escolha **Adicionar nova tag** para marcar o local no Amazon S3.

   Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-s3-cli"></a>

1. Copie o seguinte comando `create-location-s3`:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Em `--s3-bucket-arn`, especifique o ARN do bucket do S3 que você deseja usar como um local.

1. Em `--s3-storage-class`, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

1. Para`--s3-config`, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

   Para obter mais informações, consulte [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](#create-role-manually).

1. Para`--subdirectory`, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Execute o comando `create-location-s3`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Você pode usar esse local como origem ou destino para sua DataSync tarefa.

## Como criar seu local de transferência para um bucket do S3 no Outposts
<a name="create-s3-location-outposts-how-to"></a>

Para criar um local para a transferência, você precisa de um bucket existente do Amazon S3 no Outposts. Se você não tiver um, consulte o [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

Você também precisa de um DataSync agente. Para obter mais informações, consulte [Implantando seu agente do modo Básico em AWS Outposts](deploy-agents.md#outposts-agent).

Ao transferir de um prefixo de bucket do S3 on Outposts que contém um grande conjunto de dados (como centenas de milhares ou milhões de objetos), sua tarefa pode atingir o tempo limite. DataSync Para evitar isso, considere usar um [DataSync manifesto](transferring-with-manifest.md), que permite especificar os objetos exatos que você precisa transferir.

### Usando o DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Para **Tipo de local**, escolha **Amazon S3** e, em seguida, escolha **Bucket do Outposts**.

1. Para **Bucket do S3**, escolha um ponto de acesso Amazon S3 que possa acessar seu bucket do S3 no Outposts. 

   Para obter mais informações, consulte o [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Para **Classe de armazenamento do S3 quando usada como destino**, escolha uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

   Para obter mais informações, consulte[Considerações sobre a classes de armazenamento com transferências do Amazon S3](#using-storage-classes). DataSync por padrão, usa a classe de armazenamento S3 Outposts para Amazon S3 on Outposts.

1. Para **agentes**, especifique o Amazon Resource Name (ARN) do DataSync agente em seu Outpost.

1. Em **Pasta**, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Em **Perfil do IAM**, siga um destes procedimentos:
   + Escolha **Autogenerate** DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

     Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.
   + Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](#create-role-manually).

1. (Opcional) Escolha **Adicionar nova tag** para marcar o local no Amazon S3.

   Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-s3-cli"></a>

1. Copie o seguinte comando `create-location-s3`:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. Para `--s3-bucket-arn`, especifique o ARN de um ponto de acesso Amazon S3 que possa acessar o bucket do S3 no Outposts.

   Para obter mais informações, consulte o [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Em `--s3-storage-class`, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

   Para obter mais informações, consulte[Considerações sobre a classes de armazenamento com transferências do Amazon S3](#using-storage-classes). DataSync por padrão, usa a classe de armazenamento S3 Outposts para S3 on Outposts.

1. Para`--s3-config`, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

   Para obter mais informações, consulte [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](#create-role-manually).

1. Para`--subdirectory`, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Para`--agent-arns`, especifique o ARN do DataSync agente em seu Posto Avançado.

1. Execute o comando `create-location-s3`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Você pode usar esse local como origem ou destino para sua DataSync tarefa.

## Transferências do Amazon S3 entre Contas da AWS
<a name="create-s3-location-cross-transfers"></a>

[Com DataSync, você pode mover dados de ou para buckets do S3 em diferentes. Contas da AWS](working-with-locations.md#working-with-locations-across-accounts) Para obter mais informações, consulte os seguintes tutoriais:
+ [Transferência de dados do armazenamento local para o Amazon S3 em Contas da AWS](s3-cross-account-transfer.md)
+ [Transferência de dados do Amazon S3 para o Amazon S3 em Contas da AWS](tutorial_s3-s3-cross-account-transfer.md)

## Transferências do Amazon S3 entre comerciais e AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

Por padrão, DataSync não é transferido entre buckets S3 em ambientes comerciais e. AWS GovCloud (US) Regions Porém, você ainda pode configurar esse tipo de transferência criando um local de armazenamento de objetos para um dos buckets do S3 da transferência. Você pode realizar esse tipo de transferência com ou sem um atendente. Se você usa um atendente, a tarefa deve ser configurada para o modo **Básico**. Para transferir sem um atendente, você deve usar o modo **Avançado**.

**Antes de começar**: certifique-se de que compreende as implicações de custos de transferir entre regiões. Para obter mais informações, consulte [Preços do AWS DataSync](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Fornecendo DataSync acesso ao bucket do seu local de armazenamento de objetos](#create-s3-location-govcloud-iam)
+ [Criando seu DataSync agente (opcional)](#create-s3-location-govcloud-create-agent)
+ [Criação de um local de armazenamento de objetos para o bucket do S3](#create-s3-location-govcloud-how-to)

### Fornecendo DataSync acesso ao bucket do seu local de armazenamento de objetos
<a name="create-s3-location-govcloud-iam"></a>

Ao criar o local de armazenamento de objetos para essa transferência, você deve fornecer DataSync as credenciais de um usuário do IAM com permissão para acessar o bucket S3 do local. Para obter mais informações, consulte [Permissões obrigatórias](#create-s3-location-required-permissions).

**Atenção**  
Os usuários do IAM têm credenciais de longo prazo, o que representa um risco de segurança. Para ajudar a reduzir esse risco, recomendamos que você forneça a esses usuários somente as permissões necessárias para realizar a tarefa e que você os remova quando não forem mais necessários.

### Criando seu DataSync agente (opcional)
<a name="create-s3-location-govcloud-create-agent"></a>

Se você quiser executar a transferência usando o modo **Básico**, precisará usar um atendente. Como você está se transferindo entre um comercial e um AWS GovCloud (US) Region, você implanta seu DataSync agente como uma instância do Amazon EC2 em uma das regiões. Recomendamos que o agente use um endpoint de serviço da VPC para evitar custos de transferência de dados para a Internet pública. Para obter mais informações, consulte [Amazon EC2 Data Transfer pricing](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Escolha um dos cenários a seguir que descrevem como criar um agente com base na região em que você planeja executar sua DataSync tarefa.

#### Ao executar uma DataSync tarefa em uma região comercial
<a name="using-datasync-in-commercial"></a>

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão na região comercial.

![\[Um DataSync agente implantado em uma região comercial para uma transferência entre regiões para um bucket S3 em um. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Referência | Description | 
| --- | --- | 
| 1 | Na região comercial em que você está executando uma DataSync tarefa, os dados são transferidos do bucket S3 de origem. O bucket de origem é configurado como um [local no Amazon S3](#create-s3-location-how-to) na região comercial. | 
| 2 | [Transferências de dados por meio do DataSync agente, que está na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.](required-network-interfaces.md) | 
| 3 | Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um [local de armazenamento de objetos](#create-s3-location-govcloud-how-to) na região comercial.  | 

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

**Para criar seu DataSync agente**

1. [Implante um agente do Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) em sua região comercial.

1. Configure o agente para usar um [endpoint de serviço da VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Ative o agente](activate-agent.md).

#### Ao executar uma DataSync tarefa em uma região GovCloud (EUA)
<a name="using-datasync-in-govcloud-1"></a>

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão no AWS GovCloud (US) Region.

![\[Um DataSync agente implantado em uma transferência AWS GovCloud (US) Region ou entre regiões para um bucket do S3 na mesma. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Referência | Description | 
| --- | --- | 
| 1 | Transferências de dados do bucket S3 de origem na região comercial para o AWS GovCloud (US) Region local em que você está executando uma DataSync tarefa. O bucket de origem é configurado como um [local de armazenamento de objetos](#create-s3-location-govcloud-how-to) na AWS GovCloud (US) Region.  | 
| 2 | [No AWS GovCloud (US) Region, os dados são transferidos por meio do DataSync agente na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.](required-network-interfaces.md) | 
| 3 | Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um [local do Amazon S3](#create-s3-location-how-to) na AWS GovCloud (US) Region. | 

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

**Para criar seu DataSync agente**

1. [Implante um agente do Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) em seu. AWS GovCloud (US) Region

1. Configure o agente para usar um [endpoint de serviço da VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Ative o agente](activate-agent.md).

Se o conjunto de dados for altamente compactável, você poderá ter uma redução de custos se criar o agente em uma região comercial enquanto executa uma tarefa em uma AWS GovCloud (US) Region. Há necessidade de mais configuração do que o normal para criar esse agente, incluindo preparar o agente para uso em uma região comercial. Para obter informações sobre como criar um agente para essa configuração, consulte o AWS DataSync blog [Mover dados para dentro e para fora AWS GovCloud (US) com](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Criação de um local de armazenamento de objetos para o bucket do S3
<a name="create-s3-location-govcloud-how-to"></a>

Você precisa de um local de armazenamento de objetos para o bucket do S3 que esteja na região em que você não está executando sua DataSync tarefa.

#### Usando o DataSync console
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Verifique se você está na mesma região em que planeja executar a tarefa.

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Armazenamento de objetos**.

1. Para **Agentes**, escolha o DataSync agente que você criou para essa transferência.

1. Em **Servidor**, insira um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:
   + **Bucket de região comercial:** `s3.your-region.amazonaws.com`
   + **Bucket de AWS GovCloud (US) Region **: `s3.your-gov-region.amazonaws.com`

   Para obter uma lista dos endpoints do Amazon S3, consulte *[Referência geral da AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Em nome do **bucket**, insira o nome do bucket do S3.

1. Em **Pasta**, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Selecione **Exige credenciais** e faça o seguinte:
   + Para **Chave de acesso**, insira a chave de acesso de um [usuário do IAM](#create-s3-location-govcloud-iam) que possa acessar o bucket.
   + Em **Chave secreta**, insira a mesma chave secreta do usuário do IAM.

1. (Opcional) Escolha **Adicionar tag** para marcar sua localização.

   Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

1. Escolha **Criar local**.

#### Usando o AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Copie o seguinte comando `create-location-object-storage`:

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. No parâmetro `--server-hostname`, especifique um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:
   + **Bucket de região comercial:** `s3.your-region.amazonaws.com`
   + **Bucket de AWS GovCloud (US) Region **: `s3.your-gov-region.amazonaws.com`

   Para a região no endpoint, certifique-se de especificar a mesma região em que você planeja executar a tarefa.

   Para obter uma lista dos endpoints do Amazon S3, consulte *[Referência geral da AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. No parâmetro `--bucket-name`, especifique o nome do bucket do S3.

1. Para o `--agent-arns` parâmetro, especifique o DataSync agente que você criou para essa transferência.

1. No parâmetro `--access-key`, especifique a chave de acesso para um [usuário do IAM](#create-s3-location-govcloud-iam) que possa acessar o bucket.

1. No parâmetro `--secret-key`, insira a mesma chave secreta do usuário do IAM.

1. (Opcional) Para o `--subdirectory` parâmetro, especifique um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).
**Atenção**  
DataSync não é possível transferir objetos com um prefixo que comece com uma barra (`/`) ou inclua `//``/./`, ou `/../` padrões. Por exemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Opcional) No parâmetro `--tags`, especifique os pares chave-valor que representam as tags para o recurso do local.

   Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

1. Execute o comando `create-location-object-storage`.

   Você recebe uma resposta que mostra o ARN do local que você acabou de criar.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

Você pode usar esse local como origem ou destino para sua DataSync tarefa. Para o outro bucket do S3 nessa transferência, [crie um local do Amazon S3](#create-s3-location-how-to).

## Próximas etapas
<a name="create-s3-location-next-steps"></a>

Algumas das próximas etapas possíveis incluem:

1. Se necessário, crie outro local. Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. [Defina as configurações da DataSync tarefa](task-options.md), como quais arquivos transferir, como lidar com metadados, entre outras opções.

1. [Defina um cronograma](task-scheduling.md) para sua DataSync tarefa.

1. [Configure o monitoramento](monitoring-overview.md) para sua DataSync tarefa.

1. [Inicie](run-task.md) a tarefa.

# Configurando AWS DataSync transferências com o Amazon EFS
<a name="create-efs-location"></a>

Para transferir dados para ou do seu sistema de arquivos Amazon EFS, você deve criar um *local AWS DataSync * de transferência. DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso aos sistemas de arquivos do Amazon EFS
<a name="create-efs-location-access"></a>

[Criar um local](#create-efs-location-how-to) envolve entender como DataSync acessar seu armazenamento. Para o Amazon EFS, DataSync monta seu sistema de arquivos como usuário raiz a partir da sua nuvem privada virtual (VPC) [usando](required-network-interfaces.md) interfaces de rede.

**Contents**
+ [Determinar a sub-rede e os grupos de segurança do destino de montagem](#create-efs-location-mount-target)
+ [Acesso a sistemas de arquivos restritos](#create-efs-location-iam)
  + [Criação de uma função DataSync do IAM para acesso ao sistema de arquivos](#create-efs-location-iam-role)
  + [Exemplo de política de sistema de arquivos que permite DataSync acesso](#create-efs-location-iam-policy)

### Determinar a sub-rede e os grupos de segurança do destino de montagem
<a name="create-efs-location-mount-target"></a>

Ao criar sua localização, você especifica a sub-rede e os grupos de segurança que permitem DataSync a conexão com um dos [destinos de montagem](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) do seu sistema de arquivos Amazon EFS.

A sub-rede especificada deve estar localizada:
+ Na mesma VPC que o sistema de arquivos.
+ Na mesma zona de disponibilidade que pelo menos um destino de montagem do sistema de arquivos.

**nota**  
Você não precisa especificar uma sub-rede que inclua um destino de montagem do sistema de arquivos.

Os grupos de segurança que você especificar devem permitir tráfego de entrada na porta NFS 2049. Para obter informações sobre a criação e a atualização de grupos de segurança para seus destinos de montagem, consulte o [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html).

**Especificação de grupos de segurança associados a um destino de montagem**  
Você pode especificar um grupo de segurança associado a um dos destinos de montagem do sistema de arquivos. Recomendamos essa abordagem do ponto de vista do gerenciamento de rede.

**Especificação de grupos de segurança não associados a um destino de montagem**  
Você pode especificar um grupo de segurança que não esteja associado a um dos destinos de montagem do sistema de arquivos. Porém, esse grupo de segurança deve ser capaz de se comunicar com o grupo de segurança de um destino de montagem.  
Por exemplo, veja como você pode criar uma relação entre o grupo de segurança D (para DataSync) e o grupo de segurança M (para o destino de montagem):  
+ O grupo de segurança D, que você especifica ao criar o local, deve ter uma regra que permita conexões de saída na porta NFS 2049 com o grupo de segurança M.
+ O grupo de segurança M, associado ao destino de montagem, deve permitir o acesso de entrada na porta 2049 NFS do grupo de segurança D.

**Para encontrar o grupo de segurança de um destino de montagem**

As instruções a seguir podem ajudá-lo a identificar o grupo de segurança de um destino de montagem do sistema de arquivos Amazon EFS que você deseja usar DataSync para sua transferência.

1. No AWS CLI, execute o `describe-mount-targets` comando a seguir.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   Esse comando retorna informações sobre os destinos de montagem do sistema de arquivos (semelhante ao exemplo de saída a seguir).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. Anote o valor de `MountTargetId` que você deseja usar.

1. Execute o comando `describe-mount-target-security-groups` a seguir usando o `MountTargetId` para ver o grupo de segurança do destino de montagem.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

Você pode especificar um grupo de segurança ao [criar o local](#create-efs-location-how-to).

### Acesso a sistemas de arquivos restritos
<a name="create-efs-location-iam"></a>

DataSync podem ser transferidos de ou para sistemas de arquivos do Amazon EFS que restringem o acesso por meio de [pontos de acesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) e [políticas do IAM](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html).

**nota**  
[Se DataSync acessar um sistema de arquivos de destino por meio de um ponto de acesso que [impõe a identidade do usuário](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points), o usuário e o grupo POSIX IDs para seus dados de origem não serão preservados se você configurar sua DataSync tarefa para copiar a propriedade.](configure-metadata.md) Em vez disso, os arquivos e pastas transferidos são definidos para o usuário e o grupo do ponto de acesso IDs. Quando isso acontece, a verificação da tarefa falha porque DataSync detecta uma incompatibilidade entre os metadados nos locais de origem e destino.

**Contents**
+ [Criação de uma função DataSync do IAM para acesso ao sistema de arquivos](#create-efs-location-iam-role)
+ [Exemplo de política de sistema de arquivos que permite DataSync acesso](#create-efs-location-iam-policy)

#### Criação de uma função DataSync do IAM para acesso ao sistema de arquivos
<a name="create-efs-location-iam-role"></a>

Se você tiver um sistema de arquivos Amazon EFS que restringe o acesso por meio de uma política do IAM, você pode criar uma função do IAM que forneça DataSync permissão para ler ou gravar dados no sistema de arquivos. Depois, talvez seja necessário especificar esse perfil na [política do sistema de arquivos](#create-efs-location-iam-policy).

**Para criar a função DataSync do IAM**

1. Abra o console do IAM em [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. No painel de navegação esquerdo, em **Gerenciamento de acesso**, escolha **Perfis** e, em seguida, escolha **Criar perfil**.

1. Na página **Selecionar entidade confiável**, em **Tipo de entidade confiável**, escolha **Política de confiança personalizada**.

1. Cole o JSON a seguir no editor de política:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. Escolha **Próximo**. Na página **Adicionar permissões**, escolha **Próximo**.

1. Forneça um nome ao perfil e escolha **Criar perfil**.

Você pode especificar esse perfil ao [criar o local](#create-efs-location-how-to).

#### Exemplo de política de sistema de arquivos que permite DataSync acesso
<a name="create-efs-location-iam-policy"></a>

O exemplo de política de sistema de arquivos a seguir mostra como o acesso a um sistema de arquivos do Amazon EFS (identificado na política como`fs-1234567890abcdef0`) é restrito, mas ainda permite o acesso DataSync por meio de uma função do IAM chamada`MyDataSyncRole`:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal`— Especifica uma [função do IAM](#create-efs-location-iam) que dá DataSync permissão para acessar o sistema de arquivos.
+ `Action`— Fornece acesso DataSync root e permite que ele leia e grave no sistema de arquivos.
+ `aws:SecureTransport`: exige que clientes do NFS usem TLS ao se conectar ao sistema de arquivos.
+ `elasticfilesystem:AccessPointArn`: permite o acesso ao sistema de arquivos somente por um ponto de acesso específico.

## Considerações de rede com transferências do Amazon EFS
<a name="efs-network-considerations"></a>

VPCs que você usa com DataSync deve ter locação padrão. VPCs com locação dedicada não são suportadas.

## Considerações de performance com transferências do Amazon EFS
<a name="efs-considerations"></a>

O modo de throughput do sistema de arquivos Amazon EFS pode afetar a duração da transferência e a performance do sistema de arquivos durante a transferência. Considere o seguinte:
+ Para obter melhores resultados, recomendamos o uso do modo de throughput elástico. Se você não usar o modo de throughput elástico, a transferência pode demorar mais.
+ Se você usar o modo de taxa de transferência intermitente, o desempenho dos aplicativos do seu sistema de arquivos poderá ser afetado porque DataSync consome créditos de intermitência do sistema de arquivos.
+ A forma como você [configura DataSync para verificar os dados transferidos](configure-data-verification-options.md) pode afetar o desempenho do sistema de arquivos e os custos de acesso aos dados.

Para obter mais informações, consulte [Amazon EFS performance](https://docs.aws.amazon.com/efs/latest/ug/performance.html) no *Amazon Elastic File System User Guide* e a página [Amazon EFS Pricing](https://aws.amazon.com/efs/pricing/).

## Criar seu local de transferência do Amazon EFS
<a name="create-efs-location-how-to"></a>

Para criar o local de transferência, você precisa de um sistema de arquivos do Amazon EFS. Se você não tiver um, consulte [Introdução ao Amazon Elastic File System](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html) no *Guia do usuário do Amazon Elastic File System*.

### Usando o DataSync console
<a name="create-efs-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Sistema de arquivos Amazon EFS**.

   Você configurará esse local como origem ou destino posteriormente. 

1. Para **Sistema de arquivos**, escolha o sistema de arquivos do Amazon EFS que você deseja usar como um local.

1. Em **Caminho da montagem**, digite o caminho de montagem para o sistema de arquivos Amazon EFS.

   Isso especifica onde DataSync lê ou grava dados (dependendo se esse é um local de origem ou destino) no seu sistema de arquivos.

   Por padrão, DataSync usa o diretório raiz (ou [ponto de acesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), se você fornecer um para a configuração do **ponto de acesso EFS**). Você também pode especificar subdiretórios usando barras (por exemplo,). `/path/to/directory`

1. Em **Sub-rede**, escolha uma sub-rede na qual você deseja DataSync criar as [interfaces de rede](required-network-interfaces.md) para gerenciar seu tráfego de transferência de dados.

   A sub-rede deve estar localizada:
   + Na mesma VPC que o sistema de arquivos.
   + Na mesma zona de disponibilidade que pelo menos um destino de montagem.
**nota**  
Você não precisa especificar uma sub-rede que inclua um destino de montagem do sistema de arquivos.

1. Em **Grupos de segurança**, escolha o grupo de segurança associado ao destino de montagem do sistema de arquivos Amazon EFS. Você pode escolher mais de um grupo de segurança.
**nota**  
O grupo de segurança que você especificar deve permitir tráfego de entrada na porta NFS 2049. Para obter mais informações, consulte [Determinar a sub-rede e os grupos de segurança do destino de montagem](#create-efs-location-mount-target).

1. Para **criptografia em trânsito**, escolha se você deseja usar DataSync a criptografia TLS (Transport Layer Security) ao transferir dados para ou do seu sistema de arquivos.
**nota**  
Você deve habilitar essa configuração para configurar um ponto de acesso, um perfil do IAM ou ambos com o local do Amazon EFS.

1. (Opcional) Para o **ponto de acesso EFS**, escolha um ponto de acesso que DataSync possa ser usado para montar seu sistema de arquivos.

   Para obter mais informações, consulte [Acesso a sistemas de arquivos restritos](#create-efs-location-iam).

1. (Opcional) Para a **função do IAM**, especifique uma função que DataSync permita acessar seu sistema de arquivos.

   Para obter informações sobre como criar essa função, consulte [Criação de uma função DataSync do IAM para acesso ao sistema de arquivos](#create-efs-location-iam-role).

1. (Opcional) Selecione **Adicionar tag** para marcar o sistema de arquivos.

   Uma *tag* é um par de chave-valor que ajuda você a gerenciar, filtrar e pesquisar seus locais. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-efs-cli"></a>

1. Copie o seguinte comando `create-location-efs`:

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. Em `--efs-filesystem-arn`, especifique o nome do recurso da Amazon (ARN) do sistema de arquivos Amazon EFS que você está transferindo de ou para.

1. Em `--subdirectory`, especifique um caminho de montagem para o sistema de arquivos.

   É aqui que DataSync lê ou grava dados (dependendo se esse é um local de origem ou destino) no seu sistema de arquivos. 

   Por padrão, DataSync usa o diretório raiz (ou [ponto de acesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), se você fornecer um`--access-point-arn`). Você também pode especificar subdiretórios usando barras (por exemplo,). `/path/to/directory`

1. Para `--ec2-config`, faça o seguinte:
   + Em `SecurityGroupArns`, especifique o ARN do grupo de segurança associado ao destino de montagem do sistema de arquivos. Você pode especificar mais de um grupo de segurança.
**nota**  
O grupo de segurança que você especificar deve permitir tráfego de entrada na porta NFS 2049. Para obter mais informações, consulte [Determinar a sub-rede e os grupos de segurança do destino de montagem](#create-efs-location-mount-target).
   + Para`SubnetArn`, especifique o ARN da sub-rede em que você deseja criar as [interfaces de rede DataSync ](required-network-interfaces.md) para gerenciar seu tráfego de transferência de dados.

     A sub-rede deve estar localizada:
     + Na mesma VPC que o sistema de arquivos.
     + Na mesma zona de disponibilidade que pelo menos um destino de montagem.
**nota**  
Você não precisa especificar uma sub-rede que inclua um destino de montagem do sistema de arquivos.

1. Para`--in-transit-encryption`, especifique se você deseja usar DataSync a criptografia TLS (Transport Layer Security) ao transferir dados para ou do seu sistema de arquivos.
**nota**  
Você deve definir isso como `TLS1_2` para configurar um ponto de acesso, um perfil do IAM ou ambos com o local do Amazon EFS.

1. (Opcional) Para`--access-point-arn`, especifique o ARN de um ponto de acesso que DataSync pode ser usado para montar seu sistema de arquivos.

   Para obter mais informações, consulte [Acesso a sistemas de arquivos restritos](#create-efs-location-iam).

1. (Opcional) Para`--file-system-access-role-arn`, especifique o ARN de uma função do IAM que permite DataSync acessar seu sistema de arquivos.

   Para obter informações sobre como criar essa função, consulte [Criação de uma função DataSync do IAM para acesso ao sistema de arquivos](#create-efs-location-iam-role).

1. Execute o comando `create-location-efs`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# Configurando transferências com o FSx Windows File Server
<a name="create-fsx-location"></a>

Para transferir dados para ou do seu sistema de arquivos Amazon FSx for Windows File Server, você deve criar um *local AWS DataSync * de transferência. DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso aos sistemas FSx de arquivos do Windows File Server
<a name="create-fsx-location-access"></a>

DataSync [se conecta ao seu sistema FSx de arquivos do Windows File Server com o protocolo Server Message Block (SMB) e o monta a partir da sua nuvem privada virtual (VPC) usando interfaces de rede.](required-network-interfaces.md)

**nota**  
VPCs que você usa com DataSync deve ter locação padrão. VPCs com locação dedicada não são suportadas.

**Topics**
+ [Permissões obrigatórias](#create-fsx-windows-location-permissions)
+ [Protocolos de autenticação necessários](#configuring-fsx-windows-authentication-protocols)
+ [Namespaces do DFS](#configuring-fsx-windows-location-dfs)

### Permissões obrigatórias
<a name="create-fsx-windows-location-permissions"></a>

Você deve fornecer DataSync ao usuário os direitos necessários para montar e acessar seus FSx arquivos, pastas e metadados de arquivos do Windows File Server.

Recomendamos que esse usuário pertença a um grupo do Microsoft Active Directory para administrar o sistema de arquivos. As especificidades desse grupo dependem da configuração do Active Directory:
+ Se você estiver usando AWS Directory Service for Microsoft Active Directory com FSx o Windows File Server, o usuário deverá ser membro do grupo ** FSx Administradores AWS Delegados**.
+ Se você estiver usando o Active Directory FSx autogerenciado com o Windows File Server, o usuário deverá ser membro de um dos dois grupos:
  + O grupo **Administradores de domínio**, que é o grupo padrão dos administradores delegados.
  + Um grupo personalizado de administradores delegados com direitos de usuário que permitem DataSync copiar permissões de propriedade de objetos e listas de controle de acesso do Windows ()ACLs.
**Importante**  
Você não pode alterar o grupo de administradores delegados depois que o sistema de arquivos foi implantado. Você deve reimplantar o sistema de arquivos ou restaurá-lo a partir de um backup para usar o grupo personalizado de administradores delegados com os seguintes direitos de usuário que DataSync precisam copiar metadados.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-fsx-location.html)
+ Se você quiser copiar o Windows ACLs e estiver transferindo entre um servidor de arquivos SMB e FSx para o sistema de arquivos Windows File Server ou entre FSx sistemas de arquivos Windows File Server, os usuários fornecidos DataSync devem pertencer ao mesmo domínio do Active Directory ou ter uma relação de confiança do Active Directory entre seus domínios.

**Atenção**  
Seu FSx usuário do sistema de arquivos do Windows File Server deve ter permissões de **controle total** em todas as pastas do seu sistema de arquivos. Não altere as permissões de NTFS ACL para esse usuário em suas pastas. Se você fizer isso, DataSync poderá alterar as permissões do sistema de arquivos de uma forma que torne seu compartilhamento de arquivos inacessível e impeça que os backups do sistema de arquivos sejam utilizáveis. Para obter mais informações sobre o acesso em nível de arquivo e pasta, consulte o Guia do *[usuário do Amazon FSx para Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)*.

### Protocolos de autenticação necessários
<a name="configuring-fsx-windows-authentication-protocols"></a>

Seu servidor de arquivos FSx para Windows deve usar a autenticação NTLM DataSync para acessá-lo. DataSyncnão consigo acessar um servidor de arquivos que usa a autenticação Kerberos. 

### Namespaces do DFS
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync não oferece suporte a namespaces do Microsoft Distributed File System (DFS). Em vez disso, recomendamos especificar um servidor ou compartilhamento de arquivos subjacente ao criar sua DataSync localização.

Para obter mais informações, consulte [Agrupando vários sistemas de arquivos com namespaces DFS no Guia do usuário](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) do *Amazon FSx para Windows File Server*.

## Criando seu local de transferência FSx para o Windows File Server
<a name="create-fsx-location-how-to"></a>

Antes de começar, verifique se você tem um servidor FSx de arquivos do Windows existente no seu Região da AWS. Para obter mais informações, consulte [Introdução à Amazon FSx ](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html) no *Guia do usuário do Amazon FSx para Windows File Server*.

### Usando o DataSync console
<a name="create-fsx-location-access-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Para **Tipo de localização**, escolha **Amazon FSx**.

1. Para **sistema de FSx arquivos**, escolha o FSx sistema de arquivos do Windows File Server que você deseja usar como local.

1. Em **Nome do compartilhamento**, insira um caminho de montagem FSx para o Windows File Server usando barras.

   Isso especifica o caminho onde DataSync lê ou grava dados (dependendo se esse é um local de origem ou destino).

   Você também pode incluir subdiretórios (por exemplo, `/path/to/directory`).

1. Para **grupos de segurança**, escolha até cinco grupos de segurança do Amazon EC2 que forneçam acesso à sub-rede preferencial do sistema de arquivos.

   Os grupos de segurança que você escolher devem ser capazes de se comunicar com os grupos de segurança do sistema de arquivos. Para obter informações sobre a configuração de grupos de segurança para acesso ao sistema de arquivos, consulte o [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**nota**  
Se você escolher um grupo de segurança que não permite conexões de dentro de si mesmo, siga um destes procedimentos:  
Configure o grupo de segurança para permitir que ele se comunique dentro de si próprio.
Escolha outro grupo de segurança diferente que possa se comunicar com o grupo de segurança do destino de montagem.

1. Em **Usuário**, insira o nome de um usuário que pode acessar o seu FSx para o Windows File Server.

   Para obter mais informações, consulte [Permissões obrigatórias](#create-fsx-windows-location-permissions).

1. Para **Senha**, insira a senha do nome de usuário.

1. (Opcional) Em **Domínio**, insira o nome do domínio do Windows ao qual seu sistema FSx de arquivos do Windows File Server pertence.

   Se você tiver vários domínios do Active Directory em seu ambiente, definir essa configuração garante que ele DataSync se conecte ao sistema de arquivos correto.

1. (Opcional) Insira valores para os campos **Chave** e **Valor** para marcar o FSx Windows File Server.

   As tags ajudam você a gerenciar, filtrar e pesquisar seus AWS recursos. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-fsx-cli"></a>

**Para criar um local FSx para o Windows File Server usando o AWS CLI**
+ Use o comando a seguir para criar uma FSx localização na Amazon.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  No comando `create-location-fsx-windows`, faça o seguinte:
  + `fsx-filesystem-arn`: especifique o nome do recurso da Amazon (ARN) do sistema de arquivos para o qual ou do qual deseja transferir.
  + `security-group-arns`: especifique os ARNs de até cinco grupos de segurança do Amazon EC2 que fornecem acesso à sub-rede preferencial do sistema de arquivos.

    Os grupos de segurança que você especificar devem ser capazes de se comunicar com os grupos de segurança do seu sistema de arquivos. Para obter informações sobre a configuração de grupos de segurança para acesso ao sistema de arquivos, consulte o [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**nota**  
Se você escolher um grupo de segurança que não permite conexões de dentro de si mesmo, siga um destes procedimentos:  
Configure o grupo de segurança para permitir que ele se comunique dentro de si próprio.
Escolha outro grupo de segurança diferente que possa se comunicar com o grupo de segurança do destino de montagem.
  + A Região da AWS — A região que você especifica é aquela em que seu sistema de FSx arquivos da Amazon de destino está localizado.

O comando anterior retorna um ARN do local semelhante ao exibido a seguir.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# Configurando DataSync transferências com FSx for Lustre
<a name="create-lustre-location"></a>

Para transferir dados para ou do seu sistema de arquivos Amazon FSx for Lustre, você deve criar um *local* de AWS DataSync transferência. DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso aos FSx sistemas de arquivos Lustre
<a name="create-lustre-location-access"></a>

DataSync acessa seu sistema de arquivos FSx for Lustre usando o cliente Lustre. DataSyncrequer acesso a todos os dados em seu sistema de arquivos FSx for Lustre. Para ter esse nível de acesso, DataSync monta seu sistema de arquivos como usuário raiz usando um ID de usuário (UID) e um ID de grupo (GID) do. `0`

DataSync monta seu sistema de arquivos a partir da sua nuvem privada virtual (VPC) [usando](required-network-interfaces.md) interfaces de rede. DataSync gerencia totalmente a criação, o uso e a exclusão dessas interfaces de rede em seu nome.

**nota**  
VPCs que você usa com DataSync deve ter locação padrão. VPCs com locação dedicada não são suportadas.

## Criando seu local FSx de transferência para Lustre
<a name="create-lustre-location-how-to"></a>

Para criar o local de transferência, você precisa de um sistema de arquivos existente FSx para o Lustre. Para obter mais informações, consulte [Introdução ao Amazon FSx for Lustre no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html) do *usuário do Amazon FSx for Lustre.*

### Usando o DataSync console
<a name="create-lustre-location-how-to-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Para **Tipo de localização**, escolha **Amazon FSx**.

   Você configurará esse local como origem ou destino posteriormente. 

1. Para **sistema de FSx arquivos**, escolha o FSx sistema de arquivos Lustre que você deseja usar como local. 

1. Em **Mount path**, insira o caminho de montagem do seu sistema de arquivos FSx for Lustre.

   O caminho pode incluir um subdiretório. Quando o local é usado como fonte, DataSync lê os dados do caminho de montagem. Quando o local é usado como destino, DataSync grava todos os dados no caminho de montagem. Se um subdiretório não for fornecido, DataSync usa o diretório raiz (`/`).

1. Para **grupos de segurança**, escolha até cinco grupos de segurança que fornecem acesso ao seu sistema de arquivos FSx for Lustre.

   Os grupos de segurança devem conseguir acessar as portas do sistema de arquivos. O sistema de arquivos também deve permitir o acesso a partir dos grupos de segurança.

   Para obter mais informações sobre grupos de segurança, consulte [Controle de acesso ao sistema de arquivos com Amazon VPC no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html) do usuário do *Amazon FSx for Lustre.*

1. (Opcional) Insira valores para os campos **Chave** e **Valor** para marcar o FSx sistema de arquivos do Lustre.

   As tags ajudam você a gerenciar, filtrar e pesquisar seus AWS recursos. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-location-lustre-cli"></a>

**Para criar um local FSx para o Lustre usando o AWS CLI**
+ Use o comando a seguir para criar um local FSx para o Lustre.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  Os parâmetros a seguir são obrigatórios no comandos `create-location-fsx-lustre`.
  + `fsx-filesystem-arn`: o nome do recurso da Amazon (ARN) totalmente qualificado do sistema de arquivos no qual deseja ler ou gravar.
  + `security-group-arns`: o ARN de um grupo de segurança do Amazon EC2 que pode ser aplicado às [interfaces de rede](required-network-interfaces.md) da sub-rede preferencial do sistema de arquivos.

O comando anterior retorna um ARN do local semelhante ao seguir.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Configurando DataSync transferências com a Amazon FSx para OpenZFS
<a name="create-openzfs-location"></a>

*Para transferir dados para ou do seu sistema de arquivos Amazon FSx for OpenZFS, você deve criar um local de AWS DataSync transferência.* DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso a FSx sistemas de arquivos OpenZFS
<a name="create-openzfs-access"></a>

DataSync [monta seu sistema de arquivos FSx para OpenZFS a partir de sua nuvem privada virtual (VPC) usando interfaces de rede.](required-network-interfaces.md) DataSyncgerencia totalmente a criação, o uso e a exclusão dessas interfaces de rede em seu nome.

**nota**  
VPCs que você usa com DataSync deve ter locação padrão. VPCs com locação dedicada não são suportadas.

## Configurando a autorização do FSx sistema de arquivos OpenZFS
<a name="configure-openzfs-authorization"></a>

DataSync acessa seu sistema de arquivos FSx para OpenZFS como um cliente NFS, montando o sistema de arquivos como um usuário root com um ID de usuário (UID) e ID de grupo (GID) de. `0`

 DataSync Para copiar todos os metadados do seu arquivo, você deve definir as configurações de exportação de NFS nos volumes do sistema de arquivos usando. `no_root_squash` No entanto, você pode limitar esse nível de acesso somente a uma DataSync tarefa específica.

Para obter mais informações, consulte [Propriedades de volume](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties) no Guia do *usuário do Amazon FSx for OpenZFS*.

### Configurando exportações NFS específicas para DataSync (recomendado)
<a name="configure-nfs-export-recommended"></a>

Você pode configurar uma exportação NFS específica para cada volume acessado somente pela sua DataSync tarefa. Faça isso para o volume ancestral mais recente do caminho de montagem que você especificou ao criar sua localização FSx para OpenZFS.

**Para configurar uma exportação NFS específica para DataSync**

1. Crie sua [DataSynctarefa](create-task-how-to.md).

   Isso cria as interfaces de rede da tarefa que você especifica nas configurações de exportação de NFS.

1. Localize os endereços IP privados das interfaces de rede da tarefa usando o console do Amazon EC2 ou. AWS CLI

1.  FSx Para o volume do sistema de arquivos OpenZFS, defina as seguintes configurações de exportação NFS para cada uma das interfaces de rede da tarefa:
   + **Endereço do cliente**: insira o endereço IP privado da interface de rede (por exemplo, `10.24.34.0`).
   + **Opções de NFS**: insira `rw,no_root_squash`.

### Configurar exportações do NFS para todos os clientes
<a name="configure-nfs-export-general"></a>

Você pode especificar uma exportação do NFS que permita acesso à raiz a todos os clientes.

**Configurar uma exportação NFS para todos os clientes**
+  FSx Para o volume do sistema de arquivos OpenZFS, defina as seguintes configurações de exportação de NFS:
  + **Endereço do cliente**: insira `*`.
  + **Opções de NFS**: insira `rw,no_root_squash`.

## Criando seu local FSx de transferência para o OpenZFS
<a name="create-openzfs-location-how-to"></a>

Para criar o local, você precisa de um sistema de arquivos existente FSx para OpenZFS. Se você não tiver um, consulte [Introdução ao Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html) no Guia do usuário do *Amazon FSx for OpenZFS*.

### Usando o DataSync console
<a name="create-openzfs-location-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação à esquerda, escolha **Locais** e, em seguida, **Criar local**.

1. Para **Tipo de localização**, escolha **Amazon FSx**.

   Você configurará esse local como origem ou destino posteriormente.

1. Para **sistema de FSx arquivos**, escolha o FSx sistema de arquivos OpenZFS que você deseja usar como local. 

1. Em **Mount path**, insira o caminho de montagem do seu sistema de arquivos FSx para OpenZFS. 

   O caminho deve começar com `/fsx` e pode ser qualquer caminho de diretório existente no sistema de arquivos. Quando o local é usado como fonte, DataSync lê os dados do caminho de montagem. Quando o local é usado como destino, DataSync grava todos os dados no caminho de montagem. Se um subdiretório não for fornecido, DataSync usa o diretório do volume raiz (por exemplo,`/fsx`).

1. Para **grupos de segurança**, escolha até cinco grupos de segurança que fornecem acesso de rede ao seu sistema de arquivos FSx para OpenZFS. 

   Os grupos de segurança devem fornecer acesso às portas de rede que são usadas pelo sistema de arquivos FSx for OpenZFS. O sistema de arquivos deve permitir o acesso à rede dos grupos de segurança.

   Para obter mais informações sobre grupos de segurança, consulte [Controle de acesso ao sistema de arquivos com o Amazon VPC no Guia](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) do usuário do *Amazon FSx for OpenZFS*.

1. (Opcional) Expanda **Configurações adicionais** e, para a **versão NFS**, escolha a versão NFS que DataSync usa para acessar seu sistema de arquivos.

   Por padrão, DataSync usa a versão 4.1 do NFS.

1. (Opcional) Insira valores para os campos **Chave** e **Valor** para marcar o sistema FSx de arquivos OpenZFS.

   Tags ajudam a gerenciar, filtrar e procurar seu local. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-openzfs-location-cli"></a>

**Para criar um local FSx para o OpenZFS usando o AWS CLI**

1. Copie o seguinte comando `create-location-fsx-open-zfs`:

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. Especifique os parâmetros exigidos a seguir no comando:
   + Para `fsx-filesystem-arn`, especifique o Nome do recursos da Amazon (ARN) totalmente qualificado do sistema de arquivos de localização. Isso inclui o Região da AWS local em que seu sistema de arquivos reside Conta da AWS, seu e o ID do sistema de arquivos.
   + Para`security-group-arns`, especifique o ARN do grupo de segurança Amazon EC2 que fornece acesso às interfaces de rede de FSx sua [sub-rede preferencial](required-network-interfaces.md) do sistema de arquivos OpenZFS. Isso inclui Região da AWS onde sua instância do Amazon EC2 reside, seu ID e o ID do Conta da AWS grupo de segurança.

     Para obter mais informações sobre grupos de segurança, consulte [Controle de acesso ao sistema de arquivos com Amazon VPC no Guia](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) do usuário do *Amazon FSx for OpenZFS*.
   + Para`protocol`, especifique o protocolo DataSync usado para acessar seu sistema de arquivos. (DataSync atualmente suporta somente NFS.)

1. Execute o comando. Você recebe uma resposta que mostra o local que você acabou de criar.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Configurando transferências com a Amazon FSx para ONTAP NetApp
<a name="create-ontap-location"></a>

Para transferir dados para ou do seu sistema de arquivos Amazon FSx for NetApp ONTAP, você deve criar um *local* de AWS DataSync transferência. DataSync pode usar esse local como origem ou destino para transferir dados.

## Fornecendo DataSync acesso aos FSx sistemas de arquivos ONTAP
<a name="create-ontap-location-access"></a>

Para acessar um sistema de arquivos FSx for ONTAP, DataSync monta uma máquina virtual de armazenamento (SVM) em seu sistema de arquivos usando [interfaces de rede](required-network-interfaces.md) em sua nuvem privada virtual (VPC). DataSync cria essas interfaces de rede na sub-rede preferencial do seu sistema de arquivos somente quando você cria uma tarefa que inclui sua localização FSx para ONTAP.

**nota**  
VPCs que você usa com DataSync deve ter locação padrão. VPCs com locação dedicada não são suportadas.

DataSync pode se conectar a um FSx SVM do sistema de arquivos ONTAP e copiar dados usando o protocolo Network File System (NFS) ou Server Message Block (SMB).

**Topics**
+ [Usar o protocolo NFS](#create-ontap-location-supported-protocols)
+ [Usar o protocolo SMB](#create-ontap-location-smb)
+ [Protocolos incompatíveis](#create-ontap-location-unsupported-protocols)
+ [Escolhendo o protocolo certo](#create-ontap-location-choosing-protocol)
+ [Acessando SnapLock volumes](#create-ontap-location-snaplock)

### Usar o protocolo NFS
<a name="create-ontap-location-supported-protocols"></a>

Com o protocolo NFS, DataSync usa o mecanismo de `AUTH_SYS` segurança com um ID de usuário (UID) e ID de grupo (GID) `0` para se autenticar com sua SVM.

**nota**  
DataSync atualmente só oferece suporte ao NFS versão 3 com quatro localizações FSx ONTAP.

### Usar o protocolo SMB
<a name="create-ontap-location-smb"></a>

Com o protocolo SMB, DataSync usa as credenciais que você fornece para se autenticar com seu SVM.

**Versões compatíveis do SMB**  
Por padrão, escolhe DataSync automaticamente uma versão do protocolo SMB com base na negociação com seu servidor de arquivos SMB. Você também pode configurar DataSync para usar uma versão específica, mas recomendamos fazer isso somente se DataSync tiver problemas para negociar com o servidor de arquivos SMB automaticamente. Por motivos de segurança, recomendamos usar a versão 3.0.2 ou posterior do SMB.  
Consulte a tabela a seguir para obter uma lista de opções no DataSync console e na API para configurar uma versão SMB com sua localização FSx para ONTAP:      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-ontap-location.html)

**Permissões obrigatórias**  
Você deve fornecer a DataSync um usuário local em seu SVM ou a um usuário de domínio em seu Microsoft Active Directory os direitos necessários para montar e acessar seus arquivos, pastas e metadados de arquivos.  
Se você fornecer um usuário no Active Directory, observe o seguinte:  
+ Se você estiver usando AWS Directory Service for Microsoft Active Directory, o usuário deverá ser membro do grupo ** FSxAdministradores AWS Delegados**.
+ Se você estiver usando um Microsoft Active Directory autogerenciado, o usuário deverá ser membro de um de dois grupos:
  + O grupo **Administradores de domínio**, que é o grupo padrão dos administradores delegados.
  + Um grupo personalizado de administradores delegados com direitos de usuário que permitem DataSync copiar permissões de propriedade de objetos e listas de controle de acesso do Windows ()ACLs.
**Importante**  
Você não pode alterar o grupo de administradores delegados depois que o sistema de arquivos foi implantado. Você deve reimplantar o sistema de arquivos ou restaurá-lo a partir de um backup para usar o grupo personalizado de administradores delegados com os seguintes direitos de usuário que DataSync precisam copiar metadados.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/create-ontap-location.html)
+ Se você quiser copiar o Windows ACLs e estiver fazendo transferências FSx para sistemas de arquivos ONTAP usando SMB (ou outros tipos de sistemas de arquivos usando SMB), os usuários fornecidos DataSync devem pertencer ao mesmo domínio do Active Directory ou ter uma relação de confiança do Active Directory entre seus domínios.

**Protocolos de autenticação necessários**  
 DataSync Para acessar seu compartilhamento SMB, seu FSx sistema de arquivos do ONTAP deve usar a autenticação NTLM. DataSync não consigo acessar os sistemas FSx de arquivos ONTAP que usam a autenticação Kerberos.

**Namespaces do DFS**  
DataSync não oferece suporte a namespaces do Microsoft Distributed File System (DFS). Em vez disso, recomendamos especificar um servidor ou compartilhamento de arquivos subjacente ao criar sua DataSync localização.

### Protocolos incompatíveis
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync não consigo acessar os sistemas FSx de arquivos ONTAP usando o protocolo iSCSI (Internet Small Computer Systems Interface).

### Escolhendo o protocolo certo
<a name="create-ontap-location-choosing-protocol"></a>

Para preservar os metadados do arquivo nas FSx migrações do ONTAP, configure seus locais de DataSync origem e destino para usar o mesmo protocolo. Entre os protocolos compatíveis, o SMB preserva os metadados com a mais alta fidelidade (consulte [Entendendo como DataSync manipula metadados de arquivos e objetos](metadata-copied.md) para obter detalhes).

Ao migrar de um servidor Unix (Linux) ou compartilhamento de armazenamento conectado à rede (NAS) que atenda aos usuários por meio do NFS, faça o seguinte:

1. [Crie um local NFS](create-nfs-location.md) para o servidor Unix (Linux) ou compartilhamento NAS. (Esse será seu local de origem.)

1. Configure o volume ONTAP FSx para o qual você está transferindo dados com o estilo de segurança [Unix](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Crie um local para o seu FSx sistema de arquivos do ONTAP que esteja configurado para NFS. (Esse será seu local de destino.)

Ao migrar de um servidor Windows ou compartilhamento NAS que atende usuários por meio de SMB, faça o seguinte:

1. [Crie um local SMB](create-smb-location.md) para o servidor Windows ou compartilhamento NAS. (Esse será seu local de origem.)

1. Configure o volume ONTAP FSx para o qual você está transferindo dados com o estilo de segurança [NTFS](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Crie um local para o seu FSx sistema de arquivos do ONTAP que esteja configurado para SMB. (Esse será seu local de destino.)

Se o seu ambiente FSx for ONTAP usa vários protocolos, recomendamos trabalhar com um especialista em AWS armazenamento. Para saber mais sobre as melhores práticas para acesso multiprotocolo, consulte [Habilitando cargas de trabalho multiprotocolo com a Amazon FSx ](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/) para ONTAP. NetApp

### Acessando SnapLock volumes
<a name="create-ontap-location-snaplock"></a>

Se você estiver transferindo dados para um [SnapLock volume](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html) em um sistema de arquivos FSx para ONTAP, certifique-se de que as SnapLock configurações **Autocommit** e **Modo de acréscimo de volume** estejam desativadas no volume durante a transferência. É possível reabilitar essas configurações quando terminar de transferir dados.

## Criando seu local FSx de transferência para ONTAP
<a name="create-ontap-location-how-to"></a>

Para criar o local, você precisa de um sistema de arquivos existente FSx para ONTAP. Se você não tiver um, consulte [Introdução ao Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html) no Guia do *usuário do Amazon FSx for NetApp ONTAP*.

### Usando o DataSync console
<a name="create-ontap-location-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Para **Tipo de localização**, escolha **Amazon FSx**.

   Você configurará esse local como origem ou destino posteriormente.

1. Para **sistema de FSx arquivos**, escolha o FSx sistema de arquivos ONTAP que você deseja usar como local.

1. Em **Máquina virtual de armazenamento**, escolha uma máquina virtual de armazenamento (SVM) no sistema de arquivos para o qual e do qual você copia dados.

1. Em **Montar caminho**, especifique um caminho para o compartilhamento de arquivos no SVM no qual que você copiará os dados.

   Você pode especificar um caminho de união (também conhecido como ponto de montagem), caminho qtree (para compartilhamentos de arquivos NFS) ou nome de compartilhamento (para compartilhamentos de arquivos SMB). Por exemplo, seu caminho de montagem pode ser `/vol1`, `/vol1/tree1` ou `/share1`.
**dica**  
Não especifique um caminho no volume raiz do SVM. Para obter mais informações, consulte [Gerenciamento FSx de máquinas virtuais de armazenamento ONTAP no Guia](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html) do *usuário do Amazon FSx for NetApp ONTAP*.

1. Para **grupos de segurança**, escolha até cinco grupos de segurança do Amazon EC2 que forneçam acesso à sub-rede preferencial do sistema de arquivos.

   Os grupos de segurança devem permitir tráfego de saída nas seguintes portas (dependendo do protocolo em uso):
   + **NFS**: portas TCP 111, 635 e 2049 
   + **SMB**: porta TCP 445

   Os grupos de segurança do seu sistema de arquivos também devem permitir tráfego de entrada na mesma porta.

1. Em **Protocolo**, escolha o protocolo de transferência de dados DataSync usado para acessar o SVM do seu sistema de arquivos.

   Para obter mais informações, consulte [Escolhendo o protocolo certo](#create-ontap-location-choosing-protocol).

------
#### [ NFS ]

   DataSync usa NFS versão 3.

------
#### [ SMB ]

   Configure uma versão do SMB, o nome de usuário, a senha e o nome de domínio do Active Directory (se necessário) para acessar a SVM.
   + (Opcional) Expanda **Configurações adicionais** e escolha uma **versão SMB** DataSync para usar ao acessar seu SVM.

     Por padrão, escolhe DataSync automaticamente uma versão com base na negociação com o servidor de arquivos SMB. Para obter mais informações, consulte [Usar o protocolo SMB](#create-ontap-location-smb).
   + Em **Usuário**, especifique um nome de usuário que possa montar e acessar os arquivos, as pastas e os metadados que você deseja transferir na SVM.

     Para obter mais informações, consulte [Usar o protocolo SMB](#create-ontap-location-smb).
   + Em **Senha**, insira a senha do usuário que você especificou e que pode acessar a SVM.
   + (Opcional) Em **nome de domínio do Active Directory**, insira o nome de domínio totalmente qualificado (FQDN) do Active Directory ao qual a SVM pertence.

     Se você tiver vários domínios em seu ambiente, definir essa configuração garante que ele se DataSync conecte ao SVM correto.

------

1. (Opcional) Insira valores para os campos **Chave** e **Valor** para marcar o FSx sistema de arquivos ONTAP.

   As tags ajudam você a gerenciar, filtrar e pesquisar seus AWS recursos. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="create-ontap-location-cli"></a>

**Para criar um local FSx para o ONTAP usando o AWS CLI**

1. Copie o seguinte comando `create-location-fsx-ontap`:

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. Especifique os parâmetros exigidos a seguir no comando:
   + Para `storage-virtual-machine-arn`, especifique o Nome do recursos da Amazon (ARN) de uma máquina virtual de armazenamento (SVM) no seu sistema de arquivos para o qual ou do qual você copie dados.

     Esse ARN inclui o Região da AWS local em que seu sistema de arquivos reside Conta da AWS, seu e o sistema de arquivos e a SVM. IDs
   + Para `security-group-arns`, especifique os ARNs dos grupos de segurança do Amazon EC2 que fornecem acesso às [interfaces de rede](required-network-interfaces.md) da sub-rede preferencial do seu sistema de arquivos.

     Isso inclui Região da AWS onde sua instância do Amazon EC2 reside Conta da AWS, você e seu grupo de segurança. IDs Você pode especificar até cinco grupos de segurança ARNs.

     Para obter mais informações sobre grupos de segurança, consulte [Controle de acesso ao sistema de arquivos com Amazon VPC no Guia](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html) do usuário do *Amazon FSx for NetApp ONTAP.*
   + Para`protocol`, configure o protocolo DataSync usado para acessar o SVM do seu sistema de arquivos.
     + Para NFS, você pode usar a configuração padrão:

       `--protocol NFS={}`
     + Para SMB, você deve especificar um nome de usuário e uma senha que possam acessar a SVM:

       `--protocol SMB={User=smb-user,Password=smb-password}`

1. Execute o comando .

   Você recebe uma resposta que mostra o local que você acabou de criar.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Transferindo de ou para outro armazenamento em nuvem com AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Com AWS DataSync, você pode transferir dados entre alguns outros provedores de nuvem e serviços AWS de armazenamento. Para obter mais informações, consulte [Com onde posso transferir meus dados DataSync?](working-with-locations.md)

**Topics**
+ [Como planejar transferências de ou para sistemas de armazenamento em nuvem de terceiros](third-party-cloud-transfer-considerations.md)
+ [Configurando AWS DataSync transferências com o Google Cloud Storage](tutorial_transfer-google-cloud-storage.md)
+ [Configurar transferências com o Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Configurando AWS DataSync transferências com compartilhamentos Microsoft Azure Files SMB](transferring-azure-files.md)
+ [Configurar transferências de com outro armazenamento de objetos na nuvem](creating-other-cloud-object-location.md)

# Como planejar transferências de ou para sistemas de armazenamento em nuvem de terceiros
<a name="third-party-cloud-transfer-considerations"></a>

Ao planejar transferências de dados entre nuvens, considere o seguinte:
+ **Como usar um atendente:** um atendente só precisa acessar o armazenamento em outras nuvens ao usar tarefas do modo Básico. [Tarefas do modo Avançado](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) não exigem um atendente. Se você decidir usar um atendente, poderá implantá-lo como uma [instância do Amazon EC2](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) ao transferir de um armazenamento de objetos compatível com S3 de um provedor de nuvem ou como uma Máquina Virtual do Google Compute Engine ou Azure para transferências desses serviços de armazenamento específicos, respectivamente. Ao transferir de sistemas de arquivos no Google e no Azure, recomendamos implantar o atendente como uma VM do Google ou do Azure para que o atendente fique o mais próximo possível do sistema de arquivos. Além disso, DataSync comprime os dados do agente para AWS, o que pode ajudar a reduzir os custos de saída. DataSync fornece uma lista de [locais de nuvem validados](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html) que fornecem a compatibilidade necessária com a [API Amazon S3](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access).
+ **O endpoint de armazenamento de objetos da outra nuvem:** o endpoint de armazenamento para um provedor de nuvem terceirizado geralmente é específico da região ou da conta. O endpoint regional é usado como servidor no local de armazenamento de DataSync objetos, junto com um nome de bucket especificado.
+ **Classes de armazenamento dos objetos de origem:** assim como o Amazon S3, alguns provedores de nuvem oferecem suporte a uma camada de arquivamento que exige uma restauração antes de poder acessar os objetos arquivados. Por exemplo, objetos na camada de arquivamento do Azure Blob devem ser recuperados para acesso padrão antes de uma transferência de dados. Os objetos na camada de arquivamento do Google Cloud Storage podem ser acessados imediatamente e não precisam ser restaurados, mas há custos de recuperação associados ao acesso direto à camada de arquivamento. Analise a documentação da classe de armazenamento em nuvem para estabelecer os requisitos de acesso e as taxas de recuperação antes de iniciar a transferência de dados. Para obter mais informações sobre como restaurar objetos arquivados no Amazon S3, consulte [Restauração de um objeto arquivado](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) no *Guia do Usuário do Amazon Simple Storage Service*.
+ **Acesso ao armazenamento de objetos:** a transferência de dados entre provedores de nuvem terceirizados requer acesso ao armazenamento de objetos da outra nuvem na forma de chaves de autenticação. Por exemplo, para fornecer acesso ao Google Cloud Storage, você configura um local de armazenamento de DataSync objetos que se conecta à [API XML do Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) e se autentica usando uma [chave de código de autenticação de mensagem (HMAC) baseada em hash](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) para sua conta de serviço. [Para o armazenamento de Blobs do Azure, você configura um [ DataSync local dedicado do Azure Blob](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to) que se autentica usando tokens SAS.](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync usa AWS Secrets Manager para armazenar com segurança suas credenciais de armazenamento de objetos. Para obter mais informações, consulte [Como proteger as credenciais do local de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Suporte para tag de objetos:**
  + Diferentemente do Amazon S3, nem todos os provedores de nuvem oferecem suporte a tags de [objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync as tarefas podem falhar ao tentar ler tags do local de origem se o provedor de nuvem não oferecer suporte a tags de objetos por meio da API do Amazon S3 ou se as credenciais fornecidas forem insuficientes para recuperar as tags. DataSyncfornece uma opção de tarefa para desativar a [leitura e a cópia de tags de objeto](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) durante uma transferência se as tags de objeto não forem suportadas ou se você não quiser reter as tags. Consulte a documentação do provedor de nuvem para saber se as tags de objeto são compatíveis e verifique as configurações de tags de objeto da tarefa de transferência antes de iniciar a transferência.
  + Você pode usar a API do Amazon S3 para verificar se um provedor de nuvem retornará uma solicitação `get-object-tagging`. Para obter mais informações, consulte [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) na *Referência de comandos da AWS CLI *.

    Um provedor de nuvem que oferece suporte a tags de objeto retornará uma resposta semelhante ao exemplo a seguir:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Um provedor de nuvem que não oferece suporte a `get-object-tagging` retornará a seguinte mensagem:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Custos associados às solicitações e à saída de dados:** a transferência de dados do armazenamento de objetos na nuvem tem [custos de solicitação e saída](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) associados à leitura e à transferência de dados para fora. As taxas de solicitação variam entre provedores de nuvem e entre classes de armazenamento, quando aplicável. Consulte a documentação do provedor de nuvem sobre os custos específicos das solicitações relacionadas à classe de armazenamento que você planeja ler. [Para obter uma visão geral das cobranças de solicitações que DataSync envolvem as transferências de dados, consulte [Avaliação dos custos de solicitação do S3 ao usar DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) e AWS DataSync preços.](https://aws.amazon.com/datasync/pricing/) A transferência de dados de provedores de nuvem específicos resulta em taxas de saída. Os custos de transferência de dados variam entre provedores de nuvem e também dependem da região em que os dados estão armazenados.
+ **Taxas de solicitação de armazenamento de objetos:** os provedores de nuvem têm várias características de desempenho e taxa de solicitação para as plataformas de armazenamento de objetos. Analise as taxas de solicitação do outro provedor de nuvem e determine onde os limites de solicitação são aplicados. Planeje com antecedência transferências altamente paralelizadas que consistem em vários atendentes, onde particionamentos específicos ou aumentos de desempenho são exigidos.

  O Amazon S3 documentou taxas de solicitação com base nas quais você pode criar a solução. As taxas de solicitação do Amazon S3 são por prefixo particionado e são escaláveis em vários prefixos. Para obter mais informações, consulte [Padrões de Design de Práticas Recomendadas: como otimizar o desempenho do Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) no *Guia de Usuário do Amazon Simple Storage Service*.

# Configurando AWS DataSync transferências com o Google Cloud Storage
<a name="tutorial_transfer-google-cloud-storage"></a>

Com AWS DataSync, você pode transferir dados entre o Google Cloud Storage e os seguintes serviços AWS de armazenamento:
+ Amazon S3
+ Amazon EFS
+ Servidor FSx de arquivos Amazon para Windows
+ Amazon FSx para Lustre
+ Amazon FSx para OpenZFS
+ Amazon FSx para NetApp ONTAP

Para começar a configuração da transferência, crie um local para o Google Cloud Storage. Esse local pode servir como origem ou destino da transferência. Um DataSync agente é necessário somente quando você transfere dados entre o Google Cloud Storage e o Amazon EFS ou a Amazon FSx, ou ao usar tarefas do **modo Básico**. As transferências de dados no **modo Avançado** entre o Google Cloud Storage e o Amazon S3 não exigem um atendente.

**nota**  
Para conectividade de nuvem privada entre o Google Cloud Storage e AWS, use o modo Básico com agentes.

## Visão geral do
<a name="transfer-google-cloud-storage-overview"></a>

DataSync usa a [API XML do Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) para transferências de dados. Essa API disponibiliza uma interface compatível com o Amazon S3 para leitura e gravação de dados com buckets do Google Cloud Storage.

Ao usar o modo Básico para transferências, você pode implantar o atendente no Google Cloud Storage ou na Amazon VPC.

------
#### [ Agent in Google Cloud ]

1. Você implanta um DataSync agente em seu ambiente do Google Cloud.

1. O agente lê seu bucket do Google Cloud Storage usando uma chave de código de autenticação de mensagens por hash (HMAC).

1. Os objetos do seu bucket do Google Cloud Storage são transferidos com segurança por meio do TLS 1.3 para o Nuvem AWS usando um endpoint público.

1. O DataSync serviço grava os dados no seu bucket do S3.

O diagrama a seguir ilustra a transferência.

![\[Um exemplo de DataSync transferência mostra como os dados do objeto são transferidos de um intervalo do Google Cloud Storage para um intervalo do S3. Primeiro, o DataSync agente é implantado em seu ambiente do Google Cloud. Em seguida, o DataSync agente lê o bucket do Google Cloud Storage. Os dados se movem com segurança por meio de um endpoint público para AWS, onde DataSync grava os objetos em um bucket do S3 no mesmo Região da AWS local em que você está usando. DataSync\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Você implanta um DataSync agente em uma nuvem privada virtual (VPC) em seu AWS ambiente.

1. O agente lê seu bucket do Google Cloud Storage usando uma chave de código de autenticação de mensagens por hash (HMAC).

1. Os objetos do seu bucket do Google Cloud Storage são transferidos com segurança por meio do TLS 1.3 para o Nuvem AWS usando um VPC endpoint privado.

1. O DataSync serviço grava os dados no seu bucket do S3.

O diagrama a seguir ilustra a transferência.

![\[Um exemplo de DataSync transferência mostra como os dados do objeto são transferidos de um intervalo do Google Cloud Storage para um intervalo do S3. Primeiro, o DataSync agente é implantado em uma AWS VPC em. Em seguida, o DataSync agente lê o bucket do Google Cloud Storage. Os dados se movem com segurança por meio de um endpoint da VPC para AWS, onde DataSync grava os objetos em um bucket do S3 da mesma forma que a VPC. Região da AWS\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Custos
<a name="transfer-google-cloud-storage-cost"></a>

As taxas associadas a essa migração podem incluir:
+ Executar uma instância de máquina virtual (VM) do Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (se você implantar seu DataSync agente no Google Cloud)
+ Executando uma instância do [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (se você implantar seu DataSync agente em uma VPC interna) AWS
+ Transferir os dados usando [DataSync](https://aws.amazon.com/datasync/pricing/), incluindo cobranças de solicitação relacionadas ao [Google Cloud Storage](https://cloud.google.com/storage/pricing) e ao [Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se o S3 for um dos seus locais de transferência)
+ Transferindo dados para fora do [Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Armazenando dados no [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Pré-requisitos
<a name="transfer-google-cloud-storage-prerequisites"></a>

Antes de começar, faça o seguinte, se já não o tiver feito:
+ [Crie um bucket do Google Cloud Storage](https://cloud.google.com/storage/docs/creating-buckets) com os objetos para os quais você quer transferir AWS.
+ [Cadastre-se em uma Conta da AWS](https://portal.aws.amazon.com/billing/signup).
+ [Crie um bucket do Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) para armazenar seus objetos depois que eles entrarem no AWS.

## Criar uma chave HMAC para seu bucket do Google Cloud Storage
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync usa uma chave HMAC associada à sua conta de serviço do Google para se autenticar e ler o bucket do qual você está transferindo dados. (Para obter instruções detalhadas sobre como criar chaves HMAC, consulte a [Documentação do Google Cloud Storage](https://cloud.google.com/storage/docs/authentication/hmackeys).)

**Para criar uma chave HMAC**

1. Crie uma chave HMAC para sua conta de serviço do Google.

1. Certifique-se de que sua conta de serviço do Google tenha pelo menos `Storage Object Viewer` permissões.

1. Salve o ID da chave de acesso HMAC e o segredo em um local seguro.

   Você precisará desses itens posteriormente para configurar sua localização DataSync de origem.

## Etapa 2: configure sua rede
<a name="transfer-google-cloud-storage-configure-network"></a>

A configuração de rede é necessária somente ao usar um DataSync agente com sua transferência. Os requisitos de rede para essa migração dependem de onde você escolher implantar o atendente.

### Para um DataSync agente no Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Se você quiser hospedar seu DataSync agente no Google Cloud, configure sua rede para [permitir DataSync transferências por meio de um endpoint público](datasync-network.md#using-public-endpoints).

### Para um DataSync agente em sua VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Se você quiser hospedar seu agente em AWS, precisará de uma VPC com um endpoint de interface. DataSync usa o VPC endpoint para facilitar a transferência.

**Para configurar sua rede para um endpoint da VPC**

1. Se você não tiver uma, [crie uma VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) igual ao Região da AWS seu bucket do S3.

1. [Crie uma sub-rede privada para sua VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html).

1. [Crie um endpoint de serviço VPC para](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html). DataSync

1. Configure sua rede para [permitir DataSync transferências por meio de um endpoint de serviço VPC](datasync-network.md#using-vpc-endpoint).

   Para fazer isso, modifique o [grupo de segurança](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html) associado com seu endpoint de serviço da VPC.

## Etapa 3: criar um DataSync agente (opcional)
<a name="transfer-google-cloud-storage-create-agent"></a>

Um DataSync agente só é necessário ao usar tarefas do modo **Básico**. Se você estiver usando o modo **Avançado** para transferir entre o Google Cloud Storage (GCS) e o Amazon S3, nenhum atendente será exigido. Se você quiser usar o modo **Básico**, precisará de um DataSync agente que possa acessar seu bucket do GCS.

### Para Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

Nesse cenário, o DataSync agente é executado em seu ambiente do Google Cloud.

**Antes de começar**: [instale a CLI do Google Cloud](https://cloud.google.com/sdk/docs/install).

**Para criar o agente para o Google Cloud**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação à esquerda, escolha **Agents** e **Create agent**.

1. Para **Hypervisor**, escolha e **VMware ESXi**, em seguida, escolha **Baixar a imagem** para baixar um `.zip` arquivo que contém o agente.

1. Abra um terminal do . Descompacte a imagem executando o seguinte comando:

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Extraia o conteúdo do arquivo `.ova` do agente, começando com `aws-datasync`, executando o seguinte comando:

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importe o arquivo `.vmdk` do agente para o Google Cloud executando o seguinte comando da CLI do Google Cloud:

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**nota**  
A importação do arquivo `.vmdk` pode levar até duas horas.

1. Crie e inicie uma instância de VM para a imagem do agente que você acabou de importar. 

   A instância precisa das seguintes configurações para seu agente. (Para obter instruções detalhadas sobre como criar uma instância, consulte a [Documentação do Google Cloud Compute Engine](https://cloud.google.com/compute/docs/instances)).
   + Em Machine type (Tipo de máquina), selecione uma das seguintes opções:
     + **e2-standard-8** — Para execuções de DataSync tarefas trabalhando com até 20 milhões de objetos.
     + **e2-standard-16** — Para execuções de DataSync tarefas trabalhando com mais de 20 milhões de objetos.
   + Para as configurações de inicialização do disco, acesse a seção de imagens personalizadas. Em seguida, escolha a imagem do DataSync agente que você acabou de importar.
   + Para a configuração da conta de serviço, escolha sua conta de serviço do Google (a mesma conta que você usou na [Etapa 1](#transfer-google-cloud-storage-create-hmac-key)).
   + Para a configuração do firewall, escolha a opção para permitir o tráfego HTTP (porta 80).

     Para ativar seu DataSync agente, a porta 80 deve estar aberta no agente. A porta não precisa ser acessível publicamente. Depois de ativado, DataSync fecha a porta.

1. Depois que a instância de VM estiver em execução, anote seu endereço IP público.

   Você precisará desse endereço IP para ativar o agente.

1. Volte para o DataSync console. Na tela **Criar agente**, na qual você baixou a imagem do agente, faça o seguinte para ativar seu agente:
   + Para **Tipo de endpoint**, escolha a opção de endpoints de serviço público (por exemplo, **Endpoints de serviço público no leste dos EUA em Ohio)**.
   + Em **Chave de ativação**, escolha **Obter a chave de ativação com o seu agente automaticamente**.
   + Em **Endereço do agente**, insira o endereço IP público da instância de VM do agente que você acabou de criar.
   + Escolha **Obter chave**.

1. Dê um nome ao seu agente e, em seguida, escolha **Criar agente**.

O agente está online e pronto para transferir dados.

### Para sua VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

Nesse cenário, o agente é executado como uma instância do Amazon EC2 em uma VPC associada à sua. Conta da AWS

**Antes de começar**: [configure o AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html).

**Para criar o agente para sua VPC**

1. Abra um terminal. Certifique-se de configurar seu AWS CLI perfil para usar a conta associada ao seu bucket do S3.

1. Copie o seguinte comando : Substitua `vpc-region` pelo Região da AWS onde sua VPC reside (por exemplo, `us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Execute o comando . Examine o resultado e anote a propriedade `"Value"`.

   Esse valor é o ID da DataSync Amazon Machine Image (AMI) da região que você especificou. Por exemplo, uma ID de AMI pode ser semelhante a `ami-1234567890abcdef0`.

1. Copie o seguinte URL. Novamente, substitua `vpc-region` pelo Região da AWS onde sua VPC reside. Depois, substitua `ami-id` pelo ID da AMI que você anotou na etapa anterior.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Cole o URL no navegador.

   A página de lançamento da instância do Amazon EC2 é exibida. Console de gerenciamento da AWS 

1. Em **Tipo de instância**, escolha uma das [instâncias recomendadas do Amazon EC2 para DataSync agentes](agent-requirements.md#ec2-instance-types).

1. Em **Par de chaves**, escolha um par de chaves existente ou crie outro.

1. Em **Configurações de rede**, escolha a VPC e a sub-rede em que você deseja implantar o agente.

1. Escolha **Iniciar instância**.

1. Depois que a instância do Amazon EC2 estiver em execução, [escolha o endpoint da VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Ative o agente](activate-agent.md).

## Etapa 4: criar um local DataSync de origem para seu bucket do Google Cloud Storage
<a name="transfer-google-cloud-storage-create-source"></a>

Para configurar um DataSync local para seu bucket do Google Cloud Storage, você precisa do ID de acesso e do segredo da chave HMAC que você criou na [Etapa 1](#transfer-google-cloud-storage-create-hmac-key).

**Para criar o local DataSync de origem**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Armazenamento de objetos**.

1. Em **Servidor**, insira**storage.googleapis.com**.

1. Em **Nome do bucket**, insira o nome do seu bucket do Google Cloud Storage.

1. Em **Pasta**, insira um prefixo de objeto.

   DataSync copia somente objetos com esse prefixo.

1. Se a transferência exigir um atendente, escolha **Usar atendentes** e escolha o atendente que você criou na [Etapa 3](#transfer-google-cloud-storage-create-agent).

1. Expanda **Configurações adicionais**. Para **Protocolo de servidor**, escolha **HTTPS**. Em **Porta do servidor**, escolha **443**.

1. Role para baixo até a seção **Autenticação**. Verifique se a caixa de seleção **Exige credenciais** está marcada e faça o seguinte:
   + Em **Chave de acesso**, insira o ID de acesso da sua chave HMAC.
   + Em **Chave secreta**, insira a chave secreta da sua chave HMAC diretamente ou especifique uma chave AWS Secrets Manager secreta que contenha a chave. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Escolha **Criar local**.

## Etapa 5: criar um local de DataSync destino para seu bucket do S3
<a name="transfer-google-cloud-storage-create-destination"></a>

Você precisa de um DataSync local para onde deseja que seus dados acabem.

**Para criar o local DataSync de destino**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. [Crie um DataSync local para o bucket do S3](create-s3-location.md).

   Se você implantou o DataSync agente em sua VPC, este tutorial presume que o bucket do S3 esteja no mesmo Região da AWS que sua VPC e seu agente. DataSync 

## Etapa 6: criar e iniciar uma DataSync tarefa
<a name="transfer-google-cloud-storage-start-task"></a>

Com seus locais de origem e destino configurados, você pode começar a mover seus dados para AWS.

**Para criar e iniciar a DataSync tarefa**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Na página **Configure source location (Configurar local de origem)**, faça o seguinte:

   1. Escolha **Choose an existing location (Escolher um local existente)**.

   1. Escolha o local de origem que você criou na [Etapa 4](#transfer-google-cloud-storage-create-source) e, em seguida, escolha **Next (Avançar)**.

1. Na página **Configure destination location (Configurar local de destino)**, faça o seguinte:

   1. Escolha **Choose an existing location (Escolher um local existente)**.

   1. Escolha o local de destino que você criou na [Etapa 5](#transfer-google-cloud-storage-create-destination) e, em seguida, escolha **Next (Avançar)**.

1. Na página **Configure settings (Configurar definições)**, faça o seguinte:

   1. Em **Data transfer configuration (Configuração de transferência de dados)**, expanda **Additional settings (Configurações adicionais)** e desmarque a caixa de seleção **Copy object tags (Copiar tags de objetos)**.
**Importante**  
Como a API XML do Google Cloud Storage não é compatível com leitura ou gravação de tags de objetos, sua DataSync tarefa pode falhar se você tentar copiar tags de objetos.

   1. Defina todas as outras configurações de tarefa desejadas e, em seguida, escolha **Next (Avançar)**.

1. Na página **Review (Revisar)**, revise suas configurações e, em seguida, escolha **Criar tarefa**.

1. Na página de detalhes da tarefa, escolha **Iniciar** e, em seguida, escolha uma das seguintes opções:
   + Para executar a tarefa sem modificação, escolha **Iniciar com padrões**.
   + Para modificar a tarefa antes de executá-la, escolha **Iniciar com opções substitutas**.

Quando sua tarefa terminar, você verá os objetos do seu bucket do Google Cloud Storage no seu bucket do S3.

# Configurar transferências com o Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Com AWS DataSync, você pode transferir dados entre Microsoft Azure Blob Storage (incluindo armazenamento de Azure Data Lake Storage Gen2 blobs) e os seguintes serviços AWS de armazenamento:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de arquivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar esse tipo de transferência, você cria um [local](how-datasync-transfer-works.md#sync-locations) para o Azure Blob Storage. Você pode usar esse local como origem ou destino de uma transferência. Um DataSync agente é necessário somente ao transferir dados entre o Azure Blob e o Amazon EFS ou Amazon FSx, ou ao usar tarefas do modo **Básico**. Você não precisa de um atendente para transferir dados entre o Azure Blob e o Amazon S3 usando o modo **Avançado**.

## Fornecendo DataSync acesso ao seu Azure Blob Storage
<a name="azure-blob-access"></a>

A forma como você DataSync acessa você Azure Blob Storage depende de vários fatores, incluindo se você está transferindo para ou do armazenamento de blobs e que tipo de [token de assinatura de acesso compartilhado (SAS)](#azure-blob-sas-tokens) você está usando. Seus objetos também devem estar em um [nível de acesso](#azure-blob-access-tiers) que DataSync possa funcionar com.

**Topics**
+ [Tokens SAS](#azure-blob-sas-tokens)
+ [Níveis de acesso](#azure-blob-access-tiers)

### Tokens SAS
<a name="azure-blob-sas-tokens"></a>

Um token SAS especifica as permissões de acesso para seu armazenamento de blobs. (Para obter mais informações sobre o SAS, consulte a [Documentação do Azure Blob Storage](https://learn.microsoft.com/azure/storage/common/storage-sas-overview).)

Você pode gerar tokens SAS para fornecer diferentes níveis de acesso. DataSync suporta tokens com os seguintes níveis de acesso:
+ Conta
+ Contêiner

As permissões de acesso DataSync necessárias dependem do escopo do seu token. Não ter as permissões corretas pode fazer com que sua transferência falhe. Por exemplo, sua transferência não será bem-sucedida se você estiver movendo objetos com tags para o Azure Blob Storage, mas seu token SAS não tiver permissões de tag.

**Topics**
+ [Permissões de token SAS para acesso no nível da conta](#account-sas-tokens)
+ [Permissões de token SAS para acesso em nível de contêiner](#container-sas-tokens)
+ [Políticas de expiração do SAS](#azure-blob-sas-expiration-policies)

#### Permissões de token SAS para acesso no nível da conta
<a name="account-sas-tokens"></a>

DataSync precisa de um token de acesso no nível da conta com as seguintes permissões (dependendo se você está transferindo para ou de). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ **Serviços permitidos**: Blob
+ **Tipos de recursos permitidos**: Contêiner, Objeto

  Se você não incluir essas permissões, não DataSync poderá transferir os metadados do objeto, incluindo as [tags de objeto](#azure-blob-considerations-object-tags).
+ **Permissões permitidas**: Ler, Listar
+ **Permissões de índice de blob permitidas** — Read/Write (se você DataSync quiser copiar [tags de objetos](#azure-blob-considerations-object-tags))

------
#### [ Transfers to blob storage ]
+ **Serviços permitidos**: Blob
+ **Tipos de recursos permitidos**: Contêiner, Objeto

  Se você não incluir essas permissões, não DataSync poderá transferir os metadados do objeto, incluindo as [tags de objeto](#azure-blob-considerations-object-tags).
+ **Permissões permitidas** — Ler, Gravar, Listar, Excluir (se você quiser DataSync remover arquivos que não estão na sua fonte de transferência)
+ **Permissões de índice de blob permitidas** — Read/Write (se você DataSync quiser copiar [tags de objetos](#azure-blob-considerations-object-tags))

------

#### Permissões de token SAS para acesso em nível de contêiner
<a name="container-sas-tokens"></a>

DataSync precisa de um token de acesso em nível de contêiner com as seguintes permissões (dependendo se você está transferindo para ou de). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ Ler
+ Lista
+ Tag (se você quiser DataSync copiar [tags de objetos](#azure-blob-considerations-object-tags))
**nota**  
Você não pode adicionar a permissão de tag ao gerar um token SAS no portal Azure. Para adicionar a permissão de tag, gere o token usando o aplicativo [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer) ou gere um [token SAS que forneça acesso em nível de conta](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Ler
+ Escrever
+ Lista
+ Excluir (se você quiser DataSync remover arquivos que não estão na sua fonte de transferência)
+ Tag (se você quiser DataSync copiar [tags de objetos](#azure-blob-considerations-object-tags))
**nota**  
Você não pode adicionar a permissão de tag ao gerar um token SAS no portal Azure. Para adicionar a permissão de tag, gere o token usando o aplicativo [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer) ou gere um [token SAS que forneça acesso em nível de conta](#account-sas-tokens).

------

#### Políticas de expiração do SAS
<a name="azure-blob-sas-expiration-policies"></a>

Certifique-se de que seu SAS não expire antes de você concluir sua transferência. Para obter informações sobre como configurar uma política de expiração do SAS, consulte a [Documentação do Azure Blob Storage](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy)

Se o SAS expirar durante a transferência, não DataSync poderá mais acessar sua Azure Blob Storage localização. (Você pode ver um erro de Falha ao abrir o diretório.) Se isso acontecer, [atualize sua localização](#azure-blob-update-location) com um novo token SAS e reinicie sua DataSync tarefa.

### Níveis de acesso
<a name="azure-blob-access-tiers"></a>

Ao transferir deAzure Blob Storage, DataSync pode copiar objetos nas camadas quente e fria. Para objetos na camada de acesso ao arquivamento, você deve reidratar esses objetos para a camada quente ou fria antes de poder copiá-los.

Ao transferir paraAzure Blob Storage, DataSync pode copiar objetos para os níveis de acesso quente, frio e arquivamento. Se você estiver copiando objetos na camada de acesso ao arquivamento, não DataSync poderá verificar a transferência se estiver tentando [verificar todos os dados no destino](configure-data-verification-options.md).

DataSync não suporta o nível de acesso frio. Para obter mais informações sobre níveis de acesso, consulte a [Documentação do Azure Blob Storage](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Considerações sobre transferências Azure Blob Storage
<a name="azure-blob-considerations"></a>

Ao planejar a transferência de dados de ou para Azure Blob Storage com DataSync, há algumas coisas que você deve ter em mente.

**Topics**
+ [Custos](#azure-blob-considerations-costs)
+ [Tipos de bolhas](#blob-types)
+ [Região da AWS disponibilidade](#azure-blob-considerations-regions)
+ [Copiar tags de objeto](#azure-blob-considerations-object-tags)
+ [Transferindo para o Amazon S3](#azure-blob-considerations-s3)
+ [Excluindo diretórios em um destino de transferência](#azure-blob-considerations-deleted-files)
+ [Limitações](#azure-blob-limitations)

### Custos
<a name="azure-blob-considerations-costs"></a>

As taxas associadas à movimentação de dados para dentro ou para fora do Azure Blob Storage podem incluir:
+ Executando uma [máquina Azure virtual (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (se você implantar um DataSync agente emAzure)
+ Executando uma instância do [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (se você implantar um DataSync agente em uma VPC interna) AWS
+ Transferir os dados usando [DataSync](https://aws.amazon.com/datasync/pricing/), incluindo cobranças de solicitação relacionadas ao [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)[Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se o S3 for um dos seus locais de transferência)
+ Transferindo dados para dentro ou para fora do [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Armazenamento de dados em um [serviço AWS de armazenamento](working-with-locations.md) suportado pelo DataSync

### Tipos de bolhas
<a name="blob-types"></a>

A forma como DataSync funciona com os tipos de blob depende se você está transferindo para ou de. Azure Blob Storage Quando você está movendo dados para o armazenamento de blobs, os objetos ou arquivos DataSync transferidos só podem ser blobs de blocos. Quando você está movendo dados para fora do armazenamento de blobs, DataSync pode transferir blocos, páginas e anexar blobs.

Para obter mais informações sobre , consulte a [documentação do Azure Blob Storage.](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs)

### Região da AWS disponibilidade
<a name="azure-blob-considerations-regions"></a>

Você pode criar um local Azure Blob Storage de transferência em qualquer um [Região da AWS que seja suportado pelo DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Copiar tags de objeto
<a name="azure-blob-considerations-object-tags"></a>

A capacidade de DataSync preservar as tags de objetos durante a transferência de ou para Azure Blob Storage depende dos seguintes fatores:
+ **O tamanho das tags de um objeto** — não é DataSync possível transferir um objeto com tags que excedam 2 KB.
+ **Se DataSync está configurado para copiar tags de objetos** — DataSync [copia tags de objetos](configure-metadata.md) por padrão.
+ **O namespace que sua conta Azure de armazenamento usa** — DataSync pode copiar tags de objeto se sua conta de Azure armazenamento usar um namespace plano, mas não se sua conta usar um namespace hierárquico (um recurso do). Azure Data Lake Storage Gen2 Sua DataSync tarefa falhará se você tentar copiar tags de objetos e sua conta de armazenamento usar um namespace hierárquico.
+ **Se seu token SAS autoriza a marcação**: as permissões que você precisa para copiar tags de objetos variam de acordo com o nível de acesso que seu token fornece. Sua tarefa falhará se você tentar copiar tags de objetos e seu token não tiver as permissões corretas para marcação. Para obter mais informações, verifique os requisitos de permissão para tokens de acesso em [nível de conta ou tokens de acesso](#account-sas-tokens) ou [tokens de acesso em nível de contêiner](#container-sas-tokens).

### Transferindo para o Amazon S3
<a name="azure-blob-considerations-s3"></a>

Ao transferir para o Amazon S3 DataSync , não Azure Blob Storage transferirá objetos maiores que 5 TB ou objetos com metadados maiores que 2 KB.

### Excluindo diretórios em um destino de transferência
<a name="azure-blob-considerations-deleted-files"></a>

Ao transferir paraAzure Blob Storage, DataSync pode [remover objetos em seu armazenamento de blobs que não estão presentes na sua fonte de transferência](configure-metadata.md). (Você pode configurar essa opção desmarcando a configuração **Manter arquivos excluídos** no DataSync console. Seu [token SAS](#azure-blob-sas-tokens) também deve ter permissões de exclusão.)

Ao configurar sua transferência dessa forma, DataSync não excluirá diretórios em seu armazenamento de blobs se sua conta de armazenamento estiver usando um Azure namespace hierárquico. Nesse caso, você deve excluir manualmente os diretórios (por exemplo, usando [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)).

### Limitações
<a name="azure-blob-limitations"></a>

Para transferir dados para ou de um Azure Blob Storage, existem as seguintes limitações:
+ DataSync [cria alguns diretórios](filtering.md#directories-ignored-during-transfers) em um local para ajudar a facilitar sua transferência. Se Azure Blob Storage for um local de destino e sua conta de armazenamento usar um namespace hierárquico, você poderá observar subdiretórios específicos da tarefa (como) na pasta. `task-000011112222abcde` `/.aws-datasync` DataSync normalmente exclui esses subdiretórios após uma transferência. Se isso não acontecer, você mesmo poderá excluir esses diretórios específicos da tarefa, desde que a tarefa não esteja em execução.
+ DataSync não suporta o uso de um token SAS para acessar somente uma pasta específica em seu Azure Blob Storage contêiner.
+ Você não pode fornecer DataSync um token SAS de delegação de usuário para acessar seu armazenamento de blobs.

## Criando seu DataSync agente (opcional)
<a name="azure-blob-creating-agent"></a>

Um DataSync agente é necessário somente ao transferir dados entre o Azure Blob e o Amazon EFS ou Amazon FSx, ou ao usar tarefas do modo **Básico**. Você não precisa de um atendente para transferir dados entre o Azure Blob e o Amazon S3 usando o modo **Avançado**. Esta seção descreve como implantar e ativar um atendente.

**dica**  
Embora você possa implantar seu atendente em uma instância do Amazon EC2, usar um atendente Microsoft Hyper-V pode resultar em menor latência de rede e maior compactação de dados. 

### Agentes do Microsoft Hyper-V
<a name="azure-blob-creating-agent-hyper-v"></a>

Você pode implantar seu DataSync agente diretamente Azure com uma Microsoft Hyper-V imagem.

**dica**  
Antes de continuar, considere usar um script de shell que possa ajudá-lo a implantar seu atendente Hyper-V no Azure mais rapidamente. Você pode obter mais informações e baixar o código em [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure).  
Se você usar o script, poderá avançar para a seção sobre [Obtendo a chave de ativação do seu atendente](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Pré-requisitos](#azure-blob-creating-agent-hyper-v-0)
+ [Baixando e preparando seu atendente](#azure-blob-creating-agent-hyper-v-1)
+ [Implantando seu atendente no Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Obtendo a chave de ativação do seu atendente](#azure-blob-creating-agent-hyper-v-3)
+ [Ativar o atendente](#azure-blob-creating-agent-hyper-v-4)

#### Pré-requisitos
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Para preparar seu DataSync agente e implantá-loAzure, você deve fazer o seguinte:
+ Habilite Hyper-V na sua máquina local.
+ Instale [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1) (incluindo oHyper-V Module).
+ Instale a [CLI Azure](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Instalar o [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Baixando e preparando seu atendente
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Baixe um agente do DataSync console. Antes de implantar o atendente Azure, você deve convertê-lo em um disco rígido virtual (VHD) de tamanho fixo. Para obter mais informações, consulte a [documentação do Azure](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**Para baixar e preparar seu atendente**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação à esquerda, escolha **Agentes** e, em seguida, escolha **Criar agente**.

1. Para **Hypervisor**, escolha **Microsoft Hyper-V**, em seguida, escolha **Baixas a imagem**.

   O atendente faz o download em um arquivo `.zip` que contém um arquivo `.vhdx`.

1. Extraia o arquivo `.vhdx` na sua máquina local.

1. Abra o PowerShell e faça o seguinte:

   1. Copie o seguinte `Convert-VHD` cmdlet:

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Substitua cada instância `local-path-to-vhdx-file` de pela localização do arquivo `.vhdx` na sua máquina local.

   1. Execute o comando.

   Seu atendente agora é um VHD de tamanho fixo (com formato de arquivo `.vhd`) e está pronto para ser implantado no Azure.

#### Implantando seu atendente no Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

A implantação de seu DataSync agente Azure envolve:
+ Criar um disco gerenciado no Azure
+ Fazendo o upload do seu atendente para esse disco gerenciado
+ Conectando o disco gerenciado a uma máquina virtual Linux

**Para implantar seu atendente no Azure**

1. No PowerShell, acesse o diretório que contém o arquivo `.vhd` do seu atendente.

1. Execute o comando `ls` e salve o valor `Length` (por exemplo, `85899346432`).

   Esse é o tamanho da imagem do atendente em bytes, necessário ao criar um disco gerenciado que possa conter a imagem.

1. Faça o seguinte para criar um disco gerenciado:

   1. Copie o seguinte comando da CLI Azure:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. Substitua `your-managed-disk` por um nome para seu disco gerenciado.

   1. Substitua `your-resource-group` pelo nome do grupo de recursos Azure ao qual sua conta de armazenamento pertence.

   1. Substitua `your-azure-region` pela região Azure em que seu grupo de recursos está localizado.

   1. Substitua `agent-size-bytes` pelo tamanho da imagem do seu atendente.

   1. Execute o comando.

   Esse comando cria um disco gerenciado vazio com um [SKU padrão](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types) no qual você pode carregar seu DataSync agente.

1. Para gerar uma assinatura de acesso compartilhado (SAS) que permita acesso de gravação ao disco gerenciado, faça o seguinte:

   1. Copie o seguinte comando da CLI Azure:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. Substitua `your-managed-disk` pelo nome do disco gerenciado que você criou.

   1. Substitua `your-resource-group` pelo nome do grupo de recursos Azure ao qual sua conta de armazenamento pertence.

   1. Execute o comando .

      Examine o resultado e anote o URI do SAS. Você precisa desse URI ao fazer o upload do atendente para o Azure.

   O SAS permite que você grave no disco por até uma hora. Isso significa que você tem uma hora para carregar seu atendente no disco gerenciado.

1. Para fazer upload do atendente para o disco gerenciado no Azure, faça o seguinte:

   1. Copie o seguinte comando `AzCopy`:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. Substitua `local-path-to-vhd-file` pela localização do arquivo `.vhd` do atendente em sua máquina local.

   1. Substitua `sas-uri` pelo URI SAS que você obteve ao executar o comando `az disk grant-access`.

   1. Execute o comando .

1. Quando o upload do atendente terminar, revogue o acesso ao seu disco gerenciado. Para fazer isso, copie este comando Azure CLI:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. Substitua `your-resource-group` pelo nome do grupo de recursos Azure ao qual sua conta de armazenamento pertence.

   1. Substitua `your-managed-disk` pelo nome do disco gerenciado criado.

   1. Execute o comando.

1. Faça o seguinte para conectar seu disco gerenciado a uma nova VM Linux:

   1. Copie o seguinte comando da CLI Azure:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. Substitua `your-resource-group` pelo nome do grupo de recursos Azure ao qual sua conta de armazenamento pertence.

   1. Substitua `your-agent-vm` por um nome para a VM que você possa lembrar.

   1. Substitua `your-managed-disk` pelo nome do disco gerenciado que você está anexando à VM.

   1. Execute o comando .

Você enviou seu atendente. Antes de começar a configurar sua transferência de dados, você deve ativar o atendente.

#### Obtendo a chave de ativação do seu atendente
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Para obter manualmente a chave de ativação do seu DataSync agente, siga estas etapas. 

Como alternativa, [DataSync pode obter automaticamente a chave de ativação para você](activate-agent.md), mas essa abordagem requer alguma configuração de rede.

**Para obter a chave de ativação do seu atendente**

1. No portal Azure, [habilite o diagnóstico de inicialização da VM para seu atendente](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics) escolhendo a configuração **Habilitar com conta de armazenamento personalizada e especificando sua conta de armazenamento Azure**.

   Depois de habilitar o diagnóstico de inicialização para a VM do seu atendente, você pode acessar o console local do atendente para obter a chave de ativação.

1. Enquanto ainda estiver no portal Azure, acesse sua VM e escolha **Console serial**.

1. No console local do atendente, faça login usando as seguintes credenciais padrão: 
   + **Nome de usuário** – **admin**
   + **Senha**: **password**

   Recomendamos, em algum momento, alterar pelo menos a senha do atendente. No console local do atendente, insira **5** no menu principal e use o comando `passwd` para alterar a senha.

1. Insira **0** para obter a chave de ativação do atendente.

1. Insira o Região da AWS local em que você está usando DataSync (por exemplo,**us-east-1**).

1. Escolha o [endpoint de serviço](choose-service-endpoint.md) que o agente usará para se conectar AWS. 

1. Salve valor da saída `Activation key`. 

#### Ativar o atendente
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Depois de ter a chave de ativação, você pode concluir a criação do seu DataSync agente.

**Como ativar o agente**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação à esquerda, escolha **Agentes** e, em seguida, escolha **Criar agente**.

1. Para **Hypervisor**, escolha **Microsoft Hyper-V**.

1. Para **Tipo de endpoint**, escolha o mesmo tipo de endpoint de serviço que você especificou quando recebeu a chave de ativação do seu agente (por exemplo, escolha **Endpoints de serviço público** em). *Region name*

1. Configure sua rede para funcionar com o tipo de endpoint de serviço que seu atendente está usando. Para obter informações sobre os requisitos de rede de endpoints de serviço, consulte os tópicos a seguir:
   + [Endpoints do VPC](datasync-network.md#using-vpc-endpoint)
   + [Endpoints públicos](datasync-network.md#using-public-endpoints)
   + [Endpoints do Federal Information Processing Standard (FIPS – Padrões Federais de Processamento de Informações)](datasync-network.md#using-public-endpoints)

1. Para a **Chave de ativação**, faça o seguinte:

   1. Escolha **Inserir manualmente a chave de ativação do seu agente**.

   1. Insira a chave de ativação que você obteve do console local do agente.

1. Escolha **Criar agente**.

Seu agente está pronto para se conectar ao seu Azure Blob Storage. Para obter mais informações, consulte [Criar seu local de transferência Azure Blob Storage](#creating-azure-blob-location-how-to).

### Agentes do Amazon EC2
<a name="azure-blob-creating-agent-ec2"></a>

Você pode implantar seu DataSync agente em uma instância do Amazon EC2.

**Para criar um atendente do Amazon EC2**

1. [Implemente um atendente do Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Escolha um endpoint de serviço](choose-service-endpoint.md) que o atendente use para se comunicar ao AWS.

   Nessa situação, recomendamos o uso de um endpoint de serviço de nuvem privada virtual (VPC).

1. Configure sua rede para funcionar com [ endpoints de serviço do VPC](datasync-network.md#using-vpc-endpoint).

1. [Ative o agente](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## Criar seu local de transferência Azure Blob Storage
<a name="creating-azure-blob-location-how-to"></a>

Você pode configurar DataSync para usar o seu Azure Blob Storage como fonte ou destino de transferência.

**Antes de começar**  
Certifique-se de saber [como DataSync acessa Azure Blob Storage](#azure-blob-access) e trabalha com [camadas de acesso](#azure-blob-access-tiers) e tipos de [blob](#blob-types). Você também precisa de um [DataSync agente](#azure-blob-creating-agent) que possa se conectar ao seu Azure Blob Storage contêiner.

### Usando o DataSync console
<a name="creating-azure-blob-location-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de local**, escolha **Microsoft Azure Blob Storage**.

1. Em **URL do contêiner**, insira o URL do contêiner envolvido na sua transferência.

1. (Opcional) Para **Nível de acesso quando usado como destino**, escolha o [nível de acesso](#azure-blob-access-tiers) para o qual você deseja que seus objetos ou arquivos sejam transferidos.

1. Em **Pasta**, insira segmentos de caminho se quiser limitar sua transferência a um diretório virtual em seu contêiner (por exemplo, `/my/images`).

1. Se sua transferência exigir um agente, escolha **Usar agentes** e escolha o DataSync agente que pode se conectar ao seu Azure Blob Storage contêiner.

1. Para o **token SAS**, forneça as credenciais necessárias DataSync para acessar seu armazenamento de blobs. Alguns conjuntos de dados públicos no armazenamento do Azure Blob não exigem credenciais. Você pode inserir um token SAS diretamente ou especificar um AWS Secrets Manager segredo que contenha o token. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   O token SAS faz parte da string SAS URI que vem depois do URI do recurso de armazenamento e de um ponto de interrogação (`?`). Um token é semelhante ao seguinte:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Opcional) Forneça valores para os campos **Chave** e **Valor** para marcar o local.

   As tags ajudam você a gerenciar, filtrar e pesquisar seus AWS recursos. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

### Usando o AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Copie o seguinte comando `create-location-azure-blob`:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Para o parâmetro `--container-url`, especifique o URL do contêiner Azure Blob Storage envolvido na sua transferência.

1. Para o parâmetro `--authentication-type`, especifique `SAS`. Se você estiver acessando um conjunto de dados público que não exige autenticação, especifique `NONE`.

1. Para a `Token` opção do `--sas-configuration` parâmetro, especifique o token SAS que permite DataSync acessar seu armazenamento de blobs. 

   Você também pode fornecer parâmetros adicionais para proteger as chaves usando AWS Secrets Manager. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   O token SAS faz parte da string SAS URI que vem depois do URI do recurso de armazenamento e de um ponto de interrogação (`?`). Um token é semelhante ao seguinte:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Opcional) Para o `--agent-arns` parâmetro, especifique o Amazon Resource Name (ARN) do DataSync agente que pode se conectar ao seu contêiner.

   Aqui está um exemplo de agente ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Você pode especificar mais de um atendente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para o parâmetro`--subdirectory`, especifique segmentos de caminho se quiser limitar sua transferência para um diretório virtual em seu contêiner (por exemplo, `/my/images`).

1. (Opcional) Para o parâmetro `--access-tier`, especifique o [nível de acesso](#azure-blob-access-tiers) (`HOT`, `COOL` ou `ARCHIVE`) para a qual você deseja transferir seus objetos ou arquivos.

   Esse parâmetro se aplica somente quando você está usando esse local como destino de transferência.

1. (Opcional) Para o parâmetro `--tags`, especifique pares chave-valor que ajudam a gerenciar, filtrar e pesquisar sua localização.

   Recomendamos criar uma etiqueta de nome para a sua localização.

1. Execute o comando `create-location-azure-blob`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Visualizando seu local de transferência Azure Blob Storage
<a name="azure-blob-view-location"></a>

Você pode obter detalhes sobre o local de DataSync transferência existente para o seuAzure Blob Storage.

### Usando o DataSync console
<a name="azure-blob-view-location-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e, em seguida, escolha **Locais**.

1. Escolha seu local Azure Blob Storage.

   Você pode ver detalhes sobre sua localização, incluindo todas as tarefas de DataSync transferência que a estão usando.

### Usando o AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Copie o seguinte comando `describe-location-azure-blob`:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Para o parâmetro `--location-arn`, especifique o ARN do local Azure Blob Storage que você criou (por exemplo, `arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Execute o comando `describe-location-azure-blob`.

   Você recebe uma resposta que mostra detalhes sobre sua localização. Por exemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Atualizando seu local de transferência Azure Blob Storage
<a name="azure-blob-update-location"></a>

Se necessário, você pode modificar a configuração da sua localização no console ou usando o AWS CLI.

### Usando o AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Copie o seguinte comando `update-location-azure-blob`:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Para o parâmetro `--location-arn`, especifique o ARN do local Azure Blob Storage que você está atualizando (por exemplo, `arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Para o parâmetro `--authentication-type`, especifique `SAS`.

1. Para a `Token` opção do `--sas-configuration` parâmetro, especifique o token SAS que permite DataSync acessar seu armazenamento de blobs. 

   O token faz parte da string SAS URI que vem depois do URI do recurso de armazenamento e de um ponto de interrogação (`?`). Um token é semelhante ao seguinte:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Para o `--agent-arns` parâmetro, especifique o Amazon Resource Name (ARN) do DataSync agente que você deseja conectar ao seu contêiner.

   Aqui está um exemplo de agente ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Você pode especificar mais de um atendente. Para obter mais informações, consulte [Usando vários DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para o parâmetro `--subdirectory`, especifique segmentos de caminho se quiser limitar sua transferência para um diretório virtual em seu contêiner (por exemplo, `/my/images`).

1. (Opcional) Para o parâmetro `--access-tier`, especifique o [nível de acesso](#azure-blob-access-tiers) (`HOT`, `COOL` ou `ARCHIVE`) para o qual você deseja que seus objetos sejam transferidos.

   Esse parâmetro se aplica somente quando você está usando esse local como destino de transferência.

## Próximas etapas
<a name="create-azure-blob-location-next-steps"></a>

Depois de terminar de criar um DataSync local para o seuAzure Blob Storage, você pode continuar configurando sua transferência. Veja aqui alguns dos próximos passos a considerar:

1. Se ainda não o fez, [crie outro local](working-with-locations.md) onde você planeja transferir seus dados de ou para o seu Azure Blob Storage.

1. Saiba como DataSync [lidar com metadados e arquivos especiais](metadata-copied.md), especialmente se seus locais de transferência não tiverem uma estrutura de metadados semelhante.

1. Configure como os dados são transferidos. Por exemplo, você pode [transferir apenas um subconjunto de seus dados](filtering.md) ou excluir arquivos do armazenamento de blobs que não estejam no local de origem (desde que o [token SAS](#azure-blob-sas-tokens) tenha permissões de exclusão).

1. [Inicie sua transferência](run-task.md). 

# Configurando AWS DataSync transferências com compartilhamentos Microsoft Azure Files SMB
<a name="transferring-azure-files"></a>

Você pode configurar AWS DataSync para transferir dados de ou para um compartilhamento de Bloco de Mensagens Microsoft Azure Files do Servidor (SMB).

**dica**  
[Para obter uma explicação completa sobre como mover dados dos compartilhamentos SMB dos Arquivos do Azure para AWS, consulte o AWS Blog de Armazenamento.](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)

## Fornecendo DataSync acesso a compartilhamentos de pequenas e médias empresas
<a name="configuring-smb-azure-files"></a>

DataSync se conecta ao seu compartilhamento SMB usando o protocolo SMB e se autentica com as credenciais fornecidas por você.

**Topics**
+ [Versões do protocolo SMB compatíveis](#configuring-smb-version-azure-files)
+ [Permissões obrigatórias](#configuring-smb-permissions-azure-files)

### Versões do protocolo SMB compatíveis
<a name="configuring-smb-version-azure-files"></a>

Por padrão, escolhe DataSync automaticamente uma versão do protocolo SMB com base na negociação com seu servidor de arquivos SMB.

Você também pode configurar DataSync para usar uma versão SMB específica, mas recomendamos fazer isso somente se DataSync tiver problemas para negociar com o servidor de arquivos SMB automaticamente. DataSync oferece suporte às versões 1.0 e posteriores do SMB. Por motivos de segurança, recomendamos usar a versão 3.0.2 ou posterior do SMB. Versões anteriores, como a SMB 1.0, contêm vulnerabilidades de segurança conhecidas que os invasores podem explorar para comprometer os dados.

Consulte a tabela a seguir para ver uma lista de opções no DataSync console e na API:


| Opção do console | Opção de API | Descrição | 
| --- | --- | --- | 
| Automatico |  `AUTOMATIC`  |  DataSync e o servidor de arquivos SMB negociam a versão mais alta do SMB que eles suportam mutuamente entre 2.1 e 3.1.1. Essa é a opção recomendada e também a padrão. Se, em vez disso, você escolher uma versão específica que seu servidor de arquivos não suporta, você pode receber um erro `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Restringe a negociação do protocolo somente à versão 3.0.2 do SMB.  | 
| SMB 2.1 |  `SMB2`  | Restringe a negociação do protocolo somente à versão 2.1 do SMB. | 
| SMB 2.0 | `SMB2_0` | Restringe a negociação do protocolo somente à versão 2.0 do SMB. | 
| SMB 1.0 | `SMB1` | : restringe a negociação do protocolo somente à versão 3.0.2 do SMB. | 

### Permissões obrigatórias
<a name="configuring-smb-permissions-azure-files"></a>

DataSync precisa de um usuário que tenha permissão para montar e acessar sua localização SMB. Esse usuário pode ser um usuário local em seu servidor de arquivos do Windows ou pode ser um usuário de domínio definido no Active Directory.

Para definir a propriedade do objeto, é DataSync necessário o `SE_RESTORE_NAME` privilégio, que geralmente é concedido aos membros dos grupos integrados do Active Directory **Operadores de Backup** e **Administradores de Domínio**. Fornecer esse privilégio DataSync a um usuário também ajuda a garantir permissões suficientes para arquivos, pastas e metadados de arquivos, exceto para listas de controle de acesso do sistema NTFS (). SACLs

Privilégios adicionais são necessários para copiar SACLs. Essa operação requer especificamente o privilégio `SE_SECURITY_NAME` do Windows, que é concedido aos membros do grupo **Administradores de domínio**. Se você configurar sua tarefa para copiar SACLs, verifique se o usuário tem os privilégios necessários. Para saber mais sobre como configurar uma tarefa para copiar SACLs, consulte[Configuração de como lidar com arquivos, objetos e metadados](configure-metadata.md).

Quando você copia dados entre um servidor de arquivos SMB e o sistema de arquivos Amazon FSx for Windows File Server, os locais de origem e destino devem pertencer ao mesmo domínio do Microsoft Active Directory ou ter uma relação de confiança do Active Directory entre seus domínios.

## Criar o local de transferência de arquivos do Azure usando o console
<a name="create-azure-files-smb-location-how-to"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de local**, escolha **Server Message Block (SMB)**.

   Você configurará esse local como origem ou destino posteriormente.

1. Para **Agentes**, escolha um ou mais DataSync agentes que você deseja conectar ao seu compartilhamento SMB.

   Se você escolher mais de um agente, certifique-se de entender o uso de [vários agentes em um local](do-i-need-datasync-agent.md#multiple-agents).

1. Para **Servidor SMB**, insira o nome do Sistema de Nomes de Domínio (DNS) ou o endereço IP do compartilhamento SMB que seu DataSync agente montará.
**nota**  
Você não pode especificar um endereço IP versão 6 (IPv6).

1. Em **Nome do compartilhamento**, insira o nome do compartilhamento exportado pelo seu compartilhamento SMB onde os dados DataSync serão lidos ou gravados.

   Você pode incluir um subdiretório no caminho de compartilhamento (por exemplo, `/path/to/subdirectory`). Certifique-se de que outros clientes do SMB em sua rede também possam montar este caminho. 

   Para copiar todos os dados no subdiretório, DataSync deve ser capaz de montar o compartilhamento SMB e acessar todos os seus dados. Para obter mais informações, consulte [Permissões obrigatórias](create-smb-location.md#configuring-smb-permissions).

1. (Opcional) Expanda **Configurações adicionais** e escolha uma **versão SMB** DataSync para usar ao acessar seu compartilhamento SMB.

   Por padrão, escolhe DataSync automaticamente uma versão com base na negociação com o compartilhamento SMB. Para mais informações, consulte [Versões compatíveis do SMB](create-smb-location.md#configuring-smb-version).

1. Em **Usuário**, insira um nome de usuário que possa montar o compartilhamento SMB e tenha permissão para acessar os arquivos e pastas envolvidos na sua transferência.

   Para obter mais informações, consulte [Permissões obrigatórias](create-smb-location.md#configuring-smb-permissions).

1. Em **Senha**, insira a senha do usuário que pode montar o local e que tem as permissões para acessar arquivos e pastas no local do SMB.

1. (Opcional) Em **Domínio**, insira o nome de domínio do Windows ao qual o compartilhamento SMB pertence.

   Se você tiver vários domínios em seu ambiente, definir essa configuração garante que ele se DataSync conecte ao compartilhamento correto.

1. (Opcional) Escolha **Adicionar tag** para marcar sua localização.

   As *Tags* são pares de chave-valor que ajudam você a gerenciar, filtrar e pesquisar seus locais. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

# Configurar transferências de com outro armazenamento de objetos na nuvem
<a name="creating-other-cloud-object-location"></a>

Com AWS DataSync, você pode transferir dados entre [serviços AWS de armazenamento](transferring-aws-storage.md) e os seguintes provedores de armazenamento de objetos na nuvem:
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Um DataSync agente é necessário somente ao transferir dados entre sistemas de armazenamento em outras nuvens e o Amazon EFS ou Amazon FSx, ou ao usar tarefas do modo **Básico**. Você não precisa de um atendente para transferir dados entre sistemas de armazenamento em outras nuvens e o Amazon S3 usando o modo **Avançado**.

Independentemente de usar um agente, você também deve criar um [local](how-datasync-transfer-works.md#sync-locations) de transferência para seu armazenamento de objetos na nuvem (especificamente um local **de armazenamento de objetos**). DataSync pode usar esse local como origem ou destino para sua transferência.

## Fornecendo DataSync acesso ao seu outro armazenamento de objetos na nuvem
<a name="other-cloud-access"></a>

A forma como DataSync acessa seu armazenamento de objetos na nuvem depende de vários fatores, incluindo se seu armazenamento é compatível com a API do Amazon S3 e as permissões e credenciais DataSync necessárias para acessar seu armazenamento.

**Topics**
+ [Compatibilidade da API do Amazon S3](#other-cloud-s3-compatibility)
+ [Permissões de armazenamento e endpoints](#other-cloud-permissions)
+ [Credenciais de armazenamento](#other-cloud-credentials)

### Compatibilidade da API do Amazon S3
<a name="other-cloud-s3-compatibility"></a>

Seu armazenamento de objetos na nuvem deve ser compatível com as seguintes [operações de API do Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) para se conectar DataSync a ele:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Permissões de armazenamento e endpoints
<a name="other-cloud-permissions"></a>

Você deve configurar as permissões que permitem DataSync acessar seu armazenamento de objetos na nuvem. Se seu armazenamento de objetos for um local de origem, DataSync precisará de permissões de leitura e lista para o bucket do qual você está transferindo dados. Se seu armazenamento de objetos for um local de destino, DataSync precisará de permissões de leitura, lista, gravação e exclusão para o bucket.

DataSync também precisa de um endpoint (ou servidor) para se conectar ao seu armazenamento. A tabela a seguir descreve os endpoints que DataSync podem ser usados para acessar outros armazenamentos de objetos na nuvem:


| Outro provedor de nuvem | Endpoint | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com` (maioria das regiões)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**Importante**  
Para obter detalhes sobre como configurar permissões de bucket e informações atualizadas sobre endpoints de armazenamento, consulte a documentação do seu provedor de nuvem.

### Credenciais de armazenamento
<a name="other-cloud-credentials"></a>

DataSync também precisa das credenciais para acessar o bucket de armazenamento de objetos envolvido na sua transferência. Isso pode ser uma chave de acesso e uma chave secreta ou algo semelhante, dependendo de como seu provedor de armazenamento na nuvem se refere a essas credenciais.

Para obter mais informações, consulte a documentação do seu provedor de nuvem.

## Considerações ao transferir de outro amrmazenamento de objetos na nuvem
<a name="other-cloud-considerations"></a>

Ao planejar a transferência de objetos de ou para outro provedor de armazenamento em nuvem usando DataSync, há algumas coisas que você deve ter em mente.

**Topics**
+ [Custos](#other-cloud-considerations-costs)
+ [Classes de armazenamento](#other-cloud-considerations-storage-classes)
+ [Tags de objetos](#other-cloud-considerations-object-tags)
+ [Transferindo para o Amazon S3](#other-cloud-considerations-s3)

### Custos
<a name="other-cloud-considerations-costs"></a>

As taxas associadas à movimentação de dados para dentro e para fora de outro provedor de armazenamento em nuvem podem incluir:
+ Executando uma instância [do Amazon EC2](https://aws.amazon.com/ec2/pricing/) para seu agente DataSync 
+ Transferir os dados usando [DataSync](https://aws.amazon.com/datasync/pricing/), incluindo cobranças de solicitação relacionadas ao seu armazenamento de objetos na nuvem e ao [Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se o S3 for seu destino de transferência)
+ Transferir dados para dentro ou para fora do seu armazenamento em nuvem (verifique os preços do seu provedor de nuvem)
+ Armazenamento de dados em um [serviço AWS de armazenamento](transferring-aws-storage.md) suportado pelo DataSync
+ Armazenamento de dados em outro provedor de nuvem (verifique os preços do seu provedor de nuvem)

### Classes de armazenamento
<a name="other-cloud-considerations-storage-classes"></a>

Alguns provedores de armazenamento em nuvem têm classes de armazenamento (semelhantes às do [Amazon S3](create-s3-location.md#using-storage-classes)) que não DataSync podem ser lidas sem serem restauradas primeiro. Por exemplo, Oracle Cloud Infrastructure Object Storage tem uma classe de armazenamento de arquivos. Você precisa restaurar objetos nessa classe de armazenamento antes de DataSync poder transferi-los. Para obter mais informações, consulte a documentação do seu provedor de nuvem.

### Tags de objetos
<a name="other-cloud-considerations-object-tags"></a>

Nem todos os provedores de nuvem são compatíveis com tags de objetos. Os que permitem podem não permitir a consulta de tags por meio da API do Amazon S3. Em qualquer situação, sua tarefa DataSync de transferência pode falhar se você tentar copiar tags de objeto.

Você pode evitar isso desmarcando a caixa de seleção **Copiar tags de objeto** no DataSync console ao criar, iniciar ou atualizar sua tarefa.

### Transferindo para o Amazon S3
<a name="other-cloud-considerations-s3"></a>

Ao transferir para o Amazon S3 DataSync , não é possível transferir objetos maiores que 5 TB. DataSynctambém só pode copiar metadados de objetos de até 2 KB.

## Criando seu DataSync agente
<a name="other-cloud-creating-agent"></a>

Um DataSync agente é necessário somente ao transferir dados entre sistemas de armazenamento em outras nuvens e o Amazon EFS ou Amazon FSx, ou ao usar tarefas do modo **Básico**. Você não precisa de um atendente para transferir dados entre sistemas de armazenamento em outras nuvens e o Amazon S3 usando o modo **Avançado**. Esta seção descreve como implantar e ativar um atendente em uma instância do Amazon EC2 na nuvem privada virtual (VPC) no AWS.

**Para criar um atendente do Amazon EC2**

1. [Implemente um atendente do Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Escolha um endpoint de serviço](choose-service-endpoint.md) que o agente use para se comunicar AWS.

   Nessa situação, recomendamos o uso de um endpoint de serviço da VPC.

1. Configure sua rede para funcionar com [ endpoints de serviço do VPC](datasync-network.md#using-vpc-endpoint).

1. [Ative o atendente](activate-agent.md).

## Criação de um local de transferência para outro armazenamento de objetos na nuvem
<a name="creating-other-cloud-location-how-to"></a>

Você pode configurar DataSync para usar seu armazenamento de objetos na nuvem como local de origem ou destino.

**Antes de começar**  
Verifique se você sabe [como DataSync acessa seu armazenamento de objetos na nuvem](#other-cloud-access). Você também precisa de um [DataSync agente](#other-cloud-creating-agent) que possa se conectar ao seu armazenamento de objetos na nuvem.

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e escolha **Locais** e **Criar local**.

1. Em **Tipo de localização**, escolha **Armazenamento de objetos**.

1. Em **Servidor**, insira o [endpoint](#other-cloud-permissions) que DataSync pode ser usado para acessar seu armazenamento de objetos na nuvem:
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**: `region.object.ncloudstorage.com` (maioria das regiões)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. Em **Nome do bucket**, insira o nome do bucket de armazenamento de objetos de ou para o qual você está transferindo dados.

1. Em **Pasta**, insira um prefixo de objeto. DataSync transfere somente objetos com esse prefixo.

1. Se sua transferência exigir um agente, escolha **Usar agentes** e escolha o DataSync agente que pode se conectar ao seu armazenamento de objetos na nuvem.

1. Expanda **Configurações adicionais**. Para **Protocolo de servidor**, escolha **HTTPS**. Em **Porta do servidor**, escolha **443**.

1. Role para baixo até a seção **Autenticação**. Verifique se a caixa de seleção **Exige credenciais** está marcada e forneça DataSync suas [credenciais de armazenamento](#other-cloud-credentials).
   + Em **Chave de acesso**, insira a ID para acessar seu armazenamento de objetos na nuvem.
   + Para **Chave secreta**, forneça a chave secreta para acessar o armazenamento de objetos na nuvem. Você pode inserir a chave diretamente ou especificar um AWS Secrets Manager segredo que contenha a chave. Para obter mais informações, consulte [Como fornecer credenciais para locais de armazenamento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Opcional) Forneça valores para os campos **Chave** e **Valor** para marcar o local.

   As tags ajudam você a gerenciar, filtrar e pesquisar seus AWS recursos. Recomendamos criar pelo menos uma etiqueta de nome para a sua localização. 

1. Escolha **Criar local**.

## Próximas etapas
<a name="other-cloud-location-next-steps"></a>

Depois de terminar de criar um DataSync local para seu armazenamento de objetos na nuvem, você poderá continuar configurando sua transferência. Veja aqui alguns dos próximos passos a considerar:

1. Se ainda não o fez, [crie outro local](transferring-aws-storage.md) para onde você planeja transferir seus dados de ou para dentro AWS.

1. Saiba como DataSync [lidar com metadados e arquivos especiais](metadata-copied.md) para locais de armazenamento de objetos.

1. Configure como os dados são transferidos. Por exemplo, talvez você deseje [transferir apenas um subconjunto dos dados](filtering.md).
**Importante**  
Certifique-se de configurar como DataSync copia as tags de objeto corretamente. Para obter mais informações, consulte considerações com [tags de objetos](#other-cloud-considerations-object-tags).

1. [Inicie a transferência](run-task.md). 

 

# Como criar uma tarefa para transferir os dados
<a name="create-task-how-to"></a>

Uma *tarefa* descreve onde e como os dados são AWS DataSync transferidos. Uma tarefa consiste no seguinte:
+ [**Local de origem**](working-with-locations.md) — O sistema ou serviço de armazenamento de onde os dados são DataSync transferidos.
+ [**Local de destino**](working-with-locations.md) — O sistema ou serviço de armazenamento para o qual os dados são DataSync transferidos.
+ [**Opções de tarefa**](task-options.md): configurações como quais arquivos transferir, como os dados são verificados, quando a tarefa é executada etc.
+ [**Execuções de tarefas**](run-task.md): quando você executa uma tarefa, ela é chamada de *execução de tarefa*.

## Criação da tarefa do
<a name="create-task-steps"></a>

Ao criar uma DataSync tarefa, você especifica seus locais de origem e destino. Você também pode personalizar a tarefa escolhendo quais arquivos transferir, como os metadados são tratados, configurando um agendamento etc.

Antes de criar sua tarefa, certifique-se de entender [como as DataSync transferências funcionam](how-datasync-transfer-works.md#transferring-files) e revise as [cotas da tarefa](datasync-limits.md#task-hard-limits).

**Importante**  
Se você planeja transferir dados de ou para um local do Amazon S3, analise [como isso DataSync pode afetar as cobranças de suas solicitações do S3](create-s3-location.md#create-s3-location-s3-requests) e a [página de DataSync preços](https://aws.amazon.com/datasync/pricing/) antes de começar.

### Usando o DataSync console
<a name="create-task-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Verifique se você está em um dos Regiões da AWS locais onde planeja transferir dados.

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Na página **Configurar local de origem**, [crie](transferring-data-datasync.md) ou escolha um local de origem e depois escolha **Avançar**.

1. Na página **Configurar local de destino**, [crie](transferring-data-datasync.md) ou escolha um local de destino e depois escolha **Avançar**.

1. (Recomendado) Na página **Definir configurações**, dê à sua tarefa um nome de que você possa se lembrar.

1. Ainda na página **Definir configurações**, escolha as opções de tarefa ou use as configurações padrão.

   Talvez você se interesse por algumas das seguintes opções:
   + Especifique o [modo de tarefa](choosing-task-mode.md) que você deseja usar.
   + Especifique quais dados transferir usando um [manifesto](transferring-with-manifest.md) ou [filtros](filtering.md).
   + Configure como [lidar com metadados de arquivos](configure-metadata.md) e [verificar a integridade dos dados](configure-data-verification-options.md).
   + Monitore sua transferência com [relatórios de tarefas](task-reports.md) ou com a [Amazon CloudWatch](monitor-datasync.md). Recomendamos configurar algum tipo de monitoramento para a tarefa.

   Quando concluir, selecione **Próximo**.

1. Revise a configuração da tarefa e escolha **Criar tarefa**.

Você está pronto para [iniciar a tarefa](run-task.md).

### Usando o AWS CLI
<a name="create-task-cli"></a>

Depois de [criar seus locais de DataSync origem e destino](transferring-data-datasync.md), você pode criar sua tarefa.

1. Nas suas AWS CLI configurações, verifique se você está usando um dos Regiões da AWS locais para onde planeja transferir dados.

1. Copie o seguinte comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. Em `--source-location-arn`, especifique o nome do recurso da Amazon (ARN) do local de origem na transferência.

1. Em `--destination-location-arn`, especifique o ARN do local de destino.

   Se você estiver transferindo entre Regiões da AWS nossas contas, verifique se o ARN inclui a outra ID de região ou conta.

1. (Recomendado) Em `--name`, especifique um nome para a tarefa de que você possa se lembrar.

1. Especifique outras opções de tarefa conforme necessário. Talvez você esteja interessado em algumas das seguintes opções:
   + Especifique quais dados transferir usando um [manifesto](transferring-with-manifest.md) ou [filtros](filtering.md).
   + Configure como [lidar com metadados de arquivos](configure-metadata.md) e [verificar a integridade dos dados](configure-data-verification-options.md).
   + Monitore sua transferência com [relatórios de tarefas](task-reports.md) ou com a [Amazon CloudWatch](monitor-datasync.md). Recomendamos configurar algum tipo de monitoramento para a tarefa.

   Para obter mais opções, consulte [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Aqui está um exemplo do comando `create-task` que especifica várias opções:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. Execute o comando `create-task`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN da tarefa que você criou. Por exemplo:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

Você está pronto para [iniciar a tarefa](run-task.md).

## Status da tarefa
<a name="understand-task-creation-statuses"></a>

Ao criar uma DataSync tarefa, você pode verificar seu status para ver se ela está pronta para ser executada.


| Status do console | Status da API | Description | 
| --- | --- | --- | 
| Available (Disponível) |  `AVAILABLE`  |  A tarefa está pronta para começar a transferir dados.  | 
| Em execução |  `RUNNING`  | A execução de uma tarefa está em andamento. Para obter mais informações, consulte [Status de execução de tarefa](run-task.md#understand-task-execution-statuses). | 
|  Unavailable (Indisponível)  |  `UNAVAILABLE`  |  Um DataSync agente usado pela tarefa está off-line. Para obter mais informações, consulte [O que eu faço se meu agente estiver off-line?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline).  | 
|  Enfileirado  |  `QUEUED`  |  Outra execução de tarefa que usa o mesmo DataSync agente está em andamento. Para obter mais informações, consulte [Como saber quando a tarefa está na fila](run-task.md#queue-task-execution).  | 

## Como particionar grandes conjuntos de dados com várias tarefas
<a name="multiple-tasks-large-dataset"></a>

Se você estiver transferindo um grande conjunto de dados, como a [migração](datasync-large-migration.md) de milhões de arquivos ou objetos, recomendamos usar o modo DataSync Avançado para sua transferência, que pode transferir conjuntos de dados com números praticamente ilimitados de arquivos. Para conjuntos de dados muito grandes, com bilhões de arquivos, você deve considerar particionar seu conjunto de dados com várias tarefas. DataSync Particionar seus dados em várias tarefas (e possivelmente em [agentes](do-i-need-datasync-agent.md#multiple-agents), dependendo de suas localizações) ajuda a reduzir o tempo necessário DataSync para preparar e transferir seus dados.

Considere algumas maneiras de particionar um grande conjunto de dados em várias DataSync tarefas:
+ Crie tarefas que transfiram pastas separadas. Por exemplo, você pode criar duas tarefas que tenham como destino `/FolderA` e `/FolderB`, respectivamente, no armazenamento de origem.
+ Crie tarefas que transfiram subconjuntos de arquivos, objetos e pastas usando um [manifesto](transferring-with-manifest.md) ou [filtros](filtering.md).

Lembre-se de que essa abordagem pode aumentar I/O as operações no armazenamento e afetar a largura de banda da rede. Para obter mais informações, consulte o blog sobre [Como acelerar suas transferências de dados com arquiteturas DataSync escaláveis](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/).

## Como segmentar dados transferidos com várias tarefas
<a name="multiple-tasks-organize-transfer"></a>

Se estiver transferindo conjuntos diferentes de dados para o mesmo destino, você poderá criar várias tarefas para ajudar a segmentar os dados que serão transferidos.

Por exemplo, se você estiver transferindo para o mesmo bucket do S3 denominado `MyBucket`, poderá criar prefixos diferentes no bucket que correspondam a cada tarefa. Essa abordagem evita conflitos de nomes de arquivos nos conjuntos de dados e permite que você defina permissões diferentes para cada prefixo. Veja como você pode configurar isso:

1. Crie três prefixos no destino `MyBucket` denominados `task1`, `task2` e `task3`:
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. Crie três DataSync tarefas chamadas`task1`,`task2`, e `task3` que sejam transferidas para o prefixo correspondente em`MyBucket`.

# Como escolher um modo de tarefa para a transferência de dados
<a name="choosing-task-mode"></a>

Sua AWS DataSync tarefa pode ser executada em um dos seguintes modos:
+ **Modo aprimorado** — transfira números praticamente ilimitados de arquivos ou objetos com desempenho superior ao do modo Básico. As tarefas do modo Avançado otimizam o processo de transferência de dados listando, preparando, transferindo e verificando os dados em paralelo. Atualmente, o modo aprimorado está disponível para transferências entre locais do Amazon S3, transferências entre Azure Blob e o Amazon S3 sem um agente, transferências entre outras nuvens e o Amazon S3 sem um agente e transferências entre servidores de arquivos NFS ou SMB e o Amazon S3 usando um agente do modo aprimorado.
+ **Modo básico** — Transfira arquivos ou objetos entre o AWS armazenamento e todos os outros DataSync locais compatíveis. As tarefas do modo Básico estão sujeitas a [cotas](datasync-limits.md) no número de arquivos, objetos e diretórios em um conjunto de dados. O modo Básico prepara, transfere e verifica os dados sequencialmente, tornando-se mais lento do que o modo Avançado para a maioria das workloads.

## Como entender as diferenças do modo de tarefa
<a name="task-mode-differences"></a>

As informações a seguir podem ajudar você a determinar qual modo de tarefa usar. 


| Recurso | Comportamento do modo Avançado | Comportamento do modo Básico | 
| --- | --- | --- | 
| [Desempenho](how-datasync-transfer-works.md#transferring-files) | DataSync lista, prepara, transfere e verifica seus dados paralelamente. Proporciona melhor desempenho do que o modo Básico para a maioria das workloads (como a transferência de objetos grandes) | DataSync prepara, transfere e verifica seus dados sequencialmente. Desempenho mais lento do que no modo Avançado para a maioria das workloads | 
| Número de itens em um conjunto de dados com os quais DataSync você pode trabalhar por execução de tarefa |  Número praticamente ilimitado de objetos  |  [Cotas](datasync-limits.md#task-hard-limits) se aplicam  | 
|  [Contadores](transfer-performance-counters.md) e [métricas](monitor-datasync.md) de transferência de dados  |  Mais contadores e métricas do que o modo Básico, como o número de objetos DataSync encontrados no local de origem, quantos objetos são preparados durante a execução de cada tarefa e contadores de pastas semelhantes aos contadores de arquivos e objetos  |  Menos contadores e métricas do que o modo Avançado  | 
|  [Registro em log](configure-logging.md)  | Registros estruturados (formato JSON) | Registros não estruturados | 
|  [Locais compatíveis](working-with-locations.md)  | Atualmente, para transferências entre locais do Amazon S3, transferências entre Azure Blob e o Amazon S3 sem um agente, transferências entre outras nuvens e o Amazon S3 sem um agente e transferências entre servidores de arquivos NFS ou SMB e o Amazon S3 usando um agente do modo Avançado. |  Para transferências entre todos os locais que oferecem DataSync suporte  | 
|  [Opções de verificação de dados](configure-data-verification-options.md)  | DataSync verifica somente os dados transferidos | DataSync verifica todos os dados por padrão | 
| Custo | Para obter mais informações, consulte a página [DataSync de preços](https://aws.amazon.com/datasync/pricing) | Para obter mais informações, consulte a página [DataSync de preços](https://aws.amazon.com/datasync/pricing) | 
| Tratamento de falhas para tags de objeto não suportadas | Em relação a transferências de armazenamento em nuvem de ou para locais que não oferecem suporte à marcação de objetos, a execução da tarefa falhará imediatamente se a opção ObjectTags não for especificada ou definida como PRESERVE. | Em relação a transferências de armazenamento em nuvem de ou para locais que não oferecem suporte à marcação de objetos, a execução da tarefa será executada normalmente, mas relatará falhas por objeto para objetos marcados se a opção ObjectTags não for especificada ou definida como PRESERVE. | 

## Como escolher um modo de tarefa
<a name="choosing-task-mode-how-to"></a>

Você pode escolher o modo Avançado somente para transferências entre locais do Amazon S3, transferências entre Azure Blob e o Amazon S3 sem um agente, transferências entre outras nuvens e o Amazon S3 sem um agente e transferências entre servidores de arquivos NFS ou SMB e o Amazon S3 usando um agente do modo Avançado. Caso contrário, você deve usar o modo Básico. Por exemplo, uma transferência de um local [HDFS local para um local](create-hdfs-location.md) do S3 requer o modo Básico.

As opções de tarefas e o desempenho podem variar dependendo do modo de tarefa escolhido. Depois de criar a tarefa, não é possível alterar o modo de tarefa.

**Permissões obrigatórias**  
Para criar uma tarefa no modo Avançado, a função do IAM DataSync com a qual você está usando precisa ter a `iam:CreateServiceLinkedRole` permissão.  
Para obter suas permissões de DataSync usuário, considere usar [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess). Essa é uma política AWS gerenciada que fornece ao usuário acesso total DataSync e acesso mínimo às suas dependências.

### Usando o DataSync console
<a name="choosing-task-mode-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Para **Modo de tarefa**, selecione uma das seguintes opções:
   + **Aprimorado**
   + **Básico**

   Para obter mais informações, consulte [Como entender as diferenças do modo de tarefa](#task-mode-differences).

1. Ainda na página **Definir configurações**, escolha outras opções de tarefa ou use as configurações padrão.

   Talvez você esteja interessado em algumas das seguintes opções:
   + Especifique quais dados transferir usando um [manifesto](transferring-with-manifest.md) ou [filtros](filtering.md).
   + Configure como [lidar com metadados de arquivos](configure-metadata.md) e [verificar a integridade dos dados](configure-data-verification-options.md).
   + Monitore sua transferência com [relatórios de tarefas](task-reports.md) ou [Amazon CloudWatch Logs](monitor-datasync.md).

   Quando concluir, selecione **Próximo**.

1. Revise a configuração da tarefa e escolha **Criar tarefa**.

### Usando o AWS CLI
<a name="choosing-task-mode-cli"></a>

1. Nas suas AWS CLI configurações, verifique se você está usando um dos Regiões da AWS locais para onde planeja transferir dados.

1. Copie o seguinte comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. Em `--source-location-arn`, especifique o nome do recurso da Amazon (ARN) do local de origem na transferência.

1. Em `--destination-location-arn`, especifique o ARN do local de destino.

   Se você estiver transferindo entre Regiões da AWS nossas contas, certifique-se de que o ARN inclua a outra ID de região ou conta.

1. Para `--task-mode`, especifique `ENHANCED` ou `BASIC`.

   Para obter mais informações, consulte [Como entender as diferenças do modo de tarefa](#task-mode-differences).

1. Especifique outras opções de tarefa conforme necessário. Talvez você esteja interessado em algumas das seguintes opções:
   + Especifique quais dados transferir usando um [manifesto](transferring-with-manifest.md) ou [filtros](filtering.md).
   + Configure como [lidar com metadados de arquivos](configure-metadata.md) e [verificar a integridade dos dados](configure-data-verification-options.md).
   + Monitore sua transferência com [relatórios de tarefas](task-reports.md) ou [Amazon CloudWatch Logs](monitor-datasync.md).

   Para obter mais opções, consulte [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Aqui está um exemplo do comando `create-task` que especifica o modo Avançado e várias outras opções:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. Execute o comando `create-task`.

   Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN da tarefa que você criou. Por exemplo:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### Usando a DataSync API
<a name="choosing-task-mode-api"></a>

Você pode especificar o modo de DataSync tarefa configurando o `TaskMode` parâmetro na [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)operação.

# Escolhendo quais AWS DataSync transferências
<a name="task-options"></a>

AWS DataSync permite que você escolha o que transferir e como deseja que seus dados sejam tratados. Algumas opções incluem:
+ Transferir uma lista exata dos arquivos ou objetos usando um manifesto.
+ Incluir ou excluir certos tipos de dados na transferência usando um filtro.
+ Para transferências recorrentes, mova apenas os dados que foram alterados desde a última transferência
+ Substituir os dados no local de destino para correspondam ao que existe no local de origem.
+ Escolher quais metadados de arquivo ou objeto preservar entre seus locais de armazenamento.

**Topics**
+ [Transferência de arquivos ou objetos específicos usando um manifesto](transferring-with-manifest.md)
+ [Transferência de arquivos, objetos e pastas específicos usando filtros](filtering.md)
+ [Entendendo como DataSync manipula metadados de arquivos e objetos](metadata-copied.md)
+ [Links e diretórios copiados por AWS DataSync](special-files-copied.md)
+ [Configuração de como lidar com arquivos, objetos e metadados](configure-metadata.md)

# Transferência de arquivos ou objetos específicos usando um manifesto
<a name="transferring-with-manifest"></a>

Um *manifesto* é uma lista de arquivos ou objetos que você AWS DataSync deseja transferir. Por exemplo, em vez de precisar transferir tudo em um bucket do S3 com potencialmente milhões de objetos, DataSync transfere somente os objetos que você lista em seu manifesto.

Os manifestos são semelhantes aos [filtros](filtering.md), mas permitem identificar exatamente quais arquivos ou objetos transferir em vez de dados que correspondem a um padrão de filtro.

**nota**  
O tamanho máximo permitido para o arquivo de manifesto com tarefas do modo Avançado é 20 GB.

## Criação do manifesto
<a name="transferring-with-manifest-create"></a>

Um manifesto é um arquivo formatado em valores separados por vírgula (CSV) que lista os arquivos ou objetos no local de origem que você deseja transferir. DataSync Se a origem for um bucket do S3, você também poderá incluir qual versão de um objeto transferir.

**Topics**
+ [Diretrizes](#transferring-with-manifest-guidelines)
+ [Exemplos de manifesto](#manifest-examples)

### Diretrizes
<a name="transferring-with-manifest-guidelines"></a>

Use essas diretrizes para ajudá-lo a criar um manifesto que funcione com DataSync.

------
#### [ Do ]
+ Especifique o caminho completo de cada arquivo ou objeto que você deseja transferir.

  Você não pode especificar apenas um diretório ou uma pasta com a intenção de transferir todo o seu conteúdo. Para essas situações, considere usar um [filtro de inclusão](filtering.md) em vez de um manifesto.
+ Certifique-se de que cada caminho de arquivo ou objeto seja relativo ao caminho de montagem, pasta, diretório ou prefixo que você especificou ao configurar seu local de DataSync origem.

  Por exemplo, digamos que você [configure um local do S3](create-s3-location.md#create-s3-location-how-to) com um prefixo denominado `photos`. Esse prefixo inclui um objeto `my-picture.png` que você deseja transferir. No manifesto, você só precisa especificar o objeto (`my-picture.png`) em vez de especificar o prefixo e o objeto (`photos/my-picture.png`).
+ Para especificar a versão do objeto Amazon S3 IDs, separe o caminho do objeto e o ID da versão usando uma vírgula.

  O exemplo a seguir mostra uma entrada de manifesto com dois campos. O primeiro campo inclui um objeto denominado `picture1.png`. O segundo campo é separado por vírgula e inclui um ID de versão de `111111`:

  ```
  picture1.png,111111
  ```
+ Use aspas nas seguintes situações:
  + Quando um caminho contiver caracteres especiais (vírgulas, aspas e fins de linha):

    `"filename,with,commas.txt"`
  + Quando um caminho se estender por várias linhas:

    ```
    "this
    is
    a
    filename.txt"
    ```
  + Quando um caminho incluir aspas:

    `filename""with""quotes.txt`

    Isso representa um caminho denominado `filename"with"quotes.txt`.

  Essas regras de aspas também se aplicam aos campos de ID de versão. Em geral, se um campo de manifesto tiver aspas, você deverá usar outras aspas como caractere de escape.
+ Separe cada entrada de arquivo ou objeto com uma nova linha.

  Você pode separar as linhas usando quebras de linha no estilo do Linux (alimentação de linha ou retorno de carro) ou do Windows (retorno de carro seguido por uma alimentação de linha).
+ Salve o manifesto (por exemplo, `my-manifest.csv` ou `my-manifest.txt`).
+ Faça upload do manifesto em um bucket do S3 que [DataSync possa ser acessado](#transferring-with-manifest-access).

  Esse bucket não precisa estar na mesma conta Região da AWS ou na qual você está usando DataSync.

------
#### [ Don't ]
+ Especifique apenas um diretório ou uma pasta com a intenção de transferir todo o seu conteúdo.

  Um manifesto pode incluir somente caminhos completos para os arquivos ou os objetos que você deseja transferir. Se você configurar o local de origem para usar um caminho de montagem, pasta, diretório ou prefixo específico, não precisará incluí-lo em seu manifesto.
+ Especifique um caminho de arquivo ou objeto que exceda 4.096 caracteres.
+ Especifique um caminho de arquivo, caminho de objeto ou ID de versão de objeto Amazon S3 que exceda 1.024 bytes.
+ Especifique caminhos duplicados de arquivos ou objetos.
+ Inclua um ID de versão do objeto se o local de origem não for um bucket do S3.
+ Inclua mais de dois campos em uma entrada de manifesto.

  Uma entrada só pode incluir um caminho de arquivo ou objeto e (se aplicável) um ID de versão de objeto Amazon S3.
+ Inclua caracteres que não estejam em conformidade com a codificação UTF-8.
+ Inclua espaços não intencionais em seus campos de entrada fora das aspas.

------

### Exemplos de manifesto
<a name="manifest-examples"></a>

Use esses exemplos para ajudá-lo a criar um manifesto que funcione com DataSync o. 

**Manifesto com caminhos completos de arquivos ou objetos**  
O exemplo a seguir mostra um manifesto com caminhos completos dos arquivos ou objetos para transferir.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**Manifesto somente com chaves de objeto**  
O exemplo a seguir mostra um manifesto com objetos para transferir de um local de origem do Amazon S3. Como o [local é configurado](create-s3-location.md#create-s3-location-how-to) com o prefixo `photos`, apenas as chaves do objeto são especificadas.  

```
picture1.png
picture2.png
picture3.png
```

**Manifesto com caminhos e versão do objeto IDs**  
As duas primeiras entradas no exemplo de manifesto a seguir incluem as versões específicas de objetos do Amazon S3 a serem transferidas.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**Manifesto com caracteres UTF-8**  
O exemplo a seguir mostra um manifesto com arquivos que incluem caracteres UTF-8.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## Fornecendo DataSync acesso ao seu manifesto
<a name="transferring-with-manifest-access"></a>

Você precisa de uma função AWS Identity and Access Management (IAM) que dê DataSync acesso ao seu manifesto em seu bucket do S3. Esse perfil inclui as seguintes permissões:
+ `s3:GetObject`
+ `s3:GetObjectVersion`

Você pode gerar essa função automaticamente no DataSync console ou criar a função você mesmo.

**nota**  
Se seu manifesto estiver em um outro Conta da AWS, você deverá criar essa função manualmente.

### Criação automática de um perfil do IAM
<a name="creating-manfiest-role-automatically"></a>

Ao criar ou iniciar uma tarefa de transferência no console, DataSync pode criar uma função do IAM para você com `s3:GetObject` as `s3:GetObjectVersion` permissões necessárias para acessar seu manifesto.

**Permissões necessárias para criar automaticamente o perfil**  
Para criar automaticamente a função, certifique-se de que a função que você está usando para acessar o DataSync console tenha as seguintes permissões:  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### Criação do perfil do IAM (mesma conta)
<a name="creating-manfiest-role-automatically-same-account"></a>

Você pode criar manualmente a função do IAM que DataSync precisa acessar seu manifesto. As instruções a seguir pressupõem que você esteja no mesmo Conta da AWS local em que usa DataSync e que o bucket S3 do seu manifesto esteja localizado. 

1. Abra o console do IAM em [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. No painel de navegação esquerdo, em **Gerenciamento de acesso**, escolha **Perfis** e, em seguida, escolha **Criar perfil**.

1. Na página **Selecionar entidade confiável**, para **Tipo de entidade confiável**, escolha **AWS service (Serviço da AWS)**.

1. **Em Caso de uso**, escolha **DataSync**na lista suspensa e selecione. **DataSync** Escolha **Próximo**.

1. Na página **Adicionar permissões**, escolha **Próximo**. Forneça um nome ao perfil e escolha **Criar perfil**.

1. Na página **Perfis**, procure o perfil que você acabou de criar e escolha seu nome.

1. Na página do perfil, escolha a guia **Permissões**. Selecione **Adicionar permissões** e, em seguida, **Criar política em linha**.

1. Escolha a guia **JSON** e cole o seguinte exemplo de política no editor de políticas:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. No exemplo de política que você acabou de colar, substitua os seguintes valores pelos seus:

   1. Substitua `amzn-s3-demo-bucket` pelo nome do bucket do S3 que está hospedando o manifesto.

   1. Substitua `my-manifest.csv` pelo nome do arquivo do manifesto.

1. Escolha **Próximo**. Digite um nome para a política e escolha **Criar política**.

1. (Recomendado) Para evitar o [problema “confused deputy” entre serviços](cross-service-confused-deputy-prevention.md), faça o seguinte:

   1. Na página Detalhes do perfil, escolha a guia **Relações de confiança**. Escolha **Editar política de confiança**.

   1. Atualize a política de confiança usando o exemplo a seguir, que inclui as chaves de contexto de condição global `aws:SourceArn` e `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + Substitua cada instância `account-id` pelo Conta da AWS ID em que você está usando DataSync.
      + `region`Substitua pelo Região da AWS local em que você está usando DataSync.

   1. Escolha **Atualizar política**.

Você criou uma função do IAM que permite DataSync acessar seu manifesto. Especifique esse perfil ao [criar](#manifest-creating-task) ou [iniciar](#manifest-starting-task) a tarefa.

### Criação do perfil do IAM (outra conta)
<a name="creating-manfiest-role-automatically-different-account"></a>

Se seu manifesto estiver em um bucket do S3 que pertença a outro Conta da AWS, você deverá criar manualmente a função do IAM DataSync usada para acessar o manifesto. Em seguida, no Conta da AWS local em que seu manifesto está localizado, você precisa incluir a função na política de bucket do S3.

#### Criar a função
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. Abra o console do IAM em [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. No painel de navegação esquerdo, em **Gerenciamento de acesso**, escolha **Perfis** e, em seguida, escolha **Criar perfil**.

1. Na página **Selecionar entidade confiável**, para **Tipo de entidade confiável**, escolha **AWS service (Serviço da AWS)**.

1. **Em Caso de uso**, escolha **DataSync**na lista suspensa e selecione. **DataSync** Escolha **Próximo**.

1. Na página **Adicionar permissões**, escolha **Próximo**. Forneça um nome ao perfil e escolha **Criar perfil**.

1. Na página **Perfis**, procure o perfil que você acabou de criar e escolha seu nome.

1. Na página do perfil, escolha a guia **Permissões**. Selecione **Adicionar permissões** e, em seguida, **Criar política em linha**.

1. Escolha a guia **JSON** e cole o seguinte exemplo de política no editor de políticas:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. No exemplo de política que você acabou de colar, substitua os seguintes valores pelos seus:

   1. Substitua `amzn-s3-demo-bucket` pelo nome do bucket do S3 que está hospedando o manifesto.

   1. Substitua `my-manifest.csv` pelo nome do arquivo do manifesto.

1. Escolha **Próximo**. Digite um nome para a política e escolha **Criar política**.

1. (Recomendado) Para evitar o [problema “confused deputy” entre serviços](cross-service-confused-deputy-prevention.md), faça o seguinte:

   1. Na página Detalhes do perfil, escolha a guia **Relações de confiança**. Escolha **Editar política de confiança**.

   1. Atualize a política de confiança usando o exemplo a seguir, que inclui as chaves de contexto de condição global `aws:SourceArn` e `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + Substitua cada instância do `account-id` pelo Conta da AWS ID em que você está usando DataSync.
      + `region`Substitua pelo Região da AWS local em que você está usando DataSync.

   1. Escolha **Atualizar política**.

Você criou o perfil do IAM que pode incluir na política de bucket do S3.

#### Atualização da política de bucket do S3 com o perfil
<a name="creating-manfiest-role-automatically-different-account-2"></a>

Depois de criar a função do IAM, você deve adicioná-la à política de bucket do S3 no outro Conta da AWS local em que seu manifesto está localizado.

1. No Console de gerenciamento da AWS, mude para a conta com o bucket S3 do seu manifesto.

1. Abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na página do perfil, escolha a guia **Permissões**.

1. Em **Política de bucket**, escolha **Editar** e faça o seguinte para modificar sua política de bucket do S3:

   1. Atualize o que está no editor para incluir as seguintes declarações de política:

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. `account-id`Substitua pelo Conta da AWS ID da conta DataSync com a qual você está usando.

   1. `datasync-role`Substitua pela função do IAM que você acabou de criar e que DataSync permite acessar seu manifesto.

   1. Substitua `amzn-s3-demo-bucket` pelo nome do bucket do S3 que está hospedando o manifesto na outra Conta da AWS.

1. Escolha **Salvar alterações**.

Você criou uma função do IAM que permite DataSync acessar seu manifesto na outra conta. Especifique esse perfil ao [criar](#manifest-creating-task) ou [iniciar](#manifest-starting-task) a tarefa.

## Especificação do manifesto ao criar uma tarefa
<a name="manifest-creating-task"></a>

Você pode especificar o manifesto que DataSync deseja usar ao criar uma tarefa.

### Usando o DataSync console
<a name="manifest-creating-task-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, escolha **Tarefas** e depois escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Em **Conteúdo a ser varrido**, escolha **Arquivos, objetos e pastas específicos** e selecione **Usando um manifesto**.

1. Em **URI do S3**, escolha seu manifesto hospedado em um bucket do S3.

   Outra opção é inserir o URI (por exemplo, `s3://bucket/prefix/my-manifest.csv`).

1. Em **Versão do objeto**, escolha a versão do manifesto que você DataSync deseja usar.

   Por padrão, DataSync usa a versão mais recente do objeto.

1. Em **Perfil de acesso ao manifesto**, faça uma das seguintes alternativas:
   + Escolha **Autogenerate** DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar seu manifesto em seu bucket do S3.
   + Escolha um perfil do IAM existente que possa acessar o manifesto.

   Para obter mais informações, consulte [Fornecendo DataSync acesso ao seu manifesto](#transferring-with-manifest-access).

1. Defina todas as outras configurações de tarefa necessárias e escolha **Avançar**.

1. Escolha **Criar tarefa**.

### Usando o AWS CLI
<a name="manifest-creating-task-cli"></a>

1. Copie o seguinte comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. No parâmetro `--source-location-arn`, especifique o nome do recurso da Amazon (ARN) do local de onde você está transferindo os dados.

1. No parâmetro `--destination-location-arn`, especifique o ARN do local para onde você está transferindo os dados.

1. No parâmetro `--manifest-config` faça o seguinte:
   + `ManifestObjectPath`: especifique a chave de objeto do S3 do manifesto.
   + `BucketAccessRoleArn`— Especifique a função do IAM que permite DataSync acessar seu manifesto em seu bucket do S3.

     Para obter mais informações, consulte [Fornecendo DataSync acesso ao seu manifesto](#transferring-with-manifest-access).
   + `S3BucketArn`: especifique o ARN do bucket do S3 que está hospedando o manifesto.
   + `ManifestObjectVersionId`— Especifique a versão do manifesto que você DataSync deseja usar.

     Por padrão, DataSync usa a versão mais recente do objeto.

1. Execute o comando `create-task` para criar sua tarefa.

Quando tudo estiver pronto, você poderá [iniciar a tarefa de transferência](run-task.md).

## Especificação do manifesto ao iniciar uma tarefa
<a name="manifest-starting-task"></a>

Você pode especificar o manifesto que DataSync deseja usar ao executar uma tarefa.

### Usando o DataSync console
<a name="manifest-starting-task-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação da esquerda, escolha **Tarefas** e depois a tarefa que você deseja iniciar.

1. Na página de visão geral da tarefa, escolha **Iniciar** e depois **Iniciar com opções de substituição**.

1. Em **Conteúdo a ser varrido**, escolha **Arquivos, objetos e pastas específicas** e selecione **Usando um manifesto**.

1. Em **URI do S3**, escolha seu manifesto hospedado em um bucket do S3.

   Outra opção é inserir o URI (por exemplo, `s3://bucket/prefix/my-manifest.csv`).

1. Em **Versão do objeto**, escolha a versão do manifesto que você DataSync deseja usar.

   Por padrão, DataSync usa a versão mais recente do objeto.

1. Em **Perfil de acesso ao manifesto**, faça uma das seguintes alternativas:
   + Escolha **Autogenerate** DataSync para criar automaticamente uma função do IAM para acessar seu manifesto em seu bucket do S3.
   + Escolha um perfil do IAM existente que possa acessar o manifesto.

   Para obter mais informações, consulte [Fornecendo DataSync acesso ao seu manifesto](#transferring-with-manifest-access).

1. Escolha **Iniciar** para começar a transferência.

### Usando o AWS CLI
<a name="manifest-starting-task-cli"></a>

1. Copie o seguinte comando `start-task-execution`:

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. No parâmetro `--task-arn`, especifique o nome do recurso da Amazon (ARN) da tarefa que você está iniciando.

1. No parâmetro `--manifest-config` faça o seguinte:
   + `ManifestObjectPath`: especifique a chave de objeto do S3 do manifesto.
   + `BucketAccessRoleArn`— Especifique a função do IAM que permite DataSync acessar seu manifesto em seu bucket do S3.

     Para obter mais informações, consulte [Fornecendo DataSync acesso ao seu manifesto](#transferring-with-manifest-access).
   + `S3BucketArn`: especifique o ARN do bucket do S3 que está hospedando o manifesto.
   + `ManifestObjectVersionId`— Especifique a versão do manifesto que você DataSync deseja usar.

     Por padrão, DataSync usa a versão mais recente do objeto.

1. Execute o comando `start-task-execution` para iniciar a transferência.

## Limitações
<a name="transferring-with-manifest-limitations"></a>
+ Você não pode usar um manifesto junto com [filtros](filtering.md).
+ Você não pode especificar apenas um diretório ou uma pasta com a intenção de transferir todo o seu conteúdo. Para essas situações, considere usar um [filtro de inclusão](filtering.md) em vez de um manifesto.
+ Você não pode usar a opção de tarefa **Manter arquivos excluídos** (`PreserveDeletedFiles`na [API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)) para [manter arquivos ou objetos no destino que não estejam na origem](configure-metadata.md). DataSync transfere apenas o que está listado no seu manifesto e não exclui nada no destino.

## Solução de problemas
<a name="manifests-troubleshooting"></a>

**Erros relacionados a `HeadObject` ou `GetObjectTagging`**  
Se você estiver transferindo objetos com uma versão específica IDs de um bucket do S3, talvez veja um erro relacionado a `HeadObject` ou. `GetObjectTagging` Por exemplo, aqui está um erro relacionado a `GetObjectTagging`:

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Se você ver algum desses erros, valide se a função do IAM DataSync usada para acessar seu local de origem do S3 tem as seguintes permissões:
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Se você precisar atualizar o perfil com essas permissões, consulte [Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3](create-s3-location.md#create-role-manually).

**Erro: `ManifestFileDoesNotExist`**  
Esse erro indica que um arquivo no manifesto não foi encontrado na origem. Analise as [diretrizes](#transferring-with-manifest-guidelines) para criar um manifesto.

## Próximas etapas
<a name="manifests-next-steps"></a>

Se ainda não o fez, [inicie a tarefa](run-task.md). Do contrário, [monitore as atividades da tarefa](monitoring-overview.md).

# Transferência de arquivos, objetos e pastas específicos usando filtros
<a name="filtering"></a>

AWS DataSync permite aplicar filtros para incluir ou excluir dados do local de origem em uma transferência. Por exemplo, se você não quiser transferir arquivos temporários que terminem com `.tmp`, poderá criar um filtro de exclusão para que esses arquivos não vão para ao local de destino.

Você pode usar uma combinação de filtros de exclusão e inclusão na mesma tarefa de transferência. Se você modificar os filtros de uma tarefa, essas alterações serão aplicadas a próxima vez que você executar a tarefa.

## Filtrar termos, definições e sintaxe
<a name="filter-overview"></a>

Familiarize-se com os conceitos relacionados à DataSync filtragem:

**Filtro **  
A string completa que representa um filtro específico (por exemplo, `*.tmp``|``*.temp` ou `/folderA|/folderB`).   
Filtros são compostos por padrões delimitados por uma barra vertical (\$1). Você não precisa de um delimitador ao adicionar padrões no DataSync console porque adiciona cada padrão separadamente.  
Os filtros diferenciam maiúsculas de minúsculas. Por exemplo, o filtro `/folderA` não corresponderá a `/FolderA`.

**Padrão**  
Um padrão dentro de um filtro. Por exemplo, `*.tmp` é um padrão que faz parte do filtro `*.tmp``|``*.temp`. Se o filtro tiver vários padrões, você delimitará cada padrão usando uma barra vertical (\$1).

**Pastas**  
+ Todos os filtros se referem ao caminho do local de origem. Por exemplo, suponha que você especifica `/my_source/` como o caminho de origem ao criar a tarefa e o local de origem e especifica o filtro de inclusão `/transfer_this/`. Nesse caso, DataSync transfere somente o diretório `/my_source/transfer_this/` e seu conteúdo.
+ Para especificar uma pasta diretamente sob o local de origem, inclua uma barra (/) na frente do nome da pasta. No exemplo anterior, o padrão usa `/transfer_this`, e não `transfer_this`.
+ DataSync interpreta os padrões a seguir da mesma forma e combina a pasta e seu conteúdo.

  `/dir` 

  `/dir/`
+ Quando você está transferindo dados de ou para um bucket do Amazon S3 DataSync, trata `/` o caractere na chave do objeto como o equivalente a uma pasta em um sistema de arquivos.

**Caracteres especiais**  
Veja a seguir caracteres especiais para usar com a filtragem.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/filtering.html)

## Exemplo de filtros
<a name="sample-filters"></a>

Os exemplos a seguir mostram filtros comuns com os quais você pode usar DataSync.

**nota**  
Há limites para o número de caracteres que você pode usar em um filtro. Para obter mais informações, consulte [Cotas do DataSync](datasync-limits.md#task-hard-limits).

**Excluir algumas pastas do local de origem**  
Em alguns casos, você poderá querer a exclusão de pastas no seu local de origem para não copiá-las para o seu local de destino. Por exemplo, se você tiver work-in-progress pastas temporárias, poderá usar algo como o filtro a seguir:

`*/.temp`

Para excluir pastas com conteúdo semelhante (como `/reports2021` e `/reports2022)`), você pode usar um filtro de exclusão como o seguinte:

`/reports*`

Para excluir pastas em qualquer nível da hierarquia de arquivos, você pode usar um filtro de exclusão, como o que segue. 

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

Para excluir pastas no nível superior do local de origem, você pode usar um filtro de exclusão, como o que segue. 

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**Inclua apenas um subconjunto das pastas do local de origem**  
Em alguns casos, seu local de origem pode ser um grande compartilhamento e você deseja transferir um subconjunto das pastas da raiz. Para incluir pastas específicas, inicie uma execução de tarefa com um filtro de inclusão, como o seguinte.

`/folder-to-transfer/*`

**Excluir tipos de arquivo específicos**  
Para excluir determinados tipos de arquivo da transferência, crie uma execução de tarefa com um filtro de exclusão, como `*.temp`.

**Transferir arquivos individuais especificados**  
Para transferir uma lista de arquivos individuais, inicie uma execução de tarefa com um filtro de inclusão, como o seguinte: “`/folder/subfolder/file1.txt`\$1`/folder/subfolder/file2.txt`\$1`/folder/subfolder/file2.txt`”

## Criação de filtros de inclusão
<a name="include-filters"></a>

Os filtros de inclusão definem os arquivos, objetos e pastas que você DataSync deseja transferir. Você pode configurar filtros de inclusão ao criar, editar ou iniciar uma tarefa.

DataSync verifica e transfere somente arquivos e pastas que correspondam aos filtros de inclusão. Por exemplo, para incluir um subconjunto das suas pastas de origem, você pode especificar `/important_folder_1`\$1`/important_folder_2`. 

**nota**  
Atualmente, os filtros de inclusão oferecem suporte ao caractere (\$1) apenas como o caractere mais à direita em um padrão. Por exemplo, `/documents*`\$1`/code*` é aceito, mas `*.txt` não.

### Usando o DataSync console
<a name="include-filters-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, escolha **Tarefas** e depois escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Em **Conteúdo a ser varrido**, escolha **Arquivos, objetos e pastas específicos** e selecione **Usando filtros**.

1. Em **Inclui**, insira seu filtro (por exemplo, `/important_folders` para incluir um diretório importante) e escolha **Adicionar padrão**.

1. Adicione outros filtros de inclusão conforme necessário. 

### Usando o AWS CLI
<a name="include-filters-cli"></a>

Ao usar o AWS CLI, você deve usar aspas simples (`'`) ao redor do filtro e um \$1 (pipe) como delimitador se você tiver mais de um filtro.

O exemplo a seguir especifica dois filtros de inclusão `/important_folder1` e `/important_folder2` ao executar o comando `create-task`.

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## Criação de filtros de exclusão
<a name="exclude-filters"></a>

Os filtros de exclusão definem os arquivos, objetos e pastas em seu local de origem que você não DataSync deseja transferir. Você pode configurar estes filtros ao criar, editar ou iniciar uma tarefa.

**Topics**
+ [Dados excluídos por padrão](#directories-ignored-during-transfers)

### Dados excluídos por padrão
<a name="directories-ignored-during-transfers"></a>

DataSync exclui automaticamente alguns dados da transferência:
+ `.snapshot`— DataSync ignora qualquer caminho que termine com`.snapshot`, que normalmente é usado para point-in-time capturas instantâneas dos arquivos ou diretórios de um sistema de armazenamento.
+ `/.aws-datasync`e `/.awssync` — DataSync cria essas pastas em sua localização para ajudar a facilitar sua transferência.
+ `/.zfs`— Você pode ver essa pasta com os locais da Amazon FSx for OpenZFS.

### Usando o DataSync console
<a name="adding-exclude-filters"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, escolha **Tarefas** e depois escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Em **Exclusões**, insira seu filtro (por exemplo, `*/temp` para excluir pastas temporárias) e escolha **Adicionar padrão**.

1. Adicione outros filtros de exclusão conforme necessário. 

1. Se necessário, adicione [filtros de inclusão](#include-filters).

### Usando o AWS CLI
<a name="adding-exclude-filters-cli"></a>

Ao usar o AWS CLI, você deve usar aspas simples (`'`) ao redor do filtro e um \$1 (pipe) como delimitador se você tiver mais de um filtro. 

O exemplo a seguir especifica dois filtros de exclusão `*/temp` e `*/tmp` ao executar o comando `create-task`.

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# Entendendo como DataSync manipula metadados de arquivos e objetos
<a name="metadata-copied"></a>

AWS DataSync pode preservar seus metadados de arquivo ou objeto durante uma transferência de dados. A forma como seus metadados são copiados depende dos locais de transferência e se esses locais usam tipos semelhantes de metadados.

## Metadados no nível de sistema
<a name="metadata-copied-system-level"></a>

Em geral, DataSync não copia metadados no nível do sistema. Por exemplo, ao transferir a partir de um servidor de arquivos SMB, as permissões que você configurou no nível do sistema de arquivos não são copiadas para o sistema de armazenamento de destino.

Há exceções. Ao transferir entre o Amazon S3 e outro armazenamento de objetos DataSync , copia [alguns metadados de objetos definidos pelo sistema](#metadata-copied-between-object-s3).

## Metadados copiados nas transferências do Amazon S3
<a name="metadata-copied-amazon-s3"></a>

As tabelas a seguir descrevem quais metadados DataSync podem ser copiados quando uma transferência envolve uma localização do Amazon S3.

**Topics**
+ [Para o Amazon S3](#metadata-copied-to-s3)
+ [Entre o Amazon S3 e outros armazenamentos de objetos](#metadata-copied-between-object-s3)
+ [Entre o Amazon S3 e o HDFS](#metadata-copied-between-hdfs-s3)

### Para o Amazon S3
<a name="metadata-copied-to-s3"></a>


| Ao copiar a partir de um desses locais | Para este local | DataSync pode copiar | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  O seguinte como metadados do usuário do Amazon S3: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html) Os metadados de arquivo armazenados nos metadados do usuário do Amazon S3 são interoperáveis com compartilhamentos NFS nos gateways de arquivo usando AWS Storage Gateway. Um gateway de arquivos permite o acesso de baixa latência das redes locais aos dados que foram copiados para o Amazon S3 pelo. DataSync Esses metadados também são interoperáveis com FSx o for Lustre. Quando DataSync copia objetos que contêm esses metadados de volta para um servidor NFS, os metadados do arquivo são restaurados. Restaurar metadados exige conceder permissões elevadas para o servidor NFS. Para obter mais informações, consulte [Configurando AWS DataSync transferências com um servidor de arquivos NFS](create-nfs-location.md).  | 

### Entre o Amazon S3 e outros armazenamentos de objetos
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)

### Entre o Amazon S3 e o HDFS
<a name="metadata-copied-between-hdfs-s3"></a>


| Ao copiar entre esses locais | DataSync pode copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  | O seguinte como metadados do usuário do Amazon S3:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)O HDFS usa cadeias de caracteres para armazenar a propriedade de usuários e grupos de arquivos e pastas, em vez de identificadores numéricos, como e. UIDs GIDs | 

## Metadados copiados em transferências de NFS
<a name="metadata-copied-nfs"></a>

A tabela a seguir descreve quais metadados DataSync podem ser copiados entre locais que usam o Network File System (NFS).


| Ao copiar entre esses locais | DataSync pode copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  | 

## Metadados copiados em transferências de SMB
<a name="metadata-copied-smb"></a>

A tabela a seguir descreve quais metadados DataSync podem ser copiados entre locais que usam o Server Message Block (SMB).


| Ao copiar entre esses locais | DataSync pode copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  | 

## Metadados copiados em outros cenários de transferência
<a name="metadata-copied-different"></a>

DataSync trata os metadados das seguintes maneiras ao copiar entre esses sistemas de armazenamento (a maioria dos quais tem estruturas de metadados diferentes).

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)

## Compreender quando e como DataSync aplica os metadados POSIX padrão
<a name="POSIX-metadata"></a>

DataSync aplica metadados POSIX padrão nas seguintes situações:
+ Quando os locais de origem e destino da sua transferência não têm estruturas de metadados semelhantes
+ Quando não há metadados no local de origem

A tabela a seguir descreve como os metadados POSIX padrão são DataSync aplicados durante esses tipos de transferências:


| Fonte | Destination (Destino) | Permissões de arquivo | Permissões da pasta | UID | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 Nos casos em que os objetos não têm metadados que foram aplicados anteriormente por DataSync.

# Links e diretórios copiados por AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync trata links físicos, links simbólicos e diretórios de forma diferente, dependendo dos locais de armazenamento envolvidos na transferência.

## Links rígidos
<a name="special-files-copied-hard-links"></a>

Veja como DataSync lidar com links físicos em alguns cenários comuns de transferência:
+ **Ao transferir entre um servidor de arquivos NFS, FSx para Lustre, para OpenZFS, FSx FSx para ONTAP (usando NFS) e Amazon EFS,** os links físicos são preservados.
+ **Ao transferir para o Amazon S3**, cada arquivo subjacente referenciado por um link fixo é transferido apenas uma vez. Durante as transferências incrementais, objetos separados são criados no bucket do S3. Se um link físico não for alterado no Amazon S3, ele será restaurado corretamente quando transferido para um servidor de arquivos NFS, para Lustre FSx , para OpenZFS FSx FSx , para ONTAP (usando NFS) ou sistema de arquivos Amazon EFS.
+ **Ao transferir para o Microsoft Azure Blob Storage**, cada arquivo subjacente referenciado por um link fixo é transferido apenas uma vez. Durante as transferências incrementais, objetos separados são criados no armazenamento de blobs se houver novas referências na origem. Ao transferir deAzure Blob Storage, DataSync transfere links físicos como se fossem arquivos individuais.
+ **Ao transferir entre um servidor de arquivos SMB, FSx para o Windows File Server e FSx para o ONTAP (usando SMB)**, os links físicos não são suportados. Se DataSync encontrar links físicos nessas situações, a tarefa de transferência será concluída com um erro. Para saber mais, verifique seus CloudWatch registros.
+ **Ao transferir para o HDFS, os** links físicos não são suportados. CloudWatch os registros mostram esses links como ignorados.

## Links simbólicos
<a name="special-files-copied-symbolic-links"></a>

Veja como DataSync lidar com links simbólicos em alguns cenários comuns de transferência:
+ **Ao transferir entre um servidor de arquivos NFS, FSx para Lustre, para OpenZFS, FSx FSx para ONTAP (usando NFS) e Amazon EFS,** os links simbólicos são preservados.
+ **Ao transferir para o Amazon S3**, o caminho de destino do link é armazenado no objeto do Amazon S3. O link é restaurado corretamente quando transferido para um servidor de arquivos NFS, FSx para Lustre, para OpenZFS, FSx FSx para ONTAP ou sistema de arquivos Amazon EFS.
+ **Ao transferir para Azure Blob Storage**, links simbólicos não são suportados. CloudWatch os registros mostram esses links como ignorados.
+ **Ao transferir entre um servidor de arquivos SMB, FSx para o Windows File Server e FSx para o ONTAP (usando SMB)**, links simbólicos não são suportados. DataSync não transfere um link simbólico em si, mas sim um arquivo referenciado pelo link simbólico. Para reconhecer arquivos duplicados e desduplicá-los com links simbólicos, você deve configurar a desduplicação no sistema de arquivos de destino.
+ **Ao transferir para o HDFS, os** links simbólicos não são suportados. CloudWatch os registros mostram esses links como ignorados.

## Diretórios
<a name="special-files-copied-directories"></a>

Em geral, DataSync preserva os diretórios ao transferir entre sistemas de armazenamento. Esse não é o caso nas seguintes situações:
+ **Ao transferir para o Amazon S3**, os diretórios são representados como objetos vazios que têm prefixos e terminam com uma barra (`/`).
+ **Ao transferir para o Azure Blob Storage sem um namespace hierárquico**, não existem diretórios. O que parece ser um diretório é apenas parte do nome de um objeto.

# Configuração de como lidar com arquivos, objetos e metadados
<a name="configure-metadata"></a>

Você pode configurar como AWS DataSync manipula seus arquivos, objetos e seus metadados associados ao transferir entre locais.

Por exemplo, com transferências recorrentes, talvez você queira substituir os arquivos no destino com alterações na origem para manter os locais sincronizados. Você pode copiar propriedades como permissões POSIX para arquivos e pastas, tags associadas a objetos e listas de controle de acesso (ACLs).

## Opções de modos de transferência
<a name="task-option-transfer-mode"></a>

Você pode configurar se DataSync transfere somente os dados (incluindo metadados) que foram alterados após uma cópia inicial ou todos os dados toda vez que você executa a tarefa. Se você estiver planejando transferências recorrentes, convém transferir somente o que mudou desde a execução anterior da tarefa.


| Opção no console | Opção na API | Description | 
| --- | --- | --- | 
|  **Transferir somente dados que foram alterados**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode) definido como `CHANGED`  | Após a transferência inicial completa, DataSync copia somente os dados e os metadados que diferem entre o local de origem e o local de destino. | 
|  **Transferir todos os dados**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode) definido como `ALL`  |  DataSync copia tudo na origem para o destino sem comparar as diferenças entre os locais.   | 

## Opções de tratamento de arquivos e objetos
<a name="task-option-file-object-handling"></a>

Você pode controlar alguns aspectos de como DataSync trata seus arquivos ou objetos no local de destino. Por exemplo, DataSync pode excluir arquivos no destino que não estão na origem.


| Opção no console | Opção na API | Description | 
| --- | --- | --- | 
|  **Manter arquivos excluídos**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  Especifica se DataSync mantém arquivos ou objetos no local de destino que não existem na origem. Se você configurar a tarefa para excluir objetos do bucket do Amazon S3, poderá incorrer em taxas de duração mínima de armazenamento para determinadas classes de armazenamento. Para obter informações detalhadas, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).  Você não pode configurar a tarefa para excluir dados no destino e também [transferir todos os dados](#task-option-transfer-mode). Quando você transfere todos os dados, DataSync não escaneia sua localização de destino e não sabe o que excluir.   | 
|  **Sobrescrever arquivos**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  Especifica se DataSync modifica os dados no local de destino quando os dados de origem ou os metadados são alterados. Se você não configurar a tarefa para sobrescrever dados, os dados de destino não serão sobrescritos, mesmo que os dados da origem sejam diferentes. Se a tarefa substituir objetos, você poderá estar sujeito a cobranças adicionais para determinadas classes de armazenamento (por exemplo, para recuperação ou exclusão antecipada). Para obter informações detalhadas, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).  | 

## Opções de tratamento de metadados
<a name="task-option-metadata-handling"></a>

DataSync pode preservar metadados de arquivos e objetos durante uma transferência. Os metadados que DataSync podem ser preservados dependem dos sistemas de armazenamento envolvidos e se esses sistemas usam uma estrutura de metadados semelhante.

Antes de configurar sua tarefa, certifique-se de entender como DataSync manipula [metadados](metadata-copied.md) e [arquivos especiais](special-files-copied.md) ao transferir entre seus locais de origem e destino.

**Importante**  
DataSync suporta transferências de e para determinados sistemas de armazenamento em nuvem de terceiros, como o Google Cloud Storage e o IBM Cloud Object Storage, que manipulam os metadados do sistema de uma forma que não é totalmente compatível com S3. Para essas transferências, DataSync tenta copiar atributos de metadados`ContentType`, como, `ContentEncoding``ContentLanguage`, e com `CacheControl` base no melhor esforço. Se o sistema de armazenamento de destino não aplicar esses atributos, eles serão ignorados durante a verificação da tarefa.


| Opção no console | Opção na API | Description | 
| --- | --- | --- | 
|  **Propriedade da cópia**  | [Gid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) e [Uid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Uid) |  Especifica se DataSync copia a propriedade do arquivo e da pasta POSIX, como o ID do grupo dos proprietários do arquivo e o ID do usuário do proprietário do arquivo.  | 
|  **Copiar permissões**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  Especifica se DataSync copia as permissões POSIX para arquivos e pastas da origem para o destino.  | 
| Copiar carimbos de data/hora | [Atime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime) e [Mtime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Mtime) |  Especifica se DataSync copia os metadados do timestamp da origem para o destino. Exigido quando você precisa executar a mesma tarefa mais de uma vez.  | 
| Copiar tags de objetos | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  Especifica se DataSync preserva as tags associadas aos seus objetos ao transferir entre sistemas de armazenamento de objetos.  | 
| Propriedade da cópia DACLs, e SACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) definido como OWNER\$1DACL\$1SACL |  DataSync copia o seguinte: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/configure-metadata.html)  | 
| Propriedade da cópia e DACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) definido como OWNER\$1DACL |  DataSync copia o seguinte: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/datasync/latest/userguide/configure-metadata.html) DataSync não copiará SACLs quando você escolher essa opção.  | 
| Não copie a propriedade ou ACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) definido como NONE |  DataSync não copia nenhum dado de propriedade ou permissão. Os objetos que DataSync gravam em seu local de destino pertencem ao usuário cujas credenciais são fornecidas DataSync para acessar o destino. As permissões do objeto de destino são determinadas com base nas permissões configuradas no servidor de destino.  | 

## Como configurar opções de tratamento de arquivos, objetos e metadados
<a name="configure-file-metadata-options"></a>

Você pode configurar como DataSync manipula arquivos, objetos e metadados ao criar, editar ou iniciar sua tarefa de transferência.

### Usando o DataSync console
<a name="configure-metadata-console"></a>

As instruções a seguir descrevem como configurar as opções de tratamento de arquivos, objetos e metadados ao criar uma tarefa.

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Para **Modo de transferência**, selecione uma das seguintes opções:
   + **Transferir somente dados que foram alterados**
   + **Transferir todos os dados**

   Para saber mais sobre essas opções, consulte [Opções de modos de transferência](#task-option-transfer-mode).

1. Selecione **Manter arquivos excluídos** se DataSync quiser manter arquivos ou objetos no local de destino que não existem na origem.

   Se você não escolher essa opção e sua tarefa excluir objetos de sue bucket Amazon S3, você poderá estar sujeito a cobranças mínimas de duração de armazenamento para determinadas classes de armazenamento. Para obter informações detalhadas, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).
**Atenção**  
Você não pode desmarcar essa opção e ativar a opção **Transferir todos os dados**. Quando você transfere todos os dados, DataSync não escaneia sua localização de destino e não sabe o que excluir.

1. Selecione **Substituir arquivos** se quiser DataSync modificar os dados no local de destino quando os dados de origem ou os metadados forem alterados.

   Se a tarefa substituir objetos, você poderá estar sujeito a cobranças adicionais para determinadas classes de armazenamento (por exemplo, para recuperação ou exclusão antecipada). Para obter informações detalhadas, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).

   Se você não escolher essa opção, os dados de destino não serão substituídos, mesmo que os dados de origem sejam diferentes.

1. Em **Opções de transferência**, selecione como você deseja DataSync lidar com os metadados. Para saber mais sobre essas opções, consulte [Opções de tratamento de metadados](#task-option-metadata-handling).
**Importante**  
As opções exibidas no console dependem dos locais de origem e destino da tarefa. Talvez seja necessário expandir **Configurações adicionais** para ver algumas dessas opções.
   + **Propriedade da cópia**
   + **Copiar permissões**
   + **Copiar carimbos de data/hora**
   + **Copiar tags de objetos**
   + **Propriedade da cópia DACLs, e SACLs**
   + **Propriedade da cópia e DACLs**
   + **Não copie a propriedade ou ACLs**

### Usando a DataSync API
<a name="configure-file-metadata-options-api"></a>

Você pode configurar as opções de tratamento de arquivos, objetos e metadados usando o parâmetro `Options` com qualquer uma das seguintes operações:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# Configurando como AWS DataSync verifica a integridade dos dados
<a name="configure-data-verification-options"></a>

Durante uma transferência, AWS DataSync usa a verificação de soma de verificação para verificar a integridade dos dados que você copia entre locais. Você também pode configurar DataSync para realizar uma verificação adicional ao final da transferência.

## Opções de verificação de dados
<a name="data-verification-options"></a>

Use as informações a seguir para ajudá-lo a decidir se e como você DataSync deseja realizar essas verificações adicionais.


| Opção do console | Opção de API | Description | 
| --- | --- | --- | 
|  **Verificar somente os dados transferidos** (recomendado)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) definido como `ONLY_FILES_TRANSFERRED`  |  DataSync calcula a soma de verificação dos dados transferidos (incluindo metadados) no local de origem. Ao final da transferência, DataSync compara essa soma de verificação com a soma de verificação calculada com base nos mesmos dados no destino. Recomendamos essa opção ao transferir para o S3 Glacier Flexible Retrieval ou para classes de armazenamento do S3 Glacier Deep Archive. Para obter mais informações, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).  | 
|  **Verificar todos os dados**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) definido como `POINT_IN_TIME_CONSISTENT`  |  Ao final da transferência, DataSync verifique toda a origem e o destino para verificar se os dois locais estão totalmente sincronizados.  Não é compatível quando a tarefa usa o [modo Avançado](choosing-task-mode.md).  Se você usa um [manifesto](transferring-with-manifest.md), DataSync apenas digitaliza e verifica o que está listado no manifesto. Você não usa essa opção ao transferir para o S3 Glacier Flexible Retrieval ou para classes de armazenamento do S3 Glacier Deep Archive. Para obter mais informações, consulte [Considerações sobre a classes de armazenamento com transferências do Amazon S3](create-s3-location.md#using-storage-classes).   | 
| Não verificar os dados após a transferência |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) definido como `NONE`  | DataSync realiza verificações de integridade de dados somente durante sua transferência. Ao contrário de outras opções, não há verificação adicional no fim da transferência. | 

## Como configurar a verificação de dados
<a name="configure-data-verification"></a>

Você pode configurar as opções de verificação de dados ao criar uma tarefa, atualizar uma tarefa ou iniciar a execução de uma tarefa.

### Usando o DataSync console
<a name="configure-data-verification-options-console"></a>

As instruções a seguir descrevem como configurar as opções de verificação dos dados ao criar uma tarefa.

**Para configurar a verificação de dados usando o console**

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Em **Verificação**, escolha uma das seguintes opções:
   + **Verificar somente os dados transferidos** (recomendado)
   + **Verificar todos os dados**
   + **Não verificar os dados após a transferência**

### Usando a DataSync API
<a name="configure-data-verification-options-api"></a>

Você pode configurar como DataSync verifica os dados usando o `VerifyMode` parâmetro com qualquer uma das seguintes operações:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# Definindo limites de largura de banda para sua tarefa AWS DataSync
<a name="configure-bandwidth"></a>

Você pode configurar limites de largura de banda de rede para sua AWS DataSync tarefa e cada uma de suas execuções.

## Limitar a largura de banda para uma tarefa
<a name="configure-bandwidth-create"></a>

Defina um limite de largura de banda ao criar, editar ou iniciar uma tarefa.

### Usando o DataSync console
<a name="configure-bandwidth-create-console"></a>

As instruções a seguir descrevem como configurar um limite de largura de banda para a tarefa ao criá-la.

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Em **Limite de largura de banda**, escolha uma das seguintes opções:
   + Selecione **Usar disponível** para usar toda a largura de banda da rede disponível para cada execução de tarefa.
   + Selecione **Definir limite de largura de banda (MiB/s)** e insira a largura de banda máxima que você deseja usar DataSync para cada execução de tarefa.

### Usando a DataSync API
<a name="configure-bandwidth-create-api"></a>

Você pode configurar o limite de largura de banda de uma tarefa usando o parâmetro `BytesPerSecond` com qualquer uma das seguintes operações:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## Controle de utilização da largura de banda para a execução de uma tarefa
<a name="adjust-bandwidth-throttling"></a>

Você pode modificar o limite de largura de banda para a execução de uma tarefa em execução ou em fila.

### Usando o DataSync console
<a name="adjust-bandwidth-throttling-console"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação, expanda **Transferência de dados** e, em seguida, escolha **Tarefas**.

1. Escolha a tarefa e, em seguida, selecione **Histórico** para ver as execuções da tarefa.

1. Escolha a execução da tarefa que você deseja modificar e, em seguida, escolha **Editar**.

1. Na caixa de diálogo Fazer upload, escolha uma das seguintes:
   + Selecione **Usar disponível** para usar toda a largura de banda da rede disponível para a execução da tarefa.
   + Selecione **Definir limite de largura de banda (MiB/s)** e insira a largura de banda máxima que você deseja usar DataSync para a execução da tarefa.

1. Escolha **Salvar alterações**.

   O novo limite de largura de banda entra em vigor em 60 segundos.

### Usando a DataSync API
<a name="adjust-bandwidth-throttling-api"></a>

Você pode modificar o limite de largura de banda para a execução de uma tarefa em execução ou em fila usando o `BytesPerSecond` parâmetro com a operação. [UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)

# Agendamento de quando a tarefa do AWS DataSync será executada
<a name="task-scheduling"></a>

Você pode configurar um agendamento de tarefa do AWS DataSync para transferir dados entre locais periodicamente.

## Como funciona o agendamento de tarefa do DataSync
<a name="how-task-scheduling-works"></a>

Uma tarefa agendada do DataSync é executada com a frequência que você configura, com intervalo mínimo de 1 hora. Você pode criar um agendamento de tarefas usando as expressões cron ou rate.

**Importante**  
Você não pode agendar uma tarefa para ser executada a intervalos de menos de 1 hora.

**Usar expressões cron**  
Use expressões cron para agendamentos de tarefas executadas em hora e dia específicos. Por exemplo, veja como você pode configurar o agendamento de uma tarefa na AWS CLI para ser executada todo domingo e toda quarta-feira às 12h UTC.  

```
cron(0 12 ? * SUN,WED *)
```

**Uso de expressões rate**  
Use expressões rate para agendamentos de tarefas que são executadas a intervalos regulares, como a cada 12 horas. Por exemplo, aqui está como você pode configurar o agendamento de uma tarefa na AWS CLI para ser executada a cada 12 horas:  

```
rate(12 hours)
```

**dica**  
Para obter mais informações sobre a sintaxe das expressões cron e rate, consulte o [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html).

## Criação de um agendamento de tarefa do DataSync
<a name="configure-task-schedule"></a>

Você pode agendar com que frequência a tarefa é executada usando o console do DataSync, a AWS CLI ou a API do DataSync.

### Utilizar o console do DataSync
<a name="configure-task-schedule-console"></a>

As instruções a seguir descrevem como configurar um agendamento ao criar uma tarefa. Você pode modificar o agendamento posteriormente quando editar a tarefa.

No console, algumas opções de agendamento permitem que você especifique a hora exata que a tarefa é executada (como diariamente às 22h30). Se você não incluir um horário para essas opções, a tarefa será executada no momento que você a criar (ou atualizar).

1. Abra o console do AWS DataSync em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte . [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md)

1. Em **Frequência**, escolha uma das seguintes opções:
   + Escolha **Não agendada** se não quiser agendar a execução periódica da tarefa.
   + Escolha **A cada hora** e depois escolha a quantos minutos da hora você deseja que a tarefa seja executada. 
   + Escolha **Diariamente** e insira a hora UTC que você deseja que a tarefa seja executada.
   + Escolha **Semanalmente** e o dia da semana, e insira a hora UTC que você deseja que a tarefa seja executada.
   + Escolha **Dias da semana**, escolha um dia ou dias específicos e insira a hora UTC que a tarefa deve ser executada no formato HH:MM.
   + Escolha **Personalizado** e selecione **Expressão Cron** ou **Expressão rate**. Insira o agendamento da tarefa com um intervalo mínimo de 1 hora. 

### Como usar o AWS CLI
<a name="configure-task-schedule-api"></a>

Você pode criar um agendamento para a tarefa do DataSync usando o parâmetro `--schedule` com o comando `create-task`, `update-task` ou `start-task-execution`.

As instruções a seguir descrevem como fazer isso com o comando `create-task`.

1. Copie o seguinte comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. No parâmetro `--source-location-arn`, especifique o nome do recurso da Amazon (ARN) do local de onde você está transferindo os dados.

1. No parâmetro `--destination-location-arn`, especifique o ARN do local para onde você está transferindo os dados.

1. No parâmetro `--schedule`, especifique uma expressão cron ou rate para o agendamento.

   No exemplo, a expressão cron `cron(0 12 ? * SUN,WED *)` define um agendamento de tarefa para execução todo domingo e toda quarta-feira às 12h UTC.

1. Execute o comando `create-task` para criar a tarefa com o agendamento.

## Pausa de um agendamento de tarefa do DataSync
<a name="pause-task-schedule"></a>

Pode haver situações em que você precise pausar o agendamento de tarefas do DataSync. Por exemplo, pode ser necessário desabilitar temporariamente uma transferência recorrente para corrigir um problema com a tarefa ou realizar a manutenção do sistema de armazenamento.

O DataSync pode desabilitar o agendamento da tarefa automaticamente pelos seguintes motivos:
+ Falhas recorrentes na tarefa com o mesmo erro.
+ Você [desabilita uma Região da AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) que a tarefa está usando.

### Utilizar o console do DataSync
<a name="pause-scheduled-task-console"></a>

1. Abra o console do AWS DataSync em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e selecione **Tarefas**.

1. Escolha a tarefa cujo agendamento você deseja pausar e escolha **Editar**.

1. Em **Agendamento**, desative **Habilitar agendamento**. Escolha **Salvar alterações**.

### Como usar o AWS CLI
<a name="pause-scheduled-task-cli"></a>

1. Copie o seguinte comando `update-task`:

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. No parâmetro `--task-arn`, especifique o ARN da tarefa cujo agendamento você deseja pausar.

1. No parâmetro `--schedule` faça o seguinte:
   + Em `ScheduleExpression`, especifique uma expressão cron ou rate para o agendamento.

     No exemplo, a expressão `cron(0 12 ? * SUN,WED *)` define o agendamento de uma tarefa para execução todo domingo e toda quarta-feira às 12h UTC.
   + Em `Status`, especifique `DISABLED` para pausar o agendamento da tarefa.

1. Execute o comando `update-task`.

1. Para retomar o agendamento, execute o mesmo comando `update-task` com `Status` definido como `ENABLED`.

## Verificação do status do agendamento de uma tarefa do DataSync
<a name="check-scheduled-task"></a>

Você pode ver se o agendamento da tarefa do DataSync está habilitado. 

### Utilizar o console do DataSync
<a name="check-scheduled-task-console"></a>

1. Abra o console do AWS DataSync em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e selecione **Tarefas**.

1. Na coluna **Agendamento**, verifique se o agendamento da tarefa está habilitado ou desabilitado.

### Como usar o AWS CLI
<a name="check-scheduled-task-cli"></a>

1. Copie o seguinte comando `describe-task`:

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. No parâmetro `--task-arn`, especifique o ARN da tarefa sobre a qual você deseja informações.

1. Execute o comando `describe-task`.

Você recebe uma resposta que fornece detalhes sobre a tarefa, incluindo seu agendamento. (O foco do exemplo a seguir é principalmente na configuração do agendamento de tarefa e não mostra uma resposta completa a `describe-task`.)

O exemplo mostra que o agendamento da tarefa foi desabilitado manualmente. Se o agendamento foi desabilitado pelo `SERVICE` DataSync, você verá uma mensagem de erro para `DisabledReason` para ajudar a entender por que a tarefa continua apresentando falhas. Para obter mais informações, consulte [Solução de AWS DataSync problemas](troubleshooting-datasync.md).

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# Marcando suas tarefas AWS DataSync
<a name="tagging-tasks"></a>

As *tags* são pares de valores-chave que ajudam você a gerenciar, filtrar e pesquisar seus AWS DataSync recursos. Você pode adicionar até 50 tags a cada DataSync tarefa e execução de tarefas.

Por exemplo, você pode criar uma tarefa para uma grande migração de dados e marcar a tarefa com a chave **Project** e o valor **Large Migration**. Para organizar ainda mais a migração, você pode marcar uma execução da tarefa com a chave **Transfer Date** e o valor **May 2021** (as execuções de tarefas subsequentes podem ser marcadas **June 2021**, **July 2021** e assim por diante).

## Marcando sua tarefa DataSync
<a name="tagging-tasks-console"></a>

Você pode marcar sua DataSync tarefa somente ao criar a tarefa.

### Usando o DataSync console
<a name="tagging-tasks-console-steps"></a>

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados**, escolha **Tarefas** e, em seguida, escolha **Criar tarefa**.

1. Configure os locais de origem e destino da sua tarefa.

   Para obter mais informações, consulte [Para onde posso transferir meus dados AWS DataSync?](working-with-locations.md).

1. Na página **Definir configurações**, escolha **Adicionar tag** para marcar a tarefa.

### Usando o AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. Copie o seguinte comando `create-task`:

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Especifique os seguintes parâmetros no comando:
   + `--source-location-arn`: especifique o nome do recurso da Amazon (ARN) do local de origem na transferência.
   + `--destination-location-arn`: especifique o ARN do local de destino na transferência.
   + `--tags`: especifique as tags que você deseja aplicar à tarefa.

     Para mais de uma tag, separe cada par de valores-chave com um espaço.

1. (Opcional) Especifique outros parâmetros que façam sentido para o cenário de transferência.

   Para obter uma lista de `--options`, consulte o comando [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html).

1. Execute o comando `create-task`.

   Você recebe uma resposta que mostra a tarefa que você acabou de criar.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Para ver as tags que você adicionou a essa tarefa, você pode usar o [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

## Marcando sua execução de DataSync tarefas
<a name="tagging-task-executions-console"></a>

Você pode marcar cada execução da sua DataSync tarefa.

Se sua tarefa já tiver tags, lembre-se do seguinte sobre o uso de tags com execuções de tarefas:
+ Se você iniciar sua tarefa com o console, as tags criadas pelo usuário serão aplicadas automaticamente à execução da tarefa. No entanto, as tags criadas pelo sistema que começam com `aws:` não são aplicadas.
+ Se você iniciar sua tarefa com a DataSync API ou AWS CLI, suas tags não serão aplicadas automaticamente à execução da tarefa.

### Usando o DataSync console
<a name="tagging-task-executions-console"></a>

Para adicionar, editar ou remover tags da execução de uma tarefa, você deve iniciar a tarefa com opções de substituição.

1. Abra o AWS DataSync console em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e selecione **Tarefas**.

1. Escolha a tarefa.

1. Escolha **Iniciar** e, em seguida, uma das seguintes opções: 
   + **Iniciar com padrões**: aplica todas as tags associadas à tarefa.
   + **Iniciar com opções de substituição**: permite adicionar, editar ou remover tags para a execução dessa tarefa específica.

### Usando o AWS CLI
<a name="tagging-task-executions-cli"></a>

1. Copie o seguinte comando `start-task-execution`:

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Especifique os seguintes parâmetros no comando:
   + `--task-arn`: especifique o ARN da tarefa que você deseja iniciar.
   + `--tags`: especifique as tags que você deseja aplicar a essa execução específica da tarefa.

     Para mais de uma tag, separe cada par de valores-chave com um espaço.

1. (Opcional) Especifique outros parâmetros que façam sentido para a sua situação.

   Para obter mais informações, consulte o comando [start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html).

1. Execute o comando `start-task-execution`.

   Você recebe uma resposta que mostra a execução da tarefa que você acabou de iniciar.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Para ver as tags que você adicionou a essa tarefa, você pode usar o [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

# Como iniciar uma tarefa para transferir dados
<a name="run-task"></a>

Depois de criar a tarefa de transferência de AWS DataSync, você pode começar a mover os dados. Cada execução de uma tarefa é chamada de *execução de tarefa*. Para obter informações sobre o que acontece durante a execução de uma tarefa, consulte [Como DataSync transfere arquivos, objetos e diretórios](how-datasync-transfer-works.md#transferring-files).

**Importante**  
Se você planeja transferir dados de ou para um local do Amazon S3, confira [como o DataSync pode afetar suas cobranças de solicitação do S3](create-s3-location.md#create-s3-location-s3-requests) e a [página de preços do DataSync](https://aws.amazon.com/datasync/pricing/) antes de começar.

## Iniciando sua tarefa
<a name="starting-task"></a>

Depois de criar sua tarefa, você pode começar a mover os dados imediatamente.

### Utilizar o console do DataSync
<a name="starting-task-console"></a>

1. Abra o console do AWS DataSync em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e selecione **Tarefas**.

1. Escolha a tarefa que você deseja executar.

   Certifique-se de que a tarefa tenha um status **Disponível**. Você também pode selecionar várias tarefas.

1. Escolha **Ações** e, em seguida, escolha uma das seguintes opções:
   + **Iniciar**: executa a tarefa (ou tarefas, se você selecionou mais de uma).
   + **Iniciar com opções de substituição**: permite que você modifique algumas das configurações da tarefa antes de começar a mover os dados. Quando estiver pronto, escolha **Iniciar**.

1. Escolha **Ver detalhes da execução** para ver detalhes sobre a execução da tarefa em execução.

### Como usar o AWS CLI
<a name="start-task-execution"></a>

Para iniciar a tarefa do DataSync, basta especificar o Nome do recurso da Amazon (ARN) da tarefa que você deseja executar. Veja um exemplo de comando `start-task-execution`:

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

O exemplo a seguir inicia uma tarefa com algumas configurações diferentes das configurações padrão da tarefa:

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

O comando retorna um ARN para a execução da sua tarefa semelhante ao exemplo a seguir:

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**nota**  
Cada agente pode executar uma única tarefa por vez.

### Utilizar a API do DataSync
<a name="starting-task-api"></a>

Você pode iniciar sua tarefa usando a operação [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html). Use a operação [DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html) para obter detalhes sobre a execução da tarefa em execução.

Depois de iniciada, você pode [verificar o status da execução da tarefa](#understand-task-execution-statuses) à medida que o DataSync copia os dados. Você também pode [limitar a largura de banda da execução da tarefa](configure-bandwidth.md#adjust-bandwidth-throttling), se necessário.

## Status de execução de tarefa
<a name="understand-task-execution-statuses"></a>

Ao iniciar uma tarefa do DataSync, você pode ver esses status. (Os [status da tarefa](create-task-how-to.md#understand-task-creation-statuses) são diferentes dos status de execução da tarefa.)


| Status do console | Status da API | Descrição | 
| --- | --- | --- | 
|  Enfileiramento  |  `QUEUED`  |  Outra tarefa está sendo executada usando o mesmo agente do DataSync. Para obter mais informações, consulte [Como saber quando a tarefa está na fila](#queue-task-execution).  | 
|  Launching  |  `LAUNCHING`  |  O DataSync está iniciando a execução da tarefa. Esse status geralmente desaparece rapidamente, mas pode levar até alguns minutos.  | 
| Iniciado | `LAUNCHED` | O DataSync iniciou a execução da tarefa. | 
|  Preparação  |  `PREPARING`  |  O DataSync está determinando quais dados transferir. A preparação pode levar apenas alguns minutos, algumas horas ou até mais, dependendo do número de arquivos, objetos ou diretórios em ambos os locais e de como você configura a tarefa. A forma como a preparação funciona também depende do modo da tarefa. Para obter mais informações, consulte [Como DataSync prepara sua transferência de dados](how-datasync-transfer-works.md#how-datasync-prepares).  | 
|  Em transferência  |  `TRANSFERRING`  |  O DataSync está executando a transferência de fato dos dados.  | 
|  Verificando  |  `VERIFYING`  |  O DataSync está verificando a integridade dos dados no final da transferência.  | 
|  Bem-sucedida  |  `SUCCESS`  |  A execução da tarefa foi bem-sucedida.  | 
|  Cancelando  |  `CANCELLING`  | A execução da tarefa está em processo de ser cancelada. | 
|  Erro  |  `ERROR`  |  Houve falha na execução da tarefa.  | 

## Como saber quando a tarefa está na fila
<a name="queue-task-execution"></a>

Ao executar várias tarefas (por exemplo, você está [transferindo um grande conjunto de dados](create-task-how-to.md#multiple-tasks-large-dataset)), o DataSync pode colocar as tarefas em fila para serem executadas em ordem (primeira a entrar, primeira a sair). Alguns exemplos de quando isso acontece:
+ Você executa tarefas diferentes que usam o mesmo agente do DataSync. Embora você possa usar o mesmo agente para várias tarefas, o agente só pode executar uma tarefa de cada vez.
+ A execução de uma tarefa está em andamento e você inicia execuções adicionais da mesma tarefa usando [filtros](filtering.md) ou [manifestos](transferring-with-manifest.md) diferentes.

Em cada exemplo, as tarefas na fila não começam até que a tarefa na frente delas termine.

## Cancelamento da execução da tarefa
<a name="cancel-running-task"></a>

 Você pode interromper qualquer tarefa do DataSync em execução ou em fila. 

**Para cancelar a execução de uma tarefa usando o console**

1. Abra o console AWS DataSync em [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. No painel de navegação esquerdo, expanda **Transferência de dados** e selecione **Tarefas**.

1. Selecione o **ID da tarefa** da tarefa em execução que você deseja monitorar.

   O status da tarefa deve ser **Em execução**.

1. Escolha **Histórico** para ver as execuções da tarefa.

1. Selecione a execução da tarefa que você deseja interromper e, em seguida, escolha **Parar**.

1. Na caixa de diálogo, escolha **Parar**.

Para cancelar uma tarefa em execução ou em fila usando a API DataSync, consulte [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html).

### Cancelamento automático de tarefas paralisadas
<a name="auto-cancel-stuck-tasks"></a>

Às vezes, a execução de uma tarefa do DataSync em execução pode ficar paralisada. 