

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Transférer vos données avec AWS DataSync
<a name="transferring-data-datasync"></a>

Avec AWS DataSync, vous pouvez transférer des données vers ou depuis un stockage sur site AWS, dans ou dans d'autres clouds.

La configuration d'un DataSync transfert implique généralement les étapes suivantes :

1. Déterminez si [votre transfert est pris DataSync en charge](working-with-locations.md).

1. Si [vous avez besoin d'un DataSync agent](do-i-need-datasync-agent.md) pour votre transfert, déployez et activez un agent le plus près possible de l'un de vos systèmes de stockage.

   Par exemple, si vous effectuez un transfert depuis un serveur de fichiers NFS (Network File System) sur site, déployez l'agent le plus près possible de ce serveur de fichiers.

1. Donnez DataSync accès à votre système de stockage.

   DataSync a besoin d'une autorisation pour lire ou écrire dans votre stockage (selon que votre stockage est un emplacement source ou de destination). Découvrez par exemple comment [fournir un DataSync accès aux serveurs de fichiers NFS](create-nfs-location.md#accessing-nfs).

1. [Connectez votre réseau](networking-datasync.md) pour le trafic entre votre système de stockage et DataSync.

1. Créez un emplacement pour votre système de stockage source à l'aide de la DataSync console ou de DataSync l'API. AWS CLI

   Découvrez par exemple comment [créer un emplacement NFS ou un emplacement](create-nfs-location.md#create-nfs-location-how-to) [Amazon S3](create-s3-location.md#create-s3-location-how-to).

1. Répétez les étapes 3 à 5 pour créer le lieu de destination de votre transfert.

1. [Créez et lancez une tâche de DataSync transfert](create-task-how-to.md) qui inclut vos emplacements source et de destination.

**Topics**
+ [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md)
+ [Transfert vers ou depuis le stockage sur site avec AWS DataSync](transferring-on-premises-storage.md)
+ [Transfert vers ou depuis un AWS espace de stockage avec AWS DataSync](transferring-aws-storage.md)
+ [Transfert vers ou depuis un autre stockage dans le cloud avec AWS DataSync](transferring-other-cloud-storage.md)
+ [Création d'une tâche pour le transfert de vos données](create-task-how-to.md)
+ [Lancer une tâche pour transférer vos données](run-task.md)

# Où puis-je transférer mes données AWS DataSync ?
<a name="working-with-locations"></a>

L'endroit où vous pouvez transférer vos données AWS DataSync dépend des facteurs suivants :
+ [Emplacements](how-datasync-transfer-works.md#sync-locations) d'origine et de destination de votre transfert
+ Si vos sites sont situés dans des lieux différents Comptes AWS
+ Si vos sites sont situés dans des lieux différents Régions AWS
+ Si vous utilisez le mode de base ou le mode amélioré

## Transferts pris en charge dans le même format Compte AWS
<a name="working-with-locations-same-account"></a>

DataSync prend en charge les transferts entre les ressources de stockage suivantes qui leur sont associées Compte AWS.


| Source | Destination | Vous avez besoin d'un agent ? | Mode tâche pris en charge | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Uniquement pour le mode de base  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Uniquement pour le mode de base  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 

## Transferts pris en charge entre Comptes AWS
<a name="working-with-locations-across-accounts"></a>

DataSync prend en charge certains transferts entre des ressources de stockage associées à des ressources différentes Comptes AWS.


| Source | Destination | Vous avez besoin d'un agent ? | Mode tâche pris en charge | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique, amélioré  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Non  |  Basique uniquement  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/working-with-locations.html)  |  Oui (lorsqu'il est utilisé comme NFS/SMB lieu)  |  Basique uniquement  | 

1 Configuré en tant qu'[emplacement NFS](create-nfs-location.md).

2 Configuré en tant qu'[emplacement SMB](create-smb-location.md).

3 Configuré en tant qu'emplacement NFS ou SMB.

## Transferts pris en charge dans le même format Région AWS
<a name="working-with-locations-same-region"></a>

Il n'y a aucune restriction lors du transfert de données au sein d'une même région Région AWS (y compris [les régions optionnelles](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)). Pour plus d'informations, consultez la section [Régions AWS prise en charge par DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html).

## Transferts pris en charge entre Régions AWS
<a name="working-with-locations-cross-regions"></a>

Notez les points suivants lors du transfert de données entre des supports [Régions AWS pris en charge par DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html) :
+ Lors du transfert entre différents services de AWS stockage Régions AWS, l'un des deux emplacements doit se trouver dans la région que vous utilisez DataSync.
+ Vous ne pouvez pas effectuer de transfert entre régions dotées d'un emplacement de stockage NFS, SMB, HDFS ou objet. Dans ces situations, vos deux points de transfert doivent se trouver dans la même région où vous [activez votre DataSync agent](activate-agent.md).
+ Avec AWS GovCloud (US) Regions, vous pouvez :
  + Transfert entre les régions AWS GovCloud (USA Est) et AWS GovCloud (USA Ouest).
  + Transfert entre une AWS GovCloud (US) région et une zone commerciale Région AWS, comme l'est des États-Unis (Virginie du Nord). Ce type de transfert nécessite un [agent](agent-requirements.md) lors du transfert entre les systèmes de FSx fichiers Amazon EFS ou Amazon.

**Important**  
Vous payez pour les données transférées entre Régions AWS. Ce transfert est facturé comme un transfert de données depuis la région source vers la région de destination. Pour plus d’informations, consultez [Tarification d’AWS DataSync](https://aws.amazon.com/datasync/pricing/).

## Déterminer si votre transfert nécessite un DataSync agent
<a name="datasync-transfer-requirements"></a>

Selon votre scénario de transfert, vous aurez peut-être besoin d'un DataSync agent. Pour de plus amples informations, veuillez consulter [Ai-je besoin d'un AWS DataSync agent ?](do-i-need-datasync-agent.md).

# Transfert vers ou depuis le stockage sur site avec AWS DataSync
<a name="transferring-on-premises-storage"></a>

Vous pouvez ainsi transférer des AWS DataSync fichiers et des objets entre un certain nombre de systèmes de stockage sur site ou autogérés et les services de AWS stockage suivants :
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Serveur FSx de fichiers Amazon pour Windows](create-fsx-location.md)
+ [Amazon FSx pour Lustre](create-lustre-location.md)
+ [Amazon FSx pour OpenZFS](create-openzfs-location.md)
+ [Amazon FSx pour NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [Configuration des AWS DataSync transferts avec un serveur de fichiers NFS](create-nfs-location.md)
+ [Configuration des AWS DataSync transferts avec un serveur de fichiers SMB](create-smb-location.md)
+ [Configuration des AWS DataSync transferts avec un cluster HDFS](create-hdfs-location.md)
+ [Configuration des DataSync transferts avec un système de stockage d'objets](create-object-location.md)

# Configuration des AWS DataSync transferts avec un serveur de fichiers NFS
<a name="create-nfs-location"></a>

Avec AWS DataSync, vous pouvez transférer des données entre votre serveur de fichiers NFS (Network File System) et les services AWS de stockage suivants. Les services de stockage pris en charge dépendent de votre mode de tâche, comme indiqué ci-dessous :


| Mode de base | Mode amélioré | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-nfs-location.html)  | 

Pour configurer ce type de transfert, vous devez créer un [emplacement](how-datasync-transfer-works.md#sync-locations) pour votre serveur de fichiers NFS. Vous pouvez utiliser cet emplacement comme source ou destination de transfert.

## Fournir un DataSync accès aux serveurs de fichiers NFS
<a name="accessing-nfs"></a>

Pour accéder DataSync à votre serveur de fichiers NFS, vous avez besoin d'un DataSync [agent](how-datasync-transfer-works.md#sync-agents). L'agent monte une exportation sur votre serveur de fichiers à l'aide du protocole NFS. Veillez à utiliser l'agent correspondant au mode de tâche souhaité.

**Topics**
+ [Configuration de votre exportation NFS](#accessing-nfs-configuring-export)
+ [Versions NFS prises en charge](#supported-nfs-versions)

### Configuration de votre exportation NFS
<a name="accessing-nfs-configuring-export"></a>

L'exportation requise pour DataSync votre transfert dépend du type d'emplacement source ou de destination de votre serveur de fichiers NFS et de la manière dont les autorisations de votre serveur de fichiers sont configurées.

Si votre serveur de fichiers est un emplacement source, DataSync il vous suffit de lire et de parcourir vos fichiers et dossiers. S'il s'agit d'un emplacement de destination, un accès root est DataSync nécessaire pour y écrire et définir la propriété, les autorisations et les autres métadonnées des fichiers et dossiers que vous copiez. Vous pouvez utiliser `no_root_squash` cette option pour autoriser l'accès root pour votre exportation.

Les exemples suivants décrivent comment configurer une exportation NFS donnant accès à DataSync.

**Lorsque votre serveur de fichiers NFS est un emplacement source (accès root)**  
Configurez votre exportation à l'aide de la commande suivante, qui fournit des autorisations en DataSync lecture seule (`ro`) et un accès root (`no_root_squash`) :

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**Lorsque votre serveur de fichiers NFS est un emplacement de destination**  
Configurez votre exportation à l'aide de la commande suivante, qui fournit des autorisations d' DataSyncécriture (`rw`) et un accès root (`no_root_squash`) :

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**Lorsque votre serveur de fichiers NFS est un emplacement source (pas d'accès root)**  
Configurez votre exportation à l'aide de la commande suivante, qui spécifie l'ID utilisateur (UID) POSIX (UID) et l'ID de groupe (GID) dont vous savez qu'ils fourniront des autorisations en DataSync lecture seule sur l'exportation :

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### Versions NFS prises en charge
<a name="supported-nfs-versions"></a>

Par défaut, DataSync utilise la version 4.1 de NFS. DataSync supporte également NFS 4.0 et 3.x.

## Configuration de votre réseau pour les transferts NFS
<a name="configure-network-nfs-location"></a>

Pour votre DataSync transfert, vous devez configurer le trafic pour quelques connexions réseau : 

1. Autorisez le trafic sur les ports suivants entre votre DataSync agent et votre serveur de fichiers NFS :
   + **Pour les versions NFS 4.1 et 4.0 — port** TCP 2049
   + **Pour NFS version 3.x** : ports TCP 111 et 2049

   Les autres clients NFS de votre réseau devraient être en mesure de monter l'exportation NFS que vous utilisez pour transférer des données. L'exportation doit également être accessible sans authentification Kerberos.

1. Configurez le trafic pour la [connexion de votre point de terminaison de service](datasync-network.md) (tel qu'un point de terminaison VPC, public ou FIPS).

1. Autorisez le trafic du DataSync service vers le [service AWS de stockage](datasync-network.md#storage-service-network-requirements) vers ou depuis lequel vous effectuez le transfert.

## Création de votre lieu de transfert NFS
<a name="create-nfs-location-how-to"></a>

Avant de commencer, notez les éléments suivants :
+ Vous avez besoin d'un serveur de fichiers NFS à partir duquel vous souhaitez transférer des données.
+ Vous avez besoin d'un DataSync agent capable [d'accéder à votre serveur de fichiers](#accessing-nfs).
+  DataSync ne prend pas en charge la copie des listes de contrôle d'accès de la version 4 de NFS (ACLs).

### Utilisation de la DataSync console
<a name="create-nfs-location-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type d'emplacement**, sélectionnez **Système de fichiers réseau (NFS).**

1. Pour les **agents**, choisissez l' DataSync agent qui peut se connecter à votre serveur de fichiers NFS.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour le **serveur NFS**, entrez le nom du système de noms de domaine (DNS) ou l'adresse IP du serveur de fichiers NFS auquel votre DataSync agent se connecte.

1. Dans le **champ Chemin de montage**, entrez le chemin d'exportation NFS que vous DataSync souhaitez monter.

   Ce chemin (ou un sous-répertoire du chemin) est l'endroit où les données sont DataSync transférées depuis ou vers. Pour de plus amples informations, veuillez consulter [Configuration de votre exportation NFS](#accessing-nfs-configuring-export).

1. (Facultatif) Développez **les paramètres supplémentaires** et choisissez une **version NFS** spécifique DataSync à utiliser lors de l'accès à votre serveur de fichiers.

   Pour de plus amples informations, veuillez consulter [Versions NFS prises en charge](#supported-nfs-versions).

1. (Facultatif) Choisissez **Ajouter une balise** pour étiqueter votre position NFS.

   Les *tags* sont des paires clé-valeur qui vous permettent de gérer, de filtrer et de rechercher vos emplacements. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-nfs-cli"></a>
+ Utilisez la commande suivante pour créer un emplacement NFS.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  Pour plus d'informations sur la création de l'emplacement, consultez[Fournir un DataSync accès aux serveurs de fichiers NFS](#accessing-nfs).

  DataSync choisit automatiquement la version NFS qu'il utilise pour lire à partir d'un emplacement NFS. Pour spécifier une version NFS, utilisez le paramètre `Version` facultatif dans l'opération d'API [NfsMountOptions](API_NfsMountOptions.md).

Cette commande renvoie l'Amazon Resource Name (ARN) de l'emplacement NFS, similaire à l'ARN indiqué ci-après.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

Pour vérifier que le répertoire peut être monté, vous pouvez vous connecter à n'importe quel ordinateur possédant la même configuration réseau que votre agent et exécuter la commande suivante. 

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

Voici un exemple de la commande.

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# Configuration des AWS DataSync transferts avec un serveur de fichiers SMB
<a name="create-smb-location"></a>

Avec AWS DataSync, vous pouvez transférer des données entre votre serveur de fichiers SMB (Server Message Block) et les services AWS de stockage suivants. Les services de stockage pris en charge dépendent de votre mode de tâche, comme indiqué ci-dessous :


| Mode de base | Mode amélioré | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-smb-location.html)  | 

Pour configurer ce type de transfert, vous devez créer un [emplacement](how-datasync-transfer-works.md#sync-locations) pour votre serveur de fichiers SMB. Vous pouvez l'utiliser comme source ou destination de transfert. Veillez à utiliser l'agent correspondant au mode de tâche souhaité.

## Fournir un DataSync accès aux serveurs de fichiers des PME
<a name="configuring-smb"></a>

DataSync se connecte à votre serveur de fichiers via le protocole SMB et peut s'authentifier avec NTLM ou Kerberos.

**Topics**
+ [Versions SMB prises en charge](#configuring-smb-version)
+ [Utilisation de l'authentification NTLM](#configuring-smb-ntlm-authentication)
+ [Utilisation de l’authentification Kerberos](#configuring-smb-kerberos-authentication)
+ [Autorisations requises](#configuring-smb-permissions)
+ [Espaces de noms DFS](#configuring-smb-location-dfs)

### Versions SMB prises en charge
<a name="configuring-smb-version"></a>

Par défaut, choisit DataSync automatiquement une version du protocole SMB en fonction de la négociation avec votre serveur de fichiers SMB.

Vous pouvez également configurer DataSync pour utiliser une version SMB spécifique, mais nous vous recommandons de le faire uniquement si DataSync vous rencontrez des difficultés pour négocier automatiquement avec le serveur de fichiers SMB. DataSync prend en charge les versions SMB 1.0 et ultérieures. Pour des raisons de sécurité, nous vous recommandons d'utiliser SMB version 3.0.2 ou ultérieure. Les versions antérieures, telles que SMB 1.0, contiennent des failles de sécurité connues que les attaquants peuvent exploiter pour compromettre vos données.

Consultez le tableau suivant pour obtenir la liste des options de la DataSync console et de l'API :


| Option console | Option d'API | Description | 
| --- | --- | --- | 
| Automatique |  `AUTOMATIC`  |  DataSync et le serveur de fichiers SMB négocient la version la plus élevée de SMB qu'ils supportent mutuellement entre 2.1 et 3.1.1. Il s'agit de l'option recommandée par défaut. Si vous optez pour une version spécifique que votre serveur de fichiers ne prend pas en charge, vous risquez de recevoir une erreur `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Limite la négociation du protocole à la version SMB 3.0.2 uniquement.  | 
| SMB 2.1 |  `SMB2`  | Limite la négociation du protocole à la version 2.1 de SMB uniquement. | 
| SMB 2.0 | `SMB2_0` | Limite la négociation du protocole à la version 2.0 de SMB uniquement. | 
| SMB 1.0 | `SMB1` | Limite la négociation du protocole à la version 1.0 de SMB uniquement. | 

### Utilisation de l'authentification NTLM
<a name="configuring-smb-ntlm-authentication"></a>

Pour utiliser l'authentification NTLM, vous devez fournir un nom d'utilisateur et un mot de passe qui permettent d'accéder DataSync au serveur de fichiers SMB vers ou depuis lequel vous effectuez le transfert. L'utilisateur peut être un utilisateur local sur votre serveur de fichiers ou un utilisateur de domaine dans votre Microsoft Active Directory.

### Utilisation de l’authentification Kerberos
<a name="configuring-smb-kerberos-authentication"></a>

Pour utiliser l'authentification Kerberos, vous devez fournir un fichier principal Kerberos, un fichier de table de clés Kerberos (keytab) et un fichier de configuration Kerberos qui permettent d'accéder DataSync au serveur de fichiers SMB vers ou depuis lequel vous effectuez le transfert.

**Topics**
+ [Conditions préalables](#configuring-smb-kerberos-prerequisites)
+ [DataSync options de configuration pour Kerberos](#configuring-smb-kerberos-options)

#### Conditions préalables
<a name="configuring-smb-kerberos-prerequisites"></a>

Vous devez créer quelques artefacts Kerberos et configurer votre réseau de manière à DataSync pouvoir accéder à votre serveur de fichiers SMB.
+ [Créez un fichier keytab Kerberos à l'aide de l'utilitaire [ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass) ou kutil.](https://web.mit.edu/kerberos/krb5-1.12/doc/admin/admin_commands/ktutil.html)

  L'exemple suivant crée un fichier keytab à l'aide `ktpass` de. Le domaine Kerberos que vous spécifiez (`MYDOMAIN.ORG`) doit être en majuscules.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ Préparez une version simplifiée du fichier de configuration Kerberos ()`krb5.conf`. Incluez des informations sur le domaine, l'emplacement des serveurs d'administration du domaine et les mappages des noms d'hôtes sur un domaine Kerberos.

  Vérifiez que le `krb5.conf` contenu est formaté avec le bon boîtier mixte pour les domaines et les noms de domaine. Par exemple :

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ Dans la configuration de votre réseau, assurez-vous que le port du serveur du centre de distribution de clés Kerberos (KDC) est ouvert. Le port KDC est généralement le port TCP 88.

#### DataSync options de configuration pour Kerberos
<a name="configuring-smb-kerberos-options"></a>

Lorsque vous créez un emplacement SMB utilisant Kerberos, vous configurez les options suivantes.


| Option console | Option d'API | Description | 
| --- | --- | --- | 
|  **Serveur SMB**  |  `ServerHostName`  |  Le nom de domaine du serveur de fichiers SMB que votre DataSync agent va monter. Pour Kerberos, vous ne pouvez pas spécifier l'adresse IP du serveur de fichiers.  | 
|  **Kerberos principal**  |  `KerberosPrincipal`  |  Identité dans votre domaine Kerberos autorisée à accéder aux fichiers, aux dossiers et aux métadonnées des fichiers sur votre serveur de fichiers SMB. Un principal Kerberos peut ressembler à. `HOST/kerberosuser@MYDOMAIN.ORG` Les noms principaux distinguent les majuscules et minuscules.  | 
|  **fichier Keytab**  |  `KerberosKeytab`   |  Un fichier de table de clés Kerberos (keytab), qui inclut les mappages entre votre clé principale Kerberos et vos clés de chiffrement.  | 
|  **Fichier de configuration Kerberos**  |  `KerberosKrbConf`  |  `krb5.conf`Fichier qui définit la configuration de votre domaine Kerberos.  | 
|  **Adresses IP DNS** (facultatif)  |  `DnsIpAddresses`  |  Les IPv4 adresses des serveurs DNS auxquels appartient votre serveur de fichiers SMB. Si votre environnement comporte plusieurs domaines, sa configuration garantit la DataSync connexion au bon serveur de fichiers SMB.  | 

### Autorisations requises
<a name="configuring-smb-permissions"></a>

L'identité que vous fournissez DataSync doit être autorisée à monter et à accéder aux fichiers, dossiers et métadonnées de fichiers de votre serveur de fichiers SMB.

Si vous fournissez une identité dans votre Active Directory, celle-ci doit être membre d'un groupe Active Directory avec l'un des droits d'utilisateur suivants ou les deux (selon les [métadonnées que vous DataSync souhaitez copier](configure-metadata.md)) :


| Droit de l'utilisateur | Description | 
| --- | --- | 
|  **Restaurer des fichiers et des répertoires** (`SE_RESTORE_NAME`)  |  Permet DataSync de copier la propriété des objets, les autorisations, les métadonnées des fichiers et les listes d'accès discrétionnaires NTFS ()DACLs. Ce droit d'utilisateur est généralement accordé aux membres des groupes **Domain Admins** et **Backup Operators** (qui sont tous deux des groupes Active Directory par défaut).  | 
|  **Gérer le journal d'audit et de sécurité** (`SE_SECURITY_NAME`)  |  Permet DataSync de copier les listes de contrôle d'accès au système NTFS (SACLs). Ce droit d'utilisateur est généralement accordé aux membres du groupe des **administrateurs de domaine**.   | 

Si vous souhaitez copier Windows ACLs et effectuez un transfert entre un serveur de fichiers SMB et un autre système de stockage utilisant SMB (tel qu'Amazon FSx pour Windows File Server ou FSx ONTAP), l'identité que vous fournissez DataSync doit appartenir au même domaine Active Directory ou avoir une relation de confiance Active Directory entre leurs domaines.

### Espaces de noms DFS
<a name="configuring-smb-location-dfs"></a>

DataSync ne prend pas en charge les espaces de noms Microsoft Distributed File System (DFS). Nous vous recommandons de spécifier un serveur de fichiers ou un partage sous-jacent lors de la création de votre DataSync emplacement.

## Création de votre lieu de transfert pour PME
<a name="create-smb-location-how-to"></a>

Avant de commencer, vous avez besoin d'un serveur de fichiers SMB à partir duquel vous souhaitez transférer des données.

### Utilisation de la DataSync console
<a name="create-smb-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Location type (Type d'emplacement)**, choisissez **Server Message Block (SMB)**.

   Vous configurerez cet emplacement comme source ou destination plus tard.

1. Pour les **agents**, choisissez l' DataSync agent qui peut se connecter à votre serveur de fichiers SMB.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour le **serveur SMB**, entrez le nom de domaine ou l'adresse IP du serveur de fichiers SMB que votre DataSync agent va monter.

   N'oubliez pas ce qui suit avec ce paramètre :
   + Vous ne pouvez pas spécifier d'adresse IP version 6 (IPv6).
   + Si vous utilisez l'authentification Kerberos, vous devez spécifier un nom de domaine.

1. Dans **Nom du partage**, entrez le nom du partage exporté par votre serveur de fichiers SMB où les données DataSync seront lues ou écrites.

   Vous pouvez inclure un sous-répertoire dans le chemin de partage (par exemple,`/path/to/subdirectory`). Assurez-vous que les autres clients SMB de votre réseau peuvent également monter ce chemin. 

   Pour copier toutes les données du sous-répertoire, vous DataSync devez être en mesure de monter le partage SMB et d'accéder à toutes ses données. Pour de plus amples informations, veuillez consulter [Autorisations requises](#configuring-smb-permissions).

1. (Facultatif) Développez **les paramètres supplémentaires** et choisissez une **version SMB** DataSync à utiliser lors de l'accès à votre serveur de fichiers.

   Par défaut, choisit DataSync automatiquement une version en fonction de la négociation avec le serveur de fichiers SMB. Pour plus d'informations, consultez [Versions SMB prises en charge](#configuring-smb-version).

1. **Pour le **type d'authentification**, choisissez **NTLM** ou Kerberos.**

1. Procédez de l'une des manières suivantes en fonction de votre type d'authentification :

------
#### [ NTLM ]
   + Dans **Utilisateur**, entrez un nom d'utilisateur capable de monter votre serveur de fichiers SMB et autorisé à accéder aux fichiers et dossiers concernés par votre transfert.

     Pour de plus amples informations, veuillez consulter [Autorisations requises](#configuring-smb-permissions).
   + Dans **Mot de passe**, entrez le mot de passe de l'utilisateur qui peut monter votre serveur de fichiers SMB et qui est autorisé à accéder aux fichiers et dossiers concernés par votre transfert.
   + (Facultatif) Dans le champ **Domaine**, entrez le nom de domaine Windows auquel appartient votre serveur de fichiers SMB.

     Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre garantit la DataSync connexion au bon serveur de fichiers SMB.

------
#### [ Kerberos ]
   + Pour le **principal Kerberos**, spécifiez un principal dans votre domaine Kerberos autorisé à accéder aux fichiers, aux dossiers et aux métadonnées des fichiers sur votre serveur de fichiers SMB.

     Un principal Kerberos peut ressembler à. `HOST/kerberosuser@MYDOMAIN.ORG`

     Les noms principaux distinguent les majuscules et minuscules. L'exécution de votre DataSync tâche échouera si le principal que vous spécifiez pour ce paramètre ne correspond pas exactement au principal que vous avez utilisé pour créer le fichier keytab.
   + Pour le fichier **Keytab, téléchargez un fichier** keytab qui inclut les mappages entre votre clé principale Kerberos et votre clé de chiffrement.
   + Pour le fichier de **configuration Kerberos, téléchargez un `krb5.conf` fichier** qui définit la configuration de votre domaine Kerberos.
   + (Facultatif) Pour les **adresses IP DNS**, spécifiez jusqu'à deux IPv4 adresses pour les serveurs DNS auxquels appartient votre serveur de fichiers SMB. 

     Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre garantit la DataSync connexion au bon serveur de fichiers SMB.

------

1. (Facultatif) Choisissez **Ajouter un tag** pour étiqueter l'emplacement de votre PME.

   Les *tags* sont des paires clé-valeur qui vous permettent de gérer, de filtrer et de rechercher vos emplacements. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-smb-cli"></a>

Les instructions suivantes décrivent comment créer des emplacements SMB avec l'authentification NTLM ou Kerberos.

------
#### [ NTLM ]

1. Copiez la `create-location-smb` commande suivante.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. Pour`--agent-arns`, spécifiez l' DataSync agent qui peut se connecter à votre serveur de fichiers SMB.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour`--server-hostname`, spécifiez le nom de domaine ou l' IPv4 adresse du serveur de fichiers SMB que votre DataSync agent installera. 

1. Pour`--subdirectory`, spécifiez le nom du partage exporté par votre serveur de fichiers SMB où les données DataSync seront lues ou écrites.

   Vous pouvez inclure un sous-répertoire dans le chemin de partage (par exemple,`/path/to/subdirectory`). Assurez-vous que les autres clients SMB de votre réseau peuvent également monter ce chemin. 

   Pour copier toutes les données du sous-répertoire, vous DataSync devez être en mesure de monter le partage SMB et d'accéder à toutes ses données. Pour de plus amples informations, veuillez consulter [Autorisations requises](#configuring-smb-permissions).

1. Pour`--user`, spécifiez un nom d'utilisateur capable de monter votre serveur de fichiers SMB et autorisé à accéder aux fichiers et dossiers concernés par votre transfert.

   Pour de plus amples informations, veuillez consulter [Autorisations requises](#configuring-smb-permissions).

1. Pour`--password`, spécifiez le mot de passe de l'utilisateur qui peut monter votre serveur de fichiers SMB et qui est autorisé à accéder aux fichiers et dossiers concernés par votre transfert.

1. (Facultatif) Pour`--domain`, spécifiez le nom de domaine Windows auquel appartient votre serveur de fichiers SMB.

   Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre garantit la DataSync connexion au bon serveur de fichiers SMB.

1. (Facultatif) Ajoutez `--version` cette option si vous DataSync souhaitez utiliser une version SMB spécifique. Pour de plus amples informations, veuillez consulter [Versions SMB prises en charge](#configuring-smb-version).

1. Exécutez la commande `create-location-smb`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. Copiez la `create-location-smb` commande suivante.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. Pour`--agent-arns`, spécifiez l' DataSync agent qui peut se connecter à votre serveur de fichiers SMB.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour`--server-hostname`, spécifiez le nom de domaine du serveur de fichiers SMB que votre DataSync agent va monter. 

1. Pour`--subdirectory`, spécifiez le nom du partage exporté par votre serveur de fichiers SMB où les données DataSync seront lues ou écrites.

   Vous pouvez inclure un sous-répertoire dans le chemin de partage (par exemple,`/path/to/subdirectory`). Assurez-vous que les autres clients SMB de votre réseau peuvent également monter ce chemin. 

   Pour copier toutes les données du sous-répertoire, vous DataSync devez être en mesure de monter le partage SMB et d'accéder à toutes ses données. Pour de plus amples informations, veuillez consulter [Autorisations requises](#configuring-smb-permissions).

1. Pour les options Kerberos, procédez comme suit :
   + `--kerberos-principal`: Spécifiez un principal dans votre domaine Kerberos autorisé à accéder aux fichiers, aux dossiers et aux métadonnées des fichiers sur votre serveur de fichiers SMB.

     Un principal Kerberos peut ressembler à. `HOST/kerberosuser@MYDOMAIN.ORG`

     Les noms principaux distinguent les majuscules et minuscules. L'exécution de votre DataSync tâche échouera si le principal que vous spécifiez pour cette option ne correspond pas exactement au principal que vous avez utilisé pour créer le fichier keytab.
   + `--kerberos-keytab`: Spécifiez un fichier keytab qui inclut les mappages entre votre clé principale Kerberos et vos clés de chiffrement.
   + `--kerberos-krb5-conf`: Spécifiez un `krb5.conf` fichier qui définit la configuration de votre domaine Kerberos.
   + (Facultatif) `--dns-ip-addresses` : Spécifiez jusqu'à deux IPv4 adresses pour les serveurs DNS auxquels appartient votre serveur de fichiers SMB. 

     Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre garantit la DataSync connexion au bon serveur de fichiers SMB.

1. (Facultatif) Ajoutez `--version` cette option si vous DataSync souhaitez utiliser une version SMB spécifique. Pour de plus amples informations, veuillez consulter [Versions SMB prises en charge](#configuring-smb-version).

1. Exécutez la commande `create-location-smb`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# Configuration des AWS DataSync transferts avec un cluster HDFS
<a name="create-hdfs-location"></a>

Avec AWS DataSync, vous pouvez transférer des données entre votre cluster Hadoop Distributed File System (HDFS) et l'un des services de AWS stockage suivants à l'aide de tâches en mode de base :
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Serveur FSx de fichiers Amazon pour Windows](create-fsx-location.md)
+ [Amazon FSx pour Lustre](create-lustre-location.md)
+ [Amazon FSx pour OpenZFS](create-openzfs-location.md)
+ [Amazon FSx pour NetApp ONTAP](create-ontap-location.md)

Pour configurer ce type de transfert, vous devez créer un [emplacement](how-datasync-transfer-works.md#sync-locations) pour votre cluster HDFS. Vous pouvez utiliser cet emplacement comme source ou destination de transfert.

## Fournir un DataSync accès aux clusters HDFS
<a name="accessing-hdfs"></a>

Pour vous connecter à votre cluster HDFS, utilisez DataSync un [agent en mode de base que vous déployez](deploy-agents.md) le plus près possible de votre cluster HDFS. L' DataSyncagent agit comme un client HDFS et communique avec le NameNodes et au DataNodes sein de votre cluster.

Lorsque vous lancez une tâche de DataSync transfert, NameNode demande l'emplacement des fichiers et des dossiers du cluster. Si vous configurez votre emplacement HDFS comme emplacement source, DataSync lit les données des fichiers et des dossiers depuis votre cluster et copie ces données vers la destination. DataNodes Si vous configurez votre emplacement HDFS comme emplacement de destination, il DataSync écrit les fichiers et les dossiers de la source vers le contenu DataNodes de votre cluster.

### Authentification
<a name="accessing-hdfs-authentication"></a>

Lors de la connexion à un cluster HDFS, DataSync prend en charge l'authentification simple ou l'authentification Kerberos. Pour utiliser l'authentification simple, indiquez le nom d'utilisateur d'un utilisateur autorisé à lire et à écrire sur le cluster HDFS. Pour utiliser l'authentification Kerberos, fournissez un fichier de configuration Kerberos, un fichier de table de clés Kerberos (keytab) et un nom principal Kerberos. Les informations d'identification du principal Kerberos doivent figurer dans le fichier keytab fourni.

### Chiffrement
<a name="accessing-hdfs-encryption"></a>

Lorsque vous utilisez l'authentification Kerberos, DataSync prend en charge le chiffrement des données lors de leur transmission entre l' DataSync agent et votre cluster HDFS. Chiffrez vos données en utilisant les paramètres de configuration de qualité de protection (QOP) de votre cluster HDFS et en spécifiant les paramètres QOP lors de la création de votre emplacement HDFS. La configuration QOP inclut les paramètres de protection du transfert de données et de protection RPC (Remote Procedure Call). 

**DataSync prend en charge les types de chiffrement Kerberos suivants :**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

Vous pouvez également configurer des clusters HDFS pour le chiffrement au repos à l'aide du chiffrement transparent des données (TDE). Lors de l'utilisation de l'authentification simple, DataSync lit et écrit sur des clusters compatibles TDE. Si vous utilisez DataSync pour copier des données vers un cluster compatible TDE, configurez d'abord les zones de chiffrement sur le cluster HDFS. DataSync ne crée pas de zones de chiffrement. 

## Fonctionnalités HDFS non prises en charge
<a name="hdfs-unsupported-features"></a>

Les fonctionnalités HDFS suivantes ne sont actuellement pas prises en charge par DataSync :
+ Chiffrement transparent des données (TDE) lors de l'utilisation de l'authentification Kerberos
+ Configuration de plusieurs NameNodes
+ Hadoop HDFS sur HTTP (HttpFS)
+ listes de contrôle d'accès POSIX () ACLs
+ Attributs étendus HDFS (xattrs)
+ Clusters HDFS utilisant Apache HBase

## Création de votre emplacement de transfert HDFS
<a name="create-hdfs-location-how-to"></a>

Vous pouvez utiliser votre position comme source ou destination pour votre DataSync transfert.

**Avant de commencer** : vérifiez la connectivité réseau entre votre agent et le cluster Hadoop en procédant comme suit :
+ Testez l'accès aux ports TCP répertoriés dans[Exigences réseau pour le stockage sur site, autogéré et autre stockage dans le cloud](datasync-network.md#on-premises-network-requirements).
+ Testez l'accès entre votre agent local et votre cluster Hadoop. Pour obtenir des instructions, veuillez consulter [Vérification de la connexion de votre agent à votre système de stockage](test-agent-connections.md#self-managed-storage-connectivity).

### Utilisation de la DataSync console
<a name="create-hdfs-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type d'emplacement**, choisissez **Hadoop Distributed File System (HDFS)**.

   Vous pouvez configurer cet emplacement comme source ou destination ultérieurement. 

1. Pour les **agents**, choisissez l'agent qui peut se connecter à votre cluster HDFS.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour **NameNode**, indiquez le nom de domaine ou l'adresse IP du cluster HDFS principal NameNode de votre cluster HDFS.

1. Dans le **champ Dossier**, entrez le dossier de votre cluster HDFS que vous souhaitez utiliser DataSync pour le transfert de données.

   Si votre emplacement HDFS est une source, DataSync copie les fichiers de ce dossier vers la destination. Si votre emplacement est une destination, DataSync écrit des fichiers dans ce dossier.

1. Pour définir la **taille du bloc** ou le **facteur de réplication**, sélectionnez **Paramètres supplémentaires**.

   La taille de bloc par défaut est de 128 MiB. La taille de bloc que vous indiquez doit être un multiple de 512 octets.

   Le facteur de réplication par défaut est de trois DataNodes lors du transfert vers le cluster HDFS. 

1. Dans la section **Sécurité**, choisissez le **type d'authentification** utilisé sur votre cluster HDFS. 
   + **Simple** — Pour **l'utilisateur**, spécifiez le nom d'utilisateur avec les autorisations suivantes sur le cluster HDFS (en fonction de votre cas d'utilisation) :
     + Si vous envisagez d'utiliser cet emplacement comme emplacement source, spécifiez un utilisateur disposant uniquement d'autorisations de lecture.
     + Si vous prévoyez d'utiliser cet emplacement comme emplacement de destination, spécifiez un utilisateur disposant d'autorisations de lecture et d'écriture.

     Spécifiez éventuellement l'URI du serveur de gestion des clés (KMS) de votre cluster HDFS. 
   + **Kerberos** — Spécifiez le **principal** Kerberos ayant accès à votre cluster HDFS. Indiquez ensuite le **KeyTabfichier** contenant le principal Kerberos fourni. Fournissez ensuite le fichier de **configuration Kerberos**. Enfin, spécifiez le type de chiffrement pour la protection du transit dans les listes déroulantes **Protection RPC et Protection** **contre le transfert de données**.

1. (Facultatif) Choisissez **Ajouter une balise** pour baliser votre emplacement HDFS.

   Les *tags* sont des paires clé-valeur qui vous permettent de gérer, de filtrer et de rechercher vos emplacements. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Copiez la `create-location-hdfs` commande suivante.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Pour le `--name-nodes` paramètre, spécifiez le nom d'hôte ou l'adresse IP du principal de votre cluster HDFS NameNode et le port TCP sur lequel il écoute NameNode .

1. Pour le `--authentication-type` paramètre, spécifiez le type d'authentification à utiliser lors de la connexion au cluster Hadoop. Vous pouvez spécifier `SIMPLE` ou `KERBEROS`.

   Si vous utilisez `SIMPLE` l'authentification, utilisez le `--simple-user` paramètre pour spécifier le nom d'utilisateur de l'utilisateur. Si vous utilisez `KERBEROS` l'authentification, utilisez les `--kerberos-principal` `--kerberos-krb5-conf` paramètres`--kerberos-keytab`, et. Pour de plus amples informations, veuillez consulter [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Pour le `--agent-arns` paramètre, spécifiez l'ARN de l' DataSync agent qui peut se connecter à votre cluster HDFS.

   Vous pouvez choisir plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. (Facultatif) Pour le `--subdirectory` paramètre, spécifiez le dossier de votre cluster HDFS que vous souhaitez utiliser DataSync pour le transfert de données.

   Si votre emplacement HDFS est une source, DataSync copie les fichiers de ce dossier vers la destination. Si votre emplacement est une destination, DataSync écrit des fichiers dans ce dossier.

1. Exécutez la commande `create-location-hdfs`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# Configuration des DataSync transferts avec un système de stockage d'objets
<a name="create-object-location"></a>

Avec AWS DataSync, vous pouvez transférer des données entre votre système de stockage d'objets et l'un des services de AWS stockage suivants à l'aide de tâches en mode de base :
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Serveur FSx de fichiers Amazon pour Windows](create-fsx-location.md)
+ [Amazon FSx pour Lustre](create-lustre-location.md)
+ [Amazon FSx pour OpenZFS](create-openzfs-location.md)
+ [Amazon FSx pour NetApp ONTAP](create-ontap-location.md)

Pour configurer ce type de transfert, vous devez créer un [emplacement](how-datasync-transfer-works.md#sync-locations) pour votre système de stockage d'objets. Vous pouvez utiliser cet emplacement comme source ou destination de transfert. Le transfert de données vers ou depuis votre stockage d'objets sur site nécessite un DataSync agent en mode de base.

## Conditions préalables
<a name="create-object-location-prerequisites"></a>

Votre système de stockage d'objets doit être compatible avec les [opérations d'API Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) suivantes DataSync pour pouvoir vous y connecter :
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## Création de votre lieu de transfert de stockage d'objets
<a name="create-object-location-how-to"></a>

Avant de commencer, vous avez besoin d'un système de stockage d'objets vers ou à partir duquel vous comptez transférer des données.

### Utilisation de la DataSync console
<a name="create-object-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Type d'emplacement**, choisissez **Stockage d'objets**.

   Vous configurerez cet emplacement comme source ou destination plus tard.

1. Pour **Serveur**, indiquez le nom de domaine ou l'adresse IP du serveur de stockage d'objets. 

1. Dans le **champ Nom du compartiment**, entrez le nom du compartiment de stockage d'objets impliqué dans le transfert.

1. Pour **Dossier**, entrez un préfixe d'objet.

   DataSync copie uniquement les objets portant ce préfixe. 

1. Si votre transfert nécessite un agent, choisissez **Utiliser des agents**, puis choisissez l' DataSync agent qui se connecte à votre système de stockage d'objets.

   Certains transferts ne nécessitent pas d'agents. Dans d'autres scénarios, vous souhaiterez peut-être utiliser plusieurs agents. Pour plus d’informations, consultez [Situations dans lesquelles vous n'avez pas besoin d'un DataSync agent](do-i-need-datasync-agent.md#when-agent-not-required) et [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour configurer la connexion au serveur de stockage d'objets, développez **Paramètres supplémentaires** et procédez comme suit :

   1. Pour le **protocole du serveur**, choisissez **HTTP** ou **HTTPS**.

   1. Pour le **port du serveur**, utilisez un port par défaut (**80** pour HTTP ou **443** pour HTTPS) ou spécifiez un port personnalisé si nécessaire.

   1. Pour **Certificat**, si votre système de stockage d'objets utilise une autorité de certification (CA) privée ou autosignée, sélectionnez **Choisir un fichier** et spécifiez un seul `.pem` fichier avec une chaîne de certificats complète.

      La chaîne de certificats peut inclure :
      + Le certificat du système de stockage d'objets
      + Tous les certificats intermédiaires (s'il y en a)
      + Le certificat racine de l'autorité de certification signataire

      Vous pouvez concaténer vos certificats dans un `.pem` fichier (dont la taille peut atteindre 32 768 octets avant le codage base64). L'exemple de `cat` commande suivant crée un `object_storage_certificates.pem` fichier contenant trois certificats :

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. Si le serveur de stockage d'objets a besoin d'informations d'identification pour accéder, sélectionnez **Requiert des informations d'identification** et entrez la **clé d'accès** que vous utilisez pour accéder au bucket. Entrez ensuite directement la **clé secrète** ou spécifiez un AWS Secrets Manager secret contenant la clé. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   La clé d'accès et la clé secrète peuvent être respectivement un nom d'utilisateur et un mot de passe.

1. (Facultatif) Choisissez **Ajouter une étiquette** pour étiqueter l'emplacement de stockage de vos objets.

   Les *tags* sont des paires clé-valeur qui vous permettent de gérer, de filtrer et de rechercher vos emplacements. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-object-cli"></a>

1. Copiez la `create-location-object-storage` commande suivante :

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. Spécifiez les paramètres obligatoires suivants dans la commande :
   + `--server-hostname`— Spécifiez le nom de domaine ou l'adresse IP de votre serveur de stockage d'objets.
   + `--bucket-name`— Spécifiez le nom du bucket sur votre serveur de stockage d'objets vers ou depuis lequel vous effectuez le transfert.

1. (Facultatif) Ajoutez l'un des paramètres suivants à la commande :
   + `--agent-arns`— Spécifiez les DataSync agents que vous souhaitez connecter à votre serveur de stockage d'objets.
   + `--server-port`— Spécifie le port sur lequel votre serveur de stockage d'objets accepte le trafic réseau entrant (par exemple, port`443`).
   + `--server-protocol`— Spécifie le protocole (`HTTP`ou`HTTPS`) que votre serveur de stockage d'objets utilise pour communiquer.
   + `--access-key`— Spécifie la clé d'accès (par exemple, un nom d'utilisateur) si des informations d'identification sont requises pour s'authentifier auprès du serveur de stockage d'objets.
   + `--secret-key`— Spécifie la clé secrète (par exemple, un mot de passe) si des informations d'identification sont requises pour s'authentifier auprès du serveur de stockage d'objets.

     Vous pouvez également fournir des paramètres supplémentaires pour sécuriser vos clés à l'aide de AWS Secrets Manager. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
   + `--server-certificate`— Spécifie une chaîne de certificats DataSync pour l'authentification auprès de votre système de stockage d'objets si celui-ci utilise une autorité de certification (CA) privée ou auto-signée. Vous devez spécifier un seul `.pem` fichier avec une chaîne de certificats complète (par exemple,`file:///home/user/.ssh/object_storage_certificates.pem`).

     La chaîne de certificats peut inclure :
     + Le certificat du système de stockage d'objets
     + Tous les certificats intermédiaires (s'il y en a)
     + Le certificat racine de l'autorité de certification signataire

     Vous pouvez concaténer vos certificats dans un `.pem` fichier (dont la taille peut atteindre 32 768 octets avant le codage base64). L'exemple de `cat` commande suivant crée un `object_storage_certificates.pem` fichier contenant trois certificats :

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory`— Spécifie le préfixe d'objet pour votre serveur de stockage d'objets.

     DataSync copie uniquement les objets portant ce préfixe. 
   + `--tags`— Spécifie la paire clé-valeur qui représente une balise que vous souhaitez ajouter à la ressource de localisation.

     Les balises vous aident à gérer, filtrer et rechercher vos ressources. Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Exécutez la commande `create-location-object-storage`.

   Vous obtenez une réponse qui indique l'ARN de localisation que vous venez de créer.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# Transfert vers ou depuis un AWS espace de stockage avec AWS DataSync
<a name="transferring-aws-storage"></a>

Avec AWS DataSync, vous pouvez transférer des données vers ou depuis un certain nombre de services de AWS stockage. Pour plus d'informations, consultez [Où puis-je transférer mes données DataSync ?](working-with-locations.md)

**Topics**
+ [Configuration des AWS DataSync transferts avec Amazon S3](create-s3-location.md)
+ [Configuration des AWS DataSync transferts avec Amazon EFS](create-efs-location.md)
+ [Configuration des transferts avec FSx pour Windows File Server](create-fsx-location.md)
+ [Configuration des DataSync transferts avec FSx for Lustre](create-lustre-location.md)
+ [Configuration des DataSync transferts avec Amazon FSx pour OpenZFS](create-openzfs-location.md)
+ [Configuration des transferts avec Amazon FSx pour NetApp ONTAP](create-ontap-location.md)

# Configuration des AWS DataSync transferts avec Amazon S3
<a name="create-s3-location"></a>

Pour transférer des données vers ou depuis votre compartiment Amazon S3, vous devez créer un *lieu AWS DataSync * de transfert. DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir DataSync un accès aux compartiments S3
<a name="create-s3-location-access"></a>

DataSync a besoin d'accéder au compartiment S3 vers ou depuis lequel vous effectuez le transfert. Pour ce faire, vous devez créer un rôle Gestion des identités et des accès AWS (IAM) DataSync doté des autorisations requises pour accéder au bucket. Vous spécifiez ensuite ce rôle lors de [la création de votre emplacement Amazon S3 pour DataSync](#create-s3-location-how-to).

**Contents**
+ [Autorisations requises](#create-s3-location-required-permissions)
+ [Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](#create-role-manually)
+ [Accès aux compartiments S3 à l'aide du chiffrement côté serveur](#create-s3-location-encryption)
+ [Accès aux compartiments S3 restreints](#denying-s3-access)
+ [Accès aux compartiments S3 avec un accès VPC restreint](#create-s3-location-restricted-vpc)

### Autorisations requises
<a name="create-s3-location-required-permissions"></a>

Les autorisations dont votre rôle IAM a besoin peuvent varier selon que le bucket est un emplacement DataSync source ou de destination. Amazon S3 on Outposts nécessite un ensemble d'autorisations différent.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3
<a name="create-role-manually"></a>

Lorsque vous [créez votre emplacement Amazon S3](#create-s3-location-how-to) dans la console, DataSync vous pouvez automatiquement créer et assumer un rôle IAM qui dispose normalement des autorisations nécessaires pour accéder à votre compartiment S3.

Dans certains cas, vous devrez peut-être créer ce rôle manuellement (par exemple, pour accéder à des compartiments dotés de niveaux de sécurité supplémentaires ou pour effectuer un transfert vers ou depuis un compartiment situé dans un autre Comptes AWS).

#### Création manuelle d'un rôle IAM pour DataSync
<a name="create-role-manually-steps"></a>

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Dans le volet de navigation de gauche, sous **Gestion des accès**, sélectionnez **Rôles**, puis sélectionnez **Créer un rôle**.

1. Sur la page **Sélectionner une entité de confiance**, pour **Type d'entité de confiance**, sélectionnez **Service AWS**.

1. Pour **Cas d'utilisation**, choisissez **DataSync**dans la liste déroulante et sélectionnez **DataSync**. Choisissez **Suivant**.

1. Sur la page **Add permissions** (Ajouter des autorisations), sélectionnez **Next** (Suivant). Donnez un nom à votre rôle et choisissez **Créer un rôle**.

1. Sur la page **Rôles**, recherchez le rôle que vous venez de créer et choisissez son nom.

1. Sur la page de détails du rôle, choisissez l'onglet **Autorisations**. Choisissez **Ajouter des autorisations**, puis **Créer une politique en ligne**.

1. Choisissez l'onglet **JSON** et [ajoutez les autorisations requises](#create-s3-location-required-permissions) pour accéder à votre bucket dans l'éditeur de politiques.

1. Choisissez **Suivant**. Donnez un nom à votre politique et choisissez **Create policy**.

1. (Recommandé) Pour éviter le [problème de confusion entre les services adjoints](cross-service-confused-deputy-prevention.md), procédez comme suit :

   1. Sur la page de détails du rôle, choisissez l'onglet **Relations de confiance**. Choisissez **Modifier la politique d’approbation**.

   1. Mettez à jour la politique de confiance en utilisant l'exemple suivant, qui inclut les clés de contexte de condition `aws:SourceAccount` globale `aws:SourceArn` et globale :

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Choisissez **Mettre à jour une politique**.

Vous pouvez spécifier ce rôle lors de la création de votre site Amazon S3.

### Accès aux compartiments S3 à l'aide du chiffrement côté serveur
<a name="create-s3-location-encryption"></a>

DataSync peut transférer des données vers ou depuis des [compartiments S3 qui utilisent le chiffrement côté serveur](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html). Le type de clé de chiffrement utilisé par un bucket peut déterminer si vous avez besoin d'une politique personnalisée DataSync permettant d'accéder au bucket.

Lorsque vous utilisez DataSync des compartiments S3 qui utilisent le chiffrement côté serveur, gardez à l'esprit les points suivants :
+ **Si votre compartiment S3 est chiffré à l'aide d'une clé AWS gérée**, DataSync vous pouvez accéder aux objets du compartiment par défaut si toutes vos ressources se trouvent dans les mêmes emplacements Compte AWS.
+ **Si votre compartiment S3 est chiffré à l'aide d'une clé gérée par le client AWS Key Management Service (AWS KMS) (SSE-KMS)**, la [politique de la clé](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) doit inclure le rôle IAM DataSync utilisé pour accéder au compartiment.
+ **Si votre compartiment S3 est chiffré avec une clé SSE-KMS gérée par le client et dans une autre**, vous Compte AWS devez obtenir DataSync l'autorisation d'accéder au compartiment dans l'autre. Compte AWS Vous pouvez le configurer en procédant comme suit :
  + Dans le rôle IAM qui l' DataSync utilise, vous devez spécifier la clé SSE-KMS du compartiment multi-comptes en utilisant le nom de ressource Amazon (ARN) complet de la clé. Il s'agit du même ARN de clé que celui que vous utilisez pour configurer le [chiffrement par défaut](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) du compartiment. Vous ne pouvez pas spécifier d'ID de clé, de nom d'alias ou d'ARN d'alias dans ce cas.

    Voici un exemple d'ARN clé :

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    Pour plus d'informations sur la spécification des clés KMS dans les déclarations de politique IAM, consultez le *[guide du AWS Key Management Service développeur](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*.
  + Dans la politique clé SSE-KMS, [spécifiez le rôle IAM utilisé](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) par. DataSync
+ **Si votre compartiment S3 est chiffré à l'aide d'une AWS KMS clé gérée par le client (DSSE-KMS) pour un chiffrement double couche côté serveur**, la [politique de la clé](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) doit inclure le rôle IAM utilisé pour accéder au compartiment. DataSync (N'oubliez pas que le DSSE-KMS ne prend pas en charge les [clés de compartiment S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html), ce qui peut réduire les coûts liés aux AWS KMS demandes.)
+ **Si votre compartiment S3 est chiffré à l'aide d'une clé de chiffrement fournie par le client (SSE-C)**, DataSync vous ne pouvez pas accéder à ce compartiment.

#### Exemple : politique clé SSE-KMS pour DataSync
<a name="create-s3-location-encryption-example"></a>

L'exemple suivant est une [politique clé pour une clé](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) SSE-KMS gérée par le client. La politique est associée à un compartiment S3 qui utilise le chiffrement côté serveur.

Si vous souhaitez utiliser cet exemple, remplacez les valeurs suivantes par les vôtres :
+ *account-id*— Votre Compte AWS.
+ *admin-role-name*— Le nom du rôle IAM qui peut administrer la clé.
+ *datasync-role-name*— Le nom du rôle IAM qui permet d' DataSync utiliser la clé pour accéder au bucket.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Accès aux compartiments S3 restreints
<a name="denying-s3-access"></a>

Si vous devez effectuer un transfert vers ou depuis un compartiment S3 qui refuse généralement tout accès, vous pouvez modifier la politique du compartiment afin de ne DataSync pouvoir accéder au compartiment que pour votre transfert.

#### Exemple : autoriser l'accès en fonction des rôles IAM
<a name="denying-s3-access-example"></a>

1. Copiez la politique de compartiment S3 suivante.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. Dans la politique, remplacez les valeurs suivantes :
   + `amzn-s3-demo-bucket`— Spécifiez le nom du compartiment S3 restreint.
   + `datasync-iam-role-id`— Spécifiez l'ID du [rôle IAM DataSync utilisé](#create-s3-location-access) pour accéder au bucket.

     Exécutez la AWS CLI commande suivante pour obtenir l'ID du rôle IAM :

     `aws iam get-role --role-name datasync-iam-role-name`

     Dans le résultat, recherchez la `RoleId` valeur :

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Spécifiez l'ID du rôle IAM que vous utilisez pour créer votre DataSync emplacement pour le bucket.

     Exécutez la commande suivante pour obtenir l'ID du rôle IAM :

     `aws iam get-role --role-name your-iam-role-name`

     Dans le résultat, recherchez la `RoleId` valeur :

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Ajoutez cette politique](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) à votre politique de compartiment S3.

1. Lorsque vous avez terminé DataSync d'utiliser le bucket restreint, supprimez les conditions relatives aux deux rôles IAM de la politique du bucket.

### Accès aux compartiments S3 avec un accès VPC restreint
<a name="create-s3-location-restricted-vpc"></a>

Un compartiment Amazon S3 qui [limite l'accès à des points de terminaison de cloud privé virtuel (VPC) spécifiques ou VPCs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) qui refuse le transfert vers ou DataSync depuis ce compartiment. Pour activer les transferts dans ces situations, vous pouvez mettre à jour la politique du compartiment afin d'inclure le rôle IAM que vous [spécifiez en fonction de votre DataSync position](#create-s3-location-how-to).

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

Dans la politique du compartiment S3, vous pouvez spécifier le nom de ressource Amazon (ARN) de votre rôle IAM de DataSync localisation.

L'exemple suivant est une politique de compartiment S3 qui refuse l'accès à tous sauf deux VPCs (`vpc-1234567890abcdef0`et`vpc-abcdef01234567890`). Toutefois, la politique inclut également la [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition et la clé [aws : PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) condition, qui permettent à l'ARN d'un rôle de DataSync localisation d'accéder au compartiment.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

Dans la politique du compartiment S3, vous pouvez spécifier une balise associée à votre rôle IAM de DataSync localisation.

L'exemple suivant est une politique de compartiment S3 qui refuse l'accès à tous sauf deux VPCs (`vpc-1234567890abcdef0`et`vpc-abcdef01234567890`). Cependant, la politique inclut également les clés [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition et [aws : PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition, qui autorisent un mandant à avoir le tag key `exclude-from-vpc-restriction` et value`true`. Vous pouvez essayer une approche similaire dans votre politique de compartiment en spécifiant une balise associée à votre rôle de DataSync localisation.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Considérations relatives à la classe de stockage lors des transferts Amazon S3
<a name="using-storage-classes"></a>

Lorsque Amazon S3 est votre destination, DataSync vous pouvez transférer vos données directement vers une [classe de stockage Amazon S3](https://aws.amazon.com/s3/storage-classes/) spécifique.

Certaines classes de stockage ont des comportements qui peuvent avoir une incidence sur les coûts de stockage de votre Amazon S3. Lorsque vous utilisez des classes de stockage susceptibles d'entraîner des frais supplémentaires pour le remplacement, la suppression ou la récupération d'objets, les modifications apportées aux données ou aux métadonnées des objets entraînent de tels frais. Pour plus d’informations, consultez [Tarification Amazon S3](https://aws.amazon.com/s3/pricing/).

**Important**  
Les nouveaux objets transférés vers votre emplacement de destination Amazon S3 sont stockés à l'aide de la classe de stockage que vous spécifiez lors de [la création de votre emplacement](#create-s3-location-how-to).  
Par défaut, DataSync préserve la classe de stockage des objets existants dans votre emplacement de destination, sauf si vous configurez votre tâche pour [transférer toutes les données](configure-metadata.md#task-option-transfer-mode). Dans ces situations, la classe de stockage que vous spécifiez lors de la création de votre position est utilisée pour tous les objets.


| Classe de stockage Amazon S3 | Considérations | 
| --- | --- | 
| S3 Standard | Choisissez S3 Standard pour stocker vos fichiers fréquemment consultés de manière redondante dans plusieurs zones de disponibilité séparées géographiquement. Il s'agit de la valeur par défaut si vous ne spécifiez pas de classe de stockage.  | 
| S3 Intelligent-Tiering |  Choisissez S3 Intelligent-Tiering (Hiérarchisation intelligente S3) pour optimiser les coûts de stockage en transférant automatiquement les données vers le niveau d'accès de stockage le plus économique. Vous payez des frais mensuels par objet stocké dans la classe de stockage S3 Intelligent-Tiering. Ces frais Amazon S3 incluent la surveillance des modèles d'accès aux données et le déplacement d'objets entre les niveaux.  | 
| S3 standard – Accès peu fréquent |  Choisissez S3 Standard-IA pour stocker de manière redondante vos objets rarement consultés dans plusieurs zones de disponibilité séparées géographiquement.  Les objets stockés dans la classe de stockage S3 Standard-IA peuvent entraîner des frais supplémentaires en cas de remplacement, de suppression ou de récupération. Prenez en compte la fréquence de changement de ces objets, la durée pendant laquelle vous prévoyez de les conserver et la fréquence à laquelle vous devez y accéder. Les modifications apportées aux données ou aux métadonnées d'un objet équivalent à la suppression d'un objet et à la création d'un nouvel objet pour le remplacer. Cela entraîne des frais supplémentaires pour les objets stockés dans la classe de stockage S3 Standard-IA. Les objets de moins de 128 Ko sont inférieurs à la capacité minimale facturée par objet dans la classe de stockage S3 Standard-IA. Ces objets sont stockés dans la classe de stockage S3 Standard.  | 
| S3 One Zone-IA  |  Choisissez S3 One Zone-IA pour stocker vos objets rarement consultés dans une seule zone de disponibilité.  Les objets stockés dans la classe de stockage S3 One Zone-IA peuvent entraîner des frais supplémentaires pour le remplacement, la suppression ou la récupération. Prenez en compte la fréquence de changement de ces objets, la durée pendant laquelle vous prévoyez de les conserver et la fréquence à laquelle vous devez y accéder. Les modifications apportées aux données ou aux métadonnées d'un objet équivalent à la suppression d'un objet et à la création d'un nouvel objet pour le remplacer. Cela entraîne des frais supplémentaires pour les objets stockés dans la classe de stockage S3 One Zone-IA. Les objets de moins de 128 Ko sont inférieurs à la capacité minimale facturée par objet dans la classe de stockage S3 One Zone-IA. Ces objets sont stockés dans la classe de stockage S3 Standard.  | 
| S3 Glacier Instant Retrieval |  Choisissez S3 Glacier Instant Retrieval pour archiver des objets rarement consultés mais nécessitant une extraction en quelques millisecondes. Les données stockées dans la classe de stockage S3 Glacier Instant Retrieval permettent de réaliser des économies par rapport à la classe de stockage S3 Standard-IA avec les mêmes performances de latence et de débit. S3 Glacier Instant Retrieval a cependant des coûts d'accès aux données plus élevés que S3 Standard-IA. Les objets stockés dans S3 Glacier Instant Retrieval peuvent entraîner des frais supplémentaires en cas de remplacement, de suppression ou de récupération. Prenez en compte la fréquence de changement de ces objets, la durée pendant laquelle vous prévoyez de les conserver et la fréquence à laquelle vous devez y accéder. Les modifications apportées aux données ou aux métadonnées d'un objet équivalent à la suppression d'un objet et à la création d'un nouvel objet pour le remplacer. Cela entraîne des frais supplémentaires pour les objets stockés dans la classe de stockage S3 Glacier Instant Retrieval. Les objets de moins de 128 Ko sont inférieurs à la capacité minimale facturée par objet dans la classe de stockage S3 Glacier Instant Retrieval. Ces objets sont stockés dans la classe de stockage S3 Standard.  | 
| S3 Glacier Flexible Retrieval | Choisissez S3 Glacier Flexible Retrieval pour des archives plus actives.Les objets stockés dans S3 Glacier Flexible Retrieval peuvent entraîner des frais supplémentaires en cas de remplacement, de suppression ou de récupération. Prenez en compte la fréquence de changement de ces objets, la durée pendant laquelle vous prévoyez de les conserver et la fréquence à laquelle vous devez y accéder. Les modifications apportées aux données ou aux métadonnées d'un objet équivalent à la suppression d'un objet et à la création d'un nouvel objet pour le remplacer. Cela entraîne des frais supplémentaires pour les objets stockés dans la classe de stockage S3 Glacier Flexible Retrieval.La classe de stockage S3 Glacier Flexible Retrieval nécessite 40 Ko de métadonnées supplémentaires pour chaque objet archivé. DataSync place les objets dont la taille est inférieure à 40 Ko dans la classe de stockage S3 Standard. Vous devez restaurer les objets archivés dans cette classe de stockage avant de DataSync pouvoir les lire. Pour plus d'informations, consultez la section [Travailler avec des objets archivés](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) dans le guide de l'utilisateur Amazon S3.Lorsque vous utilisez S3 Glacier Flexible Retrieval, choisissez l'option **Vérifier uniquement les données transférées** pour comparer les sommes de contrôle des données et des métadonnées à la fin du transfert. Vous ne pouvez pas utiliser l'option **Vérifier toutes les données dans la destination** pour cette classe de stockage car elle nécessite de récupérer tous les objets existants depuis la destination. | 
| S3 Glacier Deep Archive |  Choisissez S3 Glacier Deep Archive pour archiver vos objets afin de les conserver à long terme et de les conserver sous forme numérique lorsque les données sont consultées une ou deux fois par an. Les objets stockés dans S3 Glacier Deep Archive peuvent entraîner des frais supplémentaires en cas de remplacement, de suppression ou de récupération. Prenez en compte la fréquence de changement de ces objets, la durée pendant laquelle vous prévoyez de les conserver et la fréquence à laquelle vous devez y accéder. Les modifications apportées aux données ou aux métadonnées d'un objet équivalent à la suppression d'un objet et à la création d'un nouvel objet pour le remplacer. Cela entraîne des frais supplémentaires pour les objets stockés dans la classe de stockage S3 Glacier Deep Archive. La classe de stockage S3 Glacier Deep Archive nécessite 40 Ko de métadonnées supplémentaires pour chaque objet archivé. DataSync place les objets dont la taille est inférieure à 40 Ko dans la classe de stockage S3 Standard. Vous devez restaurer les objets archivés dans cette classe de stockage avant de DataSync pouvoir les lire. Pour plus d'informations, consultez la section [Travailler avec des objets archivés](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) dans le *guide de l'utilisateur Amazon S3*. Lorsque vous utilisez S3 Glacier Deep Archive, choisissez **l'option Vérifier uniquement les données transférées** pour comparer les sommes de contrôle des données et des métadonnées à la fin du transfert. Vous ne pouvez pas utiliser l'option **Vérifier toutes les données dans la destination** pour cette classe de stockage car elle nécessite de récupérer tous les objets existants depuis la destination.  | 
|  S3 Outposts  |  Classe de stockage pour Amazon S3 sur Outposts.  | 

## Évaluation des coûts des requêtes S3 lors de l'utilisation DataSync
<a name="create-s3-location-s3-requests"></a>

Avec les sites Amazon S3, vous devez supporter des coûts liés aux demandes d'API S3 effectuées par DataSync. Cette section peut vous aider à comprendre comment ces demandes sont DataSync utilisées et comment elles peuvent affecter vos [coûts Amazon S3](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Demandes S3 effectuées par DataSync](#create-s3-location-s3-requests-made)
+ [Considérations de coût](#create-s3-location-s3-requests-cost)

### Demandes S3 effectuées par DataSync
<a name="create-s3-location-s3-requests-made"></a>

Le tableau suivant décrit les demandes S3 que vous DataSync pouvez effectuer lorsque vous copiez des données depuis ou vers un emplacement Amazon S3.


| Requête S3 | Comment DataSync l'utilise | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync fait au moins une `LIST` demande pour chaque objet se terminant par une barre oblique (`/`) afin de répertorier les objets commençant par ce préfixe. Cette demande est appelée pendant la phase de [préparation](run-task.md#understand-task-execution-statuses) d'une tâche.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync fait `HEAD` des demandes pour récupérer les métadonnées des objets pendant les phases de [préparation](run-task.md#understand-task-execution-statuses) et de [vérification](run-task.md#understand-task-execution-statuses) d'une tâche. Il peut y avoir plusieurs `HEAD` demandes par objet en fonction de la manière dont vous DataSync souhaitez [vérifier l'intégrité des données transférées](configure-data-verification-options.md). | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync fait `GET` des demandes pour lire les données d'un objet pendant la phase de [transfert](run-task.md#understand-task-execution-statuses) d'une tâche. Il peut y avoir plusieurs `GET` demandes pour des objets de grande taille.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Si vous configurez votre tâche pour [copier des balises d'objet](configure-metadata.md), DataSync envoyez ces `GET` demandes pour vérifier la présence de balises d'objet pendant les phases de [préparation](run-task.md#understand-task-execution-statuses) et de [transfert](run-task.md#understand-task-execution-statuses) de la tâche.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync fait des `PUT` demandes pour créer des objets et des préfixes dans un compartiment S3 de destination pendant la phase de [transfert](run-task.md#understand-task-execution-statuses) d'une tâche. Comme il DataSync utilise la [fonctionnalité de téléchargement partitionné d'Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html), il peut y avoir plusieurs `PUT` demandes pour des objets volumineux. Pour minimiser les coûts de stockage, nous vous recommandons d'utiliser une [configuration de cycle]() de vie pour arrêter les téléchargements partitionnés incomplets.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | Si vos objets source comportent des balises et que vous configurez votre tâche pour [copier les balises des objets](configure-metadata.md), DataSync effectuez ces `PUT` demandes lors du [transfert](run-task.md#understand-task-execution-statuses) de ces balises. | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync fait une `COPY` demande pour créer une copie d'un objet uniquement si les métadonnées de cet objet changent. Cela peut se produire si vous avez initialement copié des données dans le compartiment S3 à l'aide d'un autre service ou outil qui n'a pas transféré ses métadonnées.  | 

### Considérations de coût
<a name="create-s3-location-s3-requests-cost"></a>

DataSync effectue des requêtes S3 sur des compartiments S3 à chaque fois que vous exécutez votre tâche. Cela peut entraîner une augmentation des frais dans certaines situations. Par exemple :
+ Vous transférez fréquemment des objets vers ou depuis un compartiment S3.
+ Vous ne transférez peut-être pas beaucoup de données, mais votre compartiment S3 contient de nombreux objets. Vous pouvez toujours constater des frais élevés dans ce scénario, car DataSync il envoie des requêtes S3 sur chacun des objets du compartiment.
+ Vous effectuez un transfert entre des compartiments S3, tout comme vous DataSync envoyez des requêtes S3 sur la source et la destination.

Pour aider à minimiser les coûts liés aux demandes S3 DataSync, tenez compte des points suivants :

**Topics**
+ [Quelles sont les classes de stockage S3 que j'utilise ?](#create-s3-location-s3-requests-storage-classes)
+ [À quelle fréquence dois-je transférer mes données ?](#create-s3-location-s3-requests-recurring-transfers)

#### Quelles sont les classes de stockage S3 que j'utilise ?
<a name="create-s3-location-s3-requests-storage-classes"></a>

Les frais de demande S3 peuvent varier en fonction de la classe de stockage Amazon S3 utilisée par vos objets, en particulier pour les classes qui archivent des objets (telles que S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive).

Voici quelques scénarios dans lesquels les classes de stockage peuvent affecter les frais de vos demandes S3 lors de l'utilisation de DataSync :
+ Chaque fois que vous exécutez une tâche, vous envoyez DataSync des `HEAD` demandes pour récupérer les métadonnées de l'objet. Ces demandes entraînent des frais même si vous ne déplacez aucun objet. L'impact de ces demandes sur votre facture dépend de la classe de stockage utilisée par vos objets et du nombre d'objets DataSync numérisés.
+ Si vous avez déplacé des objets vers la classe de stockage S3 Glacier Instant Retrieval (soit directement, soit par le biais d'une configuration du cycle de vie des compartiments), les demandes sur les objets de cette classe sont plus coûteuses que les objets des autres classes de stockage.
+ Si vous configurez votre DataSync tâche pour [vérifier que vos emplacements source et de destination sont entièrement synchronisés](configure-data-verification-options.md), des `GET` demandes seront envoyées pour chaque objet dans toutes les classes de stockage (à l'exception de S3 Glacier Flexible Retrieval et S3 Glacier Deep Archive).
+ Outre les `GET` demandes, vous devez payer des frais de récupération de données pour les objets de la classe de stockage S3 Standard-IA, S3 One Zone-IA ou S3 Glacier Instant Retrieval.

Pour plus d’informations, consultez [Tarification Amazon S3](https://aws.amazon.com/s3/pricing/).

#### À quelle fréquence dois-je transférer mes données ?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Si vous devez déplacer des données de manière récurrente, pensez à un [calendrier](task-scheduling.md) qui n'exécute pas plus de tâches que nécessaire.

Vous pouvez également envisager de limiter l'étendue de vos transferts. Par exemple, vous pouvez configurer DataSync pour vous concentrer sur les objets dans certains préfixes ou [filtrer les données transférées](filtering.md). Ces options peuvent contribuer à réduire le nombre de demandes S3 effectuées chaque fois que vous exécutez votre DataSync tâche.

## Considérations relatives aux objets lors des transferts Amazon S3
<a name="create-s3-location-considerations"></a>
+ Si vous effectuez un transfert depuis un compartiment S3, utilisez [S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html) pour déterminer le nombre d'objets que vous déplacez.
+ Lors du transfert entre compartiments S3, nous vous recommandons d'utiliser le [mode tâche amélioré](choosing-task-mode.md), car vous n'êtes pas soumis à des [quotas](datasync-limits.md) de DataSync tâches.
+ DataSync risque de ne pas transférer un objet dont le nom contient des caractères non standard. Pour plus d'informations, consultez les [directives de dénomination des clés d'objet](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) dans le *guide de l'utilisateur Amazon S3*.
+ Lorsque vous utilisez DataSync un compartiment S3 qui utilise le [versionnement](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html), n'oubliez pas ce qui suit :
  + Lors du transfert vers un compartiment S3, DataSync crée une nouvelle version d'un objet si celui-ci est modifié à la source. Cela entraîne des frais supplémentaires.
  + La version d'un objet est différente IDs dans les compartiments source et de destination.
  + Seule la version la plus récente de chaque objet est transférée depuis le compartiment source. Les versions antérieures ne sont pas copiées vers la destination.
+ Après avoir initialement transféré des données d'un compartiment S3 vers un système de fichiers (par exemple, NFS ou Amazon FSx), les exécutions suivantes de la même DataSync tâche n'incluront pas les objets qui ont été modifiés mais qui ont la même taille que lors du premier transfert.

## Création de votre lieu de transfert pour un compartiment Amazon S3 à usage général
<a name="create-s3-location-how-to"></a>

Pour créer un emplacement pour votre transfert, vous avez besoin d'un compartiment S3 à usage général existant. Si vous n'en avez pas, consultez le [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**Important**  
Avant de créer votre position, assurez-vous de lire les sections suivantes :  
[Considérations relatives à la classe de stockage lors des transferts Amazon S3](#using-storage-classes)
[Évaluation des coûts des requêtes S3 lors de l'utilisation DataSync](#create-s3-location-s3-requests)

### Utilisation de la DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type d'emplacement**, choisissez **Amazon S3**, puis choisissez **General Purpose bucket**.

1. Pour l'**URI S3**, entrez ou choisissez le compartiment et le préfixe que vous souhaitez utiliser pour votre position.
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Pour la **classe de stockage S3 utilisée comme destination**, choisissez la classe de stockage que vous souhaitez que vos objets utilisent lorsque Amazon S3 est une destination de transfert.

   Pour de plus amples informations, veuillez consulter [Considérations relatives à la classe de stockage lors des transferts Amazon S3](#using-storage-classes).

1. Pour **IAM role (Rôle IAM)**, effectuez l'une des opérations suivantes :
   + Choisissez **Autogenerate** pour DataSync créer automatiquement un rôle IAM avec les autorisations requises pour accéder au compartiment S3.

     Si un rôle IAM a DataSync déjà été créé pour ce compartiment S3, ce rôle est choisi par défaut.
   + Choisissez un rôle IAM personnalisé que vous avez créé. Pour de plus amples informations, veuillez consulter [Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](#create-role-manually).

1. (Facultatif) Choisissez **Ajouter une nouvelle balise** pour étiqueter votre position Amazon S3.

   Les balises vous aident à gérer, filtrer et rechercher vos ressources. Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-s3-cli"></a>

1. Copiez la `create-location-s3` commande suivante :

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Pour`--s3-bucket-arn`, spécifiez l'ARN du compartiment S3 que vous souhaitez utiliser comme emplacement.

1. Pour`--s3-storage-class`, spécifiez la classe de stockage que vous souhaitez que vos objets utilisent lorsque Amazon S3 est une destination de transfert.

1. Pour`--s3-config`, spécifiez l'ARN du rôle IAM qui DataSync doit accéder à votre bucket.

   Pour de plus amples informations, veuillez consulter [Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](#create-role-manually).

1. Pour`--subdirectory`, spécifiez un préfixe dans le compartiment S3 qui DataSync lit depuis ou vers lequel il écrit (selon que le compartiment est un emplacement source ou de destination).
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Exécutez la commande `create-location-s3`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Vous pouvez utiliser cet emplacement comme source ou destination pour votre DataSync tâche.

## Création de votre lieu de transfert pour un bucket S3 on Outposts
<a name="create-s3-location-outposts-how-to"></a>

Pour créer un emplacement pour votre transfert, vous avez besoin d'un bucket Amazon S3 on Outposts existant. Si vous n'en avez pas, consultez le guide de l'[https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

Vous avez également besoin d'un DataSync agent. Pour de plus amples informations, veuillez consulter [Déploiement de votre agent en mode de base sur AWS Outposts](deploy-agents.md#outposts-agent).

Lorsque vous effectuez un transfert depuis un préfixe de compartiment S3 on Outposts contenant un ensemble de données volumineux (par exemple des centaines de milliers ou des millions d'objets), votre DataSync tâche peut expirer. Pour éviter cela, pensez à utiliser un [DataSync manifeste](transferring-with-manifest.md), qui vous permet de spécifier les objets exacts que vous devez transférer.

### Utilisation de la DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type d'emplacement**, choisissez **Amazon S3**, puis choisissez **Outposts bucket**.

1. Pour le **compartiment S3**, choisissez un point d'accès Amazon S3 qui peut accéder à votre compartiment S3 on Outposts. 

   Pour plus d'informations, consultez le [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Pour la **classe de stockage S3 utilisée comme destination**, choisissez la classe de stockage que vous souhaitez que vos objets utilisent lorsque Amazon S3 est une destination de transfert.

   Pour plus d'informations, consultez[Considérations relatives à la classe de stockage lors des transferts Amazon S3](#using-storage-classes). DataSync utilise par défaut la classe de stockage S3 Outposts pour Amazon S3 on Outposts.

1. Pour les **agents**, spécifiez le nom de ressource Amazon (ARN) de l' DataSync agent de votre Outpost.

1. Pour **Dossier**, entrez un préfixe dans le compartiment S3 qui DataSync lit ou écrit dans le compartiment (selon qu'il s'agit d'un emplacement source ou de destination).
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Pour **IAM role (Rôle IAM)**, effectuez l'une des opérations suivantes :
   + Choisissez **Autogenerate** pour DataSync créer automatiquement un rôle IAM avec les autorisations requises pour accéder au compartiment S3.

     Si un rôle IAM a DataSync déjà été créé pour ce compartiment S3, ce rôle est choisi par défaut.
   + Choisissez un rôle IAM personnalisé que vous avez créé. Pour de plus amples informations, veuillez consulter [Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](#create-role-manually).

1. (Facultatif) Choisissez **Ajouter une nouvelle balise** pour étiqueter votre position Amazon S3.

   Les balises vous aident à gérer, filtrer et rechercher vos ressources. Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-s3-cli"></a>

1. Copiez la `create-location-s3` commande suivante :

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. Pour`--s3-bucket-arn`, spécifiez l'ARN d'un point d'accès Amazon S3 qui peut accéder à votre compartiment S3 on Outposts.

   Pour plus d'informations, consultez le [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Pour`--s3-storage-class`, spécifiez la classe de stockage que vous souhaitez que vos objets utilisent lorsque Amazon S3 est une destination de transfert.

   Pour plus d'informations, consultez[Considérations relatives à la classe de stockage lors des transferts Amazon S3](#using-storage-classes). DataSync utilise par défaut la classe de stockage S3 Outposts pour S3 on Outposts.

1. Pour`--s3-config`, spécifiez l'ARN du rôle IAM qui DataSync doit accéder à votre bucket.

   Pour de plus amples informations, veuillez consulter [Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](#create-role-manually).

1. Pour`--subdirectory`, spécifiez un préfixe dans le compartiment S3 qui DataSync lit depuis ou vers lequel il écrit (selon que le compartiment est un emplacement source ou de destination).
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Pour`--agent-arns`, spécifiez l'ARN de l' DataSync agent sur votre avant-poste.

1. Exécutez la commande `create-location-s3`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Vous pouvez utiliser cet emplacement comme source ou destination pour votre DataSync tâche.

## Amazon S3 effectue des transferts entre Comptes AWS
<a name="create-s3-location-cross-transfers"></a>

Avec DataSync, vous pouvez déplacer des données vers ou depuis des compartiments S3 de [différentes Comptes AWS](working-with-locations.md#working-with-locations-across-accounts) manières. Pour plus d'informations, consultez les didacticiels suivants :
+ [Transfert de données depuis le stockage sur site vers Amazon S3 via Comptes AWS](s3-cross-account-transfer.md)
+ [Transfert de données d'Amazon S3 vers Amazon S3 via Comptes AWS](tutorial_s3-s3-cross-account-transfer.md)

## Amazon S3 effectue des transferts entre des sites commerciaux et AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

Par défaut, DataSync n'est pas transféré entre les compartiments S3 dans les environnements commerciaux et AWS GovCloud (US) Regions. Vous pouvez toutefois configurer ce type de transfert en créant un emplacement de stockage d'objets pour l'un des compartiments S3 de votre transfert. Vous pouvez effectuer ce type de transfert avec ou sans agent. Si vous utilisez un agent, votre tâche doit être configurée pour le mode **de base**. Pour effectuer un transfert sans agent, vous devez utiliser le mode **amélioré**.

**Avant de commencer** : assurez-vous de bien comprendre les implications financières du transfert entre les régions. Pour plus d’informations, consultez [Tarification d’AWS DataSync](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Fournir un DataSync accès au bucket de votre emplacement de stockage d'objets](#create-s3-location-govcloud-iam)
+ [Création de votre DataSync agent (facultatif)](#create-s3-location-govcloud-create-agent)
+ [Création d'un emplacement de stockage d'objets pour votre compartiment S3](#create-s3-location-govcloud-how-to)

### Fournir un DataSync accès au bucket de votre emplacement de stockage d'objets
<a name="create-s3-location-govcloud-iam"></a>

Lorsque vous créez l'emplacement de stockage d'objets pour ce transfert, vous devez fournir DataSync les informations d'identification d'un utilisateur IAM autorisé à accéder au compartiment S3 de l'emplacement. Pour de plus amples informations, veuillez consulter [Autorisations requises](#create-s3-location-required-permissions).

**Avertissement**  
Les utilisateurs IAM disposent d’informations d’identification à long terme, ce qui présente un risque de sécurité. Pour atténuer ce risque, nous vous recommandons de ne fournir à ces utilisateurs que les autorisations dont ils ont besoin pour effectuer la tâche et de supprimer ces autorisations lorsqu’elles ne sont plus nécessaires.

### Création de votre DataSync agent (facultatif)
<a name="create-s3-location-govcloud-create-agent"></a>

Si vous souhaitez effectuer votre transfert en mode **Basic**, vous devez utiliser un agent. Comme vous passez d'une version commerciale à une instance commerciale AWS GovCloud (US) Region, vous déployez votre DataSync agent en tant qu'instance Amazon EC2 dans l'une des régions. Nous recommandons à votre agent d'utiliser un point de terminaison de service VPC pour éviter les frais de transfert de données vers l'Internet public. Pour plus d'informations, consultez la [tarification d'Amazon EC2 Data Transfer](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Choisissez l'un des scénarios suivants qui décrivent comment créer un agent en fonction de la région dans laquelle vous prévoyez d'exécuter votre DataSync tâche.

#### Lors de l'exécution d'une DataSync tâche dans une région commerciale
<a name="using-datasync-in-commercial"></a>

Le schéma suivant montre un transfert où votre DataSync tâche et votre agent se trouvent dans la région commerciale.

![\[Un DataSync agent déployé dans une région commerciale pour un transfert entre régions vers un compartiment S3 dans un AWS GovCloud (US) Region.\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Référence | Description | 
| --- | --- | 
| 1 | Dans la région commerciale dans laquelle vous exécutez une DataSync tâche, les données sont transférées depuis le compartiment S3 source. Le compartiment source est configuré comme un [emplacement Amazon S3](#create-s3-location-how-to) dans la région commerciale. | 
| 2 | [Les données sont transférées via l' DataSync agent, qui se trouve dans le même VPC et le même sous-réseau où se trouvent le point de terminaison du service VPC et les interfaces réseau.](required-network-interfaces.md) | 
| 3 | Transferts de données vers le compartiment S3 de destination dans le AWS GovCloud (US) Region. Le compartiment de destination est configuré comme [emplacement de stockage d'objets](#create-s3-location-govcloud-how-to) dans la région commerciale.  | 

Vous pouvez également utiliser cette même configuration pour transférer la direction opposée de la région AWS GovCloud (US) Region vers la région commerciale.

**Pour créer votre DataSync agent**

1. [Déployez un agent Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) dans votre région commerciale.

1. Configurez votre agent pour utiliser un point de terminaison de [service VPC.](choose-service-endpoint.md#datasync-in-vpc)

1. [Activez votre agent](activate-agent.md).

#### Lors de l'exécution d'une DataSync tâche dans une région GovCloud (États-Unis)
<a name="using-datasync-in-govcloud-1"></a>

Le schéma suivant montre un transfert dans lequel se trouvent votre DataSync tâche et votre agent AWS GovCloud (US) Region.

![\[DataSync Agent déployé dans le cadre d'un transfert régional AWS GovCloud (US) Region ou interrégional vers un compartiment S3 situé dans le même AWS GovCloud (US) Region compartiment.\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Référence | Description | 
| --- | --- | 
| 1 | Transferts de données depuis le compartiment S3 source de la région commerciale vers celui dans AWS GovCloud (US) Region lequel vous exécutez une DataSync tâche. Le compartiment source est configuré comme [emplacement de stockage d'objets](#create-s3-location-govcloud-how-to) dans le AWS GovCloud (US) Region.  | 
| 2 | [Dans le AWS GovCloud (US) Region, les données sont transférées via l' DataSync agent dans le même VPC et le même sous-réseau où se trouvent le point de terminaison du service VPC et les interfaces réseau.](required-network-interfaces.md) | 
| 3 | Transferts de données vers le compartiment S3 de destination dans le AWS GovCloud (US) Region. Le compartiment de destination est configuré en tant qu'[emplacement Amazon S3](#create-s3-location-how-to) dans le AWS GovCloud (US) Region. | 

Vous pouvez également utiliser cette même configuration pour transférer la direction opposée de la région AWS GovCloud (US) Region vers la région commerciale.

**Pour créer votre DataSync agent**

1. [Déployez un agent Amazon EC2 dans votre](deploy-agents.md#ec2-deploy-agent-how-to). AWS GovCloud (US) Region

1. Configurez votre agent pour utiliser un point de terminaison de [service VPC.](choose-service-endpoint.md#datasync-in-vpc)

1. [Activez votre agent](activate-agent.md).

Si votre ensemble de données est hautement compressible, vous pouvez réduire les coûts en créant plutôt votre agent dans une région commerciale tout en exécutant une tâche dans un AWS GovCloud (US) Region. La configuration de cet agent est plus complexe que d'habitude, y compris la préparation de l'agent pour une utilisation dans une région commerciale. Pour plus d'informations sur la création d'un agent pour cette configuration, consultez le AWS DataSync blog [Déplacer des données vers et AWS GovCloud (US) depuis avec](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Création d'un emplacement de stockage d'objets pour votre compartiment S3
<a name="create-s3-location-govcloud-how-to"></a>

Vous avez besoin d'un emplacement de stockage d'objets pour le compartiment S3 situé dans la région où vous n'exécutez pas votre DataSync tâche.

#### Utilisation de la DataSync console
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Assurez-vous que vous vous trouvez dans la même région que celle dans laquelle vous prévoyez d'exécuter votre tâche.

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Type d'emplacement**, choisissez **Stockage d'objets**.

1. Pour les **agents**, choisissez l' DataSync agent que vous avez créé pour ce transfert.

1. Pour **Server**, entrez un point de terminaison Amazon S3 pour votre compartiment en utilisant l'un des formats suivants :
   + **Compartiment de la région commerciale :** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region seau** : `s3.your-gov-region.amazonaws.com`

   Pour obtenir la liste des points de terminaison Amazon S3, consultez le *[Références générales AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Dans le champ Nom du **compartiment**, entrez le nom du compartiment S3.

1. Pour **Dossier**, entrez un préfixe dans le compartiment S3 qui DataSync lit ou écrit dans le compartiment (selon qu'il s'agit d'un emplacement source ou de destination).
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Sélectionnez **Requiert des informations d'identification** et procédez comme suit :
   + Pour **Clé d'accès**, entrez la clé d'accès d'un [utilisateur IAM](#create-s3-location-govcloud-iam) autorisé à accéder au compartiment.
   + Pour **Clé secrète**, entrez la clé secrète du même utilisateur IAM.

1. (Facultatif) Choisissez **Ajouter un tag** pour marquer votre position.

   Les balises vous aident à gérer, filtrer et rechercher vos ressources. Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Choisissez **Créer un emplacement**.

#### À l'aide du AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Copiez la `create-location-object-storage` commande suivante :

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. Pour le `--server-hostname` paramètre, spécifiez un point de terminaison Amazon S3 pour votre compartiment en utilisant l'un des formats suivants :
   + **Compartiment de la région commerciale :** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region seau** : `s3.your-gov-region.amazonaws.com`

   Pour la région du point de terminaison, assurez-vous de spécifier la même région dans laquelle vous prévoyez d'exécuter votre tâche.

   Pour obtenir la liste des points de terminaison Amazon S3, consultez le *[Références générales AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Pour le `--bucket-name` paramètre, spécifiez le nom du compartiment S3.

1. Pour le `--agent-arns` paramètre, spécifiez l' DataSyncagent que vous avez créé pour ce transfert.

1. Pour le `--access-key` paramètre, spécifiez la clé d'accès pour un [utilisateur IAM](#create-s3-location-govcloud-iam) autorisé à accéder au bucket.

1. Pour le `--secret-key` paramètre, entrez la clé secrète du même utilisateur IAM.

1. (Facultatif) Pour le `--subdirectory` paramètre, spécifiez un préfixe dans le compartiment S3 qui DataSync lit ou écrit dans le compartiment (selon que le compartiment est un emplacement source ou de destination).
**Avertissement**  
DataSync Impossible de transférer des objets dont le préfixe commence par une barre oblique (`/`) ou inclut `//``/./`, ou `/../` des motifs. Par exemple :  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Facultatif) Pour le `--tags` paramètre, spécifiez des paires clé-valeur qui représentent les balises de la ressource de localisation.

   Les balises vous aident à gérer, filtrer et rechercher vos ressources. Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Exécutez la commande `create-location-object-storage`.

   Vous obtenez une réponse qui indique l'ARN de localisation que vous venez de créer.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

Vous pouvez utiliser cet emplacement comme source ou destination pour votre DataSync tâche. Pour l'autre compartiment S3 concerné par ce transfert, [créez un emplacement Amazon S3](#create-s3-location-how-to).

## Étapes suivantes
<a name="create-s3-location-next-steps"></a>

Parmi les prochaines étapes possibles, citons :

1. Si nécessaire, créez votre autre emplacement. Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. [Configurez les paramètres des DataSync tâches](task-options.md), tels que les fichiers à transférer, la manière de gérer les métadonnées, entre autres options.

1. [Définissez un calendrier](task-scheduling.md) pour votre DataSync tâche.

1. [Configurez la surveillance](monitoring-overview.md) pour votre DataSync tâche.

1. [Commencez](run-task.md) votre tâche.

# Configuration des AWS DataSync transferts avec Amazon EFS
<a name="create-efs-location"></a>

Pour transférer des données vers ou depuis votre système de fichiers Amazon EFS, vous devez créer un *emplacement AWS DataSync * de transfert. DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir un DataSync accès aux systèmes de fichiers Amazon EFS
<a name="create-efs-location-access"></a>

[La création d'un emplacement](#create-efs-location-how-to) implique de comprendre comment DataSync accéder à votre espace de stockage. Pour Amazon EFS, DataSync monte votre système de fichiers en tant qu'utilisateur root depuis votre cloud privé virtuel (VPC) à [l'aide](required-network-interfaces.md) d'interfaces réseau.

**Contents**
+ [Déterminer le sous-réseau et les groupes de sécurité pour votre cible de montage](#create-efs-location-mount-target)
+ [Accès aux systèmes de fichiers restreints](#create-efs-location-iam)
  + [Création d'un rôle DataSync IAM pour l'accès au système de fichiers](#create-efs-location-iam-role)
  + [Exemple de politique de système de fichiers autorisant DataSync l'accès](#create-efs-location-iam-policy)

### Déterminer le sous-réseau et les groupes de sécurité pour votre cible de montage
<a name="create-efs-location-mount-target"></a>

Lorsque vous créez votre emplacement, vous spécifiez le sous-réseau et les groupes de sécurité qui permettent de vous connecter DataSync à l'une des [cibles de montage](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) de votre système de fichiers Amazon EFS.

Le sous-réseau que vous spécifiez doit être situé :
+ Dans le même VPC que votre système de fichiers.
+ Dans la même zone de disponibilité qu'au moins une cible de montage pour votre système de fichiers.

**Note**  
Vous n'avez pas besoin de spécifier un sous-réseau incluant une cible de montage de système de fichiers.

Les groupes de sécurité que vous spécifiez doivent autoriser le trafic entrant sur le port 2049 du système de fichiers réseau (NFS). Pour plus d'informations sur la création et la mise à jour de groupes de sécurité pour vos cibles de montage, consultez le [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html).

**Spécification des groupes de sécurité associés à une cible de montage**  
Vous pouvez spécifier un groupe de sécurité associé à l'une des cibles de montage de votre système de fichiers. Nous recommandons cette approche du point de vue de la gestion du réseau.

**Spécifier les groupes de sécurité qui ne sont pas associés à une cible de montage**  
Vous pouvez également spécifier un groupe de sécurité qui n'est pas associé à l'une des cibles de montage de votre système de fichiers. Toutefois, ce groupe de sécurité doit être en mesure de communiquer avec le groupe de sécurité d'une cible de montage.  
Par exemple, voici comment créer une relation entre le groupe de sécurité D (pour DataSync) et le groupe de sécurité M (pour la cible de montage) :  
+ Le groupe de sécurité D, que vous spécifiez lors de la création de votre position, doit disposer d'une règle autorisant les connexions sortantes sur le port NFS 2049 vers le groupe de sécurité M.
+ Le groupe de sécurité M, que vous associez à la cible de montage, doit autoriser l'accès entrant sur le port NFS 2049 à partir du groupe de sécurité D.

**Pour trouver le groupe de sécurité d'une cible de montage**

Les instructions suivantes peuvent vous aider à identifier le groupe de sécurité d'une cible de montage du système de fichiers Amazon EFS que vous DataSync souhaitez utiliser pour votre transfert.

1. Dans le AWS CLI, exécutez la `describe-mount-targets` commande suivante.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   Cette commande renvoie des informations sur les cibles de montage de votre système de fichiers (comme dans l'exemple de sortie suivant).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. Prenez note de la `MountTargetId` valeur que vous souhaitez utiliser.

1. Exécutez la `describe-mount-target-security-groups` commande suivante en utilisant le `MountTargetId` pour voir le groupe de sécurité de votre cible de montage.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

Vous spécifiez ce groupe de sécurité lors de [la création de votre position](#create-efs-location-how-to).

### Accès aux systèmes de fichiers restreints
<a name="create-efs-location-iam"></a>

DataSync peut être transféré vers ou depuis les systèmes de fichiers Amazon EFS qui limitent l'accès via des [points d'accès](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) et des [politiques IAM](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html).

**Note**  
[Si vous DataSync accédez à un système de fichiers de destination via un point d'accès qui [applique l'identité de l'utilisateur](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points), l'utilisateur et le groupe POSIX de vos données sources ne sont pas préservés si vous configurez votre DataSync tâche IDs pour en copier la propriété.](configure-metadata.md) Au lieu de cela, les fichiers et dossiers transférés sont définis en fonction de l'utilisateur et du groupe du point d'accès IDs. Dans ce cas, la vérification des tâches échoue car elle DataSync détecte une incompatibilité entre les métadonnées des emplacements source et de destination.

**Contents**
+ [Création d'un rôle DataSync IAM pour l'accès au système de fichiers](#create-efs-location-iam-role)
+ [Exemple de politique de système de fichiers autorisant DataSync l'accès](#create-efs-location-iam-policy)

#### Création d'un rôle DataSync IAM pour l'accès au système de fichiers
<a name="create-efs-location-iam-role"></a>

Si votre système de fichiers Amazon EFS restreint l'accès par le biais d'une politique IAM, vous pouvez créer un rôle IAM qui DataSync autorise la lecture ou l'écriture de données dans le système de fichiers. Il se peut que vous deviez ensuite spécifier ce rôle dans la [politique de votre système de fichiers](#create-efs-location-iam-policy).

**Pour créer le rôle DataSync IAM**

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Dans le volet de navigation de gauche, sous **Gestion des accès**, sélectionnez **Rôles**, puis sélectionnez **Créer un rôle**.

1. Sur la page **Sélectionner une entité de confiance**, pour **Type d'entité fiable**, choisissez **Politique de confiance personnalisée**.

1. Collez le code JSON suivant dans l'éditeur de règles :

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. Choisissez **Suivant**. Sur la page **Add permissions** (Ajouter des autorisations), sélectionnez **Next** (Suivant).

1. Donnez un nom à votre rôle et choisissez **Créer un rôle**.

Vous spécifiez ce rôle lors de [la création de votre position](#create-efs-location-how-to).

#### Exemple de politique de système de fichiers autorisant DataSync l'accès
<a name="create-efs-location-iam-policy"></a>

L'exemple de politique de système de fichiers suivant montre comment l'accès à un système de fichiers Amazon EFS (identifié dans la politique comme`fs-1234567890abcdef0`) est restreint tout en autorisant l'accès DataSync via un rôle IAM nommé `MyDataSyncRole` :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal`— Spécifie un [rôle IAM](#create-efs-location-iam) qui donne DataSync l'autorisation d'accéder au système de fichiers.
+ `Action`— Donne un accès DataSync root et lui permet de lire et d'écrire dans le système de fichiers.
+ `aws:SecureTransport`— Nécessite que les clients NFS utilisent le protocole TLS lors de la connexion au système de fichiers.
+ `elasticfilesystem:AccessPointArn`— Autorise l'accès au système de fichiers uniquement via un point d'accès spécifique.

## Considérations relatives au réseau liées aux transferts Amazon EFS
<a name="efs-network-considerations"></a>

VPCs que vous utilisez avec DataSync doit avoir une location par défaut. VPCs avec location dédiée ne sont pas pris en charge.

## Considérations relatives aux performances liées aux transferts Amazon EFS
<a name="efs-considerations"></a>

Le mode de débit de votre système de fichiers Amazon EFS peut affecter la durée du transfert et les performances du système de fichiers pendant le transfert. Éléments à prendre en compte :
+ Pour de meilleurs résultats, nous vous recommandons d'utiliser le mode débit élastique. Si vous n'utilisez pas le mode débit élastique, votre transfert peut prendre plus de temps.
+ Si vous utilisez le mode débit en rafale, les performances des applications de votre système de fichiers peuvent être affectées en raison de la consommation de crédits en rafale DataSync du système de fichiers.
+ La façon dont vous [configurez DataSync pour vérifier les données transférées](configure-data-verification-options.md) peut affecter les performances du système de fichiers et les coûts d'accès aux données.

Pour plus d'informations, consultez les [performances d'Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) dans le *guide de l'utilisateur d'Amazon Elastic File System* et [sur la page de tarification d'Amazon EFS](https://aws.amazon.com/efs/pricing/).

## Création de votre lieu de transfert Amazon EFS
<a name="create-efs-location-how-to"></a>

Pour créer le lieu de transfert, vous avez besoin d'un système de fichiers Amazon EFS existant. Si vous n'en avez pas, consultez [Getting started with Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html) dans le manuel *Amazon Elastic File System User Guide*.

### Utilisation de la DataSync console
<a name="create-efs-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type d'emplacement**, choisissez le **système de fichiers Amazon EFS**.

   Vous configurerez cet emplacement comme source ou destination plus tard. 

1. Pour **Système de fichiers**, choisissez le système de fichiers Amazon EFS que vous souhaitez utiliser comme emplacement.

1. Pour **Chemin de montage**, entrez un chemin de montage pour votre système de fichiers Amazon EFS.

   Cela DataSync indique où les données sont lues ou écrites (selon qu'il s'agit d'un emplacement source ou de destination) sur votre système de fichiers.

   Par défaut, DataSync utilise le répertoire racine (ou le [point d'accès](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) si vous en fournissez un pour le paramètre du **point d'accès EFS**). Vous pouvez également spécifier des sous-répertoires à l'aide de barres obliques (par exemple,). `/path/to/directory`

1. Pour **Sous-réseau**, choisissez un sous-réseau dans lequel vous souhaitez DataSync créer les [interfaces réseau](required-network-interfaces.md) pour gérer votre trafic de transfert de données.

   Le sous-réseau doit être situé :
   + Dans le même VPC que votre système de fichiers.
   + Dans la même zone de disponibilité qu'au moins une cible de montage du système de fichiers.
**Note**  
Vous n'avez pas besoin de spécifier un sous-réseau incluant une cible de montage de système de fichiers.

1. Pour les **groupes de sécurité**, choisissez le groupe de sécurité associé à la cible de montage de votre système de fichiers Amazon EFS. Vous pouvez choisir plusieurs groupes de sécurité.
**Note**  
Les groupes de sécurité que vous spécifiez doivent autoriser le trafic entrant sur le port NFS 2049. Pour de plus amples informations, veuillez consulter [Déterminer le sous-réseau et les groupes de sécurité pour votre cible de montage](#create-efs-location-mount-target).

1. Pour le **chiffrement en transit**, indiquez si vous DataSync souhaitez utiliser le chiffrement TLS (Transport Layer Security) lors du transfert de données vers ou depuis votre système de fichiers.
**Note**  
Vous devez activer ce paramètre pour configurer un point d'accès, un rôle IAM ou les deux avec votre emplacement Amazon EFS.

1. (Facultatif) Pour le **point d'accès EFS**, choisissez un point d'accès qui DataSync peut être utilisé pour monter votre système de fichiers.

   Pour de plus amples informations, veuillez consulter [Accès aux systèmes de fichiers restreints](#create-efs-location-iam).

1. (Facultatif) Pour le **rôle IAM**, spécifiez un rôle qui permet d'accéder DataSync à votre système de fichiers.

   Pour plus d'informations sur la création de ce rôle, consultez [Création d'un rôle DataSync IAM pour l'accès au système de fichiers](#create-efs-location-iam-role).

1. (Facultatif) Sélectionnez **Ajouter une balise** pour étiqueter votre système de fichiers.

   Une *balise* est une paire clé-valeur qui vous aide à gérer, filtrer et rechercher vos emplacements. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-efs-cli"></a>

1. Copiez la `create-location-efs` commande suivante :

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. Pour`--efs-filesystem-arn`, spécifiez le nom de ressource Amazon (ARN) du système de fichiers Amazon EFS vers ou depuis lequel vous effectuez le transfert.

1. Pour`--subdirectory`, spécifiez un chemin de montage pour votre système de fichiers.

   C'est là que les données sont DataSync lues ou écrites (selon qu'il s'agit d'un emplacement source ou de destination) sur votre système de fichiers. 

   Par défaut, DataSync utilise le répertoire racine (ou le [point d'accès](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) si vous en fournissez un`--access-point-arn`). Vous pouvez également spécifier des sous-répertoires à l'aide de barres obliques (par exemple,). `/path/to/directory`

1. Pour `--ec2-config`, procédez comme suit :
   + Pour`SecurityGroupArns`, spécifiez l'ARN du groupe de sécurité associé à la cible de montage de votre système de fichiers. Vous pouvez spécifier plusieurs groupes de sécurité.
**Note**  
Les groupes de sécurité que vous spécifiez doivent autoriser le trafic entrant sur le port NFS 2049. Pour de plus amples informations, veuillez consulter [Déterminer le sous-réseau et les groupes de sécurité pour votre cible de montage](#create-efs-location-mount-target).
   + Pour`SubnetArn`, spécifiez l'ARN du sous-réseau dans lequel vous souhaitez DataSync créer les [interfaces réseau](required-network-interfaces.md) pour gérer votre trafic de transfert de données.

     Le sous-réseau doit être situé :
     + Dans le même VPC que votre système de fichiers.
     + Dans la même zone de disponibilité qu'au moins une cible de montage du système de fichiers.
**Note**  
Vous n'avez pas besoin de spécifier un sous-réseau incluant une cible de montage de système de fichiers.

1. Pour`--in-transit-encryption`, indiquez si vous DataSync souhaitez utiliser le chiffrement TLS (Transport Layer Security) lors du transfert de données vers ou depuis votre système de fichiers.
**Note**  
Vous devez le définir `TLS1_2` pour configurer un point d'accès, un rôle IAM ou les deux avec votre emplacement Amazon EFS.

1. (Facultatif) Pour`--access-point-arn`, spécifiez l'ARN d'un point d'accès qui DataSync peut être utilisé pour monter votre système de fichiers.

   Pour de plus amples informations, veuillez consulter [Accès aux systèmes de fichiers restreints](#create-efs-location-iam).

1. (Facultatif) Pour`--file-system-access-role-arn`, spécifiez l'ARN d'un rôle IAM qui permet d'accéder DataSync à votre système de fichiers.

   Pour plus d'informations sur la création de ce rôle, consultez [Création d'un rôle DataSync IAM pour l'accès au système de fichiers](#create-efs-location-iam-role).

1. Exécutez la commande `create-location-efs`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# Configuration des transferts avec FSx pour Windows File Server
<a name="create-fsx-location"></a>

Pour transférer des données vers ou depuis votre système de fichiers Amazon FSx pour Windows File Server, vous devez créer un *emplacement* de AWS DataSync transfert. DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir DataSync un accès FSx aux systèmes de fichiers Windows File Server
<a name="create-fsx-location-access"></a>

DataSync [se connecte à votre système FSx de fichiers Windows File Server via le protocole SMB (Server Message Block) et le monte depuis votre cloud privé virtuel (VPC) à l'aide d'interfaces réseau.](required-network-interfaces.md)

**Note**  
VPCs que vous utilisez avec DataSync doit avoir une location par défaut. VPCs avec location dédiée ne sont pas pris en charge.

**Topics**
+ [Autorisations requises](#create-fsx-windows-location-permissions)
+ [Protocoles d'authentification requis](#configuring-fsx-windows-authentication-protocols)
+ [Espaces de noms DFS](#configuring-fsx-windows-location-dfs)

### Autorisations requises
<a name="create-fsx-windows-location-permissions"></a>

Vous devez fournir à DataSync un utilisateur les droits nécessaires pour monter et accéder à vos fichiers, dossiers et métadonnées de fichiers FSx pour Windows File Server.

Nous recommandons à cet utilisateur d'appartenir à un groupe Microsoft Active Directory pour administrer votre système de fichiers. Les spécificités de ce groupe dépendent de votre configuration Active Directory :
+ Si vous utilisez AWS Directory Service for Microsoft Active Directory with FSx for Windows File Server, l'utilisateur doit être membre du groupe des ** FSx administrateurs AWS délégués**.
+ Si vous utilisez Active Directory autogéré avec FSx pour Windows File Server, l'utilisateur doit être membre de l'un des deux groupes suivants :
  + Le groupe des **administrateurs du domaine**, qui est le groupe d'administrateurs délégués par défaut.
  + Un groupe d'administrateurs délégués personnalisé doté de droits d'utilisateur permettant de DataSync copier les autorisations de propriété des objets et les listes de contrôle d'accès Windows (ACLs).
**Important**  
Vous ne pouvez pas modifier le groupe d'administrateurs délégués une fois le système de fichiers déployé. Vous devez soit redéployer le système de fichiers, soit le restaurer à partir d'une sauvegarde pour utiliser le groupe d'administrateurs délégués personnalisé doté des droits d'utilisateur suivants qui DataSync doit copier les métadonnées.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-fsx-location.html)
+ Si vous souhaitez copier Windows ACLs et effectuez un transfert entre un serveur de fichiers SMB et FSx un système de fichiers Windows File Server ou entre FSx des systèmes de fichiers Windows File Server, les utilisateurs que vous indiquez DataSync doivent appartenir au même domaine Active Directory ou avoir une relation d'approbation Active Directory entre leurs domaines.

**Avertissement**  
L'utilisateur SYSTEM de votre FSx système de fichiers Windows File Server doit disposer d'autorisations de **contrôle total** sur tous les dossiers de votre système de fichiers. Ne modifiez pas les autorisations ACL NTFS pour cet utilisateur sur vos dossiers. Si vous le faites, vous DataSync pouvez modifier les autorisations de votre système de fichiers de manière à rendre votre partage de fichiers inaccessible et à empêcher les sauvegardes du système de fichiers d'être utilisables. Pour plus d'informations sur l'accès au niveau des fichiers et des dossiers, consultez le guide de l'*[utilisateur du serveur de fichiers Amazon FSx pour Windows](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)*.

### Protocoles d'authentification requis
<a name="configuring-fsx-windows-authentication-protocols"></a>

Votre serveur de fichiers FSx pour Windows doit utiliser l'authentification NTLM pour y DataSync accéder. DataSyncImpossible d'accéder à un serveur de fichiers qui utilise l'authentification Kerberos. 

### Espaces de noms DFS
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync ne prend pas en charge les espaces de noms Microsoft Distributed File System (DFS). Nous vous recommandons de spécifier un serveur de fichiers ou un partage sous-jacent lors de la création de votre DataSync emplacement.

Pour plus d'informations, consultez la section [Regroupement de plusieurs systèmes de fichiers avec des espaces de noms DFS](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) dans le guide de l'*utilisateur du serveur de fichiers Amazon FSx pour Windows*.

## Création de votre emplacement de transfert FSx pour Windows File Server
<a name="create-fsx-location-how-to"></a>

Avant de commencer, assurez-vous que vous disposez d'un serveur de fichiers FSx pour Windows existant dans votre Région AWS. Pour plus d'informations, consultez [Getting started with Amazon FSx ](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html) dans le *guide de l'utilisateur du serveur de fichiers Amazon FSx pour Windows*.

### Utilisation de la DataSync console
<a name="create-fsx-location-access-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type de localisation**, choisissez **Amazon FSx**.

1. Pour **FSx le système de fichiers**, choisissez le système de fichiers FSx pour le serveur de fichiers Windows que vous souhaitez utiliser comme emplacement.

1. Pour **Nom du partage**, entrez un chemin de montage FSx pour votre serveur de fichiers Windows à l'aide de barres obliques.

   Ceci indique le chemin où les données sont DataSync lues ou écrites (selon qu'il s'agit d'un emplacement source ou de destination).

   Vous pouvez également inclure des sous-répertoires (par exemple,`/path/to/directory`).

1. Pour les **groupes de sécurité**, choisissez jusqu'à cinq groupes de sécurité Amazon EC2 qui fournissent un accès au sous-réseau préféré de votre système de fichiers.

   Les groupes de sécurité que vous choisissez doivent être en mesure de communiquer avec les groupes de sécurité de votre système de fichiers. Pour plus d'informations sur la configuration des groupes de sécurité pour l'accès au système de fichiers, consultez le [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Note**  
Si vous choisissez un groupe de sécurité qui n'autorise pas les connexions internes, effectuez l'une des opérations suivantes :  
Configurez le groupe de sécurité pour lui permettre de communiquer au sein de lui-même.
Choisissez un autre groupe de sécurité capable de communiquer avec le groupe de sécurité de la cible de montage.

1. Dans **Utilisateur**, entrez le nom d'un utilisateur qui peut accéder à votre serveur de fichiers FSx pour Windows.

   Pour de plus amples informations, veuillez consulter [Autorisations requises](#create-fsx-windows-location-permissions).

1. Dans **Mot de passe**, entrez le mot de passe du nom d'utilisateur.

1. (Facultatif) Dans le champ **Domaine**, entrez le nom du domaine Windows auquel appartient votre FSx système de fichiers Windows File Server.

   Si votre environnement comporte plusieurs domaines Active Directory, la configuration de ce paramètre garantit la DataSync connexion au bon système de fichiers.

1. (Facultatif) Entrez des valeurs dans les champs **Clé** et **Valeur** FSx pour étiqueter le serveur de fichiers Windows.

   Les balises vous aident à gérer, filtrer et rechercher vos AWS ressources. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-fsx-cli"></a>

**Pour créer un emplacement de serveur de fichiers FSx pour Windows à l'aide du AWS CLI**
+ Utilisez la commande suivante pour créer un FSx site Amazon.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  Dans la `create-location-fsx-windows` commande, procédez comme suit :
  + `fsx-filesystem-arn`— Spécifiez le nom de ressource Amazon (ARN) du système de fichiers vers ou depuis lequel vous souhaitez effectuer le transfert.
  + `security-group-arns`— Spécifiez les ARN d'un maximum de cinq groupes de sécurité Amazon EC2 qui fournissent l'accès au sous-réseau préféré de votre système de fichiers.

    Les groupes de sécurité que vous spécifiez doivent pouvoir communiquer avec les groupes de sécurité de votre système de fichiers. Pour plus d'informations sur la configuration des groupes de sécurité pour l'accès au système de fichiers, consultez le [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Note**  
Si vous choisissez un groupe de sécurité qui n'autorise pas les connexions internes, effectuez l'une des opérations suivantes :  
Configurez le groupe de sécurité pour lui permettre de communiquer au sein de lui-même.
Choisissez un autre groupe de sécurité capable de communiquer avec le groupe de sécurité de la cible de montage.
  + La Région AWS — La région que vous spécifiez est celle où se trouve votre système de FSx fichiers Amazon cible.

La commande renvoie un ARN d'emplacement similaire à celui indiqué ci-après.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# Configuration des DataSync transferts avec FSx for Lustre
<a name="create-lustre-location"></a>

Pour transférer des données vers ou depuis votre système de fichiers Amazon FSx for Lustre, vous devez créer un *emplacement AWS DataSync * de transfert. DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir un DataSync accès FSx aux systèmes de fichiers Lustre
<a name="create-lustre-location-access"></a>

DataSync accède à votre système de fichiers FSx for Lustre à l'aide du client Lustre. DataSyncnécessite l'accès à toutes les données de votre système de fichiers FSx for Lustre. Pour bénéficier de ce niveau d'accès, DataSync monte votre système de fichiers en tant qu'utilisateur root à l'aide d'un ID utilisateur (UID) et d'un ID de groupe (GID) de. `0`

DataSync monte votre système de fichiers à partir de votre cloud privé virtuel (VPC) à [l'aide](required-network-interfaces.md) d'interfaces réseau. DataSync gère entièrement la création, l'utilisation et la suppression de ces interfaces réseau en votre nom.

**Note**  
VPCs que vous utilisez avec DataSync doit avoir une location par défaut. VPCs avec location dédiée ne sont pas pris en charge.

## Création de votre lieu de transfert FSx pour Lustre
<a name="create-lustre-location-how-to"></a>

Pour créer l'emplacement de transfert, vous avez besoin d'un système de fichiers existant FSx pour Lustre. Pour plus d'informations, consultez [Getting started with Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.

### Utilisation de la DataSync console
<a name="create-lustre-location-how-to-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type de localisation**, choisissez **Amazon FSx**.

   Vous configurerez cet emplacement comme source ou destination plus tard. 

1. Pour **FSx le système de fichiers**, choisissez le FSx système de fichiers Lustre que vous souhaitez utiliser comme emplacement. 

1. Dans le **champ Chemin de montage**, entrez le chemin de montage de votre système de fichiers FSx for Lustre.

   Le chemin peut inclure un sous-répertoire. Lorsque l'emplacement est utilisé comme source, DataSync lit les données depuis le chemin de montage. Lorsque l'emplacement est utilisé comme destination, DataSync écrit toutes les données sur le chemin de montage. Si aucun sous-répertoire n'est fourni, DataSync utilise le répertoire racine (`/`).

1. Pour les **groupes de sécurité**, choisissez jusqu'à cinq groupes de sécurité qui donnent accès à votre système de fichiers FSx for Lustre.

   Les groupes de sécurité doivent pouvoir accéder aux ports du système de fichiers. Le système de fichiers doit également autoriser l'accès depuis les groupes de sécurité.

   Pour plus d'informations sur les groupes de sécurité, consultez la section [Contrôle d'accès au système de fichiers avec Amazon VPC](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html) dans le guide de *l'utilisateur d'Amazon FSx for Lustre*.

1. (Facultatif) Entrez des valeurs dans les champs **Clé** et **Valeur** FSx pour étiqueter le système de fichiers Lustre.

   Les balises vous aident à gérer, filtrer et rechercher vos AWS ressources. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-location-lustre-cli"></a>

**Pour créer un emplacement FSx pour Lustre à l'aide du AWS CLI**
+ Utilisez la commande suivante pour créer un emplacement FSx pour Lustre.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  Les paramètres suivants sont obligatoires dans la `create-location-fsx-lustre` commande.
  + `fsx-filesystem-arn`— Le nom de ressource Amazon (ARN) complet du système de fichiers dans lequel vous souhaitez lire ou écrire.
  + `security-group-arns`— L'ARN d'un groupe de sécurité Amazon EC2 à appliquer aux [interfaces réseau](required-network-interfaces.md) du sous-réseau préféré du système de fichiers.

La commande précédente renvoie un ARN de localisation similaire au suivant.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Configuration des DataSync transferts avec Amazon FSx pour OpenZFS
<a name="create-openzfs-location"></a>

*Pour transférer des données vers ou depuis votre système de fichiers Amazon FSx pour OpenZFS, vous devez créer un emplacement de AWS DataSync transfert.* DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir un DataSync accès aux FSx systèmes de fichiers OpenZFS
<a name="create-openzfs-access"></a>

DataSync [monte votre système de fichiers FSx pour OpenZFS à partir de votre cloud privé virtuel (VPC) à l'aide d'interfaces réseau.](required-network-interfaces.md) DataSyncgère entièrement la création, l'utilisation et la suppression de ces interfaces réseau en votre nom.

**Note**  
VPCs que vous utilisez avec DataSync doit avoir une location par défaut. VPCs avec location dédiée ne sont pas pris en charge.

## Configuration de FSx l'autorisation du système de fichiers OpenZFS
<a name="configure-openzfs-authorization"></a>

DataSync accède à votre système FSx de fichiers OpenZFS en tant que client NFS, en le montant en tant qu'utilisateur root avec un ID utilisateur (UID) et un ID de groupe (GID) de. `0`

 DataSync Pour copier toutes les métadonnées de vos fichiers, vous devez configurer les paramètres d'exportation NFS sur les volumes de votre système de fichiers à l'aide `no_root_squash` de. Toutefois, vous pouvez limiter ce niveau d'accès à une DataSync tâche spécifique.

Pour plus d'informations, consultez la section [Propriétés du volume](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties) dans le guide de l'*utilisateur FSx d'Amazon pour OpenZFS*.

### Configuration des exportations NFS spécifiques à DataSync (recommandé)
<a name="configure-nfs-export-recommended"></a>

Vous pouvez configurer une exportation NFS spécifique à chaque volume accessible uniquement par votre DataSync tâche. Procédez ainsi pour le volume ancêtre le plus récent du chemin de montage que vous avez spécifié lors de la création de votre emplacement FSx pour OpenZFS.

**Pour configurer une exportation NFS spécifique à DataSync**

1. Créez votre [DataSynctâche](create-task-how-to.md).

   Cela crée les interfaces réseau de la tâche que vous spécifiez dans vos paramètres d'exportation NFS.

1. Localisez les adresses IP privées des interfaces réseau de la tâche à l'aide de la console Amazon EC2 ou. AWS CLI

1. Pour le volume de votre FSx système de fichiers OpenZFS, configurez les paramètres d'exportation NFS suivants pour chacune des interfaces réseau de la tâche :
   + **Adresse du client** : entrez l'adresse IP privée de l'interface réseau (par exemple,`10.24.34.0`).
   + **Options NFS** : Entrez`rw,no_root_squash`.

### Configuration des exportations NFS pour tous les clients
<a name="configure-nfs-export-general"></a>

Vous pouvez spécifier une exportation NFS qui autorise l'accès root à tous les clients.

**Pour configurer une exportation NFS pour tous les clients**
+  FSx Pour votre volume de système de fichiers OpenZFS, configurez les paramètres d'exportation NFS suivants :
  + **Adresse du client** : Entrez`*`.
  + **Options NFS** : Entrez`rw,no_root_squash`.

## Création de votre lieu FSx de transfert pour OpenZFS
<a name="create-openzfs-location-how-to"></a>

Pour créer l'emplacement, vous avez besoin d'un système de fichiers existant FSx pour OpenZFS. Si vous n'en avez pas, consultez [Getting started with Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html) dans le guide de l'utilisateur d'*Amazon FSx pour OpenZFS*.

### Utilisation de la DataSync console
<a name="create-openzfs-location-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Locations**, puis **Create location**.

1. Pour le **type de localisation**, choisissez **Amazon FSx**.

   Vous configurerez cet emplacement comme source ou destination plus tard.

1. Pour **FSx le système de fichiers**, choisissez le FSx système de fichiers OpenZFS que vous souhaitez utiliser comme emplacement. 

1. Dans le **champ Chemin de montage**, entrez le chemin de montage de votre FSx système de fichiers OpenZFS. 

   Le chemin doit commencer par `/fsx` et peut être n'importe quel chemin de répertoire existant dans le système de fichiers. Lorsque l'emplacement est utilisé comme source, DataSync lit les données depuis le chemin de montage. Lorsque l'emplacement est utilisé comme destination, DataSync écrit toutes les données sur le chemin de montage. Si aucun sous-répertoire n'est fourni, DataSync utilise le répertoire du volume racine (par exemple,`/fsx`).

1. Pour les **groupes de sécurité**, choisissez jusqu'à cinq groupes de sécurité qui fournissent un accès réseau à votre système FSx de fichiers OpenZFS. 

   Les groupes de sécurité doivent fournir un accès aux ports réseau utilisés par le système de fichiers FSx for OpenZFS. Le système de fichiers doit autoriser l'accès au réseau depuis les groupes de sécurité.

   Pour plus d'informations sur les groupes de sécurité, consultez la section [Contrôle d'accès au système de fichiers avec Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) dans le guide de l'utilisateur *Amazon FSx pour OpenZFS*.

1. (Facultatif) Développez **les paramètres supplémentaires** et pour la **version NFS**, choisissez la version NFS DataSync utilisée pour accéder à votre système de fichiers.

   Par défaut, DataSync utilise la version 4.1 de NFS.

1. (Facultatif) Entrez des valeurs dans les champs **Clé** et **Valeur** FSx pour étiqueter le système de fichiers OpenZFS.

   Les tags vous aident à gérer, filtrer et rechercher votre position. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-openzfs-location-cli"></a>

**Pour créer un emplacement FSx pour OpenZFS à l'aide du AWS CLI**

1. Copiez la `create-location-fsx-open-zfs` commande suivante :

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. Spécifiez les options requises suivantes dans la commande :
   + Pour`fsx-filesystem-arn`, spécifiez le nom de ressource Amazon (ARN) complet du système de fichiers de localisation. Cela inclut l' Région AWS emplacement de votre système de fichiers Compte AWS, votre identifiant et l'identifiant du système de fichiers.
   + Pour`security-group-arns`, spécifiez l'ARN du groupe de sécurité Amazon EC2 qui fournit l'accès aux [interfaces réseau du sous-réseau préféré](required-network-interfaces.md) de votre système FSx de fichiers OpenZFS. Cela inclut l' Région AWS emplacement de votre instance Amazon EC2, le vôtre et l' Compte AWS ID du groupe de sécurité.

     Pour plus d'informations sur les groupes de sécurité, consultez la section [Contrôle d'accès au système de fichiers avec Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) dans le guide de l'utilisateur d'*Amazon FSx pour OpenZFS*.
   + Pour`protocol`, spécifiez le protocole DataSync utilisé pour accéder à votre système de fichiers. (ne prend DataSync actuellement en charge que NFS.)

1. Exécutez la commande . Vous obtenez une réponse indiquant l'emplacement que vous venez de créer.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Configuration des transferts avec Amazon FSx pour NetApp ONTAP
<a name="create-ontap-location"></a>

Pour transférer des données depuis ou vers votre système de fichiers Amazon FSx for NetApp ONTAP, vous devez créer un *lieu* de AWS DataSync transfert. DataSync peut utiliser cet emplacement comme source ou destination pour le transfert de données.

## Fournir un DataSync accès aux FSx systèmes de fichiers ONTAP
<a name="create-ontap-location-access"></a>

Pour accéder à un système de fichiers FSx pour ONTAP, DataSync installez une machine virtuelle de stockage (SVM) sur votre système de fichiers à l'aide des [interfaces réseau](required-network-interfaces.md) de votre cloud privé virtuel (VPC). DataSync crée ces interfaces réseau dans le sous-réseau préféré de votre système de fichiers uniquement lorsque vous créez une tâche qui inclut votre emplacement FSx pour ONTAP.

**Note**  
VPCs que vous utilisez avec DataSync doit avoir une location par défaut. VPCs avec location dédiée ne sont pas pris en charge.

DataSync peut se connecter à la SVM FSx d'un système de fichiers ONTAP et copier des données en utilisant le protocole NFS (Network File System) ou SMB (Server Message Block).

**Topics**
+ [Utilisation du protocole NFS](#create-ontap-location-supported-protocols)
+ [Utilisation du protocole SMB](#create-ontap-location-smb)
+ [Protocoles non pris en charge](#create-ontap-location-unsupported-protocols)
+ [Choisir le bon protocole](#create-ontap-location-choosing-protocol)
+ [Accès aux SnapLock volumes](#create-ontap-location-snaplock)

### Utilisation du protocole NFS
<a name="create-ontap-location-supported-protocols"></a>

Avec le protocole NFS, DataSync utilise le mécanisme de `AUTH_SYS` sécurité avec un ID utilisateur (UID) et un ID de groupe (GID) `0` pour s'authentifier auprès de votre SVM.

**Note**  
DataSync ne prend actuellement en charge que la version 3 de NFS FSx pour les emplacements ONTAP.

### Utilisation du protocole SMB
<a name="create-ontap-location-smb"></a>

Avec le protocole SMB, DataSync utilise les informations d'identification que vous fournissez pour vous authentifier auprès de votre SVM.

**Versions SMB prises en charge**  
Par défaut, choisit DataSync automatiquement une version du protocole SMB en fonction de la négociation avec votre serveur de fichiers SMB. Vous pouvez également configurer DataSync pour utiliser une version spécifique, mais nous vous recommandons de le faire uniquement si DataSync vous rencontrez des difficultés pour négocier automatiquement avec le serveur de fichiers SMB. Pour des raisons de sécurité, nous recommandons d'utiliser SMB version 3.0.2 ou ultérieure.  
Consultez le tableau suivant pour obtenir la liste des options de la DataSync console et de l'API permettant de configurer une version SMB avec votre emplacement FSx for ONTAP :      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-ontap-location.html)

**Autorisations requises**  
Vous devez fournir à DataSync un utilisateur local de votre SVM ou à un utilisateur de domaine de votre Microsoft Active Directory les droits nécessaires pour monter et accéder à vos fichiers, dossiers et métadonnées de fichiers.  
Si vous indiquez un utilisateur dans votre Active Directory, notez les points suivants :  
+ Si vous utilisez AWS Directory Service for Microsoft Active Directory, l'utilisateur doit être membre du groupe des ** FSxadministrateurs AWS délégués**.
+ Si vous utilisez un Active Directory autogéré, l'utilisateur doit être membre de l'un des deux groupes suivants :
  + Le groupe des **administrateurs du domaine**, qui est le groupe d'administrateurs délégués par défaut.
  + Un groupe d'administrateurs délégués personnalisé doté de droits d'utilisateur permettant de DataSync copier les autorisations de propriété des objets et les listes de contrôle d'accès Windows (ACLs).
**Important**  
Vous ne pouvez pas modifier le groupe d'administrateurs délégués une fois le système de fichiers déployé. Vous devez soit redéployer le système de fichiers, soit le restaurer à partir d'une sauvegarde pour utiliser le groupe d'administrateurs délégués personnalisé doté des droits d'utilisateur suivants qui DataSync doit copier les métadonnées.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/create-ontap-location.html)
+ Si vous souhaitez copier Windows ACLs et effectuer un transfert entre FSx des systèmes de fichiers ONTAP utilisant SMB (ou d'autres types de systèmes de fichiers utilisant SMB), les utilisateurs que vous indiquez DataSync doivent appartenir au même domaine Active Directory ou avoir une relation d'approbation Active Directory entre leurs domaines.

**Protocoles d'authentification requis**  
Pour accéder DataSync à votre partage SMB, votre système de fichiers FSx for ONTAP doit utiliser l'authentification NTLM. DataSync Impossible d'accéder aux systèmes FSx de fichiers ONTAP qui utilisent l'authentification Kerberos.

**Espaces de noms DFS**  
DataSync ne prend pas en charge les espaces de noms Microsoft Distributed File System (DFS). Nous vous recommandons de spécifier un serveur de fichiers ou un partage sous-jacent lors de la création de votre DataSync emplacement.

### Protocoles non pris en charge
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync Impossible d'accéder FSx aux systèmes de fichiers ONTAP à l'aide du protocole iSCSI (Internet Small Computer Systems Interface).

### Choisir le bon protocole
<a name="create-ontap-location-choosing-protocol"></a>

Pour conserver les métadonnées des fichiers FSx pour les migrations ONTAP, configurez vos emplacements DataSync source et de destination pour utiliser le même protocole. Parmi les protocoles pris en charge, SMB préserve les métadonnées avec la plus grande fidélité (voir [Comprendre le mode de DataSync gestion des métadonnées des fichiers et des objets](metadata-copied.md) pour plus de détails).

Lors de la migration depuis un serveur Unix (Linux) ou un partage de stockage rattaché au réseau (NAS) qui dessert les utilisateurs via NFS, procédez comme suit :

1. [Créez un emplacement NFS](create-nfs-location.md) pour le serveur Unix (Linux) ou le partage NAS. (Ce sera votre emplacement source.)

1. Configurez FSx le volume ONTAP vers lequel vous transférez les données avec le style de [sécurité Unix](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Créez un emplacement pour votre système de fichiers FSx for ONTAP configuré pour NFS. (Ce sera votre destination.)

Lors de la migration depuis un serveur Windows ou un partage NAS qui dessert les utilisateurs via SMB, procédez comme suit :

1. [Créez un emplacement SMB](create-smb-location.md) pour le serveur Windows ou le partage NAS. (Ce sera votre emplacement source.)

1. Configurez FSx le volume ONTAP vers lequel vous transférez les données avec le style de [sécurité NTFS](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Créez un emplacement pour votre système de fichiers FSx for ONTAP configuré pour SMB. (Ce sera votre destination.)

Si votre environnement FSx for ONTAP utilise plusieurs protocoles, nous vous recommandons de faire appel à un spécialiste du AWS stockage. Pour en savoir plus sur les meilleures pratiques en matière d'accès multiprotocole, consultez la section [Activation des charges de travail multiprotocoles avec Amazon FSx ](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/) pour ONTAP. NetApp

### Accès aux SnapLock volumes
<a name="create-ontap-location-snaplock"></a>

Si vous transférez des données vers un [SnapLock volume](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html) sur un système de fichiers FSx pour ONTAP, assurez-vous que les SnapLock paramètres **Autocommit** et **Mode d'ajout de volume sont** désactivés sur le volume pendant le transfert. Vous pouvez réactiver ces paramètres lorsque vous avez terminé de transférer les données.

## Création de votre lieu FSx de transfert pour ONTAP
<a name="create-ontap-location-how-to"></a>

Pour créer l'emplacement, vous avez besoin d'un système FSx de fichiers ONTAP existant. Si vous n'en avez pas, consultez [Getting started with Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html) dans le guide de l'*utilisateur d'Amazon FSx for NetApp ONTAP*.

### Utilisation de la DataSync console
<a name="create-ontap-location-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour le **type de localisation**, choisissez **Amazon FSx**.

   Vous configurerez cet emplacement comme source ou destination plus tard.

1. Pour **FSx le système de fichiers**, choisissez le FSx système de fichiers ONTAP que vous souhaitez utiliser comme emplacement.

1. Pour **Machine virtuelle de stockage**, choisissez une machine virtuelle de stockage (SVM) dans votre système de fichiers vers laquelle vous souhaitez copier des données.

1. Pour **le chemin de montage**, spécifiez le chemin du partage de fichiers dans cette SVM où vous allez copier vos données.

   Vous pouvez spécifier un chemin de jonction (également appelé point de montage), un chemin qtree (pour les partages de fichiers NFS) ou un nom de partage (pour les partages de fichiers SMB). Par exemple, votre chemin de montage peut être `/vol1`, `/vol1/tree1` ou `/share1`.
**Astuce**  
Ne spécifiez pas de chemin dans le volume racine de la SVM. Pour plus d'informations, consultez [la section Gestion FSx des machines virtuelles de stockage ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html) dans le guide de l'*utilisateur Amazon FSx pour NetApp ONTAP*.

1. Pour les **groupes de sécurité**, choisissez jusqu'à cinq groupes de sécurité Amazon EC2 qui fournissent un accès au sous-réseau préféré de votre système de fichiers.

   Les groupes de sécurité doivent autoriser le trafic sortant sur les ports suivants (selon le protocole que vous utilisez) :
   + **NFS** : ports TCP 111, 635 et 2049 
   + **SMB** — Port TCP 445

   Les groupes de sécurité de votre système de fichiers doivent également autoriser le trafic entrant sur les mêmes ports.

1. Dans le **champ Protocole**, choisissez le protocole de transfert de données à DataSync utiliser pour accéder à la SVM de votre système de fichiers.

   Pour de plus amples informations, veuillez consulter [Choisir le bon protocole](#create-ontap-location-choosing-protocol).

------
#### [ NFS ]

   DataSync utilise la version 3 de NFS.

------
#### [ SMB ]

   Configurez une version SMB, un utilisateur, un mot de passe et un nom de domaine Active Directory (si nécessaire) pour accéder à la SVM.
   + (Facultatif) Développez **les paramètres supplémentaires** et choisissez une **version SMB** DataSync à utiliser lors de l'accès à votre SVM.

     Par défaut, choisit DataSync automatiquement une version en fonction de la négociation avec le serveur de fichiers SMB. Pour de plus amples informations, veuillez consulter [Utilisation du protocole SMB](#create-ontap-location-smb).
   + Dans le champ **Utilisateur**, entrez un nom d'utilisateur qui peut monter et accéder aux fichiers, dossiers et métadonnées que vous souhaitez transférer dans la SVM.

     Pour de plus amples informations, veuillez consulter [Utilisation du protocole SMB](#create-ontap-location-smb).
   + Dans le **champ Mot de passe**, entrez le mot de passe de l'utilisateur que vous avez indiqué qui peut accéder à la SVM.
   + (Facultatif) Pour le **nom de domaine Active Directory**, entrez le nom de domaine complet (FQDN) de l'Active Directory auquel appartient votre SVM.

     Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre garantit la DataSync connexion à la SVM appropriée.

------

1. (Facultatif) Entrez des valeurs pour les champs **Clé** et **Valeur** afin de baliser le système FSx de fichiers ONTAP.

   Les balises vous aident à gérer, filtrer et rechercher vos AWS ressources. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="create-ontap-location-cli"></a>

**Pour créer un emplacement FSx pour ONTAP à l'aide du AWS CLI**

1. Copiez la `create-location-fsx-ontap` commande suivante :

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. Spécifiez les options requises suivantes dans la commande :
   + Pour`storage-virtual-machine-arn`, spécifiez le nom Amazon Resource Name (ARN) complet d'une machine virtuelle de stockage (SVM) de votre système de fichiers vers ou depuis laquelle vous souhaitez copier des données.

     Cet ARN inclut l' Région AWS emplacement de votre système de fichiers, le vôtre Compte AWS, le système de fichiers et la SVM IDs.
   + Pour`security-group-arns`, spécifiez les ARN des groupes de sécurité Amazon EC2 qui fournissent l'accès aux interfaces [réseau du sous-réseau](required-network-interfaces.md) préféré de votre système de fichiers.

     Cela inclut l' Région AWS endroit où réside votre instance Amazon EC2, le vôtre et votre Compte AWS groupe de sécurité. IDs Vous pouvez spécifier jusqu'à cinq groupes de sécurité ARNs.

     Pour plus d'informations sur les groupes de sécurité, consultez la section [Contrôle d'accès au système de fichiers avec Amazon VPC](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html) dans le guide de l'utilisateur *Amazon FSx for NetApp ONTAP*.
   + Pour`protocol`, configurez le protocole DataSync utilisé pour accéder à la SVM de votre système de fichiers.
     + Pour NFS, vous pouvez utiliser la configuration par défaut :

       `--protocol NFS={}`
     + Pour les PME, vous devez spécifier un nom d'utilisateur et un mot de passe permettant d'accéder à la SVM :

       `--protocol SMB={User=smb-user,Password=smb-password}`

1. Exécutez la commande .

   Vous obtenez une réponse qui indique l'emplacement que vous venez de créer.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Transfert vers ou depuis un autre stockage dans le cloud avec AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Avec AWS DataSync, vous pouvez transférer des données entre d'autres fournisseurs de cloud et services AWS de stockage. Pour plus d'informations, consultez [Où puis-je transférer mes données DataSync ?](working-with-locations.md)

**Topics**
+ [Planification des transferts vers ou depuis des systèmes de stockage cloud tiers](third-party-cloud-transfer-considerations.md)
+ [Configuration des AWS DataSync transferts avec Google Cloud Storage](tutorial_transfer-google-cloud-storage.md)
+ [Configuration des transferts avec Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Configuration des AWS DataSync transferts avec des Microsoft Azure Files partages SMB](transferring-azure-files.md)
+ [Configuration des transferts avec d'autres solutions de stockage d'objets dans le cloud](creating-other-cloud-object-location.md)

# Planification des transferts vers ou depuis des systèmes de stockage cloud tiers
<a name="third-party-cloud-transfer-considerations"></a>

Lorsque vous planifiez des transferts de données entre clouds, tenez compte des points suivants :
+ **Utilisation d'un agent :** un agent est uniquement requis pour accéder au stockage dans d'autres clouds lors de l'utilisation de tâches en mode de base. Les [tâches en mode amélioré](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) ne nécessitent pas d'agent. Si vous décidez d'utiliser un agent, vous pouvez le déployer en tant qu'[instance Amazon EC2](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) lors du transfert depuis le stockage d'objets compatible S3 d'un fournisseur de cloud, ou en tant que moteur de calcul Google ou machine virtuelle Azure pour les transferts depuis ces services de stockage spécifiques, respectivement. Lors du transfert depuis des systèmes de fichiers dans Google et Azure, nous recommandons de déployer l'agent en tant que machine virtuelle Google ou Azure afin qu'il soit le plus proche possible du système de fichiers. En outre, DataSync compresse les données de l'agent vers le serveur AWS, ce qui peut contribuer à réduire les coûts de sortie. DataSync fournit une liste d'[emplacements cloud validés](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html) qui fournissent la [compatibilité requise avec les API Amazon S3](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access).
+ **Point de terminaison de stockage d'objets de l'autre cloud :** le point de terminaison de stockage d'un fournisseur de cloud tiers est généralement spécifique à une région ou à un compte. Le point de terminaison régional est utilisé comme serveur dans l'emplacement de stockage d' DataSync objets, avec un nom de compartiment spécifié.
+ **Classes de stockage des objets sources :** comme Amazon S3, certains fournisseurs de cloud proposent un niveau d'archivage qui nécessite une restauration avant de pouvoir accéder aux objets archivés. Par exemple, les objets du niveau d'archive Azure Blob doivent être récupérés pour un accès standard avant le transfert de données. Les objets du niveau d'archivage de Google Cloud Storage sont accessibles immédiatement et ne nécessitent pas de restauration, mais l'accès direct au niveau d'archivage entraîne des coûts de récupération. Consultez la documentation de votre classe de stockage cross-cloud pour déterminer les exigences d'accès et les frais de récupération avant de commencer votre transfert de données. Pour plus d'informations sur la restauration d'objets archivés dans Amazon S3, consultez [la section Restauration d'un objet archivé](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*.
+ **Accès au stockage d'objets :** le transfert de données entre fournisseurs de cloud tiers nécessite l'accès au stockage d'objets de l'autre cloud sous forme de clés d'authentification. Par exemple, pour fournir un accès à Google Cloud Storage, vous configurez un emplacement de stockage d' DataSync objets qui se connecte à l'[API XML de Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) et s'authentifie à l'aide d'une [clé HMAC (Hash Based Message Authentication Code)](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) pour votre compte de service. [Pour le stockage Azure Blob, vous configurez un [ DataSync emplacement Azure Blob](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to) dédié qui s'authentifie à l'aide de jetons SAS.](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync utilise AWS Secrets Manager pour stocker en toute sécurité vos informations d'identification de stockage d'objets. Pour plus d'informations, consultez la section [Sécurisation des informations d'identification de l'emplacement de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Support des balises d'objet :**
  + Contrairement à Amazon S3, tous les fournisseurs de cloud ne prennent pas en charge les [balises d'objet](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync les tâches peuvent échouer lors de la tentative de lecture de balises depuis l'emplacement source si le fournisseur de cloud ne prend pas en charge les balises d'objet via l'API Amazon S3 ou si les informations d'identification que vous fournissez sont insuffisantes pour récupérer les balises. DataSyncfournit une option de tâche pour désactiver [la lecture et la copie des balises d'objet](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) lors d'un transfert si les balises d'objet ne sont pas prises en charge ou si vous ne souhaitez pas conserver les balises. Consultez la documentation de votre fournisseur de cloud pour déterminer si les balises d'objet sont prises en charge, et vérifiez les paramètres des balises d'objet de votre tâche de transfert avant de lancer le transfert.
  + Vous pouvez utiliser l'API Amazon S3 pour vérifier si un fournisseur de cloud renverra une `get-object-tagging` demande. Pour plus d’informations, consultez [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) dans la *Référence des commandes de l’AWS CLI *.

    Un fournisseur de cloud qui prend en charge les balises d'objet renverra une réponse similaire à l'exemple suivant :

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Un fournisseur de cloud qui ne prend pas en charge `get-object-tagging` renverra le message suivant :

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Coûts associés aux demandes et à la sortie de données :** le transfert de données depuis le stockage d'objets dans le cloud entraîne des [coûts de demande et de sortie](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) associés à la lecture des données et au transfert de données sortantes. Les frais de demande varient selon les fournisseurs de cloud et entre les classes de stockage, le cas échéant. Consultez la documentation de votre fournisseur de cloud concernant les coûts spécifiques des demandes relatifs à la classe de stockage que vous prévoyez de lire. Pour un aperçu des frais de demande liés aux transferts DataSync de données, consultez la section [Évaluation des coûts des demandes S3 lors de l'utilisation DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) et de la [AWS DataSync tarification](https://aws.amazon.com/datasync/pricing/). Le transfert de données depuis des fournisseurs de cloud spécifiques entraîne des frais de sortie. Les coûts de transfert de données varient selon les fournisseurs de cloud et dépendent également de la région dans laquelle les données sont stockées.
+ **Taux de demandes de stockage d'objets : les** fournisseurs de cloud présentent diverses caractéristiques de performance et de taux de demandes pour leurs plateformes de stockage d'objets. Passez en revue les taux de demandes de votre autre fournisseur de cloud et déterminez où les limites de demandes sont appliquées. Planifiez à l'avance les transferts hautement parallélisés composés de plusieurs agents, où un partitionnement spécifique ou une augmentation des performances peuvent être nécessaires.

  Amazon S3 dispose de taux de demandes documentés sur lesquels vous pouvez élaborer votre solution. Les taux de requêtes Amazon S3 sont calculés par préfixe partitionné et sont évolutifs sur plusieurs préfixes. Pour plus d'informations, consultez la section [Modèles de conception des meilleures pratiques : optimisation des performances d'Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*.

# Configuration des AWS DataSync transferts avec Google Cloud Storage
<a name="tutorial_transfer-google-cloud-storage"></a>

Vous pouvez ainsi transférer des données entre Google Cloud Storage et les services AWS de stockage suivants : AWS DataSync
+ Amazon S3
+ Amazon EFS
+ Serveur FSx de fichiers Amazon pour Windows
+ Amazon FSx pour Lustre
+ Amazon FSx pour OpenZFS
+ Amazon FSx pour NetApp ONTAP

Pour commencer la configuration du transfert, créez un emplacement pour votre Google Cloud Storage. Cet emplacement peut servir de source ou de destination de votre transfert. Un DataSync agent est requis uniquement lorsque vous transférez des données entre Google Cloud Storage et Amazon EFS ou Amazon FSx, ou lorsque vous utilisez des tâches en **mode Basic**. Les transferts de données **en mode amélioré** entre Google Cloud Storage et Amazon S3 ne nécessitent pas d'agent.

**Note**  
Pour la connectivité au cloud privé entre Google Cloud Storage et Google AWS, utilisez le mode de base avec les agents.

## Présentation de
<a name="transfer-google-cloud-storage-overview"></a>

DataSync utilise l'[API XML de Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) pour les transferts de données. Cette API fournit une interface compatible avec Amazon S3 pour lire et écrire des données avec des buckets Google Cloud Storage.

Lorsque vous utilisez le mode Basic pour les transferts, vous pouvez déployer l'agent dans Google Cloud Storage ou sur votre Amazon VPC.

------
#### [ Agent in Google Cloud ]

1. Vous déployez un DataSync agent dans votre environnement Google Cloud.

1. L'agent lit votre bucket Google Cloud Storage à l'aide d'une clé HMAC (Hash Based Message Authentication Code).

1. Les objets de votre bucket Google Cloud Storage sont transférés en toute sécurité via TLS 1.3 vers le en AWS Cloud utilisant un point de terminaison public.

1. Le DataSync service écrit les données dans votre compartiment S3.

Le schéma suivant illustre le transfert.

![\[Un exemple de DataSync transfert montre comment les données d'objets sont transférées d'un bucket Google Cloud Storage vers un bucket S3. L' DataSync agent est d'abord déployé dans votre environnement Google Cloud. L' DataSync agent lit ensuite le bucket Google Cloud Storage. Les données sont transférées en toute sécurité via un point de terminaison public AWS, DataSync où les objets sont écrits dans un compartiment S3 situé dans le même Région AWS emplacement que celui que vous utilisez DataSync.\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Vous déployez un DataSync agent dans un cloud privé virtuel (VPC) de votre AWS environnement.

1. L'agent lit votre bucket Google Cloud Storage à l'aide d'une clé HMAC (Hash Based Message Authentication Code).

1. Les objets de votre bucket Google Cloud Storage sont transférés en toute sécurité via TLS 1.3 vers le en AWS Cloud utilisant un point de terminaison VPC privé.

1. Le DataSync service écrit les données dans votre compartiment S3.

Le schéma suivant illustre le transfert.

![\[Un exemple de DataSync transfert montre comment les données d'objets sont transférées d'un bucket Google Cloud Storage vers un bucket S3. Tout d'abord, l' DataSync agent est déployé dans un VPC dans. AWS L' DataSync agent lit ensuite le bucket Google Cloud Storage. Les données sont transférées en toute sécurité via un point de terminaison VPC AWS, DataSync où les objets sont écrits dans un compartiment S3 Région AWS identique au VPC.\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Coûts
<a name="transfer-google-cloud-storage-cost"></a>

Les frais associés à cette migration peuvent inclure :
+ Exécution d'une instance de machine virtuelle (VM) Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (si vous déployez votre DataSync agent dans Google Cloud)
+ Exécution d'une instance [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (si vous déployez votre DataSync agent dans un VPC intégré) AWS
+ Transférer les données en utilisant [DataSync](https://aws.amazon.com/datasync/pricing/), y compris les frais de demande liés à [Google Cloud Storage](https://cloud.google.com/storage/pricing) et [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 est l'un de vos sites de transfert)
+ Transférer des données depuis [Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Stockage de données dans [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Conditions préalables
<a name="transfer-google-cloud-storage-prerequisites"></a>

Avant de commencer, procédez comme suit si ce n'est pas déjà fait :
+ [Créez un bucket Google Cloud Storage](https://cloud.google.com/storage/docs/creating-buckets) contenant les objets vers lesquels vous souhaitez effectuer le transfert AWS.
+ [Inscrivez-vous pour un Compte AWS](https://portal.aws.amazon.com/billing/signup).
+ [Créez un compartiment Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) pour stocker vos objets une fois qu'ils y sont entrés AWS.

## Création d'une clé HMAC pour votre bucket Google Cloud Storage
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync utilise une clé HMAC associée à votre compte de service Google pour vous authentifier et lire le compartiment à partir duquel vous transférez les données. (Pour obtenir des instructions détaillées sur la création de clés HMAC, consultez la [documentation de Google Cloud Storage](https://cloud.google.com/storage/docs/authentication/hmackeys).)

**Pour créer une clé HMAC**

1. Créez une clé HMAC pour votre compte de service Google.

1. Assurez-vous que votre compte de service Google dispose au moins `Storage Object Viewer` d'autorisations.

1. Enregistrez l'identifiant d'accès et le secret de votre clé HMAC dans un endroit sûr.

   Vous aurez besoin de ces éléments ultérieurement pour configurer l'emplacement de votre DataSync source.

## Étape 2 : Configuration de votre réseau
<a name="transfer-google-cloud-storage-configure-network"></a>

La configuration réseau n'est requise que si vous utilisez un DataSync agent lors de votre transfert. La configuration réseau requise pour cette migration dépend de l'endroit où vous choisissez de déployer votre agent.

### Pour un DataSync agent dans Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Si vous souhaitez héberger votre DataSync agent dans Google Cloud, configurez votre réseau pour [autoriser les DataSync transferts via un point de terminaison public](datasync-network.md#using-public-endpoints).

### Pour un DataSync agent de votre VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Si vous souhaitez héberger votre agent AWS, vous avez besoin d'un VPC doté d'un point de terminaison d'interface. DataSync utilise le point de terminaison VPC pour faciliter le transfert.

**Pour configurer votre réseau pour un point de terminaison VPC**

1. Si vous n'en avez pas, [créez un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) dans le même emplacement Région AWS que votre compartiment S3.

1. [Créez un sous-réseau privé pour votre VPC.](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html)

1. [Créez un point de terminaison de service VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html) pour. DataSync

1. Configurez votre réseau pour [autoriser les DataSync transferts via un point de terminaison de service VPC](datasync-network.md#using-vpc-endpoint).

   Pour ce faire, modifiez le [groupe de sécurité](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html) associé à votre point de terminaison de service VPC.

## Étape 3 : créer un DataSync agent (facultatif)
<a name="transfer-google-cloud-storage-create-agent"></a>

Un DataSync agent n'est requis que lors de l'utilisation des tâches en mode **de base**. Si vous utilisez le mode **amélioré** pour effectuer un transfert entre Google Cloud Storage (GCS) et Amazon S3, aucun agent n'est requis. Si vous souhaitez utiliser le mode **Basic**, vous avez besoin d'un DataSync agent capable d'accéder à votre bucket GCS.

### Pour Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

Dans ce scénario, l' DataSync agent s'exécute dans votre environnement Google Cloud.

**Avant de commencer** : [installez la CLI Google Cloud](https://cloud.google.com/sdk/docs/install).

**Pour créer l'agent pour Google Cloud**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Agents**, puis **Create agent**.

1. Pour **Hypervisor**, choisissez **VMware ESXi**, puis choisissez **Télécharger l'image** pour télécharger un `.zip` fichier contenant l'agent.

1. Ouvrez un terminal . Décompressez l'image en exécutant la commande suivante :

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Extrayez le contenu du `.ova` fichier de l'agent `aws-datasync` en commençant par exécuter la commande suivante :

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importez le `.vmdk` fichier de l'agent dans Google Cloud en exécutant la commande Google Cloud CLI suivante :

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**Note**  
L'importation du `.vmdk` fichier peut prendre jusqu'à deux heures.

1. Créez et démarrez une instance de machine virtuelle pour l'image d'agent que vous venez d'importer. 

   L'instance a besoin des configurations suivantes pour votre agent. (Pour obtenir des instructions détaillées sur la création d'une instance, consultez la [documentation de Google Cloud Compute Engine](https://cloud.google.com/compute/docs/instances).)
   + Pour le type de machine, sélectionnez l'une des options suivantes :
     + **e2-standard-8** — Pour les exécutions de DataSync tâches impliquant jusqu'à 20 millions d'objets.
     + **e2-standard-16** — Pour les exécutions de DataSync tâches impliquant plus de 20 millions d'objets.
   + Pour les paramètres du disque de démarrage, rendez-vous dans la section des images personnalisées. Choisissez ensuite l'image de l' DataSync agent que vous venez d'importer.
   + Pour les paramètres du compte de service, choisissez votre compte de service Google (le même compte que celui que vous avez utilisé à [l'étape 1](#transfer-google-cloud-storage-create-hmac-key)).
   + Pour le paramétrage du pare-feu, choisissez l'option permettant d'autoriser le trafic HTTP (port 80).

     Pour activer votre DataSync agent, le port 80 doit être ouvert sur l'agent. Le port n'a pas besoin d'être accessible au public. Une fois activé, DataSync ferme le port.

1. Une fois que l'instance de machine virtuelle est en cours d'exécution, prenez note de son adresse IP publique.

   Vous aurez besoin de cette adresse IP pour activer l'agent.

1. Retournez à la DataSync console. Sur l'écran **Créer un agent** où vous avez téléchargé l'image de l'agent, procédez comme suit pour activer votre agent :
   + Pour le **type de point de terminaison**, choisissez l'option points de terminaison de service public (par exemple, **points de terminaison de service public dans l'est de l'Ohio aux États-Unis**).
   + Pour **Clé d'activation**, choisissez **Obtenir automatiquement la clé d'activation auprès de votre agent**.
   + Pour **l'adresse de l'agent**, entrez l'adresse IP publique de l'instance de machine virtuelle de l'agent que vous venez de créer.
   + Choisissez **Obtenir la clé**.

1. Donnez un nom à votre agent, puis choisissez **Create agent**.

Votre agent est en ligne et prêt à transférer des données.

### Pour votre VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

Dans ce scénario, l'agent s'exécute en tant qu'instance Amazon EC2 dans un VPC associé à votre. Compte AWS

**Avant de commencer** : [Configurez le AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html).

**Pour créer l'agent de votre VPC**

1. Ouvrez un terminal . Assurez-vous de configurer votre AWS CLI profil pour utiliser le compte associé à votre compartiment S3.

1. Copiez la commande ci-après. `vpc-region`Remplacez-le par l' Région AWS endroit où réside votre VPC (par exemple,`us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Exécutez la commande . Dans le résultat, prenez note de la `"Value"` propriété.

   Cette valeur est l'ID DataSync Amazon Machine Image (AMI) de la région que vous avez spécifiée. Par exemple, un ID d'AMI pourrait ressembler à`ami-1234567890abcdef0`.

1. Copiez l'URL suivante. Encore une fois, `vpc-region` remplacez-le par l' Région AWS endroit où réside votre VPC. Remplacez-le ensuite `ami-id` par l'ID d'AMI que vous avez noté à l'étape précédente.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Collez l'URL dans un navigateur.

   La page de lancement de l'instance Amazon EC2 s'affiche. AWS Management Console 

1. Pour le **type d'instance**, choisissez l'une des [instances Amazon EC2 recommandées pour DataSync les agents](agent-requirements.md#ec2-instance-types).

1. Pour **Key pair**, choisissez une paire de clés existante ou créez-en une nouvelle.

1. Pour **les paramètres réseau**, choisissez le VPC et le sous-réseau sur lesquels vous souhaitez déployer l'agent.

1. Choisissez **Launch instance** (Lancer une instance).

1. Une fois que l'instance Amazon EC2 est en cours d'exécution, [choisissez votre point de terminaison VPC.](choose-service-endpoint.md#datasync-in-vpc)

1. [Activez votre agent](activate-agent.md).

## Étape 4 : créer un emplacement DataSync source pour votre bucket Google Cloud Storage
<a name="transfer-google-cloud-storage-create-source"></a>

Pour configurer l' DataSync emplacement de votre bucket Google Cloud Storage, vous avez besoin de l'ID d'accès et du secret de la clé HMAC que vous avez créée à l'[étape 1](#transfer-google-cloud-storage-create-hmac-key).

**Pour créer l'emplacement de la DataSync source**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Type d'emplacement**, choisissez **Stockage d'objets**.

1. Pour **Serveur**, entrez**storage.googleapis.com**.

1. Dans le **champ Nom du bucket**, saisissez le nom de votre bucket Google Cloud Storage.

1. Pour **Dossier**, entrez un préfixe d'objet.

   DataSync copie uniquement les objets portant ce préfixe.

1. Si votre transfert nécessite un agent, choisissez **Utiliser des agents**, puis choisissez l'agent que vous avez créé à [l'étape 3](#transfer-google-cloud-storage-create-agent).

1. Développer **Additional settings (Paramètres supplémentaires)**. Pour le **protocole du serveur**, choisissez **HTTPS**. Pour le **port du serveur**, choisissez **443**.

1. Faites défiler la page jusqu'à la section **Authentification**. Assurez-vous que la case **Requiert des informations d'identification** est cochée, puis effectuez les opérations suivantes :
   + Pour **Clé d'accès**, entrez l'ID d'accès de votre clé HMAC.
   + Pour la **clé secrète**, entrez directement la clé secrète de votre clé HMAC ou spécifiez un AWS Secrets Manager secret contenant la clé. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Choisissez **Créer un emplacement**.

## Étape 5 : créer un emplacement de DataSync destination pour votre compartiment S3
<a name="transfer-google-cloud-storage-create-destination"></a>

Vous avez besoin d'un DataSync emplacement où vous souhaitez que vos données aboutissent.

**Pour créer le lieu DataSync de destination**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. [Créez un DataSync emplacement pour le compartiment S3](create-s3-location.md).

   Si vous avez déployé l' DataSync agent dans votre VPC, ce didacticiel part du principe que le compartiment S3 se trouve dans le même emplacement Région AWS que votre VPC et votre agent. DataSync 

## Étape 6 : créer et démarrer une DataSync tâche
<a name="transfer-google-cloud-storage-start-task"></a>

Une fois vos emplacements source et de destination configurés, vous pouvez commencer à transférer vos données vers AWS.

**Pour créer et démarrer la DataSync tâche**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Sur la page **Configurer l'emplacement de la source**, procédez comme suit :

   1. Choisissez **Choisir un emplacement existant**.

   1. Choisissez l'emplacement source que vous avez créé à l'[étape 4](#transfer-google-cloud-storage-create-source), puis cliquez sur **Suivant**.

1. Sur la page **Configurer l'emplacement de destination**, procédez comme suit :

   1. Choisissez **Choisir un emplacement existant**.

   1. Choisissez l'emplacement de destination que vous avez créé à [l'étape 5](#transfer-google-cloud-storage-create-destination), puis cliquez sur **Suivant**.

1. Sur la page **Configurer les paramètres**, procédez comme suit :

   1. Sous **Configuration du transfert de données**, développez **Paramètres supplémentaires** et désactivez la case à cocher **Copier les balises d'objet**.
**Important**  
Étant donné que l'API XML de Google Cloud Storage ne prend pas en charge la lecture ou l'écriture de balises d'objet, votre DataSync tâche risque d'échouer si vous essayez de copier des balises d'objet.

   1. Configurez les autres paramètres de tâche de votre choix, puis choisissez **Next**.

1. Sur la page **Révision**, passez en revue vos paramètres, puis choisissez **Créer une tâche**.

1. Sur la page de détails de la tâche, choisissez **Démarrer**, puis choisissez l'une des options suivantes :
   + Pour exécuter la tâche sans modification, choisissez **Démarrer avec les valeurs par défaut**.
   + Pour modifier la tâche avant de l'exécuter, choisissez **Démarrer avec des options de remplacement**.

Lorsque votre tâche sera terminée, vous verrez les objets de votre compartiment Google Cloud Storage dans votre compartiment S3.

# Configuration des transferts avec Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Avec AWS DataSync, vous pouvez transférer des données entre Microsoft Azure Blob Storage (y compris le stockage Azure Data Lake Storage Gen2 blob) et les services AWS de stockage suivants :
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Serveur FSx de fichiers Amazon pour Windows](create-fsx-location.md)
+ [Amazon FSx pour Lustre](create-lustre-location.md)
+ [Amazon FSx pour OpenZFS](create-openzfs-location.md)
+ [Amazon FSx pour NetApp ONTAP](create-ontap-location.md)

Pour configurer ce type de transfert, vous devez créer un [emplacement](how-datasync-transfer-works.md#sync-locations) pour votreAzure Blob Storage. Vous pouvez utiliser cet emplacement comme source ou destination de transfert. Un DataSync agent n'est requis que lors du transfert de données entre Azure Blob et Amazon EFS ou Amazon FSx, ou lors de l'utilisation de tâches en mode **Basic**. Vous n'avez pas besoin d'un agent pour transférer des données entre Azure Blob et Amazon S3 à l'aide du mode **amélioré**.

## Fournir un DataSync accès à votre Azure Blob Storage
<a name="azure-blob-access"></a>

La manière dont vous DataSync accédez Azure Blob Storage dépend de plusieurs facteurs, notamment du fait que vous effectuez un transfert vers ou depuis le stockage blob et du type de [jeton de signature d'accès partagé (SAS)](#azure-blob-sas-tokens) que vous utilisez. Vos objets doivent également se trouver dans un [niveau d' DataSync accès](#azure-blob-access-tiers) compatible avec.

**Topics**
+ [Jetons SAS](#azure-blob-sas-tokens)
+ [Niveaux d'accès](#azure-blob-access-tiers)

### Jetons SAS
<a name="azure-blob-sas-tokens"></a>

Un jeton SAS spécifie les autorisations d'accès à votre stockage blob. (Pour plus d'informations sur SAS, consultez la [Azure Blob Storagedocumentation](https://learn.microsoft.com/azure/storage/common/storage-sas-overview).)

Vous pouvez générer des jetons SAS pour fournir différents niveaux d'accès. DataSync prend en charge les jetons avec les niveaux d'accès suivants :
+ Compte
+ Conteneur

Les autorisations d'accès DataSync nécessaires dépendent de l'étendue de votre jeton. Le fait de ne pas disposer des autorisations appropriées peut entraîner l'échec de votre transfert. Par exemple, votre transfert échouera si vous déplacez des objets dotés de balises Azure Blob Storage mais que votre jeton SAS n'est pas autorisé à utiliser les balises.

**Topics**
+ [Autorisations liées aux jetons SAS pour un accès au niveau du compte](#account-sas-tokens)
+ [Autorisations liées aux jetons SAS pour l'accès au niveau du conteneur](#container-sas-tokens)
+ [Politiques d'expiration SAS](#azure-blob-sas-expiration-policies)

#### Autorisations liées aux jetons SAS pour un accès au niveau du compte
<a name="account-sas-tokens"></a>

DataSync nécessite un jeton d'accès au niveau du compte avec les autorisations suivantes (selon que vous effectuez un transfert vers ou depuisAzure Blob Storage).

------
#### [ Transfers from blob storage ]
+ **Services autorisés** — Blob
+ **Types de ressources autorisés** : conteneur, objet

  Si vous n'incluez pas ces autorisations, vous ne DataSync pourrez pas transférer les métadonnées de votre objet, y compris les [balises d'objet](#azure-blob-considerations-object-tags).
+ **Autorisations autorisées** : lecture, liste
+ **Autorisations d'indexation blob autorisées** — Read/Write (si vous DataSync souhaitez copier des [balises d'objets](#azure-blob-considerations-object-tags))

------
#### [ Transfers to blob storage ]
+ **Services autorisés** — Blob
+ **Types de ressources autorisés** : conteneur, objet

  Si vous n'incluez pas ces autorisations, vous ne DataSync pourrez pas transférer les métadonnées de votre objet, y compris les [balises d'objet](#azure-blob-considerations-object-tags).
+ **Autorisations autorisées** : lecture, écriture, liste, suppression (si vous DataSync souhaitez supprimer des fichiers qui ne figurent pas dans votre source de transfert)
+ **Autorisations d'indexation blob autorisées** — Read/Write (si vous DataSync souhaitez copier des [balises d'objets](#azure-blob-considerations-object-tags))

------

#### Autorisations liées aux jetons SAS pour l'accès au niveau du conteneur
<a name="container-sas-tokens"></a>

DataSync nécessite un jeton d'accès au niveau du conteneur avec les autorisations suivantes (selon que vous effectuez un transfert vers ou depuisAzure Blob Storage).

------
#### [ Transfers from blob storage ]
+ Lecture
+ List
+ Tag (si vous DataSync souhaitez copier les [balises d'objets](#azure-blob-considerations-object-tags))
**Note**  
Vous ne pouvez pas ajouter l'autorisation de balise lorsque vous générez un jeton SAS sur le Azure portail. Pour ajouter l'autorisation du tag, générez plutôt le jeton à l'aide de l'[https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)application ou générez un [jeton SAS qui fournit un accès au niveau du compte](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Lecture
+ Écrire
+ List
+ Supprimer (si vous souhaitez DataSync supprimer des fichiers qui ne figurent pas dans votre source de transfert)
+ Tag (si vous DataSync souhaitez copier les [balises d'objets](#azure-blob-considerations-object-tags))
**Note**  
Vous ne pouvez pas ajouter l'autorisation de balise lorsque vous générez un jeton SAS sur le Azure portail. Pour ajouter l'autorisation du tag, générez plutôt le jeton à l'aide de l'[https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)application ou générez un [jeton SAS qui fournit un accès au niveau du compte](#account-sas-tokens).

------

#### Politiques d'expiration SAS
<a name="azure-blob-sas-expiration-policies"></a>

Assurez-vous que votre SAS n'expire pas avant de terminer votre transfert. Pour plus d'informations sur la configuration d'une politique d'expiration SAS, consultez la [Azure Blob Storagedocumentation](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy).

Si le SAS expire pendant le transfert, DataSync vous ne pouvez plus accéder à votre Azure Blob Storage position. (Le message d'erreur « Impossible d'ouvrir le répertoire » peut s'afficher.) Dans ce cas, [mettez à jour votre position](#azure-blob-update-location) avec un nouveau jeton SAS et redémarrez votre DataSync tâche.

### Niveaux d'accès
<a name="azure-blob-access-tiers"></a>

Lors du transfert depuisAzure Blob Storage, DataSync vous pouvez copier des objets dans les niveaux chaud et froid. Pour les objets du niveau d'accès aux archives, vous devez les réhydrater vers le niveau chaud ou froid avant de pouvoir les copier.

Lors du transfert versAzure Blob Storage, DataSync vous pouvez copier des objets dans les niveaux d'accès à chaud, à froid et aux archives. Si vous copiez des objets dans le niveau d'accès aux archives, vous ne DataSync pouvez pas vérifier le transfert si vous essayez de [vérifier toutes les données de la destination](configure-data-verification-options.md).

DataSync ne prend pas en charge le niveau d'accès à froid. Pour plus d'informations sur les niveaux d'accès, consultez la [Azure Blob Storagedocumentation](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Considérations relatives aux Azure Blob Storage transferts
<a name="azure-blob-considerations"></a>

Lorsque vous planifiez de transférer des données vers ou depuis Azure Blob Storage avec DataSync, il y a certaines choses à garder à l'esprit.

**Topics**
+ [Coûts](#azure-blob-considerations-costs)
+ [Types de blob](#blob-types)
+ [Région AWS disponibilité](#azure-blob-considerations-regions)
+ [Copier des balises d'objets](#azure-blob-considerations-object-tags)
+ [Transfert vers Amazon S3](#azure-blob-considerations-s3)
+ [Supprimer des répertoires dans une destination de transfert](#azure-blob-considerations-deleted-files)
+ [Limitations](#azure-blob-limitations)

### Coûts
<a name="azure-blob-considerations-costs"></a>

Les frais associés à l'entrée ou à la sortie de données Azure Blob Storage peuvent inclure :
+ Exécution d'une [machine Azure virtuelle (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (si vous déployez un DataSync agent dansAzure)
+ Exécution d'une instance [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (si vous déployez un DataSync agent dans un VPC intégré) AWS
+ Transférer les données en utilisant [DataSync](https://aws.amazon.com/datasync/pricing/), y compris les frais de demande liés à [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)[Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 est l'un de vos sites de transfert)
+ Transfert de données vers ou depuis [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Stockage des données dans un [service AWS de stockage](working-with-locations.md) pris en charge par DataSync

### Types de blob
<a name="blob-types"></a>

Le DataSync fonctionnement des types de blob varie selon que vous effectuez un transfert vers ou depuisAzure Blob Storage. Lorsque vous déplacez des données vers un espace de stockage blob, les objets ou fichiers DataSync transférés ne peuvent être que des blobs. Lorsque vous déplacez des données hors du stockage blob, vous DataSync pouvez transférer des blobs, des pages et ajouter des blobs.

Pour plus d'informations sur les types de blob, consultez la [Azure Blob Storagedocumentation](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs).

### Région AWS disponibilité
<a name="azure-blob-considerations-regions"></a>

Vous pouvez créer un lieu Azure Blob Storage de transfert dans n'importe quel Région AWS lieu [pris en charge par DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Copier des balises d'objets
<a name="azure-blob-considerations-object-tags"></a>

La capacité DataSync de conserver les balises d'objet lors du transfert vers ou depuis un objet Azure Blob Storage dépend des facteurs suivants :
+ **Taille des balises d'un objet** : DataSync impossible de transférer un objet dont les balises dépassent 2 Ko.
+ ** DataSync Configuré ou non pour copier les balises d'objet** : DataSync [copie les balises d'objet](configure-metadata.md) par défaut.
+ **L'espace de noms utilisé par votre compte Azure de stockage** : vous DataSync pouvez copier des balises d'objets si votre compte de Azure stockage utilise un espace de noms plat, mais pas s'il utilise un espace de noms hiérarchique (une fonctionnalité de). Azure Data Lake Storage Gen2 Votre DataSync tâche échouera si vous essayez de copier des balises d'objets et si votre compte de stockage utilise un espace de noms hiérarchique.
+ **Si votre jeton SAS autorise le balisage** : les autorisations dont vous avez besoin pour copier les balises d'objets varient en fonction du niveau d'accès fourni par votre jeton. Votre tâche échouera si vous essayez de copier des balises d'objets et si votre jeton ne dispose pas des autorisations nécessaires pour le balisage. Pour plus d'informations, consultez les exigences d'autorisation pour les jetons d'[accès au niveau du compte ou les jetons d'accès au niveau](#account-sas-tokens) [du conteneur](#container-sas-tokens).

### Transfert vers Amazon S3
<a name="azure-blob-considerations-s3"></a>

Lors du transfert vers Amazon S3, les Azure Blob Storage objets DataSync dont la taille est supérieure à 5 To ou les objets dont les métadonnées sont supérieures à 2 Ko ne sont pas transférés.

### Supprimer des répertoires dans une destination de transfert
<a name="azure-blob-considerations-deleted-files"></a>

Lors du transfert versAzure Blob Storage, DataSync vous pouvez [supprimer des objets de votre stockage blob qui ne sont pas présents dans votre source de transfert](configure-metadata.md). (Vous pouvez configurer cette option en désactivant le paramètre **Conserver les fichiers supprimés** dans la DataSync console. Votre [jeton SAS](#azure-blob-sas-tokens) doit également disposer d'autorisations de suppression.)

Lorsque vous configurez votre transfert de cette façon, les répertoires de votre stockage blob DataSync ne seront pas supprimés si votre compte Azure de stockage utilise un espace de noms hiérarchique. Dans ce cas, vous devez supprimer manuellement les répertoires (par exemple, en utilisant [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)).

### Limitations
<a name="azure-blob-limitations"></a>

N'oubliez pas les limites suivantes lorsque vous transférez des données vers ou depuis Azure Blob Storage :
+ DataSync [crée des répertoires](filtering.md#directories-ignored-during-transfers) dans un emplacement pour faciliter votre transfert. S'il s'Azure Blob Storageagit d'un emplacement de destination et que votre compte de stockage utilise un espace de noms hiérarchique, vous remarquerez peut-être des sous-répertoires spécifiques aux tâches (tels que`task-000011112222abcde`) dans le dossier. `/.aws-datasync` DataSync supprime généralement ces sous-répertoires après un transfert. Si ce n'est pas le cas, vous pouvez supprimer vous-même ces répertoires spécifiques à une tâche tant qu'aucune tâche n'est en cours d'exécution.
+ DataSync ne prend pas en charge l'utilisation d'un jeton SAS pour accéder uniquement à un dossier spécifique de votre Azure Blob Storage conteneur.
+ Vous ne pouvez pas fournir DataSync de jeton SAS de délégation utilisateur pour accéder à votre stockage blob.

## Création de votre DataSync agent (facultatif)
<a name="azure-blob-creating-agent"></a>

Un DataSync agent n'est requis que lors du transfert de données entre Azure Blob et Amazon EFS ou Amazon FSx, ou lors de l'utilisation de tâches en mode **Basic**. Vous n'avez pas besoin d'un agent pour transférer des données entre Azure Blob et Amazon S3 à l'aide du mode **amélioré**. Cette section décrit comment déployer et activer un agent.

**Astuce**  
Bien que vous puissiez déployer votre agent sur une instance Amazon EC2, l'utilisation d'un Microsoft Hyper-V agent peut réduire la latence du réseau et augmenter la compression des données. 

### Agents Microsoft Hyper-V
<a name="azure-blob-creating-agent-hyper-v"></a>

Vous pouvez déployer votre DataSync agent directement Azure avec une Microsoft Hyper-V image.

**Astuce**  
Avant de continuer, pensez à utiliser un script shell qui pourrait vous aider à déployer votre agent Hyper-V Azure plus rapidement. Vous pouvez obtenir plus d'informations et télécharger le code sur [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure).  
Si vous utilisez le script, vous pouvez passer directement à la section à propos de[Obtenir la clé d'activation de votre agent](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Conditions préalables](#azure-blob-creating-agent-hyper-v-0)
+ [Téléchargement et préparation de votre agent](#azure-blob-creating-agent-hyper-v-1)
+ [Déploiement de votre agent dans Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Obtenir la clé d'activation de votre agent](#azure-blob-creating-agent-hyper-v-3)
+ [Activation de votre agent](#azure-blob-creating-agent-hyper-v-4)

#### Conditions préalables
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Pour préparer votre DataSync agent et le déployerAzure, vous devez effectuer les opérations suivantes :
+ Activez Hyper-V sur votre machine locale.
+ Installez [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1)(y compris leHyper-V Module).
+ Installez la [AzureCLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Installer [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Téléchargement et préparation de votre agent
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Téléchargez un agent depuis la DataSync console. Avant de pouvoir déployer l'agentAzure, vous devez le convertir en disque dur virtuel (VHD) de taille fixe. Pour plus d’informations, consultez la [documentation Azure](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**Pour télécharger et préparer votre agent**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Agents**, puis **Create agent**.

1. Pour **Hypervisor**, choisissez **Microsoft Hyper-V**, puis choisissez **Télécharger l'image**.

   L'agent télécharge dans un `.zip` fichier contenant un `.vhdx` fichier.

1. Extrayez le `.vhdx` fichier sur votre machine locale.

1. Ouvrez l'PowerShell et procédez comme suit :

   1. Copiez l'`Convert-VHD`applet de commande suivante :

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Remplacez chaque instance `local-path-to-vhdx-file` de par l'emplacement du `.vhdx` fichier sur votre ordinateur local.

   1. Exécutez la commande .

   Votre agent est désormais un VHD de taille fixe (avec un format de `.vhd` fichier) prêt à être déployé. Azure

#### Déploiement de votre agent dans Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

Le déploiement de votre DataSync agent dans Azure implique :
+ Création d'un disque géré dans Azure
+ Téléchargement de votre agent sur ce disque géré
+ Connexion du disque géré à une machine Linux virtuelle

**Pour déployer votre agent dans Azure**

1. DansPowerShell, accédez au répertoire qui contient le `.vhd` fichier de votre agent.

1. Exécutez la `ls` commande et enregistrez la `Length` valeur (par exemple,`85899346432`).

   Il s'agit de la taille de l'image de votre agent en octets, dont vous avez besoin pour créer un disque géré pouvant contenir l'image.

1. Procédez comme suit pour créer un disque géré :

   1. Copiez la commande Azure CLI suivante :

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. `your-managed-disk`Remplacez-le par le nom de votre disque géré.

   1. `your-resource-group`Remplacez-le par le nom du groupe de Azure ressources auquel appartient votre compte de stockage.

   1. Remplacez `your-azure-region` par la Azure région où se trouve votre groupe de ressources.

   1. Remplacez `agent-size-bytes` par la taille de l'image de votre agent.

   1. Exécutez la commande .

   Cette commande crée un disque géré vide avec un [SKU standard](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types) sur lequel vous pouvez télécharger votre DataSync agent.

1. Pour générer une signature d'accès partagé (SAS) qui autorise l'accès en écriture au disque géré, procédez comme suit :

   1. Copiez la commande Azure CLI suivante :

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. `your-managed-disk`Remplacez-le par le nom du disque géré que vous avez créé.

   1. `your-resource-group`Remplacez-le par le nom du groupe de Azure ressources auquel appartient votre compte de stockage.

   1. Exécutez la commande .

      Dans le résultat, prenez note de l'URI SAS. Vous avez besoin de cette URI pour télécharger l'agent versAzure.

   Le SAS vous permet d'écrire sur le disque pendant une heure maximum. Cela signifie que vous avez une heure pour télécharger votre agent sur le disque géré.

1. Pour télécharger votre agent sur votre disque géréAzure, procédez comme suit :

   1. Copiez la `AzCopy` commande suivante :

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. Remplacez `local-path-to-vhd-file` par l'emplacement du `.vhd` fichier de l'agent sur votre ordinateur local.

   1. `sas-uri`Remplacez-le par l'URI SAS que vous avez obtenu lorsque vous avez exécuté la `az disk grant-access` commande.

   1. Exécutez la commande .

1. Lorsque le téléchargement de l'agent est terminé, révoquez l'accès à votre disque géré. Pour ce faire, copiez la commande Azure CLI suivante :

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. `your-resource-group`Remplacez-le par le nom du groupe de Azure ressources auquel appartient votre compte de stockage.

   1. `your-managed-disk`Remplacez-le par le nom du disque géré que vous avez créé.

   1. Exécutez la commande .

1. Procédez comme suit pour associer votre disque géré à une nouvelle Linux machine virtuelle :

   1. Copiez la commande Azure CLI suivante :

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. `your-resource-group`Remplacez-le par le nom du groupe de Azure ressources auquel appartient votre compte de stockage.

   1. `your-agent-vm`Remplacez-le par un nom de machine virtuelle dont vous vous souviendrez.

   1. `your-managed-disk`Remplacez-le par le nom du disque géré que vous connectez à la machine virtuelle.

   1. Exécutez la commande .

Vous avez déployé votre agent. Avant de commencer à configurer votre transfert de données, vous devez activer l'agent.

#### Obtenir la clé d'activation de votre agent
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Pour obtenir manuellement la clé d'activation de votre DataSync agent, procédez comme suit. 

Vous [DataSync pouvez également obtenir automatiquement la clé d'activation pour vous](activate-agent.md), mais cette approche nécessite une certaine configuration réseau.

**Pour obtenir la clé d'activation de votre agent**

1. Sur le Azure portail, [activez les diagnostics de démarrage de la machine virtuelle pour votre agent](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics) en choisissant le paramètre **Activer avec un compte de stockage personnalisé** et en spécifiant votre compte Azure de stockage.

   Après avoir activé les diagnostics de démarrage pour la machine virtuelle de votre agent, vous pouvez accéder à la console locale de votre agent pour obtenir la clé d'activation.

1. Pendant que vous êtes toujours sur le Azure portail, accédez à votre machine virtuelle et choisissez **Serial console**.

1. Dans la console locale de l'agent, connectez-vous à l'aide des informations d'identification par défaut suivantes : 
   + **Nom d'utilisateur** – **admin**
   + **Mot de passe** — **password**

   Nous vous recommandons de modifier au moins le mot de passe de l'agent à un moment donné. Dans la console locale de l'agent, entrez dans **5** le menu principal, puis utilisez la `passwd` commande pour modifier le mot de passe.

1. Entrez **0** pour obtenir la clé d'activation de l'agent.

1. Entrez l' Région AWS endroit où vous utilisez DataSync (par exemple,**us-east-1**).

1. Choisissez le [point de terminaison de service](choose-service-endpoint.md) que l'agent utilisera pour se connecter AWS. 

1. Enregistrez la valeur de la `Activation key` sortie. 

#### Activation de votre agent
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Une fois que vous avez obtenu la clé d'activation, vous pouvez terminer la création de votre DataSync agent.

**Pour activer votre agent**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Agents**, puis **Create agent**.

1. Pour **Hypervisor**, choisissez **Microsoft Hyper-V**.

1. Pour le **type de point de terminaison**, choisissez le même type de point de terminaison de service que celui que vous avez spécifié lorsque vous avez obtenu la clé d'activation de votre agent (par exemple, choisissez **Points de terminaison de service public dans *Region name***).

1. Configurez votre réseau pour qu'il fonctionne avec le type de point de terminaison de service utilisé par votre agent. Pour connaître les exigences du réseau des points de terminaison de service, consultez les rubriques suivantes :
   + [Points de terminaison d'un VPC](datasync-network.md#using-vpc-endpoint)
   + [Points de terminaison publics](datasync-network.md#using-public-endpoints)
   + [Points de terminaison FIPS (Federal Information Processing Standard)](datasync-network.md#using-public-endpoints)

1. Pour la **clé d'activation**, procédez comme suit :

   1. Choisissez **Entrez manuellement la clé d'activation de votre agent**.

   1. Entrez la clé d'activation que vous avez reçue de la console locale de l'agent.

1. Choisissez **Create agent (Créer un agent)**.

Votre agent est prêt à communiquer avec vousAzure Blob Storage. Pour de plus amples informations, veuillez consulter [Création de votre lieu Azure Blob Storage de transfert](#creating-azure-blob-location-how-to).

### Agents Amazon EC2
<a name="azure-blob-creating-agent-ec2"></a>

Vous pouvez déployer votre DataSync agent sur une instance Amazon EC2.

**Pour créer un agent Amazon EC2**

1. [Déployez un agent Amazon EC2.](deploy-agents.md#ec2-deploy-agent)

1. [Choisissez un point de terminaison de service](choose-service-endpoint.md) avec lequel l'agent communique AWS.

   Dans ce cas, nous vous recommandons d'utiliser un point de terminaison de service de cloud privé virtuel (VPC).

1. Configurez votre réseau pour qu'il fonctionne avec les points de terminaison du [service VPC.](datasync-network.md#using-vpc-endpoint)

1. [Activez l'agent](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## Création de votre lieu Azure Blob Storage de transfert
<a name="creating-azure-blob-location-how-to"></a>

Vous pouvez le configurer DataSync pour l'utiliser Azure Blob Storage comme source ou destination de transfert.

**Avant de commencer**  
Assurez-vous de savoir [comment DataSync accéder et utiliser les [niveaux d'accès Azure Blob Storage](#azure-blob-access-tiers)](#azure-blob-access) et les types de [blob](#blob-types). Vous avez également besoin d'un [DataSync agent](#azure-blob-creating-agent) capable de se connecter à votre Azure Blob Storage conteneur.

### Utilisation de la DataSync console
<a name="creating-azure-blob-location-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Location type (Type d'emplacement)**, choisissez **Microsoft Azure Blob Storage**.

1. Pour **URL du conteneur**, entrez l'URL du conteneur impliqué dans votre transfert.

1. (Facultatif) Pour le **niveau d'accès lorsqu'il est utilisé comme destination**, choisissez le [niveau d'accès](#azure-blob-access-tiers) vers lequel vous souhaitez transférer vos objets ou fichiers.

1. Pour **Dossier**, entrez des segments de chemin si vous souhaitez limiter votre transfert vers un répertoire virtuel de votre conteneur (par exemple,`/my/images`).

1. Si votre transfert nécessite un agent, choisissez **Utiliser des agents**, puis choisissez l' DataSync agent qui peut se connecter à votre Azure Blob Storage conteneur.

1. Pour le **jeton SAS**, fournissez les informations d'identification nécessaires DataSync pour accéder à votre stockage blob. Certains ensembles de données publics sur le stockage Azure Blob ne nécessitent pas d'informations d'identification. Vous pouvez saisir directement un jeton SAS ou spécifier un AWS Secrets Manager secret contenant le jeton. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Votre jeton SAS fait partie de la chaîne d'URI SAS qui suit l'URI de votre ressource de stockage et un point d'interrogation (`?`). Un jeton ressemble à ceci :

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Facultatif) Entrez des valeurs pour les champs **Clé** et **Valeur** afin de baliser l'emplacement.

   Les balises vous aident à gérer, à filtrer et à rechercher vos AWS ressources. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

### À l'aide du AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Copiez la `create-location-azure-blob` commande suivante :

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Pour le `--container-url` paramètre, spécifiez l'URL du Azure Blob Storage conteneur impliqué dans votre transfert.

1. Pour le paramètre `--authentication-type`, spécifiez `SAS`. Si vous accédez à un ensemble de données public qui ne nécessite pas d'authentification, spécifiez`NONE`.

1. Pour l'`Token`option du `--sas-configuration` paramètre, spécifiez le jeton SAS qui permet d'accéder DataSync à votre stockage blob. 

   Vous pouvez également fournir des paramètres supplémentaires pour sécuriser vos clés à l'aide de AWS Secrets Manager. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Votre jeton SAS fait partie de la chaîne d'URI SAS qui suit l'URI de votre ressource de stockage et un point d'interrogation (`?`). Un jeton ressemble à ceci :

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Facultatif) Pour le `--agent-arns` paramètre, spécifiez le nom de ressource Amazon (ARN) de l' DataSync agent qui peut se connecter à votre conteneur.

   Voici un exemple d'ARN d'agent : `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Vous pouvez spécifier plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour le `--subdirectory` paramètre, spécifiez les segments de chemin si vous souhaitez limiter votre transfert vers un répertoire virtuel de votre conteneur (par exemple,`/my/images`).

1. (Facultatif) Pour le `--access-tier` paramètre, spécifiez le [niveau d'accès](#azure-blob-access-tiers) (`HOT``COOL`, ou`ARCHIVE`) vers lequel vous souhaitez transférer vos objets ou fichiers.

   Ce paramètre s'applique uniquement lorsque vous utilisez cet emplacement comme destination de transfert.

1. (Facultatif) Pour le `--tags` paramètre, spécifiez des paires clé-valeur qui peuvent vous aider à gérer, filtrer et rechercher votre position.

   Nous vous recommandons de créer une balise de nom pour votre emplacement.

1. Exécutez la commande `create-location-azure-blob`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de l'emplacement que vous avez créé. Par exemple :

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Afficher le lieu Azure Blob Storage de votre transfert
<a name="azure-blob-view-location"></a>

Vous pouvez obtenir des informations sur le lieu DataSync de transfert existant pour votreAzure Blob Storage.

### Utilisation de la DataSync console
<a name="azure-blob-view-location-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations**.

1. Choisissez votre Azure Blob Storage emplacement.

   Vous pouvez consulter les informations relatives à votre position, y compris les tâches de DataSync transfert qui l'utilisent.

### À l'aide du AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Copiez la `describe-location-azure-blob` commande suivante :

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Pour le `--location-arn` paramètre, spécifiez l'ARN de l'Azure Blob Storageemplacement que vous avez créé (par exemple,`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Exécutez la commande `describe-location-azure-blob`.

   Vous recevez une réponse qui vous indique les détails de votre position. Par exemple :

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Mettre à jour le lieu Azure Blob Storage de votre transfert
<a name="azure-blob-update-location"></a>

Si nécessaire, vous pouvez modifier la configuration de votre emplacement dans la console ou en utilisant le AWS CLI.

### À l'aide du AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Copiez la `update-location-azure-blob` commande suivante :

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Pour le `--location-arn` paramètre, spécifiez l'ARN de l'Azure Blob Storageemplacement que vous mettez à jour (par exemple,`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Pour le paramètre `--authentication-type`, spécifiez `SAS`.

1. Pour l'`Token`option du `--sas-configuration` paramètre, spécifiez le jeton SAS qui permet d'accéder DataSync à votre stockage blob. 

   Le jeton fait partie de la chaîne d'URI SAS qui suit l'URI de la ressource de stockage et un point d'interrogation (`?`). Un jeton ressemble à ceci :

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Pour le `--agent-arns` paramètre, spécifiez l'Amazon Resource Name (ARN) de l' DataSync agent que vous souhaitez connecter à votre conteneur.

   Voici un exemple d'ARN d'agent : `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Vous pouvez spécifier plusieurs agents. Pour de plus amples informations, veuillez consulter [Utilisation de plusieurs DataSync agents](do-i-need-datasync-agent.md#multiple-agents).

1. Pour le `--subdirectory` paramètre, spécifiez les segments de chemin si vous souhaitez limiter votre transfert vers un répertoire virtuel de votre conteneur (par exemple,`/my/images`).

1. (Facultatif) Pour le `--access-tier` paramètre, spécifiez le [niveau d'accès](#azure-blob-access-tiers) (`HOT``COOL`, ou`ARCHIVE`) vers lequel vous souhaitez transférer vos objets.

   Ce paramètre s'applique uniquement lorsque vous utilisez cet emplacement comme destination de transfert.

## Étapes suivantes
<a name="create-azure-blob-location-next-steps"></a>

Une fois que vous avez créé un DataSync lieu pour votreAzure Blob Storage, vous pouvez continuer à configurer votre transfert. Voici les prochaines étapes à prendre en compte :

1. Si ce n'est pas déjà fait, [créez un autre emplacement](working-with-locations.md) où vous prévoyez de transférer vos données vers ou depuis votreAzure Blob Storage.

1. Découvrez comment DataSync [gère les métadonnées et les fichiers spéciaux](metadata-copied.md), en particulier si vos lieux de transfert ne disposent pas d'une structure de métadonnées similaire.

1. Configurez le mode de transfert de vos données. Par exemple, vous pouvez [uniquement transférer un sous-ensemble de vos données](filtering.md) ou supprimer des fichiers de votre stockage blob qui ne se trouvent pas dans votre emplacement source (à condition que votre [jeton SAS](#azure-blob-sas-tokens) dispose des autorisations de suppression).

1. [Commencez votre transfert](run-task.md). 

# Configuration des AWS DataSync transferts avec des Microsoft Azure Files partages SMB
<a name="transferring-azure-files"></a>

Vous pouvez configurer AWS DataSync pour transférer des données vers ou depuis un partage SMB (Microsoft Azure FilesServer Message Block).

**Astuce**  
Pour une présentation complète du transfert de données depuis des partages Azure Files SMB vers AWS, consultez le blog sur le [AWS stockage](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/).

## Fournir un DataSync accès aux partages des PME
<a name="configuring-smb-azure-files"></a>

DataSync se connecte à votre partage SMB à l'aide du protocole SMB et s'authentifie à l'aide des informations d'identification que vous lui fournissez.

**Topics**
+ [Versions de protocole SMB prises en charge](#configuring-smb-version-azure-files)
+ [Autorisations requises](#configuring-smb-permissions-azure-files)

### Versions de protocole SMB prises en charge
<a name="configuring-smb-version-azure-files"></a>

Par défaut, choisit DataSync automatiquement une version du protocole SMB en fonction de la négociation avec votre serveur de fichiers SMB.

Vous pouvez également configurer DataSync pour utiliser une version SMB spécifique, mais nous vous recommandons de le faire uniquement si DataSync vous rencontrez des difficultés pour négocier automatiquement avec le serveur de fichiers SMB. DataSync prend en charge les versions SMB 1.0 et ultérieures. Pour des raisons de sécurité, nous recommandons d'utiliser SMB version 3.0.2 ou ultérieure. Les versions antérieures, telles que SMB 1.0, contiennent des failles de sécurité connues que les attaquants peuvent exploiter pour compromettre vos données.

Consultez le tableau suivant pour obtenir la liste des options de la DataSync console et de l'API :


| Option console | Option d'API | Description | 
| --- | --- | --- | 
| Automatique |  `AUTOMATIC`  |  DataSync et le serveur de fichiers SMB négocient la version la plus élevée de SMB qu'ils supportent mutuellement entre 2.1 et 3.1.1. Il s'agit de l'option recommandée par défaut. Si vous optez pour une version spécifique que votre serveur de fichiers ne prend pas en charge, vous risquez de recevoir une erreur `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Limite la négociation du protocole à la version SMB 3.0.2 uniquement.  | 
| SMB 2.1 |  `SMB2`  | Limite la négociation du protocole à la version 2.1 de SMB uniquement. | 
| SMB 2.0 | `SMB2_0` | Limite la négociation du protocole à la version 2.0 de SMB uniquement. | 
| SMB 1.0 | `SMB1` | Limite la négociation du protocole à la version 1.0 de SMB uniquement. | 

### Autorisations requises
<a name="configuring-smb-permissions-azure-files"></a>

DataSync a besoin d'un utilisateur autorisé à monter et à accéder à votre site SMB. Il peut s'agir d'un utilisateur local sur votre serveur de fichiers Windows ou d'un utilisateur de domaine défini dans votre Microsoft Active Directory.

Pour définir la propriété des objets, DataSync il faut le `SE_RESTORE_NAME` privilège, qui est généralement accordé aux membres des groupes Active Directory intégrés **Backup Operators** et **Domain Admins**. L'attribution de ce privilège DataSync à un utilisateur permet également de garantir des autorisations suffisantes pour les fichiers, les dossiers et les métadonnées des fichiers, à l'exception des listes de contrôle d'accès au système NTFS (SACLs).

Des privilèges supplémentaires sont nécessaires pour copier SACLs. Plus précisément, cela nécessite le `SE_SECURITY_NAME` privilège Windows, qui est accordé aux membres du groupe des **administrateurs de domaine**. Si vous configurez votre tâche pour qu'elle soit copiée SACLs, assurez-vous que l'utilisateur dispose des privilèges requis. Pour en savoir plus sur la configuration d'une tâche à copier SACLs, consultez[Configuration du mode de gestion des fichiers, des objets et des métadonnées](configure-metadata.md).

Lorsque vous copiez des données entre un serveur de fichiers SMB et le système de fichiers Amazon FSx pour Windows File Server, les emplacements source et de destination doivent appartenir au même domaine Microsoft Active Directory ou avoir une relation de confiance Active Directory entre leurs domaines.

## Création de votre emplacement de transfert Azure Files à l'aide de la console
<a name="create-azure-files-smb-location-how-to"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Location type (Type d'emplacement)**, choisissez **Server Message Block (SMB)**.

   Vous configurerez cet emplacement comme source ou destination plus tard.

1. Pour les **agents**, choisissez un ou plusieurs DataSync agents que vous souhaitez connecter à votre partage SMB.

   Si vous choisissez plusieurs agents, assurez-vous de bien comprendre l'utilisation de [plusieurs agents pour un même point de vente](do-i-need-datasync-agent.md#multiple-agents).

1. Pour le **serveur SMB**, entrez le nom du système de noms de domaine (DNS) ou l'adresse IP du partage SMB que votre DataSync agent va monter.
**Note**  
Vous ne pouvez pas spécifier d'adresse IP version 6 (IPv6).

1. Dans **Nom du partage**, entrez le nom du partage exporté par votre partage SMB où les données DataSync seront lues ou écrites.

   Vous pouvez inclure un sous-répertoire dans le chemin de partage (par exemple,`/path/to/subdirectory`). Assurez-vous que les autres clients SMB de votre réseau peuvent également monter ce chemin. 

   Pour copier toutes les données du sous-répertoire, vous DataSync devez être en mesure de monter le partage SMB et d'accéder à toutes ses données. Pour de plus amples informations, veuillez consulter [Autorisations requises](create-smb-location.md#configuring-smb-permissions).

1. (Facultatif) Développez **les paramètres supplémentaires** et choisissez une **version SMB** DataSync à utiliser lors de l'accès à votre partage SMB.

   Par défaut, choisit DataSync automatiquement une version en fonction de la négociation avec le partage SMB. Pour plus d'informations, consultez [Versions SMB prises en charge](create-smb-location.md#configuring-smb-version).

1. Dans **Utilisateur**, entrez un nom d'utilisateur capable de monter votre partage SMB et autorisé à accéder aux fichiers et dossiers concernés par votre transfert.

   Pour de plus amples informations, veuillez consulter [Autorisations requises](create-smb-location.md#configuring-smb-permissions).

1. Dans **Mot de passe**, entrez le mot de passe de l'utilisateur qui peut monter votre partage SMB et qui est autorisé à accéder aux fichiers et dossiers concernés par votre transfert.

1. (Facultatif) Dans le champ **Domaine**, entrez le nom de domaine Windows auquel appartient votre partage SMB.

   Si votre environnement comporte plusieurs domaines, la configuration de ce paramètre permet de s'assurer qu' DataSync ils sont connectés au partage approprié.

1. (Facultatif) Choisissez **Ajouter un tag** pour marquer votre position.

   Les *tags* sont des paires clé-valeur qui vous permettent de gérer, de filtrer et de rechercher vos emplacements. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

# Configuration des transferts avec d'autres solutions de stockage d'objets dans le cloud
<a name="creating-other-cloud-object-location"></a>

Vous pouvez ainsi transférer des données entre les [services AWS de stockage](transferring-aws-storage.md) et les fournisseurs de stockage d'objets cloud suivants : AWS DataSync
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Un DataSync agent n'est requis que lors du transfert de données entre des systèmes de stockage situés dans d'autres clouds et Amazon EFS ou Amazon FSx, ou lors de l'utilisation **de tâches en mode Basic**. Vous n'avez pas besoin d'un agent pour transférer des données entre les systèmes de stockage d'autres clouds et Amazon S3 à l'aide du mode **amélioré**.

Que vous utilisiez ou non un agent, vous devez également créer un [emplacement](how-datasync-transfer-works.md#sync-locations) de transfert pour votre stockage d'objets dans le cloud (en particulier un emplacement **de stockage d'objets**). DataSync peut utiliser cet emplacement comme source ou destination pour votre transfert.

## Fournir un DataSync accès à votre autre espace de stockage d'objets dans le cloud
<a name="other-cloud-access"></a>

La manière dont DataSync vous accédez à votre stockage d'objets dans le cloud dépend de plusieurs facteurs, notamment de la compatibilité de votre stockage avec l'API Amazon S3 et des autorisations et informations d'identification DataSync nécessaires pour accéder à votre stockage.

**Topics**
+ [Compatibilité avec les API Amazon S3](#other-cloud-s3-compatibility)
+ [Autorisations de stockage et points de terminaison](#other-cloud-permissions)
+ [Informations d'identification de stockage](#other-cloud-credentials)

### Compatibilité avec les API Amazon S3
<a name="other-cloud-s3-compatibility"></a>

Votre stockage d'objets dans le cloud doit être compatible avec les [opérations d'API Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) suivantes DataSync pour pouvoir vous y connecter :
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Autorisations de stockage et points de terminaison
<a name="other-cloud-permissions"></a>

Vous devez configurer les autorisations permettant d'accéder DataSync à votre espace de stockage d'objets dans le cloud. Si votre stockage d'objets est un emplacement source, DataSync des autorisations de lecture et de liste sont nécessaires pour le compartiment à partir duquel vous transférez les données. Si votre stockage d'objets est un emplacement de destination, il DataSync nécessite des autorisations de lecture, de liste, d'écriture et de suppression pour le compartiment.

DataSync a également besoin d'un point de terminaison (ou serveur) pour se connecter à votre système de stockage. Le tableau suivant décrit les points de terminaison qui DataSync peuvent être utilisés pour accéder à d'autres espaces de stockage d'objets dans le cloud :


| Autre fournisseur de cloud | Endpoint | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com`(dans la plupart des régions)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**Important**  
Pour plus d'informations sur la configuration des autorisations de bucket et pour obtenir des informations actualisées sur les points de terminaison de stockage, consultez la documentation de votre fournisseur de cloud.

### Informations d'identification de stockage
<a name="other-cloud-credentials"></a>

DataSync a également besoin des informations d'identification pour accéder au bucket de stockage d'objets impliqué dans votre transfert. Il peut s'agir d'une clé d'accès et d'une clé secrète ou de quelque chose de similaire, selon la façon dont votre fournisseur de stockage cloud fait référence à ces informations d'identification.

Pour plus d'informations, consultez la documentation de votre fournisseur de cloud.

## Considérations relatives au transfert depuis un autre stockage d'objets dans le cloud
<a name="other-cloud-considerations"></a>

Lorsque vous envisagez de transférer des objets vers ou depuis un autre fournisseur de stockage dans le cloud en utilisant DataSync, vous devez garder certains points à l'esprit.

**Topics**
+ [Coûts](#other-cloud-considerations-costs)
+ [Classes de stockage](#other-cloud-considerations-storage-classes)
+ [Balises d’objet](#other-cloud-considerations-object-tags)
+ [Transfert vers Amazon S3](#other-cloud-considerations-s3)

### Coûts
<a name="other-cloud-considerations-costs"></a>

Les frais associés au transfert de données vers et depuis un autre fournisseur de stockage dans le cloud peuvent inclure :
+ Exécution d'une instance [Amazon EC2](https://aws.amazon.com/ec2/pricing/) pour votre agent DataSync 
+ Transférer les données en utilisant [DataSync](https://aws.amazon.com/datasync/pricing/), y compris les frais de demande liés à votre stockage d'objets dans le cloud et à [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 est votre destination de transfert)
+ Transfert de données depuis ou vers votre espace de stockage dans le cloud (consultez les tarifs de votre fournisseur de cloud)
+ Stockage des données dans un [service AWS de stockage](transferring-aws-storage.md) pris en charge par DataSync
+ Stockage des données chez un autre fournisseur de cloud (vérifiez les tarifs de votre fournisseur de cloud)

### Classes de stockage
<a name="other-cloud-considerations-storage-classes"></a>

Certains fournisseurs de stockage dans le cloud proposent des classes de stockage (similaires à [Amazon S3](create-s3-location.md#using-storage-classes)) qui ne DataSync peuvent pas être lues sans avoir été restaurées au préalable. Oracle Cloud Infrastructure Object StoragePossède, par exemple, une classe de stockage d'archives. Vous devez restaurer les objets de cette classe de stockage avant de DataSync pouvoir les transférer. Pour plus d'informations, consultez la documentation de votre fournisseur de cloud.

### Balises d’objet
<a name="other-cloud-considerations-object-tags"></a>

Les fournisseurs de cloud ne prennent pas tous en charge les balises d'objet. Ceux qui le font peuvent ne pas autoriser l'interrogation de balises via l'API Amazon S3. Dans les deux cas, votre tâche DataSync de transfert risque d'échouer si vous essayez de copier des balises d'objets.

Vous pouvez éviter cela en décochant la case **Copier les balises d'objets** dans la DataSync console lors de la création, du démarrage ou de la mise à jour de votre tâche.

### Transfert vers Amazon S3
<a name="other-cloud-considerations-s3"></a>

Lors du transfert vers Amazon S3, DataSync impossible de transférer des objets de plus de 5 To. DataSyncne peut également copier que des métadonnées d'objets d'une taille maximale de 2 Ko.

## Création de votre DataSync agent
<a name="other-cloud-creating-agent"></a>

Un DataSync agent n'est requis que lors du transfert de données entre des systèmes de stockage situés dans d'autres clouds et Amazon EFS ou Amazon FSx, ou lors de l'utilisation **de tâches en mode Basic**. Vous n'avez pas besoin d'un agent pour transférer des données entre les systèmes de stockage d'autres clouds et Amazon S3 à l'aide du mode **amélioré**. Cette section explique comment déployer et activer un agent sur une instance Amazon EC2 dans votre cloud privé virtuel (VPC) dans. AWS

**Pour créer un agent Amazon EC2**

1. [Déployez un agent Amazon EC2.](deploy-agents.md#ec2-deploy-agent)

1. [Choisissez un point de terminaison de service](choose-service-endpoint.md) avec lequel l'agent communique AWS.

   Dans ce cas, nous vous recommandons d'utiliser un point de terminaison de service VPC.

1. Configurez votre réseau pour qu'il fonctionne avec les points de terminaison du [service VPC.](datasync-network.md#using-vpc-endpoint)

1. [Activez l'agent](activate-agent.md).

## Création d'un lieu de transfert pour votre autre espace de stockage d'objets dans le cloud
<a name="creating-other-cloud-location-how-to"></a>

Vous pouvez configurer DataSync pour utiliser votre stockage d'objets dans le cloud comme emplacement source ou de destination.

**Avant de commencer**  
Assurez-vous de savoir [comment DataSync accéder à votre espace de stockage d'objets dans le cloud](#other-cloud-access). Vous avez également besoin d'un [DataSync agent](#other-cloud-creating-agent) capable de se connecter à votre espace de stockage d'objets dans le cloud.

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Locations** et **Create location**.

1. Pour **Type d'emplacement**, choisissez **Stockage d'objets**.

1. Dans **Serveur**, entrez le [point de terminaison](#other-cloud-permissions) qui DataSync peut être utilisé pour accéder à votre stockage d'objets dans le cloud :
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**— `region.object.ncloudstorage.com` (dans la plupart des régions)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. Dans le **champ Nom du compartiment**, entrez le nom du compartiment de stockage d'objets vers ou depuis lequel vous transférez des données.

1. Pour **Dossier**, entrez un préfixe d'objet. DataSync transfère uniquement les objets portant ce préfixe.

1. Si votre transfert nécessite un agent, choisissez **Utiliser des agents**, puis choisissez l' DataSync agent capable de se connecter à votre espace de stockage d'objets dans le cloud.

1. Développer **Additional settings (Paramètres supplémentaires)**. Pour le **protocole du serveur**, choisissez **HTTPS**. Pour le **port du serveur**, choisissez **443**.

1. Faites défiler la page jusqu'à la section **Authentification**. Assurez-vous que la case **Requiert des informations d'identification** est cochée, puis fournissez DataSync vos [informations d'identification de stockage](#other-cloud-credentials).
   + Dans le **champ Clé d'accès**, entrez l'ID pour accéder à votre espace de stockage d'objets dans le cloud.
   + Pour **Clé secrète**, fournissez la clé secrète pour accéder à votre stockage d'objets dans le cloud. Vous pouvez soit saisir la clé directement, soit spécifier un AWS Secrets Manager secret contenant la clé. Pour plus d'informations, consultez la section [Fourniture d'informations d'identification pour les emplacements de stockage](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Facultatif) Entrez des valeurs pour les champs **Clé** et **Valeur** afin de baliser l'emplacement.

   Les balises vous aident à gérer, à filtrer et à rechercher vos AWS ressources. Nous vous recommandons de créer au moins une balise de nom pour votre emplacement. 

1. Choisissez **Créer un emplacement**.

## Étapes suivantes
<a name="other-cloud-location-next-steps"></a>

Une fois que vous avez créé un DataSync emplacement pour votre stockage d'objets dans le cloud, vous pouvez continuer à configurer votre transfert. Voici les prochaines étapes à prendre en compte :

1. Si ce n'est pas déjà fait, [créez un autre emplacement](transferring-aws-storage.md) vers ou depuis lequel vous prévoyez de transférer vos données AWS.

1. Découvrez comment DataSync [gère les métadonnées et les fichiers spéciaux pour les](metadata-copied.md) emplacements de stockage d'objets.

1. Configurez le mode de transfert de vos données. Par exemple, vous souhaitez peut-être uniquement [transférer un sous-ensemble de vos données](filtering.md).
**Important**  
Assurez-vous de configurer correctement le mode de DataSync copie des balises d'objets. Pour plus d'informations, consultez les considérations relatives aux [balises d'objet](#other-cloud-considerations-object-tags).

1. [Commencez votre transfert](run-task.md). 

 

# Création d'une tâche pour le transfert de vos données
<a name="create-task-how-to"></a>

Une *tâche* décrit où et comment les données sont AWS DataSync transférées. Une tâche comprend les éléments suivants :
+ [**Emplacement de la source**](working-with-locations.md) : système ou service de stockage à partir duquel DataSync les données sont transférées.
+ [**Lieu de destination**](working-with-locations.md) : système ou service de stockage DataSync vers lequel les données sont transférées.
+ [**Options des tâches**](task-options.md) : paramètres tels que les fichiers à transférer, le mode de vérification des données, le moment d'exécution de la tâche, etc.
+ [**Exécutions de tâches**](run-task.md) : lorsque vous exécutez une tâche, cela s'appelle une *exécution de tâche*.

## Création de votre tâche
<a name="create-task-steps"></a>

Lorsque vous créez une DataSync tâche, vous spécifiez vos emplacements source et de destination. Vous pouvez également personnaliser votre tâche en choisissant les fichiers à transférer, la manière dont les métadonnées sont traitées, en établissant un calendrier, etc.

Avant de créer votre tâche, assurez-vous de comprendre le [fonctionnement des DataSync transferts](how-datasync-transfer-works.md#transferring-files) et vérifiez les [quotas de tâches](datasync-limits.md#task-hard-limits).

**Important**  
Si vous prévoyez de transférer des données depuis ou vers un site Amazon S3, examinez [comment cela DataSync peut affecter les frais de votre demande S3](create-s3-location.md#create-s3-location-s3-requests) et la [page de DataSync tarification](https://aws.amazon.com/datasync/pricing/) avant de commencer.

### Utilisation de la DataSync console
<a name="create-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Assurez-vous que vous vous trouvez dans l'un des Régions AWS endroits où vous prévoyez de transférer des données.

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Sur la page **Configurer l'emplacement de la source**, [créez](transferring-data-datasync.md) ou choisissez un emplacement source, puis choisissez **Suivant**.

1. Sur la page **Configurer l'emplacement de destination**, [créez](transferring-data-datasync.md) ou choisissez un emplacement de destination, puis choisissez **Suivant**.

1. (Recommandé) Sur la page **Configurer les paramètres**, attribuez à votre tâche un nom dont vous vous souviendrez.

1. Tout en restant sur la page **Configurer les paramètres**, choisissez les options de vos tâches ou utilisez les paramètres par défaut.

   Certaines des options suivantes pourraient vous intéresser :
   + Spécifiez le [mode de tâche](choosing-task-mode.md) que vous souhaitez utiliser.
   + Spécifiez les données à transférer à l'aide d'un [manifeste](transferring-with-manifest.md) ou de [filtres](filtering.md).
   + Configurez le mode de [gestion des métadonnées des fichiers](configure-metadata.md) et de [vérification de l'intégrité des données](configure-data-verification-options.md).
   + Surveillez votre transfert à l'aide de [rapports de tâches](task-reports.md) ou [d'Amazon CloudWatch](monitor-datasync.md). Nous vous recommandons de configurer une sorte de surveillance pour votre tâche.

   Lorsque vous avez terminé, sélectionnez **Next**.

1. Vérifiez la configuration de vos tâches, puis choisissez **Créer une tâche**.

Vous êtes prêt à [commencer votre tâche](run-task.md).

### À l'aide du AWS CLI
<a name="create-task-cli"></a>

Une fois que vous avez [créé vos emplacements DataSync source et de destination](transferring-data-datasync.md), vous pouvez créer votre tâche.

1. Dans vos AWS CLI paramètres, assurez-vous que vous utilisez l'un des emplacements Régions AWS où vous prévoyez de transférer des données.

1. Copiez la `create-task` commande suivante :

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. Pour`--source-location-arn`, spécifiez l'Amazon Resource Name (ARN) de votre emplacement source.

1. Pour`--destination-location-arn`, spécifiez l'ARN de votre position de destination.

   Si vous transférez plusieurs Régions AWS comptes, assurez-vous que l'ARN inclut l'autre région ou l'autre identifiant de compte.

1. (Recommandé) Pour`--name`, spécifiez un nom mémorisable pour votre tâche.

1. Spécifiez les autres options de tâche selon vos besoins. Certaines des options suivantes pourraient vous intéresser :
   + Spécifiez les données à transférer à l'aide d'un [manifeste](transferring-with-manifest.md) ou de [filtres](filtering.md).
   + Configurez le mode de [gestion des métadonnées des fichiers](configure-metadata.md) et de [vérification de l'intégrité des données](configure-data-verification-options.md).
   + Surveillez votre transfert à l'aide de [rapports de tâches](task-reports.md) ou [d'Amazon CloudWatch](monitor-datasync.md). Nous vous recommandons de configurer une sorte de surveillance pour votre tâche.

   Pour plus d'options, voir [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Voici un exemple de `create-task` commande qui spécifie plusieurs options :

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. Exécutez la commande `create-task`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de la tâche que vous avez créée. Par exemple :

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

Vous êtes prêt à [commencer votre tâche](run-task.md).

## Statuts des tâches
<a name="understand-task-creation-statuses"></a>

Lorsque vous créez une DataSync tâche, vous pouvez vérifier son statut pour voir si elle est prête à être exécutée.


| État de la console | État de l'API | Description | 
| --- | --- | --- | 
| Available |  `AVAILABLE`  |  La tâche est prête à démarrer le transfert de données.  | 
| En cours d’exécution |  `RUNNING`  | L'exécution d'une tâche est en cours. Pour de plus amples informations, veuillez consulter [Statuts d'exécution des tâches](run-task.md#understand-task-execution-statuses). | 
|  Unavailable  |  `UNAVAILABLE`  |  Un DataSync agent utilisé par la tâche est hors ligne. Pour de plus amples informations, consultez [Que dois-je faire si mon agent est hors ligne ?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline).  | 
|  En file d’attente  |  `QUEUED`  |  Une autre exécution de tâche utilisant le même DataSync agent est en cours. Pour de plus amples informations, veuillez consulter [Savoir quand votre tâche est en file d'attente](run-task.md#queue-task-execution).  | 

## Partitionnement de grands ensembles de données avec plusieurs tâches
<a name="multiple-tasks-large-dataset"></a>

Si vous transférez un ensemble de données volumineux, par exemple si vous [migrez](datasync-large-migration.md) des millions de fichiers ou d'objets, nous vous recommandons d'utiliser le mode DataSync amélioré pour votre transfert, qui permet de transférer des ensembles de données contenant un nombre pratiquement illimité de fichiers. Pour les ensembles de données très volumineux, contenant des milliards de fichiers, vous devez envisager de partitionner votre ensemble de données en plusieurs DataSync tâches. Le partitionnement de vos données entre plusieurs tâches (et éventuellement entre plusieurs [agents](do-i-need-datasync-agent.md#multiple-agents), en fonction de vos sites) permet de réduire le temps nécessaire DataSync à la préparation et au transfert de vos données.

Examinez les différentes manières de partitionner un ensemble de données volumineux entre plusieurs DataSync tâches :
+ Créez des tâches qui transfèrent des dossiers distincts. Par exemple, vous pouvez créer deux tâches qui ciblent `/FolderA` et`/FolderB`, respectivement, dans votre stockage source.
+ Créez des tâches qui transfèrent des sous-ensembles de fichiers, d'objets et de dossiers à l'aide d'un [manifeste](transferring-with-manifest.md) ou de [filtres](filtering.md).

Sachez que cette approche peut augmenter les I/O opérations sur votre stockage et affecter la bande passante de votre réseau. Pour plus d'informations, consultez le blog [Comment accélérer vos transferts de données grâce à des architectures DataSync évolutives](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/).

## Segmentation des données transférées avec plusieurs tâches
<a name="multiple-tasks-organize-transfer"></a>

Si vous transférez différents ensembles de données vers la même destination, vous pouvez créer plusieurs tâches pour segmenter les données que vous transférez.

Par exemple, si vous effectuez un transfert vers le même compartiment S3 nommé`MyBucket`, vous pouvez créer différents préfixes dans le compartiment correspondant à chaque tâche. Cette approche évite les conflits de noms de fichiers entre les ensembles de données et vous permet de définir des autorisations différentes pour chaque préfixe. Voici comment vous pouvez le configurer :

1. Créez trois préfixes dans la destination `MyBucket` nommée `task1``task2`, et `task3` :
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. Créez trois DataSync tâches nommées `task1``task2`, et `task3` transférez-les vers le préfixe correspondant dans`MyBucket`.

# Choix d'un mode de tâche pour le transfert de données
<a name="choosing-task-mode"></a>

Votre AWS DataSync tâche peut être exécutée dans l'un des modes suivants :
+ **Mode amélioré** : transférez un nombre pratiquement illimité de fichiers ou d'objets avec des performances supérieures à celles du mode de base. Les tâches en mode amélioré optimisent le processus de transfert de données en listant, préparant, transférant et vérifiant les données en parallèle. Le mode amélioré est actuellement disponible pour les transferts entre les sites Amazon S3, les transferts entre Azure Blob et Amazon S3 sans agent, les transferts entre d'autres clouds et Amazon S3 sans agent, et les transferts entre des serveurs de fichiers NFS ou SMB et Amazon S3 à l'aide d'un agent en mode amélioré.
+ **Mode de base** : transférez des fichiers ou des objets entre le AWS stockage et tous les autres DataSync emplacements pris en charge. Les tâches en mode de base sont soumises à [des quotas](datasync-limits.md) sur le nombre de fichiers, d'objets et de répertoires dans un ensemble de données. Le mode de base prépare, transfère et vérifie les données de manière séquentielle, ce qui le rend plus lent que le mode amélioré pour la plupart des charges de travail.

## Comprendre les différences entre les modes de tâche
<a name="task-mode-differences"></a>

Les informations suivantes peuvent vous aider à déterminer le mode de tâche à utiliser. 


| Capacité | Comportement en mode amélioré | Comportement du mode de base | 
| --- | --- | --- | 
| [Performances](how-datasync-transfer-works.md#transferring-files) | DataSync répertorie, prépare, transfère et vérifie vos données en parallèle. Fournit des performances supérieures à celles du mode de base pour la plupart des charges de travail (telles que le transfert d'objets volumineux) | DataSync prépare, transfère et vérifie vos données de manière séquentielle. Les performances sont plus lentes que le mode amélioré pour la plupart des charges de travail | 
| Nombre d'éléments d'un ensemble de données qui DataSync peuvent être utilisés par exécution de tâche |  Un nombre pratiquement illimité d'objets  |  [Des quotas](datasync-limits.md#task-hard-limits) s'appliquent  | 
|  [Compteurs](transfer-performance-counters.md) [et métriques de transfert de données](monitor-datasync.md)  |  Plus de compteurs et de mesures que le mode de base, tels que le nombre d'objets trouvés DataSync à votre emplacement source, le nombre d'objets préparés lors de chaque exécution de tâche et les compteurs de dossiers similaires aux compteurs de fichiers et d'objets  |  Moins de compteurs et de métriques que le mode amélioré  | 
|  [Journalisation](configure-logging.md)  | Journaux structurés (format JSON) | Journaux non structurés | 
|  [Emplacements pris en charge](working-with-locations.md)  | Actuellement, pour les transferts entre les sites Amazon S3, les transferts entre Azure Blob et Amazon S3 sans agent, les transferts entre d'autres clouds et Amazon S3 sans agent, et les transferts entre des serveurs de fichiers NFS ou SMB et Amazon S3 à l'aide d'un agent en mode amélioré. |  Pour les transferts entre tous les sites DataSync compatibles  | 
|  [Options de vérification des données](configure-data-verification-options.md)  | DataSync vérifie uniquement les données transférées | DataSync vérifie toutes les données par défaut | 
| Cost | Pour plus d'informations, consultez la page de [DataSync tarification](https://aws.amazon.com/datasync/pricing) | Pour plus d'informations, consultez la page de [DataSync tarification](https://aws.amazon.com/datasync/pricing) | 
| Gestion des défaillances pour les balises d'objet non prises en charge | Pour les transferts de stockage dans le cloud vers ou depuis des emplacements qui ne prennent pas en charge le balisage d'objets, l'exécution de la tâche échouera immédiatement si l'ObjectTagsoption n'est pas spécifiée ou si elle est définie sur. PRESERVE | Pour les transferts de stockage dans le cloud vers ou depuis des emplacements qui ne prennent pas en charge le balisage d'objets, l'exécution des tâches s'exécutera normalement, mais les échecs par objet seront signalés pour les objets balisés si l'ObjectTagsoption n'est pas spécifiée ou si elle est définie sur. PRESERVE | 

## Choix d'un mode de tâche
<a name="choosing-task-mode-how-to"></a>

Vous pouvez choisir le mode amélioré uniquement pour les transferts entre les sites Amazon S3, les transferts entre Azure Blob et Amazon S3 sans agent, les transferts entre d'autres clouds et Amazon S3 sans agent, et les transferts entre des serveurs de fichiers NFS ou SMB et Amazon S3 à l'aide d'un agent en mode amélioré. Dans le cas contraire, vous devez utiliser le mode de base. Par exemple, un transfert d'un emplacement [HDFS sur site vers un emplacement](create-hdfs-location.md) S3 nécessite le mode Basic.

Les options et les performances de vos tâches peuvent varier en fonction du mode de tâche que vous choisissez. Une fois que vous avez créé votre tâche, vous ne pouvez pas modifier le mode de tâche.

**Autorisations requises**  
Pour créer une tâche en mode amélioré, le rôle IAM que vous utilisez doit disposer DataSync de l'`iam:CreateServiceLinkedRole`autorisation.  
Pour vos autorisations DataSync d'utilisateur, pensez à utiliser [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess). Il s'agit d'une politique AWS gérée qui fournit à l'utilisateur un accès complet DataSync et un accès minimal à ses dépendances.

### Utilisation de la DataSync console
<a name="choosing-task-mode-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **le mode tâche**, choisissez l'une des options suivantes :
   + **Amélioré**
   + **Base**

   Pour de plus amples informations, veuillez consulter [Comprendre les différences entre les modes de tâche](#task-mode-differences).

1. Tout en restant sur la page **Configurer les paramètres**, choisissez d'autres options de tâche ou utilisez les paramètres par défaut.

   Certaines des options suivantes pourraient vous intéresser :
   + Spécifiez les données à transférer à l'aide d'un [manifeste](transferring-with-manifest.md) ou de [filtres](filtering.md).
   + Configurez le mode de [gestion des métadonnées des fichiers](configure-metadata.md) et de [vérification de l'intégrité des données](configure-data-verification-options.md).
   + Surveillez votre transfert à l'aide de [rapports de tâches](task-reports.md) ou [d'Amazon CloudWatch Logs](monitor-datasync.md).

   Lorsque vous avez terminé, sélectionnez **Next**.

1. Vérifiez la configuration de vos tâches, puis choisissez **Créer une tâche**.

### À l'aide du AWS CLI
<a name="choosing-task-mode-cli"></a>

1. Dans vos AWS CLI paramètres, assurez-vous que vous utilisez l'un des emplacements Régions AWS où vous prévoyez de transférer des données.

1. Copiez la `create-task` commande suivante :

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. Pour`--source-location-arn`, spécifiez l'Amazon Resource Name (ARN) de votre emplacement source.

1. Pour`--destination-location-arn`, spécifiez l'ARN de votre position de destination.

   Si vous transférez plusieurs Régions AWS comptes, assurez-vous que l'ARN inclut l'autre région ou l'autre identifiant de compte.

1. Pour`--task-mode`, spécifiez `ENHANCED` ou`BASIC`.

   Pour de plus amples informations, veuillez consulter [Comprendre les différences entre les modes de tâche](#task-mode-differences).

1. Spécifiez les autres options de tâche selon vos besoins. Certaines des options suivantes pourraient vous intéresser :
   + Spécifiez les données à transférer à l'aide d'un [manifeste](transferring-with-manifest.md) ou de [filtres](filtering.md).
   + Configurez le mode de [gestion des métadonnées des fichiers](configure-metadata.md) et de [vérification de l'intégrité des données](configure-data-verification-options.md).
   + Surveillez votre transfert à l'aide de [rapports de tâches](task-reports.md) ou [d'Amazon CloudWatch Logs](monitor-datasync.md).

   Pour plus d'options, voir [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Voici un exemple de `create-task` commande qui spécifie le mode amélioré et plusieurs autres options :

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. Exécutez la commande `create-task`.

   Si la commande aboutit, vous obtenez une réponse indiquant l'ARN de la tâche que vous avez créée. Par exemple :

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### Utilisation de l' DataSync API
<a name="choosing-task-mode-api"></a>

Vous pouvez définir le mode de DataSync tâche en configurant le `TaskMode` paramètre dans l'[CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)opération.

# Choisir quels AWS DataSync transferts
<a name="task-options"></a>

AWS DataSync vous permet de choisir les éléments à transférer et la manière dont vous souhaitez que vos données soient traitées. Certaines options incluent :
+ Transférer une liste exacte de fichiers ou d'objets à l'aide d'un manifeste.
+ Incluez ou excluez certains types de données dans votre transfert à l'aide d'un filtre.
+ Pour les transferts récurrents, déplacer uniquement les données modifiées depuis le dernier transfert
+ Remplacer les données de l'emplacement de destination pour qu'elles correspondent à celles de l'emplacement source.
+ Choix des métadonnées de fichier ou d'objet à conserver entre vos emplacements de stockage.

**Topics**
+ [Transfert de fichiers ou d'objets spécifiques à l'aide d'un manifeste](transferring-with-manifest.md)
+ [Transfert de fichiers, d'objets et de dossiers spécifiques à l'aide de filtres](filtering.md)
+ [Comprendre le mode de DataSync gestion des métadonnées des fichiers et des objets](metadata-copied.md)
+ [Liens et répertoires copiés par AWS DataSync](special-files-copied.md)
+ [Configuration du mode de gestion des fichiers, des objets et des métadonnées](configure-metadata.md)

# Transfert de fichiers ou d'objets spécifiques à l'aide d'un manifeste
<a name="transferring-with-manifest"></a>

Un *manifeste* est une liste de fichiers ou d'objets que vous AWS DataSync souhaitez transférer. Par exemple, au lieu de tout transférer dans un compartiment S3 contenant potentiellement des millions d'objets, il ne DataSync transfère que les objets que vous listez dans votre manifeste.

Les manifestes sont similaires aux [filtres](filtering.md), mais ils vous permettent d'identifier exactement les fichiers ou les objets à transférer plutôt que les données correspondant à un modèle de filtre.

**Note**  
La taille maximale autorisée pour un fichier manifeste contenant des tâches en mode amélioré est de 20 Go.

## Création de votre manifeste
<a name="transferring-with-manifest-create"></a>

Un manifeste est un fichier au format CSV (valeurs séparées par des virgules) qui répertorie les fichiers ou les objets que vous souhaitez transférer dans votre emplacement source. DataSync Si votre source est un compartiment S3, vous pouvez également indiquer la version d'un objet à transférer.

**Topics**
+ [Consignes](#transferring-with-manifest-guidelines)
+ [Exemples de manifestes](#manifest-examples)

### Consignes
<a name="transferring-with-manifest-guidelines"></a>

Utilisez ces directives pour vous aider à créer un manifeste compatible avec DataSync.

------
#### [ Do ]
+ Spécifiez le chemin complet de chaque fichier ou objet que vous souhaitez transférer.

  Vous ne pouvez pas spécifier uniquement un répertoire ou un dossier dans le but de transférer tout son contenu. Dans ces situations, pensez à utiliser un [filtre d'inclusion](filtering.md) au lieu d'un manifeste.
+ Assurez-vous que le chemin de chaque fichier ou objet est relatif au chemin de montage, au dossier, au répertoire ou au préfixe que vous avez spécifié lors de la configuration de votre emplacement DataSync source.

  Supposons, par exemple, que vous [configurez un emplacement S3](create-s3-location.md#create-s3-location-how-to) avec un préfixe nommé`photos`. Ce préfixe inclut un objet `my-picture.png` que vous souhaitez transférer. Dans le manifeste, il suffit alors de spécifier l'objet (`my-picture.png`) au lieu du préfixe et de l'objet (`photos/my-picture.png`).
+ Pour spécifier la version de l'objet Amazon S3 IDs, séparez le chemin et l'ID de version de l'objet à l'aide d'une virgule.

  L'exemple suivant montre une entrée de manifeste comportant deux champs. Le premier champ inclut un objet nommé`picture1.png`. Le deuxième champ est séparé par une virgule et inclut un ID de version de `111111` :

  ```
  picture1.png,111111
  ```
+ Utilisez des guillemets dans les situations suivantes :
  + Lorsqu'un chemin contient des caractères spéciaux (virgules, guillemets et fins de ligne) :

    `"filename,with,commas.txt"`
  + Lorsqu'un chemin s'étend sur plusieurs lignes :

    ```
    "this
    is
    a
    filename.txt"
    ```
  + Lorsqu'un chemin inclut des guillemets :

    `filename""with""quotes.txt`

    Cela représente un chemin nommé`filename"with"quotes.txt`.

  Ces règles de devis s'appliquent également aux champs d'ID de version. En général, si un champ de manifeste contient un guillemet, vous devez y échapper par un autre guillemet.
+ Séparez chaque entrée de fichier ou d'objet par une nouvelle ligne.

  Vous pouvez séparer les lignes en utilisant des sauts de ligne de style Linux (alimentation en ligne ou retour en chariot) ou Windows (retour en chariot suivi d'une alimentation en ligne).
+ Enregistrez votre manifeste (par exemple, `my-manifest.csv` ou`my-manifest.txt`).
+ Téléchargez le manifeste dans un compartiment S3 auquel il est [DataSync possible d'accéder](#transferring-with-manifest-access).

  Il n'est pas nécessaire que ce compartiment se trouve dans le même compte Région AWS ou dans le même compte que celui que vous utilisez DataSync.

------
#### [ Don't ]
+ Spécifiez uniquement un répertoire ou un dossier dans le but de transférer tout son contenu.

  Un manifeste ne peut inclure que les chemins complets vers les fichiers ou les objets que vous souhaitez transférer. Si vous configurez votre emplacement source pour utiliser un chemin de montage, un dossier, un répertoire ou un préfixe spécifique, vous n'êtes pas obligé de l'inclure dans votre manifeste.
+ Spécifiez un chemin de fichier ou d'objet de plus de 4 096 caractères.
+ Spécifiez un chemin de fichier, un chemin d'objet ou un ID de version d'objet Amazon S3 supérieur à 1 024 octets.
+ Spécifiez les chemins de fichiers ou d'objets dupliqués.
+ Incluez un ID de version d'objet si votre emplacement source n'est pas un compartiment S3.
+ Incluez plus de deux champs dans une entrée de manifeste.

  Une entrée ne peut inclure qu'un chemin de fichier ou d'objet et (le cas échéant) un ID de version d'objet Amazon S3.
+ Incluez des caractères non conformes au codage UTF-8.
+ Incluez des espaces involontaires dans vos champs de saisie en dehors des guillemets.

------

### Exemples de manifestes
<a name="manifest-examples"></a>

Utilisez ces exemples pour vous aider à créer un manifeste qui fonctionne avec DataSync. 

**Manifeste avec chemins complets de fichiers ou d'objets**  
L'exemple suivant montre un manifeste avec les chemins complets des fichiers ou des objets à transférer.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**Manifeste avec uniquement des clés d'objet**  
L'exemple suivant montre un manifeste contenant des objets à transférer depuis un emplacement source Amazon S3. L'[emplacement étant configuré](create-s3-location.md#create-s3-location-how-to) avec le préfixe`photos`, seules les clés de l'objet sont spécifiées.  

```
picture1.png
picture2.png
picture3.png
```

**Manifeste avec chemins d'objets et version IDs**  
Les deux premières entrées de l'exemple de manifeste suivant incluent des versions d'objets Amazon S3 spécifiques à transférer.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**Manifeste avec caractères UTF-8**  
L'exemple suivant montre un manifeste contenant des fichiers contenant des caractères UTF-8.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## Fournir DataSync l'accès à votre manifeste
<a name="transferring-with-manifest-access"></a>

Vous avez besoin d'un rôle Gestion des identités et des accès AWS (IAM) qui donne DataSync accès à votre manifeste dans son compartiment S3. Ce rôle doit inclure les autorisations suivantes :
+ `s3:GetObject`
+ `s3:GetObjectVersion`

Vous pouvez générer ce rôle automatiquement dans la DataSync console ou le créer vous-même.

**Note**  
Si votre manifeste se trouve dans un autre Compte AWS format, vous devez créer ce rôle manuellement.

### Création automatique du rôle IAM
<a name="creating-manfiest-role-automatically"></a>

Lorsque vous créez ou lancez une tâche de transfert dans la console, vous DataSync pouvez créer un rôle IAM avec les `s3:GetObjectVersion` autorisations `s3:GetObject` et les autorisations dont vous avez besoin pour accéder à votre manifeste.

**Autorisations requises pour créer automatiquement le rôle**  
Pour créer automatiquement le rôle, assurez-vous que le rôle que vous utilisez pour accéder à la DataSync console dispose des autorisations suivantes :  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### Création du rôle IAM (même compte)
<a name="creating-manfiest-role-automatically-same-account"></a>

Vous pouvez créer manuellement le rôle IAM qui DataSync doit accéder à votre manifeste. Les instructions suivantes supposent que vous vous trouvez dans le même Compte AWS emplacement que celui que vous utilisez DataSync et que le compartiment S3 de votre manifeste se trouve. 

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Dans le volet de navigation de gauche, sous **Gestion des accès**, sélectionnez **Rôles**, puis sélectionnez **Créer un rôle**.

1. Sur la page **Sélectionner une entité de confiance**, pour **Type d'entité de confiance**, sélectionnez **Service AWS**.

1. Pour **Cas d'utilisation**, choisissez **DataSync**dans la liste déroulante et sélectionnez **DataSync**. Choisissez **Suivant**.

1. Sur la page **Add permissions** (Ajouter des autorisations), sélectionnez **Next** (Suivant). Donnez un nom à votre rôle et choisissez **Créer un rôle**.

1. Sur la page **Rôles**, recherchez le rôle que vous venez de créer et choisissez son nom.

1. Sur la page de détails du rôle, choisissez l'onglet **Autorisations**. Choisissez **Ajouter des autorisations**, puis **Créer une politique en ligne**.

1. Choisissez l'onglet **JSON** et collez l'exemple de politique suivant dans l'éditeur de politiques :

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Dans l'exemple de politique que vous venez de coller, remplacez les valeurs suivantes par les vôtres :

   1. `amzn-s3-demo-bucket`Remplacez-le par le nom du compartiment S3 qui héberge votre manifeste.

   1. `my-manifest.csv`Remplacez-le par le nom de fichier de votre manifeste.

1. Choisissez **Suivant**. Donnez un nom à votre politique et choisissez **Create policy**.

1. (Recommandé) Pour éviter le [problème de confusion entre les services adjoints](cross-service-confused-deputy-prevention.md), procédez comme suit :

   1. Sur la page de détails du rôle, choisissez l'onglet **Relations de confiance**. Choisissez **Modifier la politique d’approbation**.

   1. Mettez à jour la politique de confiance en utilisant l'exemple suivant, qui inclut les clés de contexte de condition `aws:SourceAccount` globale `aws:SourceArn` et globale :

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + Remplacez chaque instance `account-id` par l' Compte AWS ID que vous utilisez DataSync.
      + `region`Remplacez-le Région AWS par celui que vous utilisez DataSync.

   1. Choisissez **Mettre à jour une politique**.

Vous avez créé un rôle IAM qui permet d'accéder DataSync à votre manifeste. Spécifiez ce rôle lors de [la création](#manifest-creating-task) ou [du démarrage](#manifest-starting-task) de votre tâche.

### Création du rôle IAM (compte différent)
<a name="creating-manfiest-role-automatically-different-account"></a>

Si votre manifeste se trouve dans un compartiment S3 appartenant à un autre compartiment Compte AWS, vous devez créer manuellement le rôle IAM qui permet DataSync d'accéder au manifeste. Ensuite, dans l' Compte AWS endroit où se trouve votre manifeste, vous devez inclure le rôle dans la politique du compartiment S3.

#### Création du rôle
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Dans le volet de navigation de gauche, sous **Gestion des accès**, sélectionnez **Rôles**, puis sélectionnez **Créer un rôle**.

1. Sur la page **Sélectionner une entité de confiance**, pour **Type d'entité de confiance**, sélectionnez **Service AWS**.

1. Pour **Cas d'utilisation**, choisissez **DataSync**dans la liste déroulante et sélectionnez **DataSync**. Choisissez **Suivant**.

1. Sur la page **Add permissions** (Ajouter des autorisations), sélectionnez **Next** (Suivant). Donnez un nom à votre rôle et choisissez **Créer un rôle**.

1. Sur la page **Rôles**, recherchez le rôle que vous venez de créer et choisissez son nom.

1. Sur la page de détails du rôle, choisissez l'onglet **Autorisations**. Choisissez **Ajouter des autorisations**, puis **Créer une politique en ligne**.

1. Choisissez l'onglet **JSON** et collez l'exemple de politique suivant dans l'éditeur de politiques :

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Dans l'exemple de politique que vous venez de coller, remplacez les valeurs suivantes par les vôtres :

   1. `amzn-s3-demo-bucket`Remplacez-le par le nom du compartiment S3 qui héberge votre manifeste.

   1. `my-manifest.csv`Remplacez-le par le nom de fichier de votre manifeste.

1. Choisissez **Suivant**. Donnez un nom à votre politique et choisissez **Create policy**.

1. (Recommandé) Pour éviter le [problème de confusion entre les services adjoints](cross-service-confused-deputy-prevention.md), procédez comme suit :

   1. Sur la page de détails du rôle, choisissez l'onglet **Relations de confiance**. Choisissez **Modifier la politique d’approbation**.

   1. Mettez à jour la politique de confiance en utilisant l'exemple suivant, qui inclut les clés de contexte de condition `aws:SourceAccount` globale `aws:SourceArn` et globale :

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + Remplacez chaque instance `account-id` de par l' Compte AWS ID que vous utilisez DataSync.
      + `region`Remplacez-le Région AWS par celui que vous utilisez DataSync.

   1. Choisissez **Mettre à jour une politique**.

Vous avez créé le rôle IAM que vous pouvez inclure dans votre politique de compartiment S3.

#### Mettre à jour votre politique de compartiment S3 avec le rôle
<a name="creating-manfiest-role-automatically-different-account-2"></a>

Une fois que vous avez créé le rôle IAM, vous devez l'ajouter à la politique du compartiment S3 dans l'autre Compte AWS endroit où se trouve votre manifeste.

1. Dans le AWS Management Console, passez au compte contenant le compartiment S3 de votre manifeste.

1. Ouvrez la console Amazon S3 à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Sur la page détaillée du bucket, choisissez l'onglet **Permissions**.

1. Sous **Politique de compartiment**, choisissez **Modifier** et procédez comme suit pour modifier votre politique de compartiment S3 :

   1. Mettez à jour le contenu de l'éditeur pour inclure les déclarations de politique suivantes :

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. `account-id`Remplacez-le par l' Compte AWS identifiant du compte que vous utilisez DataSync .

   1. `datasync-role`Remplacez-le par le rôle IAM que vous venez de créer et qui permet d'accéder DataSync à votre manifeste.

   1. `amzn-s3-demo-bucket`Remplacez-le par le nom du compartiment S3 qui héberge votre manifeste dans l'autre Compte AWS.

1. Sélectionnez **Enregistrer les modifications**.

Vous avez créé un rôle IAM qui permet d'accéder DataSync à votre manifeste dans l'autre compte. Spécifiez ce rôle lors de [la création](#manifest-creating-task) ou [du démarrage](#manifest-starting-task) de votre tâche.

## Spécifier votre manifeste lors de la création d'une tâche
<a name="manifest-creating-task"></a>

Vous pouvez spécifier le manifeste que vous DataSync souhaitez utiliser lors de la création d'une tâche.

### Utilisation de la DataSync console
<a name="manifest-creating-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Tâches**, puis sélectionnez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **le contenu à analyser**, sélectionnez **Fichiers, objets et dossiers spécifiques**, puis sélectionnez **Utiliser un manifeste**.

1. Pour l'**URI S3**, choisissez votre manifeste hébergé sur un compartiment S3.

   Vous pouvez également saisir l'URI (par exemple,`s3://bucket/prefix/my-manifest.csv`).

1. Pour **la version de l'objet**, choisissez la version du manifeste que vous DataSync souhaitez utiliser.

   Par défaut, DataSync utilise la dernière version de l'objet.

1. Pour le **rôle d'accès au manifeste**, effectuez l'une des opérations suivantes :
   + Choisissez **Autogenerate** pour DataSync créer automatiquement un rôle IAM doté des autorisations requises pour accéder à votre manifeste dans son compartiment S3.
   + Choisissez un rôle IAM existant qui peut accéder à votre manifeste.

   Pour de plus amples informations, veuillez consulter [Fournir DataSync l'accès à votre manifeste](#transferring-with-manifest-access).

1. Configurez les autres paramètres de tâche dont vous avez besoin, puis choisissez **Next**.

1. Choisissez **Créer tâche**.

### En utilisant le AWS CLI
<a name="manifest-creating-task-cli"></a>

1. Copiez la `create-task` commande suivante :

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Pour le `--source-location-arn` paramètre, spécifiez l'Amazon Resource Name (ARN) de l'emplacement à partir duquel vous transférez les données.

1. Pour le `--destination-location-arn` paramètre, spécifiez l'ARN de l'emplacement vers lequel vous transférez les données.

1. Pour le `--manifest-config` paramètre, procédez comme suit :
   + `ManifestObjectPath`— Spécifiez la clé d'objet S3 de votre manifeste.
   + `BucketAccessRoleArn`— Spécifiez le rôle IAM qui permet d'accéder DataSync à votre manifeste dans son compartiment S3.

     Pour de plus amples informations, veuillez consulter [Fournir DataSync l'accès à votre manifeste](#transferring-with-manifest-access).
   + `S3BucketArn`— Spécifiez l'ARN du compartiment S3 qui héberge votre manifeste.
   + `ManifestObjectVersionId`— Spécifiez la version du manifeste que vous DataSync souhaitez utiliser.

     Par défaut, DataSync utilise la dernière version de l'objet.

1. Exécutez la `create-task` commande pour créer votre tâche.

Lorsque vous êtes prêt, vous pouvez [commencer votre tâche de transfert](run-task.md).

## Spécifier votre manifeste lors du démarrage d'une tâche
<a name="manifest-starting-task"></a>

Vous pouvez spécifier le manifeste que vous DataSync souhaitez utiliser lors de l'exécution d'une tâche.

### Utilisation de la DataSync console
<a name="manifest-starting-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Tâches**, puis choisissez la tâche que vous souhaitez démarrer.

1. Sur la page d'aperçu des tâches, choisissez **Démarrer**, puis sélectionnez **Démarrer avec des options de remplacement**.

1. Pour **le contenu à analyser**, sélectionnez **Fichiers, objets et dossiers spécifiques**, puis sélectionnez **Utiliser un manifeste**.

1. Pour l'**URI S3**, choisissez votre manifeste hébergé sur un compartiment S3.

   Vous pouvez également saisir l'URI (par exemple,`s3://bucket/prefix/my-manifest.csv`).

1. Pour **la version de l'objet**, choisissez la version du manifeste que vous DataSync souhaitez utiliser.

   Par défaut, DataSync utilise la dernière version de l'objet.

1. Pour le **rôle d'accès au manifeste**, effectuez l'une des opérations suivantes :
   + Choisissez **Autogenerate** pour DataSync créer automatiquement un rôle IAM afin d'accéder à votre manifeste dans son compartiment S3.
   + Choisissez un rôle IAM existant qui peut accéder à votre manifeste.

   Pour de plus amples informations, veuillez consulter [Fournir DataSync l'accès à votre manifeste](#transferring-with-manifest-access).

1. Choisissez **Démarrer** pour commencer votre transfert.

### En utilisant le AWS CLI
<a name="manifest-starting-task-cli"></a>

1. Copiez la `start-task-execution` commande suivante :

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Pour le `--task-arn` paramètre, spécifiez l'Amazon Resource Name (ARN) de la tâche que vous lancez.

1. Pour le `--manifest-config` paramètre, procédez comme suit :
   + `ManifestObjectPath`— Spécifiez la clé d'objet S3 de votre manifeste.
   + `BucketAccessRoleArn`— Spécifiez le rôle IAM qui permet d'accéder DataSync à votre manifeste dans son compartiment S3.

     Pour de plus amples informations, veuillez consulter [Fournir DataSync l'accès à votre manifeste](#transferring-with-manifest-access).
   + `S3BucketArn`— Spécifiez l'ARN du compartiment S3 qui héberge votre manifeste.
   + `ManifestObjectVersionId`— Spécifiez la version du manifeste que vous DataSync souhaitez utiliser.

     Par défaut, DataSync utilise la dernière version de l'objet.

1. Exécutez la `start-task-execution` commande pour commencer le transfert.

## Limitations
<a name="transferring-with-manifest-limitations"></a>
+ Vous ne pouvez pas utiliser un manifeste avec des [filtres](filtering.md).
+ Vous ne pouvez pas spécifier uniquement un répertoire ou un dossier dans le but de transférer tout son contenu. Dans ces situations, pensez à utiliser un [filtre d'inclusion](filtering.md) au lieu d'un manifeste.
+ Vous ne pouvez pas utiliser l'option de tâche **Conserver les fichiers supprimés** (`PreserveDeletedFiles`dans l'[API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)) pour [conserver des fichiers ou des objets dans la destination qui ne figurent pas dans la source](configure-metadata.md). DataSync transfère uniquement ce qui est répertorié dans votre manifeste et ne supprime rien dans la destination.

## Résolution des problèmes
<a name="manifests-troubleshooting"></a>

**Erreurs liées à `HeadObject` ou `GetObjectTagging`**  
Si vous transférez des objets dotés d'une version spécifique IDs depuis un compartiment S3, il se peut qu'une erreur liée à `HeadObject` ou s'affiche`GetObjectTagging`. Par exemple, voici une erreur liée à `GetObjectTagging` :

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Si l'une de ces erreurs s'affiche, vérifiez que le rôle IAM DataSync utilisé pour accéder à votre emplacement source S3 dispose des autorisations suivantes :
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Si vous devez mettre à jour votre rôle avec ces autorisations, consultez[Création d'un rôle IAM pour accéder DataSync à votre position Amazon S3](create-s3-location.md#create-role-manually).

**Erreur: `ManifestFileDoesNotExist`**  
Cette erreur indique qu'aucun fichier du manifeste n'a été trouvé à la source. Consultez les [instructions relatives](#transferring-with-manifest-guidelines) à la création d'un manifeste.

## Étapes suivantes
<a name="manifests-next-steps"></a>

Si ce n'est pas déjà fait, [commencez votre tâche](run-task.md). Sinon, [surveillez l'activité de votre tâche](monitoring-overview.md).

# Transfert de fichiers, d'objets et de dossiers spécifiques à l'aide de filtres
<a name="filtering"></a>

AWS DataSync vous permet d'appliquer des filtres pour inclure ou exclure des données de votre emplacement source lors d'un transfert. Par exemple, si vous ne souhaitez pas transférer des fichiers temporaires se terminant par`.tmp`, vous pouvez créer un filtre d'exclusion afin que ces fichiers ne soient pas acheminés vers votre emplacement de destination.

Vous pouvez utiliser une combinaison de filtres d'exclusion et d'inclusion dans la même tâche de transfert. Si vous modifiez les filtres d'une tâche, ces modifications seront appliquées lors de la prochaine exécution de la tâche.

## Termes, définitions et syntaxe de filtrage
<a name="filter-overview"></a>

Familiarisez-vous avec les concepts liés au DataSync filtrage :

**Filtre **  
La chaîne complète qui constitue un filtre particulier (par exemple, `*.tmp` `|` `*.temp` ou`/folderA|/folderB`).  
Les filtres sont constitués de motifs délimités à l'aide d'un tube (\$1). Vous n'avez pas besoin de délimiteur lorsque vous ajoutez des modèles dans la DataSync console, car vous ajoutez chaque modèle séparément.  
Les filtres font la distinction majuscules/minuscules. Par exemple, le filtre `/folderA` ne correspondra pas`/FolderA`.

**Modèle**  
Modèle interne à un filtre. Par exemple, `*.tmp` il s'agit d'un motif qui fait partie du `*.tmp` `|` `*.temp` filtre. Si votre filtre comporte plusieurs modèles, vous délimitez chaque motif à l'aide d'un tube (\$1).

**Dossiers**  
+ Tous les filtres se rapportent au chemin de l'emplacement source. Supposons, par exemple, que vous spécifiez `/my_source/` comme chemin source lorsque vous créez votre emplacement source et votre tâche et que vous spécifiez le filtre d'inclusion`/transfer_this/`. Dans ce cas, DataSync transfère uniquement le répertoire `/my_source/transfer_this/` et son contenu.
+ Pour spécifier un dossier directement sous l'emplacement source, insérez une barre oblique (/) devant le nom du dossier. Dans l'exemple précédent, le modèle utilise `/transfer_this` et non pas `transfer_this`.
+ DataSync interprète les modèles suivants de la même manière et fait correspondre à la fois le dossier et son contenu.

  `/dir` 

  `/dir/`
+ Lorsque vous transférez des données depuis ou vers un compartiment Amazon S3, DataSync traitez le `/` caractère de la clé d'objet comme l'équivalent d'un dossier dans un système de fichiers.

**Caractères spéciaux**  
Les caractères spéciaux à utiliser avec le filtrage sont les suivants.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/filtering.html)

## Exemples de filtres
<a name="sample-filters"></a>

Les exemples suivants montrent les filtres courants que vous pouvez utiliser DataSync.

**Note**  
Le nombre de caractères que vous pouvez utiliser dans un filtre est limité. Pour de plus amples informations, veuillez consulter [DataSync quotas](datasync-limits.md#task-hard-limits).

**Exclusion de certains dossiers de votre emplacement source**  
Dans certains cas, vous souhaiterez peut-être exclure des dossiers de votre emplacement source afin de ne pas les copier vers votre emplacement de destination. Par exemple, si vous avez work-in-progress des dossiers temporaires, vous pouvez utiliser le filtre suivant :

`*/.temp`

Pour exclure des dossiers présentant un contenu similaire (tel que `/reports2021` et`/reports2022)`), vous pouvez utiliser un filtre d'exclusion tel que le suivant :

`/reports*`

Pour exclure des dossiers à n'importe quel niveau de la hiérarchie des fichiers, vous pouvez utiliser un filtre d'exclusion comme celui-ci. 

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

Pour exclure des dossiers situés au niveau supérieur de l'emplacement source, vous pouvez utiliser un filtre d'exclusion tel que le suivant. 

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**Inclure un sous-ensemble de dossiers sur votre emplacement source**  
Dans certains cas, votre emplacement source peut être une part importante et vous devez transférer un sous-ensemble des dossiers sous la racine. Pour inclure des dossiers spécifiques, démarrez une exécution de tâche avec un filtre d'inclusion similaire au suivant.

`/folder-to-transfer/*`

**Exclusion de types de fichiers spécifiques**  
Pour exclure du transfert certains types de fichiers, vous pouvez créer une exécution de tâche avec un filtre d'exclusion tel que `*.temp`.

**Transférez les fichiers individuels que vous spécifiez**  
Pour transférer une liste de fichiers individuels, lancez l'exécution d'une tâche avec un filtre d'inclusion tel que celui-ci : « `/folder/subfolder/file1.txt` \$1 `/folder/subfolder/file2.txt` \$1 `/folder/subfolder/file2.txt` »

## Création de filtres d'inclusion
<a name="include-filters"></a>

Les filtres d'inclusion définissent les fichiers, les objets et les dossiers que vous DataSync souhaitez transférer. Vous pouvez configurer des filtres d'inclusion lorsque vous créez, modifiez ou démarrez une tâche.

DataSync analyse et transfère uniquement les fichiers et dossiers qui correspondent aux filtres d'inclusion. Par exemple, pour inclure un sous-ensemble de vos dossiers sources, vous pouvez spécifier `/important_folder_1` \$1`/important_folder_2`. 

**Note**  
Les filtres d'inclusion prennent en charge le caractère générique (\$1) uniquement en tant que caractère le plus à droite d'un modèle. Par exemple, `/documents*` \$1 `/code*` est pris en charge, mais ne l'`*.txt`est pas.

### Utilisation de la DataSync console
<a name="include-filters-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Tâches**, puis sélectionnez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **le contenu à scanner**, sélectionnez **Fichiers, objets et dossiers spécifiques**, puis sélectionnez **Utiliser des filtres**.

1. Pour **Includes**, entrez votre filtre (par exemple, `/important_folders` pour inclure un répertoire important), puis choisissez **Ajouter un modèle**.

1. Ajoutez d'autres filtres d'inclusion si nécessaire. 

### À l'aide du AWS CLI
<a name="include-filters-cli"></a>

Lorsque vous utilisez le AWS CLI, vous devez utiliser des guillemets simples (`'`) autour du filtre et un \$1 (tube) comme séparateur si vous avez plusieurs filtres.

L'exemple suivant indique deux filtres d'inclusion `/important_folder1` et `/important_folder2` lors de l'exécution de la `create-task` commande.

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## Création de filtres d'exclusion
<a name="exclude-filters"></a>

Les filtres d'exclusion définissent les fichiers, les objets et les dossiers de votre emplacement source que vous ne DataSync souhaitez pas transférer. Vous pouvez configurer ces filtres lorsque vous créez, modifiez ou démarrez une tâche.

**Topics**
+ [Données exclues par défaut](#directories-ignored-during-transfers)

### Données exclues par défaut
<a name="directories-ignored-during-transfers"></a>

DataSync exclut automatiquement le transfert de certaines données :
+ `.snapshot`— DataSync ignore tout chemin se terminant par`.snapshot`, qui est généralement utilisé pour les point-in-time instantanés des fichiers ou des répertoires d'un système de stockage.
+ `/.aws-datasync`et `/.awssync` — DataSync crée ces dossiers dans votre région pour faciliter votre transfert.
+ `/.zfs`— Vous pouvez voir ce dossier avec Amazon FSx pour les emplacements OpenZFS.

### Utilisation de la DataSync console
<a name="adding-exclude-filters"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, choisissez **Tâches**, puis sélectionnez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **Exclusions**, entrez votre filtre (par exemple, `*/temp` pour exclure des dossiers temporaires), puis choisissez **Ajouter un modèle**.

1. Ajoutez d'autres filtres d'exclusion selon vos besoins. 

1. Si nécessaire, ajoutez des [filtres d'inclusion](#include-filters).

### À l'aide du AWS CLI
<a name="adding-exclude-filters-cli"></a>

Lorsque vous utilisez le AWS CLI, vous devez utiliser des guillemets simples (`'`) autour du filtre et un \$1 (tube) comme séparateur si vous avez plusieurs filtres. 

L'exemple suivant indique deux filtres d'exclusion `*/temp` et `*/tmp` lors de l'exécution de la `create-task` commande.

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# Comprendre le mode de DataSync gestion des métadonnées des fichiers et des objets
<a name="metadata-copied"></a>

AWS DataSync peut conserver les métadonnées de votre fichier ou de votre objet lors d'un transfert de données. La manière dont vos métadonnées sont copiées dépend des lieux de transfert et de l'utilisation de types de métadonnées similaires par ces emplacements.

## Métadonnées au niveau du système
<a name="metadata-copied-system-level"></a>

En général, DataSync ne copie pas les métadonnées au niveau du système. Par exemple, lors du transfert depuis un serveur de fichiers SMB, les autorisations que vous avez configurées au niveau du système de fichiers ne sont pas copiées vers le système de stockage de destination.

Il y a des exceptions. Lors du transfert entre Amazon S3 et un autre stockage d'objets, copie DataSync certaines métadonnées d'[objets définies par le système](#metadata-copied-between-object-s3).

## Métadonnées copiées dans les transferts Amazon S3
<a name="metadata-copied-amazon-s3"></a>

Les tableaux suivants décrivent les métadonnées qui DataSync peuvent être copiées lorsqu'un transfert implique un emplacement Amazon S3.

**Topics**
+ [Vers Amazon S3](#metadata-copied-to-s3)
+ [Entre Amazon S3 et d'autres types de stockage d'objets](#metadata-copied-between-object-s3)
+ [Entre Amazon S3 et HDFS](#metadata-copied-between-hdfs-s3)

### Vers Amazon S3
<a name="metadata-copied-to-s3"></a>


| Lorsque vous copiez depuis l'un de ces emplacements | Vers cet endroit | DataSync peut copier | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  Ce qui suit en tant que métadonnées utilisateur Amazon S3 : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html) Les métadonnées des fichiers stockées dans les métadonnées utilisateur d'Amazon S3 sont interopérables avec les partages NFS sur les passerelles de fichiers utilisant. AWS Storage Gateway Une passerelle de fichiers permet un accès à faible latence depuis les réseaux locaux aux données copiées sur Amazon S3 par. DataSync Ces métadonnées sont également interopérables avec FSx for Lustre. Lorsque DataSync des objets contenant ces métadonnées sont copiés vers un serveur NFS, les métadonnées du fichier sont restaurées. La restauration des métadonnées nécessite l'octroi d'autorisations élevées au serveur NFS. Pour de plus amples informations, veuillez consulter [Configuration des AWS DataSync transferts avec un serveur de fichiers NFS](create-nfs-location.md).  | 

### Entre Amazon S3 et d'autres types de stockage d'objets
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)

### Entre Amazon S3 et HDFS
<a name="metadata-copied-between-hdfs-s3"></a>


| Lors de la copie entre ces emplacements | DataSync peut copier | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  | Ce qui suit en tant que métadonnées utilisateur Amazon S3 :[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)HDFS utilise des chaînes pour stocker la propriété des utilisateurs et des groupes de fichiers et de dossiers, plutôt que des identifiants numériques tels que et. UIDs GIDs | 

## Métadonnées copiées lors de transferts NFS
<a name="metadata-copied-nfs"></a>

Le tableau suivant décrit les métadonnées qui DataSync peuvent être copiées entre des emplacements utilisant le système de fichiers réseau (NFS).


| Lors de la copie entre ces emplacements | DataSync peut copier | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  | 

## Métadonnées copiées dans les transferts SMB
<a name="metadata-copied-smb"></a>

Le tableau suivant décrit les métadonnées qui DataSync peuvent être copiées entre des emplacements utilisant le module SMB (Server Message Block).


| Lors de la copie entre ces emplacements | DataSync peut copier | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  | 

## Métadonnées copiées dans d'autres scénarios de transfert
<a name="metadata-copied-different"></a>

DataSync gère les métadonnées de la manière suivante lors de la copie entre ces systèmes de stockage (dont la plupart ont des structures de métadonnées différentes).

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)

## Comprendre quand et comment DataSync applique les métadonnées POSIX par défaut
<a name="POSIX-metadata"></a>

DataSync applique les métadonnées POSIX par défaut dans les situations suivantes :
+ Lorsque les emplacements source et de destination de votre transfert n'ont pas de structures de métadonnées similaires
+ Lorsque les métadonnées sont absentes de l'emplacement source

Le tableau suivant décrit comment DataSync appliquer les métadonnées POSIX par défaut lors de ces types de transferts :


| Source | Destination | Autorisations de fichiers | Autorisations relatives aux dossiers | UID | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 Dans les cas où les objets ne possèdent pas de métadonnées précédemment appliquées par DataSync.

# Liens et répertoires copiés par AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync gère les liens physiques, les liens symboliques et les répertoires différemment selon les emplacements de stockage concernés par votre transfert.

## Liens physiques
<a name="special-files-copied-hard-links"></a>

Voici comment DataSync gérer les liens physiques dans certains scénarios de transfert courants :
+ **Lors du transfert entre un serveur de fichiers NFS, FSx pour Lustre, pour OpenZFS, FSx FSx pour ONTAP (à l'aide de NFS) et Amazon EFS**, les liens physiques sont préservés.
+ **Lors du transfert vers Amazon S3**, chaque fichier sous-jacent référencé par un lien physique n'est transféré qu'une seule fois. Lors des transferts incrémentiels, des objets distincts sont créés dans votre compartiment S3. Si un lien dur est inchangé dans Amazon S3, il est correctement restauré lorsqu'il est transféré vers un serveur de fichiers NFS, FSx pour Lustre, pour OpenZFS, FSx pour ONTAP (à l'aide de NFS) ou FSx pour le système de fichiers Amazon EFS.
+ **Lors du transfert vers Microsoft Azure Blob Storage**, chaque fichier sous-jacent référencé par un lien physique n'est transféré qu'une seule fois. Lors des transferts incrémentiels, des objets distincts sont créés dans votre stockage de blob si la source contient de nouvelles références. Lors du transfert depuisAzure Blob Storage, DataSync transfère les liens physiques comme s'il s'agissait de fichiers individuels.
+ **Lors du transfert entre un serveur de fichiers SMB, un serveur FSx de fichiers Windows et FSx un serveur ONTAP (via SMB)**, les liens physiques ne sont pas pris en charge. Si DataSync vous rencontrez des liens durs dans ces situations, la tâche de transfert se termine avec une erreur. Pour en savoir plus, consultez vos CloudWatch journaux.
+ **Lors du transfert vers HDFS, les** liens physiques ne sont pas pris en charge. CloudWatch les journaux indiquent que ces liens ont été ignorés.

## Liens symboliques
<a name="special-files-copied-symbolic-links"></a>

Voici comment DataSync gérer les liens symboliques dans certains scénarios de transfert courants :
+ **Lors du transfert entre un serveur de fichiers NFS, FSx pour Lustre, pour OpenZFS, FSx FSx pour ONTAP (à l'aide de NFS) et Amazon EFS**, les liens symboliques sont préservés.
+ **Lors du transfert vers Amazon S3**, le chemin cible du lien est stocké dans l'objet Amazon S3. Le lien est correctement restauré lorsqu'il est transféré vers un serveur de fichiers NFS, FSx pour Lustre, pour OpenZFS, FSx pour ONTAP ou FSx pour le système de fichiers Amazon EFS.
+ **Lors du transfert versAzure Blob Storage, les** liens symboliques ne sont pas pris en charge. CloudWatch les journaux indiquent que ces liens ont été ignorés.
+ **Lors du transfert entre un serveur de fichiers SMB, FSx pour Windows File Server et FSx pour ONTAP (via SMB),** les liens symboliques ne sont pas pris en charge. DataSync ne transfère pas un lien symbolique lui-même mais un fichier référencé par le lien symbolique. Pour reconnaître les fichiers dupliqués et les dédupliquer à l'aide de liens symboliques, vous devez configurer la déduplication sur votre système de fichiers de destination.
+ **Lors du transfert vers HDFS, les** liens symboliques ne sont pas pris en charge. CloudWatch les journaux indiquent que ces liens ont été ignorés.

## Annuaires
<a name="special-files-copied-directories"></a>

En général, DataSync préserve les répertoires lors du transfert entre systèmes de stockage. Ce n'est pas le cas dans les situations suivantes :
+ **Lors du transfert vers Amazon S3**, les répertoires sont représentés sous forme d'objets vides dotés de préfixes et se terminant par une barre oblique ()`/`.
+ **Lors du transfert vers un espace de noms Azure Blob Storage sans espace de noms hiérarchique**, les répertoires n'existent pas. Ce qui ressemble à un répertoire n'est qu'une partie du nom d'un objet.

# Configuration du mode de gestion des fichiers, des objets et des métadonnées
<a name="configure-metadata"></a>

Vous pouvez configurer le mode de AWS DataSync gestion de vos fichiers, objets et de leurs métadonnées associées lors du transfert d'un emplacement à un autre.

Par exemple, dans le cas de transferts récurrents, vous souhaiterez peut-être remplacer les fichiers de votre destination par des modifications apportées à la source afin de synchroniser les emplacements. Vous pouvez copier des propriétés telles que les autorisations POSIX pour les fichiers et les dossiers, les balises associées aux objets et les listes de contrôle d'accès (ACLs).

## Options du mode de transfert
<a name="task-option-transfer-mode"></a>

Vous pouvez configurer si vous DataSync transférez uniquement les données (y compris les métadonnées) modifiées après une copie initiale ou toutes les données à chaque fois que vous exécutez la tâche. Si vous prévoyez des transferts récurrents, vous souhaiterez peut-être uniquement transférer les modifications apportées depuis l'exécution de votre tâche précédente.


| Option dans la console | Option dans l'API | Description | 
| --- | --- | --- | 
|  **Transférez uniquement les données modifiées**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)réglé sur `CHANGED`  | Après votre transfert complet initial, DataSync copie uniquement les données et les métadonnées qui diffèrent entre l'emplacement source et l'emplacement de destination. | 
|  **Transférez toutes les données**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)réglé sur `ALL`  |  DataSync copie tout le contenu de la source vers la destination sans comparer les différences entre les emplacements.   | 

## Options de gestion des fichiers et des objets
<a name="task-option-file-object-handling"></a>

Vous pouvez contrôler certains aspects du DataSync traitement de vos fichiers ou objets dans l'emplacement de destination. Par exemple, DataSync vous pouvez supprimer des fichiers dans la destination qui ne figurent pas dans la source.


| Option dans la console | Option dans l'API | Description | 
| --- | --- | --- | 
|  **Conserver les fichiers supprimés**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  Spécifie si DataSync des fichiers ou des objets qui n'existent pas dans la source sont conservés dans l'emplacement de destination. Si vous configurez votre tâche pour supprimer des objets de votre compartiment Amazon S3, des frais de durée de stockage minimale peuvent vous être facturés pour certaines classes de stockage. Pour plus d’informations, consultez [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).  Vous ne pouvez pas configurer votre tâche de manière à supprimer des données dans la destination et à [transférer toutes les données](#task-option-transfer-mode). Lorsque vous transférez toutes les données, DataSync il ne scanne pas votre position de destination et ne sait pas quoi supprimer.   | 
|  **Remplacer des fichiers**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  Spécifie si DataSync les données sont modifiées dans l'emplacement de destination lorsque les données source ou les métadonnées ont changé. Si vous ne configurez pas votre tâche pour remplacer les données, les données de destination ne sont pas remplacées, même si les données source sont différentes. Si votre tâche remplace des objets, des frais supplémentaires peuvent vous être facturés pour certaines classes de stockage (par exemple, pour la récupération ou la suppression anticipée). Pour plus d’informations, consultez [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).  | 

## Options de gestion des métadonnées
<a name="task-option-metadata-handling"></a>

DataSync peut conserver les métadonnées des fichiers et des objets lors d'un transfert. Les métadonnées DataSync pouvant être conservées dépendent des systèmes de stockage concernés et de l'utilisation par ces systèmes d'une structure de métadonnées similaire.

Avant de configurer votre tâche, assurez-vous de comprendre comment DataSync gère les [métadonnées et les](metadata-copied.md) [fichiers spéciaux](special-files-copied.md) lors du transfert entre votre emplacement source et votre emplacement de destination.

**Important**  
DataSync prend en charge les transferts vers et depuis certains systèmes de stockage cloud tiers, tels que Google Cloud Storage et IBM Cloud Object Storage, qui gèrent les métadonnées du système d'une manière qui n'est pas totalement compatible avec S3. Pour ces transferts, DataSync essaie de copier des attributs de métadonnées tels que`ContentType`,`ContentEncoding`,`ContentLanguage`, et dans `CacheControl` la mesure du possible. Si le système de stockage de destination n'applique pas ces attributs, ils seront ignorés lors de la vérification des tâches.


| Option dans la console | Option dans l'API | Description | 
| --- | --- | --- | 
|  **Propriété de copie**  | [https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) |  Spécifie si les DataSync copies sont propriétaires des fichiers et dossiers POSIX, par exemple l'ID de groupe des propriétaires du fichier et l'ID utilisateur du propriétaire du fichier.  | 
|  **Autorisations de copie**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  Spécifie si les autorisations POSIX pour les fichiers et les dossiers sont DataSync copiées de la source vers la destination.  | 
| Copier les horodatages | [https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime) |  Spécifie si les métadonnées d'horodatage sont DataSync copiées de la source vers la destination. Obligatoire lorsque vous devez exécuter une tâche plusieurs fois.  | 
| Copier les balises d'objets | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  Spécifie si les balises associées à vos objets sont DataSync préservées lors du transfert entre systèmes de stockage d'objets.  | 
| Propriété de copie DACLs, et SACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)réglé sur OWNER\$1DACL\$1SACL |  DataSync copie ce qui suit : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/configure-metadata.html)  | 
| Propriété de copie et DACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)réglé sur OWNER\$1DACL |  DataSync copie ce qui suit : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/datasync/latest/userguide/configure-metadata.html) DataSync ne sera pas SACLs copié lorsque vous choisissez cette option.  | 
| Ne copiez pas la propriété ou ACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)réglé sur NONE |  DataSync ne copie aucune donnée de propriété ou d'autorisation. Les objets qui DataSync écrivent sur votre emplacement de destination appartiennent à l'utilisateur dont les informations d'identification sont fournies pour accéder DataSync à la destination. Les autorisations des objets de destination sont déterminées en fonction des autorisations configurées sur le serveur de destination.  | 

## Configuration des options de gestion des fichiers, des objets et des métadonnées
<a name="configure-file-metadata-options"></a>

Vous pouvez configurer le mode de DataSync gestion des fichiers, des objets et des métadonnées lors de la création, de la modification ou du démarrage de votre tâche de transfert.

### Utilisation de la DataSync console
<a name="configure-metadata-console"></a>

Les instructions suivantes décrivent comment configurer les options de gestion des fichiers, des objets et des métadonnées lors de la création d'une tâche.

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **le mode de transfert**, choisissez l'une des options suivantes :
   + **Transférez uniquement les données modifiées**
   + **Transférez toutes les données**

   Pour plus d’informations sur ces options, consultez [Options du mode de transfert](#task-option-transfer-mode).

1. Sélectionnez **Conserver les fichiers supprimés** si vous DataSync souhaitez conserver des fichiers ou des objets dans l'emplacement de destination qui n'existent pas dans la source.

   Si vous ne choisissez pas cette option et que votre tâche supprime des objets de votre compartiment Amazon S3, des frais de durée de stockage minimale peuvent vous être facturés pour certaines classes de stockage. Pour plus d’informations, consultez [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).
**Avertissement**  
Vous ne pouvez pas désélectionner cette option et activer **Transférer toutes les données**. Lorsque vous transférez toutes les données, DataSync il ne scanne pas votre position de destination et ne sait pas quoi supprimer.

1. Sélectionnez **Remplacer les fichiers** si vous DataSync souhaitez modifier les données dans l'emplacement de destination lorsque les données source ou les métadonnées ont changé.

   Si votre tâche remplace des objets, des frais supplémentaires peuvent vous être facturés pour certaines classes de stockage (par exemple, pour la récupération ou la suppression anticipée). Pour plus d’informations, consultez [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).

   Si vous ne sélectionnez pas cette option, les données de destination ne sont pas remplacées même si les données source sont différentes.

1. Sous **Options de transfert**, sélectionnez la manière dont vous DataSync souhaitez gérer les métadonnées. Pour plus d’informations sur ces options, consultez [Options de gestion des métadonnées](#task-option-metadata-handling).
**Important**  
Les options affichées dans la console dépendent de l'emplacement source et de destination de votre tâche. Vous devrez peut-être développer **les paramètres supplémentaires** pour voir certaines de ces options.
   + **Propriété de copie**
   + **Autorisations de copie**
   + **Copier les horodatages**
   + **Copier les balises d'objets**
   + **Propriété de copie DACLs, et SACLs**
   + **Propriété de copie et DACLs**
   + **Ne copiez pas la propriété ou ACLs**

### Utilisation de l' DataSync API
<a name="configure-file-metadata-options-api"></a>

Vous pouvez configurer les options de gestion des fichiers, des objets et des métadonnées en utilisant le `Options` paramètre avec l'une des opérations suivantes :
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# Configuration du mode de AWS DataSync vérification de l'intégrité des données
<a name="configure-data-verification-options"></a>

Lors d'un transfert, AWS DataSync utilise la vérification par somme de contrôle pour vérifier l'intégrité des données que vous copiez entre les sites. Vous pouvez également configurer DataSync pour effectuer une vérification supplémentaire à la fin de votre transfert.

## Options de vérification des données
<a name="data-verification-options"></a>

Utilisez les informations suivantes pour vous aider à décider si et comment vous DataSync souhaitez effectuer ces vérifications supplémentaires.


| Option console | Option d'API | Description | 
| --- | --- | --- | 
|  **Vérifier uniquement les données transférées** (recommandé)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)réglé sur `ONLY_FILES_TRANSFERRED`  |  DataSync calcule la somme de contrôle des données transférées (y compris les métadonnées) à l'emplacement source. À la fin de votre transfert, DataSync comparez cette somme de contrôle à la somme de contrôle calculée sur ces mêmes données à destination. Nous recommandons cette option lors du transfert vers les classes de stockage S3 Glacier Flexible Retrieval ou S3 Glacier Deep Archive. Pour de plus amples informations, veuillez consulter [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).  | 
|  **Vérifiez toutes les données**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)réglé sur `POINT_IN_TIME_CONSISTENT`  |  À la fin de votre transfert, DataSync vérifie l'intégralité de la source et de la destination pour vérifier que les deux emplacements sont parfaitement synchronisés.  Non pris en charge lorsque votre tâche utilise [le mode amélioré](choosing-task-mode.md).  Si vous utilisez un [manifeste](transferring-with-manifest.md), il analyse et vérifie DataSync uniquement ce qui est répertorié dans le manifeste. Vous ne pouvez pas utiliser cette option lors du transfert vers les classes de stockage S3 Glacier Flexible Retrieval ou S3 Glacier Deep Archive. Pour de plus amples informations, veuillez consulter [Considérations relatives à la classe de stockage lors des transferts Amazon S3](create-s3-location.md#using-storage-classes).   | 
| Ne pas vérifier les données après le transfert |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)réglé sur `NONE`  | DataSync effectue des contrôles d'intégrité des données uniquement pendant votre transfert. Contrairement aux autres options, il n'y a aucune vérification supplémentaire à la fin de votre transfert. | 

## Configuration de la vérification des données
<a name="configure-data-verification"></a>

Vous pouvez configurer les options de vérification des données lors de la création d'une tâche, de sa mise à jour ou du lancement de son exécution.

### Utilisation de la DataSync console
<a name="configure-data-verification-options-console"></a>

Les instructions suivantes décrivent comment configurer les options de vérification des données lors de la création d'une tâche.

**Pour configurer la vérification des données à l'aide de la console**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour la **vérification**, choisissez l'une des options suivantes :
   + **Vérifier uniquement les données transférées** (recommandé)
   + **Vérifiez toutes les données**
   + **Ne pas vérifier les données après le transfert**

### Utilisation de l' DataSync API
<a name="configure-data-verification-options-api"></a>

Vous pouvez configurer le mode de DataSync vérification des données en utilisant le `VerifyMode` paramètre avec l'une des opérations suivantes :
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# Définition des limites de bande passante pour votre AWS DataSync tâche
<a name="configure-bandwidth"></a>

Vous pouvez configurer les limites de bande passante réseau pour votre AWS DataSync tâche et chacune de ses exécutions.

## Limiter la bande passante pour une tâche
<a name="configure-bandwidth-create"></a>

Définissez une limite de bande passante lors de la création, de la modification ou du démarrage d'une tâche.

### Utilisation de la DataSync console
<a name="configure-bandwidth-create-console"></a>

Les instructions suivantes décrivent comment configurer une limite de bande passante pour votre tâche lorsque vous la créez.

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour **Limite de bande passante**, choisissez l'une des options suivantes :
   + Sélectionnez **Utiliser disponible** pour utiliser toute la bande passante réseau disponible pour chaque exécution de tâche.
   + Sélectionnez **Définir la limite de bande passante (Mbits/s)** et entrez la bande passante maximale que vous souhaitez utiliser DataSync pour chaque exécution de tâche.

### Utilisation de l' DataSync API
<a name="configure-bandwidth-create-api"></a>

Vous pouvez configurer la limite de bande passante d'une tâche en utilisant le `BytesPerSecond` paramètre avec l'une des opérations suivantes :
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## Limitation de la bande passante pour l'exécution d'une tâche
<a name="adjust-bandwidth-throttling"></a>

Vous pouvez modifier la limite de bande passante pour l'exécution d'une tâche en cours ou en file d'attente.

### Utilisation de la DataSync console
<a name="adjust-bandwidth-throttling-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation, développez **Transfert de données**, puis choisissez **Tâches**.

1. Choisissez la tâche, puis sélectionnez **Historique** pour afficher les exécutions de la tâche.

1. Choisissez l'exécution de la tâche que vous souhaitez modifier, puis sélectionnez **Modifier**.

1. Dans la boîte de dialogue, sélectionnez l'une des options suivantes :
   + Sélectionnez **Utiliser disponible** pour utiliser toute la bande passante réseau disponible pour l'exécution de la tâche.
   + Sélectionnez **Définir la limite de bande passante (Mbits/s)** et entrez la bande passante maximale que vous souhaitez utiliser DataSync pour l'exécution de la tâche.

1. Sélectionnez **Enregistrer les modifications**.

   La nouvelle limite de bande passante prend effet dans les 60 secondes.

### Utilisation de l' DataSync API
<a name="adjust-bandwidth-throttling-api"></a>

Vous pouvez modifier la limite de bande passante pour l'exécution d'une tâche en cours ou en file d'attente en utilisant le `BytesPerSecond` paramètre avec l'[UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)opération.

# Planification de l'exécution de votre AWS DataSync tâche
<a name="task-scheduling"></a>

Vous pouvez configurer un calendrier des AWS DataSync tâches pour transférer régulièrement des données entre les emplacements de stockage.

## Comment fonctionne DataSync la planification des tâches
<a name="how-task-scheduling-works"></a>

Une DataSync tâche planifiée s'exécute à la fréquence que vous spécifiez, avec un intervalle minimum d'une heure. Vous pouvez créer un planning de tâches à l'aide d'un cron ou d'expressions de taux.

**Important**  
Vous ne pouvez pas planifier l'exécution d'une tâche à un intervalle inférieur à 1 heure.

**Utilisation d'expressions cron**  
Utilisez des expressions cron pour les plannings de tâches exécutés à une heure et à un jour spécifiques. Par exemple, voici comment configurer un calendrier de tâches dans le AWS CLI qui s'exécute à 12 h 00 UTC tous les dimanches et mercredis.  

```
cron(0 12 ? * SUN,WED *)
```

**Utilisation d'expressions de taux**  
Utilisez des expressions de taux pour les planifications de tâches exécutées à intervalles réguliers, par exemple toutes les 12 heures. Par exemple, voici comment configurer un calendrier de tâches AWS CLI qui s'exécute toutes les 12 heures :  

```
rate(12 hours)
```

**Astuce**  
Pour plus d'informations sur la syntaxe des expressions cron et rate, consultez le [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html).

## Création d'un calendrier de DataSync tâches
<a name="configure-task-schedule"></a>

Vous pouvez planifier la fréquence d'exécution de votre tâche à l'aide de la DataSync console ou de DataSync l'API. AWS CLI

### Utilisation de la DataSync console
<a name="configure-task-schedule-console"></a>

Les instructions suivantes décrivent comment configurer un planning lors de la création d'une tâche. Vous pouvez modifier le planning ultérieurement lors de la modification de la tâche.

Dans la console, certaines options de planification vous permettent de spécifier l'heure exacte d'exécution de votre tâche (par exemple, tous les jours à 22 h 30). Si vous n'indiquez pas d'heure pour ces options, votre tâche s'exécute au moment où vous la créez (ou mettez à jour) la tâche.

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour plus d’informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Pour planifier **la fréquence**, effectuez l'une des opérations suivantes :
   + Choisissez **Non planifié** si vous ne souhaitez pas que votre tâche soit exécutée selon un calendrier.
   + Choisissez **Horaire**, puis choisissez la minute pendant l'heure pendant laquelle vous souhaitez que votre tâche soit exécutée. 
   + Choisissez **Quotidien** et entrez l'heure UTC à laquelle vous souhaitez que votre tâche soit exécutée.
   + Choisissez **Hebdomadaire** et le jour de la semaine, puis entrez l'heure UTC à laquelle vous souhaitez que la tâche s'exécute.
   + Choisissez **Jours de la semaine**, choisissez un ou plusieurs jours spécifiques et entrez l'heure UTC à laquelle la tâche doit être exécutée au format HH:MM.
   + Choisissez **Personnalisé**, puis sélectionnez Expression **Cron ou Expression** **Rate**. Entrez votre calendrier de tâches avec un intervalle minimum d'une heure. 

### À l'aide du AWS CLI
<a name="configure-task-schedule-api"></a>

Vous pouvez créer un calendrier pour votre DataSync tâche en utilisant le `--schedule` paramètre avec la `start-task-execution` commande `create-task``update-task`, ou.

Les instructions suivantes décrivent comment procéder à l'aide de la `create-task` commande.

1. Copiez la `create-task` commande suivante :

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. Pour le `--source-location-arn` paramètre, spécifiez l'Amazon Resource Name (ARN) de l'emplacement à partir duquel vous transférez les données.

1. Pour le `--destination-location-arn` paramètre, spécifiez l'ARN de l'emplacement vers lequel vous transférez les données.

1. Pour le `--schedule` paramètre, spécifiez une expression cron ou rate pour votre planning.

   Dans l'exemple, l'expression cron `cron(0 12 ? * SUN,WED *)` définit un calendrier de tâches qui s'exécute à 12 h 00 UTC tous les dimanches et mercredis.

1. Exécutez la `create-task` commande pour créer votre tâche avec le planning.

## Suspension d'un calendrier de DataSync tâches
<a name="pause-task-schedule"></a>

Il peut arriver que vous deviez suspendre votre planification des DataSync tâches. Par exemple, il se peut que vous deviez désactiver temporairement un transfert récurrent pour résoudre un problème lié à votre tâche ou effectuer des opérations de maintenance sur votre système de stockage.

DataSync peut désactiver automatiquement votre planification des tâches pour les raisons suivantes :
+ Votre tâche échoue à plusieurs reprises avec la même erreur.
+ Vous [désactivez un Région AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) utilisateur utilisé par votre tâche.

### Utilisation de la DataSync console
<a name="pause-scheduled-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**.

1. Choisissez la tâche pour laquelle vous souhaitez suspendre le planning, puis choisissez **Modifier**.

1. Pour **Planifier**, désactivez **Activer le calendrier**. Sélectionnez **Enregistrer les modifications**.

### À l'aide du AWS CLI
<a name="pause-scheduled-task-cli"></a>

1. Copiez la `update-task` commande suivante :

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. Pour le `--task-arn` paramètre, spécifiez l'ARN de la tâche pour laquelle vous souhaitez suspendre le planning.

1. Pour le `--schedule` paramètre, procédez comme suit :
   + Pour`ScheduleExpression`, spécifiez un cron ou une expression de taux pour votre calendrier.

     Dans l'exemple, l'expression `cron(0 12 ? * SUN,WED *)` définit un calendrier de tâches qui s'exécute à 12 h 00 UTC tous les dimanches et mercredis.
   + Pour`Status`, spécifiez `DISABLED` de suspendre le calendrier des tâches.

1. Exécutez la commande `update-task`.

1. Pour reprendre le planning, exécutez la même `update-task` commande avec `Status` set to`ENABLED`.

## Vérifier l'état d'un planning de DataSync tâches
<a name="check-scheduled-task"></a>

Vous pouvez voir si votre calendrier de DataSync tâches est activé. 

### Utilisation de la DataSync console
<a name="check-scheduled-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**.

1. Dans la colonne **Planification**, vérifiez si le calendrier de la tâche est activé ou désactivé.

### À l'aide du AWS CLI
<a name="check-scheduled-task-cli"></a>

1. Copiez la `describe-task` commande suivante :

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. Pour le `--task-arn` paramètre, spécifiez l'ARN de la tâche sur laquelle vous souhaitez obtenir des informations.

1. Exécutez la commande `describe-task`.

Vous obtenez une réponse qui fournit des détails sur votre tâche, y compris son calendrier. (L'exemple suivant se concentre principalement sur la configuration du planning des tâches et ne montre pas de `describe-task` réponse complète.)

L'exemple montre que le planning de la tâche est désactivé manuellement. Si la planification est désactivée par le DataSync `SERVICE`, un message d'erreur s'affiche pour vous aider `DisabledReason` à comprendre pourquoi la tâche continue d'échouer. Pour de plus amples informations, veuillez consulter [AWS DataSync Problèmes de résolution des problèmes](troubleshooting-datasync.md).

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# Marquer vos tâches AWS DataSync
<a name="tagging-tasks"></a>

Les *balises* sont des paires clé-valeur qui vous aident à gérer, filtrer et rechercher vos AWS DataSync ressources. Vous pouvez ajouter jusqu'à 50 balises à chaque DataSync tâche et à son exécution.

Par exemple, vous pouvez créer une tâche pour une migration de données volumineuse et lui attribuer la clé **Project** et la valeur**Large Migration**. Pour mieux organiser la migration, vous pouvez étiqueter une exécution de la tâche avec la clé **Transfer Date** et la valeur **May 2021** (les exécutions de tâches suivantes peuvent être balisées **June 2021****July 2021**, etc.).

## Marquer votre tâche DataSync
<a name="tagging-tasks-console"></a>

Vous ne pouvez étiqueter votre DataSync tâche que lors de sa création.

### Utilisation de la DataSync console
<a name="tagging-tasks-console-steps"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**, puis choisissez **Créer une tâche**.

1. Configurez les emplacements source et de destination de votre tâche.

   Pour de plus amples informations, consultez [Où puis-je transférer mes données AWS DataSync ?](working-with-locations.md).

1. Sur la page **Configurer les paramètres**, choisissez **Ajouter une nouvelle balise** pour étiqueter votre tâche.

### À l'aide du AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. Copiez la `create-task` commande suivante :

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Spécifiez les paramètres suivants dans la commande :
   + `--source-location-arn`— Spécifiez le nom de ressource Amazon (ARN) de l'emplacement source lors de votre transfert.
   + `--destination-location-arn`— Spécifiez l'ARN du lieu de destination lors de votre transfert.
   + `--tags`— Spécifiez les balises que vous souhaitez appliquer à la tâche.

     Pour plusieurs balises, séparez chaque paire clé-valeur par un espace.

1. (Facultatif) Spécifiez d'autres paramètres adaptés à votre scénario de transfert.

   Pour une liste de`--options`, voir la commande [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html).

1. Exécutez la commande `create-task`.

   Vous obtenez une réponse qui indique la tâche que vous venez de créer.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Pour afficher les balises que vous avez ajoutées à cette tâche, vous pouvez utiliser la [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)commande.

## Marquer l'exécution de vos DataSync tâches
<a name="tagging-task-executions-console"></a>

Vous pouvez étiqueter chaque exécution de votre DataSync tâche.

Si votre tâche possède déjà des balises, n'oubliez pas ce qui suit concernant l'utilisation de balises lors de l'exécution des tâches :
+ Si vous démarrez votre tâche avec la console, ses balises créées par l'utilisateur sont automatiquement appliquées à l'exécution de la tâche. Toutefois, les balises créées par le système qui commencent par ne `aws:` sont pas appliquées.
+ Si vous démarrez votre tâche avec l' DataSync API ou AWS CLI si ses balises ne sont pas appliquées automatiquement à l'exécution de la tâche.

### Utilisation de la DataSync console
<a name="tagging-task-executions-console"></a>

Pour ajouter, modifier ou supprimer des balises lors de l'exécution d'une tâche, vous devez démarrer la tâche avec des options de remplacement.

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**.

1. Choisissez la tâche.

1. Choisissez **Démarrer**, puis choisissez l'une des options suivantes : 
   + **Commencez par les valeurs par défaut** : applique toutes les balises associées à votre tâche.
   + **Commencez par remplacer les options** : vous permet d'ajouter, de modifier ou de supprimer des balises pour l'exécution de cette tâche particulière.

### À l'aide du AWS CLI
<a name="tagging-task-executions-cli"></a>

1. Copiez la `start-task-execution` commande suivante :

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Spécifiez les paramètres suivants dans la commande :
   + `--task-arn`— Spécifiez l'ARN de la tâche que vous souhaitez démarrer.
   + `--tags`— Spécifiez les balises que vous souhaitez appliquer à cette exécution spécifique de la tâche.

     Pour plusieurs balises, séparez chaque paire clé-valeur par un espace.

1. (Facultatif) Spécifiez d'autres paramètres adaptés à votre situation.

   Pour plus d’informations, consultez la commande [start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html).

1. Exécutez la commande `start-task-execution`.

   Vous obtenez une réponse qui indique l'exécution de la tâche que vous venez de démarrer.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Pour afficher les balises que vous avez ajoutées à cette tâche, vous pouvez utiliser la [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)commande.

# Lancer une tâche pour transférer vos données
<a name="run-task"></a>

Une fois que vous avez créé votre tâche de AWS DataSync transfert, vous pouvez commencer à déplacer les données. Chaque exécution d'une tâche est appelée *exécution de tâche*. Pour plus d'informations sur ce qui se passe lors de l'exécution d'une tâche, consultez[Comment DataSync transférer des fichiers, des objets et des répertoires](how-datasync-transfer-works.md#transferring-files).

**Important**  
Si vous prévoyez de transférer des données depuis ou vers un site Amazon S3, examinez [comment cela DataSync peut affecter les frais de votre demande S3](create-s3-location.md#create-s3-location-s3-requests) et la [page de DataSync tarification](https://aws.amazon.com/datasync/pricing/) avant de commencer.

## Démarrage de votre tâche
<a name="starting-task"></a>

Une fois que vous avez créé votre tâche, vous pouvez commencer à déplacer les données immédiatement.

### Utilisation de la DataSync console
<a name="starting-task-console"></a>

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**.

1. Choisissez la tâche que vous souhaitez exécuter.

   Assurez-vous que le statut de la tâche est **disponible**. Vous pouvez également sélectionner plusieurs tâches.

1. Choisissez **Actions**, puis choisissez l'une des options suivantes :
   + **Démarrer** : exécute la tâche (ou les tâches si vous en avez sélectionné plusieurs).
   + **Commencez par remplacer les options** : vous permet de modifier certains paramètres de vos tâches avant de commencer à déplacer des données. Lorsque vous êtes prêt, choisissez **Démarrer**.

1. Choisissez **Voir les détails de l'exécution** pour afficher les détails relatifs à l'exécution de la tâche en cours.

### En utilisant le AWS CLI
<a name="start-task-execution"></a>

Pour démarrer votre DataSync tâche, il vous suffit de spécifier le nom de ressource Amazon (ARN) de la tâche que vous souhaitez exécuter. Voici un exemple de `start-task-execution` commande :

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

L'exemple suivant démarre une tâche avec quelques paramètres différents des paramètres par défaut de la tâche :

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

La commande renvoie un ARN pour l'exécution de votre tâche, comme dans l'exemple suivant :

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**Note**  
Chaque agent peut exécuter une seule tâche à la fois.

### Utilisation de l' DataSync API
<a name="starting-task-api"></a>

Vous pouvez démarrer votre tâche en utilisant l'[StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)opération. Utilisez l'[DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html)opération pour obtenir des informations sur l'exécution de la tâche en cours.

Une fois démarrée, vous pouvez [vérifier l'état de l'exécution de la tâche au](#understand-task-execution-statuses) fur et à mesure que vos données sont DataSync copiées. Vous pouvez également [limiter la bande passante d'exécution des tâches](configure-bandwidth.md#adjust-bandwidth-throttling) si nécessaire.

## Statuts d'exécution des tâches
<a name="understand-task-execution-statuses"></a>

Lorsque vous démarrez une DataSync tâche, ces statuts peuvent s'afficher. (Les [statuts des tâches](create-task-how-to.md#understand-task-creation-statuses) sont différents des statuts d'exécution des tâches.)


| État de la console | État de l'API | Description | 
| --- | --- | --- | 
|  Mise en file d'attente  |  `QUEUED`  |  Une autre exécution de tâche est en cours d'exécution et utilise le même DataSync agent. Pour de plus amples informations, veuillez consulter [Savoir quand votre tâche est en file d'attente](#queue-task-execution).  | 
|  Lancement  |  `LAUNCHING`  |  DataSync initialise l'exécution de la tâche. Ce statut disparaît généralement rapidement, mais peut prendre jusqu'à quelques minutes.  | 
| Lancé | `LAUNCHED` | DataSync a lancé l'exécution de la tâche. | 
|  Preparing  |  `PREPARING`  |  DataSync détermine les données à transférer. La préparation peut prendre quelques minutes, quelques heures, voire plus, selon le nombre de fichiers, d'objets ou de répertoires présents dans les deux emplacements et selon la façon dont vous configurez votre tâche. Le fonctionnement de la préparation dépend également de votre mode de tâche. Pour de plus amples informations, veuillez consulter [Comment DataSync prépare votre transfert de données](how-datasync-transfer-works.md#how-datasync-prepares).  | 
|  Transfert  |  `TRANSFERRING`  |  DataSync effectue le transfert de données proprement dit.  | 
|  Vérification en cours  |  `VERIFYING`  |  DataSync vérifie l'intégrité de vos données à la fin du transfert.  | 
|  Réussite  |  `SUCCESS`  |  L'exécution de la tâche a réussi.  | 
|  Annulation  |  `CANCELLING`  | L'exécution de la tâche est en cours d'annulation. | 
|  Erreur  |  `ERROR`  |  L'exécution de la tâche a échoué.  | 

## Savoir quand votre tâche est en file d'attente
<a name="queue-task-execution"></a>

Lorsque vous exécutez plusieurs tâches (par exemple, si vous [transférez un ensemble de données volumineux](create-task-how-to.md#multiple-tasks-large-dataset)), vous DataSync pouvez mettre en file d'attente les tâches à exécuter en série (premier entré, premier sorti). Voici quelques exemples de situations dans lesquelles cela se produit :
+ Vous exécutez différentes tâches qui utilisent le même DataSync agent. Bien que vous puissiez utiliser le même agent pour plusieurs tâches, un agent ne peut exécuter qu'une seule tâche à la fois.
+ L'exécution d'une tâche est en cours et vous lancez d'autres exécutions de la même tâche à l'aide de [filtres](filtering.md) ou de [manifestes](transferring-with-manifest.md) différents.

Dans chaque exemple, les tâches en file d'attente ne démarrent pas tant que la tâche qui les attend n'est pas terminée.

## Annulation de l'exécution de vos tâches
<a name="cancel-running-task"></a>

 Vous pouvez arrêter l'exécution de toute DataSync tâche en cours ou en file d'attente. 

**Pour annuler l'exécution d'une tâche à l'aide de la console**

1. Ouvrez la AWS DataSync console à l'adresse [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Dans le volet de navigation de gauche, développez **Transfert de données**, puis choisissez **Tâches**.

1. Sélectionnez l'**ID de tâche** pour la tâche en cours d'exécution que vous souhaitez surveiller.

   L'état de la tâche doit être En **cours d'exécution**.

1. Choisissez **Historique** pour afficher les exécutions de la tâche.

1. Sélectionnez l'exécution de la tâche que vous souhaitez arrêter, puis choisissez **Arrêter**.

1. Dans la boîte de dialogue, choisissez **Stop**.

Pour annuler une tâche en cours ou en file d'attente à l'aide de l' DataSync API, consultez. [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html)

### Annulation automatique des tâches bloquées
<a name="auto-cancel-stuck-tasks"></a>

Parfois, l'exécution d'une DataSync tâche en cours peut être bloquée. 