

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Transferir sus datos con AWS DataSync
<a name="transferring-data-datasync"></a>

Con AWS DataSync ella, puede transferir datos a o desde un almacenamiento local AWS, en o en otras nubes.

La configuración de una DataSync transferencia generalmente implica los siguientes pasos:

1. Determina si DataSync [es compatible con tu transferencia](working-with-locations.md).

1. Si [necesita un DataSync agente](do-i-need-datasync-agent.md) para la transferencia, despliegue y active un agente lo más cerca posible de uno de sus sistemas de almacenamiento.

   Por ejemplo, si realiza la transferencia desde un servidor de archivos del sistema de archivos de red (NFS) en las instalaciones, implemente el agente lo más cerca posible de ese servidor de archivos.

1. Proporcione DataSync acceso a su sistema de almacenamiento.

   DataSync necesita permiso para leer o escribir en tu almacenamiento (dependiendo de si el almacenamiento es una ubicación de origen o de destino). Por ejemplo, aprenda a [proporcionar DataSync acceso a los servidores de archivos NFS](create-nfs-location.md#accessing-nfs).

1. [Conecte su red](networking-datasync.md) para el tráfico entre su sistema de almacenamiento y DataSync.

1. Cree una ubicación para su sistema de almacenamiento de origen mediante la DataSync consola o la DataSync API. AWS CLI

   Por ejemplo, aprenda a [crear una ubicación de NFS ](create-nfs-location.md#create-nfs-location-how-to) o una [ubicación de Amazon S3](create-s3-location.md#create-s3-location-how-to).

1. Repite los pasos 3 a 5 para crear la ubicación de destino de la transferencia.

1. [Crea e inicia una tarea de DataSync transferencia](create-task-how-to.md) que incluya las ubicaciones de origen y destino.

**Topics**
+ [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)
+ [Transferir hacia o desde el almacenamiento local con AWS DataSync](transferring-on-premises-storage.md)
+ [Transferir al AWS almacenamiento o desde él con AWS DataSync](transferring-aws-storage.md)
+ [Transferir hacia o desde otro almacenamiento en la nube con AWS DataSync](transferring-other-cloud-storage.md)
+ [Creación de una tarea para transferir los datos](create-task-how-to.md)
+ [Inicio de una tarea para transferir los datos](run-task.md)

# ¿Dónde puedo transferir mis datos AWS DataSync?
<a name="working-with-locations"></a>

El lugar al que puede transferir sus datos AWS DataSync depende de los siguientes factores:
+ Las [ubicaciones](how-datasync-transfer-works.md#sync-locations) de origen y destino de su transferencia
+ Si sus ubicaciones están en ubicaciones diferentes Cuentas de AWS
+ Si sus ubicaciones están en diferentes Regiones de AWS
+ Si está utilizando el modo básico o el modo mejorado

## Se admiten transferencias en el mismo Cuenta de AWS
<a name="working-with-locations-same-account"></a>

DataSync admite transferencias entre los siguientes recursos de almacenamiento que están asociados a los mismos Cuenta de AWS.


| Origen | Destino | ¿Requiere un agente? | Modo de tarea compatible | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Solo para el modo básico  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Solo para el modo básico  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 

## Se admiten transferencias entre Cuentas de AWS
<a name="working-with-locations-across-accounts"></a>

DataSync admite algunas transferencias entre recursos de almacenamiento que están asociados a diferentes Cuentas de AWS.


| Origen | Destino | ¿Requiere un agente? | Modo de tarea compatible | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Básico, mejorado  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo básico  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/working-with-locations.html)  |  Sí (cuando se usa como NFS/SMB ubicación)  |  Solo básico  | 

1 Configurado como una [ubicación NFS](create-nfs-location.md).

2 Configurado como una [ubicación de SMB](create-smb-location.md).

3 Configurado como una ubicación NFS o SMB.

## Se admiten transferencias en la misma Región de AWS
<a name="working-with-locations-same-region"></a>

No hay restricciones a la hora de transferir datos dentro de la misma Región de AWS (incluidas las [regiones opcionales](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)). Para obtener más información, consulte [Regiones de AWS compatible con DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html).

## Transferencias compatibles entre Regiones de AWS
<a name="working-with-locations-cross-regions"></a>

Tenga en cuenta lo siguiente al transferir datos entre [Regiones de AWS dispositivos compatibles con DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html):
+ Al realizar transferencias entre servicios AWS de almacenamiento situados en diferentes ubicaciones Regiones de AWS, una de las dos ubicaciones debe estar en la región en la que la utilices DataSync.
+ No puede realizar transferencias entre regiones con una ubicación de NFS, SMB, HDFS o de almacenamientos de objetos. En estas situaciones, las dos ubicaciones de transferencia deben estar en la misma región en la que [activaste tu DataSync agente](activate-agent.md).
+ Con AWS GovCloud (US) Regions, puede:
  + Transfiere entre las regiones AWS GovCloud (EE. UU. Este) y AWS GovCloud (EE. UU. Oeste).
  + Transfiere entre una AWS GovCloud (US) región y una zona comercial Región de AWS, como EE. UU. Este (Virginia del Norte). Este tipo de transferencia requiere un [agente](agent-requirements.md) cuando se realiza una transferencia entre Amazon EFS o Amazon FSx file systems.

**importante**  
Usted paga por los datos transferidos entre ellos Regiones de AWS. Esta transferencia se factura como transferencia de datos de salida desde la región de origen a la región de destino. Para más información, consulte [Precios de AWS DataSync](https://aws.amazon.com/datasync/pricing/).

## Determinar si su transferencia requiere un DataSync agente
<a name="datasync-transfer-requirements"></a>

Según el escenario de tu transferencia, es posible que necesites un DataSync agente. Para obtener más información, consulte [¿Necesito un AWS DataSync agente?](do-i-need-datasync-agent.md)

# Transferir hacia o desde el almacenamiento local con AWS DataSync
<a name="transferring-on-premises-storage"></a>

Con AWS DataSyncél, puedes transferir archivos y objetos entre varios sistemas de almacenamiento locales o autogestionados y los siguientes servicios de almacenamiento: AWS 
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de archivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [Configuración de AWS DataSync transferencias con un servidor de archivos NFS](create-nfs-location.md)
+ [Configurar las AWS DataSync transferencias con un servidor de archivos SMB](create-smb-location.md)
+ [Configuración de AWS DataSync transferencias con un clúster HDFS](create-hdfs-location.md)
+ [Configurar DataSync las transferencias con un sistema de almacenamiento de objetos](create-object-location.md)

# Configuración de AWS DataSync transferencias con un servidor de archivos NFS
<a name="create-nfs-location"></a>

Con AWS DataSync, puede transferir datos entre el servidor de archivos del Network File System (NFS) y los siguientes servicios de AWS almacenamiento. Los servicios de almacenamiento compatibles dependen del modo de tarea, como se muestra a continuación:


| Modo básico | Modo mejorado | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-nfs-location.html)  | 

Para configurar este tipo de transferencia, cree una [ubicación](how-datasync-transfer-works.md#sync-locations) de transferencia para su servidos de archivos de NFS. Puede usar esta ubicación como origen o destino de la transferencia.

## Proporcionar DataSync acceso a los servidores de archivos NFS
<a name="accessing-nfs"></a>

[Para acceder DataSync a su servidor de archivos NFS, necesita un DataSync agente.](how-datasync-transfer-works.md#sync-agents) El agente monta una exportación en su servidor de archivos mediante el protocolo NFS. Asegúrese de utilizar el agente que corresponda al modo de tarea deseado.

**Topics**
+ [Configuración de su exportación a NFS](#accessing-nfs-configuring-export)
+ [Versiones NFS compatibles](#supported-nfs-versions)

### Configuración de su exportación a NFS
<a name="accessing-nfs-configuring-export"></a>

La exportación DataSync necesaria para la transferencia depende de si el servidor de archivos NFS es una ubicación de origen o de destino y de la configuración de los permisos del servidor de archivos.

Si su servidor de archivos es una ubicación de origen, DataSync solo tiene que leer y recorrer sus archivos y carpetas. Si es una ubicación de destino, DataSync necesita acceso root para escribir en la ubicación y establecer la propiedad, los permisos y otros metadatos de los archivos y carpetas que va a copiar. Puede usar la opción `no_root_squash` para permitir el acceso root para su exportación.

En los siguientes ejemplos, se describe cómo configurar una exportación de NFS a la que se proporciona acceso DataSync.

**Cuando el servidor de archivos NFS es una ubicación de origen (acceso root)**  
Configure la exportación mediante el siguiente comando, que proporciona permisos de DataSync solo lectura (`ro`) y acceso root (): `no_root_squash`

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**Cuando el servidor de archivos NFS es una ubicación de destino**  
Configure la exportación mediante el siguiente comando, que proporciona permisos de DataSync escritura (`rw`) y acceso root (`no_root_squash`):

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**Cuando el servidor de archivos NFS es una ubicación de origen (sin acceso root)**  
Configure la exportación mediante el siguiente comando, que especifica el ID de usuario (UID) y el ID de grupo (GID) de POSIX que sabe que proporcionarían permisos de DataSync solo lectura para la exportación:

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### Versiones NFS compatibles
<a name="supported-nfs-versions"></a>

De forma predeterminada, usa la versión 4.1 de DataSync NFS. DataSync también es compatible con NFS 4.0 y 3.x.

## Configuración de la red para transferencias NFS
<a name="configure-network-nfs-location"></a>

Para la DataSync transferencia, debe configurar el tráfico para algunas conexiones de red: 

1. Permita el tráfico de su DataSync agente a su servidor de archivos NFS en los siguientes puertos:
   + **Para NFS versiones 4.1 y 4.0**: puerto TCP 2049
   + **Para la versión 3.x de NFS**: puertos TCP 111 y 2049

   Los demás clientes NFS de su red deberían poder montar la exportación a NFS que usted utiliza para transferir datos. Asegúrese de que la exportación también sea accesible sin la autenticación de Kerberos.

1. Configure el tráfico para su [conexión de punto de conexión de servicio](datasync-network.md) (como un punto de enlace de VPC, público o FIPS).

1. Permita el tráfico del DataSync servicio al servicio de [AWS almacenamiento](datasync-network.md#storage-service-network-requirements) desde o hacia el que está realizando la transferencia.

## Creación de la ubicación de transferencia NFS
<a name="create-nfs-location-how-to"></a>

Antes de comenzar, tenga en cuenta lo siguiente:
+ Necesita un servidor de archivos NFS desde el que quiera transferir datos.
+ Necesitas un DataSync agente que pueda [acceder a tu servidor de archivos](#accessing-nfs).
+  DataSync no admite la copia de las listas de control de acceso de la versión 4 de NFS (ACLs).

### Uso de la consola DataSync
<a name="create-nfs-location-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, elija **Sistema de archivos de red (NFS)**.

1. En el caso de **los agentes**, elija el DataSync agente que se pueda conectar a su servidor de archivos NFS.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para el **servidor NFS**, introduzca el nombre del sistema de nombres de dominio (DNS) o la dirección IP del servidor de archivos NFS al que se conecta el DataSync agente.

1. En **Ruta de montaje**, introduzca la ruta de exportación de NFS que desee DataSync montar.

   Esta ruta (o un subdirectorio de la ruta) es DataSync desde donde se transfieren los datos hacia o desde ella. Para obtener más información, consulte [Configuración de su exportación a NFS](#accessing-nfs-configuring-export).

1. (Opcional) Amplíe **la configuración adicional** y elija una **versión de NFS** específica para usarla DataSync al acceder al servidor de archivos.

   Para obtener más información, consulte [Versiones NFS compatibles](#supported-nfs-versions).

1. (Opcional) Seleccione **Añadir etiqueta** para etiquetar su ubicación de NFS.

   Las *etiquetas* son pares de clave-valor que le ayudan a administrar, filtrar y buscar sus recursos de DataSync. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-nfs-cli"></a>
+ Utilice el siguiente comando para crear una ubicación de NFS.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  Para obtener más información sobre la creación de la ubicación, consulte [Proporcionar DataSync acceso a los servidores de archivos NFS](#accessing-nfs).

  DataSync elige automáticamente la versión de NFS que utiliza para leer desde una ubicación de NFS. Para especificar una versión de NFS, utilice el parámetro `Version` opcional en la operación de la API [NfsMountOptions](API_NfsMountOptions.md).

Este comando devuelve el nombre de recurso de Amazon (ARN) de la ubicación de NFS, que es similar al ARN que se muestra a continuación.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

Para asegurarse de que el directorio se puede montar, puede conectarse a cualquier equipo que tenga la misma configuración de red que su agente y ejecutar el siguiente comando. 

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

A continuación, se muestra un ejemplo del comando .

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# Configurar las AWS DataSync transferencias con un servidor de archivos SMB
<a name="create-smb-location"></a>

Con él AWS DataSync, puede transferir datos entre su servidor de archivos del bloque de mensajes del servidor (SMB) y los siguientes servicios AWS de almacenamiento. Los servicios de almacenamiento compatibles dependen del modo de tarea, como se muestra a continuación:


| Modo básico | Modo mejorado | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-smb-location.html)  | 

Para configurar este tipo de transferencia, cree una [ubicación](how-datasync-transfer-works.md#sync-locations) de transferencia para su servidos de archivos de SMB. Puede usar esto como origen o destino de la transferencia. Asegúrese de utilizar el agente que corresponda al modo de tarea deseado.

## Proporcionar DataSync acceso a los servidores de archivos SMB
<a name="configuring-smb"></a>

DataSync se conecta al servidor de archivos mediante el protocolo SMB y puede autenticarse con NTLM o Kerberos.

**Topics**
+ [Versiones compatibles de SMB](#configuring-smb-version)
+ [Uso de la autenticación NTLM](#configuring-smb-ntlm-authentication)
+ [Uso de la autenticación Kerberos](#configuring-smb-kerberos-authentication)
+ [Permisos necesarios](#configuring-smb-permissions)
+ [Espacios de nombres de DFS](#configuring-smb-location-dfs)

### Versiones compatibles de SMB
<a name="configuring-smb-version"></a>

De forma predeterminada, elige DataSync automáticamente una versión del protocolo SMB en función de la negociación con el servidor de archivos SMB.

También puede configurarlo DataSync para usar una versión SMB específica, pero le recomendamos que lo haga solo si DataSync tiene problemas para negociar automáticamente con el servidor de archivos SMB. DataSync es compatible con las versiones 1.0 y posteriores para SMB. Por motivos de seguridad, se recomienda utilizar SMB versión 3.0.2 o posterior. Las versiones anteriores, como SMB 1.0, contienen vulnerabilidades de seguridad conocidas que los atacantes pueden explotar para comprometer los datos.

Consulte la siguiente tabla para ver una lista de las opciones de la DataSync consola y la API:


| Opción de la consola | Opción de la API | Description (Descripción) | 
| --- | --- | --- | 
| Automático |  `AUTOMATIC`  |  DataSync y el servidor de archivos SMB negocian la versión más alta de SMB que admiten mutuamente, entre la 2.1 y la 3.1.1. Esta es la opción predeterminada y recomendada. Si, por el contrario, elige una versión específica que el servidor de archivos no admite, es posible que aparezca un error `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Restringe la negociación del protocolo solo a la versión 3.0.2 de SMB.  | 
| SMB 2.1 |  `SMB2`  | Restringe la negociación del protocolo solo a la versión 2.1 de SMB. | 
| SMB 2.0 | `SMB2_0` | Restringe la negociación del protocolo solo a la versión 2.0 de SMB. | 
| SMB 1.0 | `SMB1` | Restringe la negociación del protocolo solo a la versión 1.0 de SMB. | 

### Uso de la autenticación NTLM
<a name="configuring-smb-ntlm-authentication"></a>

Para usar la autenticación NTLM, debe proporcionar un nombre de usuario y una contraseña que le permitan acceder DataSync al servidor de archivos SMB desde o hacia el que está realizando la transferencia. El usuario puede ser un usuario local del servidor de archivos o un usuario de dominio en Microsoft Active Directory.

### Uso de la autenticación Kerberos
<a name="configuring-smb-kerberos-authentication"></a>

Para usar la autenticación Kerberos, debe proporcionar un elemento principal de Kerberos, un archivo de tabla de claves (keytab) de Kerberos y un archivo de configuración de Kerberos que le permitan acceder DataSync al servidor de archivos SMB desde o hacia el que está realizando la transferencia.

**Topics**
+ [Requisitos previos](#configuring-smb-kerberos-prerequisites)
+ [DataSync opciones de configuración para Kerberos](#configuring-smb-kerberos-options)

#### Requisitos previos
<a name="configuring-smb-kerberos-prerequisites"></a>

Debe crear un par de artefactos de Kerberos y configurar la red para que DataSync pueda acceder al servidor de archivos SMB.
+ Cree un archivo keytab de Kerberos mediante la utilidad [ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass) o [kutil](https://web.mit.edu/kerberos/krb5-1.12/doc/admin/admin_commands/ktutil.html).

  El siguiente ejemplo crea un archivo keytab mediante `ktpass`. El dominio (realm) de Kerberos (`MYDOMAIN.ORG`) que especifique debe estar en mayúsculas.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ Prepare una versión simplificada del archivo de configuración de Kerberos (`krb5.conf`). Incluya información sobre el dominio de Kerberos (realm), la ubicación de los servidores administradores del dominio, y las asignaciones de nombres de host al dominio (realm) de Kerberos.

  Verifique que el contenido `krb5.conf` tenga el formato adecuado con el uso correcto de mayúsculas y minúsculas mixtas para los dominios (realms) y los nombres de dominio del dominio (realm). Por ejemplo:

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ En la configuración de red, asegúrese de que el puerto del servidor del Centro de distribución de claves de Kerberos (KDC) esté abierto. El puerto del KDC suele ser el puerto TCP 88.

#### DataSync opciones de configuración para Kerberos
<a name="configuring-smb-kerberos-options"></a>

Al crear una ubicación SMB que utilice Kerberos, configure las siguientes opciones.


| Opción de la consola | Opción de la API | Description (Descripción) | 
| --- | --- | --- | 
|  **servidor SMB**  |  `ServerHostName`  |  El nombre de dominio del servidor de archivos SMB que montará su DataSync agente. Con Kerberos, no puede especificar la dirección IP del servidor de archivos.  | 
|  **Entidad principal de Kerberos**  |  `KerberosPrincipal`  |  Una identidad en el dominio (realm) de Kerberos que tiene permiso para acceder a los archivos, las carpetas y los metadatos de archivos en el servidor de archivos SMB. Una entidad principal de Kerberos puede tener un formato similar a `HOST/kerberosuser@MYDOMAIN.ORG`. Los nombres de las entidades principales distinguen entre mayúsculas y minúsculas.  | 
|  **Archivo keytab**  |  `KerberosKeytab`   |  Un archivo de tabla de claves de Kerberos (keytab) que incluye asignaciones entre la entidad principal de Kerberos y las claves de cifrado.  | 
|  **Archivo de configuración de Kerberos**  |  `KerberosKrbConf`  |  Un archivo `krb5.conf` que define la configuración del dominio (realm) de Kerberos.  | 
|  **Direcciones IP de DNS** (opcional)  |  `DnsIpAddresses`  |  Las IPv4 direcciones de los servidores DNS a los que pertenece su servidor de archivos SMB. Si tiene varios dominios en su entorno, al configurarlos se asegura de que DataSync se conecten al servidor de archivos SMB correcto.  | 

### Permisos necesarios
<a name="configuring-smb-permissions"></a>

La identidad que proporcione DataSync debe tener permiso para montar y acceder a los archivos, carpetas y metadatos de archivos de su servidor de archivos SMB.

Si proporciona una identidad en su Active Directory, debe ser miembro de un grupo de Active Directory con uno o ambos de los siguientes derechos de usuario (según los [metadatos que desee DataSync copiar](configure-metadata.md)):


| Derecho de usuario | Description (Descripción) | 
| --- | --- | 
|  **Restaurar archivos y directorios** (`SE_RESTORE_NAME`)  |  Permite DataSync copiar la propiedad de los objetos, los permisos, los metadatos de los archivos y las listas de acceso discrecional de NTFS ()DACLs. Este derecho de usuario se suele conceder a los miembros de los grupos **Domain Admins** y **Backup Operators** (ambos grupos predeterminados de Active Directory).  | 
|  **Administre el registro de auditoría y seguridad** () `SE_SECURITY_NAME`  |  Permite copiar DataSync las listas de control de acceso al sistema NTFS (). SACLs **Este derecho de usuario se suele conceder a los miembros del grupo de administradores de dominio.**   | 

Si desea copiar Windows ACLs y va a realizar una transferencia entre un servidor de archivos SMB y otro sistema de almacenamiento que utilice SMB (como Amazon FSx for Windows File Server o FSx ONTAP), la identidad que proporcione DataSync debe pertenecer al mismo dominio de Active Directory o tener una relación de confianza de Active Directory entre sus dominios.

### Espacios de nombres de DFS
<a name="configuring-smb-location-dfs"></a>

DataSync no admite los espacios de nombres del Sistema de archivos distribuido (DFS) de Microsoft. En su lugar, se recomienda especificar un servidor de archivos subyacente o un recurso compartido al crear la ubicación. DataSync 

## Creación de la ubicación de transferencia de SMB
<a name="create-smb-location-how-to"></a>

Antes de empezar, necesita un servidor de archivos SMB desde el que quiera transferir datos.

### Uso de la DataSync consola
<a name="create-smb-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Location type (Tipo de ubicación)**, elija **Server Message Block (SMB)**.

   Puede configurar esta ubicación como origen o destino posteriormente.

1. En el caso de **los agentes**, elija el DataSync agente que se pueda conectar a su servidor de archivos SMB.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para el **servidor SMB**, introduzca el nombre de dominio o la dirección IP del servidor de archivos SMB que montará su DataSync agente.

   Tenga en cuenta lo siguiente con esta configuración:
   + No puede especificar una dirección IP de versión 6 (IPv6).
   + Si utiliza autenticación Kerberos, debe especificar un nombre de dominio.

1. En **Nombre del recurso compartido**, introduzca el nombre del recurso compartido exportado por el servidor de archivos SMB donde DataSync se leerán o escribirán los datos.

   Puede incluir un subdirectorio en la ruta del recurso compartido (por ejemplo, `/path/to/subdirectory`). Asegúrese de que otros clientes de SMB de la red también puedan montar esta ruta. 

   Para copiar todos los datos del subdirectorio, DataSync debe poder montar el recurso compartido SMB y acceder a todos sus datos. Para obtener más información, consulte [Permisos necesarios](#configuring-smb-permissions).

1. (Opcional) Amplíe **la configuración adicional** y elija una **versión SMB** para utilizarla DataSync al acceder al servidor de archivos.

   De forma predeterminada, elige DataSync automáticamente una versión en función de la negociación con el servidor de archivos SMB. Para obtener información, consulte [Versiones compatibles de SMB](#configuring-smb-version).

1. En **Tipo de autenticación**, seleccione **NTLM** o **Kerberos**.

1. Realice una de las siguientes acciones según el tipo de autenticación:

------
#### [ NTLM ]
   + En **Usuario**, especifique el nombre del usuario que puede montar su servidor de archivos SMB y que tiene permiso para acceder a los archivos y carpetas que intervienen en la transferencia.

     Para obtener más información, consulte [Permisos necesarios](#configuring-smb-permissions).
   + En **Contraseña**, introduzca la contraseña del usuario que puede montar su servidor de archivos SMB y que tiene los permisos para acceder a los archivos y carpetas que intervienen en la transferencia.
   + (Opcional) En **Dominio**, ingrese el nombre del dominio de Windows al que pertenece su servidor de archivos SMB.

     Si tiene varios dominios en su entorno, al configurar esta configuración se asegura de que DataSync se conecte al servidor de archivos SMB correcto.

------
#### [ Kerberos ]
   + En **Entidad principal de Kerberos**, especifique una entidad principal en el dominio (realm) de Kerberos que tenga permiso para acceder a los archivos, las carpetas y los metadatos de archivos del servidor de archivos SMB.

     Una entidad principal de Kerberos puede tener un formato similar a `HOST/kerberosuser@MYDOMAIN.ORG`.

     Los nombres de las entidades principales distinguen entre mayúsculas y minúsculas. La ejecución de la DataSync tarea fallará si el principal que especifique para esta configuración no coincide exactamente con el principal que utilizó para crear el archivo keytab.
   + En **Archivo keytab**, cargue un archivo keytab que incluya las asignaciones entre la entidad principal de Kerberos y las claves de cifrado.
   + En **Archivo de configuración de Kerberos**, cargue un archivo `krb5.conf` que defina la configuración del dominio (realm) de Kerberos.
   + (Opcional) Para **las direcciones IP DNS**, especifique hasta dos IPv4 direcciones para los servidores DNS a los que pertenece el servidor de archivos SMB. 

     Si tiene varios dominios en su entorno, la configuración de este parámetro garantiza que DataSync se conecte al servidor de archivos SMB correcto.

------

1. (Opcional) Seleccione **Añadir etiqueta** para etiquetar su ubicación de SMB.

   Las *etiquetas* son pares de clave-valor que le ayudan a administrar, filtrar y buscar sus recursos de DataSync. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Mediante el AWS CLI
<a name="create-location-smb-cli"></a>

Las siguientes instrucciones describen cómo crear ubicaciones SMB con autenticación NTLM o Kerberos.

------
#### [ NTLM ]

1. Copie el siguiente comando `create-location-smb`.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. Para`--agent-arns`, especifique el DataSync agente que se puede conectar a su servidor de archivos SMB.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para`--server-hostname`, especifique el nombre de dominio o la IPv4 dirección del servidor de archivos SMB que montará el DataSync agente. 

1. Para ello`--subdirectory`, especifique el nombre del recurso compartido exportado por el servidor de archivos SMB en el que se DataSync leerán o escribirán los datos.

   Puede incluir un subdirectorio en la ruta del recurso compartido (por ejemplo, `/path/to/subdirectory`). Asegúrese de que otros clientes de SMB de la red también puedan montar esta ruta. 

   Para copiar todos los datos del subdirectorio, DataSync debe poder montar el recurso compartido SMB y acceder a todos sus datos. Para obtener más información, consulte [Permisos necesarios](#configuring-smb-permissions).

1. En `--user`, especifique un nombre de usuario que pueda montar el servidor de archivos SMB y que tenga permiso para acceder a los archivos y carpetas implicados en la transferencia.

   Para obtener más información, consulte [Permisos necesarios](#configuring-smb-permissions).

1. En `--password`, especifique la contraseña del usuario que puede montar el servidor de archivos SMB y que tiene permiso para acceder a los archivos y carpetas implicados en la transferencia.

1. (Opcional) En `--domain`, especifique el nombre del dominio de Windows al que pertenece el servidor de archivos SMB.

   Si tiene varios dominios en su entorno, al configurar esta configuración se asegura de que DataSync se conecte al servidor de archivos SMB correcto.

1. (Opcional) Añada la `--version` opción si desea DataSync utilizar una versión SMB específica. Para obtener más información, consulte [Versiones compatibles de SMB](#configuring-smb-version).

1. Ejecute el comando `create-location-smb`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. Copie el siguiente comando `create-location-smb`.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. Para`--agent-arns`, especifique el DataSync agente que se puede conectar a su servidor de archivos SMB.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para`--server-hostname`, especifique el nombre de dominio del servidor de archivos SMB que montará el DataSync agente. 

1. Para ello`--subdirectory`, especifique el nombre del recurso compartido exportado por el servidor de archivos SMB donde se DataSync leerán o escribirán los datos.

   Puede incluir un subdirectorio en la ruta del recurso compartido (por ejemplo, `/path/to/subdirectory`). Asegúrese de que otros clientes de SMB de la red también puedan montar esta ruta. 

   Para copiar todos los datos del subdirectorio, DataSync debe poder montar el recurso compartido SMB y acceder a todos sus datos. Para obtener más información, consulte [Permisos necesarios](#configuring-smb-permissions).

1. Para las opciones de Kerberos, realice lo siguiente:
   + `--kerberos-principal`: especifique una entidad principal en el dominio (realm) de Kerberos que tenga permiso para acceder a los archivos, las carpetas y los metadatos de archivos del servidor de archivos SMB.

     Una entidad principal de Kerberos puede tener un formato similar a `HOST/kerberosuser@MYDOMAIN.ORG`.

     Los nombres de las entidades principales distinguen entre mayúsculas y minúsculas. La ejecución de la DataSync tarea fallará si el principal que especifique para esta opción no coincide exactamente con el principal que utilizó para crear el archivo keytab.
   + `--kerberos-keytab`: especifique un archivo keytab que incluya las asignaciones entre la entidad principal de Kerberos y las claves de cifrado.
   + `--kerberos-krb5-conf`: especifique un archivo `krb5.conf` que defina la configuración del dominio (realm) de Kerberos.
   + (Opcional)`--dns-ip-addresses`: especifique hasta dos IPv4 direcciones para los servidores DNS a los que pertenece el servidor de archivos SMB. 

     Si tiene varios dominios en su entorno, la configuración de este parámetro garantiza que DataSync se conecte al servidor de archivos SMB correcto.

1. (Opcional) Añada la `--version` opción si desea DataSync utilizar una versión SMB específica. Para obtener más información, consulte [Versiones compatibles de SMB](#configuring-smb-version).

1. Ejecute el comando `create-location-smb`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# Configuración de AWS DataSync transferencias con un clúster HDFS
<a name="create-hdfs-location"></a>

Con él AWS DataSync, puede transferir datos entre el clúster del sistema de archivos distribuido de Hadoop (HDFS) y uno de los siguientes servicios de AWS almacenamiento mediante tareas en modo básico:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de archivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar este tipo de transferencia, cree una [ubicación](how-datasync-transfer-works.md#sync-locations) de transferencia para su clúster de HDFS. Puede usar esta ubicación como origen o destino de la transferencia.

## Proporcionar DataSync acceso a los clústeres de HDFS
<a name="accessing-hdfs"></a>

Para conectarse al clúster de HDFS, DataSync utiliza un [agente de modo básico que se implementa lo](deploy-agents.md) más cerca posible del clúster de HDFS. El DataSync agente actúa como un cliente HDFS y se comunica con el clúster NameNodes y dentro de él DataNodes .

Al iniciar una tarea de transferencia, DataSync consulta las ubicaciones NameNode de los archivos y carpetas del clúster. Si configura la ubicación de HDFS como ubicación de origen, DataSync lee los datos de archivos y carpetas del clúster y copia esos datos DataNodes en el destino. Si configura la ubicación de HDFS como ubicación de destino, DataSync graba los archivos y carpetas del origen DataNodes en el clúster.

### Autenticación
<a name="accessing-hdfs-authentication"></a>

Al conectarse a un clúster HDFS, DataSync admite la autenticación simple o la autenticación Kerberos. Para usar una autenticación simple, proporcione el nombre de usuario de un usuario con derechos de lectura y escritura en el clúster de HDFS. Para usar la autenticación Kerberos, proporcione un archivo de configuración de Kerberos, un archivo de tabla de claves de Kerberos (keytab) y un nombre de entidad principal de Kerberos. Las credenciales de la entidad principal de Kerberos deben estar en el archivo keytab proporcionado.

### Cifrado
<a name="accessing-hdfs-encryption"></a>

Cuando se utiliza la autenticación Kerberos, DataSync admite el cifrado de los datos a medida que se transmiten entre el DataSync agente y el clúster HDFS. Cifre sus datos mediante los ajustes de configuración de calidad de protección (QOP) del clúster de HDFS y especificando los ajustes de QOP al crear la ubicación de HDFS. La configuración de QOP incluye ajustes para la protección de la transferencia de datos y la protección de llamada a procedimiento remoto (RPC). 

**DataSync admite los siguientes tipos de cifrado Kerberos:**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

También se pueden configurar clústeres de HDFS para el cifrado en reposo mediante el cifrado de datos transparente (TDE). Cuando se utiliza una autenticación simple, DataSync lee y escribe en clústeres habilitados para TDE. Si va DataSync a copiar datos a un clúster compatible con TDE, primero configure las zonas de cifrado del clúster HDFS. DataSync no crea zonas de cifrado. 

## Características de HDFS no admitidas
<a name="hdfs-unsupported-features"></a>

Las siguientes capacidades de HDFS no son compatibles DataSync actualmente con:
+ Cifrado de datos transparente (TDE) cuando se utiliza la autenticación Kerberos
+ Configuración de varios NameNodes
+ Hadoop HDFS por HTTP (HttpFS)
+ Listas de control de acceso POSIX () ACLs
+ Atributos extendidos de HDFS (xattrs)
+ Clústeres HDFS que utilizan Apache HBase

## Creación de su ubicación de transferencia HDFS
<a name="create-hdfs-location-how-to"></a>

Puede utilizar su ubicación como origen o destino de la DataSync transferencia.

**Antes de empezar**: compruebe la conectividad de red entre el agente y el clúster de Hadoop de la siguiente manera:
+ Pruebe el acceso a los puertos TCP que figuran en [Requisitos de red para el almacenamiento local, autogestionado y otros tipos de almacenamiento en la nube](datasync-network.md#on-premises-network-requirements).
+ Pruebe el acceso entre su agente local y su clúster de Hadoop. Para obtener instrucciones, consulte [Verificación de la conexión de su agente con su sistema de lmacenamiento](test-agent-connections.md#self-managed-storage-connectivity).

### Uso de la DataSync consola
<a name="create-hdfs-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, elija **sistema de archivos distribuido de Hadoop (HDFS)**.

   Puede configurar esta ubicación como origen o destino posteriormente. 

1. En **Agentes**, elija el agente que se pueda conectar con su clúster de HDFS.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para **NameNode**, proporcione el nombre de dominio o la dirección IP del clúster HDFS principal NameNode.

1. En **Carpeta**, introduzca una carpeta del clúster HDFS que desee utilizar DataSync para la transferencia de datos.

   Si la ubicación de HDFS es una fuente, DataSync copia los archivos de esta carpeta en el destino. Si su ubicación es un destino, DataSync escribe los archivos en esta carpeta.

1. Para establecer el **Tamaño del bloque** o el **Factor de replicación**, seleccione **Ajustes adicionales**.

   El tamaño de bloque predeterminado es 128 MB. Los tamaños de los bloques que indique deben ser múltiplos de 512 bytes.

   El factor de replicación predeterminado es tres DataNodes cuando se transfiere al clúster HDFS. 

1. En la sección **Seguridad**, elija el **Tipo de autenticación** utilizado en el clúster de HDFS. 
   + **Simple**: para el **usuario**, especifique el nombre de usuario con los siguientes permisos en el clúster de HDFS (según su caso de uso):
     + Si planea usar esta ubicación como ubicación de origen, especifique un usuario que solo tenga permisos de lectura.
     + Si planea usar esta ubicación como ubicación de destino, especifique un usuario que solo tenga permisos de escritura.

     Opcionalmente, especifique el URI de Key Management Server (KMS) del clúster de HDFS. 
   + **Kerberos**: especifique la **entidad principal** de Kerberos con acceso al clúster de HDFS. A continuación, proporcione el **KeyTabarchivo** que contiene el principal Kerberos proporcionado. A continuación, proporcione el **archivo de configuración de Kerberos**. Por último, especifique el tipo de protección de cifrado en tránsito en las listas desplegables de **Protección RPC** y **Protección de transferencia de datos**.

1. (Opcional) Seleccione **Añadir etiqueta** para etiquetar su ubicación de HDFS.

   Las *etiquetas* son pares de clave-valor que le ayudan a administrar, filtrar y buscar sus recursos de DataSync. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Copie el siguiente comando `create-location-hdfs`.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Para el `--name-nodes` parámetro, especifique el nombre de host o la dirección IP del clúster HDFS principal NameNode y el puerto TCP en el que NameNode se escucha.

1. Para el parámetro `--authentication-type`, especifique el tipo de autenticación que se utilizará para conectarse al clúster de Hadoop. Puede especificar `SIMPLE` o `KERBEROS`.

   Si utiliza la autenticación `SIMPLE`, utilice el parámetro `--simple-user` para especificar el nombre de usuario del usuario. Si utiliza la autenticación `KERBEROS`, utilice los parámetros `--kerberos-principal`, `--kerberos-keytab` y `--kerberos-krb5-conf`. Para obtener más información, consulte [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Para el `--agent-arns` parámetro, especifique el ARN del DataSync agente que se puede conectar al clúster HDFS.

   Puede elegir más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. (Opcional) Para el `--subdirectory` parámetro, especifique una carpeta del clúster HDFS que desee utilizar DataSync para la transferencia de datos.

   Si la ubicación de HDFS es una fuente, DataSync copia los archivos de esta carpeta en el destino. Si su ubicación es un destino, DataSync escribe los archivos en esta carpeta.

1. Ejecute el comando `create-location-hdfs`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# Configurar DataSync las transferencias con un sistema de almacenamiento de objetos
<a name="create-object-location"></a>

Con AWS DataSync, puede transferir datos entre su sistema de almacenamiento de objetos y uno de los siguientes servicios de AWS almacenamiento mediante las tareas del modo básico:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de archivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar este tipo de transferencia, cree una [ubicación](how-datasync-transfer-works.md#sync-locations) para su sistema de almacenamiento de objetos. Puede usar esta ubicación como origen o destino de la transferencia. La transferencia de datos hacia o desde su almacenamiento de objetos local requiere un agente de modo básico. DataSync 

## Requisitos previos
<a name="create-object-location-prerequisites"></a>

Su sistema de almacenamiento de objetos debe ser compatible con las siguientes [operaciones de la API de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) DataSync para poder conectarse a él:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## Creación de la ubicación de transferencia de almacenamiento de objetos
<a name="create-object-location-how-to"></a>

Antes de comenzar, necesita un sistema de almacenamiento de objetos desde o hacia el que planea transferir datos.

### Uso de la DataSync consola
<a name="create-object-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Almacenamiento de objetos**.

   Puede configurar esta ubicación como origen o destino posteriormente.

1. En **Servidor**, especifique el nombre de dominio o la dirección IP del servidor de almacenamiento de objetos. 

1. En **Nombre del bucket**, especifique el nombre del bucket de almacenamiento de objetos que intervienen en la transferencia.

1. En **Carpeta**, introduzca un prefijo de objeto.

   DataSync solo copia los objetos con este prefijo. 

1. Si la transferencia requiere un agente, selecciona **Usar agentes** y, a continuación, elige el DataSync agente que se conecte al sistema de almacenamiento de objetos.

   Algunas transferencias no requieren agentes. En otros escenarios, puede resultar conveniente utilizar más de un agente. Para obtener más información, consulte [Situaciones en las que no necesita un DataSync agente](do-i-need-datasync-agent.md#when-agent-not-required) y [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para configurar la conexión al servidor de almacenamiento de objetos, expanda **Ajustes adicionales** y haga lo siguiente:

   1. En **Protocolo del servidor**, elija **HTTP** o **HTTPS**.

   1. En **Puerto del servidor**, utilice un puerto predeterminado (**80** para HTTP o **443** para HTTPS) o especifique un puerto personalizado si es necesario.

   1. En el caso del **Certificado**, si el sistema de almacenamiento de objetos utiliza una entidad de certificación (CA) privada o autofirmada, seleccione **Elegir archivo** y especifique un único `.pem` archivo con una cadena de certificados completa.

      La cadena de certificados puede incluir:
      + El certificado del sistema de almacenamiento de objetos
      + Todos los certificados intermedios (si los hay)
      + El certificado raíz de la CA firmante

      Puede concatenar sus certificados en un archivo `.pem` (que puede tener un máximo de 32 768 bytes antes de la codificación base64). El siguiente comando `cat` de ejemplo crea un archivo `object_storage_certificates.pem` que incluye tres certificados:

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. Si el servidor de almacenamiento de objetos requiere credenciales para el acceso, seleccione **Requiere credenciales** e introduzca la **clave de acceso** que utiliza para acceder al bucket. A continuación, introduzca la **clave secreta** directamente o especifique un AWS Secrets Manager secreto que contenga la clave. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   La clave de acceso y la clave secreta pueden ser un nombre de usuario y una contraseña, respectivamente.

1. (Opcional) Seleccione **Añadir etiqueta** para etiquetar su ubicación.

   Las *etiquetas* son pares de clave-valor que le ayudan a administrar, filtrar y buscar sus recursos de DataSync. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-object-cli"></a>

1. Copie el siguiente comando `create-location-object-storage`:

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. Especifique los parámetros en el comando de la siguiente manera:
   + `--server-hostname`: especifique el nombre de dominio o la dirección IP del servidor de almacenamiento de objetos.
   + `--bucket-name`: especifique el nombre del bucket del servidor de almacenamiento de objetos al que va a transferir o desde el que va a realizar la transferencia.

1. (Opcional) Añada cualquiera de los siguientes parámetros al comando:
   + `--agent-arns`— Especifique los DataSync agentes que desea conectar al servidor de almacenamiento de objetos.
   + `--server-port`: especifica el puerto en el que el servidor de almacenamiento de objetos acepta el tráfico de red entrante (por ejemplo, el puerto `443`).
   + `--server-protocol`: especifica el protocolo (`HTTP` o`HTTPS`) que usa el servidor de almacenamiento de objetos para comunicarse.
   + `--access-key`: especifica la clave de acceso (por ejemplo, un nombre de usuario) si se requieren credenciales para autenticarse en el servidor de almacenamiento de objetos.
   + `--secret-key`: especifica la clave secreta (por ejemplo, una contraseña) si se requieren credenciales para autenticarse en el servidor de almacenamiento de objetos.

     También puede proporcionar parámetros adicionales para proteger las claves mediante AWS Secrets Manager. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
   + `--server-certificate`— Especifica una cadena de certificados DataSync para autenticarse en el sistema de almacenamiento de objetos si el sistema utiliza una entidad de certificación (CA) privada o autofirmada. Debe especificar un único archivo `.pem` con una cadena de certificados completa (por ejemplo, `file:///home/user/.ssh/object_storage_certificates.pem`).

     La cadena de certificados puede incluir:
     + El certificado del sistema de almacenamiento de objetos
     + Todos los certificados intermedios (si los hay)
     + El certificado raíz de la CA firmante

     Puede concatenar sus certificados en un archivo `.pem` (que puede tener un máximo de 32 768 bytes antes de la codificación base64). El siguiente comando `cat` de ejemplo crea un archivo `object_storage_certificates.pem` que incluye tres certificados:

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory`: especifica el prefijo de objeto del servidor de almacenamiento de objetos.

     DataSync solo copia los objetos con este prefijo. 
   + `--tags`: especifica el par clave-valor que representa una etiqueta que desea agregar al recurso.

     Las etiquetas le ayudan a administrar, filtrar y buscar sus recursos. Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Ejecute el comando `create-location-object-storage`.

   Recibirá una respuesta que le mostrará el ARN de ubicación que acaba de crear.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# Transferir al AWS almacenamiento o desde él con AWS DataSync
<a name="transferring-aws-storage"></a>

Con AWS DataSync, puede transferir datos hacia o desde varios servicios de AWS almacenamiento. Para obtener más información, consulta [¿Dónde puedo transferir mis datos DataSync?](working-with-locations.md)

**Topics**
+ [Configuración de AWS DataSync transferencias con Amazon S3](create-s3-location.md)
+ [Configuración de AWS DataSync transferencias con Amazon EFS](create-efs-location.md)
+ [Configurar las transferencias con Windows FSx File Server](create-fsx-location.md)
+ [Configurar DataSync las transferencias con FSx for Lustre](create-lustre-location.md)
+ [Configuración de DataSync transferencias con Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Configuración de transferencias con Amazon FSx para NetApp ONTAP](create-ontap-location.md)

# Configuración de AWS DataSync transferencias con Amazon S3
<a name="create-s3-location"></a>

Para transferir datos a o desde su bucket de Amazon S3, debe crear una *ubicación* de AWS DataSync transferencia. DataSync puede usar esta ubicación como fuente o destino para transferir datos.

## Proporcionar DataSync acceso a los depósitos de S3
<a name="create-s3-location-access"></a>

DataSync necesita acceder al depósito de S3 al que se está transfiriendo o desde el que se está transfiriendo. Para ello, debe crear un rol AWS Identity and Access Management (de IAM) que DataSync asuma los permisos necesarios para acceder al bucket. A continuación, debe especificar este rol al [crear su ubicación de Amazon S3 para DataSync](#create-s3-location-how-to).

**Contents**
+ [Permisos necesarios](#create-s3-location-required-permissions)
+ [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](#create-role-manually)
+ [Acceso a buckets de S3 mediante el cifrado del servidor](#create-s3-location-encryption)
+ [Acceso a buckets S3 restringidos](#denying-s3-access)
+ [Acceso a los buckets de S3 con acceso restringido a la VPC](#create-s3-location-restricted-vpc)

### Permisos necesarios
<a name="create-s3-location-required-permissions"></a>

Los permisos que necesita su función de IAM pueden depender de si el bucket es una ubicación de DataSync origen o de destino. Amazon S3 en Outposts requiere un conjunto de permisos diferente.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3
<a name="create-role-manually"></a>

Al [crear su ubicación de Amazon S3](#create-s3-location-how-to) en la consola, DataSync puede crear y asumir automáticamente una función de IAM que normalmente tenga los permisos adecuados para acceder a su bucket de S3.

En algunas situaciones, es posible que tengas que crear este rol manualmente (por ejemplo, accediendo a los buckets con niveles de seguridad adicionales o realizando una transferencia desde o hacia un bucket situado en otro Cuentas de AWS).

#### Crear manualmente un rol de IAM para DataSync
<a name="create-role-manually-steps"></a>

1. Abra la consola de IAM en [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. En el panel de navegación situado a la izquierda, en **Administración de acceso**, elija **Roles** y luego **Crear rol**.

1. En la página **Seleccionar entidad de confianza**, en **Tipo de entidad de confianza**, elija **Servicio de AWS**.

1. **En Caso de uso**, elija una opción **DataSync**en la lista desplegable y seleccione. **DataSync** Elija **Siguiente**.

1. En la página **Agregar permisos**, elija **Siguiente**. Introduzca un nombre de rol y elija **Crear rol**.

1. En la página **Roles**, busque el rol que acaba de crear y seleccione el nombre.

1. En la página de detalles del rol, elija la pestaña **Permisos**. Elija **Agregar permisos** y luego **Crear política insertada**.

1. Seleccione la pestaña **JSON** y [añada los permisos necesarios](#create-s3-location-required-permissions) para acceder a su bucket en el editor de políticas.

1. Elija **Siguiente**. Escriba un nombre para la política y elija **Crear política**.

1. (Recomendado) Para evitar el [problema del suplente confuso entre servicios](cross-service-confused-deputy-prevention.md), haga lo siguiente:

   1. En la página de detalles del rol, elija la pestaña **Relaciones de confianza**. Elija **Editar la política de confianza**.

   1. Actualice la política de confianza mediante el siguiente ejemplo, que incluye las claves de contexto de condición global de `aws:SourceArn` y `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Elija **Actualizar política**.

Puede especificar este rol al crear su ubicación de Amazon S3.

### Acceso a buckets de S3 mediante el cifrado del servidor
<a name="create-s3-location-encryption"></a>

DataSync puede transferir datos a o desde depósitos de [S3 que utilizan cifrado del lado del servidor](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html). El tipo de clave de cifrado que utiliza un depósito puede determinar si se necesita una política personalizada que permita acceder DataSync al depósito.

Cuando lo utilices DataSync con buckets de S3 que utilizan cifrado del lado del servidor, recuerda lo siguiente:
+ **Si su depósito de S3 está cifrado con una clave AWS gestionada**, DataSync podrá acceder a los objetos del depósito de forma predeterminada si todos sus recursos se encuentran en los mismos recursos. Cuenta de AWS
+ **Si el bucket de S3 está cifrado con una clave gestionada por el cliente AWS Key Management Service (AWS KMS) (SSE-KMS)**, la [política de la clave](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) debe incluir la función de IAM que se DataSync utiliza para acceder al bucket.
+ **Si el bucket de S3 está cifrado con una clave SSE-KMS gestionada por el cliente y se encuentra en otra Cuenta de AWS**, DataSync necesitará permiso para acceder al bucket de la otra. Cuenta de AWS Para hacerlo, haga lo siguiente:
  + En la función de IAM que DataSync utilice, debe especificar la clave SSE-KMS del depósito multicuenta mediante el nombre de recurso de Amazon (ARN) completo de la clave. Se trata del mismo ARN de clave que se utiliza para configurar el [cifrado predeterminado](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) del bucket. En esta situación, no puede especificar el ID de la clave, el nombre de alias o el ARN del alias.

    El siguiente es un ejemplo de clave de ARN:

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    Para obtener más información sobre cómo especificar las claves de KMS en las declaraciones de política de IAM, consulte la *[Guía para desarrolladores de AWS Key Management Service](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*.
  + [En la política de claves de SSE-KMS, especifique la función de IAM que utiliza. DataSync](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html)
+ **Si el bucket de S3 está cifrado con una AWS KMS clave gestionada por el cliente (DSSE-KMS) para el cifrado de doble capa en el servidor**, la [política de la clave debe incluir la función de](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) IAM que se utiliza para acceder al bucket. DataSync (Tenga en cuenta que DSSE-KMS no admite las [claves de bucket de S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html), lo que puede reducir los costes de las solicitudes). AWS KMS 
+ **Si su depósito de S3 está cifrado con una clave de cifrado proporcionada por el cliente (SSE-C)**, no podrá acceder a este depósito. DataSync

#### Ejemplo: política de claves SSE-KMS para DataSync
<a name="create-s3-location-encryption-example"></a>

El siguiente ejemplo es una [política de claves](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) para una clave SSE-KMS administrada por el cliente. La política está asociada a un bucket de S3 que utiliza cifrado del servidor.

Si quiere usar este ejemplo, sustituya estos valores por los suyos:
+ *account-id*— Tu. Cuenta de AWS
+ *admin-role-name*— El nombre del rol de IAM que puede administrar la clave.
+ *datasync-role-name*— El nombre de la función de IAM que permite DataSync utilizar la clave al acceder al bucket.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Acceso a buckets S3 restringidos
<a name="denying-s3-access"></a>

Si necesita realizar una transferencia hacia o desde un bucket de S3 que normalmente deniega todo acceso, puede editar la política del bucket para que solo DataSync pueda acceder al bucket durante la transferencia.

#### Ejemplo: permitir el acceso en función de los roles de IAM
<a name="denying-s3-access-example"></a>

1. Copie la siguiente política de bucket de S3.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. En la política, sustituya los valores siguientes:
   + `amzn-s3-demo-bucket`: especifique el nombre del bucket de S3 restringido.
   + `datasync-iam-role-id`— Especifique el ID del [rol de IAM que se DataSync utiliza](#create-s3-location-access) para acceder al bucket.

     Ejecute el siguiente AWS CLI comando para obtener el ID del rol de IAM:

     `aws iam get-role --role-name datasync-iam-role-name`

     En el resultado, busque el valor `RoleId`:

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Especifique el ID del rol de IAM que utilizará para crear la DataSync ubicación del bucket.

     Ejecute el siguiente comando para obtener la ID del rol de IAM:

     `aws iam get-role --role-name your-iam-role-name`

     En el resultado, busque el valor `RoleId`:

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Añada esta política](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) a la política de su bucket de S3.

1. Cuando termines de usar DataSync el segmento restringido, elimina las condiciones para ambos roles de IAM de la política del segmento.

### Acceso a los buckets de S3 con acceso restringido a la VPC
<a name="create-s3-location-restricted-vpc"></a>

Un bucket de Amazon S3 que [limita el acceso a puntos de enlace específicos de la nube privada virtual (VPC) o VPCs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) que impide la transferencia hacia o DataSync desde ese bucket. Para habilitar las transferencias en estas situaciones, puede actualizar la política del bucket para incluir la función de IAM que [especifique](#create-s3-location-how-to) en su ubicación. DataSync 

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

En la política de bucket de S3, puede especificar el nombre de recurso de Amazon (ARN) de la función de IAM de su DataSync ubicación.

El siguiente ejemplo es una política de bucket de S3 que deniega el acceso a todas las personas excepto a dos VPCs (`vpc-1234567890abcdef0`y`vpc-abcdef01234567890`). Sin embargo, la política también incluye la clave [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition y [aws: PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) condition, que permiten que el ARN de un rol de DataSync ubicación acceda al bucket.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

En la política de bucket de S3, puede especificar una etiqueta asociada a la función de IAM de su DataSync ubicación.

El siguiente ejemplo es una política de bucket de S3 que deniega el acceso a todas las personas excepto a dos VPCs (`vpc-1234567890abcdef0`y`vpc-abcdef01234567890`). Sin embargo, la política también incluye la clave [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition y [aws: PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition, que permiten al principal disponer de la clave `exclude-from-vpc-restriction` y el valor de la etiqueta`true`. Puedes probar un enfoque similar en tu política de segmentos especificando una etiqueta asociada a tu rol de DataSync ubicación.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3
<a name="using-storage-classes"></a>

Cuando Amazon S3 es su ubicación de destino, DataSync puede transferir sus datos directamente a una [clase de almacenamiento de Amazon S3](https://aws.amazon.com/s3/storage-classes/) específica.

Algunas clases de almacenamiento tienen comportamientos que pueden afectar los costos de almacenamiento de Amazon S3. Cuando se utilizan clases de almacenamiento que pueden generar cargos adicionales por sobrescribir, eliminar o recuperar objetos, los cambios en los datos o metadatos de los objetos conllevan dichos cargos. Para obtener más información, consulte [Precios de Amazon S3](https://aws.amazon.com/s3/pricing/).

**importante**  
Los objetos nuevos transferidos a una ubicación de destino de Amazon S3 se almacenan con la clase de almacenamiento que especificó al [crear la ubicación](#create-s3-location-how-to).  
De forma predeterminada, DataSync conserva la clase de almacenamiento de los objetos existentes en la ubicación de destino, a menos que configure la tarea para [transferir todos los datos](configure-metadata.md#task-option-transfer-mode). En esas situaciones, la clase de almacenamiento que especifique al crear la ubicación se utiliza para todos los objetos.


| Clase de almacenamiento de Amazon S3 | Consideraciones | 
| --- | --- | 
| S3 Standard | Elija Estándar de S3 para almacenar los archivos de acceso frecuente de forma redundante en varias zonas de disponibilidad que se encuentran distanciadas geográficamente. Este es el valor predeterminado si no especifica ninguna clase de almacenamiento.  | 
| S3 Intelligent-Tiering |  Elija S3 Intelligent-Tiering para optimizar los costos de almacenamiento moviendo automáticamente los datos a la capa de acceso de almacenamiento más rentable. Se paga un cargo mensual por objeto almacenado en la clase de almacenamiento S3 Intelligent-Tiering. Este cargo de Amazon S3 incluye la supervisión de los patrones de acceso a los datos y el movimiento de objetos entre niveles.  | 
| S3 Standard-IA |  Elija S3 Standard-IA para almacenar los objetos a los que se accede con poca frecuencia de forma redundante en varias zonas de disponibilidad que se encuentran distanciadas geográficamente.  Los objetos almacenados en la clase de almacenamiento S3 Standard-IA pueden incurrir en cargos adicionales de sobreescritura, eliminación o recuperación. Considere la frecuencia con la que estos objetos cambian, el tiempo que tiene previsto conservar estos objetos y la frecuencia con la que necesita obtener acceso a ellos. Los cambios en los datos o metadatos del objeto equivalen a eliminar un objeto y crear uno nuevo para reemplazarlo. Esto se traduce en cargos adicionales por los objetos almacenados en la clase de almacenamiento S3 Standard-IA. Los objetos de menos de 128 KB son menores que el cargo de capacidad mínimo por objeto en la clase de almacenamiento S3 Standard-IA. Estos objetos se almacenan en la clase de almacenamiento S3 Standard.  | 
| S3 One Zone-IA  |  Elija S3 One Zone-IA para almacenar los objetos a los que se accede con poca frecuencia en una única zona de disponibilidad.  Los objetos almacenados en la clase de almacenamiento S3 One Zone-IA pueden incurrir en cargos adicionales de sobreescritura, eliminación o recuperación. Considere la frecuencia con la que estos objetos cambian, el tiempo que tiene previsto conservar estos objetos y la frecuencia con la que necesita obtener acceso a ellos. Los cambios en los datos o metadatos del objeto equivalen a eliminar un objeto y crear uno nuevo para reemplazarlo. Esto se traduce en cargos adicionales por los objetos almacenados en la clase de almacenamiento S3 One Zone-IA. Los objetos de menos de 128 KB son menores que el cargo de capacidad mínimo por objeto en la clase de almacenamiento S3 One Zone-IA. Estos objetos se almacenan en la clase de almacenamiento S3 Standard.  | 
| S3 Glacier Instant Retrieval |  Elija S3 Glacier Instant Retrieval para archivar los objetos a los que se accede con poca frecuencia, pero que requieren recuperación en milisegundos. Los datos almacenados en la clase de almacenamiento S3 Glacier Instant Retrieval ofrecen un ahorro de costos en comparación con la clase de almacenamiento S3 Standard-IA, con la misma latencia y rendimiento. Aunque S3 Glacier Instant Retrieval tiene costos de acceso a datos más altos que S3 Standard-IA. Los objetos almacenados en S3 Glacier Instant Retrieval pueden incurrir en cargos adicionales de sobreescritura, eliminación o recuperación. Considere la frecuencia con la que estos objetos cambian, el tiempo que tiene previsto conservar estos objetos y la frecuencia con la que necesita obtener acceso a ellos. Los cambios en los datos o metadatos del objeto equivalen a eliminar un objeto y crear uno nuevo para reemplazarlo. Esto se traduce en cargos adicionales por los objetos almacenados en la clase de almacenamiento S3 Glacier Instant Retrieval. Los objetos de menos de 128 KB son menores que el cargo de capacidad mínimo por objeto en la clase de almacenamiento S3 Glacier Instant Retrieval. Estos objetos se almacenan en la clase de almacenamiento S3 Standard.  | 
| S3 Glacier Flexible Retrieval | Elija S3 Glacier Flexible Retrieval para ver más archivos activos.Los objetos almacenados en S3 Glacier Flexible Retrieval pueden incurrir en cargos adicionales de sobreescritura, eliminación o recuperación. Considere la frecuencia con la que estos objetos cambian, el tiempo que tiene previsto conservar estos objetos y la frecuencia con la que necesita obtener acceso a ellos. Los cambios en los datos o metadatos del objeto equivalen a eliminar un objeto y crear uno nuevo para reemplazarlo. Esto se traduce en cargos adicionales por los objetos almacenados en la clase de almacenamiento S3 Glacier Flexible Retrieval.La clase de almacenamiento S3 Glacier Flexible Retrieval requiere 40 KB de metadatos adicionales por cada objeto archivado. DataSync coloca los objetos de menos de 40 KB en la clase de almacenamiento S3 Standard. Debe restaurar los objetos archivados en esta clase de almacenamiento para DataSync poder leerlos. Para obtener más información, consulte [Trabajar con objetos archivados](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) en la Guía del usuario de Amazon S3.Cuando utilice S3 Glacier Flexible Retrieval, elija la opción de tarea **Verificar solo los datos transferidos** para comparar las sumas de comprobación de datos y metadatos al final de la transferencia. No se puede usar la opción **Verificar todos los datos del destino** en esta clase de almacenamiento, ya que requiere recuperar todos los objetos actuales del destino. | 
| S3 Glacier Deep Archive |  Elija S3 Glacier Deep Archive para archivar los objetos para la retención de datos y la conservación digital a largo plazo donde se accede a los datos una o dos veces al año. Los objetos almacenados en S3 Glacier Deep Archive pueden incurrir en cargos adicionales de sobreescritura, eliminación o recuperación. Considere la frecuencia con la que estos objetos cambian, el tiempo que tiene previsto conservar estos objetos y la frecuencia con la que necesita obtener acceso a ellos. Los cambios en los datos o metadatos del objeto equivalen a eliminar un objeto y crear uno nuevo para reemplazarlo. Esto se traduce en cargos adicionales por los objetos almacenados en la clase de almacenamiento S3 Glacier Deep Archive. La clase de almacenamiento S3 Glacier Deep Archive requiere 40 KB de metadatos adicionales por cada objeto archivado. DataSync coloca los objetos de menos de 40 KB en la clase de almacenamiento S3 Standard. Debe restaurar los objetos archivados en esta clase de almacenamiento para DataSync poder leerlos. Para obtener más información, consulte [Trabajar con objetos archivados](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) en la *Guía del usuario de Amazon S3*. Cuando utilice S3 Glacier Deep Archive, elija la opción de tarea **Verificar solo los datos transferidos** para comparar las sumas de comprobación de datos y metadatos al final de la transferencia. No se puede usar la opción **Verificar todos los datos del destino** en esta clase de almacenamiento, ya que requiere recuperar todos los objetos actuales del destino.  | 
|  S3 Outposts  |  La clase de almacenamiento para Amazon S3 en Outposts.  | 

## Evaluar los costos de las solicitudes de S3 al usar DataSync
<a name="create-s3-location-s3-requests"></a>

Con las ubicaciones de Amazon S3, incurrirá en costos relacionados con las solicitudes de API de S3 realizadas por DataSync. Esta sección puede ayudarle a entender cómo se DataSync utilizan estas solicitudes y cómo pueden afectar a sus [costes de Amazon S3](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Solicitudes de S3 realizadas por DataSync](#create-s3-location-s3-requests-made)
+ [Consideraciones sobre costos](#create-s3-location-s3-requests-cost)

### Solicitudes de S3 realizadas por DataSync
<a name="create-s3-location-s3-requests-made"></a>

En la siguiente tabla se describen las solicitudes de S3 que se DataSync pueden realizar al copiar datos a o desde una ubicación de Amazon S3.


| Solicitud de S3 | ¿Cómo lo DataSync usa | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync hace al menos una `LIST` solicitud para cada objeto que termine en una barra diagonal (`/`) para enumerar los objetos que comienzan con ese prefijo. Esta solicitud se invoca durante la fase de [preparación](run-task.md#understand-task-execution-statuses) de una tarea.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync realiza `HEAD` solicitudes para recuperar los metadatos de los objetos durante las fases de [preparación](run-task.md#understand-task-execution-statuses) y [verificación](run-task.md#understand-task-execution-statuses) de una tarea. Puede haber varias `HEAD` solicitudes por objeto en función de cómo desee DataSync [verificar la integridad de los datos que transfiere](configure-data-verification-options.md). | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync realiza `GET` solicitudes para leer datos de un objeto durante la fase de [transferencia](run-task.md#understand-task-execution-statuses) de una tarea. Puede haber varias solicitudes `GET` de objetos grandes.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Si configuras la tarea para [copiar etiquetas de objetos](configure-metadata.md), DataSync realiza estas `GET` solicitudes para comprobar si hay etiquetas de objetos durante las fases de [preparación](run-task.md#understand-task-execution-statuses) y [transferencia](run-task.md#understand-task-execution-statuses) de la tarea.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync realiza `PUT` solicitudes para crear objetos y prefijos en un bucket de S3 de destino durante la fase de [transferencia](run-task.md#understand-task-execution-statuses) de una tarea. Como DataSync utiliza la [función de carga multiparte de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html), puede haber varias `PUT` solicitudes de objetos grandes. Para minimizar los costos de almacenamiento, le recomendamos que utilice una [configuración de ciclo de vida]() para detener las cargas incompletas de varias partes.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | Si sus objetos de origen tienen etiquetas y usted configura la tarea para [copiar las etiquetas de los objetos](configure-metadata.md), DataSync realiza estas `PUT` solicitudes al [transferirlas](run-task.md#understand-task-execution-statuses). | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync `COPY`solicita crear una copia de un objeto solo si los metadatos de ese objeto cambian. Esto puede suceder si originalmente copió los datos al bucket de S3 con otro servicio o herramienta que no transfirió sus metadatos.  | 

### Consideraciones sobre costos
<a name="create-s3-location-s3-requests-cost"></a>

DataSync realiza solicitudes de S3 en depósitos de S3 cada vez que ejecuta la tarea. Esto puede provocar que los cargos se acumulen en determinadas situaciones. Por ejemplo:
+ Con frecuencia transfiere objetos desde o hacia un bucket de S3.
+ Puede que no transfiera muchos datos, pero su bucket de S3 contiene muchos objetos. En este escenario, los cargos seguirán siendo elevados, ya DataSync que realiza solicitudes de S3 en cada uno de los objetos del bucket.
+ Estás realizando transferencias entre depósitos de S3, al igual que DataSync las solicitudes de S3 en el origen y en el destino.

Para ayudar a minimizar los costos relacionados con las solicitudes de S3 DataSync, tenga en cuenta lo siguiente:

**Topics**
+ [¿Qué clases de almacenamiento de S3 utilizo?](#create-s3-location-s3-requests-storage-classes)
+ [¿Con qué frecuencia debo transferir mis datos?](#create-s3-location-s3-requests-recurring-transfers)

#### ¿Qué clases de almacenamiento de S3 utilizo?
<a name="create-s3-location-s3-requests-storage-classes"></a>

Los cargos por solicitud de S3 pueden variar en función de la clase de almacenamiento de Amazon S3 que estén utilizando sus objetos, en particular en el caso de las clases que archivan objetos (como S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive).

A continuación, se muestran algunos escenarios en los que las clases de almacenamiento pueden afectar a los cargos por solicitudes de S3 cuando se utilizan DataSync:
+ Cada vez que ejecuta una tarea, DataSync realiza `HEAD` solicitudes para recuperar los metadatos del objeto. Estas solicitudes generan cargos incluso si no se mueve ningún objeto. El impacto de estas solicitudes en tu factura depende de la clase de almacenamiento que utilicen tus objetos y del número de objetos que DataSync escanees.
+ Si ha trasladado objetos a la clase de almacenamiento S3 Glacier Instant Retrieval (directamente o mediante una configuración del ciclo de vida de un bucket), las solicitudes en los objetos de esta clase son más caras que las de los objetos en otras clases de almacenamiento.
+ Si configura la DataSync tarea para [verificar que las ubicaciones de origen y destino estén completamente sincronizadas](configure-data-verification-options.md), habrá `GET` solicitudes para cada objeto en todas las clases de almacenamiento (excepto S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive).
+ Además de las solicitudes `GET`, se incurre en costos de recuperación de datos para los objetos de la clase de almacenamiento S3 Standard-IA, S3 One Zone-IA o S3 Glacier Instant Retrieval.

Para obtener más información, consulte [Precios de Amazon S3](https://aws.amazon.com/s3/pricing/).

#### ¿Con qué frecuencia debo transferir mis datos?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Si necesita mover datos de forma periódica, piense en un [cronograma](task-scheduling.md) que no ejecute más tareas de las que necesita.

También puede considerar limitar el alcance de sus transferencias. Por ejemplo, puede configurarlo DataSync para centrarse en los objetos con determinados prefijos o [filtrar los datos que](filtering.md) se transfieren. Estas opciones pueden ayudar a reducir la cantidad de solicitudes de S3 que se realizan cada vez que ejecuta la DataSync tarea.

## Consideraciones de objetos con las transferencias de Amazon S3
<a name="create-s3-location-considerations"></a>
+ Si va a realizar una transferencia desde un bucket de S3, utilice la [Lente de almacenamiento de S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html) para determinar cuántos objetos va a mover.
+ Al realizar transferencias entre depósitos de S3, le recomendamos que utilice el [modo de tarea mejorado](choosing-task-mode.md), ya que no está sujeto a [las cuotas](datasync-limits.md) de DataSync tareas.
+ DataSync es posible que no transfiera un objeto cuyo nombre contenga caracteres no estándares. Para obtener más información, consulte [object key naming guidelines](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) en la *Guía del usuario de Amazon S3*.
+ Cuando lo utilice DataSync con un bucket de S3 que utilice el control de [versiones](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html), recuerde lo siguiente:
  + Al transferirlo a un bucket de S3, DataSync crea una nueva versión de un objeto si ese objeto se modifica en el origen. Esto se traduce en cargos adicionales.
  + Un objeto tiene una versión diferente IDs en los buckets de origen y destino.
  + Solo se transfiere desde el bucket de origen la versión más reciente de cada objeto. Las versiones anteriores no se copian en el destino.
+ Tras transferir inicialmente los datos de un bucket de S3 a un sistema de archivos (por ejemplo, NFS o Amazon FSx), las siguientes ejecuciones de la misma DataSync tarea no incluirán objetos que se hayan modificado pero que tengan el mismo tamaño que tenían durante la primera transferencia.

## Creación de la ubicación de transferencia para un bucket de uso general de Amazon S3
<a name="create-s3-location-how-to"></a>

Para crear una ubicación para la transferencia, necesita un bucket de uso general de S3 existente. Si no dispone de uno, consulte la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**importante**  
Antes de crear su ubicación, asegúrese de leer las siguientes secciones:  
[Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](#using-storage-classes)
[Evaluar los costos de las solicitudes de S3 al usar DataSync](#create-s3-location-s3-requests)

### Uso de la consola DataSync
<a name="create-s3-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Amazon S3** y, a continuación, seleccione **Bucket de uso general**.

1. En **URI de S3**, introduzca o seleccione el bucket y el prefijo que desea utilizar para la ubicación.
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o `/../` patrones. Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. En **clase de almacenamiento de S3 cuando se utiliza como destino**, seleccione la clase de almacenamiento que desea que utilicen los objetos cuando Amazon S3 sea el destino de la transferencia.

   Para obtener más información, consulte [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](#using-storage-classes).

1. En **Rol de IAM**, realice una de las operaciones siguientes:
   + Elija **Generar automáticamente** DataSync para crear automáticamente un rol de IAM con los permisos necesarios para acceder al bucket de S3.

     Si DataSync anteriormente creó un rol de IAM para este bucket de S3, ese rol se elige de forma predeterminada.
   + Elija un rol de IAM personalizado que haya creado. Para obtener más información, consulte [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](#create-role-manually).

1. (Opcional) Seleccione **Agregar nueva etiqueta** para etiquetar la ubicación de Amazon S3.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus recursos. Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Seleccione **Crear ubicación**.

### Utilización del AWS CLI
<a name="create-location-s3-cli"></a>

1. Copie el siguiente comando `create-location-s3`:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Para `--s3-bucket-arn`, especifique el ARN del bucket de S3 que desea usar como ubicación.

1. Para `--s3-storage-class`, especifique la clase de almacenamiento que desea que utilicen los objetos cuando Amazon S3 sea un destino de transferencia.

1. Para`--s3-config`, especifique el ARN del rol de IAM que DataSync necesita acceder a su bucket.

   Para obtener más información, consulte [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](#create-role-manually).

1. Para `--subdirectory` ello, especifique un prefijo en el depósito de S3 que DataSync lea o escriba en él (en función de si el depósito es una ubicación de origen o de destino).
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o patrones. `/../` Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Ejecute el comando `create-location-s3`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Puede utilizar esta ubicación como origen o destino de la tarea. DataSync 

## Creación de la ubicación de transferencia para un bucket de S3 en Outposts
<a name="create-s3-location-outposts-how-to"></a>

Para crear una ubicación para la transferencia, necesita un bucket de Amazon S3 en Outposts existente. Si no dispone de uno, consulte la [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

También necesita un DataSync agente. Para obtener más información, consulte [Despliegue del agente de modo básico en AWS Outposts](deploy-agents.md#outposts-agent).

Al realizar una transferencia desde un prefijo de bucket de S3 en Outposts que contiene un conjunto de datos grande (como cientos de miles o millones de objetos), es posible que se agote el tiempo de espera de tu DataSync tarea. Para evitarlo, considera la posibilidad de usar un [DataSync manifiesto](transferring-with-manifest.md), que te permita especificar los objetos exactos que necesitas transferir.

### Uso de la DataSync consola
<a name="create-s3-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Amazon S3** y, a continuación, seleccione **Bucket de Outposts**.

1. En **Bucket de S3**, seleccione un punto de acceso de Amazon S3 que pueda acceder al bucket de S3 en Outposts. 

   Para obtener más información, consulte la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. En **clase de almacenamiento de S3 cuando se utiliza como destino**, seleccione la clase de almacenamiento que desea que utilicen los objetos cuando Amazon S3 sea el destino de la transferencia.

   Para obtener más información, consulte[Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](#using-storage-classes). DataSync de forma predeterminada, utiliza la clase de almacenamiento S3 Outposts para Amazon S3 en Outposts.

1. En el caso de los **agentes**, especifique el nombre de recurso de Amazon (ARN) del DataSync agente en su Outpost.

1. En **Carpeta**, introduzca un prefijo en el bucket de S3 que DataSync lea o escriba en (dependiendo de si el bucket es una ubicación de origen o de destino).
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o patrones. `/../` Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. En **Rol de IAM**, realice una de las operaciones siguientes:
   + Elija **Generar automáticamente** DataSync para crear automáticamente un rol de IAM con los permisos necesarios para acceder al bucket de S3.

     Si DataSync anteriormente creó un rol de IAM para este bucket de S3, ese rol se elige de forma predeterminada.
   + Elija un rol de IAM personalizado que haya creado. Para obtener más información, consulte [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](#create-role-manually).

1. (Opcional) Seleccione **Agregar nueva etiqueta** para etiquetar la ubicación de Amazon S3.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus recursos. Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Seleccione **Crear ubicación**.

### Utilización del AWS CLI
<a name="create-location-s3-cli"></a>

1. Copie el siguiente comando `create-location-s3`:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. En `--s3-bucket-arn`, especifique el ARN de un punto de acceso de Amazon S3 que pueda acceder al bucket de S3 en Outposts.

   Para obtener más información, consulte la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Para `--s3-storage-class`, especifique la clase de almacenamiento que desea que utilicen los objetos cuando Amazon S3 sea un destino de transferencia.

   Para obtener más información, consulte[Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](#using-storage-classes). DataSync de forma predeterminada, usa la clase de almacenamiento S3 Outposts para S3 en Outposts.

1. Para`--s3-config`, especifique el ARN del rol de IAM que DataSync necesita acceder a su bucket.

   Para obtener más información, consulte [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](#create-role-manually).

1. Para `--subdirectory` ello, especifique un prefijo en el depósito de S3 que DataSync lea o escriba en él (en función de si el depósito es una ubicación de origen o de destino).
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o patrones. `/../` Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Para`--agent-arns`, especifique el ARN del DataSync agente en su puesto de avanzada.

1. Ejecute el comando `create-location-s3`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Puede usar esta ubicación como origen o destino para su DataSync tarea.

## Amazon S3 transfiere entre Cuentas de AWS
<a name="create-s3-location-cross-transfers"></a>

Con DataSync él, puede mover datos hacia o desde depósitos de S3 de [diferentes Cuentas de AWS](working-with-locations.md#working-with-locations-across-accounts) formas. Para obtener más información, consulte los siguientes tutoriales:
+ [Transferencia de datos desde el almacenamiento local a Amazon S3 a través de Cuentas de AWS](s3-cross-account-transfer.md)
+ [Transferencia de datos de Amazon S3 a Amazon S3 a través de Cuentas de AWS](tutorial_s3-s3-cross-account-transfer.md)

## Amazon S3 transfiere entre operaciones comerciales y AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

De forma predeterminada, DataSync no se transfiere entre depósitos de S3 en paquetes comerciales y AWS GovCloud (US) Regions. Sin embargo, puede seguir configurando este tipo de transferencia creando una ubicación de almacenamiento de objetos para uno de los buckets de S3 de su transferencia. Puede realizar este tipo de transferencia con o sin un agente. Si utiliza un agente, la tarea se debe configurar en modo **básico**. Para realizar la transferencia sin un agente, debe utilizar el modo **mejorado**.

**Antes de empezar**: asegúrese de entender las implicaciones financieras de la transferencia entre regiones. Para más información, consulte [Precios de AWS DataSync](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Proporciona DataSync acceso al depósito de tu ubicación de almacenamiento de objetos](#create-s3-location-govcloud-iam)
+ [Crear su DataSync agente (opcional)](#create-s3-location-govcloud-create-agent)
+ [Creación de una ubicación de almacenamiento de objetos para su bucket de S3](#create-s3-location-govcloud-how-to)

### Proporciona DataSync acceso al depósito de tu ubicación de almacenamiento de objetos
<a name="create-s3-location-govcloud-iam"></a>

Al crear la ubicación de almacenamiento de objetos para esta transferencia, debe proporcionar DataSync las credenciales de un usuario de IAM con permiso para acceder al depósito de S3 de la ubicación. Para obtener más información, consulte [Permisos necesarios](#create-s3-location-required-permissions).

**aviso**  
Los usuarios de IAM tienen credenciales de larga duración, lo que supone un riesgo de seguridad. Para ayudar a mitigar este riesgo, le recomendamos que brinde a estos usuarios únicamente los permisos que necesitan para realizar la tarea y que los elimine cuando ya no los necesiten.

### Crear su DataSync agente (opcional)
<a name="create-s3-location-govcloud-create-agent"></a>

Si desea ejecutar la transferencia mediante el **modo básico**, necesita utilizar un agente. Como está realizando una transferencia entre una instancia comercial y AWS GovCloud (US) Region, usted implementa su DataSync agente como una instancia de Amazon EC2 en una de las regiones. Recomendamos que su agente utilice un punto de conexión de servicio de VPC para evitar cargos por transferencia de datos a la Internet pública. Para obtener más información, consulte [Precios de transferencia de datos de Amazon EC2](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Elija uno de los siguientes escenarios que describen cómo crear un agente en función de la región en la que planea ejecutar la DataSync tarea.

#### Al ejecutar una DataSync tarea en una región comercial
<a name="using-datasync-in-commercial"></a>

El siguiente diagrama muestra una transferencia en la que la DataSync tarea y el agente se encuentran en la región comercial.

![\[Un DataSync agente desplegado en una región comercial para realizar una transferencia entre regiones a un bucket de S3 en un AWS GovCloud (US) Region.\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Referencia | Description (Descripción) | 
| --- | --- | 
| 1 | En la región comercial en la que ejecuta una DataSync tarea, los datos se transfieren desde el depósito de S3 de origen. El bucket de origen está configurado como una [ubicación de Amazon S3](#create-s3-location-how-to) en la región comercial. | 
| 2 | [Los datos se transfieren a través del DataSync agente, que se encuentra en la misma VPC y subred donde se encuentran el punto final del servicio de la VPC y las interfaces de red.](required-network-interfaces.md) | 
| 3 | Los datos se transfieren al bucket de S3 de destino en la AWS GovCloud (US) Region. El bucket de destino está configurado como una [ubicación de almacenamiento de objetos](#create-s3-location-govcloud-how-to) en la región comercial.  | 

También puede utilizar esta misma configuración para realizar transferencias en la dirección opuesta de la región AWS GovCloud (US) Region a la comercial.

**Para crear tu DataSync agente**

1. [Implemente un agente de Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) en su región comercial.

1. Configure su agente para que utilice un [punto de conexión de servicio de VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Activación del agente](activate-agent.md).

#### Al ejecutar una DataSync tarea en una región GovCloud (EE. UU.)
<a name="using-datasync-in-govcloud-1"></a>

El siguiente diagrama muestra una transferencia en la que se encuentran la DataSync tarea y el agente AWS GovCloud (US) Region.

![\[Un DataSync agente desplegado en una AWS GovCloud (US) Region o varias regiones se transfiere a un bucket de S3 del mismo AWS GovCloud (US) Region.\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Referencia | Description (Descripción) | 
| --- | --- | 
| 1 | Los datos se transfieren desde el depósito de S3 de origen en la región comercial al AWS GovCloud (US) Region lugar en el que se ejecuta la DataSync tarea. El bucket de origen está configurado como una [ubicación de almacenamiento de objetos](#create-s3-location-govcloud-how-to) en el AWS GovCloud (US) Region.  | 
| 2 | [En el AWS GovCloud (US) Region, los datos se transfieren a través del DataSync agente en la misma VPC y subred donde se encuentran el punto final del servicio de la VPC y las interfaces de red.](required-network-interfaces.md) | 
| 3 | Los datos se transfieren al bucket de S3 de destino en la AWS GovCloud (US) Region. El bucket de destino está configurado como una [ubicación de Amazon S3](#create-s3-location-how-to) en la AWS GovCloud (US) Region. | 

También puede utilizar esta misma configuración para realizar transferencias en la dirección opuesta de la región AWS GovCloud (US) Region a la comercial.

**Para crear tu DataSync agente**

1. [Implemente un agente de Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) en su. AWS GovCloud (US) Region

1. Configure su agente para que utilice un [punto de conexión de servicio de VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Activación del agente](activate-agent.md).

Si su conjunto de datos es altamente comprimible, es posible que consiga reducir los costes si crea su agente en una región comercial y ejecuta una tarea en una AWS GovCloud (US) Region. La creación de este agente requiere más de lo normal, incluida la preparación del agente para su uso en una región comercial. Para obtener información sobre cómo crear un agente para esta configuración, consulte el AWS DataSync blog Cómo [introducir y sacar datos AWS GovCloud (US) con](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Creación de una ubicación de almacenamiento de objetos para su bucket de S3
<a name="create-s3-location-govcloud-how-to"></a>

Necesita una ubicación de almacenamiento de objetos para el depósito de S3 que se encuentre en la región en la que no está ejecutando la DataSync tarea.

#### Uso de la DataSync consola
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Asegúrese de estar en la misma región en la que tiene previsto ejecutar la tarea.

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Almacenamiento de objetos**.

1. En el caso de los **agentes**, elige el DataSync agente que creaste para esta transferencia.

1. Para **Server**, introduzca un punto de conexión de Amazon S3 para su bucket mediante uno de los siguientes formatos:
   + **Bucket de región comercial:** `s3.your-region.amazonaws.com`
   + **Bucket de AWS GovCloud (US) Region **: `s3.your-gov-region.amazonaws.com`

   Para una lista de puntos de conexión de Amazon S3, consulte la *[Referencia general de AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Para el nombre del **bucket**, escriba el nombre del bucket de S3.

1. En **Carpeta**, introduzca un prefijo en el depósito de S3 que DataSync lea o escriba en él (en función de si el depósito es una ubicación de origen o de destino).
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o patrones. `/../` Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Seleccione **Requiere credenciales** y haga lo siguiente:
   + En **Clave de acceso**, introduzca la clave de acceso de un [usuario de IAM](#create-s3-location-govcloud-iam) que pueda acceder al bucket.
   + En **Clave secreta**, introduzca la clave secreta del mismo usuario de IAM.

1. (Opcional) Elija **Añadir etiqueta** para etiquetar su ubicación.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus recursos. Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Seleccione **Crear ubicación**.

#### Usando el AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Copie el siguiente comando `create-location-object-storage`:

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. Para el parámetro `--server-hostname`, especifique un punto de conexión de Amazon S3 para su bucket mediante uno de los siguientes formatos:
   + **Bucket de región comercial:** `s3.your-region.amazonaws.com`
   + **Bucket de AWS GovCloud (US) Region **: `s3.your-gov-region.amazonaws.com`

   En el caso de la región del punto de conexión, asegúrese de especificar la misma región en la que tiene previsto ejecutar la tarea.

   Para una lista de puntos de conexión de Amazon S3, consulte la *[Referencia general de AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. En el parámetro `--bucket-name`, especifique el nombre del bucket de S3.

1. Para el `--agent-arns` parámetro, especifique el DataSync agente que creó para esta transferencia.

1. Para el parámetro `--access-key`, especifique la clave de acceso para un [usuario de IAM](#create-s3-location-govcloud-iam) que pueda acceder al bucket.

1. Para el parámetro `--secret-key`, introduzca la clave secreta del mismo usuario de IAM.

1. (Opcional) Para el `--subdirectory` parámetro, especifique un prefijo en el depósito de S3 que DataSync lea o escriba en él (en función de si el depósito es una ubicación de origen o de destino).
**aviso**  
DataSync no puede transferir objetos con un prefijo que comience con una barra (`/`) o que incluya `//``/./`, o patrones. `/../` Por ejemplo:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Opcional) Para el parámetro `--tags`, especifique pares clave-valor que representen las etiquetas del recurso de ubicación.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus recursos. Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Ejecute el comando `create-location-object-storage`.

   Recibirá una respuesta que le mostrará el ARN de ubicación que acaba de crear.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

Puede utilizar esta ubicación como origen o destino de la tarea. DataSync Para el otro bucket de S3 de esta transferencia, [cree una ubicación de Amazon S3](#create-s3-location-how-to).

## Siguientes pasos
<a name="create-s3-location-next-steps"></a>

Algunos posibles pasos a seguir incluyen:

1. Si es necesario, cree su otra ubicación. Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. [Configure los ajustes de la DataSync tarea](task-options.md), como los archivos que desea transferir y cómo gestionar los metadatos, entre otras opciones.

1. [Establezca un cronograma](task-scheduling.md) para su DataSync tarea.

1. [Configure la supervisión](monitoring-overview.md) de su DataSync tarea.

1. [Inicie](run-task.md) su tarea.

# Configuración de AWS DataSync transferencias con Amazon EFS
<a name="create-efs-location"></a>

Para transferir datos a o desde su sistema de archivos Amazon EFS, debe crear una *ubicación* de AWS DataSync transferencia. DataSync puede usar esta ubicación como origen o destino para transferir datos.

## Proporcionar DataSync acceso a los sistemas de archivos Amazon EFS
<a name="create-efs-location-access"></a>

[La creación de una ubicación](#create-efs-location-how-to) implica entender cómo DataSync puede acceder a su almacenamiento. En el caso de Amazon EFS, DataSync monta el sistema de archivos como usuario raíz desde la nube privada virtual (VPC) [mediante](required-network-interfaces.md) interfaces de red.

**Contents**
+ [Determinar la subred y los grupos de seguridad para su destino de montaje](#create-efs-location-mount-target)
+ [Acceso a sistemas de archivos restringidos](#create-efs-location-iam)
  + [Crear un rol de DataSync IAM para el acceso al sistema de archivos](#create-efs-location-iam-role)
  + [Ejemplo de política del sistema de archivos que permite DataSync el acceso](#create-efs-location-iam-policy)

### Determinar la subred y los grupos de seguridad para su destino de montaje
<a name="create-efs-location-mount-target"></a>

Al crear la ubicación, debe especificar la subred y los grupos de seguridad que permiten conectarse DataSync a uno de los [destinos de montaje](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) del sistema de archivos Amazon EFS.

La subred que especifique debe estar ubicada:
+ En la misma VPC que el sistema de archivos.
+ En la misma zona de disponibilidad que al menos un destino de montaje del sistema de archivos.

**nota**  
No es necesario especificar una subred que incluya un destino de montaje del sistema de archivos.

Los grupos de seguridad que especifique deben permitir el tráfico entrante en el puerto 2049 de NFS. Para obtener información sobre la creación y actualización de grupos de seguridad para sus objetivos de montaje, consulte la [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html).

**Especificación de grupos de seguridad asociados a un destino de montaje**  
Puede especificar un grupo de seguridad asociado a uno de los destinos de montaje del sistema de archivos. Recomendamos este enfoque desde el punto de vista de la administración de la red.

**Especificación de grupos de seguridad que no estén asociados a un destino de montaje**  
También puede especificar un grupo de seguridad que no esté asociado a uno de los destinos de montaje del sistema de archivos. Sin embargo, este grupo de seguridad debe poder comunicarse con el grupo de seguridad de un destino de montaje.  
Por ejemplo, así es como puede crear una relación entre el grupo de seguridad D (para DataSync) y el grupo de seguridad M (para el destino de montaje):  
+ El grupo de seguridad D, que se especifica al crear la ubicación, debe tener una regla que permita las conexiones salientes del puerto NFS 2049 al grupo de seguridad M.
+ El grupo de seguridad M, que se asocia con el destino de montaje, debe permitir el acceso entrante a NFS en el puerto 2049 desde el grupo de seguridad D.

**Cómo encontrar el grupo de seguridad de un objetivo de montaje**

Las siguientes instrucciones pueden ayudarle a identificar el grupo de seguridad de un destino de montaje del sistema de archivos Amazon EFS que desea utilizar DataSync para la transferencia.

1. En el AWS CLI, ejecute el siguiente `describe-mount-targets` comando.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   Este comando devuelve información sobre los objetivos de montaje del sistema de archivos (similar al resultado del siguiente ejemplo).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. Anote el valor `MountTargetId` que desea usar.

1. Ejecute el siguiente comando `describe-mount-target-security-groups` usando el `MountTargetId` para averiguar el grupo de seguridad del destino de montaje.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

Debe especificar este grupo de seguridad al [crear su ubicación](#create-efs-location-how-to).

### Acceso a sistemas de archivos restringidos
<a name="create-efs-location-iam"></a>

DataSync pueden transferirse a o desde los sistemas de archivos de Amazon EFS que restringen el acceso a través de [puntos de acceso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) y [políticas de IAM](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html).

**nota**  
[Si DataSync accede a un sistema de archivos de destino a través de un punto de acceso que [impone la identidad del usuario](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points), el usuario y el grupo POSIX de los datos de origen no se conservan si configura la DataSync tarea IDs para copiar la propiedad.](configure-metadata.md) En su lugar, los archivos y carpetas transferidos se configuran para el usuario y el grupo del punto de acceso. IDs Cuando esto ocurre, se produce un error en la verificación de la tarea porque DataSync detecta una discrepancia entre los metadatos de las ubicaciones de origen y destino.

**Contents**
+ [Crear un rol de DataSync IAM para el acceso al sistema de archivos](#create-efs-location-iam-role)
+ [Ejemplo de política del sistema de archivos que permite DataSync el acceso](#create-efs-location-iam-policy)

#### Crear un rol de DataSync IAM para el acceso al sistema de archivos
<a name="create-efs-location-iam-role"></a>

Si tiene un sistema de archivos Amazon EFS que restringe el acceso mediante una política de IAM, puede crear un rol de IAM que otorgue DataSync permiso para leer o escribir datos en el sistema de archivos. En ese caso, puede que necesite especificar esa función en la [política de su sistema de archivos](#create-efs-location-iam-policy).

**Para crear el rol de IAM DataSync**

1. Abra la consola de IAM en [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. En el panel de navegación situado a la izquierda, en **Administración de acceso**, elija **Roles** y luego **Crear rol**.

1. En la página **Seleccionar entidad de confianza**, en **Tipo de entidad de confianza**, elija **Política de confianza personalizada**.

1. Pegue el siguiente JSON en el editor de políticas:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. Elija **Siguiente**. En la página **Agregar permisos**, elija **Siguiente**.

1. Introduzca un nombre de rol y elija **Crear rol**.

Especifique este rol al [crear su ubicación](#create-efs-location-how-to).

#### Ejemplo de política del sistema de archivos que permite DataSync el acceso
<a name="create-efs-location-iam-policy"></a>

El siguiente ejemplo de política del sistema de archivos muestra cómo el acceso a un sistema de archivos de Amazon EFS (identificado en la política como`fs-1234567890abcdef0`) está restringido, pero aún permite el acceso a DataSync través de un rol de IAM denominado`MyDataSyncRole`:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal`— Especifica un [rol de IAM](#create-efs-location-iam) que da DataSync permiso para acceder al sistema de archivos.
+ `Action`— Otorga acceso DataSync root y le permite leer y escribir en el sistema de archivos.
+ `aws:SecureTransport`: requiere que los clientes de NFS utilicen TLS al conectarse al sistema de archivos.
+ `elasticfilesystem:AccessPointArn`: permite el acceso al sistema de archivos solo a través de un punto de acceso específico.

## Consideraciones de red con las transferencias de Amazon EFS
<a name="efs-network-considerations"></a>

VPCs con los que utilices DataSync debe tener el arrendamiento predeterminado. VPCs con un arrendamiento dedicado no son compatibles.

## Consideraciones de rendimiento con las transferencias de Amazon EFS
<a name="efs-considerations"></a>

El modo de rendimiento del sistema de archivos de Amazon EFS puede afectar a la duración de la transferencia y al rendimiento del sistema de archivos durante la transferencia. Considere lo siguiente:
+ Para obtener los mejores resultados, se recomienda usar el modo de rendimiento de Elastic. Si no utilizas el modo de rendimiento elástico, es posible que la transferencia tarde más.
+ Si utiliza el modo de rendimiento por ráfagas, es posible que el rendimiento de las aplicaciones del sistema de archivos se vea afectado, ya que DataSync consume los créditos de ráfaga del sistema de archivos.
+ La forma en que se [configura DataSync para comprobar los datos transferidos](configure-data-verification-options.md) puede afectar al rendimiento del sistema de archivos y a los costes de acceso a los datos.

Para obtener más información, consulte [Rendimiento de Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) en la *Guía del usuario de Amazon Elastic File System* y en la página [Precios de Amazon EFS](https://aws.amazon.com/efs/pricing/).

## Creación de la ubicación de transferencia de Amazon EFS
<a name="create-efs-location-how-to"></a>

Para crear la ubicación de transferencia, necesita un sistema de archivos de Amazon EFS existente. Si no tiene uno, consulte [Introducción a Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html) en la *Guía del usuario de Amazon Elastic File System*.

### Uso de la DataSync consola
<a name="create-efs-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, elija el **sistema de archivos de Amazon EFS**.

   Puede configurar esta ubicación como origen o destino posteriormente. 

1. En **Sistema de archivos**, elija el sistema de archivos de Amazon EFS que desea utilizar como ubicación.

1. En **Ruta de montaje**, escriba la ruta de montaje de su sistema de archivos de Amazon EFS.

   Especifica dónde se DataSync leen o escriben los datos (dependiendo de si se trata de una ubicación de origen o de destino) en el sistema de archivos.

   De forma predeterminada, DataSync utiliza el directorio raíz (o el [punto de acceso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) si proporciona uno para la configuración del **punto de acceso EFS**). También puede especificar subdirectorios usando barras diagonales (por ejemplo, `/path/to/directory`).

1. En **Subred**, elija una subred en la que desee DataSync crear las [interfaces de red](required-network-interfaces.md) para administrar el tráfico de transferencia de datos.

   La subred debe estar ubicada:
   + En la misma VPC que el sistema de archivos.
   + En la misma zona de disponibilidad que al menos un destino de montaje del sistema de archivos.
**nota**  
No es necesario especificar una subred que incluya un destino de montaje del sistema de archivos.

1. En el caso de los **grupos de seguridad**, elija el grupo de seguridad asociado al destino de montaje de un sistema de archivos de Amazon EFS. Puede elegir varios grupos de seguridad.
**nota**  
Los grupos de seguridad que especifique deben permitir el tráfico entrante en el puerto 2049 de NFS. Para obtener más información, consulte [Determinar la subred y los grupos de seguridad para su destino de montaje](#create-efs-location-mount-target).

1. Para el **cifrado en tránsito**, elija si DataSync desea utilizar el cifrado Transport Layer Security (TLS) cuando transfiera datos hacia o desde su sistema de archivos.
**nota**  
Debe habilitar esta configuración para configurar un punto de acceso, un rol de IAM o ambos con su ubicación de Amazon EFS.

1. (Opcional) Para el **punto de acceso EFS**, elija un punto de acceso que DataSync pueda utilizar para montar el sistema de archivos.

   Para obtener más información, consulte [Acceso a sistemas de archivos restringidos](#create-efs-location-iam).

1. (Opcional) Para el **rol de IAM**, especifique un rol que permita acceder DataSync al sistema de archivos.

   Para obtener información sobre la creación de este rol, consulte [Crear un rol de DataSync IAM para el acceso al sistema de archivos](#create-efs-location-iam-role).

1. (Opcional) Seleccione **Añadir etiqueta** para etiquetar su sistema de archivos.

   Una *etiqueta* es un par clave-valor que le ayuda a administrar, filtrar y buscar sus ubicaciones. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-efs-cli"></a>

1. Copie el siguiente comando `create-location-efs`:

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. Para `--efs-filesystem-arn`, especifique el nombre de recurso de Amazon (ARN) del sistema de archivos de Amazon EFS desde o hacia el que está realizando la transferencia.

1. Para `--subdirectory`, especifique una ruta de montaje para el sistema de archivos.

   Aquí es donde DataSync lee o escribe los datos (dependiendo de si se trata de una ubicación de origen o de destino) en su sistema de archivos. 

   De forma predeterminada, DataSync utiliza el directorio raíz (o el [punto de acceso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) si lo proporciona`--access-point-arn`). También puede especificar subdirectorios usando barras diagonales (por ejemplo, `/path/to/directory`).

1. En `--ec2-config`, haga lo siguiente:
   + Para `SecurityGroupArns`, especifique el ARN del grupo de seguridad asociado al destino de montaje del sistema de archivos. Puede especificar varios grupos de seguridad.
**nota**  
Los grupos de seguridad que especifique deben permitir el tráfico entrante en el puerto 2049 de NFS. Para obtener más información, consulte [Determinar la subred y los grupos de seguridad para su destino de montaje](#create-efs-location-mount-target).
   + Para`SubnetArn`, especifique el ARN de la subred en la que desea DataSync crear las [interfaces de red](required-network-interfaces.md) para administrar el tráfico de transferencia de datos.

     La subred debe estar ubicada:
     + En la misma VPC que el sistema de archivos.
     + En la misma zona de disponibilidad que al menos un destino de montaje del sistema de archivos.
**nota**  
No es necesario especificar una subred que incluya un destino de montaje del sistema de archivos.

1. Para ello`--in-transit-encryption`, especifique si DataSync desea utilizar el cifrado Transport Layer Security (TLS) cuando transfiera datos hacia o desde su sistema de archivos.
**nota**  
Debe configurar este parámetro como `TLS1_2` para configurar un punto de acceso, un rol de IAM o ambos con su ubicación de Amazon EFS.

1. (Opcional) Para`--access-point-arn`, especifique el ARN de un punto de acceso que DataSync pueda utilizar para montar el sistema de archivos.

   Para obtener más información, consulte [Acceso a sistemas de archivos restringidos](#create-efs-location-iam).

1. (Opcional) Para`--file-system-access-role-arn`, especifique el ARN de un rol de IAM que permita acceder DataSync al sistema de archivos.

   Para obtener información sobre la creación de este rol, consulte [Crear un rol de DataSync IAM para el acceso al sistema de archivos](#create-efs-location-iam-role).

1. Ejecute el comando `create-location-efs`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# Configurar las transferencias con Windows FSx File Server
<a name="create-fsx-location"></a>

Para transferir datos a o desde tu sistema de archivos de Amazon FSx para Windows File Server, debes crear una *ubicación* de AWS DataSync transferencia. DataSync puede usar esta ubicación como origen o destino para transferir datos.

## Proporcionar DataSync acceso a los sistemas FSx de archivos del servidor de archivos de Windows
<a name="create-fsx-location-access"></a>

DataSync [se conecta al sistema FSx de archivos del servidor de archivos de Windows con el protocolo Server Message Block (SMB) y lo monta desde la nube privada virtual (VPC) mediante interfaces de red.](required-network-interfaces.md)

**nota**  
VPCs con el que utilices DataSync debe tener una tenencia predeterminada. VPCs con un arrendamiento dedicado no son compatibles.

**Topics**
+ [Permisos necesarios](#create-fsx-windows-location-permissions)
+ [Protocolos de autenticación necesarios](#configuring-fsx-windows-authentication-protocols)
+ [Espacios de nombres de DFS](#configuring-fsx-windows-location-dfs)

### Permisos necesarios
<a name="create-fsx-windows-location-permissions"></a>

Debe proporcionar DataSync al usuario los derechos necesarios para montar y acceder a los archivos, carpetas y metadatos de archivos del servidor de archivos de Windows. FSx 

Se recomienda que este usuario pertenezca a un grupo de Microsoft Active Directory para administrar el sistema de archivos. Las características específicas de este grupo dependen de la configuración de Active Directory:
+ Si lo utiliza AWS Directory Service for Microsoft Active Directory con FSx Windows File Server, el usuario debe ser miembro del grupo de ** FSx administradores AWS delegados**.
+ Si utiliza Active Directory autoadministrado con FSx Windows File Server, el usuario debe ser miembro de uno de los siguientes grupos:
  + El grupo **de administradores de dominio**, que es el grupo de administradores delegados predeterminado.
  + Un grupo de administradores delegados personalizado con derechos de usuario que permiten DataSync copiar los permisos de propiedad de los objetos y las listas de control de acceso de Windows ()ACLs.
**importante**  
No puede cambiar el grupo de administradores delegados después de haber implementado el sistema de archivos. Debe volver a implementar el sistema de archivos o restaurarlo desde una copia de seguridad para utilizar el grupo de administradores delegados personalizado con los siguientes derechos de usuario que DataSync necesita copiar metadatos.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-fsx-location.html)
+ Si desea copiar Windows ACLs y realiza la transferencia entre un servidor de archivos SMB y FSx un sistema de archivos del Servidor de Archivos de Windows o entre FSx los sistemas de archivos del Servidor de Archivos de Windows, los usuarios que proporcione DataSync deben pertenecer al mismo dominio de Active Directory o tener una relación de confianza de Active Directory entre sus dominios.

**aviso**  
El usuario del sistema del servidor de archivos del servidor de archivos de Windows debe tener permisos de **control total** en todas las carpetas del sistema de archivos. FSx No cambie los permisos de las ACL de NTFS de este usuario en sus carpetas. Si los tiene, DataSync puede cambiar los permisos del sistema de archivos de forma que el recurso compartido de archivos sea inaccesible e impida que se puedan utilizar las copias de seguridad del sistema de archivos. Para obtener más información sobre el acceso a nivel de archivos y carpetas, consulte la Guía *[del usuario de Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)*.

### Protocolos de autenticación necesarios
<a name="configuring-fsx-windows-authentication-protocols"></a>

Su servidor de archivos FSx para Windows debe utilizar la autenticación NTLM para DataSync poder acceder a él. DataSyncno puede acceder a un servidor de archivos que utilice la autenticación Kerberos. 

### Espacios de nombres de DFS
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync no admite los espacios de nombres del Sistema de archivos distribuido (DFS) de Microsoft. En su lugar, se recomienda especificar un servidor de archivos subyacente o un recurso compartido al crear la ubicación. DataSync 

Para obtener más información, consulte [Agrupación de varios sistemas de archivos con espacios de nombres DFS en la Guía](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) del usuario de *Amazon FSx para Windows File Server*.

## Cómo crear su ubicación de transferencia FSx para el servidor de archivos de Windows
<a name="create-fsx-location-how-to"></a>

Antes de empezar, asegúrese de tener un servidor de archivos existente FSx para Windows en su Región de AWS. Para obtener más información, consulte [Introducción a Amazon FSx ](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html) en la *Guía del usuario de Amazon FSx para Windows File Server*.

### Uso de la DataSync consola
<a name="create-fsx-location-access-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. Para el **tipo de ubicación**, selecciona **Amazon FSx**.

1. Para el **sistema de FSx archivos**, elija el FSx sistema de archivos del servidor de archivos de Windows que desee usar como ubicación.

1. En el **campo Nombre compartido**, introduzca una ruta de montaje para el servidor de archivos de Windows mediante barras diagonales. FSx 

   Especifica la ruta en la que se DataSync leen o escriben los datos (dependiendo de si se trata de una ubicación de origen o de destino).

   También puede incluir subdirectorios (por ejemplo, `/path/to/directory`).

1. Para los **grupos de seguridad**, elija hasta cinco grupos de seguridad de Amazon EC2 que proporcionen acceso a la subred preferida de su sistema de archivos.

   Los grupos de seguridad que elija deben poder comunicarse con los grupos de seguridad del sistema de archivos. Para obtener información sobre la configuración de grupos de seguridad para el acceso al sistema de archivos, consulte la [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**nota**  
Si elige un grupo de seguridad que no permite conexiones desde dentro de sí mismo, haga una de estas cosas:  
Configure el grupo de seguridad para permitir que se comunique dentro de sí mismo.
Elija un grupo de seguridad diferente que pueda comunicarse con el grupo de seguridad del destino de montaje.

1. En **Usuario**, introduzca el nombre de un usuario que pueda acceder al servidor FSx de archivos de Windows.

   Para obtener más información, consulte [Permisos necesarios](#create-fsx-windows-location-permissions).

1. En **Contraseña**, introduzca la contraseña del nombre de usuario.

1. (Opcional) En **Dominio**, introduzca el nombre del dominio de Windows al que pertenece el sistema FSx de archivos del servidor de archivos de Windows.

   Si tiene varios dominios de Active Directory en su entorno, al configurar esta configuración se asegura de que DataSync se conecten al sistema de archivos correcto.

1. (Opcional) Introduzca los valores de los campos **Clave** y **Valor** para etiquetarlos FSx para el servidor de archivos de Windows.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus AWS recursos. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-fsx-cli"></a>

**Para crear una ubicación FSx para el servidor de archivos de Windows mediante el AWS CLI**
+ Usa el siguiente comando para crear una FSx ubicación de Amazon.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  En el comando `create-location-fsx-windows`, haga lo siguiente:
  + `fsx-filesystem-arn`: especifique el nombre de recurso de Amazon (ARN) del sistema de archivos hacia o desde el que desea transferir.
  + `security-group-arns`: especifique los ARN de hasta cinco grupos de seguridad de Amazon EC2 que proporcionan acceso a la subred preferida del sistema de archivos.

    Los grupos de seguridad que especifique deben poder comunicarse con los grupos de seguridad del sistema de archivos. Para obtener información sobre la configuración de grupos de seguridad para el acceso al sistema de archivos, consulte la [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**nota**  
Si elige un grupo de seguridad que no permite conexiones desde dentro de sí mismo, haga una de estas cosas:  
Configure el grupo de seguridad para permitir que se comunique dentro de sí mismo.
Elija un grupo de seguridad diferente que pueda comunicarse con el grupo de seguridad del destino de montaje.
  + La Región de AWS — La región que especificas es aquella en la que se encuentra tu sistema de FSx archivos de Amazon de destino.

El comando anterior devuelve un ARN de ubicación similar al que se muestra a continuación.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# Configurar DataSync las transferencias con FSx for Lustre
<a name="create-lustre-location"></a>

Para transferir datos a o desde su sistema de archivos Amazon FSx for Lustre, debe crear una *ubicación* de AWS DataSync transferencia. DataSync puede usar esta ubicación como fuente o destino para transferir datos.

## Proporcionar DataSync acceso a cuatro FSx sistemas de archivos Lustre
<a name="create-lustre-location-access"></a>

DataSync accede al sistema de archivos FSx de Lustre mediante el cliente de Lustre. DataSyncrequiere acceso a todos los datos de su sistema de archivos de FSx for Lustre. Para tener este nivel de acceso, DataSync monta su sistema de archivos como usuario root utilizando un ID de usuario (UID) y un ID de grupo (GID) de. `0`

DataSync monta el sistema de archivos desde la nube privada virtual (VPC) [mediante](required-network-interfaces.md) interfaces de red. DataSync gestiona por completo la creación, el uso y la eliminación de estas interfaces de red en su nombre.

**nota**  
VPCs con las que utilices DataSync debe tener un arrendamiento predeterminado. VPCs con un arrendamiento dedicado no son compatibles.

## Crear su ubicación FSx de transferencia para Lustre
<a name="create-lustre-location-how-to"></a>

Para crear la ubicación de transferencia, necesita un sistema de archivos existente FSx para Lustre. Para obtener más información, consulte [Introducción a Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html) en la Guía del *usuario de Amazon FSx for Lustre*.

### Uso de la consola DataSync
<a name="create-lustre-location-how-to-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. Para el **tipo de ubicación**, selecciona **Amazon FSx**.

   Puede configurar esta ubicación como origen o destino posteriormente. 

1. Para **FSx el sistema de archivos**, elija el FSx sistema de archivos de Lustre que desee usar como ubicación. 

1. En **Ruta de montaje**, introduzca la ruta de montaje de su sistema de archivos FSx para Lustre.

   La ruta puede incluir un subdirectorio. Cuando la ubicación se utiliza como fuente, DataSync lee los datos de la ruta de montaje. Cuando la ubicación se utiliza como destino, DataSync escribe todos los datos en la ruta de montaje. Si no se proporciona un subdirectorio, DataSync usa el directorio raíz (`/`).

1. Para **los grupos de seguridad**, elija hasta cinco grupos de seguridad que proporcionen acceso a su sistema de archivos de FSx for Lustre.

   Los grupos de seguridad deben poder acceder a los puertos del sistema de archivos. El sistema de archivos también debe permitir el acceso desde los grupos de seguridad.

   Para obtener más información sobre los grupos de seguridad, consulte [Control de acceso al sistema de archivos con Amazon VPC](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html) en la Guía del usuario de *Amazon FSx for Lustre*.

1. (Opcional) Introduzca los valores de los campos **clave** y **valor** para etiquetar el FSx sistema de archivos de Lustre.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus AWS recursos. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-location-lustre-cli"></a>

**Para crear una ubicación FSx para Lustre mediante el AWS CLI**
+ Utilice el siguiente comando para crear una ubicación FSx para Lustre.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  Los parámetros son obligatorios en el comando `create-location-fsx-lustre`.
  + `fsx-filesystem-arn`: el nombre de recurso de Amazon (ARN) completo del sistema de archivos en el que desea leer o escribir.
  + `security-group-arns`: el ARN de un grupo de seguridad de Amazon EC2 que se puede aplicar a las [interfaces de red](required-network-interfaces.md) de la subred preferida del sistema de archivos.

El comando anterior devuelve un ARN de ubicación similar al que se muestra a continuación.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Configuración de DataSync transferencias con Amazon FSx para OpenZFS
<a name="create-openzfs-location"></a>

*Para transferir datos a o desde tu sistema de archivos Amazon FSx for OpenZFS, debes crear una ubicación de AWS DataSync transferencia.* DataSync puede usar esta ubicación como fuente o destino para transferir datos.

## Proporcionar DataSync acceso a los FSx sistemas de archivos OpenZFS
<a name="create-openzfs-access"></a>

DataSync [monta su sistema FSx de archivos OpenZFS desde su nube privada virtual (VPC) mediante interfaces de red.](required-network-interfaces.md) DataSyncgestiona completamente la creación, el uso y la eliminación de estas interfaces de red en su nombre.

**nota**  
VPCs con las que utilices DataSync debe tener un arrendamiento predeterminado. VPCs con un arrendamiento dedicado no son compatibles.

## Configuración FSx para la autorización del sistema de archivos OpenZFS
<a name="configure-openzfs-authorization"></a>

DataSync accede al sistema de archivos FSx de OpenZFS como cliente NFS y monta el sistema de archivos como usuario root con un ID de usuario (UID) y un ID de grupo (GID) de. `0`

 DataSync Para copiar todos los metadatos de los archivos, debe configurar los ajustes de exportación a NFS en los volúmenes del sistema de archivos mediante. `no_root_squash` Sin embargo, puede limitar este nivel de acceso solo a una DataSync tarea específica.

Para obtener más información, consulte [Propiedades de volumen](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties) en la Guía del *usuario de Amazon FSx for OpenZFS*.

### Configurar las exportaciones de NFS específicas para DataSync (recomendado)
<a name="configure-nfs-export-recommended"></a>

Puede configurar una exportación de NFS específica para cada volumen al que solo acceda su DataSync tarea. Haga esto para el volumen anterior más reciente de la ruta de montaje que especificó al crear su ubicación FSx para OpenZFS.

**Para configurar una exportación de NFS específica para DataSync**

1. Cree su [DataSynctarea.](create-task-how-to.md)

   Esto crea las interfaces de red de la tarea que especifique en la configuración de exportación de NFS.

1. Localice las direcciones IP privadas de las interfaces de red de la tarea mediante la consola Amazon EC2 o. AWS CLI

1.  FSx Para el volumen del sistema de archivos OpenZFS, configure los siguientes ajustes de exportación a NFS para cada una de las interfaces de red de la tarea:
   + **Dirección del cliente**: introduzca la dirección IP privada de la interfaz de red (por ejemplo, `10.24.34.0`).
   + **Opciones de NFS**: introduzca `rw,no_root_squash`.

### Configuración de las exportaciones de NFS para todos los clientes
<a name="configure-nfs-export-general"></a>

Puede especificar una exportación de NFS que permita el acceso raíz a todos los clientes.

**Cómo configurar una exportación de NFS para todos los clientes**
+ Para el volumen del sistema de archivos OpenZFS, configure los siguientes ajustes de exportación a NFS: FSx 
  + **Dirección del cliente**: introduzca `*`.
  + **Opciones de NFS**: introduzca `rw,no_root_squash`.

## Crear su ubicación de transferencia FSx para OpenZFS
<a name="create-openzfs-location-how-to"></a>

Para crear la ubicación, necesita un sistema de archivos existente FSx para OpenZFS. Si no tiene uno, consulte [Introducción a Amazon FSx para OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html) en la Guía del usuario de *Amazon FSx for OpenZFS*.

### Uso de la consola DataSync
<a name="create-openzfs-location-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, seleccione **Ubicaciones** y luego elija **Crear ubicación**.

1. Para el **tipo de ubicación**, selecciona **Amazon FSx**.

   Puede configurar esta ubicación como origen o destino posteriormente.

1. Para **FSx el sistema de archivos**, elige el FSx sistema de archivos de OpenZFS que quieras usar como ubicación. 

1. En Ruta de **montaje, introduzca la ruta** de montaje de su sistema de archivos FSx OpenZFS. 

   La ruta debe empezar por `/fsx` y puede ser cualquier ruta de directorio existente en el sistema de archivos. Cuando la ubicación se utiliza como fuente, DataSync lee los datos de la ruta de montaje. Cuando la ubicación se utiliza como destino, DataSync escribe todos los datos en la ruta de montaje. Si no se proporciona un subdirectorio, DataSync usa el directorio del volumen raíz (por ejemplo,`/fsx`).

1. Para **los grupos de seguridad**, elija hasta cinco grupos de seguridad que proporcionen acceso de red a su sistema FSx de archivos OpenZFS. 

   Los grupos de seguridad deben proporcionar acceso a los puertos de red que utiliza el FSx sistema de archivos OpenZFS. El sistema de archivos debe permitir el acceso a la red desde los grupos de seguridad.

   Para obtener más información sobre los grupos de seguridad, consulte [Control de acceso al sistema de archivos con Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) en la Guía del usuario de *Amazon FSx for OpenZFS.*

1. (Opcional) Amplíe la **configuración adicional** y, para la versión **NFS, elija la versión** NFS que DataSync utiliza para acceder al sistema de archivos.

   De forma predeterminada, DataSync usa la versión 4.1 de NFS.

1. (Opcional) Introduzca los valores de los campos **clave** y **valor** para etiquetarlos en el sistema FSx de archivos OpenZFS.

   Las etiquetas le ayudan a administrar, filtrar y buscar su ubicación. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-openzfs-location-cli"></a>

**Para crear una ubicación FSx para OpenZFS mediante el AWS CLI**

1. Copie el siguiente comando `create-location-fsx-open-zfs`:

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. Especifique las opciones en el comando de la siguiente manera:
   + Para `fsx-filesystem-arn`, especifique el nombre de recurso de Amazon (ARN) del sistema de archivos de ubicación completo. Esto incluye el Región de AWS lugar donde reside su sistema de archivos Cuenta de AWS, su ID y el ID del sistema de archivos.
   + Para`security-group-arns`, especifique el ARN del grupo de seguridad de Amazon EC2 que proporciona acceso a las interfaces de red de [la subred preferida](required-network-interfaces.md) del sistema de FSx archivos OpenZFS. Esto incluye el Región de AWS lugar donde reside la instancia de Amazon EC2 Cuenta de AWS, su ID y el ID del grupo de seguridad.

     Para obtener más información sobre los grupos de seguridad, consulte [Control de acceso al sistema de archivos con Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) en la Guía del usuario de *Amazon FSx for OpenZFS.*
   + Para ello`protocol`, especifique el protocolo que se DataSync utiliza para acceder a su sistema de archivos. (DataSync actualmente solo es compatible con NFS).

1. Ejecute el comando . Obtendrá una respuesta en la que se muestra la ubicación que acaba de crear.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Configuración de transferencias con Amazon FSx para NetApp ONTAP
<a name="create-ontap-location"></a>

Para transferir datos a o desde tu sistema de archivos Amazon FSx for NetApp ONTAP, debes crear una *ubicación* de AWS DataSync transferencia. DataSync puede usar esta ubicación como fuente o destino para transferir datos.

## Proporcionar DataSync acceso a los sistemas FSx de archivos de ONTAP
<a name="create-ontap-location-access"></a>

 FSx Para acceder a un sistema de archivos de ONTAP, DataSync monta una máquina virtual de almacenamiento (SVM) en el sistema de archivos mediante [las interfaces de red](required-network-interfaces.md) de la nube privada virtual (VPC). DataSync crea estas interfaces de red en la subred preferida de su sistema de archivos solo cuando crea una tarea que incluya su ubicación de ONTAP. FSx 

**nota**  
VPCs con las que utilices DataSync debe tener un arrendamiento predeterminado. VPCs con un arrendamiento dedicado no son compatibles.

DataSync pueden conectarse a un FSx SVM del sistema de archivos ONTAP y copiar datos mediante el protocolo Network File System (NFS) o Server Message Block (SMB).

**Topics**
+ [Uso del protocolo NFS](#create-ontap-location-supported-protocols)
+ [Uso del protocolo SMB](#create-ontap-location-smb)
+ [Protocolos no admitidos](#create-ontap-location-unsupported-protocols)
+ [Elección del protocolo correcto](#create-ontap-location-choosing-protocol)
+ [Acceder a los volúmenes SnapLock](#create-ontap-location-snaplock)

### Uso del protocolo NFS
<a name="create-ontap-location-supported-protocols"></a>

Con el protocolo NFS, DataSync utiliza el mecanismo de `AUTH_SYS` seguridad con un ID de usuario (UID) y un ID de grupo (GID) para autenticarse con el SVM. `0`

**nota**  
DataSync actualmente solo es compatible con la versión 3 de NFS para las ubicaciones de ONTAP. FSx 

### Uso del protocolo SMB
<a name="create-ontap-location-smb"></a>

Con el protocolo SMB, DataSync utiliza las credenciales que usted proporciona para autenticarse con su SVM.

**Versiones compatibles de SMB**  
De forma predeterminada, elige DataSync automáticamente una versión del protocolo SMB en función de la negociación con el servidor de archivos SMB. También puede configurarlo DataSync para usar una versión específica, pero le recomendamos que lo haga solo si DataSync tiene problemas para negociar automáticamente con el servidor de archivos SMB. Por motivos de seguridad, se recomienda utilizar SMB versión 3.0.2 o posterior.  
Consulte la siguiente tabla para ver una lista de las opciones de la DataSync consola y la API para configurar una versión SMB con su ubicación de FSx ONTAP:      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-ontap-location.html)

**Permisos necesarios**  
Debe proporcionar a DataSync un usuario local en su SVM o a un usuario de dominio en su Microsoft Active Directory los derechos necesarios para montar sus archivos, carpetas y metadatos de archivos y acceder a ellos.  
Si proporciona un usuario en Active Directory, tenga en cuenta lo siguiente:  
+ Si lo utiliza AWS Directory Service for Microsoft Active Directory, el usuario debe ser miembro del grupo de ** FSxadministradores AWS delegados**.
+ Si utiliza una instancia de Active Directory autoadministrada, el usuario debe ser miembro de uno de dos grupos:
  + El grupo **de administradores de dominio**, que es el grupo de administradores delegados predeterminado.
  + Un grupo de administradores delegados personalizado con derechos de usuario que permite DataSync copiar los permisos de propiedad de los objetos y las listas de control de acceso de Windows ()ACLs.
**importante**  
No puede cambiar el grupo de administradores delegados después de haber implementado el sistema de archivos. Debe volver a implementar el sistema de archivos o restaurarlo desde una copia de seguridad para utilizar el grupo de administradores delegados personalizado con los siguientes derechos de usuario que DataSync necesita copiar metadatos.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/create-ontap-location.html)
+ Si desea copiar Windows ACLs y realizar transferencias entre FSx sistemas de archivos ONTAP mediante SMB (u otros tipos de sistemas de archivos que utilicen SMB), los usuarios que proporcione DataSync deben pertenecer al mismo dominio de Active Directory o tener una relación de confianza de Active Directory entre sus dominios.

**Protocolos de autenticación necesarios**  
Para acceder DataSync al recurso compartido SMB, el sistema de archivos de ONTAP FSx debe utilizar la autenticación NTLM. DataSync no puede acceder a los sistemas de archivos FSx de ONTAP que utilizan la autenticación Kerberos.

**Espacios de nombres de DFS**  
DataSync no admite los espacios de nombres del Sistema de archivos distribuido (DFS) de Microsoft. En su lugar, se recomienda especificar un servidor de archivos subyacente o un recurso compartido al crear la ubicación. DataSync 

### Protocolos no admitidos
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync no puede acceder a FSx los sistemas de archivos ONTAP mediante el protocolo iSCSI (Interfaz de sistemas informáticos pequeños de Internet).

### Elección del protocolo correcto
<a name="create-ontap-location-choosing-protocol"></a>

Para conservar los metadatos de los archivos FSx para las migraciones a ONTAP, configure las ubicaciones de DataSync origen y destino para que utilicen el mismo protocolo. Entre los protocolos compatibles, SMB conserva los metadatos con la máxima fidelidad (consulte [Comprender cómo se DataSync gestionan los metadatos de archivos y objetos](metadata-copied.md) para ver más información).

Al migrar desde un servidor Unix (Linux) o un recurso compartido de almacenamiento conectado a la red (NAS) que sirve a los usuarios a través de NFS, haga lo siguiente:

1. [Cree una ubicación NFS](create-nfs-location.md) para el servidor Unix (Linux) o el recurso compartido NAS. (Esta será su ubicación de origen).

1. Configure el volumen FSx de ONTAP al que va a transferir los datos con el estilo de seguridad de [Unix](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Cree una ubicación FSx para su sistema de archivos ONTAP que esté configurado para NFS. (Esta será su ubicación de destino).

Al migrar desde un servidor Windows o un recurso compartido NAS que sirve a los usuarios a través de SMB, haga lo siguiente:

1. [Cree una ubicación SMB](create-smb-location.md) para el servidor Windows o el recurso compartido NAS. (Esta será su ubicación de origen).

1. Configure el volumen FSx de ONTAP al que va a transferir los datos con el estilo de seguridad [NTFS](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Cree una ubicación FSx para su sistema de archivos ONTAP que esté configurado para SMB. (Esta será su ubicación de destino).

Si su entorno FSx para ONTAP utiliza varios protocolos, le recomendamos que consulte a un AWS especialista en almacenamiento. Para obtener más información sobre las prácticas recomendadas para el acceso multiprotocolo, consulte [Habilitar cargas de trabajo multiprotocolo con Amazon FSx ](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/) for ONTAP. NetApp

### Acceder a los volúmenes SnapLock
<a name="create-ontap-location-snaplock"></a>

Si está transfiriendo datos a un [SnapLock volumen](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html) de un sistema de archivos FSx compatible con ONTAP, asegúrese de que los SnapLock ajustes de **confirmación automática** y **modo de adición de volumen** estén desactivados en el volumen durante la transferencia. Podrá volver a habilitar esta configuración cuando haya terminado de transferir los datos.

## Crear tu ubicación de transferencia FSx para ONTAP
<a name="create-ontap-location-how-to"></a>

Para crear la ubicación, necesita un sistema de archivos existente FSx para ONTAP. Si no tienes uno, consulta [Cómo empezar a usar Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html) en la Guía del *usuario de Amazon FSx for NetApp ONTAP*.

### Uso de la consola DataSync
<a name="create-ontap-location-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. Para el **tipo de ubicación**, selecciona **Amazon FSx**.

   Puede configurar esta ubicación como origen o destino posteriormente.

1. Para **FSx el sistema de archivos**, elija el FSx sistema de archivos de ONTAP que desee usar como ubicación.

1. En **Máquina virtual de almacenamiento**, elija una máquina virtual de almacenamiento (SVM) en el sistema de archivos desde o hacia donde desea copiar datos.

1. En **Ruta de montaje**, especifique una ruta al archivo compartido en la SVM donde copiará los datos.

   Puede especificar una ruta de unión (también conocida como punto de montaje), una ruta de qtree (para recursos compartidos de archivos NFS) o un nombre de recurso compartido (para recursos compartidos de archivos SMB). Por ejemplo, la ruta de montaje podría ser `/vol1`, `/vol1/tree1` o `/share1`.
**sugerencia**  
No especifique una ruta en el volumen raíz de la SVM. Para obtener más información, consulte [Administración FSx de máquinas virtuales de almacenamiento de ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html) en la Guía del *usuario de Amazon FSx for NetApp ONTAP*.

1. Para los **grupos de seguridad**, elija hasta cinco grupos de seguridad de Amazon EC2 que proporcionen acceso a la subred preferida de su sistema de archivos.

   Los grupos de seguridad deben permitir el tráfico saliente en los siguientes puertos (según el protocolo que utilice):
   + **NFS**: puertos TCP 111, 635 y 2049 
   + **SMB**: puerto TCP 445

   Los grupos de seguridad del sistema de archivos también deben permitir el tráfico entrante en los mismos puertos.

1. En **Protocolo**, elija el protocolo de transferencia de datos que se DataSync utiliza para acceder al SVM de su sistema de archivos.

   Para obtener más información, consulte [Elección del protocolo correcto](#create-ontap-location-choosing-protocol).

------
#### [ NFS ]

   DataSync usa la versión 3 de NFS.

------
#### [ SMB ]

   Configure una versión de SMB, un usuario, una contraseña y un nombre de dominio de Active Directory (si es necesario) para acceder a la SVM.
   + (Opcional) Amplíe **la configuración adicional** y elija una **versión SMB** para usarla DataSync al acceder a su SVM.

     De forma predeterminada, elige DataSync automáticamente una versión en función de la negociación con el servidor de archivos SMB. Para obtener más información, consulte [Uso del protocolo SMB](#create-ontap-location-smb).
   + En **Usuario**, introduzca un nombre de usuario que puede montar y acceder a los archivos, carpetas y metadatos que quiera transferir en la SVM.

     Para obtener más información, consulte [Uso del protocolo SMB](#create-ontap-location-smb).
   + En **Contraseña**, introduzca la contraseña del usuario que especificó y que puede acceder a la SVM.
   + (Opcional) En el **nombre de dominio de Active Directory**, introduzca el nombre completo del dominio (FQDN) del Active Directory al que pertenece la SVM.

     Si tiene varios dominios en su entorno, al configurar esta configuración se asegura de que DataSync se conecten al SVM correcto.

------

1. (Opcional) Introduzca los valores de los campos **Clave** y **Valor** para etiquetar el sistema FSx de archivos ONTAP.

   Las etiquetas le ayudan a gestionar, filtrar y buscar sus AWS recursos. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Usando el AWS CLI
<a name="create-ontap-location-cli"></a>

**Para crear una ubicación FSx para ONTAP mediante el AWS CLI**

1. Copie el siguiente comando `create-location-fsx-ontap`:

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. Especifique las opciones en el comando de la siguiente manera:
   + Para `storage-virtual-machine-arn`, especifique el nombre de recurso de Amazon (ARN) completo de una máquina virtual de almacenamiento (SVM) del sistema de archivos en el que quiere copiar datos o desde el que quiere copiar datos.

     Este ARN incluye el Región de AWS lugar donde reside el sistema de archivos, el suyo Cuenta de AWS, el sistema de archivos y el SVM. IDs
   + Para `security-group-arns`, especifique el ARN del grupo de seguridad de Amazon EC2 que proporciona acceso a las [interfaces de red](required-network-interfaces.md) de la subred preferida del sistema de archivos.

     Esto incluye el Región de AWS lugar donde reside la instancia de Amazon EC2 Cuenta de AWS, su grupo de seguridad y el suyo. IDs Puede especificar hasta cinco grupos ARNs de seguridad.

     Para obtener más información sobre los grupos de seguridad, consulte [Control de acceso al sistema de archivos con Amazon VPC](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html) en la Guía del usuario de *Amazon FSx for NetApp ONTAP*.
   + Para ello`protocol`, configure el protocolo que se DataSync utiliza para acceder al SVM de su sistema de archivos.
     + Para NFS, puede usar la configuración predeterminada:

       `--protocol NFS={}`
     + Para SMB, debe especificar un nombre de usuario y una contraseña que puedan acceder al SVM:

       `--protocol SMB={User=smb-user,Password=smb-password}`

1. Ejecute el comando .

   Recibirá una respuesta que le mostrará la ubicación que acaba de crear.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Transferir hacia o desde otro almacenamiento en la nube con AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Con AWS DataSync, puede transferir datos entre otros proveedores de nube y servicios AWS de almacenamiento. Para obtener más información, consulta [¿Dónde puedo transferir mis datos DataSync?](working-with-locations.md)

**Topics**
+ [Planificación de transferencias hacia o desde sistemas de almacenamiento en la nube de terceros](third-party-cloud-transfer-considerations.md)
+ [Configuración de AWS DataSync transferencias con Google Cloud Storage](tutorial_transfer-google-cloud-storage.md)
+ [Configuración de transferencias con Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Configuración de AWS DataSync transferencias con recursos Microsoft Azure Files compartidos SMB](transferring-azure-files.md)
+ [Configuración de transferencias de con otro almacenamiento de objetos en la nube](creating-other-cloud-object-location.md)

# Planificación de transferencias hacia o desde sistemas de almacenamiento en la nube de terceros
<a name="third-party-cloud-transfer-considerations"></a>

Al planificar transferencias de datos entre nubes, tenga en cuenta lo siguiente:
+ **Uso de un agente**: un agente solo es necesario para acceder al almacenamiento en otras nubes cuando se utilizan tareas en modo básico. [Las tareas en modo mejorado](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) no requieren un agente. Si decide utilizar un agente, puede implementarlo como una [instancia de Amazon EC2](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) al transferir desde el almacenamiento de objetos compatible con S3 de un proveedor de servicios en la nube, o como una máquina virtual de Google Compute Engine o de Azure para transferencias desde esos servicios de almacenamiento específicos, respectivamente. Al transferir desde sistemas de archivos en Google y Azure, se recomienda implementar el agente como una máquina virtual de Google o de Azure para que el agente se encuentre lo más cerca posible del sistema de archivos. Además, DataSync comprime los datos desde el agente hasta ellos AWS, lo que puede ayudar a reducir los costes de salida. DataSync proporciona una lista de [ubicaciones en la nube validadas](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html) que proporcionan la [compatibilidad requerida con la API de Amazon S3](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access).
+ **Punto de conexión de almacenamiento de objetos de la otra nube**: el punto de conexión de almacenamiento de un proveedor de nube externo suele ser específico de la región o de la cuenta. El punto final regional se utiliza como servidor en la ubicación de almacenamiento de DataSync objetos, junto con un nombre de bucket específico.
+ **Clases de almacenamiento de los objetos de origen:** al igual que Amazon S3, algunos proveedores de servicios en la nube admiten un nivel de archivo que requiere una restauración antes de poder acceder a los objetos archivados. Por ejemplo, los objetos en el nivel de archivo de Azure Blob se deben obtener para permitir el acceso estándar antes de una transferencia de datos. Se puede acceder a los objetos en el nivel de archivo de Google Cloud Storage de inmediato y sin restauración, pero el acceso directo al nivel de archivo conlleva costos de obtención asociados. Revise la documentación sobre las clases de almacenamiento entre nubes para determinar los requisitos de acceso y las tarifas de recuperación antes de iniciar la transferencia de datos. Para obtener más información sobre la restauración de objetos archivados en Amazon S3, consulte [Restauración de un objeto archivado](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) en la *Guía del usuario de Amazon Simple Storage Service*.
+ **Acceso al almacenamiento de objetos**: transferir datos entre proveedores de servicios en la nube de terceros requiere acceso al almacenamiento de objetos de la otra nube mediante claves de autenticación. Por ejemplo, para proporcionar acceso a Google Cloud Storage, debes configurar una ubicación de almacenamiento de DataSync objetos que se conecte a la [API XML de Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) y se autentique mediante una [clave de código de autenticación de mensajes (HMAC) basada en hash](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) para tu cuenta de servicio. [Para el almacenamiento de blobs de Azure, configuras una [ DataSync ubicación de blobs de Azure dedicada que se autentica mediante tokens SAS](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to).](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync se utiliza AWS Secrets Manager para almacenar de forma segura las credenciales de almacenamiento de objetos. Para obtener más información, consulte [Protección de las credenciales de las ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Compatibilidad con etiquetas de objetos:**
  + A diferencia de Amazon S3, no todos los proveedores de nube admiten [etiquetas de objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync las tareas pueden fallar al intentar leer las etiquetas de la ubicación de origen si el proveedor de la nube no admite etiquetas de objetos a través de la API de Amazon S3 o si las credenciales que proporciona no son suficientes para recuperar las etiquetas. DataSyncofrece una opción de tarea para desactivar la [lectura y la copia de etiquetas](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) de objetos durante una transferencia si no se admiten las etiquetas de objetos o si no se desea conservarlas. Revise la documentación del proveedor de servicios en la nube para determinar si se admiten las etiquetas de objetos y verifique la configuración de etiquetas de objetos de la tarea de transferencia antes de iniciarla.
  + Puede utilizar la API de Amazon S3 para comprobar si un proveedor de servicios en la nube devuelve una solicitud `get-object-tagging`. Para obtener más información, consulte [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) en la *Referencia de comandos de la AWS CLI *.

    Un proveedor de servicios en la nube que admite etiquetas de objetos devuelve una respuesta similar al siguiente ejemplo:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Un proveedor de servicios en la nube que no admite `get-object-tagging` devuelve el siguiente mensaje:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Costos asociados a las solicitudes y a la salida de datos**: transferir datos desde el almacenamiento de objetos en la nube conlleva [costos de solicitudes y de salida de datos](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) asociados con la lectura de datos y la transferencia de datos salientes. Los cargos por solicitudes varían entre proveedores de servicios en la nube y, cuando corresponde, entre clases de almacenamiento. Consulte la documentación del proveedor de servicios en la nube sobre los costos específicos de las solicitudes relativos a la clase de almacenamiento desde la que planea leer. Para obtener una descripción general de los cargos por solicitud que se DataSync cobran por las transferencias de datos, consulte Cómo [evaluar los costos de las solicitudes de S3 al DataSync utilizarlas](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) y sus [AWS DataSync precios](https://aws.amazon.com/datasync/pricing/). Transferir datos fuera de proveedores de servicios en la nube específicos genera cargos por salida de datos. Los costos de transferencia de datos varían entre proveedores de servicios en la nube y también dependen de la región en la que se almacenan los datos.
+ **Tasas de solicitudes de almacenamiento de objetos**: los proveedores de servicios en la nube presentan distintas características de rendimiento y de tasas de solicitudes en las plataformas de almacenamiento de objetos. Revise las tasas de solicitudes del otro proveedor de servicios en la nube y determine dónde se aplican los límites de solicitudes. Planifique con antelación las transferencias altamente paralelizadas que constan de varios agentes, cuando se requiera una partición específica o incrementos de rendimiento.

  Amazon S3 dispone de tasas de solicitudes documentadas que puede utilizar como base para diseñar su solución. Las tasas de solicitudes de Amazon S3 se aplican por prefijo particionado y se pueden escalar en múltiples prefijos. Para obtener más información, consulte [Prácticas recomendadas y patrones de diseño: optimización del rendimiento de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) en la *Guía del usuario de Amazon Simple Storage Service*.

# Configuración de AWS DataSync transferencias con Google Cloud Storage
<a name="tutorial_transfer-google-cloud-storage"></a>

Con AWS DataSyncél, puedes transferir datos entre Google Cloud Storage y los siguientes servicios AWS de almacenamiento:
+ Amazon S3
+ Amazon EFS
+ Servidor FSx de archivos Amazon para Windows
+ Amazon FSx para Lustre
+ Amazon FSx para OpenZFS
+ Amazon FSx para NetApp ONTAP

Para iniciar la configuración de la transferencia, cree una ubicación para Google Cloud Storage. Esta ubicación puede funcionar como origen o como destino de la transferencia. Solo se necesita un DataSync agente cuando transfieres datos entre Google Cloud Storage y Amazon EFS o Amazon FSx, o cuando utilizas tareas del **modo Básico**. Las transferencias de datos en **modo mejorado** entre Google Cloud Storage y Amazon S3 no requieren un agente.

**nota**  
Para la conectividad en la nube privada entre Google Cloud Storage y AWS, usa el modo Básico con agentes.

## Descripción general de
<a name="transfer-google-cloud-storage-overview"></a>

DataSync usa la [API XML de Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) para las transferencias de datos. Esta API proporciona una interfaz compatible con Amazon S3 para leer y escribir datos en buckets de Google Cloud Storage.

Cuando utiliza el modo básico para las transferencias, puede implementar el agente en Google Cloud Storage o en la VPC de Amazon.

------
#### [ Agent in Google Cloud ]

1. Despliegas un DataSync agente en tu entorno de Google Cloud.

1. El agente lee el bucket de Google Cloud Storage con una clave de código de autenticación de mensajes basado en hash (HMAC).

1. Los objetos de tu depósito de Google Cloud Storage se transfieren de forma segura a través de TLS 1.3 a través Nube de AWS de un punto final público.

1. El DataSync servicio escribe los datos en tu depósito de S3.

En el siguiente diagrama se ilustra la transferencia.

![\[En un ejemplo de DataSync transferencia, se muestra cómo se transfieren los datos de los objetos de un depósito de Google Cloud Storage a un depósito de S3. En primer lugar, el DataSync agente se implementa en tu entorno de Google Cloud. A continuación, el DataSync agente lee el depósito de Google Cloud Storage. Los datos se transfieren de forma segura a través de un dispositivo de punto final público AWS DataSync , donde se guardan los objetos en un depósito de S3 ubicado en el mismo Región de AWS lugar en el que se están utilizando DataSync.\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Despliega un DataSync agente en una nube privada virtual (VPC) de su AWS entorno.

1. El agente lee el bucket de Google Cloud Storage con una clave de código de autenticación de mensajes basado en hash (HMAC).

1. Los objetos de tu depósito de Google Cloud Storage se transfieren de forma segura a través de TLS 1.3 a través de Nube de AWS un punto final de VPC privado.

1. El DataSync servicio escribe los datos en tu depósito de S3.

En el siguiente diagrama se ilustra la transferencia.

![\[En un ejemplo de DataSync transferencia, se muestra cómo se transfieren los datos de los objetos de un depósito de Google Cloud Storage a un depósito de S3. En primer lugar, el DataSync agente se despliega en una VPC en. AWS A continuación, el DataSync agente lee el depósito de Google Cloud Storage. Los datos se mueven de forma segura a través de un punto final de la VPC AWS, donde se DataSync escriben los objetos en un bucket de S3 al Región de AWS mismo tiempo que la VPC.\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Costos
<a name="transfer-google-cloud-storage-cost"></a>

Las tarifas asociadas a esta migración pueden incluir lo siguiente:
+ Ejecutar una instancia de máquina virtual (VM) de Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (si implementas tu DataSync agente en Google Cloud)
+ Ejecutar una instancia de [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (si despliega su DataSync agente en una VPC interna) AWS
+ Transferir los datos mediante el uso [DataSync](https://aws.amazon.com/datasync/pricing/), incluidos los cargos de solicitud relacionados con [Google Cloud Storage](https://cloud.google.com/storage/pricing) y [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 es una de tus ubicaciones de transferencia)
+ Transferencia de datos desde [Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Almacenamiento de datos en [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Requisitos previos
<a name="transfer-google-cloud-storage-prerequisites"></a>

Antes de comenzar, haga lo siguiente si aún no lo ha hecho:
+ [Cree un bucket de Google Cloud Storage](https://cloud.google.com/storage/docs/creating-buckets) con los objetos a los que quiera transferir a AWS.
+ [Regístrese para una Cuenta de AWS](https://portal.aws.amazon.com/billing/signup).
+ [Cree un bucket de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) para almacenar los objetos después de que estén en AWS.

## Creación de una clave HMAC para su bucket de Google Cloud Storage
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync utiliza una clave HMAC asociada a tu cuenta de servicio de Google para autenticarse y leer el depósito desde el que estás transfiriendo datos. (Para ver instrucciones detalladas sobre cómo crear claves HMAC, consulte la [Documentación de Google Cloud Storage](https://cloud.google.com/storage/docs/authentication/hmackeys)).

**Cómo crear una clave HMAC**

1. Cree una clave HMAC para su cuenta de servicio de Google.

1. Asegúrese de que su cuenta de servicio de Google tenga al menos permisos `Storage Object Viewer`.

1. Guarde el ID y el secreto de acceso de la clave HMAC en un lugar seguro.

   Necesitarás estos elementos más adelante para configurar la ubicación de DataSync origen.

## Paso 2: configurar su red
<a name="transfer-google-cloud-storage-configure-network"></a>

La configuración de la red solo es necesaria cuando se utiliza un DataSync agente con la transferencia. Los requisitos de red para esta migración dependen del lugar en el que decida implementar el agente.

### Para un DataSync agente en Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Si quieres alojar a tu DataSync agente en Google Cloud, configura tu red para [permitir las DataSync transferencias a través de un punto final público](datasync-network.md#using-public-endpoints).

### Para un DataSync agente en su VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Si desea alojar a su agente AWS, necesita una VPC con un punto final de interfaz. DataSync utiliza el punto final de la VPC para facilitar la transferencia.

**Cómo configurar la red para un punto de conexión de VPC**

1. Si no tiene una, [cree una VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) en el mismo lugar que su bucket Región de AWS de S3.

1. [Cree una subred privada para su VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html).

1. [Cree un punto final de servicio de VPC para](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html). DataSync

1. Configure su red para [permitir las DataSync transferencias a través de un punto final de servicio de VPC](datasync-network.md#using-vpc-endpoint).

   Para ello, modifique el [grupo de seguridad](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html) asociado a su punto de conexión de servicio de VPC.

## Paso 3: Crear un DataSync agente (opcional)
<a name="transfer-google-cloud-storage-create-agent"></a>

Solo se necesita un DataSync agente cuando se utilizan las tareas del modo **básico**. Si utiliza el modo **mejorado** para transferir datos entre Google Cloud Storage (GCS) y Amazon S3, no se requiere un agente. Si quieres usar el modo **básico**, necesitas un DataSync agente que pueda acceder a tu depósito de GCS.

### Para Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

En este escenario, el DataSync agente se ejecuta en tu entorno de Google Cloud.

**Antes de empezar**: [instala la CLI de Google Cloud](https://cloud.google.com/sdk/docs/install).

**Cómo crear el agente para Google Cloud**

1. Abre la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, elija **Agentes** y luego, **Crear agente**.

1. Para **Hypervisor**, elija **VMware ESXi**y, a continuación, elija **Descargar la imagen** para descargar un `.zip` archivo que contenga el agente.

1. Abra un terminal. Ejecute el siguiente comando para descomprimir la imagen:

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Extraiga el contenido del archivo `.ova` del agente, empezando por `aws-datasync` ejecutando el siguiente comando:

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importe el archivo `.vmdk` del agente a Google Cloud ejecutando el siguiente comando CLI de Google Cloud:

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**nota**  
La importación del archivo `.vmdk` puede tardar hasta dos horas.

1. Cree e inicie una instancia de máquina virtual para la imagen del agente que acaba de importar. 

   La instancia necesita las siguientes configuraciones para su agente. (Para ver instrucciones detalladas sobre cómo crear una instancia, consulte la [Documentación de Google Cloud Compute Engine](https://cloud.google.com/compute/docs/instances)).
   + En el tipo de máquina, seleccione una de las siguientes opciones:
     + **e2-standard-8**: para ejecutar DataSync tareas con hasta 20 millones de objetos.
     + **e2-standard-16**: para ejecutar DataSync tareas con más de 20 millones de objetos.
   + Para ver la configuración del disco de arranque, vaya a la sección de imágenes personalizadas. A continuación, elija la imagen del DataSync agente que acaba de importar.
   + Para configurar la cuenta de servicio, elija su cuenta de servicio de Google (la misma cuenta que utilizó en el [paso 1)](#transfer-google-cloud-storage-create-hmac-key).
   + Para la configuración del firewall, elija la opción para permitir el tráfico HTTP (puerto 80).

     Para activar el DataSync agente, el puerto 80 debe estar abierto en el agente. No se requiere que el puerto sea accesible públicamente. Una vez activado, DataSync cierra el puerto.

1. Una vez que la instancia de máquina virtual esté en ejecución, anote la dirección IP pública.

   Necesitará esta dirección IP para activar el agente.

1. Vuelve a la DataSync consola. En la pantalla **Crear agente**, donde descargó la imagen del agente, haga lo siguiente para activar el agente:
   + En el **tipo de punto de conexión**, elija la opción de puntos de conexión de servicio público (por ejemplo, **puntos de conexión de servicio público en el Este de EE. UU. (Ohio)**).
   + En **Clave de activación**, elija **Obtener automáticamente la clave de activación de su agente**.
   + En **Dirección del agente**, introduzca la dirección IP pública de la instancia de máquina virtual del agente que acaba de crear.
   + Seleccione **Obtener clave**.

1. Asigne un nombre para el agente y, a continuación, elija **Crear agente**.

Su agente está en línea y listo para transferir datos.

### Para su VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

En este escenario, el agente se ejecuta como una instancia de Amazon EC2 en una VPC asociada a la suya. Cuenta de AWS

**Antes de empezar**: [configure AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html).

**Cómo crear el agente para su VPC**

1. Abra un terminal. Asegúrese de configurar su AWS CLI perfil para usar la cuenta asociada a su bucket de S3.

1. Copie el siguiente comando. Sustituya `vpc-region` por la Región de AWS donde reside la VPC (por ejemplo, `us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Ejecute el comando. En la salida, anote la propiedad `"Value"`.

   Este valor es el ID de DataSync Amazon Machine Image (AMI) de la región que especificó. Por ejemplo, un ID de AMI podría ser `ami-1234567890abcdef0`.

1. Copie la siguiente URL. De nuevo, sustituya `vpc-region` por la Región de AWS donde reside la VPC. Luego, sustituya `ami-id` por el ID de AMI que anotó en el paso anterior.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Pegue la URL en un navegador.

   Aparece la página de lanzamiento de la instancia Amazon EC2. Consola de administración de AWS 

1. Para el **tipo de instancia**, elija una de las [instancias de Amazon EC2 recomendadas para DataSync los agentes](agent-requirements.md#ec2-instance-types).

1. En **Par de claves**, seleccione un par de claves existente o cree uno nuevo.

1. En **Configuración de red**, elija la VPC y la subred donde quiera implementar el agente.

1. Seleccione **Iniciar instancia**.

1. Una vez que la instancia de Amazon EC2 se esté ejecutando, [elija el punto de conexión de VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Activación del agente](activate-agent.md).

## Paso 4: Crea una ubicación de DataSync origen para tu depósito de Google Cloud Storage
<a name="transfer-google-cloud-storage-create-source"></a>

Para configurar una DataSync ubicación para tu depósito de Google Cloud Storage, necesitas el identificador de acceso y el secreto de la clave HMAC que creaste en el [paso 1](#transfer-google-cloud-storage-create-hmac-key).

**Para crear la ubicación de DataSync origen**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Almacenamiento de objetos**.

1. En **Servidor**, introduzca **storage.googleapis.com**.

1. En **Nombre del bucket**, introduzca el nombre del bucket de Google Cloud Storage.

1. En **Carpeta**, introduzca un prefijo de objeto.

   DataSync solo copia objetos con este prefijo.

1. Si la transferencia requiere un agente, seleccione **Usar agentes** y, a continuación, seleccione el agente que creó en el [Paso 3](#transfer-google-cloud-storage-create-agent).

1. Amplíe **Configuración adicional**. En **Protocolo del servidor**, seleccione **HTTPS**. En **Puerto del servidor**, seleccione **443**.

1. Desplácese hasta la sección **Autenticación**. Asegúrese de que la casilla **Requiere credenciales** esté seleccionada y, a continuación, haga lo siguiente:
   + En **Clave de acceso**, introduzca el ID de acceso de la clave HMAC.
   + En **Clave secreta**, introduzca directamente la clave secreta de su clave HMAC o especifique un AWS Secrets Manager secreto que contenga la clave. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Seleccione **Crear ubicación**.

## Paso 5: Cree una ubicación de DataSync destino para su bucket de S3
<a name="transfer-google-cloud-storage-create-destination"></a>

Necesita una DataSync ubicación en la que desee que terminen sus datos.

**Para crear la ubicación de DataSync destino**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. [Cree una DataSync ubicación para el depósito de S3](create-s3-location.md).

   Si implementó el DataSync agente en la VPC, en este tutorial se supone que el bucket de S3 está en el mismo Región de AWS lugar que la VPC y el agente. DataSync 

## Paso 6: Crear e iniciar una tarea DataSync
<a name="transfer-google-cloud-storage-start-task"></a>

Con las ubicaciones de origen y destino configuradas, puede empezar a mover los datos a ellas AWS.

**Para crear e iniciar la DataSync tarea**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. En la página **Configurar ubicación de origen**, haga lo siguiente:

   1. Elija **Elegir una ubicación existente**.

   1. Elija la ubicación de origen que creó en el [paso 4](#transfer-google-cloud-storage-create-source) y, a continuación, elija **Siguiente**.

1. En la página **Configurar ubicación de destino**, haga lo siguiente:

   1. Elija **Elegir una ubicación existente**.

   1. Elija la ubicación de destino que creó en el [paso 5](#transfer-google-cloud-storage-create-destination) y, a continuación, seleccione **Siguiente**.

1. En la página **Configurar ajustes**, haga lo siguiente:

   1. En **Configuración de transferencia de datos**, expanda **Ajustes adicionales** y desactive la casilla **Copiar etiquetas de objetos**.
**importante**  
Como la API XML de Google Cloud Storage no admite la lectura ni la escritura de etiquetas de objetos, es posible que se produzca un error en la DataSync tarea si intentas copiar etiquetas de objetos.

   1. Configure cualquier otro ajuste de tareas que desee y, a continuación, seleccione **Siguiente**.

1. En la página **Revisar**, revise los ajustes y luego seleccione **Crear tarea**.

1. En la página de detalles de la tarea, elija **Iniciar** y, a continuación, elija una de las siguientes acciones:
   + Para ejecutar la tarea sin modificarla, seleccione **Comenzar con los valores predeterminados**.
   + Para modificar la tarea antes de ejecutarla, elija **Comenzar con las opciones principales**.

Cuando finalice la tarea, verá los objetos del bucket de Google Cloud Storage en el bucket de S3.

# Configuración de transferencias con Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Con él AWS DataSync, puede transferir datos entre Microsoft Azure Blob Storage (incluido el almacenamiento de Azure Data Lake Storage Gen2 blobs) y los siguientes AWS servicios de almacenamiento:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Servidor FSx de archivos Amazon para Windows](create-fsx-location.md)
+ [Amazon FSx para Lustre](create-lustre-location.md)
+ [Amazon FSx para OpenZFS](create-openzfs-location.md)
+ [Amazon FSx para NetApp ONTAP](create-ontap-location.md)

Para configurar este tipo de transferencia, cree una [ubicación](how-datasync-transfer-works.md#sync-locations) de transferencia para su Azure Blob Storage. Puede usar esta ubicación como origen o destino de la transferencia. Solo se necesita un DataSync agente para transferir datos entre Azure Blob y Amazon EFS o Amazon FSx, o cuando se utilizan tareas del modo **Básico**. No se requiere un agente para transferir datos entre Azure Blob y Amazon S3 cuando se usa el modo **mejorado**.

## Proporcionar DataSync acceso a su Azure Blob Storage
<a name="azure-blob-access"></a>

La forma de DataSync acceder a tu cuenta Azure Blob Storage depende de varios factores, como si te estás transfiriendo hacia o desde el almacenamiento de bloques y el tipo de [token de firma de acceso compartido (SAS)](#azure-blob-sas-tokens) que utilices. Los objetos también deben estar en un [nivel de acceso](#azure-blob-access-tiers) con el que DataSync puedan funcionar.

**Topics**
+ [Tokens SAS](#azure-blob-sas-tokens)
+ [Niveles de acceso](#azure-blob-access-tiers)

### Tokens SAS
<a name="azure-blob-sas-tokens"></a>

Un token SAS especifica los permisos de acceso al almacenamiento de blobs. (Para obtener más información sobre SAS, consulte la [Documentación de Azure Blob Storage](https://learn.microsoft.com/azure/storage/common/storage-sas-overview)).

Puede generar tokens SAS para proporcionar diferentes niveles de acceso. DataSync admite tokens con los siguientes niveles de acceso:
+ Cuenta
+ Container

Los permisos de acceso DataSync necesarios dependen del alcance del token. Si no tiene los permisos correctos, es posible que la transferencia no se realice correctamente. Por ejemplo, la transferencia no se realizará correctamente si mueve objetos con etiquetas a Azure Blob Storage pero su token SAS no tiene permisos de etiquetado.

**Topics**
+ [Permisos de token SAS para acceso a nivel de cuenta](#account-sas-tokens)
+ [Permisos de token SAS para acceso a nivel de contenedor](#container-sas-tokens)
+ [Políticas de caducidad de SAS](#azure-blob-sas-expiration-policies)

#### Permisos de token SAS para acceso a nivel de cuenta
<a name="account-sas-tokens"></a>

DataSync necesita un token de acceso a nivel de cuenta con los siguientes permisos (en función de si se transfiere hacia o desdeAzure Blob Storage).

------
#### [ Transfers from blob storage ]
+ **Servicios permitidos:**: blob
+ **Tipos de recursos permitidos**: contenedor, objeto

  Si no incluyes estos permisos, no DataSync podrás transferir los metadatos de tus objetos, incluidas las etiquetas de los [objetos](#azure-blob-considerations-object-tags).
+ **Permisos permitidos**: lectura, enumeración
+ **Permisos de indexación de blobs permitidos** Read/Write (si quieres DataSync copiar [etiquetas de objetos](#azure-blob-considerations-object-tags))

------
#### [ Transfers to blob storage ]
+ **Servicios permitidos:**: blob
+ **Tipos de recursos permitidos**: contenedor, objeto

  Si no incluyes estos permisos, no DataSync podrás transferir los metadatos de tus objetos, incluidas las [etiquetas de los objetos](#azure-blob-considerations-object-tags).
+ **Permisos permitidos**: leer, escribir, enumerar y eliminar (si quieres DataSync eliminar archivos que no están en tu fuente de transferencia)
+ **Permisos de indexación de blobs permitidos** Read/Write (si quieres DataSync copiar [etiquetas de objetos](#azure-blob-considerations-object-tags))

------

#### Permisos de token SAS para acceso a nivel de contenedor
<a name="container-sas-tokens"></a>

DataSync necesita un token de acceso a nivel de contenedor con los siguientes permisos (dependiendo de si se está transfiriendo hacia o desde). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ Lectura
+ Enumeración
+ Etiqueta (si quieres copiar etiquetas DataSync de [objetos](#azure-blob-considerations-object-tags))
**nota**  
No puede añadir el permiso para etiquetar al generar un token SAS en el portal de Azure. Para añadir el permiso para etiquetar, genere el token mediante la aplicación [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer) o genere un [token SAS que proporcione acceso a nivel de cuenta](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Lectura
+ Escritura
+ Enumeración
+ Eliminar (si quieres DataSync eliminar archivos que no están en tu fuente de transferencia)
+ Etiqueta (si quieres DataSync copiar [etiquetas de objetos](#azure-blob-considerations-object-tags))
**nota**  
No puede añadir el permiso para etiquetar al generar un token SAS en el portal de Azure. Para añadir el permiso para etiquetar, genere el token mediante la aplicación [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer) o genere un [token SAS que proporcione acceso a nivel de cuenta](#account-sas-tokens).

------

#### Políticas de caducidad de SAS
<a name="azure-blob-sas-expiration-policies"></a>

Asegúrese de que su SAS no caduque antes de finalizar la transferencia. Para obtener información sobre la configuración de una política de caducidad de SAS, consulte la [Documentación de Azure Blob Storage](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy).

Si el SAS caduca durante la transferencia, ya no DataSync podrá acceder a su Azure Blob Storage ubicación. (Es posible que aparezca un mensaje de Failed to open directory). Si esto ocurre, [actualice su ubicación](#azure-blob-update-location) con un nuevo token SAS y reinicie la DataSync tarea.

### Niveles de acceso
<a name="azure-blob-access-tiers"></a>

Al transferir desdeAzure Blob Storage, DataSync puede copiar objetos en los niveles caliente y frío. En el caso de los objetos del nivel de acceso al archivo, debe rehidratar dichos objetos en el nivel caliente o frío antes de poder copiarlos.

Al transferirlos aAzure Blob Storage, DataSync puede copiar objetos a los niveles de acceso caliente, frío y archivado. Si está copiando objetos en el nivel de acceso al archivo, no DataSync podrá verificar la transferencia si está intentando [verificar todos los datos del destino](configure-data-verification-options.md).

DataSync no es compatible con el nivel de acceso en frío. Para obtener más información sobre los niveles de acceso, consulte la [Documentación de Azure Blob Storage](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Consideraciones sobre las transferencias de Azure Blob Storage
<a name="azure-blob-considerations"></a>

Cuando planee transferir datos hacia o desde Azure Blob Storage allí DataSync, hay algunas cosas que debe tener en cuenta.

**Topics**
+ [Costos](#azure-blob-considerations-costs)
+ [Tipos de blobs](#blob-types)
+ [Región de AWS disponibilidad](#azure-blob-considerations-regions)
+ [Copiado de etiquetas de objeto](#azure-blob-considerations-object-tags)
+ [Transferencia a Amazon S3](#azure-blob-considerations-s3)
+ [Eliminación de directorios en un destino de transferencia](#azure-blob-considerations-deleted-files)
+ [Limitaciones](#azure-blob-limitations)

### Costos
<a name="azure-blob-considerations-costs"></a>

Las tarifas asociadas a mover datos hacia dentro o hacia afuera de Azure Blob Storage pueden incluir:
+ Ejecutar una [máquina Azure virtual (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (si despliega un DataSync agenteAzure)
+ Ejecutar una instancia de [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (si implementa un DataSync agente en una VPC interna) AWS
+ Transferir los datos mediante el uso [DataSync](https://aws.amazon.com/datasync/pricing/), incluidos los cargos de solicitud relacionados [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)con [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 es una de sus ubicaciones de transferencia)
+ Transferencia de datos hacia adentro o hacia afuera de [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Almacenamiento de datos en un [servicio AWS de almacenamiento](working-with-locations.md) compatible con DataSync

### Tipos de blobs
<a name="blob-types"></a>

El DataSync funcionamiento de los tipos de blobs depende de si los transfieres hacia o desdeAzure Blob Storage. Cuando mueves datos al almacenamiento de bloques, los objetos o archivos que se DataSync transfieren solo pueden ser bloques de bloques. Cuando mueves datos fuera del almacenamiento de bloques, DataSync puedes transferir bloques, páginas y anexar bloques.

Para obtener más información acerca de los tipos de blobs, consulte la [Documentación de Azure Blob Storage](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs).

### Región de AWS disponibilidad
<a name="azure-blob-considerations-regions"></a>

Puedes crear una ubicación de Azure Blob Storage transferencia en cualquiera de las [Región de AWS que sea compatible con DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Copiado de etiquetas de objeto
<a name="azure-blob-considerations-object-tags"></a>

La posibilidad de DataSync conservar las etiquetas de los objetos al realizar transferencias de ida y Azure Blob Storage vuelta depende de los siguientes factores:
+ **El tamaño de las etiquetas de un objeto**: no DataSync se puede transferir un objeto con etiquetas que superen los 2 KB.
+ **Si DataSync está configurado para copiar etiquetas de objetos**: DataSync [copia las etiquetas de objetos](configure-metadata.md) de forma predeterminada.
+ **El espacio de nombres que usa su cuenta de Azure almacenamiento**: DataSync puede copiar etiquetas de objetos si su cuenta de Azure almacenamiento usa un espacio de nombres plano, pero no si su cuenta usa un espacio de nombres jerárquico (una función de). Azure Data Lake Storage Gen2 DataSync La tarea fallará si intenta copiar etiquetas de objetos y su cuenta de almacenamiento utiliza un espacio de nombres jerárquico.
+ **Si su token SAS autoriza el etiquetado**: los permisos que necesita para copiar etiquetas de objetos varían según el nivel de acceso que proporcione su token. La tarea fallará si intenta copiar etiquetas de objetos y su token no tiene los permisos adecuados para etiquetar. Para obtener más información, consulte los requisitos de permiso para los [tokens de acceso a nivel de cuenta](#account-sas-tokens) o los [tokens de acceso a nivel de contenedor](#container-sas-tokens).

### Transferencia a Amazon S3
<a name="azure-blob-considerations-s3"></a>

Al realizar la transferencia a Amazon S3, DataSync no transferirá Azure Blob Storage objetos de más de 5 TB ni objetos con metadatos de más de 2 KB.

### Eliminación de directorios en un destino de transferencia
<a name="azure-blob-considerations-deleted-files"></a>

Al realizar la transferencia aAzure Blob Storage, DataSync puede [eliminar objetos del almacenamiento de blobs que no estén presentes en la fuente de transferencia](configure-metadata.md). (Para configurar esta opción, desactive la opción **Conservar los archivos eliminados** de la DataSync consola. Su [token SAS](#azure-blob-sas-tokens) también debe tener permisos de eliminación).

Si configuras la transferencia de esta manera, DataSync no se eliminarán los directorios de tu almacenamiento de blobs si tu cuenta de Azure almacenamiento utiliza un espacio de nombres jerárquico. En este caso, debe eliminar los directorios manualmente (por ejemplo, utilizando [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)).

### Limitaciones
<a name="azure-blob-limitations"></a>

Recuerde las siguientes limitaciones cuando transfiera datos a Azure Blob Storage o desde él:
+ DataSync [crea algunos directorios](filtering.md#directories-ignored-during-transfers) en una ubicación para facilitar la transferencia. Si Azure Blob Storage es una ubicación de destino y tu cuenta de almacenamiento usa un espacio de nombres jerárquico, es posible que veas subdirectorios específicos para cada tarea (por ejemplo) en la carpeta. `task-000011112222abcde` `/.aws-datasync` DataSync normalmente elimina estos subdirectorios después de una transferencia. Si eso no sucede, puede eliminar usted mismo estos directorios específicos de tareas mientras la tarea no esté en ejecución.
+ DataSync no admite el uso de un token SAS para acceder únicamente a una carpeta específica del contenedor. Azure Blob Storage
+ No puedes proporcionar DataSync un token SAS de delegación de usuarios para acceder a tu almacenamiento de blobs.

## Crear tu DataSync agente (opcional)
<a name="azure-blob-creating-agent"></a>

Solo se necesita un DataSync agente para transferir datos entre Azure Blob y Amazon EFS o Amazon FSx, o cuando se utilizan tareas del modo **Básico**. No se requiere un agente para transferir datos entre Azure Blob y Amazon S3 cuando se usa el modo **mejorado**. En esta sección se describe cómo implementar y activar un agente.

**sugerencia**  
Si bien puede implementar su agente en una instancia de Amazon EC2, el uso de un agente de Microsoft Hyper-V puede reducir la latencia de la red y aumentar la compresión de los datos. 

### Agentes de Microsoft Hyper-V
<a name="azure-blob-creating-agent-hyper-v"></a>

Puede implementar su DataSync agente directamente Azure con una Microsoft Hyper-V imagen.

**sugerencia**  
Antes de continuar, considere la posibilidad de utilizar un script del intérprete de comandos que pueda ayudarle a implementar su agente de Hyper-V en Azure de forma más rápida. Puede obtener más información y descargar el código en [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure).  
Si usa el script, puede pasar directamente a la sección sobre [Obtención de la clave de activación de su agente](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Requisitos previos](#azure-blob-creating-agent-hyper-v-0)
+ [Descarga y preparación de su agente](#azure-blob-creating-agent-hyper-v-1)
+ [Implementación de su agente en Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Obtención de la clave de activación de su agente](#azure-blob-creating-agent-hyper-v-3)
+ [Activación de su agente](#azure-blob-creating-agent-hyper-v-4)

#### Requisitos previos
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Para preparar el DataSync agente e implementarloAzure, debe hacer lo siguiente:
+ Habilite Hyper-V en su máquina local.
+ Instale [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1) (incluido el Hyper-V Module).
+ Instale la [CLI de Azure](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Instale [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Descarga y preparación de su agente
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Descargue un agente de la DataSync consola. Antes de poder implementar el agente en Azure, debe convertirlo en un disco duro virtual (VHD) de tamaño fijo. Para obtener más información, consulte la [Documentación de Azure](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**Cómo descargar y preparar su agente**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, elija **Agentes** y luego, **Crear agente**.

1. Para **Hipervisor**, elija **Microsoft Hyper-V** y, a continuación, elija **Descargar la imagen**.

   El agente se descarga en un archivo `.zip` que contiene un archivo `.vhdx`.

1. Extraiga el archivo `.vhdx` en su máquina local.

1. Abra PowerShell y haga lo siguiente:

   1. Copie el siguiente cmdlet de `Convert-VHD`:

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Sustituya cada instancia de `local-path-to-vhdx-file` por la ubicación del archivo `.vhdx` en su máquina local.

   1. Ejecute el comando .

   Su agente ahora es un VHD de tamaño fijo (con un formato de archivo `.vhd`) y está listo para su implementación en Azure.

#### Implementación de su agente en Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

El despliegue de su DataSync agente Azure implica:
+ Creación de un disco administrado en Azure
+ Carga de su agente en ese disco administrado
+ Conexión del disco administrado a una máquina virtual Linux

**Cómo implementar su agente en Azure**

1. En PowerShell, vaya al directorio que contiene el archivo `.vhd` de su agente.

1. Ejecute el comando `ls` y guarde el valor `Length` (por ejemplo, `85899346432`).

   Este es el tamaño de la imagen del agente en bytes, que necesitará al crear un disco administrado que pueda contener la imagen.

1. Haga lo siguiente para crear un disco administrado:

   1. Copie el siguiente comando Azure de la CLI:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. Sustituya `your-managed-disk` por un nombre para su disco administrado.

   1. Sustituya `your-resource-group` por el nombre del grupo de recursos de Azure al que pertenece su cuenta de almacenamiento.

   1. Sustituya `your-azure-region` por la región de Azure en la que se encuentra su grupo de recursos.

   1. Sustituya `agent-size-bytes` por el tamaño de su imagen de agente.

   1. Ejecute el comando .

   Este comando crea un disco gestionado vacío con un [SKU estándar](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types) en el que puede cargar su DataSync agente.

1. Para generar una firma de acceso compartido (SAS) que permita el acceso de escritura al disco administrado, haga lo siguiente:

   1. Copie el siguiente comando Azure de la CLI:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. Sustituya `your-managed-disk` por el nombre del disco administrado que creó.

   1. Sustituya `your-resource-group` por el nombre del grupo de recursos de Azure al que pertenece su cuenta de almacenamiento.

   1. Ejecute el comando .

      En la salida, busque y anote el URI del SAS. Necesitará este URI cuando cargue el agente en Azure.

   El SAS le permite escribir en el disco durante un máximo de una hora. Esto significa que dispone de una hora para cargar su agente en el disco administrado.

1. Para cargar el agente en su disco administrado en Azure, haga lo siguiente:

   1. Copie el siguiente comando `AzCopy`:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. Sustituya `local-path-to-vhd-file` por la ubicación del archivo del agente `.vhd` en su máquina local.

   1. Sustituya `sas-uri` por el URI de SAS que obtuvo cuando ejecutó el comando `az disk grant-access`.

   1. Ejecute el comando .

1. Cuando finalice la carga del agente, revoque el acceso al disco administrado. Para hacerlo, copie el siguiente comando Azure de la CLI:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. Sustituya `your-resource-group` por el nombre del grupo de recursos de Azure al que pertenece su cuenta de almacenamiento.

   1. Sustituya `your-managed-disk` por el nombre del disco administrado que creó.

   1. Ejecute el comando .

1. Haga lo siguiente para conectar el disco administrado a una nueva máquina virtual Linux:

   1. Copie el siguiente comando Azure de la CLI:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. Sustituya `your-resource-group` por el nombre del grupo de recursos de Azure al que pertenece su cuenta de almacenamiento.

   1. Sustituya `your-agent-vm` por un nombre para la máquina virtual que pueda recordar.

   1. Sustituya `your-managed-disk` por el nombre del disco administrado que está conectando a la máquina virtual.

   1. Ejecute el comando .

Ha implementado su agente. Antes de empezar a configurar la transferencia de datos, debe activar el agente.

#### Obtención de la clave de activación de su agente
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Para obtener manualmente la clave de activación de su DataSync agente, siga estos pasos. 

Como alternativa, [DataSync puede obtener automáticamente la clave de activación](activate-agent.md), pero este enfoque requiere cierta configuración de red.

**Cómo obtener la clave de activación de su agente**

1. En el portal de Azure, [habilite el diagnóstico de arranque de la máquina virtual para su agente](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics); para ello, seleccione la configuración **Habilitar con una cuenta de almacenamiento personalizada** y especifique su cuenta de almacenamiento de Azure.

   Una vez que haya activado los diagnósticos de arranque de la máquina virtual de su agente, podrá acceder a la consola local del agente para obtener la clave de activación.

1. Mientras está en el portal de Azure, vaya a su máquina virtual y elija **Consola serie**.

1. En la consola local del agente, inicie sesión con las siguientes credenciales predeterminadas: 
   + **Nombre de usuario:** **admin**
   + **Contraseña:** **password**

   Recomendamos cambiar al menos la contraseña del agente en algún momento. En la consola local del agente, introduzca **5** en el menú principal y, a continuación, utilice el comando `passwd` para cambiar la contraseña.

1. Introduzca **0** para obtener la clave de activación del agente.

1. Introduzca la Región de AWS ubicación que está utilizando DataSync (por ejemplo,**us-east-1**).

1. Elija el [punto de conexión del servicio](choose-service-endpoint.md) con el que se conectará el agente AWS. 

1. Guarde el valor del resultado de la `Activation key`. 

#### Activación de su agente
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Una vez que tenga la clave de activación, podrá terminar de crear su DataSync agente.

**Cómo activar el agente**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, elija **Agentes** y luego, **Crear agente**.

1. Como **Hipervisor**, elija **Microsoft Hyper-V**.

1. Para el **tipo de punto final**, elija el mismo tipo de punto final de servicio que especificó al obtener la clave de activación de su agente (por ejemplo, seleccione **puntos finales de servicio público en *Region name***).

1. Configure su red para que funcione con el tipo de punto de conexión de servicio que utilice su agente. Para conocer los requisitos de la red de punto de conexión del servicio, consulte los siguientes temas:
   + [Puntos de conexión de VPC](datasync-network.md#using-vpc-endpoint)
   + [Puntos de conexión públicos](datasync-network.md#using-public-endpoints)
   + [Puntos de conexión del estándar federal de procesamiento de información (FIPS)](datasync-network.md#using-public-endpoints)

1. Para la **clave de activación**, haga lo siguiente:

   1. Elija **Introducir manualmente la clave de activación de su agente**.

   1. Introduzca la clave de activación que obtuvo de la consola local del agente.

1. Elija **Crear agente**.

Su agente está listo para conectarse con su Azure Blob Storage. Para obtener más información, consulte [Creación de su ubicación de transferencia de Azure Blob Storage](#creating-azure-blob-location-how-to).

### Agentes de Amazon EC2
<a name="azure-blob-creating-agent-ec2"></a>

Puede implementar su DataSync agente en una instancia de Amazon EC2.

**Cómo crear un agente de Amazon EC2**

1. [Implemente un agente de Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Elija un punto de conexión de servicio](choose-service-endpoint.md) que el agente use para comunicarse con AWS.

   En esta situación, se recomienda utilizar un punto de conexión de servicio de nube privada virtual (VPC).

1. Configure su red para que funcione con los [puntos de conexión del servicio de VPC](datasync-network.md#using-vpc-endpoint).

1. [Active el agente](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## Creación de su ubicación de transferencia de Azure Blob Storage
<a name="creating-azure-blob-location-how-to"></a>

Puede configurarlo DataSync para que Azure Blob Storage lo utilice como fuente o destino de la transferencia.

**Antes de empezar**  
Asegúrese de saber [cómo se DataSync accede a los [niveles de acceso Azure Blob Storage](#azure-blob-access-tiers) y los](#azure-blob-access) tipos de [blob](#blob-types) y cómo funciona con ellos. También necesita un [DataSync agente](#azure-blob-creating-agent) que pueda conectarse a su Azure Blob Storage contenedor.

### Uso de la DataSync consola
<a name="creating-azure-blob-location-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, elija **Microsoft Azure Blob Storage**.

1. En **URL del contenedor**, escriba la URL del contenedor implicado en la transferencia.

1. (Opcional) Para **Acceder al nivel de acceso cuando se usa como destino**, elija el [nivel de acceso](#azure-blob-access-tiers) al que quiere que se transfieran sus objetos o archivos.

1. En **Carpeta**, introduzca los segmentos de ruta si desea limitar la transferencia a un directorio virtual del contenedor (por ejemplo,`/my/images`).

1. Si su transferencia requiere un agente, elija **Usar agentes** y, a continuación, elija el DataSync agente que pueda conectarse con su Azure Blob Storage contenedor.

1. En el caso del **token SAS**, proporciona las credenciales necesarias para acceder DataSync a tu almacenamiento de blobs. Algunos conjuntos de datos públicos en Azure Blob Storage no requieren credenciales. Puede introducir un token SAS directamente o especificar un AWS Secrets Manager secreto que contenga el token. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   El token SAS forma parte de la cadena del URI de SAS que aparece después del URI del recurso de almacenamiento y de un signo de interrogación (`?`). Un token tiene un aspecto similar a este:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Opcional) Proporcione valores para los campos **Clave** y **Valor** para etiquetar la ubicación.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus AWS recursos. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

### Uso del AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Copie el siguiente comando `create-location-azure-blob`:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Para el parámetro `--container-url`, especifique la URL del contenedor Azure Blob Storage implicado en la transferencia.

1. En el parámetro `--authentication-type`, especifique `SAS`. Si se accede a un conjunto de datos público que no requiere autenticación, especifique `NONE`.

1. Para la `Token` opción del `--sas-configuration` parámetro, especifique el token SAS que permite acceder DataSync a su almacenamiento de blobs. 

   También puede proporcionar parámetros adicionales para proteger las claves mediante AWS Secrets Manager. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   El token SAS forma parte de la cadena del URI de SAS que aparece después del URI del recurso de almacenamiento y de un signo de interrogación (`?`). Un token tiene un aspecto similar a este:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Opcional) Para el `--agent-arns` parámetro, especifique el nombre de recurso de Amazon (ARN) del DataSync agente que se puede conectar al contenedor.

   El siguiente es un ejemplo de agente de ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Puede especificar más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para el parámetro `--subdirectory`, especifique los segmentos de ruta si quiere limitar la transferencia a un directorio virtual del contenedor (por ejemplo, `/my/images`).

1. (Opcional) Para el parámetro `--access-tier`, especifique el [nivel de acceso](#azure-blob-access-tiers) (`HOT`, `COOL` o `ARCHIVE`) al que quiere que se transfieran sus objetos o archivos.

   Este parámetro solo es aplicable cuando se utiliza esta ubicación como destino de transferencia.

1. (Opcional) Para el parámetro `--tags`, especifique pares clave-valor que le ayuden a administrar, filtrar y buscar su ubicación.

   Le recomendamos crear una etiqueta de nombre para su ubicación.

1. Ejecute el comando `create-location-azure-blob`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la ubicación que creó. Por ejemplo:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Visualización de su ubicación de transferencia de Azure Blob Storage
<a name="azure-blob-view-location"></a>

Puedes obtener detalles sobre la ubicación de DataSync transferencia existente para tuAzure Blob Storage.

### Uso de la DataSync consola
<a name="azure-blob-view-location-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones**.

1. Elija su ubicación de Azure Blob Storage.

   Puedes ver los detalles de tu ubicación, incluidas las tareas de DataSync transferencia que la estén utilizando.

### Usando el AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Copie el siguiente comando `describe-location-azure-blob`:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Para el parámetro `--location-arn`, especifique el ARN de la ubicación Azure Blob Storage que creó (por ejemplo, `arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Ejecute el comando `describe-location-azure-blob`.

   Recibirá una respuesta que le mostrará detalles sobre su ubicación. Por ejemplo:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Actualización de su ubicación de transferencia de Azure Blob Storage
<a name="azure-blob-update-location"></a>

Si es necesario, puede modificar la configuración de su ubicación en la consola o mediante la AWS CLI.

### Usando el AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Copie el siguiente comando `update-location-azure-blob`:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Para el parámetro `--location-arn`, especifique el ARN de la ubicación Azure Blob Storage que va a actualizar (por ejemplo, `arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. En el parámetro `--authentication-type`, especifique `SAS`.

1. Para la `Token` opción del `--sas-configuration` parámetro, especifique el token SAS que permite acceder DataSync a su almacenamiento de blobs. 

   El token forma parte de la cadena URI de SAS que aparece después del URI del recurso de almacenamiento y de un signo de interrogación (`?`). Un token tiene un aspecto similar a este:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Para el `--agent-arns` parámetro, especifique el nombre de recurso de Amazon (ARN) del DataSync agente que quiere conectar al contenedor.

   El siguiente es un ejemplo de agente de ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Puede especificar más de un agente. Para obtener más información, consulte [Uso de varios DataSync agentes](do-i-need-datasync-agent.md#multiple-agents).

1. Para el parámetro `--subdirectory`, especifique los segmentos de ruta si quiere limitar la transferencia a un directorio virtual del contenedor (por ejemplo, `/my/images`).

1. (Opcional) Para el parámetro `--access-tier`, especifique el [nivel de acceso](#azure-blob-access-tiers) (`HOT`, `COOL` o `ARCHIVE`) al que desea que se transfieran sus objetos.

   Este parámetro solo es aplicable cuando se utiliza esta ubicación como destino de transferencia.

## Siguientes pasos
<a name="create-azure-blob-location-next-steps"></a>

Cuando termines de crear una DataSync ubicación para tu transferenciaAzure Blob Storage, puedes seguir configurando tu transferencia. Aquí se indican algunos pasos siguientes que se deben tener en cuenta:

1. Si aún no lo ha hecho, [cree otra ubicación](working-with-locations.md) desde o hacia la que planea transferir los datos a su Azure Blob Storage o desde este.

1. Obtén información sobre cómo DataSync [gestiona los metadatos y los archivos especiales](metadata-copied.md), especialmente si tus ubicaciones de transferencia no tienen una estructura de metadatos similar.

1. Configure la forma en que se transfieren sus datos. Por ejemplo, puede [transferir solo un subconjunto de sus datos](filtering.md) o eliminar archivos de su almacenamiento de blobs que no estén en su ubicación de origen (siempre y cuando su [token SAS](#azure-blob-sas-tokens) tenga permisos de eliminación).

1. [Inicie la transferencia](run-task.md). 

# Configuración de AWS DataSync transferencias con recursos Microsoft Azure Files compartidos SMB
<a name="transferring-azure-files"></a>

Puede configurarlo AWS DataSync para transferir datos a o desde un recurso compartido de bloque de mensajes Microsoft Azure Files del servidor (SMB).

**sugerencia**  
[Para ver un tutorial completo sobre cómo transferir datos desde recursos compartidos de Azure Files SMB a archivos compartidos AWS, consulte el AWS blog sobre almacenamiento.](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)

## Proporcionar DataSync acceso a recursos compartidos para pequeñas y medianas empresas
<a name="configuring-smb-azure-files"></a>

DataSync se conecta a su recurso compartido SMB mediante el protocolo SMB y se autentica con las credenciales que usted le proporciona.

**Topics**
+ [Versiones del protocolo SMB compatibles](#configuring-smb-version-azure-files)
+ [Permisos necesarios](#configuring-smb-permissions-azure-files)

### Versiones del protocolo SMB compatibles
<a name="configuring-smb-version-azure-files"></a>

De forma predeterminada, elige DataSync automáticamente una versión del protocolo SMB en función de la negociación con el servidor de archivos SMB.

También puede configurarlo DataSync para usar una versión SMB específica, pero le recomendamos que lo haga solo si DataSync tiene problemas para negociar automáticamente con el servidor de archivos SMB. DataSync es compatible con las versiones 1.0 y posteriores para SMB. Por motivos de seguridad, se recomienda utilizar SMB versión 3.0.2 o posterior. Las versiones anteriores, como SMB 1.0, contienen vulnerabilidades de seguridad conocidas que los atacantes pueden explotar para comprometer los datos.

Consulte la siguiente tabla para ver una lista de las opciones de la DataSync consola y la API:


| Opción de la consola | Opción de la API | Description (Descripción) | 
| --- | --- | --- | 
| Automático |  `AUTOMATIC`  |  DataSync y el servidor de archivos SMB negocian la versión más alta de SMB que admiten mutuamente, entre la 2.1 y la 3.1.1. Esta es la opción predeterminada y recomendada. Si, por el contrario, elige una versión específica que el servidor de archivos no admite, es posible que aparezca un error `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Restringe la negociación del protocolo solo a la versión 3.0.2 de SMB.  | 
| SMB 2.1 |  `SMB2`  | Restringe la negociación del protocolo solo a la versión 2.1 de SMB. | 
| SMB 2.0 | `SMB2_0` | Restringe la negociación del protocolo solo a la versión 2.0 de SMB. | 
| SMB 1.0 | `SMB1` | Restringe la negociación del protocolo solo a la versión 1.0 de SMB. | 

### Permisos necesarios
<a name="configuring-smb-permissions-azure-files"></a>

DataSync necesita un usuario que tenga permiso para montar y acceder a su ubicación SMB. Este usuario puede ser un usuario local de su instancia de Windows File Server o puede ser un usuario del dominio definido en Microsoft Active Directory.

Para establecer la propiedad del objeto, se DataSync requiere el `SE_RESTORE_NAME` privilegio, que normalmente se otorga a los miembros de los grupos integrados de Active Directory, **Backup Operators** y **Domain Admins.** Proporcionar este privilegio a DataSync un usuario también ayuda a garantizar permisos suficientes para acceder a los archivos, las carpetas y los metadatos de los archivos, excepto en el caso de las listas de control de acceso al sistema NTFS ()SACLs.

Se requieren privilegios adicionales para copiar SACLs. Esta operación requiere específicamente el privilegio de Windows `SE_SECURITY_NAME`, que se concede a los miembros del grupo de **Administradores de dominio**. Si configura la tarea para que se copie SACLs, asegúrese de que el usuario tenga los privilegios necesarios. Para obtener más información sobre cómo configurar una tarea para SACLs copiarla, consulte[Configuración de la forma en que gestionan los archivos, los objetos y los metadatos](configure-metadata.md).

Al copiar datos entre un servidor de archivos SMB y el sistema de archivos Amazon FSx for Windows File Server, las ubicaciones de origen y destino deben pertenecer al mismo dominio de Microsoft Active Directory o tener una relación de confianza de Active Directory entre sus dominios.

## Crear la ubicación de transferencia de Azure Files mediante la consola
<a name="create-azure-files-smb-location-how-to"></a>

1. Abra la AWS DataSync consola en. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Location type (Tipo de ubicación)**, elija **Server Message Block (SMB)**.

   Puede configurar esta ubicación como origen o destino posteriormente.

1. En el **caso de los agentes**, elija uno o varios DataSync agentes que desee conectar a su recurso compartido SMB.

   Si elige más de un agente, asegúrese de entender el uso de [varios agentes para una ubicación](do-i-need-datasync-agent.md#multiple-agents).

1. En el caso **del servidor SMB**, introduzca el nombre del sistema de nombres de dominio (DNS) o la dirección IP del recurso compartido SMB que montará el DataSync agente.
**nota**  
No puede especificar una dirección IP de versión 6 (IPv6).

1. En **Nombre del recurso compartido**, introduzca el nombre del recurso compartido exportado por el recurso compartido SMB donde DataSync se leerán o escribirán los datos.

   Puede incluir un subdirectorio en la ruta del recurso compartido (por ejemplo, `/path/to/subdirectory`). Asegúrese de que otros clientes de SMB de la red también puedan montar esta ruta. 

   Para copiar todos los datos del subdirectorio, DataSync debe poder montar el recurso compartido SMB y acceder a todos sus datos. Para obtener más información, consulte [Permisos necesarios](create-smb-location.md#configuring-smb-permissions).

1. (Opcional) Amplíe **la configuración adicional** y elija una **versión SMB** para usarla DataSync al acceder a su recurso compartido SMB.

   De forma predeterminada, elige DataSync automáticamente una versión en función de la negociación con el recurso compartido SMB. Para obtener información, consulte [Versiones compatibles de SMB](create-smb-location.md#configuring-smb-version).

1. En **Usuario**, introduzca el nombre de usuario que puede montar el recurso compartido SMB y que tiene permiso para acceder a los archivos y carpetas que intervienen en la transferencia.

   Para obtener más información, consulte [Permisos necesarios](create-smb-location.md#configuring-smb-permissions).

1. En **Contraseña**, introduzca la contraseña del usuario que puede montar el recurso compartido SMB y que tiene los permisos para obtener acceso a los archivos y carpetas que intervienen en la transferencia..

1. (Opcional) Para **Dominio**, introduzca el nombre de dominio de Windows al que pertenece su recurso compartido de SMB.

   Si tiene varios dominios en su entorno, al configurar esta configuración se asegura de que DataSync se conecte al recurso compartido correcto.

1. (Opcional) Elija **Añadir etiqueta** para etiquetar su ubicación.

   Las *etiquetas* son pares de clave-valor que le ayudan a administrar, filtrar y buscar sus recursos de DataSync. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

# Configuración de transferencias de con otro almacenamiento de objetos en la nube
<a name="creating-other-cloud-object-location"></a>

Con AWS DataSync, puede transferir datos entre los [servicios AWS de almacenamiento y los](transferring-aws-storage.md) siguientes proveedores de almacenamiento de objetos en la nube:
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Solo se necesita un DataSync agente cuando se transfieren datos entre sistemas de almacenamiento de otras nubes y Amazon EFS o Amazon FSx, o cuando se utilizan tareas en modo **básico**. No se requiere un agente para transferir datos entre sistemas de almacenamiento en otras nubes y Amazon S3 cuando se usa el modo **mejorado**.

Independientemente de si utiliza un agente, también debe crear una [ubicación](how-datasync-transfer-works.md#sync-locations) de transferencia para su almacenamiento de objetos en la nube (específicamente, una ubicación de **almacenamiento de objetos**). DataSync puede usar esta ubicación como origen o destino para su transferencia.

## Proporcionar DataSync acceso a su otro almacenamiento de objetos en la nube
<a name="other-cloud-access"></a>

La forma en que DataSync accede a su almacenamiento de objetos en la nube depende de varios factores, como si su almacenamiento es compatible con la API de Amazon S3 y los permisos y credenciales que se DataSync necesitan para acceder a su almacenamiento.

**Topics**
+ [Compatibilidad con la API de Amazon S3](#other-cloud-s3-compatibility)
+ [Permisos de almacenamiento y puntos de conexión](#other-cloud-permissions)
+ [Credenciales de almacenamiento](#other-cloud-credentials)

### Compatibilidad con la API de Amazon S3
<a name="other-cloud-s3-compatibility"></a>

Su almacenamiento de objetos en la nube debe ser compatible con las siguientes [operaciones de la API de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) DataSync para poder conectarse a él:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Permisos de almacenamiento y puntos de conexión
<a name="other-cloud-permissions"></a>

Debe configurar los permisos que le permiten acceder DataSync a su almacenamiento de objetos en la nube. Si su almacenamiento de objetos es una ubicación de origen, DataSync necesita permisos de lectura y lista para el depósito desde el que está transfiriendo los datos. Si tu almacenamiento de objetos es una ubicación de destino, DataSync necesitas permisos de lectura, lista, escritura y eliminación para el depósito.

DataSync también necesita un punto final (o servidor) para conectarse a su almacenamiento. En la siguiente tabla se describen los puntos finales que DataSync se pueden utilizar para acceder a otro almacenamiento de objetos en la nube:


| Otro proveedor de nube | Punto de conexión | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com` (en la mayoría de las regiones)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**importante**  
Para obtener detalles sobre cómo configurar los permisos de buckets e información actualizada sobre los puntos de conexión de almacenamiento, consulte la documentación de su proveedor de nube.

### Credenciales de almacenamiento
<a name="other-cloud-credentials"></a>

DataSync también necesita las credenciales para acceder al depósito de almacenamiento de objetos implicado en la transferencia. Puede tratarse de una clave de acceso y una clave secreta o algo similar, según la nomenclatura que utilice su proveedor de almacenamiento en la nube para referirse a estas credenciales.

Para obtener más información, consulte la documentación de su proveedor de nube.

## Consideraciones a la hora de realizar una transferencia desde otro almacenamiento de objetos en la nube
<a name="other-cloud-considerations"></a>

Cuando planee transferir objetos hacia o desde otro proveedor de almacenamiento en la nube mediante el uso DataSync, hay algunas cosas que debe tener en cuenta.

**Topics**
+ [Costos](#other-cloud-considerations-costs)
+ [Clases de almacenamiento](#other-cloud-considerations-storage-classes)
+ [Etiquetas de objetos](#other-cloud-considerations-object-tags)
+ [Transferencia a Amazon S3](#other-cloud-considerations-s3)

### Costos
<a name="other-cloud-considerations-costs"></a>

Las tarifas asociadas a la entrada y salida de datos de otro proveedor de almacenamiento en la nube pueden incluir:
+ Ejecución de una instancia de [Amazon EC2](https://aws.amazon.com/ec2/pricing/) para su agente DataSync 
+ Transferir los datos mediante el uso [DataSync](https://aws.amazon.com/datasync/pricing/), incluidos los cargos de solicitud relacionados con su almacenamiento de objetos en la nube y [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (si S3 es su destino de transferencia)
+ Transferencia de datos desde o hacia su almacenamiento en la nube (consulte los precios de su proveedor de nube)
+ Almacenamiento de datos en un [servicio AWS de almacenamiento](transferring-aws-storage.md) compatible con DataSync
+ Almacenamiento de datos en otro proveedor de nube (consulte los precios de su proveedor de nube)

### Clases de almacenamiento
<a name="other-cloud-considerations-storage-classes"></a>

Algunos proveedores de almacenamiento en la nube tienen clases de almacenamiento (similares a [Amazon S3](create-s3-location.md#using-storage-classes)) que no se DataSync pueden leer sin antes restaurarlas. Por ejemplo, Oracle Cloud Infrastructure Object Storage tiene una clase de almacenamiento de archivos. Debe restaurar los objetos de esa clase de almacenamiento antes de DataSync poder transferirlos. Para obtener más información, consulte la documentación de su proveedor de nube.

### Etiquetas de objetos
<a name="other-cloud-considerations-object-tags"></a>

No todos los proveedores de nube admiten etiquetas de objetos. Es posible que los que sí lo hagan no permitan consultar etiquetas a través de la API de Amazon S3. En cualquier situación, la tarea de DataSync transferencia podría fallar si intenta copiar las etiquetas de los objetos.

Para evitarlo, desactive la casilla de verificación **Copiar etiquetas de objetos** de la DataSync consola al crear, iniciar o actualizar la tarea.

### Transferencia a Amazon S3
<a name="other-cloud-considerations-s3"></a>

Al transferir a Amazon S3, no DataSync se pueden transferir objetos de más de 5 TB. DataSyncademás, solo puede copiar metadatos de objetos de hasta 2 KB.

## Crear tu DataSync agente
<a name="other-cloud-creating-agent"></a>

Solo se necesita un DataSync agente cuando se transfieren datos entre sistemas de almacenamiento de otras nubes y Amazon EFS o Amazon FSx, o cuando se utilizan tareas en modo **básico**. No se requiere un agente para transferir datos entre sistemas de almacenamiento en otras nubes y Amazon S3 cuando se usa el modo **mejorado**. Esta sección describe cómo implementar y activar un agente en una instancia de Amazon EC2 dentro de la nube virtual privada (VPC) en AWS.

**Cómo crear un agente de Amazon EC2**

1. [Implemente un agente de Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Elija un punto final de servicio](choose-service-endpoint.md) con el que el agente se comunique AWS.

   En este caso, le recomendamos que utilice un punto de conexión de servicio de VPC.

1. Configure su red para que funcione con los [puntos de conexión del servicio de VPC](datasync-network.md#using-vpc-endpoint).

1. [Active el agente](activate-agent.md).

## Creación de una ubicación de transferencia para su otro almacenamiento de objetos en la nube
<a name="creating-other-cloud-location-how-to"></a>

Puede configurarlo DataSync para usar su almacenamiento de objetos en la nube como ubicación de origen o destino.

**Antes de empezar**  
Asegúrese de saber [cómo DataSync accede a su almacenamiento de objetos en la nube](#other-cloud-access). También necesitas un [DataSync agente](#other-cloud-creating-agent) que pueda conectarse a tu almacenamiento de objetos en la nube.

1. Abre la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Ubicaciones** y **Crear ubicación**.

1. En **Tipo de ubicación**, seleccione **Almacenamiento de objetos**.

1. En **Servidor**, introduce el [punto final](#other-cloud-permissions) que DataSync puedes usar para acceder a tu almacenamiento de objetos en la nube:
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**: `region.object.ncloudstorage.com` (en la mayoría de las regiones)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. En el campo **Nombre del bucket**, introduzca el nombre del bucket de almacenamiento de objetos desde o hacia el que va a transferir los datos.

1. En **Carpeta**, introduzca un prefijo de objeto. DataSync solo transfiere objetos con este prefijo.

1. Si su transferencia requiere un agente, elija **Usar agentes** y, a continuación, elija el DataSync agente que se pueda conectar con su almacenamiento de objetos en la nube.

1. Amplíe **Configuración adicional**. En **Protocolo del servidor**, seleccione **HTTPS**. En **Puerto del servidor**, seleccione **443**.

1. Desplácese hasta la sección **Autenticación**. Asegúrese de que la casilla **Requiere credenciales** esté seleccionada y, a continuación, proporcione DataSync sus [credenciales de almacenamiento](#other-cloud-credentials).
   + En **Clave de acceso**, introduzca el ID para acceder a su almacenamiento de objetos en la nube.
   + En **Clave secreta**, proporcione la clave secreta para acceder al almacenamiento de objetos en la nube. Puede introducir la clave directamente o especificar un AWS Secrets Manager secreto que contenga la clave. Para obtener más información, consulte [Cómo proporcionar credenciales para ubicaciones de almacenamiento](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Opcional) Proporcione valores para los campos **Clave** y **Valor** para etiquetar la ubicación.

   Las etiquetas le ayudan a administrar, filtrar y buscar sus AWS recursos. Le recomendamos crear al menos una etiqueta de nombre para su ubicación. 

1. Seleccione **Crear ubicación**.

## Siguientes pasos
<a name="other-cloud-location-next-steps"></a>

Cuando termines de crear una DataSync ubicación para tu almacenamiento de objetos en la nube, puedes seguir configurando la transferencia. Aquí se indican algunos pasos siguientes que se deben tener en cuenta:

1. Si aún no lo ha hecho, [cree otra ubicación](transferring-aws-storage.md) desde o hacia la que planea transferir sus datos en AWS.

1. Obtén información sobre cómo DataSync [se gestionan los metadatos y los archivos especiales](metadata-copied.md) para las ubicaciones de almacenamiento de objetos.

1. Configure la forma en que se transfieren sus datos. Por ejemplo, tal vez solo desee [transferir un subconjunto de sus datos](filtering.md).
**importante**  
Asegúrese de configurar correctamente la forma en que se DataSync copian las etiquetas de los objetos. Para obtener más información, consulte las consideraciones acerca de las [Etiquetas de objetos](#other-cloud-considerations-object-tags).

1. [Inicie la transferencia](run-task.md). 

 

# Creación de una tarea para transferir los datos
<a name="create-task-how-to"></a>

Una *tarea* describe dónde y cómo se AWS DataSync transfieren los datos. Una tarea consta de lo siguiente:
+ [**Ubicación de origen**](working-with-locations.md): el sistema o servicio de almacenamiento desde el que se DataSync transfieren los datos.
+ [**Ubicación de destino**](working-with-locations.md): el sistema o servicio de almacenamiento al que se DataSync transfieren los datos.
+ [**Opciones de la tarea**](task-options.md): ajustes como qué archivos transferir, cómo se verifican los datos, cuándo se ejecuta la tarea y más.
+ [**Ejecuciones de tareas**](run-task.md): cuando ejecuta una tarea, esto se llama *ejecución de tareas*.

## Creación de su tarea de
<a name="create-task-steps"></a>

Al crear una DataSync tarea, se especifican las ubicaciones de origen y destino. También puede personalizar la tarea eligiendo qué archivos desea transferir, cómo se gestionan los metadatos, estableciendo un cronograma y mucho más.

Antes de crear la tarea, asegúrate de entender [cómo funcionan DataSync las transferencias](how-datasync-transfer-works.md#transferring-files) y revisa las [cuotas de tareas](datasync-limits.md#task-hard-limits).

**importante**  
Si planea transferir datos a o desde una ubicación de Amazon S3, consulte [cómo DataSync pueden afectar los cargos por solicitud de S3](create-s3-location.md#create-s3-location-s3-requests) y la [página de DataSync precios](https://aws.amazon.com/datasync/pricing/) antes de empezar.

### Uso de la DataSync consola
<a name="create-task-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Asegúrese de estar en uno de los Regiones de AWS lugares donde planea transferir datos.

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. En la página **Configure source location (Configurar ubicación de origen)** elija [crear](transferring-data-datasync.md) o elija una ubicación de origen y después elija **Next (Siguiente)**.

1. En la página **Configurar ubicación de destino**, [crea](transferring-data-datasync.md) o elige una ubicación de destino y, a continuación, selecciona **Siguiente**.

1. (Recomendado) En la página de **configuración**, asigne a la tarea un nombre que pueda recordar.

1. Mientras se encuentre en la página de **configuración**, elija las opciones de la tarea o utilice la configuración predeterminada.

   Puede que te interesen algunas de las siguientes opciones:
   + Especifique el [modo de tarea](choosing-task-mode.md) que desea usar.
   + Especifique qué datos desea transferir mediante un [manifiesto](transferring-with-manifest.md) o [filtros](filtering.md).
   + Configure cómo [gestionar los metadatos de los archivos](configure-metadata.md) y [verificar la integridad de los datos](configure-data-verification-options.md).
   + Supervisa tu transferencia con [informes de tareas](task-reports.md) o [Amazon CloudWatch](monitor-datasync.md). Le recomendamos configurar algún tipo de supervisión para su tarea.

   Cuando haya terminado, elija **Siguiente**.

1. Revise la configuración de la tarea y después elija **Crear tarea**.

Ya está listo para [comenzar su tarea](run-task.md).

### Usando el AWS CLI
<a name="create-task-cli"></a>

Una vez que [haya creado las ubicaciones de DataSync origen y destino](transferring-data-datasync.md), podrá crear su tarea.

1. En AWS CLI la configuración, asegúrate de usar una de las ubicaciones en las Regiones de AWS que planeas transferir los datos.

1. Copie el siguiente comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. Para `--source-location-arn`, especifique el nombre de recurso de Amazon (ARN) de la ubicación de origen.

1. Para `--destination-location-arn`, especifique el ARN de la ubicación de destino.

   Si realizas una transferencia entre Regiones de AWS nuestras cuentas, asegúrate de que el ARN incluya la otra región o ID de cuenta.

1. (Recomendado) Para`--name`, especifique un nombre para la tarea que pueda recordar.

1. Especifique otras opciones de tareas según sea necesario. Puede que te interesen algunas de las siguientes opciones:
   + Especifique qué datos desea transferir mediante un [manifiesto](transferring-with-manifest.md) o [filtros](filtering.md).
   + Configure cómo [gestionar los metadatos de los archivos](configure-metadata.md) y [verificar la integridad de los datos](configure-data-verification-options.md).
   + Supervisa tu transferencia con [informes de tareas](task-reports.md) o [Amazon CloudWatch](monitor-datasync.md). Le recomendamos configurar algún tipo de supervisión para su tarea.

   Para ver más opciones, consulta [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). A continuación, se muestra un `create-task` comando de ejemplo que especifica varias opciones:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. Ejecute el comando `create-task`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la tarea que creó. Por ejemplo:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

Ya está listo para [comenzar su tarea](run-task.md).

## Estados de las tareas
<a name="understand-task-creation-statuses"></a>

Cuando creas una DataSync tarea, puedes comprobar su estado para ver si está lista para ejecutarse.


| Estado de la consola | Estado de la API | Description (Descripción) | 
| --- | --- | --- | 
| Disponible |  `AVAILABLE`  |  La tarea está lista para empezar a transferir datos.  | 
| Ejecutar |  `RUNNING`  | La ejecución de una tarea está en curso. Para obtener más información, consulte [Estados de ejecución de las tareas](run-task.md#understand-task-execution-statuses). | 
|  No disponible  |  `UNAVAILABLE`  |  Un DataSync agente utilizado por la tarea está desconectado. Para obtener más información, consulte [¿Qué hago si mi agente está desconectado?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline)  | 
|  En cola  |  `QUEUED`  |  Se está ejecutando otra tarea en la que se utiliza el mismo DataSync agente. Para obtener más información, consulte [Saber cuándo la tarea está en cola](run-task.md#queue-task-execution).  | 

## Partición de conjuntos de datos grandes con varias tareas
<a name="multiple-tasks-large-dataset"></a>

Si va a transferir un conjunto de datos grande, como [migrar](datasync-large-migration.md) millones de archivos u objetos, le recomendamos que utilice el modo DataSync mejorado para la transferencia, que permite transferir conjuntos de datos con un número prácticamente ilimitado de archivos. En el caso de conjuntos de datos muy grandes, con miles de millones de archivos, deberías considerar la posibilidad de particionar el conjunto de datos con varias tareas. DataSync Dividir los datos en varias tareas (y, posiblemente, en [agentes](do-i-need-datasync-agent.md#multiple-agents), según las ubicaciones) ayuda a reducir el tiempo que se tarda en preparar y transferir DataSync los datos.

Considere algunas de las formas en que puede particionar un conjunto de datos grande en varias DataSync tareas:
+ Cree tareas que transfieran carpetas independientes. Por ejemplo, puede crear dos tareas que tengan como destino `/FolderA` y `/FolderB`, respectivamente, en el almacenamiento de origen.
+ Cree tareas que transfieran subconjuntos de archivos, objetos y carpetas mediante un [manifiesto](transferring-with-manifest.md) o [filtros](filtering.md).

Tenga en cuenta que este enfoque puede aumentar las I/O operaciones de almacenamiento y afectar al ancho de banda de la red. Para obtener más información, consulte el blog sobre [Cómo acelerar las transferencias de datos con arquitecturas DataSync escalables](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/).

## Segmentación de los datos transferidos con varias tareas
<a name="multiple-tasks-organize-transfer"></a>

Si va a transferir diferentes conjuntos de datos al mismo destino, puede crear varias tareas para ayudar a segmentar los datos que transfiere.

Por ejemplo, si va a realizar la transferencia al mismo bucket de S3 denominado `MyBucket`, puede crear distintos prefijos en el bucket que correspondan a cada tarea. Este enfoque evita que el nombre del archivo entre en conflicto con los conjuntos de datos y te permite establecer diferentes permisos para cada prefijo. A continuación le explicamos cómo puede configurar esto:

1. Cree tres prefijos en el destino `MyBucket` denominado `task1`, `task2` y`task3`:
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. Cree tres DataSync tareas denominadas `task1``task2`, y `task3` que se transfieran al prefijo correspondiente en. `MyBucket`

# Selección del modo de tarea para la transferencia de datos
<a name="choosing-task-mode"></a>

 AWS DataSync La tarea se puede ejecutar en uno de los siguientes modos:
+ **Modo mejorado**: transfiere un número prácticamente ilimitado de archivos u objetos con un rendimiento superior al del modo básico. Las tareas en modo mejorado optimizan el proceso de transferencia de datos mediante la enumeración, la preparación, la transferencia y la verificación de los datos en paralelo. El modo mejorado está disponible actualmente para transferencias entre ubicaciones de Amazon S3, transferencias entre Amazon S3 Azure Blob y Amazon S3 sin agente, transferencias entre otras nubes y Amazon S3 sin agente y transferencias entre servidores de archivos NFS o SMB y Amazon S3 mediante un agente de modo mejorado.
+ **Modo básico**: transfiere archivos u objetos entre el AWS almacenamiento y todas las demás ubicaciones compatibles DataSync . Las tareas en modo básico están sujetas a [cuotas](datasync-limits.md) sobre el número de archivos, objetos y directorios en un conjunto de datos. El modo básico prepara, transfiere y verifica los datos de forma secuencial, lo que lo hace más lento que el modo mejorado para la mayoría de las cargas de trabajo.

## Descripción de las diferencias entre los modos de tarea
<a name="task-mode-differences"></a>

La siguiente información puede resultar útil a la hora de determinar qué modo de tarea usar.


| Funcionalidad | Comportamiento del modo mejorado | Comportamiento del modo básico | 
| --- | --- | --- | 
| [Rendimiento](how-datasync-transfer-works.md#transferring-files) | DataSync enumera, prepara, transfiere y verifica sus datos en paralelo. Ofrece un rendimiento superior al del modo básico para la mayoría de las cargas de trabajo (como la transferencia de objetos de gran tamaño). | DataSync prepara, transfiere y verifica los datos de forma secuencial. El rendimiento es inferior al del modo mejorado para la mayoría de las cargas de trabajo. | 
| Número de elementos de un conjunto de datos con los que se DataSync puede trabajar por ejecución de una tarea |  Cantidades prácticamente ilimitadas de objetos  |  Se aplican [cuotas](datasync-limits.md#task-hard-limits)  | 
|  [Contadores](transfer-performance-counters.md) de transferencia de datos y [métricas](monitor-datasync.md)  |  Más contadores y métricas que en el modo Básico, como el número de objetos que DataSync se encuentran en la ubicación de origen, el número de objetos que se preparan durante la ejecución de cada tarea y contadores de carpetas similares a los contadores de archivos y objetos  |  Menos contadores y métricas que en el modo mejorado  | 
|  [Registro](configure-logging.md)  | Registros estructurados (formato JSON) | Registros no estructurados | 
|  [Ubicaciones compatibles](working-with-locations.md)  | Actualmente, para transferencias entre ubicaciones de Amazon S3, transferencias entre Amazon S3 Azure Blob y Amazon S3 sin un agente, transferencias entre otras nubes y Amazon S3 sin un agente y transferencias entre servidores de archivos NFS o SMB y Amazon S3 mediante un agente en modo mejorado. |  Para transferencias entre todas las ubicaciones que admite DataSync   | 
|  [Opciones de verificación de datos](configure-data-verification-options.md)  | DataSync verifica solo los datos transferidos | DataSync verifica todos los datos de forma predeterminada | 
| Costo | Para obtener más información, consulta la página de [DataSync precios](https://aws.amazon.com/datasync/pricing) | Para obtener más información, consulta la página [DataSync de precios](https://aws.amazon.com/datasync/pricing) | 
| Gestión de errores para etiquetas de objetos no compatibles | En las transferencias de almacenamiento en la nube hacia o desde ubicaciones que no admiten el etiquetado de objetos, la ejecución de la tarea falla de inmediato si la opción ObjectTags no se especifica o se establece en PRESERVE. | En las transferencias de almacenamiento en la nube hacia o desde ubicaciones que no admiten el etiquetado de objetos, la ejecución de la tarea se realiza con normalidad, pero informa errores por objeto para los objetos etiquetados si la opción ObjectTags no se especifica o se establece en PRESERVE. | 

## Selección del modo de tarea
<a name="choosing-task-mode-how-to"></a>

Puede elegir el modo mejorado solo para las transferencias entre ubicaciones de Amazon S3, las transferencias entre Amazon S3 Azure Blob y Amazon S3 sin un agente, las transferencias entre otras nubes y Amazon S3 sin un agente y las transferencias entre servidores de archivos NFS o SMB y Amazon S3 mediante un agente de modo mejorado. En caso contrario, debe usar el modo básico Por ejemplo, una transferencia desde una ubicación [HDFS local a una ubicación](create-hdfs-location.md) S3 requiere el modo básico.

Las opciones y el rendimiento de la tarea pueden variar en función del modo de tarea que se seleccione. Una vez creada la tarea, no es posible cambiar el modo de tarea.

**Permisos necesarios**  
Para crear una tarea en modo mejorado, el rol de IAM que utilices DataSync debe tener el permiso. `iam:CreateServiceLinkedRole`  
Para tus permisos DataSync de usuario, considera la posibilidad de [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess)utilizarlos. Se trata de una política AWS gestionada que proporciona al usuario un acceso total DataSync y mínimo a sus dependencias.

### Uso de la consola DataSync
<a name="choosing-task-mode-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En **Modo de tarea**, seleccione una de las siguientes opciones:
   + **Mejorado**
   + **Básica**

   Para obtener más información, consulte [Descripción de las diferencias entre los modos de tarea](#task-mode-differences).

1. Mientras aún se encuentre en la página **Configurar ajustes**, seleccione otras opciones de la tarea o use la configuración predeterminada.

   Puede que te interesen algunas de las siguientes opciones:
   + Especifique qué datos desea transferir mediante un [manifiesto](transferring-with-manifest.md) o [filtros](filtering.md).
   + Configure cómo [gestionar los metadatos de los archivos](configure-metadata.md) y [verificar la integridad de los datos](configure-data-verification-options.md).
   + Supervisa tu transferencia con [informes de tareas](task-reports.md) o [Amazon CloudWatch Logs](monitor-datasync.md).

   Cuando haya terminado, elija **Siguiente**.

1. Revise la configuración de la tarea y después elija **Crear tarea**.

### Usando el AWS CLI
<a name="choosing-task-mode-cli"></a>

1. En tu AWS CLI configuración, asegúrate de usar uno de los Regiones de AWS lugares donde planeas transferir datos.

1. Copie el siguiente comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. Para `--source-location-arn`, especifique el nombre de recurso de Amazon (ARN) de la ubicación de origen.

1. Para `--destination-location-arn`, especifique el ARN de la ubicación de destino.

   Si realizas una transferencia entre Regiones de AWS nuestras cuentas, asegúrate de que el ARN incluya la otra región o ID de cuenta.

1. En `--task-mode`, especifique `ENHANCED` o `BASIC`.

   Para obtener más información, consulte [Descripción de las diferencias entre los modos de tarea](#task-mode-differences).

1. Especifique otras opciones de tareas según sea necesario. Puede que te interesen algunas de las siguientes opciones:
   + Especifique qué datos desea transferir mediante un [manifiesto](transferring-with-manifest.md) o [filtros](filtering.md).
   + Configure cómo [gestionar los metadatos de los archivos](configure-metadata.md) y [verificar la integridad de los datos](configure-data-verification-options.md).
   + Supervisa tu transferencia con [informes de tareas](task-reports.md) o [Amazon CloudWatch Logs](monitor-datasync.md).

   Para ver más opciones, consulta [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). A continuación se muestra un ejemplo de un comando `create-task` que especifica el modo mejorado y varias opciones adicionales:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. Ejecute el comando `create-task`.

   Si el comando se ejecuta correctamente, recibirá una respuesta que le mostrará el ARN de la tarea que creó. Por ejemplo:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### Uso de la DataSync API
<a name="choosing-task-mode-api"></a>

Puede especificar el modo de DataSync tarea configurando el `TaskMode` parámetro en la [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)operación.

# Elegir qué AWS DataSync se transfiere
<a name="task-options"></a>

AWS DataSync le permite elegir qué desea transferir y cómo quiere que se traten sus datos. Algunas opciones son:
+ Transferir una lista exacta de archivos u objetos mediante un manifiesto.
+ Incluir o excluir ciertos tipos de datos en su transferencia mediante un filtro.
+ En el caso de las transferencias periódicas, se mueven solo los datos que han cambiado desde la última transferencia
+ Sobrescribir los datos de la ubicación de destino para que coincidan con los de la ubicación de origen.
+ Elegir qué metadatos de archivo u objeto se van a conservar en las distintas ubicaciones de almacenamiento.

**Topics**
+ [Transferir archivos u objetos específicos mediante un manifiesto](transferring-with-manifest.md)
+ [Transferencia de archivos, objetos y carpetas específicos mediante filtros](filtering.md)
+ [Comprender cómo se DataSync gestionan los metadatos de archivos y objetos](metadata-copied.md)
+ [Enlaces y directorios copiados por AWS DataSync](special-files-copied.md)
+ [Configuración de la forma en que gestionan los archivos, los objetos y los metadatos](configure-metadata.md)

# Transferir archivos u objetos específicos mediante un manifiesto
<a name="transferring-with-manifest"></a>

Un *manifiesto* es una lista de archivos u objetos que AWS DataSync deseas transferir. Por ejemplo, en lugar de tener que transferir todo lo que hay en un bucket de S3 con potencialmente millones de objetos, DataSync transfiere solo los objetos que incluyes en tu manifiesto.

Los manifiestos son similares a los [filtros](filtering.md), pero permiten identificar exactamente qué archivos u objetos se van a transferir en lugar de datos que coincidan con un patrón de filtro.

**nota**  
El tamaño máximo permitido para un archivo de manifiesto con tareas en modo mejorado es de 20 GB.

## Creación de un manifiesto
<a name="transferring-with-manifest-create"></a>

Un manifiesto es un archivo con formato de valores separados por comas (CSV) en el que se enumeran los archivos u objetos de la ubicación de origen que deseas transferir. DataSync Si el origen es un bucket de S3, también puede incluir la versión de un objeto que desea transferir.

**Topics**
+ [Directrices](#transferring-with-manifest-guidelines)
+ [Ejemplos de manifiestos](#manifest-examples)

### Directrices
<a name="transferring-with-manifest-guidelines"></a>

Usa estas pautas para ayudarte a crear un manifiesto que funcione con. DataSync

------
#### [ Do ]
+ Especifique la ruta completa de cada archivo u objeto que desea transferir.

  No puede especificar solo un directorio o una carpeta con la intención de transferir todo su contenido. En estas situaciones, considere usar un [filtro de inclusión](filtering.md) en lugar de un manifiesto.
+ Asegúrese de que la ruta de cada archivo u objeto es relativa a la ruta de montaje, carpeta, directorio o prefijo que especificó al configurar la ubicación de DataSync origen.

  Por ejemplo, supongamos que [configura una ubicación de S3 ](create-s3-location.md#create-s3-location-how-to) con unprefijo denominado `photos`. Ese prefijo incluye un objeto `my-picture.png` que desea transferir. En el manifiesto, solo necesita especificar el objeto (`my-picture.png`) en lugar del prefijo y el objeto (`photos/my-picture.png`).
+ Para especificar la versión del objeto de Amazon S3 IDs, separe la ruta del objeto y el ID de versión mediante una coma.

  En el siguiente ejemplo, se muestra una entrada de manifiesto con dos campos. El primer campo incluye un objeto denominado `picture1.png`. El segundo campo está separado por una coma e incluye un identificador de versión de `111111`:

  ```
  picture1.png,111111
  ```
+ Utilice comillas en las siguientes situaciones:
  + Cuando una ruta contiene caracteres especiales (comas, comillas y finales de línea):

    `"filename,with,commas.txt"`
  + Cuando una ruta abarca varias líneas:

    ```
    "this
    is
    a
    filename.txt"
    ```
  + Cuando una ruta incluye comillas:

    `filename""with""quotes.txt`

    Esto representa una ruta denominada `filename"with"quotes.txt`.

  Estas reglas de citación también se aplican a los campos de ID de versión. En general, si el campo de un manifiesto tiene una comilla, debes incluir otra comilla de cierre.
+ Separe cada entrada de archivo u objeto con una línea nueva.

  Puede separar las líneas mediante saltos de línea al estilo Linux (avance de línea o corte de línea) o Windows (corte de línea seguido de un corte de línea).
+ Guarda el manifiesto (por ejemplo, `my-manifest.csv` o `my-manifest.txt`).
+ Cargue el manifiesto en un bucket de S3 al que [DataSync pueda acceder](#transferring-with-manifest-access).

  Este depósito no tiene que estar en la misma cuenta Región de AWS o en la misma cuenta en la que lo estás usando DataSync.

------
#### [ Don't ]
+ Especifique solo un directorio o una carpeta con la intención de transferir todo su contenido.

  Un manifiesto solo puede incluir las rutas completas de los archivos y los objetos que desea transferir. Si configura la ubicación de origen para usar una ruta de montaje, carpeta, directorio o prefijo específicos, no tiene que incluirlos en el manifiesto.
+ Especifique una ruta de archivo u objeto que supere los 4096 caracteres.
+ Especifique una ruta de archivo, una ruta de objeto o un ID de versión del objeto de Amazon S3 que supere los 1024 bytes.
+ Especifique rutas de archivos u objetos duplicadas.
+ Incluye un identificador de versión del objeto si la ubicación de origen no es un bucket de S3.
+ Incluye más de dos campos en una entrada de manifiesto.

  Una entrada solo puede incluir una ruta de archivo u objeto y (si corresponde) un ID de versión del objeto de Amazon S3.
+ Incluya caracteres que no se ajusten a la codificación UTF-8.
+ Incluya espacios no intencionados en sus campos de entrada fuera de las comillas.

------

### Ejemplos de manifiestos
<a name="manifest-examples"></a>

Usa estos ejemplos para ayudarte a crear un manifiesto que funcione con DataSync. 

**Manifiesto con rutas completas de archivos u objetos**  
En el siguiente ejemplo se muestra un manifiesto con las rutas completas de los archivos u objetos que desea transferir.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**Manifiesto solo con claves de objetos**  
El siguiente ejemplo muestra un manifiesto con objetos para transferir desde una ubicación de origen de Amazon S3. Como la [ubicación está configurada](create-s3-location.md#create-s3-location-how-to) con el prefijo `photos`, solo se especifican las claves de los objetos.  

```
picture1.png
picture2.png
picture3.png
```

**Manifiesto con las rutas y la versión de los objetos IDs**  
Las dos primeras entradas del siguiente ejemplo de manifiesto incluyen versiones específicas de objetos de Amazon S3 que se van a transferir.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**Manifiesto con caracteres UTF-8**  
En el siguiente ejemplo se muestra un manifiesto con archivos que incluyen caracteres UTF-8.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## Proporcionar DataSync acceso a tu manifiesto
<a name="transferring-with-manifest-access"></a>

Necesitas un rol AWS Identity and Access Management (IAM) que dé DataSync acceso a tu manifiesto en su bucket de S3. Este rol debe incluir los permisos siguientes:
+ `s3:GetObject`
+ `s3:GetObjectVersion`

Puede generar este rol automáticamente en la DataSync consola o crearlo usted mismo.

**nota**  
Si tu manifiesto está en otro lugar Cuenta de AWS, debes crear este rol manualmente.

### Creación automática del rol de IAM
<a name="creating-manfiest-role-automatically"></a>

Al crear o iniciar una tarea de transferencia en la consola, DataSync puedes crearte un rol de IAM con los `s3:GetObjectVersion` permisos `s3:GetObject` y los que necesitas para acceder a tu manifiesto.

**Permisos necesarios para crear el rol automáticamente**  
Para crear el rol automáticamente, asegúrate de que el rol que estás usando para acceder a la DataSync consola tenga los siguientes permisos:  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### Crear el rol de IAM (misma cuenta)
<a name="creating-manfiest-role-automatically-same-account"></a>

Puedes crear manualmente el rol de IAM que DataSync necesita acceder a tu manifiesto. En las siguientes instrucciones se da por sentado que estás en el mismo Cuenta de AWS lugar en el que lo usas DataSync y que se encuentra el bucket de S3 del manifiesto. 

1. Abra la consola de IAM en [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. En el panel de navegación situado a la izquierda, en **Administración de acceso**, elija **Roles** y luego **Crear rol**.

1. En la página **Seleccionar entidad de confianza**, en **Tipo de entidad de confianza**, elija **Servicio de AWS**.

1. **En Caso de uso**, elige una opción **DataSync**en la lista desplegable y selecciona **DataSync**. Elija **Siguiente**.

1. En la página **Agregar permisos**, elija **Siguiente**. Introduzca un nombre de rol y elija **Crear rol**.

1. En la página **Roles**, busque el rol que acaba de crear y seleccione el nombre.

1. En la página de detalles del rol, elija la pestaña **Permisos**. Elija **Agregar permisos** y luego **Crear política insertada**.

1. Elija la pestaña **JSON** y pegue la siguiente política de ejemplo en el editor de políticas:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. En la política de ejemplo que acaba de pegar, sustituya los siguientes valores por los suyos:

   1. Reemplace `amzn-s3-demo-bucket` por el nombre del bucket de S3 que aloja el manifiesto.

   1. Reemplace `my-manifest.csv` por el nombre del archivo de su manifiesto.

1. Elija **Siguiente**. Escriba un nombre para la política y elija **Crear política**.

1. (Recomendado) Para evitar el [problema del suplente confuso entre servicios](cross-service-confused-deputy-prevention.md), haga lo siguiente:

   1. En la página de detalles del rol, elija la pestaña **Relaciones de confianza**. Elija **Editar la política de confianza**.

   1. Actualice la política de confianza mediante el siguiente ejemplo, que incluye las claves de contexto de condición global de `aws:SourceArn` y `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + Sustituya cada instancia por `account-id` el Cuenta de AWS ID que esté utilizando DataSync.
      + `region`Sustitúyala por la ubicación Región de AWS que estás utilizando DataSync.

   1. Elija **Actualizar política**.

Has creado un rol de IAM que te permite acceder DataSync a tu manifiesto. Especifique este rol al [crear](#manifest-creating-task) o [iniciar](#manifest-starting-task) la tarea.

### Crear el rol de IAM (cuenta diferente)
<a name="creating-manfiest-role-automatically-different-account"></a>

Si tu manifiesto está en un bucket de S3 que pertenece a otro Cuenta de AWS, debes crear manualmente el rol de IAM que se DataSync utiliza para acceder al manifiesto. Luego, Cuenta de AWS en la ubicación del manifiesto, debes incluir el rol en la política del bucket de S3.

#### Creación del rol
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. Abra la consola de IAM en [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. En el panel de navegación situado a la izquierda, en **Administración de acceso**, elija **Roles** y luego **Crear rol**.

1. En la página **Seleccionar entidad de confianza**, en **Tipo de entidad de confianza**, elija **Servicio de AWS**.

1. **En Caso de uso**, elige una opción **DataSync**en la lista desplegable y selecciona **DataSync**. Elija **Siguiente**.

1. En la página **Agregar permisos**, elija **Siguiente**. Introduzca un nombre de rol y elija **Crear rol**.

1. En la página **Roles**, busque el rol que acaba de crear y seleccione el nombre.

1. En la página de detalles del rol, elija la pestaña **Permisos**. Elija **Agregar permisos** y luego **Crear política insertada**.

1. Elija la pestaña **JSON** y pegue la siguiente política de ejemplo en el editor de políticas:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. En la política de ejemplo que acaba de pegar, sustituya los siguientes valores por los suyos:

   1. Reemplace `amzn-s3-demo-bucket` por el nombre del bucket de S3 que aloja el manifiesto.

   1. Reemplace `my-manifest.csv` por el nombre del archivo de su manifiesto.

1. Elija **Siguiente**. Escriba un nombre para la política y elija **Crear política**.

1. (Recomendado) Para evitar el [problema del suplente confuso entre servicios](cross-service-confused-deputy-prevention.md), haga lo siguiente:

   1. En la página de detalles del rol, elija la pestaña **Relaciones de confianza**. Elija **Editar la política de confianza**.

   1. Actualice la política de confianza mediante el siguiente ejemplo, que incluye las claves de contexto de condición global de `aws:SourceArn` y `aws:SourceAccount`:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + Sustituya cada instancia `account-id` de por el Cuenta de AWS ID que esté utilizando DataSync.
      + `region`Reemplázala por la Región de AWS que estás usando DataSync.

   1. Elija **Actualizar política**.

Ha creado el rol de IAM que puede incluir en su política de bucket de S3.

#### Actualización de la política del bucket de S3 con el rol
<a name="creating-manfiest-role-automatically-different-account-2"></a>

Una vez que hayas creado el rol de IAM, debes añadirlo a la política de bucket de S3 en el otro Cuenta de AWS lugar en el que se encuentra tu manifiesto.

1. En el Consola de administración de AWS, cambia a la cuenta con el bucket de S3 de tu manifiesto.

1. Abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la página de detalles del bucket, elija la pestaña **Permisos**.

1. En **Política de buckets**, seleccione **Editar** y haga lo siguiente para modificar su política de bucket de S3:

   1. Actualice lo que hay en el editor para incluir las siguientes declaraciones de política:

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. `account-id`Sustitúyelo por el Cuenta de AWS ID de la cuenta con la que estás utilizando DataSync .

   1. `datasync-role`Sustitúyalo por el rol de IAM que acabas de crear y que permite acceder DataSync a tu manifiesto.

   1. Reemplace `amzn-s3-demo-bucket` por el nombre del bucket de S3 que aloja el manifiesto en el otro Cuenta de AWS.

1. Seleccione **Save changes (Guardar cambios)**.

Has creado un rol de IAM que te permite acceder DataSync a tu manifiesto en la otra cuenta. Especifique este rol al [crear](#manifest-creating-task) o [iniciar](#manifest-starting-task) la tarea.

## Especificar el manifiesto al crear una tarea
<a name="manifest-creating-task"></a>

Puedes especificar el manifiesto que quieres usar DataSync al crear una tarea.

### Uso de la DataSync consola
<a name="manifest-creating-task-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación de la izquierda, seleccione **Tasks (Tareas)** y, a continuación, seleccione **Create task (Crear tarea)**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. Para **Contenido a digitalizar**, seleccione **Archivos, objetos y carpetas específicos** y, a continuación, seleccione **Uso de un manifiesto**.

1. Para el **URI de S3**, elija el manifiesto que esté alojado en un bucket de S3.

   De forma alternativa, puede introducir el URI (por ejemplo, `s3://bucket/prefix/my-manifest.csv`).

1. En la **versión Object**, elige la versión del manifiesto que DataSync quieres usar.

   De forma predeterminada, DataSync usa la última versión del objeto.

1. Para **rol de acceso al manifiesto**, realice una de las operaciones siguientes:
   + Seleccione **Generar automáticamente** DataSync para crear automáticamente un rol de IAM con los permisos necesarios para acceder al manifiesto en su bucket de S3.
   + Elija un rol de IAM existente que pueda acceder a su manifiesto.

   Para obtener más información, consulte [Proporcionar DataSync acceso a tu manifiesto](#transferring-with-manifest-access).

1. Configure cualquier otro ajuste que desee para las tareas y, a continuación, seleccione **Siguiente**.

1. Seleccione **Crear tarea**.

### Usando el AWS CLI
<a name="manifest-creating-task-cli"></a>

1. Copie el siguiente comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Para el parámetro `--source-location-arn`, especifique el nombre de recurso de Amazon (ARN) de la ubicación desde la que transfiere los datos.

1. Para el parámetro `--destination-location-arn`, especifique el ARN de la ubicación a la que transfiere los datos.

1. Para el parámetro `--manifest-config`, haga lo siguiente:
   + `ManifestObjectPath`: especifique la clave de objeto S3 de su manifiesto.
   + `BucketAccessRoleArn`— Especifique la función de IAM que permite acceder DataSync al manifiesto en su bucket de S3.

     Para obtener más información, consulte [Proporcionar DataSync acceso a tu manifiesto](#transferring-with-manifest-access).
   + `S3BucketArn`: especifique el ARN del bucket de S3 que aloja el manifiesto.
   + `ManifestObjectVersionId`— Especifica la versión del manifiesto que quieres DataSync usar.

     De forma predeterminada, DataSync utiliza la última versión del objeto.

1. Ejecute el comando `create-task` para crear la tarea.

Cuando lo tenga todo listo, puede [iniciar la tarea de transferencia](run-task.md).

## Especificar el manifiesto al iniciar una tarea
<a name="manifest-starting-task"></a>

Puede especificar el manifiesto que desea usar DataSync al ejecutar una tarea.

### Uso de la DataSync consola
<a name="manifest-starting-task-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación de la izquierda, elija **Tasks (Tareas)** y, a continuación, elija la tarea que desea iniciar.

1. En la página de descripción general de la tarea, elija **Iniciar** y, a continuación, elija **Comenzar con las opciones de anulación**.

1. Para **Contenido a digitalizar**, seleccione **Archivos, objetos y carpetas específicos** y, a continuación, seleccione **Uso de un manifiesto**.

1. Para el **URI de S3**, elija el manifiesto que esté alojado en un bucket de S3.

   De forma alternativa, puede introducir el URI (por ejemplo, `s3://bucket/prefix/my-manifest.csv`).

1. En la **versión Object**, elige la versión del manifiesto que DataSync quieres usar.

   De forma predeterminada, DataSync usa la última versión del objeto.

1. Para **rol de acceso al manifiesto**, realice una de las operaciones siguientes:
   + Seleccione **Generar automáticamente** DataSync para crear automáticamente un rol de IAM para acceder al manifiesto en su bucket de S3.
   + Elija un rol de IAM existente que pueda acceder a su manifiesto.

   Para obtener más información, consulte [Proporcionar DataSync acceso a tu manifiesto](#transferring-with-manifest-access).

1. Elija **Iniciar** para comenzar la transferencia.

### Usando el AWS CLI
<a name="manifest-starting-task-cli"></a>

1. Copie el siguiente comando `start-task-execution`:

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Para el parámetro `--task-arn`, especifique el nombre de recurso de Amazon (ARN) de la tarea que está iniciando.

1. Para el parámetro `--manifest-config`, haga lo siguiente:
   + `ManifestObjectPath`: especifique la clave de objeto S3 de su manifiesto.
   + `BucketAccessRoleArn`— Especifique la función de IAM que permite acceder DataSync al manifiesto en su bucket de S3.

     Para obtener más información, consulte [Proporcionar DataSync acceso a tu manifiesto](#transferring-with-manifest-access).
   + `S3BucketArn`: especifique el ARN del bucket de S3 que aloja el manifiesto.
   + `ManifestObjectVersionId`— Especifica la versión del manifiesto que quieres DataSync usar.

     De forma predeterminada, DataSync utiliza la última versión del objeto.

1. Ejecute el comando `start-task-execution` para iniciar la transferencia.

## Limitaciones
<a name="transferring-with-manifest-limitations"></a>
+ No puede usar un manifiesto junto con [filtros](filtering.md).
+ No puede especificar solo un directorio o una carpeta con la intención de transferir todo su contenido. En estas situaciones, considere usar un [filtro de inclusión](filtering.md) en lugar de un manifiesto.
+ No puedes usar la opción de tarea **Conservar los archivos eliminados** (`PreserveDeletedFiles`de la [API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)) para [mantener archivos u objetos en el destino que no estén en el origen](configure-metadata.md). DataSync solo transfiere lo que aparece en tu manifiesto y no borra nada del destino.

## Resolución de problemas
<a name="manifests-troubleshooting"></a>

**Errores relacionados con `HeadObject` o `GetObjectTagging`**  
Si estás transfiriendo objetos con una versión específica IDs desde un bucket de S3, es posible que veas un error relacionado con `HeadObject` o`GetObjectTagging`. Por ejemplo, aquí hay un error relacionado con `GetObjectTagging`:

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Si ve alguno de estos errores, compruebe que la función de IAM que se DataSync utiliza para acceder a la ubicación de origen de S3 tenga los siguientes permisos:
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Si necesita actualizar su rol con estos permisos, consulte [Crear un rol de IAM para acceder DataSync a su ubicación de Amazon S3](create-s3-location.md#create-role-manually).

**Error: `ManifestFileDoesNotExist`**  
Este error indica que no se encontró en el origen un archivo incluido en el manifiesto. Revise las [directrices](#transferring-with-manifest-guidelines) para la creación de un manifiesto.

## Siguientes pasos
<a name="manifests-next-steps"></a>

Si aún no lo ha hecho, [inicie la tarea](run-task.md). De lo contrario, [supervise la actividad de la tarea](monitoring-overview.md).

# Transferencia de archivos, objetos y carpetas específicos mediante filtros
<a name="filtering"></a>

AWS DataSync permite aplicar filtros para incluir o excluir datos de la ubicación de origen en una transferencia. Por ejemplo, si no quiere transferir archivos temporales con la extensión `.tmp`, puede crear un filtro de exclusión para impedir que estos archivos se transfieran a la ubicación de destino.

Puede utilizar una combinación de filtros de exclusión e inclusión en la misma tarea de transferencia. Si modifica los filtros de una tarea, esos cambios se aplicarán la próxima vez que ejecute la tarea.

## Definiciones, sintaxis y términos relacionados con los filtros
<a name="filter-overview"></a>

Familiarícese con los conceptos relacionados con el DataSync filtrado:

**Filtro **  
La cadena completa que constituye un filtro determinado (por ejemplo, `*.tmp``|``*.temp` o `/folderA|/folderB`).  
Los filtros se componen de patrones que están delimitados por caracteres de barra vertical (\$1). No necesita un delimitador cuando agrega patrones en la DataSync consola porque agrega cada patrón por separado.  
Los filtros distinguen entre mayúsculas y minúsculas. Por ejemplo, el filtro `/folderA` no coincide con `/FolderA`.

**Patrón**  
Un patrón de un filtro. Por ejemplo, `*.tmp` es un patrón que forma parte del filtro `*.tmp``|``*.temp`. Si el filtro tiene varios patrones, debe delimitar cada patrón mediante una barra vertical (\$1).

**Carpetas**  
+ Todos los filtros se expresan con relación a la ruta de la ubicación de origen. Por ejemplo, supongamos que especifica `/my_source/` como la ruta de origen cuando crea su ubicación de origen y tarea y que especifica el filtro de inclusión `/transfer_this/`. En este caso, DataSync transfiere solo el directorio `/my_source/transfer_this/` y su contenido.
+ Para especificar una carpeta situada directamente en la ubicación de origen, incluya una barra inclinada (/) delante de del nombre de la carpeta. En el ejemplo anterior, el patrón utiliza `/transfer_this`, no `transfer_this`.
+ DataSync interpreta los siguientes patrones de la misma manera y hace coincidir tanto la carpeta como su contenido.

  `/dir` 

  `/dir/`
+ Cuando transfiera datos desde o hacia un depósito de Amazon S3, DataSync trata el `/` carácter de la clave del objeto como el equivalente a una carpeta de un sistema de archivos.

**Caracteres especiales**  
A continuación, se muestran los caracteres especiales que se utilizan en los filtros.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/filtering.html)

## Ejemplos de filtros
<a name="sample-filters"></a>

En los siguientes ejemplos se muestran los filtros habituales con los que puede utilizar DataSync.

**nota**  
Existen límites en cuanto al número de caracteres que puede utilizar en un filtro. Para obtener más información, consulte [Cuotas de DataSync](datasync-limits.md#task-hard-limits).

**Excluir algunas carpetas de la ubicación de origen**  
En algunos casos, es posible que tenga que excluir carpetas de la ubicación de origen para que no se copien en la de destino. Por ejemplo, si tienes work-in-progress carpetas temporales, puedes usar algo como el siguiente filtro:

`*/.temp`

Para excluir carpetas con contenido similar (como `/reports2021` y`/reports2022)`), puede usar un filtro de exclusión como el siguiente:

`/reports*`

Para excluir carpetas de cualquier nivel de la jerarquía de archivos, puede usar un filtro de exclusión similar al siguiente. 

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

Para excluir carpetas en el nivel superior de la ubicación de origen, puede usar un filtro de exclusión similar al siguiente. 

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**Inclusión de un subconjunto de las carpetas de la ubicación de origen**  
En algunos casos, la ubicación de origen podría ser un recurso compartido de archivos de gran tamaño y podría ser necesario transferir parte de las carpetas situadas bajo la carpeta raíz. Para incluir carpetas específicas, comience una ejecución de tarea con un filtro de inclusión similar al siguiente.

`/folder-to-transfer/*`

**Excluir tipos de archivos específicos**  
Para excluir determinados tipos de archivos de la transferencia, puede crear una ejecución de tarea con un filtro de exclusión como por ejemplo `*.temp`.

**Transferencia de determinados archivos que especifique**  
Para transferir una lista de archivos individuales, inicie una ejecución de tarea con un filtro de inclusión como el siguiente: “`/folder/subfolder/file1.txt`\$1`/folder/subfolder/file2.txt`\$1`/folder/subfolder/file2.txt`”

## Creación de filtros de inclusión
<a name="include-filters"></a>

Los filtros de inclusión definen los archivos, objetos y carpetas que DataSync desea transferir. Puede configurar estos filtros al crear, editar o comenzar una tarea.

DataSync escanea y transfiere solo los archivos y carpetas que coinciden con los filtros de inclusión. Por ejemplo, para incluir un subconjunto de las carpetas de origen, puede especificar `/important_folder_1`\$1`/important_folder_2`. 

**nota**  
Los filtros de inclusión únicamente admiten el carácter (\$1) como último carácter de un patrón. Por ejemplo, se admite `/documents*`\$1`/code*` pero no `*.txt`.

### Uso de la DataSync consola
<a name="include-filters-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación de la izquierda, seleccione **Tasks (Tareas)** y, a continuación, seleccione **Create task (Crear tarea)**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. Para **Contenido a digitalizar**, seleccione **Archivos, objetos y carpetas específicos** y, a continuación, seleccione **Uso de filtros**.

1. En **Incluye**, introduzca su filtro (por ejemplo, `/important_folders` para incluir un directorio importante) y, a continuación, seleccione **Añadir patrón**.

1. Agregue otros filtros de inclusión según sea necesario. 

### Usando el AWS CLI
<a name="include-filters-cli"></a>

Al usar el AWS CLI, debe usar comillas simples (`'`) alrededor del filtro y un \$1 (barra vertical) como delimitador si tiene más de un filtro.

En el siguiente ejemplo se especifican dos filtros de inclusión, `/important_folder1` y `/important_folder2`, cuándo se ejecuta el comando `create-task`.

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## Creación de filtros de exclusión
<a name="exclude-filters"></a>

Los filtros de exclusión definen los archivos, objetos y carpetas de la ubicación de origen que no desea DataSync transferir. Puede configurar estos filtros al crear, editar o empezar una tarea.

**Topics**
+ [Datos excluidos de forma predeterminada](#directories-ignored-during-transfers)

### Datos excluidos de forma predeterminada
<a name="directories-ignored-during-transfers"></a>

DataSync excluye automáticamente algunos datos de la transferencia:
+ `.snapshot`— DataSync ignora cualquier ruta que termine en`.snapshot`, lo que normalmente se utiliza para obtener point-in-time instantáneas de los archivos o directorios de un sistema de almacenamiento.
+ `/.aws-datasync`y `/.awssync` — DataSync crea estas carpetas en su ubicación para facilitar la transferencia.
+ `/.zfs`— Es posible que veas esta carpeta en Amazon FSx para ubicaciones de OpenZFS.

### Uso de la consola DataSync
<a name="adding-exclude-filters"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación de la izquierda, seleccione **Tasks (Tareas)** y, a continuación, seleccione **Create task (Crear tarea)**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En **Excluye**, introduzca el filtro (por ejemplo, `*/temp` para excluir las carpetas temporales) y, a continuación, seleccione **Añadir patrón**.

1. Agregue otros filtros de exclusión según sea necesario. 

1. Si es necesario, añada [filtros de inclusión](#include-filters).

### Usando el AWS CLI
<a name="adding-exclude-filters-cli"></a>

Al usar el AWS CLI, debe usar comillas simples (`'`) alrededor del filtro y un \$1 (barra vertical) como delimitador si tiene más de un filtro. 

En el siguiente ejemplo se especifican dos filtros de exclusión, `*/temp` y `*/tmp`, cuándo se ejecuta el comando `create-task`.

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# Comprender cómo se DataSync gestionan los metadatos de archivos y objetos
<a name="metadata-copied"></a>

AWS DataSync puede conservar los metadatos del archivo o del objeto durante una transferencia de datos. La forma en que se copian los metadatos depende de las ubicaciones de transferencia y de si esas ubicaciones utilizan tipos de metadatos similares.

## Metadatos a nivel del sistema
<a name="metadata-copied-system-level"></a>

En general, DataSync no copia los metadatos a nivel del sistema. Por ejemplo, al transferir desde un servidor de archivos SMB, los permisos que configuró a nivel del sistema de archivos no se copian en el sistema de almacenamiento de destino.

Hay algunas excepciones. Al realizar transferencias entre Amazon S3 y otro almacenamiento de objetos, copia DataSync algunos metadatos de [objetos definidos por el sistema](#metadata-copied-between-object-s3).

## Metadatos copiados en las transferencias de Amazon S3
<a name="metadata-copied-amazon-s3"></a>

En las siguientes tablas se describen los metadatos que se DataSync pueden copiar cuando una transferencia implica una ubicación de Amazon S3.

**Topics**
+ [A Amazon S3](#metadata-copied-to-s3)
+ [Entre Amazon S3 y otro almacenamiento de objetos](#metadata-copied-between-object-s3)
+ [Entre Amazon S3 y HDFS](#metadata-copied-between-hdfs-s3)

### A Amazon S3
<a name="metadata-copied-to-s3"></a>


| Al copiar desde una de estas ubicaciones | A esta ubicación | DataSync puede copiar | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  Lo siguiente como metadatos de usuario de Amazon S3: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html) Los metadatos de archivo almacenados en metadatos del usuario de Amazon S3 son interoperables con los recursos compartidos en puertas de enlace de archivos utilizando AWS Storage Gateway. Una puerta de enlace de archivos permite el acceso de baja latencia desde las redes locales a los datos que ha copiado en Amazon S3. DataSync Estos metadatos también son interoperables con FSx Lustre. Al DataSync copiar los objetos que contienen estos metadatos a un servidor NFS, se restauran los metadatos del archivo. La restauración de los metadatos requiere conceder permisos elevados al servidor NFS. Para obtener más información, consulte [Configuración de AWS DataSync transferencias con un servidor de archivos NFS](create-nfs-location.md).  | 

### Entre Amazon S3 y otro almacenamiento de objetos
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)

### Entre Amazon S3 y HDFS
<a name="metadata-copied-between-hdfs-s3"></a>


| Al copiar entre estas ubicaciones | DataSync puede copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  | Lo siguiente como metadatos de usuario de Amazon S3:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)HDFS utiliza cadenas para almacenar la propiedad de los usuarios y grupos de archivos y carpetas, en lugar de identificadores numéricos, como y. UIDs GIDs | 

## Los metadatos se copian en las transferencias NFS
<a name="metadata-copied-nfs"></a>

En la siguiente tabla se describe qué metadatos DataSync se pueden copiar entre ubicaciones que utilizan el Sistema de archivos de red (NFS).


| Al copiar entre estas ubicaciones | DataSync puede copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  | 

## Metadatos copiados en transferencias SMB
<a name="metadata-copied-smb"></a>

En la siguiente tabla se describe qué metadatos DataSync se pueden copiar entre las ubicaciones que utilizan el bloque de mensajes del servidor (SMB).


| Al copiar entre estas ubicaciones | DataSync puede copiar | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  | 

## Metadatos copiados en otros escenarios de transferencia
<a name="metadata-copied-different"></a>

DataSync gestiona los metadatos de las siguientes maneras al copiarlos entre estos sistemas de almacenamiento (la mayoría de los cuales tienen estructuras de metadatos diferentes).

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)

## Comprenda cuándo y cómo se DataSync aplican los metadatos POSIX predeterminados
<a name="POSIX-metadata"></a>

DataSync aplica los metadatos POSIX predeterminados en las siguientes situaciones:
+ Cuando las ubicaciones de origen y destino de la transferencia no tienen estructuras de metadatos similares
+ Cuando faltan metadatos en la ubicación de origen

En la siguiente tabla se describe cómo DataSync se aplican los metadatos POSIX predeterminados durante estos tipos de transferencias:


| Origen | Destino | Permisos de archivo | Permiso de carpetas | UID | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 En los casos en que los objetos no tengan metadatos que hayan sido aplicados previamente por. DataSync

# Enlaces y directorios copiados por AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync gestiona los enlaces físicos, los enlaces simbólicos y los directorios de forma diferente en función de las ubicaciones de almacenamiento implicadas en la transferencia.

## Enlaces duros
<a name="special-files-copied-hard-links"></a>

A continuación, te DataSync explicamos cómo gestiona los enlaces físicos en algunos escenarios de transferencia comunes:
+ **Al realizar transferencias entre un servidor de archivos NFS, FSx para Lustre, FSx para OpenZFS, FSx para ONTAP (mediante NFS) y Amazon EFS,** se conservan los enlaces físicos.
+ **Al transferir a Amazon S3**, cada archivo subyacente al que hace referencia un enlace duro se transfiere solo una vez. Durante las transferencias incrementales, se crean objetos separados en el bucket de S3. Si un enlace duro no ha cambiado en Amazon S3, se restaura correctamente cuando se transfiere a un servidor de archivos NFS, FSx para Lustre, para OpenZFS, FSx FSx para ONTAP (mediante NFS) o al sistema de archivos Amazon EFS.
+ **Al transferir a Microsoft Azure Blob Storage**, cada archivo subyacente al que hace referencia un enlace duro se transfiere solo una vez. Durante las transferencias incrementales, se crean objetos independientes en el almacenamiento de blob si hay nuevas referencias en el origen. Al realizar la transferencia desdeAzure Blob Storage, DataSync transfiere los enlaces físicos como si fueran archivos individuales.
+ **Al realizar transferencias entre un servidor de archivos SMB, FSx para Windows File Server y FSx ONTAP (mediante SMB)**, no se admiten los enlaces físicos. Si DataSync encuentra vínculos físicos en estas situaciones, la tarea de transferencia finaliza con un error. Para obtener más información, consulta tus CloudWatch registros.
+ **Al transferir a HDFS**, no se admiten los enlaces físicos. CloudWatch los registros muestran estos enlaces como omitidos.

## Enlaces simbólicos
<a name="special-files-copied-symbolic-links"></a>

Así es como DataSync maneja los enlaces simbólicos en algunos escenarios de transferencia comunes:
+ **Al realizar transferencias entre un servidor de archivos NFS, FSx para Lustre, para OpenZFS, FSx FSx para ONTAP (mediante NFS) y Amazon EFS,** se conservan los enlaces simbólicos.
+ **Al transferir datos a Amazon S3**, la ruta de destino del enlace se almacena en el objeto de Amazon S3. El enlace se restaura correctamente cuando se transfiere a un servidor de archivos NFS, FSx para el sistema de archivos Lustre, FSx OpenZFS, FSx ONTAP o Amazon EFS.
+ **Al realizar la transferencia aAzure Blob Storage, no se admiten** enlaces simbólicos. CloudWatch los registros muestran estos enlaces como omitidos.
+ **Al realizar transferencias entre un servidor de archivos SMB, FSx para Windows File Server y FSx ONTAP (mediante SMB)**, no se admiten los enlaces simbólicos. DataSync no transfiere un enlace simbólico en sí mismo, sino un archivo al que hace referencia el enlace simbólico. Para reconocer los archivos duplicados y deduplicarlos con enlaces simbólicos, debe configurar la deduplicación en el sistema de archivos de destino.
+ **Al transferir a HDFS**, no se admiten los enlaces simbólicos. CloudWatch los registros muestran estos enlaces como omitidos.

## Directorios
<a name="special-files-copied-directories"></a>

En general, DataSync conserva los directorios cuando se transfieren entre sistemas de almacenamiento. Este no es el caso en las siguientes situaciones:
+ **Al transferir a Amazon S3**, los directorios se representan como objetos vacíos que tienen prefijos y terminan con una barra inclinada (`/`).
+ **Al transferir en Azure Blob Storage sin un espacio de nombres jerárquico**, los directorios no existen. Lo que parece un directorio es solo una parte del nombre de un objeto.

# Configuración de la forma en que gestionan los archivos, los objetos y los metadatos
<a name="configure-metadata"></a>

Puede configurar la forma en que AWS DataSync gestiona sus archivos, objetos y sus metadatos asociados al transferirlos de una ubicación a otra.

Por ejemplo, en el caso de las transferencias periódicas, es posible que desee sobrescribir los archivos del destino que hayan cambiado en la ubicación de origen a fin de mantener la sincronización entre las ubicaciones. Puede copiar propiedades como los permisos POSIX para archivos y carpetas, las etiquetas asociadas a los objetos y las listas de control de acceso (ACLs).

## Opciones del modo de transferencia
<a name="task-option-transfer-mode"></a>

Puede configurar si DataSync transfiere solo los datos (incluidos los metadatos) que se modifican tras una copia inicial o todos los datos cada vez que ejecute la tarea. Si se planifican transferencias recurrentes, es posible que solo se desee transferir lo que haya cambiado desde la ejecución anterior de la tarea.


| Opción en la consola | Opción en la API | Description (Descripción) | 
| --- | --- | --- | 
|  **Transferir solo los datos que han cambiado**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode) es `CHANGED`.  | Tras la transferencia completa inicial, DataSync copia solo los datos y metadatos que difieran de la ubicación de origen y la de destino. | 
|  **Transferir todos los datos**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode) es `ALL`.  |  DataSync copia todo el contenido de la fuente al destino sin comparar las diferencias entre las ubicaciones.   | 

## Opciones de gestión de archivos y objetos
<a name="task-option-file-object-handling"></a>

Puede controlar algunos aspectos del DataSync tratamiento de los archivos u objetos en la ubicación de destino. Por ejemplo, DataSync puede eliminar archivos del destino que no estén en el origen.


| Opción en la consola | Opción en la API | Description (Descripción) | 
| --- | --- | --- | 
|  **Conservar archivos eliminados**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  Especifica si DataSync mantiene los archivos u objetos en la ubicación de destino que no existen en el origen. Si se configura la tarea para eliminar objetos del bucket de Amazon S3, se pueden generar cargos mínimos por duración de almacenamiento para determinadas clases de almacenamiento. Para obtener información detallada, consulta [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).  No es posible configurar la tarea para eliminar datos en el destino y también [transferir todos los datos](#task-option-transfer-mode). Al transferir todos los datos, DataSync no escanea la ubicación de destino y no sabe qué eliminar.   | 
|  **Sobrescribir archivos**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  Especifica si DataSync modifica los datos de la ubicación de destino cuando cambian los datos de origen o los metadatos. Si no se configura la tarea para sobrescribir los datos, los datos del destino no se sobrescriben aunque los datos del origen difieran. Si la tarea sobrescribe objetos, es posible que se apliquen cargos adicionales para determinadas clases de almacenamiento (por ejemplo, por la recuperación o por la eliminación anticipada). Para obtener información detallada, consulta [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).  | 

## Opciones de gestión de datos
<a name="task-option-metadata-handling"></a>

DataSync puede conservar los metadatos de archivos y objetos durante una transferencia. Los metadatos que DataSync se pueden conservar dependen de los sistemas de almacenamiento involucrados y de si esos sistemas utilizan una estructura de metadatos similar.

Antes de configurar la tarea, asegúrese de entender cómo se gestionan [los DataSync metadatos y los](metadata-copied.md) [archivos especiales](special-files-copied.md) cuando se transfieren entre las ubicaciones de origen y destino.

**importante**  
DataSync admite las transferencias desde y hacia determinados sistemas de almacenamiento en la nube de terceros, como Google Cloud Storage e IBM Cloud Object Storage, que gestionan los metadatos del sistema de una forma que no es totalmente compatible con S3. Para estas transferencias, DataSync intenta copiar atributos de metadatos como`ContentType`, `ContentEncoding``ContentLanguage`, y haciendo `CacheControl` el mejor esfuerzo posible. Si el sistema de almacenamiento de destino no se aplica estos atributos, se omiten durante la verificación de la tarea.


| Opción en la consola | Opción en la API | Description (Descripción) | 
| --- | --- | --- | 
|  **Propiedad de la copia**  | [Gid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) y [Uid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Uid) |  Especifica si DataSync copia la propiedad de los archivos y carpetas POSIX, como el ID de grupo de los propietarios del archivo y el ID de usuario del propietario del archivo.  | 
|  **Copiar permisos**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  Especifica si DataSync copia los permisos POSIX de los archivos y carpetas del origen al destino.  | 
| Copiar las marcas de tiempo | [Atime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime) y [Mtime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Mtime) |  Especifica si DataSync copia los metadatos de la marca de tiempo del origen al destino. Es obligatorio cuando se necesita ejecutar una tarea más de una vez.  | 
| Copiar las etiquetas del objeto | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  Especifica si DataSync conserva las etiquetas asociadas a los objetos al transferirlos entre sistemas de almacenamiento de objetos.  | 
| Propiedad de la copia DACLs, y SACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) es OWNER\$1DACL\$1SACL. |  DataSync copia lo siguiente: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/configure-metadata.html)  | 
| Copie la propiedad y DACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) es OWNER\$1DACL. |  DataSync copia lo siguiente: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/datasync/latest/userguide/configure-metadata.html) DataSync no se copiará SACLs al seleccionar esta opción.  | 
| No copies la propiedad o ACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags) es NONE. |  DataSync no copia ningún dato de propiedad o permiso. Los objetos que DataSync escriben en la ubicación de destino son propiedad del usuario cuyas credenciales se proporcionan DataSync para acceder al destino. Los permisos de los objetos de destino se determinan en función de los permisos configurados en el servidor de destino.  | 

## Configuración de las opciones de gestión de archivos, objetos y metadatos
<a name="configure-file-metadata-options"></a>

Puede configurar el modo en DataSync que se gestionan los archivos, los objetos y los metadatos al crear, editar o iniciar la tarea de transferencia.

### Uso de la DataSync consola
<a name="configure-metadata-console"></a>

Las siguientes instrucciones describen cómo configurar las opciones de administración de archivos, objetos y metadatos al crear una tarea.

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En **Modo transferencia**, elija una de las siguientes opciones:
   + **Transferir solo los datos que han cambiado**
   + **Transferir todos los datos**

   Para obtener más información sobre estas opciones, consulte [Opciones del modo de transferencia](#task-option-transfer-mode).

1. Seleccione **Conservar los archivos eliminados** si DataSync desea mantener los archivos u objetos en la ubicación de destino que no existen en la fuente.

   Si no selecciona esta opción y la tarea elimina objetos del bucket de Amazon S3, es posible que se apliquen cargos mínimos por la duración de almacenamiento para determinadas clases de almacenamiento. Para obtener información detallada, consulta [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).
**aviso**  
No puede desactivar esta opción y activar la opción **Transferir todos los datos**. Al transferir todos los datos, DataSync no escanea la ubicación de destino y no sabe qué eliminar.

1. Seleccione **Sobrescribir archivos** si DataSync desea modificar los datos en la ubicación de destino cuando cambien los datos de origen o los metadatos.

   Si la tarea sobrescribe objetos, es posible que se apliquen cargos adicionales para determinadas clases de almacenamiento (por ejemplo, por la recuperación o por la eliminación anticipada). Para obtener información detallada, consulta [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).

   Si no elige esta opción, los datos de destino no se sobrescribirán aunque los datos de origen sean diferentes.

1. En **Opciones de transferencia**, selecciona cómo quieres DataSync gestionar los metadatos. Para obtener más información sobre las opciones, consulte [Opciones de gestión de datos](#task-option-metadata-handling).
**importante**  
Las opciones que se muestran en la consola dependen de las ubicaciones de origen y destino de la tarea. Es posible que deba ampliar **Ajustes adicionales** para ver algunas de estas opciones.
   + **Propiedad de la copia**
   + **Copiar permisos**
   + **Copiar las marcas de tiempo**
   + **Copiar las etiquetas del objeto**
   + **Propiedad de la copia DACLs, y SACLs**
   + **Propiedad de la copia y DACLs**
   + **No copie la propiedad o ACLs**

### Uso de la DataSync API
<a name="configure-file-metadata-options-api"></a>

Puede configurar las opciones de administración de archivos, objetos y metadatos mediante el uso del parámetro `Options` con cualquiera de las siguientes operaciones:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# Configurar cómo se AWS DataSync verifica la integridad de los datos
<a name="configure-data-verification-options"></a>

Durante una transferencia, AWS DataSync utiliza la verificación por suma de comprobación para comprobar la integridad de los datos que copias de una ubicación a otra. También puedes configurarlo DataSync para que realice una verificación adicional al final de la transferencia.

## Opciones de verificación de datos
<a name="data-verification-options"></a>

Usa la siguiente información como ayuda para decidir si deseas DataSync realizar estas comprobaciones adicionales y de qué manera.


| Opción de la consola | Opción de la API | Description (Descripción) | 
| --- | --- | --- | 
|  **Verificar solo los datos transferidos** (recomendado)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) es `ONLY_FILES_TRANSFERRED`.  |  DataSync calcula la suma de comprobación de los datos transferidos (incluidos los metadatos) en la ubicación de origen. Al final de la transferencia, DataSync compara esta suma de verificación con la suma de verificación calculada con los mismos datos en el destino. Es conveniente utilizar esta opción cuando la transferencia se realice a S3 Glacier Flexible Retrieval o a las clases de almacenamiento de S3 Glacier Deep Archive. Para obtener más información, consulte [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).  | 
|  **Verificar todos los datos**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) es `POINT_IN_TIME_CONSISTENT`.  |  Al final de la transferencia, DataSync comprueba todo el origen y el destino para comprobar que ambas ubicaciones estén completamente sincronizadas.  No es compatible cuando la tarea usa el [modo mejorado](choosing-task-mode.md).  Si utilizas un [manifiesto](transferring-with-manifest.md), DataSync solo escanea y verifica lo que aparece en el manifiesto. No puede utilizar esta opción cuando la transferencia se realice a S3 Glacier Flexible Retrieval o a las clases de almacenamiento de S3 Glacier Deep Archive. Para obtener más información, consulte [Consideraciones sobre las clases de almacenamiento con las transferencias de Amazon S3](create-s3-location.md#using-storage-classes).   | 
| No verificar los datos después de la transferencia |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode) es `NONE`.  | DataSync realiza comprobaciones de integridad de los datos solo durante la transferencia. A diferencia de otras opciones, no hay ninguna verificación adicional al final de la transferencia. | 

## Configuración de la verificación de datos
<a name="configure-data-verification"></a>

Puede configurar las opciones de verificación de datos al crear una tarea, actualizar una tarea o iniciar la ejecución de una tarea.

### Uso de la DataSync consola
<a name="configure-data-verification-options-console"></a>

Las siguientes instrucciones describen cómo configurar las opciones de verificación de datos al crear una tarea.

**Cómo configurar la verificación de los datos usando la consola**

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. Para **verificar**, elija una de las siguientes opciones:
   + **Verificar solo los datos transferidos** (recomendado)
   + **Verificar todos los datos**
   + **No verificar los datos después de la transferencia**

### Uso de la DataSync API
<a name="configure-data-verification-options-api"></a>

Puede configurar la forma en DataSync que se verifican los datos mediante el `VerifyMode` parámetro con cualquiera de las siguientes operaciones:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# Establecer límites de ancho de banda para su tarea AWS DataSync
<a name="configure-bandwidth"></a>

Puede configurar los límites de ancho de banda de la red para su AWS DataSync tarea y para cada una de sus ejecuciones.

## Limitación del ancho de banda para una tarea
<a name="configure-bandwidth-create"></a>

Configure un límite de ancho de banda al crear, editar o iniciar una tarea.

### Uso de la DataSync consola
<a name="configure-bandwidth-create-console"></a>

Las siguientes instrucciones describen cómo configurar un límite de ancho de banda para la tarea en el momento de crearla.

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En **Límite de ancho de banda**, elija una de las siguientes opciones:
   + Seleccione **Usar disponibles** para usar todo el ancho de banda de la red disponible para cada una de las ejecuciones de la tarea.
   + Seleccione **Establecer límite de ancho de banda (MiB/s)** e introduzca el ancho de banda máximo que desee utilizar DataSync para la ejecución de cada tarea.

### Uso de la API DataSync
<a name="configure-bandwidth-create-api"></a>

Puede configurar el límite del ancho de banda de una tarea mediante el parámetro `BytesPerSecond` con cualquiera de las siguientes operaciones:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## Limitación del ancho de banda para la ejecución de una tarea
<a name="adjust-bandwidth-throttling"></a>

Puede modificar el límite del ancho de banda para la ejecución de una tarea en estado de ejecución o en cola.

### Uso de la DataSync consola
<a name="adjust-bandwidth-throttling-console"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. Elija la tarea y, a continuación, seleccione **Historial** para ver las ejecuciones de la tarea.

1. Elija la ejecución de la tarea que desee modificar y, a continuación, seleccione **Editar**.

1. En el cuadro de diálogo, elija una de las siguientes acciones:
   + Seleccione **Usar disponibles** para usar todo el ancho de banda de la red disponible para cada una de las ejecuciones de la tarea.
   + Seleccione **Establecer límite de ancho de banda (MiB/s)** e introduzca el ancho de banda máximo que desee utilizar DataSync para la ejecución de la tarea.

1. Seleccione **Save changes (Guardar cambios)**.

   El nuevo límite de ancho de banda entrará en vigor en 60 segundos.

### Uso de la API DataSync
<a name="adjust-bandwidth-throttling-api"></a>

Puede modificar el límite de ancho de banda para la ejecución de una tarea en ejecución o en cola utilizando el `BytesPerSecond` parámetro que acompaña a la [UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)operación.

# Programar cuándo se ejecuta la tarea de AWS DataSync
<a name="task-scheduling"></a>

Puede configurar una programación de tarea de AWS DataSync para transferir datos periódicamente entre ubicaciones de almacenamiento.

## Cómo funciona la programación de tareas de DataSync
<a name="how-task-scheduling-works"></a>

Una tarea programada de DataSync se ejecuta con la frecuencia que configure con un intervalo mínimo de 1 hora. Puede crear un programación de tareas mediante expresiones Cron o Rate.

**importante**  
No puede programar una tarea para que se ejecute en un intervalo superior a 1 hora.

**Uso de expresiones Cron**  
Use expresiones Cron para las programaciones de tareas que se ejecuten a una hora y un día específicos. Por ejemplo, aquí le explicamos cómo configurar una programación de tareas en el AWS CLI que se ejecute a las 12:00 UTC cada miércoles y domingo.  

```
cron(0 12 ? * SUN,WED *)
```

**Uso de expresiones Rate**  
Utilice expresiones Rate para los programas de tareas que se ejecuten a intervalos regulares, por ejemplo cada 12 horas. Por ejemplo, aquí le explicamos cómo configurar una programación de tareas en el AWS CLI que se ejecute cada 12 horas.  

```
rate(12 hours)
```

**sugerencia**  
Para obtener más información sobre la sintaxis de expresiones Cron y Rate, consulte la [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html).

## Creación de una programación de tareas de DataSync
<a name="configure-task-schedule"></a>

Puede programar la frecuencia con la que debe ejecutarse la tarea mediante la consola de DataSync, AWS CLI o la API de DataSync.

### Uso de la consola de DataSync
<a name="configure-task-schedule-console"></a>

Las siguientes instrucciones describen cómo configurar una programación al crear una tarea. Puede modificar la programación más adelante al editar la tarea.

En la consola, algunas opciones de programación permiten especificar la hora exacta a la que se ejecutará la tarea (por ejemplo, todos los días a las 22:30). Si no incluye una hora en estas opciones, la tarea se ejecutará en el momento en que la cree (o actualice).

1. Abra la consola de AWS DataSync en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En **Frecuencia** de la programación, elija una de las siguientes opciones:
   + Elija **Not Scheduled (No programada)** si no desea que la tarea se ejecute siguiendo una programación.
   + Elija **Hourly (Cada hora)** y, a continuación, elija el minuto de la hora en que quiere que se ejecute la tarea. 
   + Elija **Daily (A diario)** e introduzca la hora UTC a la que desea que se ejecute la tarea.
   + Elija **Weekly (Cada semana)** y el día de la semana e introduzca la hora UTC a la que desea que se ejecute la tarea.
   + Elija **Days of the week (Días de la semana)**, seleccione el día o los días concretos e introduzca la hora UTC a la que debe ejecutarse la tarea, con el formato HH:MM.
   + Elija **Custom (Personalizado)** y, a continuación, seleccione **Expresión Cron** o **expresión Rate**. Introduzca su programa de tareas con un intervalo mínimo de 1 hora. 

### Uso de AWS CLI
<a name="configure-task-schedule-api"></a>

Puede crear una programación para la tarea de DataSync mediante el parámetro `--schedule` con el comando`create-task`, `update-task` o `start-task-execution`.

Las siguientes instrucciones describen cómo hacer esto con el comando `create-task`.

1. Copie el siguiente comando `create-task`:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. Para el parámetro `--source-location-arn`, especifique el nombre de recurso de Amazon (ARN) de la ubicación desde la que transfiere los datos.

1. Para el parámetro `--destination-location-arn`, especifique el ARN de la ubicación a la que transfiere los datos.

1. Para el parámetro `--schedule`, especifique una expresión Cron o Rate para su programación.

   En el ejemplo, la expresión Cron `cron(0 12 ? * SUN,WED *)` establece una programación de la tarea que se ejecuta a las 12:00 UTC cada miércoles y domingo.

1. Ejecute el comando `create-task` para crear la tarea con una programación.

## Poner en pausa una programación de tareas de DataSync
<a name="pause-task-schedule"></a>

Puede haber situaciones en las que necesite detener temporalmente la programación de tareas de DataSync. Por ejemplo, es posible que tenga que detener temporalmente una transferencia periódica para solucionar un problema con la tarea o realizar tareas de mantenimiento en el sistema de almacenamiento.

Puede que DataSync inhabilite la programación de tareas de forma automática por las razones siguientes:
+ La tarea falla repetidamente con el mismo error.
+ [Deshabilite un Región de AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) que esté utilizando su tarea.

### Uso de la consola de DataSync
<a name="pause-scheduled-task-console"></a>

1. Abra la consola de AWS DataSync en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. Elija la tarea para la que desee pausar la programación y, a continuación, elija **Editar**.

1. En **Programar**, desactive **Activar programación**. Elija **Save changes (Guardar cambios)**.

### Mediante AWS CLI
<a name="pause-scheduled-task-cli"></a>

1. Copie el siguiente comando `update-task`:

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. Para el parámetro `--task-arn`, especifique el ARN de la tarea para la que desea pausar la programación.

1. Para el parámetro `--schedule`, haga lo siguiente:
   + Para `ScheduleExpression`, especifique una expresión Cron o Rate para su programación.

     En el ejemplo, la expresión `cron(0 12 ? * SUN,WED *)` establece una programación de la tarea que se ejecuta a las 12:00 UTC cada miércoles y domingo.
   + Para `Status`, especifique `DISABLED` para pausar la programación de la tarea.

1. Ejecute el comando `update-task`.

1. Para reanudar la programación, ejecute el mismo comando `update-task` con el valor `Status` establecido en `ENABLED`.

## Comprobar el estado de una programación de tareas de DataSync
<a name="check-scheduled-task"></a>

Puede comprobar si la programación de tareas de DataSync está habilitada. 

### Uso de la consola de DataSync
<a name="check-scheduled-task-console"></a>

1. Abra la consola de AWS DataSync en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. En la columna **Programación**, compruebe si la programación de la tarea está habilitada o deshabilitada.

### Uso de AWS CLI
<a name="check-scheduled-task-cli"></a>

1. Copie el siguiente comando `describe-task`:

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. Para el parámetro `--task-arn`, especifique el ARN de la tarea sobre la que desea obtener información.

1. Ejecute el comando `describe-task`.

Recibirá una respuesta que proporciona detalles sobre su tarea, incluida su programación. (El siguiente ejemplo se centra principalmente en la configuración de la programación de la tarea y no muestra una respuesta de `describe-task` completa).

El ejemplo muestra que la programación de la tarea se ha deshabilitado manualmente. Si la programación ha sido inhabilitada por el `SERVICE` de DataSync, verá un mensaje de error para `DisabledReason` que lo ayudará a entender por qué la tarea sigue fallando. Para obtener más información, consulte [Solución de AWS DataSync problemas](troubleshooting-datasync.md).

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# Etiquetar tus tareas AWS DataSync
<a name="tagging-tasks"></a>

Las *etiquetas* son pares clave-valor que te ayudan a administrar, filtrar y buscar tus AWS DataSync recursos. Puedes añadir hasta 50 etiquetas a cada DataSync tarea y ejecución de tareas.

Por ejemplo, puede crear una tarea para realizar una migración de datos de gran tamaño y etiquetarla con la clave **Project** y el valor **Large Migration**. Para una mejor organización de la migración, puede etiquetar una ejecución de la tarea con la clave **Transfer Date** y el valor **May 2021** (es posible que se etiqueten las siguientes ejecuciones de las tareas **June 2021**, **July 2021**, etc.).

## Etiquetar tu tarea DataSync
<a name="tagging-tasks-console"></a>

Solo puede etiquetar la DataSync tarea al crearla.

### Uso de la DataSync consola
<a name="tagging-tasks-console-steps"></a>

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos**; luego, seleccione **Tareas** y, a continuación, seleccione **Crear tarea**.

1. Configure las ubicaciones de origen y destino de la tarea.

   Para obtener más información, consulte [¿Dónde puedo transferir mis datos AWS DataSync?](working-with-locations.md)

1. En la página **Configurar ajustes**, seleccione **Añadir etiqueta nueva** para etiquetar la tarea.

### Usando el AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. Copie el siguiente comando `create-task`:

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Especifique los siguientes parámetros en el comando:
   + `--source-location-arn`: especifique el nombre de recurso de Amazon (ARN) de la ubicación de origen en la transferencia.
   + `--destination-location-arn`: especifique el ARN de la ubicación de destino en la transferencia.
   + `--tags`: especifique las etiquetas que desea aplicar a la tarea.

     Si hay más de una etiqueta, separe cada par clave-valor con un espacio.

1. (Opcional) Especifique otros parámetros que tengan sentido para su escenario de transferencia.

   Para obtener una lista de `--options`, consulte el comando [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html).

1. Ejecute el comando `create-task`.

   Recibirá una respuesta que le mostrará la tarea que acaba de crear.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Para ver las etiquetas que ha añadido a esta tarea, puede utilizar el [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

## Etiquetar la ejecución de la DataSync tarea
<a name="tagging-task-executions-console"></a>

Puede etiquetar cada ejecución de la DataSync tarea.

Si la tarea ya tiene etiquetas, recuerde lo siguiente sobre el uso de etiquetas en la ejecución de tareas:
+ Si inicia la tarea con la consola, las etiquetas creadas por el usuario se aplicarán de forma automática a la ejecución de la tarea. Sin embargo, no se aplicarán las etiquetas creadas por el sistema que comiencen por `aws:`.
+ Si empiezas la tarea con la DataSync API o AWS CLI, sus etiquetas no se aplican automáticamente a la ejecución de la tarea.

### Uso de la DataSync consola
<a name="tagging-task-executions-console"></a>

Para añadir, editar o eliminar etiquetas de la ejecución de una tarea, debe iniciar la tarea con las opciones de anulación.

1. Abra la AWS DataSync consola en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. Elija la tarea.

1. Seleccione **Iniciar** y, a continuación, elija una de las siguientes opciones: 
   + **Iniciar con los valores predeterminados**: aplica cualquier etiqueta asociada a la tarea.
   + **Comenzar con las opciones principales**: permite añadir, editar o eliminar etiquetas para la ejecución de esta tarea en particular.

### Usando el AWS CLI
<a name="tagging-task-executions-cli"></a>

1. Copie el siguiente comando `start-task-execution`:

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Especifique los siguientes parámetros en el comando:
   + `--task-arn`: especifique el ARN de la tarea que desea iniciar.
   + `--tags`: especifique las etiquetas que desea aplicar a esta ejecución específica de la tarea.

     Si hay más de una etiqueta, separe cada par clave-valor con un espacio.

1. (Opcional) Especifique otros parámetros que tengan sentido para su situación.

   Para obtener más información, consulte el comando [start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html).

1. Ejecute el comando `start-task-execution`.

   Recibirá una respuesta que muestra la ejecución de la tarea que usted acaba de iniciar.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Para ver las etiquetas que ha añadido a esta tarea, puede utilizar el [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

# Inicio de una tarea para transferir los datos
<a name="run-task"></a>

Una vez que haya creado la tarea de transferencia de AWS DataSync, podrá empezar a mover los datos. Cada ejecución de una tarea se denomina *ejecución de tarea*. Para obtener información sobre lo que ocurre durante la ejecución de una tarea, consulte [Cómo DataSync transfiere los archivos, objetos y directorios](how-datasync-transfer-works.md#transferring-files).

**importante**  
Si planea transferir datos a o desde una ubicación de Amazon S3, consulte [How DataSync can affect your S3 request charges](create-s3-location.md#create-s3-location-s3-requests) y la [página de precios de DataSync](https://aws.amazon.com/datasync/pricing/) antes de empezar.

## Inicio de la tarea
<a name="starting-task"></a>

Una vez que haya creado la tarea, podrá empezar a mover los datos de inmediato.

### Uso de la consola de DataSync
<a name="starting-task-console"></a>

1. Abra la consola de AWS DataSync en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. Elija la tarea que desee ejecutar.

   Asegúrese de que la tarea esté en el estado **Disponible**. También puede seleccionar múltiples tareas.

1. Seleccione **Acciones** y, a continuación, elija una de las siguientes opciones:
   + **Iniciar**: ejecuta la tarea (o las tareas, si ha seleccionado más de una).
   + **Comenzar con las opciones principales**: le permite modificar algunos de los ajustes de la tarea antes de empezar a mover los datos. Cuando esté preparado, elija **Iniciar**.

1. Seleccione **Ver detalles de la ejecución** para ver los detalles de la ejecución de la tarea en ejecución.

### Uso de AWS CLI
<a name="start-task-execution"></a>

Para iniciar su tarea DataSync, solo necesita especificar el nombre de recurso de Amazon (ARN) de la tarea que desea ejecutar. A continuación, se muestra un ejemplo de comando `start-task-execution`:

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

En el siguiente ejemplo, se inicia una tarea con algunos ajustes distintos de los valores predeterminados de la tarea:

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

El comando devuelve un ARN para la ejecución de la tarea, similar al del siguiente ejemplo:

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**nota**  
Cada agente puede ejecutar una sola tarea a la vez.

### Uso de la API de DataSync
<a name="starting-task-api"></a>

Puede iniciar la tarea mediante la operación [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html). Utilice la operación [DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html) para obtener más detalles sobre la ejecución de la tarea en ejecución.

Una vez iniciada, puede [comprobar el estado de la ejecución de la tarea](#understand-task-execution-statuses) a medida que DataSync vaya copiando los datos. También puede [limitar el ancho de banda de la ejecución de la tarea](configure-bandwidth.md#adjust-bandwidth-throttling), en caso de ser necesario.

## Estados de ejecución de las tareas
<a name="understand-task-execution-statuses"></a>

Al iniciar una tarea de DataSync, es posible que vea estos estados. (Los [estados de las tareas son diferentes a los estados](create-task-how-to.md#understand-task-creation-statuses) de ejecución de las tareas).


| Estado de la consola | Estado de la API | Descripción | 
| --- | --- | --- | 
|  En cola  |  `QUEUED`  |  Se está ejecutando otra tarea con el mismo agente de DataSync. Para obtener más información, consulte [Saber cuándo la tarea está en cola](#queue-task-execution).  | 
|  Launching (inicio o lanzamiento)  |  `LAUNCHING`  |  DataSync está inicializando la ejecución de la tarea. Este estado por lo general se realiza rápidamente, pero puede tardar hasta varios minutos.  | 
| Lanzada | `LAUNCHED` | DataSync ha iniciado la ejecución de la tarea. | 
|  Preparación  |  `PREPARING`  |  DataSync determina qué datos transferir. La preparación puede tardar desde unos minutos hasta varias horas, o incluso más tiempo, según el número de archivos, objetos o directorios en ambas ubicaciones y la configuración de la tarea. El funcionamiento de la preparación también depende del modo de la tarea. Para obtener más información, consulte [¿Cómo DataSync se prepara la transferencia de datos](how-datasync-transfer-works.md#how-datasync-prepares).  | 
|  Transferencia  |  `TRANSFERRING`  |  DataSync ejecuta la transferencia de datos real.  | 
|  Verificando  |  `VERIFYING`  |  DataSync verifica la integridad de los datos al finalizar la transferencia.  | 
|  Success  |  `SUCCESS`  |  La ejecución de la tarea se realizó correctamente.  | 
|  Cancelling  |  `CANCELLING`  | La ejecución de la tarea está en proceso de ser cancelada. | 
|  Error  |  `ERROR`  |  Falló la ejecución de la tarea.  | 

## Saber cuándo la tarea está en cola
<a name="queue-task-execution"></a>

Al ejecutar varias tareas (por ejemplo, si está [transfiriendo un conjunto de datos grande](create-task-how-to.md#multiple-tasks-large-dataset)), DataSync puede poner las tareas en cola para que se ejecuten en serie (primero en entrar, primero en salir). Algunos ejemplos de casos en los que esto ocurre son:
+ Ejecuta diferentes tareas que utilizan el mismo agente DataSync. Si bien puede usar el mismo agente para varias tareas, un agente solo puede ejecutar una tarea a la vez.
+ La ejecución de una tarea está en curso y se inician ejecuciones adicionales de la misma tarea utilizando distintos [filtros](filtering.md) o [manifiestos](transferring-with-manifest.md).

En cada ejemplo, las tareas en cola no se inician hasta que finaliza la tarea que tienen por delante.

## Cancelación de la ejecución de la tarea
<a name="cancel-running-task"></a>

 Puede detener cualquier ejecución de tarea de DataSync en ejecución o en cola. 

**Cómo cancelar una ejecución de tarea a través de la consola**

1. Abra la consola de AWS DataSync en [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. En el panel de navegación situado a la izquierda, expanda **Transferencia de datos** y, a continuación, seleccione **Tareas**.

1. Seleccione el **ID de la tarea** para la tarea en ejecución que desea supervisar.

   El estado de la tarea debe ser **En ejecución**.

1. Seleccione **Historial** para ver las ejecuciones de la tarea.

1. Seleccione la ejecución de la tarea que desee detener y, a continuación, elija **Detener**.

1. En el cuadro de diálogo, elija **Detener**.

Para cancelar una tarea en ejecución o en cola a través de la API de DataSync, consulte [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html).

### Cancelación automática de tareas bloqueadas
<a name="auto-cancel-stuck-tasks"></a>

En algunos casos, la ejecución de una tarea de DataSync en curso puede quedar bloqueada. 