

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Trasferimento dei dati con AWS DataSync
<a name="transferring-data-datasync"></a>

Con AWS DataSync, puoi trasferire dati da o verso uno storage locale AWS, in o in altri cloud.

La configurazione di un DataSync trasferimento prevede in genere i seguenti passaggi:

1. Determina se DataSync [supporta il trasferimento](working-with-locations.md).

1. Se [hai bisogno di un DataSync agente](do-i-need-datasync-agent.md) per il trasferimento, implementa e attiva un agente il più vicino possibile a uno dei tuoi sistemi di storage.

   Ad esempio, se esegui il trasferimento da un file server Network File System (NFS) locale, distribuisci l'agente il più vicino possibile a quel file server.

1. Fornisci DataSync l'accesso al tuo sistema di storage.

   DataSync necessita dell'autorizzazione per leggere o scrivere sul dispositivo di archiviazione (a seconda che lo storage sia una posizione di origine o di destinazione). Ad esempio, scopri come [fornire DataSync l'accesso ai file server NFS](create-nfs-location.md#accessing-nfs).

1. [Connect la rete](networking-datasync.md) per il traffico tra il sistema di storage e DataSync.

1. Crea una posizione per il tuo sistema di storage di origine utilizzando la DataSync AWS CLI console o DataSync l'API.

   Ad esempio, scopri come [creare una posizione NFS o una posizione](create-nfs-location.md#create-nfs-location-how-to) [Amazon S3](create-s3-location.md#create-s3-location-how-to).

1. Ripeti i passaggi 3-5 per creare la località di destinazione del trasferimento.

1. [Crea e avvia un'attività di DataSync trasferimento](create-task-how-to.md) che includa le posizioni di origine e di destinazione.

**Topics**
+ [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)
+ [Trasferimento da o verso lo storage locale con AWS DataSync](transferring-on-premises-storage.md)
+ [Trasferimento da o verso AWS lo storage con AWS DataSync](transferring-aws-storage.md)
+ [Trasferimento da o verso un altro spazio di archiviazione cloud con AWS DataSync](transferring-other-cloud-storage.md)
+ [Creazione di un'attività per il trasferimento dei dati](create-task-how-to.md)
+ [Avvio di un'attività per trasferire i dati](run-task.md)

# Con chi posso trasferire i miei dati AWS DataSync?
<a name="working-with-locations"></a>

La destinazione in cui è possibile trasferire i dati AWS DataSync dipende dai seguenti fattori:
+ [Luoghi](how-datasync-transfer-works.md#sync-locations) di origine e destinazione del trasferimento
+ Se le tue sedi sono diverse Account AWS
+ Se le tue sedi sono diverse Regioni AWS
+ Se utilizzi la modalità Base o la modalità Avanzata

## Trasferimenti supportati nella stessa Account AWS
<a name="working-with-locations-same-account"></a>

DataSync supporta i trasferimenti tra le seguenti risorse di archiviazione associate alle stesse Account AWS.


| Origine | Destinazione | Richiede un agente? | Modalità attività supportata | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Base, avanzata  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Solo per la modalità Basic  |  Base, avanzata  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Di base, avanzato  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Di base, avanzato  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Solo per la modalità Basic  |  Base, avanzata  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo Basic  | 

## Trasferimenti supportati tra Account AWS
<a name="working-with-locations-across-accounts"></a>

DataSync supporta alcuni trasferimenti tra risorse di archiviazione associate a diverse Account AWS.


| Origine | Destinazione | Richiede un agente? | Modalità attività supportata | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Base, avanzata  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Di base, avanzato  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Di base, avanzato  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  No  |  Solo di base  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/working-with-locations.html)  |  Sì (se usato come NFS/SMB location)  |  Solo di base  | 

1 Configurato come [posizione NFS](create-nfs-location.md).

2 Configurato come sede [SMB.](create-smb-location.md)

3 Configurato come posizione NFS o SMB.

## Trasferimenti supportati nello stesso Regione AWS
<a name="working-with-locations-same-region"></a>

Non ci sono restrizioni per il trasferimento di dati all'interno dello stesso Regione AWS (incluse le [regioni che richiedono l'iscrizione)](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html). Per ulteriori informazioni, consulta [Regioni AWS supportata da](https://docs.aws.amazon.com/general/latest/gr/datasync.html). DataSync

## Trasferimenti supportati tra Regioni AWS
<a name="working-with-locations-cross-regions"></a>

Tieni presente quanto segue quando trasferisci dati tra le piattaforme [Regioni AWS supportate da DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html):
+ Quando effettui il trasferimento tra servizi di AWS archiviazione diversi Regioni AWS, una delle due sedi deve trovarsi nella regione in cui stai utilizzando. DataSync
+ Non è possibile effettuare trasferimenti tra regioni con una posizione di archiviazione NFS, SMB, HDFS o oggetti. In queste situazioni, entrambe le sedi di trasferimento devono trovarsi nella stessa regione in cui si [attiva](activate-agent.md) l'agente. DataSync
+ Con AWS GovCloud (US) le Regioni, puoi:
  + Trasferimenti tra le regioni AWS GovCloud (Stati Uniti orientali) e AWS GovCloud (Stati Uniti occidentali).
  + Trasferimento tra una AWS GovCloud (US) regione e un'area commerciale Regione AWS, ad esempio Stati Uniti orientali (Virginia settentrionale). Questo tipo di trasferimento richiede un [agente](agent-requirements.md) per il trasferimento tra Amazon EFS o Amazon FSx file system.

**Importante**  
Paghi per i dati trasferiti tra Regioni AWS. Questo trasferimento viene fatturato come trasferimento di dati dalla regione di origine a quella di destinazione. Per ulteriori informazioni, consulta la sezione [Prezzi di AWS DataSync](https://aws.amazon.com/datasync/pricing/).

## Determinare se il trasferimento richiede un agente DataSync
<a name="datasync-transfer-requirements"></a>

A seconda dello scenario di trasferimento, potrebbe essere necessario un DataSync agente. Per ulteriori informazioni, consulta [Ho bisogno di un AWS DataSync agente?](do-i-need-datasync-agent.md)

# Trasferimento da o verso lo storage locale con AWS DataSync
<a name="transferring-on-premises-storage"></a>

Con AWS DataSync, puoi trasferire file e oggetti tra una serie di sistemi di storage locali o autogestiti e i seguenti servizi di storage: AWS 
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [File server Amazon FSx per Windows](create-fsx-location.md)
+ [Amazon FSx per Lustre](create-lustre-location.md)
+ [Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Amazon FSx per NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [Configurazione dei AWS DataSync trasferimenti con un file server NFS](create-nfs-location.md)
+ [Configurazione dei AWS DataSync trasferimenti con un file server SMB](create-smb-location.md)
+ [Configurazione dei AWS DataSync trasferimenti con un cluster HDFS](create-hdfs-location.md)
+ [Configurazione dei DataSync trasferimenti con un sistema di archiviazione di oggetti](create-object-location.md)

# Configurazione dei AWS DataSync trasferimenti con un file server NFS
<a name="create-nfs-location"></a>

Con AWS DataSync, è possibile trasferire dati tra il file server Network File System (NFS) e i seguenti servizi AWS di storage. I servizi di storage supportati dipendono dalla modalità di attività, come illustrato di seguito:


| modalità base | Modalità avanzata | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-nfs-location.html)  | 

Per configurare questo tipo di trasferimento, devi creare una [posizione](how-datasync-transfer-works.md#sync-locations) per il tuo file server NFS. È possibile utilizzare questa posizione come fonte o destinazione di trasferimento.

## Fornire DataSync l'accesso ai file server NFS
<a name="accessing-nfs"></a>

[Per accedere DataSync al file server NFS, è necessario un DataSync agente.](how-datasync-transfer-works.md#sync-agents) L'agente monta un'esportazione sul file server utilizzando il protocollo NFS. Assicuratevi di utilizzare l'agente che corrisponde alla modalità di attività desiderata.

**Topics**
+ [Configurazione dell'esportazione NFS](#accessing-nfs-configuring-export)
+ [Versioni NFS supportate](#supported-nfs-versions)

### Configurazione dell'esportazione NFS
<a name="accessing-nfs-configuring-export"></a>

L'esportazione DataSync necessaria per il trasferimento dipende dal fatto che il file server NFS sia una posizione di origine o di destinazione e da come sono configurate le autorizzazioni del file server.

Se il file server è una posizione di origine, deve DataSync solo leggere e navigare tra i file e le cartelle. Se si tratta di una posizione di destinazione, è DataSync necessario l'accesso root per scrivere nella posizione e impostare proprietà, autorizzazioni e altri metadati sui file e sulle cartelle che stai copiando. Puoi utilizzare l'`no_root_squash`opzione per consentire l'accesso root per l'esportazione.

Gli esempi seguenti descrivono come configurare un'esportazione NFS che fornisce l'accesso a DataSync.

**Quando il file server NFS è una posizione di origine (accesso root)**  
Configurate l'esportazione utilizzando il seguente comando, che fornisce permessi di DataSync sola lettura (`ro`) e accesso root (): `no_root_squash`

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**Quando il file server NFS è una posizione di destinazione**  
Configurate l'esportazione utilizzando il seguente comando, che fornisce i permessi di DataSync scrittura (`rw`) e l'accesso root (`no_root_squash`):

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**Quando il file server NFS è una posizione di origine (nessun accesso root)**  
Configura l'esportazione utilizzando il comando seguente, che specifica l'ID utente (UID) e l'ID di gruppo (GID) POSIX che, a quanto pare, fornirebbero autorizzazioni di DataSync sola lettura per l'esportazione:

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### Versioni NFS supportate
<a name="supported-nfs-versions"></a>

Per impostazione predefinita, DataSync utilizza la versione NFS 4.1. DataSync supporta anche NFS 4.0 e 3.x.

## Configurazione della rete per i trasferimenti NFS
<a name="configure-network-nfs-location"></a>

Per il DataSync trasferimento, è necessario configurare il traffico per alcune connessioni di rete: 

1. Consenti il traffico sulle seguenti porte dal tuo DataSync agente al tuo file server NFS:
   + **Per le versioni 4.1 e 4.0 di NFS**: porta TCP 2049
   + **Per la versione 3.x di NFS**: porte TCP 111 e 2049

   Gli altri client NFS della rete dovrebbero essere in grado di montare l'esportazione NFS che state utilizzando per trasferire i dati. L'esportazione deve essere accessibile anche senza l'autenticazione Kerberos.

1. Configura il traffico per la [connessione dell'endpoint del servizio](datasync-network.md) (ad esempio un endpoint VPC, pubblico o FIPS).

1. Consenti il traffico dal DataSync servizio al servizio di [AWS storage](datasync-network.md#storage-service-network-requirements) verso o da cui stai trasferendo.

## Creazione della posizione di trasferimento NFS
<a name="create-nfs-location-how-to"></a>

Prima di cominciare, tieni presente che:
+ È necessario un file server NFS da cui trasferire i dati.
+ È necessario un DataSync agente in grado di [accedere al file server](#accessing-nfs).
+  DataSync non supporta la copia degli elenchi di controllo degli accessi di NFS versione 4 ()ACLs.

### Utilizzo della console DataSync
<a name="create-nfs-location-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Network File System (NFS).**

1. Per **gli agenti**, scegli l' DataSync agente che può connettersi al tuo file server NFS.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per il **server NFS**, inserisci il nome DNS (Domain Name System) o l'indirizzo IP del file server NFS a cui si connette l' DataSyncagente.

1. Per **Mount path**, inserisci il percorso di esportazione NFS che desideri montare. DataSync 

   Questo percorso (o una sottodirectory del percorso) è il luogo in cui vengono DataSync trasferiti i dati da o verso. Per ulteriori informazioni, consulta [Configurazione dell'esportazione NFS](#accessing-nfs-configuring-export).

1. (Facoltativo) Espandi **le impostazioni aggiuntive** e scegli una **versione NFS** specifica DataSync da utilizzare per accedere al file server.

   Per ulteriori informazioni, consulta [Versioni NFS supportate](#supported-nfs-versions).

1. (Facoltativo) **Scegliete Aggiungi tag per etichettare** la vostra posizione NFS.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue sedi. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

### Utilizzando il AWS CLI
<a name="create-location-nfs-cli"></a>
+ Utilizzate il seguente comando per creare una posizione NFS.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  Per ulteriori informazioni sulla creazione della posizione, vedere[Fornire DataSync l'accesso ai file server NFS](#accessing-nfs).

  DataSync sceglie automaticamente la versione NFS che utilizza per leggere da una posizione NFS. Per specificare una versione NFS, utilizzare il parametro opzionale `Version` nell'operazione API [NfsMountOptions](API_NfsMountOptions.md).

Questo comando restituisce l'Amazon Resource Name (ARN) della posizione NFS, simile a quello mostrato di seguito.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

Per fare in modo che la directory possa essere montata, è possibile connettersi a qualsiasi computer che abbia la stessa configurazione di rete dell'agente ed eseguire il seguente comando. 

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

Di seguito è riportato un comando di esempio.

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# Configurazione dei AWS DataSync trasferimenti con un file server SMB
<a name="create-smb-location"></a>

Con AWS DataSync, è possibile trasferire dati tra il file server Server Message Block (SMB) e i seguenti servizi di AWS storage. I servizi di storage supportati dipendono dalla modalità di attività, come illustrato di seguito:


| modalità base | Modalità avanzata | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-smb-location.html)  | 

Per configurare questo tipo di trasferimento, devi creare una [posizione](how-datasync-transfer-works.md#sync-locations) per il tuo file server SMB. È possibile utilizzarlo come fonte o destinazione di trasferimento. Assicuratevi di utilizzare l'agente che corrisponde alla modalità di attività desiderata.

## Fornire DataSync l'accesso ai file server SMB
<a name="configuring-smb"></a>

DataSync si connette al file server utilizzando il protocollo SMB e può eseguire l'autenticazione con NTLM o Kerberos.

**Topics**
+ [Versioni SMB supportate](#configuring-smb-version)
+ [Utilizzo dell'autenticazione NTLM](#configuring-smb-ntlm-authentication)
+ [Utilizzo di Autenticazione Kerberos](#configuring-smb-kerberos-authentication)
+ [Autorizzazioni richieste](#configuring-smb-permissions)
+ [Namespace DFS](#configuring-smb-location-dfs)

### Versioni SMB supportate
<a name="configuring-smb-version"></a>

Per impostazione predefinita, sceglie DataSync automaticamente una versione del protocollo SMB in base alla negoziazione con il file server SMB.

Puoi anche configurare l'utilizzo DataSync di una versione SMB specifica, ma ti consigliamo di farlo solo se hai problemi a negoziare automaticamente con DataSync il file server SMB. DataSync supporta le versioni SMB 1.0 e successive. Per motivi di sicurezza, consigliamo di utilizzare la versione 3.0.2 o successiva di SMB. Le versioni precedenti, come SMB 1.0, contengono vulnerabilità di sicurezza note che gli aggressori possono sfruttare per compromettere i dati.

Consulta la tabella seguente per un elenco delle opzioni disponibili nella console e nell'API: DataSync


| Opzione Console | Opzione API | Description | 
| --- | --- | --- | 
| Automatica |  `AUTOMATIC`  |  DataSync e il file server SMB negoziano la versione più recente di SMB che supportano reciprocamente tra la 2.1 e la 3.1.1. Questa è l'opzione predefinita e consigliata. Se scegli una versione specifica che il tuo server di file non supporta, potresti ricevere un errore `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Limita la negoziazione del protocollo alla sola versione SMB 3.0.2.  | 
| SMB 2.1 |  `SMB2`  | Limita la negoziazione del protocollo alla sola versione 2.1 di SMB. | 
| SMB 2.0 | `SMB2_0` | Limita la negoziazione del protocollo solo alla versione 2.0 di SMB. | 
| SMB 1.0 | `SMB1` | Limita la negoziazione del protocollo solo alla versione 1.0 di SMB. | 

### Utilizzo dell'autenticazione NTLM
<a name="configuring-smb-ntlm-authentication"></a>

Per utilizzare l'autenticazione NTLM, devi fornire un nome utente e una password che consentano di accedere DataSync al file server SMB da cui stai effettuando il trasferimento. L'utente può essere un utente locale sul file server o un utente di dominio in Microsoft Active Directory.

### Utilizzo di Autenticazione Kerberos
<a name="configuring-smb-kerberos-authentication"></a>

Per utilizzare l'autenticazione Kerberos, fornisci un principale Kerberos, un file di tabella delle chiavi Kerberos (keytab) e un file di configurazione Kerberos che consente di accedere DataSync al file server SMB da cui stai trasferendo o da cui stai effettuando il trasferimento.

**Topics**
+ [Prerequisiti](#configuring-smb-kerberos-prerequisites)
+ [DataSync opzioni di configurazione per Kerberos](#configuring-smb-kerberos-options)

#### Prerequisiti
<a name="configuring-smb-kerberos-prerequisites"></a>

È necessario creare un paio di artefatti Kerberos e configurare la rete in modo che possa accedere al file server SMB. DataSync 
+ [https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass)

  L'esempio seguente crea un file keytab utilizzando. `ktpass` L'area di autenticazione Kerberos specificata (`MYDOMAIN.ORG`) deve essere in lettere maiuscole.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ Preparate una versione semplificata del file di configurazione Kerberos (). `krb5.conf` Includi informazioni sul realm, sulla posizione dei server di amministrazione del dominio e sulla mappatura dei nomi host su un realm Kerberos.

  Verifica che il `krb5.conf` contenuto sia formattato con l'involucro misto corretto per i nomi dei realm e dei nomi di dominio. Esempio:

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ Nella configurazione di rete, assicuratevi che la porta del server Kerberos Key Distribution Center (KDC) sia aperta. La porta KDC è in genere la porta TCP 88.

#### DataSync opzioni di configurazione per Kerberos
<a name="configuring-smb-kerberos-options"></a>

Quando si crea una sede SMB che utilizza Kerberos, si configurano le seguenti opzioni.


| Opzione Console | Opzione API | Description | 
| --- | --- | --- | 
|  **Server SMB**  |  `ServerHostName`  |  Il nome di dominio del file server SMB che verrà installato dall' DataSyncagente. Per Kerberos, non è possibile specificare l'indirizzo IP del file server.  | 
|  **Principal di Kerberos**  |  `KerberosPrincipal`  |  Un'identità nell'ambito Kerberos che dispone dell'autorizzazione ad accedere a file, cartelle e metadati dei file nel file server SMB. Potrebbe essere simile a un principale Kerberos. `HOST/kerberosuser@MYDOMAIN.ORG` I nomi principali distinguono tra maiuscole e minuscole.  | 
|  **File Keytab**  |  `KerberosKeytab`   |  Un file di tabella delle chiavi Kerberos (keytab), che include le mappature tra la chiave principale Kerberos e la chiave di crittografia.  | 
|  **File di configurazione Kerberos**  |  `KerberosKrbConf`  |  Un `krb5.conf` file che definisce la configurazione del realm Kerberos.  | 
|  Indirizzi **IP DNS** (facoltativi)  |  `DnsIpAddresses`  |  Gli IPv4 indirizzi dei server DNS a cui appartiene il file server SMB. Se nel tuo ambiente sono presenti più domini, la configurazione garantisce la DataSync connessione al file server SMB corretto.  | 

### Autorizzazioni richieste
<a name="configuring-smb-permissions"></a>

L'identità fornita DataSync deve disporre dell'autorizzazione per montare e accedere ai file, alle cartelle e ai metadati dei file del file server SMB.

Se fornisci un'identità in Active Directory, questa deve essere un membro di un gruppo Active Directory con uno o entrambi i seguenti diritti utente (a seconda dei [metadati che desideri DataSync copiare](configure-metadata.md)):


| Diritto dell'utente | Description | 
| --- | --- | 
|  **Ripristinare file e directory** () `SE_RESTORE_NAME`  |  Consente di DataSync copiare la proprietà degli oggetti, le autorizzazioni, i metadati dei file e gli elenchi di accesso discrezionali NTFS (). DACLs Questo diritto utente viene in genere concesso ai membri dei gruppi **Domain Admins e** **Backup Operators** (entrambi gruppi Active Directory predefiniti).  | 
|  **Gestisci i registri di controllo e sicurezza** () `SE_SECURITY_NAME`  |  Consente di copiare DataSync gli elenchi di controllo degli accessi al sistema NTFS ()SACLs. Questo diritto utente viene generalmente concesso ai membri del gruppo **Domain Admins**.   | 

Se desideri copiare Windows ACLs e stai effettuando un trasferimento tra un file server SMB e un altro sistema di storage che utilizza SMB (come Amazon FSx for Windows File Server o FSx ONTAP), l'identità fornita DataSync deve appartenere allo stesso dominio Active Directory o avere una relazione di trust Active Directory tra i rispettivi domini.

### Namespace DFS
<a name="configuring-smb-location-dfs"></a>

DataSync non supporta i namespace Microsoft Distributed File System (DFS). Ti consigliamo invece di specificare un file server o una condivisione sottostante quando crei la tua posizione. DataSync 

## Creazione della sede di trasferimento SMB
<a name="create-smb-location-how-to"></a>

Prima di iniziare, è necessario un file server SMB da cui trasferire i dati.

### Utilizzo della console DataSync
<a name="create-smb-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Location type (Tipo di posizione)**, scegliere **Server Message Block (SMB)**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento.

1. Per **gli agenti**, scegli l' DataSync agente che può connettersi al tuo file server SMB.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per il **server SMB**, inserisci il nome di dominio o l'indirizzo IP del file server SMB che verrà installato dall' DataSync agente.

   Ricorda quanto segue con questa impostazione:
   + Non puoi specificare un indirizzo IP versione 6 (IPv6).
   + Se utilizzi l'autenticazione Kerberos, devi specificare un nome di dominio.

1. Per **Share name**, inserisci il nome della condivisione esportata dal tuo file server SMB dove DataSync leggerà o scriverà i dati.

   È possibile includere una sottodirectory nel percorso di condivisione (ad esempio,). `/path/to/subdirectory` Assicurati che anche altri client SMB della tua rete possano montare questo percorso. 

   Per copiare tutti i dati nella sottodirectory, DataSync devi essere in grado di montare la condivisione SMB e accedere a tutti i suoi dati. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#configuring-smb-permissions).

1. (Facoltativo) Espandi **le impostazioni aggiuntive** e scegli una **versione SMB** DataSync da utilizzare per accedere al file server.

   Per impostazione predefinita, sceglie DataSync automaticamente una versione in base alla negoziazione con il file server SMB. Per informazioni, consulta [Versioni SMB supportate](#configuring-smb-version).

1. **Per il **tipo di autenticazione**, scegli **NTLM** o Kerberos.**

1. Effettua una delle seguenti operazioni a seconda del tipo di autenticazione:

------
#### [ NTLM ]
   + Per **Utente**, inserisci un nome utente che possa montare il file server SMB e che disponga dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.

     Per ulteriori informazioni, consulta [Autorizzazioni richieste](#configuring-smb-permissions).
   + Per **Password**, inserisci la password dell'utente che può installare il file server SMB e dispone dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.
   + (Facoltativo) In **Dominio**, inserite il nome di dominio Windows a cui appartiene il file server SMB.

     Se nel tuo ambiente sono presenti più domini, la configurazione di questa impostazione assicura che DataSync si connetta al file server SMB corretto.

------
#### [ Kerberos ]
   + Per il principale **Kerberos, specifica un principale** nel tuo realm Kerberos che disponga dell'autorizzazione ad accedere ai file, alle cartelle e ai metadati dei file nel tuo file server SMB.

     Potrebbe essere simile a un principale Kerberos. `HOST/kerberosuser@MYDOMAIN.ORG`

     I nomi principali distinguono tra maiuscole e minuscole. L'esecuzione dell' DataSyncattività avrà esito negativo se il principale specificato per questa impostazione non corrisponde esattamente al principale utilizzato per creare il file keytab.
   + Per il file **Keytab, carica un file** keytab che includa le mappature tra la chiave principale Kerberos e la chiave di crittografia.
   + Per il file di configurazione **Kerberos, carica un `krb5.conf` file che definisca la configurazione del** tuo realm Kerberos.
   + (Facoltativo) Per **gli indirizzi IP DNS**, specifica fino a due IPv4 indirizzi per i server DNS a cui appartiene il file server SMB. 

     Se nel tuo ambiente sono presenti più domini, la configurazione di questo parametro assicura che DataSync si connetta al file server SMB corretto.

------

1. (Facoltativo) Scegli **Aggiungi tag per etichettare** la tua posizione SMB.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue sedi. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

### Utilizzando il AWS CLI
<a name="create-location-smb-cli"></a>

Le seguenti istruzioni descrivono come creare sedi SMB con autenticazione NTLM o Kerberos.

------
#### [ NTLM ]

1. Copia il comando seguente. `create-location-smb`

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. Per`--agent-arns`, specifica l' DataSync agente che può connettersi al file server SMB.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per`--server-hostname`, specifica il nome di dominio o l' IPv4 indirizzo del file server SMB che verrà installato dal tuo DataSync agente. 

1. Ad `--subdirectory` esempio, specifica il nome della condivisione esportata dal file server SMB in cui DataSync leggerà o scriverà i dati.

   È possibile includere una sottodirectory nel percorso di condivisione (ad esempio,). `/path/to/subdirectory` Assicurati che anche altri client SMB della tua rete possano montare questo percorso. 

   Per copiare tutti i dati nella sottodirectory, DataSync devi essere in grado di montare la condivisione SMB e accedere a tutti i suoi dati. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#configuring-smb-permissions).

1. Ad `--user` esempio, specifica un nome utente in grado di montare il file server SMB e che disponga dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.

   Per ulteriori informazioni, consulta [Autorizzazioni richieste](#configuring-smb-permissions).

1. Ad `--password` esempio, specifica la password dell'utente che può installare il file server SMB e dispone dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.

1. (Facoltativo) Per`--domain`, specifica il nome di dominio Windows a cui appartiene il file server SMB.

   Se nel tuo ambiente sono presenti più domini, la configurazione di questa impostazione assicura che DataSync si connetta al file server SMB corretto.

1. (Facoltativo) Aggiungi l'`--version`opzione se desideri DataSync utilizzare una versione SMB specifica. Per ulteriori informazioni, consulta [Versioni SMB supportate](#configuring-smb-version).

1. Esegui il comando `create-location-smb`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. Copia il seguente `create-location-smb` comando.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. Per`--agent-arns`, specifica l' DataSync agente che può connettersi al file server SMB.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per`--server-hostname`, specifica il nome di dominio del file server SMB che il tuo DataSync agente installerà. 

1. Ad `--subdirectory` esempio, specifica il nome della condivisione esportata dal file server SMB in cui DataSync leggerà o scriverà i dati.

   È possibile includere una sottodirectory nel percorso di condivisione (ad esempio,). `/path/to/subdirectory` Assicurati che anche altri client SMB della tua rete possano montare questo percorso. 

   Per copiare tutti i dati nella sottodirectory, DataSync devi essere in grado di montare la condivisione SMB e accedere a tutti i suoi dati. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#configuring-smb-permissions).

1. Per le opzioni Kerberos, effettuate le seguenti operazioni:
   + `--kerberos-principal`: Specificate un principale nel vostro realm Kerberos che disponga dell'autorizzazione ad accedere ai file, alle cartelle e ai metadati dei file nel file server SMB.

     Potrebbe essere simile a un preside Kerberos. `HOST/kerberosuser@MYDOMAIN.ORG`

     I nomi principali distinguono tra maiuscole e minuscole. L'esecuzione dell' DataSyncattività avrà esito negativo se il principale specificato per questa opzione non corrisponde esattamente al principale utilizzato per creare il file keytab.
   + `--kerberos-keytab`: Specificate un file keytab che includa le mappature tra il principale Kerberos e le chiavi di crittografia.
   + `--kerberos-krb5-conf`: Specificate un `krb5.conf` file che definisce la configurazione del realm Kerberos.
   + (Facoltativo)`--dns-ip-addresses`: Specificate fino a due IPv4 indirizzi per i server DNS a cui appartiene il file server SMB. 

     Se nel tuo ambiente sono presenti più domini, la configurazione di questo parametro assicura che DataSync si connetta al file server SMB corretto.

1. (Facoltativo) Aggiungi l'`--version`opzione se desideri DataSync utilizzare una versione SMB specifica. Per ulteriori informazioni, consulta [Versioni SMB supportate](#configuring-smb-version).

1. Esegui il comando `create-location-smb`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# Configurazione dei AWS DataSync trasferimenti con un cluster HDFS
<a name="create-hdfs-location"></a>

Con AWS DataSync, è possibile trasferire dati tra il cluster Hadoop Distributed File System (HDFS) e uno dei seguenti servizi di AWS archiviazione utilizzando le attività in modalità Basic:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [File server Amazon FSx per Windows](create-fsx-location.md)
+ [Amazon FSx per Lustre](create-lustre-location.md)
+ [Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Amazon FSx per NetApp ONTAP](create-ontap-location.md)

Per configurare questo tipo di trasferimento, crei una [posizione](how-datasync-transfer-works.md#sync-locations) per il tuo cluster HDFS. È possibile utilizzare questa posizione come fonte o destinazione di trasferimento.

## Fornire DataSync l'accesso ai cluster HDFS
<a name="accessing-hdfs"></a>

Per connettersi al cluster HDFS, DataSync utilizza un [agente in modalità Basic da distribuire il](deploy-agents.md) più vicino possibile al cluster HDFS. L' DataSyncagente funge da client HDFS e comunica con e all'interno del NameNodes cluster. DataNodes 

Quando si avvia un'operazione di trasferimento, DataSync interroga NameNode le posizioni dei file e delle cartelle nel cluster. Se configuri la posizione HDFS come posizione di origine, DataSync legge i file e i dati delle cartelle dal cluster e li copia DataNodes nella destinazione. Se configuri la posizione HDFS come posizione di destinazione, DataSync scrive file e cartelle dall'origine a quella del cluster DataNodes .

### Autenticazione
<a name="accessing-hdfs-authentication"></a>

Quando ci si connette a un cluster HDFS, DataSync supporta l'autenticazione semplice o l'autenticazione Kerberos. Per utilizzare l'autenticazione semplice, fornisci il nome utente di un utente con i diritti di lettura e scrittura sul cluster HDFS. Per utilizzare l'autenticazione Kerberos, fornite un file di configurazione Kerberos, un file della tabella delle chiavi Kerberos (keytab) e un nome principale Kerberos. Le credenziali del principale Kerberos devono trovarsi nel file keytab fornito.

### Encryption (Crittografia)
<a name="accessing-hdfs-encryption"></a>

Quando si utilizza l'autenticazione Kerberos, DataSync supporta la crittografia dei dati durante la trasmissione tra l'agente e il DataSync cluster HDFS. Crittografa i dati utilizzando le impostazioni di configurazione Quality of Protection (QOP) sul cluster HDFS e specificando le impostazioni QOP durante la creazione della posizione HDFS. La configurazione QOP include le impostazioni per la protezione del trasferimento dei dati e la protezione RPC (Remote Procedure Call). 

**DataSync supporta i seguenti tipi di crittografia Kerberos:**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

È inoltre possibile configurare i cluster HDFS per la crittografia inattiva utilizzando Transparent Data Encryption (TDE). Quando si utilizza l'autenticazione semplice, DataSync legge e scrive su cluster compatibili con TDE. Se usi DataSync per copiare i dati su un cluster abilitato per TDE, configura innanzitutto le zone di crittografia sul cluster HDFS. DataSync non crea zone di crittografia. 

## Funzionalità HDFS non supportate
<a name="hdfs-unsupported-features"></a>

Le seguenti funzionalità HDFS non sono attualmente supportate da: DataSync
+ Transparent Data Encryption (TDE) quando si utilizza l'autenticazione Kerberos
+ Configurazione multipla NameNodes
+ Hadoop HDFS su HTTP (HttpFS)
+ Liste di controllo degli accessi POSIX () ACLs
+ Attributi estesi HDFS (xattrs)
+ Cluster HDFS che utilizzano Apache HBase

## Creazione della posizione di trasferimento HDFS
<a name="create-hdfs-location-how-to"></a>

Puoi usare la tua posizione come origine o destinazione per il DataSync trasferimento.

**Prima di iniziare**: verifica la connettività di rete tra l'agente e il cluster Hadoop effettuando le seguenti operazioni:
+ Verifica l'accesso alle porte TCP elencate in. [Requisiti di rete per lo storage locale, autogestito e di altro tipo](datasync-network.md#on-premises-network-requirements)
+ Verifica l'accesso tra l'agente locale e il cluster Hadoop. Per istruzioni, consulta [Verifica della connessione dell'agente al sistema di storage](test-agent-connections.md#self-managed-storage-connectivity).

### Utilizzo della console DataSync
<a name="create-hdfs-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di posizione**, scegli **Hadoop Distributed File System (HDFS)**.

   Puoi configurare questa posizione come origine o destinazione in un secondo momento. 

1. Per **gli agenti**, scegli l'agente che può connettersi al tuo cluster HDFS.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per **NameNode**, fornisci il nome di dominio o l'indirizzo IP del principale NameNode del cluster HDFS.

1. Per **Cartella**, inserisci una cartella sul cluster HDFS che desideri utilizzare DataSync per il trasferimento dei dati.

   Se la posizione HDFS è un'origine, DataSync copia i file in questa cartella nella destinazione. Se la tua posizione è una destinazione, DataSync scrive i file in questa cartella.

1. Per impostare la **dimensione del blocco** o il **fattore di replica**, scegli **Impostazioni aggiuntive**.

   La dimensione predefinita del blocco è 128 MiB. Le dimensioni dei blocchi fornite devono essere un multiplo di 512 byte.

   Il fattore di replica predefinito è tre DataNodes durante il trasferimento al cluster HDFS. 

1. Nella sezione **Sicurezza**, scegli il **tipo di autenticazione** utilizzato sul tuo cluster HDFS. 
   + **Semplice**: per **Utente**, specifica il nome utente con le seguenti autorizzazioni sul cluster HDFS (a seconda del caso d'uso):
     + Se intendi utilizzare questa posizione come posizione di origine, specifica un utente con solo autorizzazioni di lettura.
     + Se intendi utilizzare questa posizione come posizione di destinazione, specifica un utente con autorizzazioni di lettura e scrittura.

     Facoltativamente, specifica l'URI del Key Management Server (KMS) del cluster HDFS. 
   + **Kerberos**: specifica il Kerberos **Principal** con accesso al cluster HDFS. Quindi, fornisci il **KeyTabfile che contiene il principale Kerberos** fornito. Fornite quindi il file di configurazione **Kerberos**. Infine, specifica il tipo di crittografia nella protezione del transito negli elenchi a discesa **Protezione RPC e Protezione** **trasferimento dati**.

1. (Facoltativo) Scegli **Aggiungi tag per etichettare** la tua posizione HDFS.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue sedi. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

### Utilizzando il AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Copia il seguente `create-location-hdfs` comando.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Per il `--name-nodes` parametro, specifica il nome host o l'indirizzo IP del principale del cluster HDFS NameNode e la porta TCP su cui NameNode è in ascolto.

1. Per il `--authentication-type` parametro, specifica il tipo di autenticazione da utilizzare per la connessione al cluster Hadoop. Puoi specificare `SIMPLE` o `KERBEROS`.

   Se si utilizza `SIMPLE` l'autenticazione, utilizzare il `--simple-user` parametro per specificare il nome utente dell'utente. Se si utilizza `KERBEROS` l'autenticazione, utilizzare i `--kerberos-principal` `--kerberos-krb5-conf` parametri`--kerberos-keytab`, and. Per ulteriori informazioni, consulta [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Per il `--agent-arns` parametro, specifica l'ARN dell' DataSync agente che può connettersi al cluster HDFS.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. (Facoltativo) Per il `--subdirectory` parametro, specifica una cartella sul cluster HDFS che desideri utilizzare DataSync per il trasferimento dei dati.

   Se la posizione HDFS è un'origine, DataSync copia i file in questa cartella nella destinazione. Se la tua posizione è una destinazione, DataSync scrive i file in questa cartella.

1. Esegui il comando `create-location-hdfs`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# Configurazione dei DataSync trasferimenti con un sistema di archiviazione di oggetti
<a name="create-object-location"></a>

Con AWS DataSync, è possibile trasferire dati tra il sistema di storage a oggetti e uno dei seguenti servizi di AWS storage utilizzando le attività in modalità Basic:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [File server Amazon FSx per Windows](create-fsx-location.md)
+ [Amazon FSx per Lustre](create-lustre-location.md)
+ [Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Amazon FSx per NetApp ONTAP](create-ontap-location.md)

Per configurare questo tipo di trasferimento, crei una [posizione](how-datasync-transfer-works.md#sync-locations) per il tuo sistema di storage di oggetti. È possibile utilizzare questa posizione come origine o destinazione di trasferimento. Il trasferimento di dati da o verso l'archiviazione di oggetti locale richiede un agente in modalità DataSync Basic.

## Prerequisiti
<a name="create-object-location-prerequisites"></a>

Il tuo sistema di storage a oggetti deve essere compatibile con le seguenti [operazioni dell'API Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) per DataSync poterti connettere:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## Creazione della posizione di trasferimento dello storage degli oggetti
<a name="create-object-location-how-to"></a>

Prima di iniziare, è necessario un sistema di storage di oggetti verso o da cui trasferire i dati.

### Utilizzo della DataSync console
<a name="create-object-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Archiviazione oggetti**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento.

1. Per **Server**, fornisci il nome di dominio o l'indirizzo IP del server di archiviazione degli oggetti. 

1. Per **Bucket name**, inserisci il nome del bucket di archiviazione degli oggetti coinvolto nel trasferimento.

1. Per **Folder**, immettete il prefisso dell'oggetto.

   DataSync copia solo gli oggetti con questo prefisso. 

1. Se il trasferimento richiede un agente, scegli **Usa agenti**, quindi scegli l' DataSync agente che si connette al tuo sistema di storage degli oggetti.

   Alcuni trasferimenti non richiedono agenti. In altri scenari, potresti voler utilizzare più di un agente. Per ulteriori informazioni, consultare [Situazioni in cui non è necessario un agente DataSync](do-i-need-datasync-agent.md#when-agent-not-required) e [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per configurare la connessione al server di archiviazione degli oggetti, espandi **Impostazioni aggiuntive** ed esegui le seguenti operazioni:

   1. Per il **protocollo Server**, scegli **HTTP** o **HTTPS**.

   1. Per **Porta server**, usa una porta predefinita (**80** per HTTP o **443** per HTTPS) o specifica una porta personalizzata, se necessario.

   1. Per **Certificato**, se il sistema di archiviazione degli oggetti utilizza un'autorità di certificazione (CA) privata o autofirmata, seleziona **Scegli file** e specifica un singolo `.pem` file con una catena di certificati completa.

      La catena di certificati potrebbe includere:
      + Il certificato del sistema di archiviazione degli oggetti
      + Tutti i certificati intermedi (se presenti)
      + Il certificato principale della CA firmataria

      È possibile concatenare i certificati in un `.pem` file (che può contenere fino a 32768 byte prima della codifica in base64). Il `cat` comando di esempio seguente crea un file che include tre certificati: `object_storage_certificates.pem`

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. Se il server di archiviazione degli oggetti richiede credenziali per l'accesso, seleziona **Richiede credenziali** e inserisci la **chiave di accesso** che usi per accedere al bucket. Quindi inserisci direttamente la **chiave segreta** o specifica un Gestione dei segreti AWS segreto che contenga la chiave. Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   La chiave di accesso e la chiave segreta possono essere rispettivamente un nome utente e una password.

1. (Facoltativo) **Scegliete Aggiungi tag** per etichettare la posizione di archiviazione degli oggetti.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue posizioni. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

### Utilizzando il AWS CLI
<a name="create-location-object-cli"></a>

1. Copia il seguente `create-location-object-storage` comando:

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. Specificate i seguenti parametri obbligatori nel comando:
   + `--server-hostname`— Specificare il nome di dominio o l'indirizzo IP del server di archiviazione degli oggetti.
   + `--bucket-name`— Specificate il nome del bucket sul server di archiviazione degli oggetti su cui state trasferendo o da cui state effettuando il trasferimento.

1. (Facoltativo) Aggiungi uno dei seguenti parametri al comando:
   + `--agent-arns`— Specificare gli DataSync agenti che si desidera connettere al server di archiviazione degli oggetti.
   + `--server-port`— Speciifica la porta su cui il server di archiviazione degli oggetti accetta il traffico di rete in entrata (ad esempio, la porta`443`).
   + `--server-protocol`— Speciifica il protocollo (`HTTP`o`HTTPS`) utilizzato dal server di archiviazione degli oggetti per comunicare.
   + `--access-key`— Speciifica la chiave di accesso (ad esempio, un nome utente) se sono necessarie credenziali per l'autenticazione con il server di archiviazione degli oggetti.
   + `--secret-key`— Speciifica la chiave segreta (ad esempio una password) se sono necessarie credenziali per l'autenticazione con il server di archiviazione degli oggetti.

     È inoltre possibile fornire parametri aggiuntivi per proteggere le chiavi utilizzando. Gestione dei segreti AWS Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
   + `--server-certificate`— Speciifica una catena di certificati DataSync per l'autenticazione con il sistema di storage di oggetti se il sistema utilizza un'autorità di certificazione (CA) privata o autofirmata. È necessario specificare un singolo `.pem` file con una catena di certificati completa (ad esempio,). `file:///home/user/.ssh/object_storage_certificates.pem`

     La catena di certificati potrebbe includere:
     + Il certificato del sistema di archiviazione degli oggetti
     + Tutti i certificati intermedi (se presenti)
     + Il certificato principale della CA firmataria

     È possibile concatenare i certificati in un `.pem` file (che può contenere fino a 32768 byte prima della codifica in base64). Il `cat` comando di esempio seguente crea un file che include tre certificati: `object_storage_certificates.pem`

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory`— specifica il prefisso dell'oggetto per il server di archiviazione degli oggetti.

     DataSync copia solo gli oggetti con questo prefisso. 
   + `--tags`— specifica la coppia chiave-valore che rappresenta un tag da aggiungere alla risorsa di localizzazione.

     I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Esegui il comando `create-location-object-storage`.

   Riceverai una risposta che ti mostra l'ARN della posizione che hai appena creato.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# Trasferimento da o verso AWS lo storage con AWS DataSync
<a name="transferring-aws-storage"></a>

Con AWS DataSync, puoi trasferire dati da o verso diversi servizi di AWS archiviazione. Per ulteriori informazioni, vedi [Con dove posso trasferire i miei dati DataSync?](working-with-locations.md)

**Topics**
+ [Configurazione dei AWS DataSync trasferimenti con Amazon S3](create-s3-location.md)
+ [Configurazione dei AWS DataSync trasferimenti con Amazon EFS](create-efs-location.md)
+ [Configurazione dei trasferimenti con FSx per Windows File Server](create-fsx-location.md)
+ [Configurazione dei DataSync trasferimenti con FSx for Lustre](create-lustre-location.md)
+ [Configurazione dei DataSync trasferimenti con Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Configurazione dei trasferimenti con Amazon FSx for NetApp ONTAP](create-ontap-location.md)

# Configurazione dei AWS DataSync trasferimenti con Amazon S3
<a name="create-s3-location"></a>

*Per trasferire dati da o verso il tuo bucket Amazon S3, devi creare una AWS DataSync posizione di trasferimento.* DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso ai bucket S3
<a name="create-s3-location-access"></a>

DataSync ha bisogno di accedere al bucket S3 verso o da cui stai trasferendo. Per fare ciò, devi creare un ruolo AWS Identity and Access Management (IAM) che DataSync presupponga le autorizzazioni necessarie per accedere al bucket. Specificate quindi questo ruolo durante [la creazione della vostra sede Amazon S3](#create-s3-location-how-to) per. DataSync

**Contents**
+ [Autorizzazioni richieste](#create-s3-location-required-permissions)
+ [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually)
+ [Accesso ai bucket S3 utilizzando la crittografia lato server](#create-s3-location-encryption)
+ [Accesso a bucket S3 con restrizioni](#denying-s3-access)
+ [Accesso ai bucket S3 con accesso VPC limitato](#create-s3-location-restricted-vpc)

### Autorizzazioni richieste
<a name="create-s3-location-required-permissions"></a>

Le autorizzazioni richieste dal tuo ruolo IAM possono dipendere dal fatto che il bucket sia una posizione di DataSync origine o di destinazione. Amazon S3 on Outposts richiede un set di autorizzazioni diverso.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3
<a name="create-role-manually"></a>

Quando [crei la tua posizione Amazon S3](#create-s3-location-how-to) nella console, DataSync puoi creare e assumere automaticamente un ruolo IAM che normalmente dispone delle autorizzazioni giuste per accedere al tuo bucket S3.

In alcune situazioni, potrebbe essere necessario creare questo ruolo manualmente (ad esempio, accedere a bucket con livelli di sicurezza aggiuntivi o trasferire da o verso un bucket in un altro). Account AWS

#### Creazione manuale di un ruolo IAM per DataSync
<a name="create-role-manually-steps"></a>

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, in **Gestione degli accessi****, scegli Ruoli**, quindi scegli **Crea ruolo**.

1. Nella pagina **Seleziona entità attendibile**, per **Tipo di entità affidabile**, scegli **Servizio AWS**.

1. Per **Caso d'uso**, scegli **DataSync**nell'elenco a discesa e seleziona **DataSync**. Scegli **Next (Successivo)**.

1. Nella pagina **Add permissions** (Aggiungi autorizzazioni), scegli **Next** (Successivo). Dai un nome al tuo ruolo e scegli **Crea ruolo**.

1. Nella pagina **Ruoli**, cerca il ruolo che hai appena creato e scegline il nome.

1. Nella pagina dei dettagli del ruolo, scegli la scheda **Autorizzazioni**. Scegli **Aggiungi autorizzazioni**, quindi **Crea politica in linea**.

1. Scegli la scheda **JSON** e [aggiungi le autorizzazioni necessarie](#create-s3-location-required-permissions) per accedere al tuo bucket nell'editor delle politiche.

1. Scegli **Next (Successivo)**. **Dai un nome alla tua politica e scegli Crea politica.**

1. (Consigliato) Per evitare il [problema del sostituto confuso tra diversi servizi](cross-service-confused-deputy-prevention.md), procedi come segue:

   1. Nella pagina dei dettagli del ruolo, scegli la scheda **Relazioni di fiducia**. Seleziona **Modifica policy di attendibilità**.

   1. Aggiorna la politica di fiducia utilizzando l'esempio seguente, che include le chiavi del contesto `aws:SourceArn` e della condizione `aws:SourceAccount` globale:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Scegli **Aggiorna policy**.

Puoi specificare questo ruolo durante la creazione della tua sede Amazon S3.

### Accesso ai bucket S3 utilizzando la crittografia lato server
<a name="create-s3-location-encryption"></a>

DataSync può trasferire dati da o verso i [bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html) che utilizzano la crittografia lato server. Il tipo di chiave di crittografia utilizzata da un bucket può determinare se è necessaria una politica personalizzata che DataSync consenta di accedere al bucket.

Quando lo utilizzi DataSync con bucket S3 che utilizzano la crittografia lato server, ricorda quanto segue:
+ **Se il tuo bucket S3 è crittografato con una chiave AWS gestita**, DataSync puoi accedere agli oggetti del bucket per impostazione predefinita se tutte le tue risorse sono nelle stesse. Account AWS
+ **Se il bucket S3 è crittografato con una chiave gestita dal cliente AWS Key Management Service (AWS KMS) (SSE-KMS)**, la [policy della chiave deve includere il ruolo](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) IAM utilizzato per accedere al bucket. DataSync 
+ **Se il bucket S3 è crittografato con una chiave SSE-KMS gestita dal cliente e in un'altra chiave, è necessaria l'autorizzazione per accedere al bucket dell'altro Account AWS**. DataSync Account AWS Puoi configurarlo effettuando le seguenti operazioni:
  + Nel ruolo IAM DataSync utilizzato, devi specificare la chiave SSE-KMS del bucket cross-account utilizzando l'Amazon Resource Name (ARN) completo della chiave. [Questa è la stessa chiave ARN che usi per configurare la crittografia predefinita del bucket.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) In questa situazione non è possibile specificare un ID chiave, un nome alias o un alias ARN.

    Ecco un esempio di codice ARN:

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    *[Per ulteriori informazioni sulla specificazione delle chiavi KMS nelle dichiarazioni politiche IAM, consulta la AWS Key Management Service Developer Guide.](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*
  + Nella policy chiave SSE-KMS, [specifica](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) il ruolo IAM utilizzato da. DataSync
+ **Se il bucket S3 è crittografato con una AWS KMS chiave gestita dal cliente (DSSE-KMS) per la crittografia lato server a doppio livello, la policy della chiave deve includere** [il ruolo](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) IAM utilizzato per accedere al bucket. DataSync [(Tieni presente che DSSE-KMS non supporta S3 Bucket Keys, il che può ridurre i costi delle richieste.)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html) AWS KMS 
+ **Se il tuo bucket S3 è crittografato con una chiave di crittografia fornita dal cliente (SSE-C**), non puoi accedere a questo bucket. DataSync

#### Esempio: politica chiave SSE-KMS per DataSync
<a name="create-s3-location-encryption-example"></a>

L'esempio seguente è una [politica chiave per una chiave](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) SSE-KMS gestita dal cliente. La policy è associata a un bucket S3 che utilizza la crittografia lato server.

Se desideri utilizzare questo esempio, sostituisci i seguenti valori con i tuoi:
+ *account-id*— Il tuo Account AWS.
+ *admin-role-name*— Il nome del ruolo IAM che può amministrare la chiave.
+ *datasync-role-name*— Il nome del ruolo IAM che consente di DataSync utilizzare la chiave per accedere al bucket.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Accesso a bucket S3 con restrizioni
<a name="denying-s3-access"></a>

Se devi trasferire da o verso un bucket S3 che in genere nega ogni accesso, puoi modificare la policy del bucket in modo che DataSync possa accedere al bucket solo per il trasferimento.

#### Esempio: consentire l'accesso in base ai ruoli IAM
<a name="denying-s3-access-example"></a>

1. Copia la seguente policy sui bucket S3.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. Nella politica, sostituisci i seguenti valori:
   + `amzn-s3-demo-bucket`— Specificare il nome del bucket S3 con restrizioni.
   + `datasync-iam-role-id`— Specificare l'ID del [ruolo IAM DataSync utilizzato](#create-s3-location-access) per accedere al bucket.

     Esegui il AWS CLI comando seguente per ottenere l'ID del ruolo IAM:

     `aws iam get-role --role-name datasync-iam-role-name`

     Nell'output, cerca il `RoleId` valore:

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Specificate l'ID del ruolo IAM che utilizzate per creare la vostra DataSync posizione per il bucket.

     Esegui il comando seguente per ottenere l'ID del ruolo IAM:

     `aws iam get-role --role-name your-iam-role-name`

     Nell'output, cerca il `RoleId` valore:

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Aggiungi questa policy](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) alla tua policy sui bucket S3.

1. Quando hai finito di utilizzare il bucket DataSync con restrizioni, rimuovi le condizioni per entrambi i ruoli IAM dalla policy del bucket.

### Accesso ai bucket S3 con accesso VPC limitato
<a name="create-s3-location-restricted-vpc"></a>

Un bucket Amazon S3 che [limita l'accesso a specifici endpoint del cloud privato virtuale (VPC) o impedisce il trasferimento DataSync da o VPCs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) verso quel bucket. [Per abilitare i trasferimenti in queste situazioni, puoi aggiornare la policy del bucket per includere il ruolo IAM che specifichi con la tua posizione. DataSync ](#create-s3-location-how-to)

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

Nella policy del bucket S3, puoi specificare l'Amazon Resource Name (ARN) del ruolo IAM della tua DataSync posizione.

L'esempio seguente è una policy sui bucket S3 che nega l'accesso a tutti tranne due (e). VPCs `vpc-1234567890abcdef0` `vpc-abcdef01234567890` Tuttavia, la policy include anche [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition e [aws: PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) condition key, che consentono all'ARN di un ruolo di DataSync location di accedere al bucket.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

Nella policy del bucket S3, puoi specificare un tag allegato al tuo DataSync ruolo IAM di location.

L'esempio seguente è una policy sui bucket S3 che nega l'accesso a tutti tranne due (e). VPCs `vpc-1234567890abcdef0` `vpc-abcdef01234567890` Tuttavia, la policy include anche [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition e [aws: PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition key, che consentono un principal con la chiave `exclude-from-vpc-restriction` e il valore del tag. `true` Puoi provare un approccio simile nella tua policy sui bucket specificando un tag associato al tuo ruolo di DataSync location.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Considerazioni sulla classe di storage con Amazon S3 Transfers
<a name="using-storage-classes"></a>

Quando Amazon S3 è la tua posizione di destinazione, DataSync puoi trasferire i dati direttamente in una classe di storage [Amazon S3](https://aws.amazon.com/s3/storage-classes/) specifica.

Alcune classi di storage hanno comportamenti che possono influire sui costi di storage di Amazon S3. Quando si utilizzano classi di storage che possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero di oggetti, le modifiche ai dati o ai metadati degli oggetti comportano tali costi. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

**Importante**  
I nuovi oggetti trasferiti nella posizione di destinazione di Amazon S3 vengono archiviati utilizzando la classe di storage specificata durante [la creazione](#create-s3-location-how-to) della posizione.  
Per impostazione predefinita, DataSync conserva la classe di storage degli oggetti esistenti nella posizione di destinazione, a meno che non configuri l'attività per [trasferire tutti i dati](configure-metadata.md#task-option-transfer-mode). In tali situazioni, la classe di archiviazione specificata durante la creazione della posizione viene utilizzata per tutti gli oggetti.


| Classe di storage Amazon S3 | Considerazioni | 
| --- | --- | 
| S3 Standard | Scegli S3 Standard per archiviare i file a cui accedi di frequente in modo ridondante in più zone di disponibilità geograficamente separate. Questa è l'impostazione predefinita se non specifichi una classe di storage.  | 
| S3 Intelligent-Tiering |  Scegli S3 Intelligent-Tiering per ottimizzare i costi di storage spostando automaticamente i dati nel livello di accesso allo storage più conveniente. Paghi una tariffa mensile per oggetto archiviato nella classe di storage S3 Intelligent-Tiering. Questa tariffa di Amazon S3 include il monitoraggio dei modelli di accesso ai dati e lo spostamento di oggetti tra livelli.  | 
| S3 Standard-IA |  Scegli S3 Standard-IA per archiviare in modo ridondante gli oggetti a cui si accede raramente in più zone di disponibilità geograficamente separate.  Gli oggetti archiviati nella classe di storage S3 Standard-IA possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Standard-IA. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 Standard-IA. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 One Zone-IA  |  Scegli S3 One Zone-IA per archiviare gli oggetti a cui si accede raramente in un'unica zona di disponibilità.  Gli oggetti archiviati nella classe di storage S3 One Zone-IA possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 One Zone-IA. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 One Zone-IA. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 Glacier Instant Retrieval |  Scegli S3 Glacier Instant Retrieval per archiviare oggetti a cui si accede raramente ma che richiedono il recupero in millisecondi. I dati archiviati nella classe di storage S3 Glacier Instant Retrieval offrono risparmi sui costi rispetto alla classe di storage S3 Standard-IA con le stesse prestazioni di latenza e throughput. Tuttavia, S3 Glacier Instant Retrieval ha costi di accesso ai dati più elevati rispetto a S3 Standard-IA. Gli oggetti archiviati in S3 Glacier Instant Retrieval possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Instant Retrieval. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 Glacier Instant Retrieval. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 Glacier Flexible Retrieval | Scegli S3 Glacier Flexible Retrieval per archivi più attivi.Gli oggetti archiviati in S3 Glacier Flexible Retrieval possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Flexible Retrieval.La classe di storage S3 Glacier Flexible Retrieval richiede 40 KB di metadati aggiuntivi per ogni oggetto archiviato. DataSync inserisce oggetti di dimensioni inferiori a 40 KB nella classe di storage S3 Standard. È necessario ripristinare gli oggetti archiviati in questa classe di archiviazione prima di DataSync poterli leggere. Per informazioni, consulta [Lavorare con oggetti archiviati nella Guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) per l'utente di Amazon S3.Quando usi S3 Glacier Flexible Retrieval, scegli l'opzione **Verifica solo l'operazione di verifica dei dati trasferiti** per confrontare i checksum di dati e metadati al termine del trasferimento. Non è possibile utilizzare l'opzione **Verifica tutti i dati nella destinazione per questa classe di archiviazione perché richiede il** recupero di tutti gli oggetti esistenti dalla destinazione. | 
| S3 Glacier Deep Archive |  Scegli S3 Glacier Deep Archive per archiviare i tuoi oggetti per la conservazione dei dati a lungo termine e la conservazione digitale, laddove i dati siano accessibili una o due volte all'anno. Gli oggetti archiviati in S3 Glacier Deep Archive possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Deep Archive. La classe di storage S3 Glacier Deep Archive richiede 40 KB di metadati aggiuntivi per ogni oggetto archiviato. DataSync inserisce gli oggetti che pesano meno di 40 KB nella classe di storage S3 Standard. È necessario ripristinare gli oggetti archiviati in questa classe di archiviazione prima di DataSync poterli leggere. Per informazioni, consulta [Lavorare con oggetti archiviati nella Guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) per l'utente di *Amazon S3*. Quando usi S3 Glacier Deep Archive, scegli **l'opzione Verifica solo l'operazione di trasferimento dei dati per confrontare i** checksum di dati e metadati al termine del trasferimento. Non è possibile utilizzare l'opzione **Verifica tutti i dati nella destinazione** per questa classe di archiviazione perché richiede il recupero di tutti gli oggetti esistenti dalla destinazione.  | 
|  S3 Outposts  |  La classe di storage per Amazon S3 on Outposts.  | 

## Valutazione dei costi delle richieste S3 durante l'utilizzo DataSync
<a name="create-s3-location-s3-requests"></a>

Con le sedi Amazon S3, devi sostenere i costi relativi alle richieste API S3 effettuate da. DataSync Questa sezione può aiutarti a capire come DataSync utilizza queste richieste e in che modo potrebbero influire sui costi di [Amazon S3](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Richieste S3 effettuate da DataSync](#create-s3-location-s3-requests-made)
+ [Considerazioni sui costi](#create-s3-location-s3-requests-cost)

### Richieste S3 effettuate da DataSync
<a name="create-s3-location-s3-requests-made"></a>

La tabella seguente descrive le richieste S3 che DataSync puoi effettuare quando copi dati da o verso una posizione Amazon S3.


| Richiesta S3 | Come DataSync lo usa | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync effettua almeno una `LIST` richiesta per ogni oggetto che termina con una barra (`/`) per elencare gli oggetti che iniziano con quel prefisso. Questa richiesta viene chiamata durante la fase di [preparazione](run-task.md#understand-task-execution-statuses) di un'attività.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync effettua `HEAD` richieste per recuperare i metadati degli oggetti durante le fasi di [preparazione](run-task.md#understand-task-execution-statuses) e [verifica](run-task.md#understand-task-execution-statuses) di un'attività. Possono esserci più `HEAD` richieste per oggetto a seconda di come si desidera DataSync [verificare l'integrità dei dati trasferiti](configure-data-verification-options.md). | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync effettua `GET` richieste di lettura dei dati da un oggetto durante la fase di [trasferimento](run-task.md#understand-task-execution-statuses) di un'attività. Possono esserci più `GET` richieste per oggetti di grandi dimensioni.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Se configuri l'attività per [copiare i tag degli oggetti](configure-metadata.md), DataSync effettua queste `GET` richieste per verificare la presenza di tag degli oggetti durante le fasi di [preparazione](run-task.md#understand-task-execution-statuses) e [trasferimento](run-task.md#understand-task-execution-statuses) dell'attività.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync [effettua `PUT` richieste per creare oggetti e prefissi in un bucket S3 di destinazione durante la fase di trasferimento di un'attività.](run-task.md#understand-task-execution-statuses) Poiché DataSync utilizza la [funzionalità di caricamento multiparte di Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html), possono esserci più `PUT` richieste per oggetti di grandi dimensioni. Per ridurre al minimo i costi di storage, consigliamo di utilizzare una [configurazione del ciclo]() di vita per impedire caricamenti incompleti in più parti.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | [Se gli oggetti di origine dispongono di tag e si configura l'attività per [copiare i tag degli oggetti](configure-metadata.md), DataSync effettua queste `PUT` richieste durante il trasferimento di tali tag.](run-task.md#understand-task-execution-statuses) | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync fa una `COPY` richiesta per creare una copia di un oggetto solo se i metadati di quell'oggetto cambiano. Ciò può accadere se originariamente hai copiato i dati nel bucket S3 utilizzando un altro servizio o strumento che non trasferiva i relativi metadati.  | 

### Considerazioni sui costi
<a name="create-s3-location-s3-requests-cost"></a>

DataSync effettua richieste S3 sui bucket S3 ogni volta che esegui un'attività. Ciò può comportare l'addebito di addebiti in determinate situazioni. Esempio:
+ Trasferisci spesso oggetti da o verso un bucket S3.
+ Forse non stai trasferendo molti dati, ma il tuo bucket S3 contiene molti oggetti. In questo scenario è comunque possibile riscontrare costi elevati perché DataSync effettua richieste S3 su ciascuno degli oggetti del bucket.
+ Stai effettuando il trasferimento tra i bucket S3, così DataSync come le richieste S3 sull'origine e sulla destinazione.

Per ridurre al minimo i costi delle richieste S3 relative a DataSync, considera quanto segue:

**Topics**
+ [Quali classi di storage S3 sto utilizzando?](#create-s3-location-s3-requests-storage-classes)
+ [Con che frequenza devo trasferire i miei dati?](#create-s3-location-s3-requests-recurring-transfers)

#### Quali classi di storage S3 sto utilizzando?
<a name="create-s3-location-s3-requests-storage-classes"></a>

I costi delle richieste S3 possono variare in base alla classe di storage Amazon S3 utilizzata dagli oggetti, in particolare per le classi che archiviano oggetti (come S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

Ecco alcuni scenari in cui le classi di storage possono influire sui costi delle richieste S3 quando si utilizza: DataSync
+ Ogni volta che esegui un'attività, DataSync effettua `HEAD` richieste per recuperare i metadati degli oggetti. Queste richieste comportano addebiti anche se non sposti alcun oggetto. L'impatto di queste richieste sulla fattura dipende dalla classe di archiviazione utilizzata dagli oggetti e dal numero di oggetti sottoposti a DataSync scansione.
+ Se hai spostato oggetti nella classe di storage S3 Glacier Instant Retrieval (direttamente o tramite una configurazione del ciclo di vita del bucket), le richieste sugli oggetti di questa classe sono più costose rispetto agli oggetti in altre classi di storage.
+ Se configuri l' DataSync attività per [verificare che le posizioni di origine e destinazione siano completamente sincronizzate](configure-data-verification-options.md), ci saranno `GET` richieste per ogni oggetto in tutte le classi di archiviazione (tranne S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).
+ Oltre alle `GET` richieste, sono previsti costi di recupero dei dati per gli oggetti nella classe di storage S3 Standard-IA, S3 One Zone-IA o S3 Glacier Instant Retrieval.

Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

#### Con che frequenza devo trasferire i miei dati?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Se devi spostare i dati su base ricorrente, pensa a una [pianificazione](task-scheduling.md) che non preveda più attività del necessario.

Potresti anche prendere in considerazione la possibilità di limitare la portata dei tuoi trasferimenti. Ad esempio, puoi configurare di DataSync concentrarti sugli oggetti in determinati prefissi o [filtrare i dati che vengono trasferiti](filtering.md). Queste opzioni possono aiutare a ridurre il numero di richieste S3 effettuate ogni volta che esegui un'attività. DataSync 

## Considerazioni sugli oggetti con i trasferimenti Amazon S3
<a name="create-s3-location-considerations"></a>
+ Se esegui il trasferimento da un bucket S3, usa [S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html) per determinare quanti oggetti stai spostando.
+ [Quando effettui il trasferimento tra bucket S3, ti consigliamo di utilizzare la [modalità attività avanzata perché non sei soggetto a quote di attività](choosing-task-mode.md). DataSync ](datasync-limits.md)
+ DataSync potrebbe non trasferire un oggetto con caratteri non standard nel nome. Per ulteriori informazioni, consulta le [linee guida per la denominazione delle chiavi degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) nella *Amazon S3* User Guide.
+ Quando lo utilizzi DataSync con un bucket S3 che utilizza il controllo delle [versioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html), ricorda quanto segue:
  + Durante il trasferimento in un bucket S3, DataSync crea una nuova versione di un oggetto se quell'oggetto viene modificato all'origine. Ciò comporta costi aggiuntivi.
  + Un oggetto ha una versione diversa IDs nei bucket di origine e di destinazione.
  + Solo la versione più recente di ogni oggetto viene trasferita dal bucket di origine. Le versioni precedenti non vengono copiate nella destinazione.
+ Dopo aver inizialmente trasferito i dati da un bucket S3 a un file system (ad esempio, NFS o FSx Amazon), le esecuzioni successive della DataSync stessa attività non includeranno oggetti che sono stati modificati ma che hanno le stesse dimensioni del primo trasferimento.

## Creazione della località di trasferimento per un bucket Amazon S3 generico
<a name="create-s3-location-how-to"></a>

Per creare una posizione per il trasferimento, è necessario un bucket S3 per uso generico esistente. Se non ne hai uno, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html) Guide.

**Importante**  
Prima di creare la tua posizione, assicurati di leggere le seguenti sezioni:  
[Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes)
[Valutazione dei costi delle richieste S3 durante l'utilizzo DataSync](#create-s3-location-s3-requests)

### Utilizzo della DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di posizione**, scegli **Amazon S3**, quindi scegli Bucket per **uso generico**.

1. Per l'**URI S3**, inserisci o scegli il bucket e il prefisso che desideri utilizzare per la tua posizione.
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include`//`, o pattern. `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Per la **classe di storage S3 utilizzata come destinazione**, scegli una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes).

1. In **IAM role (Ruolo IAM)**, eseguire una delle seguenti operazioni:
   + Scegli **Autogenerate** for per DataSync creare automaticamente un ruolo IAM con le autorizzazioni necessarie per accedere al bucket S3.

     Se DataSync in precedenza hai creato un ruolo IAM per questo bucket S3, quel ruolo viene scelto per impostazione predefinita.
   + Scegli un ruolo IAM personalizzato che hai creato. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. (Facoltativo) Scegli **Aggiungi nuovo tag** per etichettare la tua posizione Amazon S3.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-s3-cli"></a>

1. Copia il seguente `create-location-s3` comando:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Per`--s3-bucket-arn`, specifica l'ARN del bucket S3 che desideri utilizzare come posizione.

1. Per`--s3-storage-class`, specifica una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

1. Per`--s3-config`, specifica l'ARN del ruolo IAM che DataSync deve accedere al tuo bucket.

   Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. Per`--subdirectory`, specifica un prefisso nel bucket S3 da cui DataSync leggere o scrivere (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non può trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Esegui il comando `create-location-s3`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività.

## Creazione della località di trasferimento per un bucket S3 on Outposts
<a name="create-s3-location-outposts-how-to"></a>

Per creare una sede per il trasferimento, è necessario un bucket Amazon S3 on Outposts esistente. Se non ne hai uno, consulta la Guida per l'utente di [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

È inoltre necessario un DataSync agente. Per ulteriori informazioni, consulta [Implementazione dell'agente in modalità Basic su AWS Outposts](deploy-agents.md#outposts-agent).

Quando esegui il trasferimento da un prefisso del bucket S3 on Outposts che contiene un set di dati di grandi dimensioni (ad esempio centinaia di migliaia o milioni di oggetti), l'attività potrebbe scadere. DataSync Per evitare ciò, prendi in considerazione l'utilizzo di un [DataSync manifesto](transferring-with-manifest.md), che ti consente di specificare gli oggetti esatti che devi trasferire.

### Utilizzo della DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. **Per il **tipo di posizione**, scegli **Amazon S3**, quindi scegli il bucket Outposts.**

1. Per il **bucket S3**, scegli un access point Amazon S3 in grado di accedere al tuo bucket S3 on Outposts. 

   Per ulteriori informazioni, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Per la **classe di storage S3 utilizzata come destinazione**, scegli una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta. [Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes) DataSync per impostazione predefinita utilizza la classe di storage S3 Outposts per Amazon S3 on Outposts.

1. Per **gli agenti**, specifica l'Amazon Resource Name (ARN) dell' DataSync agente sul tuo Outpost.

1. Per **Folder**, inserisci un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. In **IAM role (Ruolo IAM)**, eseguire una delle seguenti operazioni:
   + Scegli **Autogenerate** per DataSync creare automaticamente un ruolo IAM con le autorizzazioni necessarie per accedere al bucket S3.

     Se DataSync in precedenza hai creato un ruolo IAM per questo bucket S3, quel ruolo viene scelto per impostazione predefinita.
   + Scegli un ruolo IAM personalizzato che hai creato. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. (Facoltativo) Scegli **Aggiungi nuovo tag** per etichettare la tua posizione Amazon S3.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-s3-cli"></a>

1. Copia il seguente `create-location-s3` comando:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. Per`--s3-bucket-arn`, specifica l'ARN, un punto di accesso Amazon S3 che può accedere al tuo bucket S3 on Outposts.

   Per ulteriori informazioni, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Per`--s3-storage-class`, specifica una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta[Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes). DataSync per impostazione predefinita utilizza la classe di archiviazione S3 Outposts per S3 su Outposts.

1. Per`--s3-config`, specifica l'ARN del ruolo IAM che DataSync deve accedere al tuo bucket.

   Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. Per`--subdirectory`, specifica un prefisso nel bucket S3 da cui DataSync leggere o scrivere (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non può trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Per`--agent-arns`, specifica l'ARN dell' DataSync agente sul tuo Outpost.

1. Esegui il comando `create-location-s3`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività.

## Trasferimenti Amazon S3 attraverso Account AWS
<a name="create-s3-location-cross-transfers"></a>

[Con DataSync, puoi spostare i dati da o verso i bucket S3 in diversi modi. Account AWS](working-with-locations.md#working-with-locations-across-accounts) Per ulteriori informazioni, consulta i seguenti tutorial:
+ [Trasferimento di dati dallo storage locale ad Amazon S3 attraverso Account AWS](s3-cross-account-transfer.md)
+ [Trasferimento di dati da Amazon S3 ad Amazon S3 attraverso Account AWS](tutorial_s3-s3-cross-account-transfer.md)

## Trasferimenti Amazon S3 tra società commerciali e AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

Per impostazione predefinita, DataSync non effettua trasferimenti tra bucket S3 in modalità commerciale e. AWS GovCloud (US) Regions Puoi comunque configurare questo tipo di trasferimento, tuttavia, creando una posizione di archiviazione degli oggetti per uno dei bucket S3 del trasferimento. È possibile eseguire questo tipo di trasferimento con o senza un agente. Se si utilizza un agente, l'operazione deve essere configurata per la modalità **Base**. Per effettuare il trasferimento senza un agente, è necessario utilizzare la modalità **Avanzata**.

**Prima di iniziare**: assicurati di comprendere le implicazioni in termini di costi del trasferimento tra regioni. Per ulteriori informazioni, consulta la sezione [Prezzi di AWS DataSync](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Fornire DataSync l'accesso al bucket della posizione di archiviazione degli oggetti](#create-s3-location-govcloud-iam)
+ [Creazione del tuo DataSync agente (opzionale)](#create-s3-location-govcloud-create-agent)
+ [Creazione di una posizione di archiviazione degli oggetti per il tuo bucket S3](#create-s3-location-govcloud-how-to)

### Fornire DataSync l'accesso al bucket della posizione di archiviazione degli oggetti
<a name="create-s3-location-govcloud-iam"></a>

Quando crei la posizione di archiviazione degli oggetti per questo trasferimento, devi fornire DataSync le credenziali di un utente IAM con l'autorizzazione ad accedere al bucket S3 della posizione. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#create-s3-location-required-permissions).

**avvertimento**  
Gli utenti IAM dispongono di credenziali a lungo termine, il che rappresenta un rischio per la sicurezza. Per ridurre questo rischio, si consiglia di fornire a questi utenti solo le autorizzazioni necessarie per eseguire l'attività e di rimuoverli quando non sono più necessari.

### Creazione del tuo DataSync agente (opzionale)
<a name="create-s3-location-govcloud-create-agent"></a>

Se desideri eseguire il trasferimento utilizzando la modalità **Basic**, dovrai utilizzare un agente. Poiché stai effettuando il trasferimento tra una società commerciale e un'altra AWS GovCloud (US) Region, distribuisci il tuo DataSync agente come istanza Amazon EC2 in una delle regioni. Consigliamo al tuo agente di utilizzare un endpoint del servizio VPC per evitare costi di trasferimento dei dati verso la rete Internet pubblica. Per ulteriori informazioni, consulta i [prezzi di Amazon EC2 Data Transfer](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Scegli uno dei seguenti scenari che descrivono come creare un agente in base alla regione in cui intendi eseguire l' DataSync attività.

#### Quando si esegue un' DataSync attività in una regione commerciale
<a name="using-datasync-in-commercial"></a>

Il diagramma seguente mostra un trasferimento in cui l' DataSync attività e l'agente si trovano nella regione commerciale.

![\[Un DataSync agente distribuito in una regione commerciale per un trasferimento interregionale a un bucket S3 in un. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Documentazione di riferimento | Description | 
| --- | --- | 
| 1 | Nella regione commerciale in cui stai eseguendo un' DataSyncattività, i dati vengono trasferiti dal bucket S3 di origine. Il bucket di origine è configurato come una posizione [Amazon S3](#create-s3-location-how-to) nella regione commerciale. | 
| 2 | [Trasferimenti di dati tramite l' DataSync agente, che si trova nello stesso VPC e nella stessa sottorete in cui si trovano l'endpoint del servizio VPC e le interfacce di rete.](required-network-interfaces.md) | 
| 3 | Trasferimenti di dati al bucket S3 di destinazione in. AWS GovCloud (US) Region Il bucket di destinazione è configurato come [posizione di archiviazione degli oggetti](#create-s3-location-govcloud-how-to) nella regione commerciale.  | 

È possibile utilizzare questa stessa configurazione anche per trasferire la direzione opposta dalla AWS GovCloud (US) Region regione commerciale.

**Per creare il tuo DataSync agente**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) nella tua regione commerciale.

1. Configura il tuo agente per utilizzare un [endpoint del servizio VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Attiva il tuo agente.](activate-agent.md)

#### Quando si esegue un' DataSync attività in una regione GovCloud (Stati Uniti)
<a name="using-datasync-in-govcloud-1"></a>

Il diagramma seguente mostra un trasferimento in cui si trovano l' DataSync attività e l' AWS GovCloud (US) Region agente in.

![\[Un DataSync agente distribuito in una AWS GovCloud (US) Region o più regioni si trasferisce in un bucket S3 all'interno della stessa. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Documentazione di riferimento | Description | 
| --- | --- | 
| 1 | Trasferimenti di dati dal bucket S3 di origine nella regione commerciale al luogo in AWS GovCloud (US) Region cui stai eseguendo un'attività. DataSync Il bucket di origine è configurato come [posizione di archiviazione degli oggetti](#create-s3-location-govcloud-how-to) in. AWS GovCloud (US) Region | 
| 2 | [In AWS GovCloud (US) Region, i dati vengono trasferiti tramite l' DataSync agente nello stesso VPC e nella stessa sottorete in cui si trovano l'endpoint del servizio VPC e le interfacce di rete.](required-network-interfaces.md) | 
| 3 | Trasferimenti di dati al bucket S3 di destinazione in. AWS GovCloud (US) Region Il bucket di destinazione è configurato come posizione [Amazon S3](#create-s3-location-how-to) in. AWS GovCloud (US) Region | 

Puoi utilizzare questa stessa configurazione anche per trasferire la direzione opposta dalla AWS GovCloud (US) Region regione commerciale.

**Per creare il tuo DataSync agente**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) nel tuo. AWS GovCloud (US) Region

1. Configura il tuo agente per utilizzare un [endpoint del servizio VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Attiva il tuo agente.](activate-agent.md)

Se il tuo set di dati è altamente comprimibile, potresti ridurre i costi creando invece il tuo agente in una regione commerciale mentre esegui un'attività in una. AWS GovCloud (US) Region Per la creazione di questo agente sono necessarie più configurazioni del normale, inclusa la preparazione dell'agente per l'uso in una regione commerciale. Per informazioni sulla creazione di un agente per questa configurazione, consulta il AWS DataSync blog [Move data in and out of AWS GovCloud (US) with](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Creazione di una posizione di archiviazione degli oggetti per il tuo bucket S3
<a name="create-s3-location-govcloud-how-to"></a>

Hai bisogno di una posizione di archiviazione degli oggetti per il bucket S3 che si trovi nella regione in cui non stai eseguendo l'attività. DataSync 

#### Utilizzo della console DataSync
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Assicurati di trovarti nella stessa regione in cui intendi eseguire l'attività.

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Sedi** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Archiviazione oggetti**.

1. Per **Agenti**, scegli l' DataSync agente che hai creato per questo trasferimento.

1. Per **Server**, inserisci un endpoint Amazon S3 per il tuo bucket utilizzando uno dei seguenti formati:
   + **Bucket per regione commerciale:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region secchio**: `s3.your-gov-region.amazonaws.com`

   Per un elenco degli endpoint Amazon S3, consulta la. *[Riferimenti generali di AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*

1. Per il nome del **bucket**, inserisci il nome del bucket S3.

1. Per **Folder**, inserisci un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Seleziona **Richiede credenziali ed esegui le** seguenti operazioni:
   + Per la **chiave di accesso**, inserisci la chiave di accesso per un [utente IAM](#create-s3-location-govcloud-iam) che può accedere al bucket.
   + Per **Chiave segreta, inserisci la chiave** segreta dello stesso utente IAM.

1. (Facoltativo) Scegli **Aggiungi tag** per taggare la tua posizione.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

#### Utilizzando il AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Copia il seguente `create-location-object-storage` comando:

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. Per il `--server-hostname` parametro, specifica un endpoint Amazon S3 per il tuo bucket utilizzando uno dei seguenti formati:
   + **Bucket per regione commerciale:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region secchio**: `s3.your-gov-region.amazonaws.com`

   Per la regione nell'endpoint, assicurati di specificare la stessa regione in cui intendi eseguire l'attività.

   Per un elenco degli endpoint Amazon S3, consulta la. *[Riferimenti generali di AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*

1. Per il `--bucket-name` parametro, specifica il nome del bucket S3.

1. Per il `--agent-arns` parametro, specifica l' DataSyncagente che hai creato per questo trasferimento.

1. Per il `--access-key` parametro, specifica la chiave di accesso per un [utente IAM](#create-s3-location-govcloud-iam) che può accedere al bucket.

1. Per il `--secret-key` parametro, inserisci la chiave segreta dello stesso utente IAM.

1. (Facoltativo) Per il `--subdirectory` parametro, specifica un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Facoltativo) Per il `--tags` parametro, specificate le coppie chiave-valore che rappresentano i tag per la risorsa di localizzazione.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Esegui il comando `create-location-object-storage`.

   Riceverai una risposta che ti mostra l'ARN della posizione che hai appena creato.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività. Per l'altro bucket S3 in questo trasferimento, [crea una posizione Amazon S3](#create-s3-location-how-to).

## Fasi successive
<a name="create-s3-location-next-steps"></a>

Alcuni possibili passaggi successivi includono:

1. Se necessario, crea l'altra località. Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. [Configura le impostazioni delle DataSync attività](task-options.md), ad esempio quali file trasferire, come gestire i metadati, tra le altre opzioni.

1. [Imposta una pianificazione](task-scheduling.md) per la tua DataSync attività.

1. [Configura il monitoraggio](monitoring-overview.md) per la tua DataSync attività.

1. [Inizia](run-task.md) la tua attività.

# Configurazione dei AWS DataSync trasferimenti con Amazon EFS
<a name="create-efs-location"></a>

Per trasferire dati da o verso il tuo file system Amazon EFS, devi creare una *posizione* di AWS DataSync trasferimento. DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso ai file system Amazon EFS
<a name="create-efs-location-access"></a>

[La creazione di una posizione](#create-efs-location-how-to) implica la comprensione di come DataSync accedere allo storage. Per Amazon EFS, DataSync monta il file system come utente root dal tuo cloud privato virtuale (VPC) [utilizzando](required-network-interfaces.md) interfacce di rete.

**Contents**
+ [Determinazione della sottorete e dei gruppi di sicurezza per il target di montaggio](#create-efs-location-mount-target)
+ [Accesso ai file system con restrizioni](#create-efs-location-iam)
  + [Creazione di un ruolo DataSync IAM per l'accesso al file system](#create-efs-location-iam-role)
  + [Esempio di politica del file system che consente DataSync l'accesso](#create-efs-location-iam-policy)

### Determinazione della sottorete e dei gruppi di sicurezza per il target di montaggio
<a name="create-efs-location-mount-target"></a>

Quando crei la tua posizione, specifichi la sottorete e i gruppi di sicurezza che consentono la connessione DataSync a uno degli [obiettivi di montaggio](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) del tuo file system Amazon EFS.

La sottorete specificata deve trovarsi:
+ Nello stesso VPC del file system.
+ Nella stessa zona di disponibilità di almeno una destinazione di montaggio per il file system.

**Nota**  
Non è necessario specificare una sottorete che presenti una destinazione di montaggio del file system.

I gruppi di sicurezza specificati devono consentire il traffico in entrata sulla porta NFS (Network File System) 2049. Per informazioni sulla creazione e l'aggiornamento dei gruppi di sicurezza per i tuoi target di montaggio, consulta la [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html).

**Specificazione dei gruppi di sicurezza associati a un target di montaggio**  
È possibile specificare un gruppo di sicurezza associato a una delle destinazioni di montaggio del file system. Consigliamo questo approccio dal punto di vista della gestione della rete.

**Specificare gruppi di sicurezza che non sono associati a un target di montaggio**  
È inoltre possibile specificare un gruppo di sicurezza non associato a una delle destinazioni di montaggio del file system. Tuttavia, questo gruppo di sicurezza deve essere in grado di comunicare con il gruppo di sicurezza di un target di montaggio.  
Ad esempio, ecco come è possibile creare una relazione tra il gruppo di sicurezza D (per DataSync) e il gruppo di sicurezza M (per il target di montaggio):  
+ Il gruppo di sicurezza D, specificato durante la creazione della posizione, deve avere una regola che consenta le connessioni in uscita sulla porta NFS 2049 al gruppo di sicurezza M.
+ Il gruppo di sicurezza M, associato al mount target, deve consentire l'accesso in entrata sulla porta NFS 2049 dal gruppo di sicurezza D.

**Per trovare il gruppo di sicurezza di un target di montaggio**

Le seguenti istruzioni possono aiutarti a identificare il gruppo di sicurezza di un target di montaggio del file system Amazon EFS che desideri utilizzare DataSync per il trasferimento.

1. In AWS CLI, esegui il `describe-mount-targets` comando seguente.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   Questo comando restituisce informazioni sulle destinazioni di montaggio del file system (in modo simile all'output di esempio seguente).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. Prendi nota del `MountTargetId` valore che desideri utilizzare.

1. Esegui il `describe-mount-target-security-groups` comando seguente usando `MountTargetId` per vedere il gruppo di sicurezza del tuo target di montaggio.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

Specificate questo gruppo di sicurezza durante [la creazione della vostra posizione](#create-efs-location-how-to).

### Accesso ai file system con restrizioni
<a name="create-efs-location-iam"></a>

DataSync può trasferire da o verso file system Amazon EFS che limitano l'accesso tramite [punti di accesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) e [policy IAM](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html).

**Nota**  
[Se DataSync accede a un file system di destinazione tramite un punto di accesso che [impone l'identità dell'utente](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points), l'utente e il gruppo POSIX IDs per i dati di origine non vengono conservati se si configura l' DataSync attività in modo da consentire la proprietà della copia.](configure-metadata.md) I file e le cartelle trasferiti vengono invece impostati sull'utente e sul gruppo del punto di accesso. IDs In questo caso, la verifica delle attività non riesce perché DataSync rileva una mancata corrispondenza tra i metadati nelle posizioni di origine e di destinazione.

**Contents**
+ [Creazione di un ruolo DataSync IAM per l'accesso al file system](#create-efs-location-iam-role)
+ [Esempio di politica del file system che consente DataSync l'accesso](#create-efs-location-iam-policy)

#### Creazione di un ruolo DataSync IAM per l'accesso al file system
<a name="create-efs-location-iam-role"></a>

Se disponi di un file system Amazon EFS che limita l'accesso tramite una policy IAM, puoi creare un ruolo IAM che fornisca DataSync l'autorizzazione a leggere o scrivere dati sul file system. Potrebbe quindi essere necessario specificare quel ruolo nella [politica del file system](#create-efs-location-iam-policy).

**Per creare il ruolo DataSync IAM**

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, in **Gestione degli accessi****, scegli Ruoli**, quindi scegli **Crea ruolo**.

1. Nella pagina **Seleziona entità attendibile**, per **Tipo di entità affidabile**, scegli **Politica di attendibilità personalizzata**.

1. Incolla il seguente codice JSON nell'editor delle politiche:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. Scegli **Next (Successivo)**. Nella pagina **Add permissions** (Aggiungi autorizzazioni), scegli **Next** (Successivo).

1. Dai un nome al tuo ruolo e scegli **Crea ruolo**.

Specifichi questo ruolo quando [crei la tua sede](#create-efs-location-how-to).

#### Esempio di politica del file system che consente DataSync l'accesso
<a name="create-efs-location-iam-policy"></a>

Il seguente esempio di politica del file system mostra come l'accesso a un file system Amazon EFS (identificato nella policy come`fs-1234567890abcdef0`) sia limitato ma consenta comunque l'accesso DataSync tramite un ruolo IAM denominato`MyDataSyncRole`:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal`— Speciifica un [ruolo IAM](#create-efs-location-iam) che DataSync autorizza l'accesso al file system.
+ `Action`— Fornisce l'accesso DataSync root e gli consente di leggere e scrivere sul file system.
+ `aws:SecureTransport`— Richiede ai client NFS di utilizzare TLS durante la connessione al file system.
+ `elasticfilesystem:AccessPointArn`— Consente l'accesso al file system solo tramite un punto di accesso specifico.

## Considerazioni sulla rete con i trasferimenti Amazon EFS
<a name="efs-network-considerations"></a>

VPCs che utilizzi con DataSync deve avere una locazione predefinita. VPCs con locazione dedicata non sono supportati.

## Considerazioni sulle prestazioni con i trasferimenti Amazon EFS
<a name="efs-considerations"></a>

La modalità di throughput del file system Amazon EFS può influire sulla durata del trasferimento e sulle prestazioni del file system durante il trasferimento. Considera i seguenti aspetti:
+ Per ottenere i migliori risultati, consigliamo di utilizzare la modalità Elastic Throughput. Se non utilizzi la modalità Elastic Throughput, il trasferimento potrebbe richiedere più tempo.
+ Se si utilizza la modalità Bursting throughput, le prestazioni delle applicazioni del file system potrebbero risentirne, in quanto DataSync consuma crediti burst del file system.
+ Il modo in cui si [configura DataSync la verifica dei dati trasferiti](configure-data-verification-options.md) può influire sulle prestazioni del file system e sui costi di accesso ai dati.

Per ulteriori informazioni, consulta le [prestazioni di Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) nella *Amazon Elastic File System User Guide* e nella pagina [dei prezzi di Amazon EFS](https://aws.amazon.com/efs/pricing/).

## Creazione della tua posizione di trasferimento Amazon EFS
<a name="create-efs-location-how-to"></a>

Per creare la posizione di trasferimento, è necessario un file system Amazon EFS esistente. Se non ne hai uno, consulta la sezione Guida [introduttiva ad Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html) nella *Amazon Elastic File System User Guide*.

### Utilizzo della DataSync console
<a name="create-efs-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di posizione**, scegli il **file system Amazon EFS**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento. 

1. Per **File system**, scegli il file system Amazon EFS che desideri utilizzare come posizione.

1. Per **Mount path**, inserisci un percorso di montaggio per il tuo file system Amazon EFS.

   Questo specifica dove DataSync legge o scrive i dati (a seconda che si tratti di una posizione di origine o di destinazione) sul file system.

   Per impostazione predefinita, DataSync utilizza la directory principale (o il [punto di accesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), se ne fornisci uno per l'impostazione del **punto di accesso EFS**). È inoltre possibile specificare le sottodirectory utilizzando barre (ad esempio,). `/path/to/directory`

1. Per **Subnet, scegliete** una sottorete in cui desiderate creare le [interfacce di rete DataSync ](required-network-interfaces.md) per la gestione del traffico di trasferimento dati.

   La sottorete deve trovarsi:
   + Nello stesso VPC del file system.
   + Nella stessa zona di disponibilità di almeno una destinazione di montaggio del file system.
**Nota**  
Non è necessario specificare una sottorete che presenti una destinazione di montaggio del file system.

1. Per **i gruppi di sicurezza**, scegli il gruppo di sicurezza associato alla destinazione di montaggio del tuo file system Amazon EFS. Puoi scegliere più di un gruppo di sicurezza.
**Nota**  
I gruppi di sicurezza specificati devono consentire il traffico in entrata sulla porta NFS 2049. Per ulteriori informazioni, consulta [Determinazione della sottorete e dei gruppi di sicurezza per il target di montaggio](#create-efs-location-mount-target).

1. Per la **crittografia in transito**, scegliete se DataSync utilizzare la crittografia Transport Layer Security (TLS) quando trasferisce i dati da o verso il file system.
**Nota**  
Devi abilitare questa impostazione per configurare un punto di accesso, un ruolo IAM o entrambi con la tua posizione Amazon EFS.

1. (Facoltativo) Per il **punto di accesso EFS**, scegliete un punto di accesso da DataSync utilizzare per montare il file system.

   Per ulteriori informazioni, consulta [Accesso ai file system con restrizioni](#create-efs-location-iam).

1. (Facoltativo) Per **il ruolo IAM**, specificate un ruolo che DataSync consenta di accedere al file system.

   Per informazioni su come creare questo ruolo, consultare [Creazione di un ruolo DataSync IAM per l'accesso al file system](#create-efs-location-iam-role).

1. (Facoltativo) Seleziona **Aggiungi tag** per etichettare il tuo file system.

   Un *tag* è una coppia chiave-valore che aiuta a gestire, filtrare e cercare le posizioni. 

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-efs-cli"></a>

1. Copia il seguente `create-location-efs` comando:

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. Per`--efs-filesystem-arn`, specifica l'Amazon Resource Name (ARN) del file system Amazon EFS verso il quale stai trasferendo o da cui stai effettuando il trasferimento.

1. Per`--subdirectory`, specifica un percorso di montaggio per il tuo file system.

   È qui che DataSync legge o scrive i dati (a seconda che si tratti di una posizione di origine o di destinazione) sul file system. 

   Per impostazione predefinita, DataSync utilizza la directory principale (o il [punto di accesso](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), se fornito`--access-point-arn`). È inoltre possibile specificare le sottodirectory utilizzando barre (ad esempio,). `/path/to/directory`

1. Per `--ec2-config`, eseguire le seguenti operazioni:
   + Per`SecurityGroupArns`, specifica l'ARN del gruppo di sicurezza associato alla destinazione di montaggio del file system. È possibile specificare più di un gruppo di sicurezza.
**Nota**  
I gruppi di sicurezza specificati devono consentire il traffico in entrata sulla porta NFS 2049. Per ulteriori informazioni, consulta [Determinazione della sottorete e dei gruppi di sicurezza per il target di montaggio](#create-efs-location-mount-target).
   + Per`SubnetArn`, specifica l'ARN della sottorete in cui desideri creare le [interfacce DataSync di rete](required-network-interfaces.md) per la gestione del traffico di trasferimento dati.

     La sottorete deve trovarsi:
     + Nello stesso VPC del file system.
     + Nella stessa zona di disponibilità di almeno una destinazione di montaggio del file system.
**Nota**  
Non è necessario specificare una sottorete che presenti una destinazione di montaggio del file system.

1. Per`--in-transit-encryption`, specifica se desideri DataSync utilizzare la crittografia Transport Layer Security (TLS) quando trasferisce dati da o verso il tuo file system.
**Nota**  
Devi impostarlo su `TLS1_2` per configurare un punto di accesso, un ruolo IAM o entrambi con la tua posizione Amazon EFS.

1. (Facoltativo) Per`--access-point-arn`, specificare l'ARN di un punto di accesso che DataSync può essere utilizzato per montare il file system.

   Per ulteriori informazioni, consulta [Accesso ai file system con restrizioni](#create-efs-location-iam).

1. (Facoltativo) Per`--file-system-access-role-arn`, specifica l'ARN di un ruolo IAM che consente di accedere DataSync al file system.

   Per informazioni su come creare questo ruolo, consultare [Creazione di un ruolo DataSync IAM per l'accesso al file system](#create-efs-location-iam-role).

1. Esegui il comando `create-location-efs`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# Configurazione dei trasferimenti con FSx per Windows File Server
<a name="create-fsx-location"></a>

Per trasferire dati da o verso il tuo file system Amazon FSx for Windows File Server, devi creare una *posizione* di AWS DataSync trasferimento. DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso FSx ai file system Windows File Server
<a name="create-fsx-location-access"></a>

DataSync [si connette al file system FSx per Windows File Server con il protocollo Server Message Block (SMB) e lo monta dal tuo cloud privato virtuale (VPC) utilizzando interfacce di rete.](required-network-interfaces.md)

**Nota**  
VPCs quello che usi con DataSync deve avere una locazione predefinita. VPCs con locazione dedicata non sono supportati.

**Topics**
+ [Autorizzazioni richieste](#create-fsx-windows-location-permissions)
+ [Protocolli di autenticazione richiesti](#configuring-fsx-windows-authentication-protocols)
+ [Namespace DFS](#configuring-fsx-windows-location-dfs)

### Autorizzazioni richieste
<a name="create-fsx-windows-location-permissions"></a>

È necessario fornire a DataSync un utente i diritti necessari per montare e accedere ai file, alle cartelle e ai metadati dei file FSx per Windows File Server.

È consigliabile che questo utente appartenga a un gruppo di Microsoft Active Directory per l'amministrazione del file system. Le specifiche di questo gruppo dipendono dalla configurazione di Active Directory in uso:
+ Se utilizzi AWS Directory Service for Microsoft Active Directory with FSx for Windows File Server, l'utente deve essere un membro del gruppo **AWS Delegated FSx Administrators**.
+ Se utilizzi Active Directory autogestito con FSx per Windows File Server, l'utente deve essere membro di uno dei due gruppi:
  + Il gruppo **Domain Admins**, che è il gruppo di amministratori delegati predefinito.
  + Un gruppo di amministratori delegati personalizzato con diritti utente che consentono di copiare le autorizzazioni di proprietà degli oggetti e DataSync gli elenchi di controllo degli accessi di Windows (). ACLs
**Importante**  
Non è possibile modificare il gruppo di amministratori delegati dopo la distribuzione del file system. È necessario ridistribuire il file system o ripristinarlo da un backup per utilizzare il gruppo di amministratori delegati personalizzato con i seguenti diritti utente che devono copiare i metadati. DataSync     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-fsx-location.html)
+ Se desideri copiare Windows ACLs e stai effettuando un trasferimento tra un file server SMB e FSx un file system Windows File Server o tra FSx file system Windows File Server, gli utenti forniti DataSync devono appartenere allo stesso dominio Active Directory o avere una relazione di trust Active Directory tra i rispettivi domini.

**avvertimento**  
L'utente SYSTEM del file system FSx for Windows File Server deve disporre delle autorizzazioni di **controllo completo** su tutte le cartelle del file system. Non modificate le autorizzazioni ACL NTFS per questo utente sulle vostre cartelle. In tal caso, è DataSync possibile modificare le autorizzazioni del file system in modo da rendere inaccessibile la condivisione dei file e impedire l'utilizzo dei backup del file system. Per ulteriori informazioni sull'accesso a livello di file e cartella, consulta la *[Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)* User Guide.

### Protocolli di autenticazione richiesti
<a name="configuring-fsx-windows-authentication-protocols"></a>

Il file server FSx per Windows deve utilizzare l'autenticazione NTLM DataSync per accedervi. DataSyncnon può accedere a un file server che utilizza l'autenticazione Kerberos. 

### Namespace DFS
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync non supporta i namespace Microsoft Distributed File System (DFS). Ti consigliamo invece di specificare un file server o una condivisione sottostante quando crei la tua posizione. DataSync 

Per ulteriori informazioni, consulta [Raggruppamento di più file system con namespace DFS](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) nella Guida per l'utente di * FSx Amazon for Windows* File Server.

## Creazione della posizione di trasferimento FSx per Windows File Server
<a name="create-fsx-location-how-to"></a>

Prima di iniziare, assicurati di avere un File Server esistente FSx per Windows nel tuo Regione AWS. Per ulteriori informazioni, consulta la sezione Guida [introduttiva ad Amazon FSx ](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html) *nella Guida FSx per l'utente di Amazon per Windows File Server*.

### Utilizzo della DataSync console
<a name="create-fsx-location-access-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di località**, scegli **Amazon FSx**.

1. Per **FSx il file system**, scegli il FSx file system Windows File Server che desideri utilizzare come posizione.

1. Per **Condividi nome**, inserite un percorso di montaggio FSx per il vostro Windows File Server utilizzando le barre.

   Questo specifica il percorso in cui vengono DataSync letti o scritti i dati (a seconda che si tratti di una posizione di origine o di destinazione).

   È inoltre possibile includere sottodirectory (ad esempio,). `/path/to/directory`

1. Per **i gruppi di sicurezza**, scegli fino a cinque gruppi di sicurezza Amazon EC2 che forniscono l'accesso alla sottorete preferita del tuo file system.

   I gruppi di sicurezza che scegli devono essere in grado di comunicare con i gruppi di sicurezza del tuo file system. Per informazioni sulla configurazione dei gruppi di sicurezza per l'accesso al file system, consulta la [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Nota**  
Se scegli un gruppo di sicurezza che non consente connessioni dall'interno, esegui una delle seguenti operazioni:  
Configura il gruppo di sicurezza per consentirgli di comunicare al suo interno.
Scegli un gruppo di sicurezza diverso in grado di comunicare con il gruppo di sicurezza del target di montaggio.

1. Per **Utente**, inserisci il nome di un utente che può accedere al tuo file server FSx per Windows.

   Per ulteriori informazioni, consulta [Autorizzazioni richieste](#create-fsx-windows-location-permissions).

1. In **Password**, inserisci la password del nome utente.

1. (Facoltativo) Per **Dominio**, immettete il nome del dominio Windows a cui appartiene il file system FSx per Windows File Server.

   Se nel tuo ambiente sono presenti più domini Active Directory, la configurazione di questa impostazione assicura la DataSync connessione al file system corretto.

1. (Facoltativo) Immettete i valori per i campi **Chiave** e **Valore** a cui assegnare i tag FSx per Windows File Server.

   I tag consentono di gestire, filtrare e cercare le AWS risorse. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-fsx-cli"></a>

**Per creare una posizione FSx per Windows File Server utilizzando il AWS CLI**
+ Usa il seguente comando per creare una FSx posizione Amazon.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  Nel `create-location-fsx-windows` comando, procedi come segue:
  + `fsx-filesystem-arn`— Specificare l'Amazon Resource Name (ARN) del file system verso o da cui si desidera trasferire.
  + `security-group-arns`— Specificare gli ARN di un massimo di cinque gruppi di sicurezza Amazon EC2 che forniscono l'accesso alla sottorete preferita del file system.

    I gruppi di sicurezza specificati devono essere in grado di comunicare con i gruppi di sicurezza del file system. Per informazioni sulla configurazione dei gruppi di sicurezza per l'accesso al file system, consulta la [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Nota**  
Se scegli un gruppo di sicurezza che non consente connessioni dall'interno, esegui una delle seguenti operazioni:  
Configura il gruppo di sicurezza per consentirgli di comunicare al suo interno.
Scegli un gruppo di sicurezza diverso in grado di comunicare con il gruppo di sicurezza del target di montaggio.
  + La Regione AWS : la regione specificata è quella in cui si trova il FSx file system Amazon di destinazione.

Questo comando restituisce un ARN di posizione simile a quello mostrato di seguito.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# Configurazione dei DataSync trasferimenti con FSx for Lustre
<a name="create-lustre-location"></a>

Per trasferire dati da o verso il tuo file system Amazon FSx for Lustre, devi creare una *posizione* di AWS DataSync trasferimento. DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso ai file FSx system di For Lustre
<a name="create-lustre-location-access"></a>

DataSync accede al file system FSx for Lustre utilizzando il client Lustre. DataSyncrichiede l'accesso a tutti i dati del file system FSx for Lustre. Per avere questo livello di accesso, DataSync installa il file system come utente root utilizzando un ID utente (UID) e un ID di gruppo (GID) di. `0`

DataSync monta il file system dal tuo cloud privato virtuale (VPC) [utilizzando](required-network-interfaces.md) interfacce di rete. DataSync gestisce completamente la creazione, l'uso e l'eliminazione di queste interfacce di rete per conto dell'utente.

**Nota**  
VPCs che utilizzi con DataSync deve avere una locazione predefinita. VPCs con locazione dedicata non sono supportati.

## Creazione della tua località FSx di trasferimento per Lustre
<a name="create-lustre-location-how-to"></a>

Per creare la posizione di trasferimento, è necessario un file system FSx for Lustre esistente. Per ulteriori informazioni, consulta la sezione [Guida introduttiva ad Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html) nella Guida per l'*utente di Amazon FSx for Lustre*.

### Utilizzo della console DataSync
<a name="create-lustre-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di località**, scegli **Amazon FSx**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento. 

1. Per **FSx il file system**, scegli il file system FSx for Lustre che desideri utilizzare come posizione. 

1. Per **Mount path**, inserisci il percorso di montaggio per il tuo file system FSx for Lustre.

   Il percorso può includere una sottodirectory. Quando la posizione viene utilizzata come fonte, DataSync legge i dati dal percorso di montaggio. Quando la posizione viene utilizzata come destinazione, DataSync scrive tutti i dati nel percorso di montaggio. Se non viene fornita una sottodirectory, DataSync utilizza la directory root (`/`).

1. Per **i gruppi di sicurezza**, scegli fino a cinque gruppi di sicurezza che forniscono l'accesso al file system FSx for Lustre.

   I gruppi di sicurezza devono essere in grado di accedere alle porte del file system. Il file system deve consentire anche l'accesso dai gruppi di sicurezza.

   Per ulteriori informazioni sui gruppi di sicurezza, consulta [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html) nella Guida per l'utente di *Amazon FSx for Lustre*.

1. (Facoltativo) Inserisci i valori per i campi **Chiave** e **Valore** per etichettare il file system FSx for Lustre.

   I tag consentono di gestire, filtrare e cercare le AWS risorse. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-lustre-cli"></a>

**Per creare una posizione FSx for Lustre utilizzando il AWS CLI**
+ Utilizzate il seguente comando per creare una posizione FSx for Lustre.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  Nel `create-location-fsx-lustre` comando sono richiesti i seguenti parametri.
  + `fsx-filesystem-arn`— Il nome Amazon Resource Name (ARN) completo del file system da cui desideri leggere o scrivere.
  + `security-group-arns`— L'ARN di un gruppo di sicurezza Amazon EC2 da applicare alle interfacce di [rete della sottorete](required-network-interfaces.md) preferita del file system.

Il comando precedente restituisce un ARN di posizione simile al seguente.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Configurazione dei DataSync trasferimenti con Amazon FSx per OpenZFS
<a name="create-openzfs-location"></a>

*Per trasferire dati da o verso il tuo file system Amazon FSx for OpenZFS, devi creare una posizione di AWS DataSync trasferimento.* DataSync può utilizzare questa posizione come fonte o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso FSx ai file system OpenZFS
<a name="create-openzfs-access"></a>

DataSync [monta il tuo file system FSx per OpenZFS dal tuo cloud privato virtuale (VPC) utilizzando interfacce di rete.](required-network-interfaces.md) DataSyncgestisce completamente la creazione, l'uso e l'eliminazione di queste interfacce di rete per vostro conto.

**Nota**  
VPCs che utilizzi con DataSync deve avere una locazione predefinita. VPCs con locazione dedicata non sono supportati.

## Configurazione FSx per l'autorizzazione del file system OpenZFS
<a name="configure-openzfs-authorization"></a>

DataSync accede al file system FSx di OpenZFS come client NFS, montando il file system come utente root con un ID utente (UID) e un ID di gruppo (GID) di. `0`

 DataSync Per copiare tutti i metadati dei file, è necessario configurare le impostazioni di esportazione NFS sui volumi del file system utilizzando. `no_root_squash` Tuttavia, è possibile limitare questo livello di accesso solo a un'attività specifica DataSync .

Per ulteriori informazioni, consulta le [proprietà del volume](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties) nella Guida per l'*utente di Amazon FSx for OpenZFS*.

### Configurazione delle esportazioni NFS specifiche per (consigliata) DataSync
<a name="configure-nfs-export-recommended"></a>

Puoi configurare un'esportazione NFS specifica per ogni volume a cui accede solo il tuo task. DataSync Eseguite questa operazione per il volume antenato più recente del percorso di montaggio specificato durante la creazione della posizione FSx per OpenZFS.

**Per configurare un'esportazione NFS specifica per DataSync**

1. Crea la tua [DataSyncattività.](create-task-how-to.md)

   In questo modo vengono create le interfacce di rete dell'attività specificate nelle impostazioni di esportazione NFS.

1. Individua gli indirizzi IP privati delle interfacce di rete dell'attività utilizzando la console Amazon EC2 o. AWS CLI

1. Per il volume del file system FSx per OpenZFS, configura le seguenti impostazioni di esportazione NFS per ciascuna delle interfacce di rete dell'attività:
   + **Indirizzo client**: inserisci l'indirizzo IP privato dell'interfaccia di rete (ad esempio,). `10.24.34.0`
   + **Opzioni NFS**: Invio`rw,no_root_squash`.

### Configurazione delle esportazioni NFS per tutti i client
<a name="configure-nfs-export-general"></a>

È possibile specificare un'esportazione NFS che consenta l'accesso root a tutti i client.

**Per configurare un'esportazione NFS per tutti i client**
+ Per il volume del file system FSx per OpenZFS, configura le seguenti impostazioni di esportazione NFS:
  + **Indirizzo del client**: Invio. `*`
  + **Opzioni NFS**: Invio`rw,no_root_squash`.

## Creazione della posizione di FSx trasferimento per OpenZFS
<a name="create-openzfs-location-how-to"></a>

Per creare la posizione, è necessario un file system esistente FSx per OpenZFS. Se non ne hai uno, consulta la sezione [Guida introduttiva ad Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html) nella Guida per l'utente di *Amazon FSx for OpenZFS*.

### Utilizzo della console DataSync
<a name="create-openzfs-location-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Posizioni**, quindi scegli **Crea posizione**.

1. Per il **tipo di località**, scegli **Amazon FSx**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento.

1. Per **FSx il file system**, scegli il FSx file system OpenZFS che desideri utilizzare come posizione. 

1. Per **Mount path**, inserisci il percorso di montaggio per il tuo file system FSx per OpenZFS. 

   Il percorso deve iniziare con `/fsx` e può essere qualsiasi percorso di directory esistente nel file system. Quando la posizione viene utilizzata come fonte, DataSync legge i dati dal percorso di montaggio. Quando la posizione viene utilizzata come destinazione, DataSync scrive tutti i dati nel percorso di montaggio. Se non viene fornita una sottodirectory, DataSync utilizza la directory del volume principale (ad esempio,`/fsx`).

1. Per **i gruppi di sicurezza**, scegli fino a cinque gruppi di sicurezza che forniscono l'accesso di rete al tuo file system FSx for OpenZFS. 

   I gruppi di sicurezza devono fornire l'accesso alle porte di rete utilizzate dal file system FSx for OpenZFS. Il file system deve consentire l'accesso alla rete dai gruppi di sicurezza.

   Per ulteriori informazioni sui gruppi di sicurezza, consulta [Controllo dell'accesso al file system con Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) nella Guida per l'utente di *Amazon FSx for OpenZFS.*

1. (Facoltativo) Espandi **le impostazioni aggiuntive** e, per la versione **NFS, scegli la versione** NFS da DataSync utilizzare per accedere al tuo file system.

   Per impostazione predefinita, DataSync utilizza la versione NFS 4.1.

1. (Facoltativo) Inserite i valori per i campi **Chiave** e **Valore** FSx per etichettare il file system OpenZFS.

   I tag ti aiutano a gestire, filtrare e cercare la tua posizione. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-openzfs-location-cli"></a>

**Per creare una posizione FSx per OpenZFS utilizzando il AWS CLI**

1. Copia il seguente comando: `create-location-fsx-open-zfs`

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. Specificate le seguenti opzioni obbligatorie nel comando:
   + Per`fsx-filesystem-arn`, specifica il nome Amazon Resource Name (ARN) completo del file system di posizione. Ciò include la posizione Regione AWS in cui risiede il file system Account AWS, il tuo e l'ID del file system.
   + Per`security-group-arns`, specifica l'ARN del gruppo di sicurezza Amazon EC2 che fornisce l'accesso alle interfacce di [rete della](required-network-interfaces.md) sottorete preferita del FSx tuo file system per OpenZFS. Ciò include il Regione AWS luogo in cui risiede l'istanza Amazon EC2 Account AWS, il tuo e l'ID del gruppo di sicurezza.

     Per ulteriori informazioni sui gruppi di sicurezza, consulta [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) nella Guida per l'utente di *Amazon FSx for OpenZFS.*
   + Per`protocol`, specifica il protocollo da DataSync utilizzare per accedere al tuo file system. (DataSync attualmente supporta solo NFS).

1. Esegui il comando . Riceverai una risposta che mostra la posizione che hai appena creato.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Configurazione dei trasferimenti con Amazon FSx for NetApp ONTAP
<a name="create-ontap-location"></a>

Per trasferire dati da o verso il tuo file system Amazon FSx for NetApp ONTAP, devi creare una *posizione* di AWS DataSync trasferimento. DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso FSx ai file system ONTAP
<a name="create-ontap-location-access"></a>

Per accedere a un file system FSx for ONTAP, DataSync monta una macchina virtuale di archiviazione (SVM) sul file system utilizzando [interfacce di rete](required-network-interfaces.md) nel cloud privato virtuale (VPC). DataSync crea queste interfacce di rete nella sottorete preferita del file system solo quando create un'attività che include la vostra posizione for ONTAP. FSx 

**Nota**  
VPCs quello che usi con DataSync deve avere una locazione predefinita. VPCs con locazione dedicata non sono supportati.

DataSync può connettersi a un SVM del file system FSx for ONTAP e copiare i dati utilizzando il protocollo Network File System (NFS) o Server Message Block (SMB).

**Topics**
+ [Utilizzando il protocollo NFS](#create-ontap-location-supported-protocols)
+ [Utilizzo del protocollo SMB](#create-ontap-location-smb)
+ [Protocolli non supportati](#create-ontap-location-unsupported-protocols)
+ [Scelta del protocollo giusto](#create-ontap-location-choosing-protocol)
+ [Accesso ai volumi SnapLock](#create-ontap-location-snaplock)

### Utilizzando il protocollo NFS
<a name="create-ontap-location-supported-protocols"></a>

Con il protocollo NFS, DataSync utilizza il meccanismo di `AUTH_SYS` sicurezza con un ID utente (UID) e un ID di gruppo (GID) `0` per l'autenticazione con la SVM.

**Nota**  
DataSync attualmente supporta solo la versione 3 di NFS per le sedi ONTAP. FSx 

### Utilizzo del protocollo SMB
<a name="create-ontap-location-smb"></a>

Con il protocollo SMB, DataSync utilizza le credenziali fornite dall'utente per l'autenticazione con la SVM.

**Versioni SMB supportate**  
Per impostazione predefinita, sceglie DataSync automaticamente una versione del protocollo SMB in base alla negoziazione con il file server SMB. Puoi anche configurare l'utilizzo DataSync di una versione specifica, ma ti consigliamo di farlo solo se hai problemi a negoziare DataSync automaticamente con il file server SMB. Per motivi di sicurezza, consigliamo di utilizzare la versione 3.0.2 o successiva di SMB.  
Consulta la tabella seguente per un elenco delle opzioni disponibili nella DataSync console e nell'API per configurare una versione SMB con la tua FSx posizione for ONTAP:      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-ontap-location.html)

**Autorizzazioni richieste**  
È necessario fornire a DataSync un utente locale nella SVM o a un utente di dominio in Microsoft Active Directory i diritti necessari per montare e accedere a file, cartelle e metadati dei file.  
Se specifichi un utente in Active Directory, tieni presente quanto segue:  
+ Se lo utilizzi AWS Directory Service for Microsoft Active Directory, l'utente deve essere un membro del gruppo **AWS Delegated FSx** Administrators.
+ Se utilizzi un Active Directory autogestito, l'utente deve essere membro di uno dei due gruppi:
  + Il gruppo **Domain Admins**, che è il gruppo di amministratori delegati predefinito.
  + Un gruppo di amministratori delegati personalizzato con diritti utente che consentono di copiare le autorizzazioni di proprietà degli oggetti e DataSync gli elenchi di controllo degli accessi di Windows (). ACLs
**Importante**  
Non è possibile modificare il gruppo di amministratori delegati dopo la distribuzione del file system. È necessario ridistribuire il file system o ripristinarlo da un backup per utilizzare il gruppo di amministratori delegati personalizzato con i seguenti diritti utente che devono copiare i metadati. DataSync     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/create-ontap-location.html)
+ Se desideri copiare Windows ACLs e stai effettuando il trasferimento tra file system FSx per ONTAP utilizzando SMB (o altri tipi di file system che utilizzano SMB), gli utenti forniti DataSync devono appartenere allo stesso dominio Active Directory o avere una relazione di trust di Active Directory tra i rispettivi domini.

**Protocolli di autenticazione richiesti**  
Per accedere DataSync alla condivisione SMB, il file system FSx for ONTAP deve utilizzare l'autenticazione NTLM. DataSync non è possibile accedere ai FSx file system ONTAP che utilizzano l'autenticazione Kerberos.

**Namespace DFS**  
DataSync non supporta i namespace Microsoft Distributed File System (DFS). Ti consigliamo invece di specificare un file server o una condivisione sottostante quando crei la tua posizione. DataSync 

### Protocolli non supportati
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync non è possibile accedere FSx ai file system ONTAP utilizzando il protocollo iSCSI (Internet Small Computer Systems Interface).

### Scelta del protocollo giusto
<a name="create-ontap-location-choosing-protocol"></a>

Per conservare i metadati dei file FSx per le migrazioni ONTAP, configura le posizioni di DataSync origine e di destinazione in modo che utilizzino lo stesso protocollo. Tra i protocolli supportati, SMB conserva i metadati con la massima fedeltà (vedi per i dettagli). [Comprendere come DataSync gestisce i metadati di file e oggetti](metadata-copied.md)

Durante la migrazione da un server Unix (Linux) o da una condivisione NAS (Network-Attached Storage) che serve agli utenti tramite NFS, procedi come segue:

1. [Crea una posizione NFS](create-nfs-location.md) per il server Unix (Linux) o la condivisione NAS. (Questa sarà la tua posizione di origine).

1. Configura FSx il volume ONTAP su cui trasferisci i dati con lo stile di sicurezza [Unix](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Crea una posizione per il tuo file system FSx for ONTAP configurato per NFS. (Questa sarà la tua posizione di destinazione).

Durante la migrazione da un server Windows o da una condivisione NAS che serve gli utenti tramite SMB, procedi come segue:

1. [Crea una posizione SMB](create-smb-location.md) per il server Windows o la condivisione NAS. (Questa sarà la tua posizione di origine).

1. Configura FSx il volume ONTAP su cui trasferisci i dati con lo stile di sicurezza [NTFS](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Crea una posizione per il tuo file system FSx for ONTAP configurato per SMB. (Questa sarà la tua posizione di destinazione).

Se il tuo ambiente FSx for ONTAP utilizza più protocolli, ti consigliamo di rivolgerti a uno specialista AWS dello storage. Per conoscere le best practice per l'accesso multiprotocollo, consulta [Enabling multiprotocol workload with Amazon FSx ](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/) for ONTAP. NetApp

### Accesso ai volumi SnapLock
<a name="create-ontap-location-snaplock"></a>

Se trasferisci dati su un [SnapLock volume](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html) su un file system FSx for ONTAP, assicurati che le SnapLock impostazioni **Autocommit** e **Volume append mode** siano disabilitate sul volume durante il trasferimento. Puoi riattivare queste impostazioni al termine del trasferimento dei dati.

## Creazione della sede di trasferimento FSx per ONTAP
<a name="create-ontap-location-how-to"></a>

Per creare la posizione, è necessario un file system esistente FSx per ONTAP. Se non ne hai uno, consulta la sezione [Guida introduttiva ad Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html) nella Guida per l'*utente di Amazon FSx for NetApp ONTAP*.

### Utilizzo della console DataSync
<a name="create-ontap-location-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di località**, scegli **Amazon FSx**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento.

1. Per **FSx il file system**, scegli il FSx file system ONTAP che desideri utilizzare come posizione.

1. Per la **macchina virtuale di archiviazione**, scegli una macchina virtuale di archiviazione (SVM) nel file system in cui desideri copiare i dati o da cui desideri copiare i dati.

1. Per **Mount path**, specifica un percorso per la condivisione di file in quella SVM in cui copiare i dati.

   Puoi specificare un percorso di giunzione (detto anche punto di montaggio), un percorso qtree (per condivisioni di file NFS) o un nome condivisione (per condivisioni di file SMB). Ad esempio, il percorso di montaggio potrebbe essere `/vol1`, `/vol1/tree1`, o `/share1`.
**Suggerimento**  
Non specificate un percorso nel volume root della SVM. Per ulteriori informazioni, consulta [Managing FSx for ONTAP Storage Virtual Machines](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html) nella *Amazon FSx for NetApp ONTAP User Guide*.

1. Per **i gruppi di sicurezza**, scegli fino a cinque gruppi di sicurezza Amazon EC2 che forniscono l'accesso alla sottorete preferita del tuo file system.

   I gruppi di sicurezza devono consentire il traffico in uscita sulle seguenti porte (a seconda del protocollo utilizzato):
   + **NFS**: porte TCP 111, 635 e 2049 
   + **SMB: porta TCP 445**

   I gruppi di sicurezza del file system devono inoltre consentire il traffico in entrata sulle stesse porte.

1. Per **Protocollo**, scegliete il protocollo di trasferimento dati da DataSync utilizzare per accedere alla SVM del file system.

   Per ulteriori informazioni, consulta [Scelta del protocollo giusto](#create-ontap-location-choosing-protocol).

------
#### [ NFS ]

   DataSync utilizza la versione 3 di NFS.

------
#### [ SMB ]

   Configurate una versione SMB, un utente, una password e un nome di dominio Active Directory (se necessario) per accedere alla SVM.
   + (Facoltativo) Espandi **le impostazioni aggiuntive** e scegli una **versione SMB** DataSync da utilizzare per accedere al tuo SVM.

     Per impostazione predefinita, sceglie DataSync automaticamente una versione in base alla negoziazione con il file server SMB. Per ulteriori informazioni, consulta [Utilizzo del protocollo SMB](#create-ontap-location-smb).
   + Per **Utente**, inserite un nome utente in grado di montare e accedere ai file, alle cartelle e ai metadati che desiderate trasferire nell'SVM.

     Per ulteriori informazioni, consulta [Utilizzo del protocollo SMB](#create-ontap-location-smb).
   + Per **Password**, inserite la password dell'utente specificato che può accedere all'SVM.
   + (Facoltativo) Per **il nome di dominio Active Directory**, inserite il nome di dominio completo (FQDN) dell'Active Directory a cui appartiene la SVM.

     Se nel tuo ambiente sono presenti più domini, la configurazione di questa impostazione assicura che DataSync si connetta all'SVM corretto.

------

1. (Facoltativo) Inserite i valori per i campi **Chiave** e **Valore** per etichettarli FSx per il file system ONTAP.

   I tag ti aiutano a gestire, filtrare e cercare AWS le tue risorse. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-ontap-location-cli"></a>

**Per creare una posizione FSx per ONTAP utilizzando il AWS CLI**

1. Copia il seguente `create-location-fsx-ontap` comando:

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. Specificate le seguenti opzioni obbligatorie nel comando:
   + Per`storage-virtual-machine-arn`, specifica il nome Amazon Resource Name (ARN) completo di una macchina virtuale di storage (SVM) nel file system in cui desideri copiare i dati.

     Questo ARN include la posizione Regione AWS in cui risiede il file system Account AWS, il file system e SVM. IDs
   + Per`security-group-arns`, specifica gli ARN dei gruppi di sicurezza Amazon EC2 che forniscono l'accesso alle interfacce di [rete della sottorete](required-network-interfaces.md) preferita del file system.

     Ciò include il Regione AWS luogo in cui risiede l'istanza Amazon EC2 Account AWS, il tuo e il tuo gruppo di sicurezza. IDs Puoi specificare fino a cinque gruppi di sicurezza. ARNs

     Per ulteriori informazioni sui gruppi di sicurezza, consulta [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html) nella Guida per l'utente di *Amazon FSx for NetApp ONTAP*.
   + Per`protocol`, configura il protocollo da DataSync utilizzare per accedere alla SVM del tuo file system.
     + Per NFS, puoi usare la configurazione predefinita:

       `--protocol NFS={}`
     + Per SMB, è necessario specificare un nome utente e una password che possano accedere all'SVM:

       `--protocol SMB={User=smb-user,Password=smb-password}`

1. Esegui il comando .

   Riceverai una risposta che mostra la posizione che hai appena creato.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Trasferimento da o verso un altro spazio di archiviazione cloud con AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Con AWS DataSync, puoi trasferire dati tra altri provider di cloud e servizi AWS di archiviazione. Per ulteriori informazioni, vedi [Con dove posso trasferire i miei dati DataSync?](working-with-locations.md)

**Topics**
+ [Pianificazione dei trasferimenti da o verso sistemi di archiviazione cloud di terze parti](third-party-cloud-transfer-considerations.md)
+ [Configurazione dei AWS DataSync trasferimenti con Google Cloud Storage](tutorial_transfer-google-cloud-storage.md)
+ [Configurazione dei trasferimenti con Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Configurazione dei AWS DataSync trasferimenti con azioni Microsoft Azure Files SMB](transferring-azure-files.md)
+ [Configurazione dei trasferimenti con altri archivi di oggetti cloud](creating-other-cloud-object-location.md)

# Pianificazione dei trasferimenti da o verso sistemi di archiviazione cloud di terze parti
<a name="third-party-cloud-transfer-considerations"></a>

Quando pianifichi trasferimenti di dati tra cloud diversi, considera quanto segue:
+ **Utilizzo di un agente:** un agente è necessario solo per accedere allo storage in altri cloud quando si utilizzano le attività in modalità Basic. [Le attività in modalità avanzata](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) non richiedono un agente. Se decidi di utilizzare un agente, puoi distribuirlo come istanza [Amazon EC2](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) durante il trasferimento da uno storage di oggetti compatibile con S3 di un provider di cloud, oppure come Google Compute Engine o Azure Virtual Machine per i trasferimenti da quei servizi di storage specifici, rispettivamente. Durante il trasferimento da file system di Google e Azure, consigliamo di distribuire l'agente come macchina virtuale Google o Azure in modo che l'agente sia il più vicino possibile al filesystem. Inoltre, DataSync comprime i dati dall'agente a, il che può aiutare a ridurre i costi di uscita. AWS DataSync fornisce un elenco di [posizioni cloud convalidate](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html) che forniscono la compatibilità delle API [Amazon S3](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access) richiesta.
+ **L'altro endpoint di storage di oggetti del cloud: l'endpoint** di archiviazione per un provider cloud di terze parti è in genere specifico della regione o dell'account. L'endpoint regionale viene utilizzato come server nella posizione di archiviazione degli DataSync oggetti, insieme a un nome di bucket specificato.
+ **Classi di archiviazione degli oggetti di origine:** come Amazon S3, alcuni provider di servizi cloud supportano un livello di archiviazione che richiede un ripristino prima di poter accedere agli oggetti archiviati. Ad esempio, gli oggetti nel livello di archiviazione Azure Blob devono essere recuperati per l'accesso standard prima del trasferimento dei dati. È possibile accedere immediatamente agli oggetti nel livello di archiviazione di Google Cloud Storage e non richiedono il ripristino, ma l'accesso diretto al livello di archiviazione comporta dei costi di recupero. Consulta la documentazione della classe di archiviazione su più cloud per determinare i requisiti di accesso e le tariffe di recupero prima di iniziare il trasferimento dei dati. Per ulteriori informazioni sul ripristino di oggetti archiviati in Amazon S3, [consulta Restoring an archived](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) object nella *Amazon Simple Storage Service User Guide*.
+ **Accesso allo storage di oggetti:** il trasferimento di dati tra provider cloud di terze parti richiede l'accesso all'archiviazione di oggetti dell'altro cloud sotto forma di chiavi di autenticazione. Ad esempio, per fornire l'accesso a Google Cloud Storage, configuri una posizione di archiviazione degli DataSync oggetti che si connette all'[API XML di Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) e si autentica utilizzando una [chiave HMAC (Message Authentication Code) basata su Hash](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) per il tuo account di servizio. [Per l'archiviazione Azure Blob, configuri una posizione [Azure DataSync Blob](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to) dedicata che si autentica tramite token SAS.](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync utilizza per archiviare in modo sicuro le credenziali Gestione dei segreti AWS di archiviazione degli oggetti. Per ulteriori informazioni, vedere [Protezione delle credenziali della posizione di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Supporto per i tag degli oggetti:**
  + A differenza di Amazon S3, non tutti i provider di servizi cloud supportano i tag [degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync le attività possono fallire durante il tentativo di leggere i tag dalla posizione di origine se il provider cloud non supporta i tag degli oggetti tramite l'API Amazon S3 o se le credenziali fornite non sono sufficienti per recuperare i tag. DataSyncfornisce un'opzione task per disattivare la [lettura e la copia dei tag degli oggetti](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) durante un trasferimento se i tag degli oggetti non sono supportati o se non si desidera mantenerli. Consulta la documentazione del tuo provider di servizi cloud per determinare se i tag degli oggetti sono supportati e verifica le impostazioni dei tag degli oggetti dell'attività di trasferimento prima di iniziare il trasferimento.
  + Puoi utilizzare l'API Amazon S3 per verificare se un provider di servizi cloud restituirà una `get-object-tagging` richiesta. Per ulteriori informazioni, consulta [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

    Un provider di servizi cloud che supporta i tag degli oggetti restituirà una risposta simile al seguente esempio:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Un provider di servizi cloud che non supporta `get-object-tagging` restituirà il seguente messaggio:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Costi associati per le richieste e l'uscita dei dati:** il trasferimento di dati dallo storage di oggetti nel cloud [comporta costi di richiesta e uscita](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) associati alla lettura dei dati e al trasferimento dei dati. I costi di richiesta variano tra i provider di servizi cloud e tra le classi di archiviazione, ove applicabile. Consulta la documentazione del tuo provider di servizi cloud in merito ai costi specifici per le richieste relative alla classe di archiviazione da cui intendi leggere. [Per una panoramica dei costi di richiesta associati ai trasferimenti DataSync di dati, consulta [Valutazione dei costi delle richieste S3 durante l'utilizzo DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) e AWS DataSync i prezzi.](https://aws.amazon.com/datasync/pricing/) Il trasferimento di dati da provider cloud specifici comporta costi di uscita. I costi di trasferimento dei dati variano tra i provider di servizi cloud e dipendono anche dalla regione in cui sono archiviati i dati.
+ **Frequenze di richiesta di archiviazione degli oggetti:** i provider di servizi cloud hanno diverse caratteristiche di prestazioni e velocità di richiesta per le loro piattaforme di storage di oggetti. Controlla le percentuali di richiesta dell'altro provider di servizi cloud e determina dove vengono applicati i limiti di richiesta. Pianifica in anticipo i trasferimenti altamente parallelizzati composti da più agenti, laddove potrebbero essere necessari specifici partizionamenti o aumenti delle prestazioni.

  Amazon S3 ha tassi di richiesta documentati su cui puoi costruire la tua soluzione. Le frequenze di richiesta di Amazon S3 sono per prefisso partizionato e sono scalabili su più prefissi. Per ulteriori informazioni, consulta [Modelli di progettazione basati sulle best practice: ottimizzazione delle prestazioni di Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) nella Guida per l'utente di *Amazon Simple Storage Service*.

# Configurazione dei AWS DataSync trasferimenti con Google Cloud Storage
<a name="tutorial_transfer-google-cloud-storage"></a>

Con AWS DataSync, puoi trasferire dati tra Google Cloud Storage e i seguenti AWS servizi di archiviazione:
+ Simple Storage Service (Amazon S3)
+ Amazon EFS
+ File server Amazon FSx per Windows
+ Amazon FSx per Lustre
+ Amazon FSx per OpenZFS
+ Amazon FSx per NetApp ONTAP

Per iniziare la configurazione del trasferimento, crea una posizione per il tuo Google Cloud Storage. Questa posizione può fungere da origine o destinazione del trasferimento. Un DataSync agente è necessario solo quando trasferisci dati tra Google Cloud Storage e Amazon EFS o Amazon FSx o quando utilizzi attività in **modalità Basic**. I trasferimenti di dati in **modalità avanzata** tra Google Cloud Storage e Amazon S3 non richiedono un agente.

**Nota**  
Per la connettività cloud privata tra Google Cloud Storage e AWS, utilizza la modalità Basic con agenti.

## Panoramica di
<a name="transfer-google-cloud-storage-overview"></a>

DataSync utilizza l'[API XML di Google Cloud Storage](https://cloud.google.com/storage/docs/xml-api/overview) per i trasferimenti di dati. Questa API fornisce un'interfaccia compatibile con Amazon S3 per leggere e scrivere dati con i bucket di Google Cloud Storage.

Quando utilizzi la modalità Basic per i trasferimenti, puoi distribuire l'agente in Google Cloud Storage o nel tuo Amazon VPC.

------
#### [ Agent in Google Cloud ]

1. Implementate un DataSync agente nel vostro ambiente Google Cloud.

1. L'agente legge il tuo bucket Google Cloud Storage utilizzando una chiave HMAC (Message Authentication Code) basata su Hash.

1. Gli oggetti dal tuo bucket Google Cloud Storage vengono trasferiti in modo sicuro tramite TLS 1.3 nel bucket utilizzando un endpoint pubblico. Cloud AWS 

1. Il DataSync servizio scrive i dati nel tuo bucket S3.

Il diagramma seguente illustra il trasferimento.

![\[Un esempio di DataSync trasferimento mostra come i dati degli oggetti vengono trasferiti da un bucket Google Cloud Storage a un bucket S3. Innanzitutto, l' DataSync agente viene distribuito nel tuo ambiente Google Cloud. Quindi, l' DataSync agente legge il bucket di Google Cloud Storage. I dati si spostano in modo sicuro attraverso un endpoint pubblico AWS, dove DataSync scrive gli oggetti in un bucket S3 nello stesso in cui li stai utilizzando. Regione AWS DataSync\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Implementate un DataSync agente in un cloud privato virtuale (VPC) nel AWS vostro ambiente.

1. L'agente legge il tuo bucket Google Cloud Storage utilizzando una chiave HMAC (Message Authentication Code) basata su Hash.

1. Gli oggetti dal tuo bucket Google Cloud Storage vengono trasferiti in modo sicuro tramite TLS 1.3 nel bucket Cloud AWS utilizzando un endpoint VPC privato.

1. Il DataSync servizio scrive i dati nel tuo bucket S3.

Il diagramma seguente illustra il trasferimento.

![\[Un esempio di DataSync trasferimento mostra come i dati degli oggetti vengono trasferiti da un bucket Google Cloud Storage a un bucket S3. Innanzitutto, l' DataSync agente viene distribuito in un AWS VPC in. Quindi, l' DataSync agente legge il bucket di Google Cloud Storage. I dati si spostano in modo sicuro attraverso un endpoint VPC, DataSync dove scrivono gli oggetti AWS in un bucket S3 nello stesso VPC. Regione AWS\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Costi
<a name="transfer-google-cloud-storage-cost"></a>

Le tariffe associate a questa migrazione potrebbero includere:
+ Esecuzione di un'istanza di macchina virtuale (VM) di Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (se distribuisci il tuo DataSync agente in Google Cloud)
+ Esecuzione di un'istanza [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (se distribuisci il tuo DataSync agente in un VPC interno) AWS
+ Trasferimento dei dati tramite utilizzo [DataSync](https://aws.amazon.com/datasync/pricing/), inclusi i costi di richiesta relativi a [Google Cloud Storage](https://cloud.google.com/storage/pricing) e [Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se S3 è una delle tue sedi di trasferimento)
+ [Trasferimento di dati da Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Archiviazione dei dati in [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Prerequisiti
<a name="transfer-google-cloud-storage-prerequisites"></a>

Prima di iniziare, procedi come segue se non l'hai già fatto:
+ [Crea un bucket Google Cloud Storage](https://cloud.google.com/storage/docs/creating-buckets) con gli oggetti in cui desideri trasferire AWS.
+ [Iscriviti a un Account AWS](https://portal.aws.amazon.com/billing/signup).
+ [Crea un bucket Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) per archiviare gli oggetti dopo averli inseriti. AWS

## Creazione di una chiave HMAC per il tuo bucket Google Cloud Storage
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync utilizza una chiave HMAC associata al tuo account di servizio Google per autenticarti e leggere il bucket da cui stai trasferendo i dati. (Per istruzioni dettagliate su come creare chiavi HMAC, consulta la documentazione di [Google](https://cloud.google.com/storage/docs/authentication/hmackeys) Cloud Storage.)

**Per creare una chiave HMAC**

1. Crea una chiave HMAC per il tuo account di servizio Google.

1. Assicurati che il tuo account di servizio Google disponga almeno delle `Storage Object Viewer` autorizzazioni.

1. Salva l'ID di accesso e il segreto della tua chiave HMAC in un luogo sicuro.

   Questi elementi ti serviranno in seguito per configurare la posizione di DataSync origine.

## Passaggio 2: configura la rete
<a name="transfer-google-cloud-storage-configure-network"></a>

La configurazione di rete è richiesta solo quando si utilizza un DataSync agente per il trasferimento. I requisiti di rete per questa migrazione dipendono dal luogo in cui si sceglie di distribuire l'agente.

### Per un DataSync agente in Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Se desideri ospitare il tuo DataSync agente in Google Cloud, configura la tua rete per [consentire DataSync i trasferimenti tramite un endpoint pubblico](datasync-network.md#using-public-endpoints).

### Per un DataSync agente nel tuo VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Se desideri ospitare il tuo agente AWS, hai bisogno di un VPC con un endpoint di interfaccia. DataSync utilizza l'endpoint VPC per facilitare il trasferimento.

**Per configurare la rete per un endpoint VPC**

1. Se non ne hai uno, [crea un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) nello stesso Regione AWS del tuo bucket S3.

1. [Crea una sottorete privata per il tuo VPC.](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html)

1. [Crea un endpoint di servizio VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html) per. DataSync

1. Configura la tua rete per [consentire DataSync i trasferimenti tramite un endpoint del servizio VPC](datasync-network.md#using-vpc-endpoint).

   A tale scopo, modifica il [gruppo di sicurezza](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html) associato all'endpoint del servizio VPC.

## Fase 3: Creare un DataSync agente (opzionale)
<a name="transfer-google-cloud-storage-create-agent"></a>

Un DataSync agente è necessario solo quando si utilizzano le attività in modalità **Basic**. Se utilizzi la modalità **avanzata** per il trasferimento tra Google Cloud Storage (GCS) e Amazon S3, non è richiesto alcun agente. Se desideri utilizzare la modalità **Basic**, hai bisogno di un DataSync agente in grado di accedere al tuo bucket GCS.

### Per Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

In questo scenario, l' DataSync agente viene eseguito nel tuo ambiente Google Cloud.

**Prima di iniziare**: [installa la CLI di Google Cloud](https://cloud.google.com/sdk/docs/install).

**Per creare l'agente per Google Cloud**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Agenti**, quindi scegli **Crea agente**.

1. Per **Hypervisor**, scegli **VMware ESXi**, quindi scegli **Scarica l'immagine** per scaricare un `.zip` file che contiene l'agente.

1. Apri un terminale. Decomprimi l'immagine eseguendo il seguente comando:

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Estrai il contenuto del `.ova` file dell'agente iniziando con `aws-datasync` eseguendo il comando seguente:

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importa il `.vmdk` file dell'agente in Google Cloud eseguendo il seguente comando CLI di Google Cloud:

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**Nota**  
L'importazione del `.vmdk` file potrebbe richiedere fino a due ore.

1. Crea e avvia un'istanza di macchina virtuale per l'immagine dell'agente che hai appena importato. 

   L'istanza richiede le seguenti configurazioni per l'agente. (Per istruzioni dettagliate su come creare un'istanza, consulta la [documentazione di Google Cloud Compute Engine](https://cloud.google.com/compute/docs/instances).)
   + Per il tipo di macchina, scegli una delle seguenti opzioni:
     + **e2-standard-8**: per l'esecuzione di DataSync attività con un massimo di 20 milioni di oggetti.
     + **e2-standard-16** — Per le esecuzioni di DataSync attività che utilizzano più di 20 milioni di oggetti.
   + Per le impostazioni del disco di avvio, vai alla sezione immagini personalizzate. Quindi scegli l'immagine dell' DataSync agente che hai appena importato.
   + Per l'impostazione dell'account di servizio, scegli il tuo account di servizio Google (lo stesso account che hai utilizzato nel [passaggio 1](#transfer-google-cloud-storage-create-hmac-key)).
   + Per l'impostazione del firewall, scegli l'opzione per consentire il traffico HTTP (porta 80).

     Per attivare l' DataSync agente, la porta 80 deve essere aperta sull'agente. Non è necessario che la porta sia accessibile al pubblico. Una volta attivata, DataSync chiude la porta.

1. Dopo l'esecuzione dell'istanza VM, prendi nota del relativo indirizzo IP pubblico.

   Avrai bisogno di questo indirizzo IP per attivare l'agente.

1. Torna alla DataSync console. Nella schermata **Crea agente** in cui hai scaricato l'immagine dell'agente, procedi come segue per attivare l'agente:
   + Per **Tipo di endpoint**, scegli l'opzione Endpoint di servizio pubblico (ad esempio, Endpoint di **servizio pubblico negli Stati Uniti orientali dell'Ohio**).
   + Per **Chiave di attivazione, scegli Ottieni automaticamente la chiave** **di attivazione dal** tuo agente.
   + Per **l'indirizzo dell'agente**, inserisci l'indirizzo IP pubblico dell'istanza di macchina virtuale dell'agente che hai appena creato.
   + Scegli **Get key**.

1. Dai un nome al tuo agente, quindi scegli **Crea agente**.

Il tuo agente è online e pronto a trasferire i dati.

### Per il tuo VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

In questo scenario, l'agente viene eseguito come un'istanza Amazon EC2 in un VPC associato al tuo. Account AWS

**Prima di iniziare**: [configura AWS Command Line Interface ()AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html).

**Per creare l'agente per il tuo VPC**

1. Apri un terminale. Assicurati di configurare il tuo AWS CLI profilo per utilizzare l'account associato al tuo bucket S3.

1. Copiare il seguente comando. Sostituisci `vpc-region` con il Regione AWS luogo in cui risiede il tuo VPC (ad esempio,). `us-east-1`

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Esegui il comando . Nell'output, prendi nota della `"Value"` proprietà.

   Questo valore è l'ID DataSync Amazon Machine Image (AMI) della regione specificata. Ad esempio, potrebbe essere simile a un ID AMI`ami-1234567890abcdef0`.

1. Copia il seguente URL. Ancora una volta, `vpc-region` sostituiscilo con il Regione AWS luogo in cui risiede il tuo VPC. Quindi, `ami-id` sostituiscilo con l'ID AMI che hai annotato nel passaggio precedente.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Incollare l'URL in un browser.

   La pagina di avvio dell'istanza Amazon EC2 nei Console di gestione AWS display.

1. Per il **tipo di istanza**, scegli una delle [istanze Amazon EC2 consigliate](agent-requirements.md#ec2-instance-types) per agenti. DataSync

1. Per **Coppia di chiavi**, scegli una coppia di chiavi esistente o creane una nuova.

1. Per **le impostazioni di rete**, scegli il VPC e la sottorete in cui desideri distribuire l'agente.

1. Scegliere **Launch Instance (Avvia istanza)**.

1. Una volta che l'istanza Amazon EC2 è in esecuzione, [scegli il tuo endpoint VPC.](choose-service-endpoint.md#datasync-in-vpc)

1. [Attiva il tuo agente](activate-agent.md).

## Passaggio 4: crea una posizione di DataSync origine per il tuo bucket Google Cloud Storage
<a name="transfer-google-cloud-storage-create-source"></a>

[Per configurare una DataSync posizione per il tuo bucket Google Cloud Storage, hai bisogno dell'ID di accesso e del segreto per la chiave HMAC che hai creato nel passaggio 1.](#transfer-google-cloud-storage-create-hmac-key)

**Per creare la posizione di origine DataSync**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Archiviazione oggetti**.

1. Per **Server**, inserisci**storage.googleapis.com**.

1. Per **il nome del bucket**, inserisci il nome del tuo bucket Google Cloud Storage.

1. Per **Folder**, inserisci il prefisso di un oggetto.

   DataSync copia solo gli oggetti con questo prefisso.

1. Se il trasferimento richiede un agente, scegli **Usa agenti**, quindi scegli l'agente che hai creato nel [passaggio 3](#transfer-google-cloud-storage-create-agent).

1. Espandere **Additional settings** (Impostazioni aggiuntive). Per il **protocollo Server**, scegli **HTTPS**. Per **Porta server**, scegli **443**.

1. Scorri verso il basso fino alla sezione **Autenticazione**. Assicurati che la casella di controllo **Richiede credenziali** sia selezionata, quindi procedi come segue:
   + Per la **chiave di accesso**, inserisci l'ID di accesso della tua chiave HMAC.
   + Per la **chiave segreta**, inserisci direttamente la chiave segreta della tua chiave HMAC o specifica un Gestione dei segreti AWS segreto che contenga la chiave. Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Scegli **Crea posizione**.

## Passaggio 5: crea una posizione di DataSync destinazione per il tuo bucket S3
<a name="transfer-google-cloud-storage-create-destination"></a>

Ti serve una DataSync posizione in cui desideri che i tuoi dati finiscano.

**Per creare la posizione di DataSync destinazione**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. [Crea una DataSync posizione per il bucket S3](create-s3-location.md).

   Se hai distribuito l' DataSync agente nel tuo VPC, questo tutorial presuppone che il bucket S3 sia nello stesso posto tra il tuo VPC e l' Regione AWS agente. DataSync 

## Fase 6: Creare e avviare un'attività DataSync
<a name="transfer-google-cloud-storage-start-task"></a>

Una volta configurate le posizioni di origine e di destinazione, puoi iniziare a trasferire i tuoi dati AWS.

**Per creare e avviare l' DataSync attività**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Nella pagina **Configura la posizione di origine**, procedi come segue:

   1. **Scegliete Scegli una posizione esistente**.

   1. Scegli la posizione di origine che hai creato nel [passaggio 4](#transfer-google-cloud-storage-create-source), quindi scegli **Avanti**.

1. Nella pagina **Configura la posizione di destinazione**, procedi come segue:

   1. **Scegli una posizione esistente**.

   1. Scegli la posizione di destinazione che hai creato nel [passaggio 5](#transfer-google-cloud-storage-create-destination), quindi scegli **Avanti**.

1. Nella pagina **Configura impostazioni**, procedi come segue:

   1. In **Configurazione del trasferimento dati**, espandi **Impostazioni aggiuntive** e deseleziona la casella di controllo **Copia i tag degli oggetti**.
**Importante**  
Poiché l'API XML di Google Cloud Storage non supporta la lettura o la scrittura di tag di oggetto, l' DataSync operazione potrebbe non riuscire se provi a copiare i tag degli oggetti.

   1. Configura tutte le altre impostazioni dell'attività che desideri, quindi scegli **Avanti**.

1. Nella pagina **Revisione**, rivedi le impostazioni, quindi scegli **Crea attività**.

1. Nella pagina dei dettagli dell'attività, scegli **Avvia**, quindi scegli una delle seguenti opzioni:
   + Per eseguire l'attività senza modifiche, scegli **Inizia con i valori predefiniti**.
   + Per modificare l'attività prima di eseguirla, scegli **Inizia con opzioni di sovrascrittura**.

Al termine dell'attività, vedrai gli oggetti del tuo bucket Google Cloud Storage nel tuo bucket S3.

# Configurazione dei trasferimenti con Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Con AWS DataSync, è possibile trasferire dati tra Microsoft Azure Blob Storage (incluso l'archiviazione Azure Data Lake Storage Gen2 BLOB) e i seguenti servizi AWS di archiviazione:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [File server Amazon FSx per Windows](create-fsx-location.md)
+ [Amazon FSx per Lustre](create-lustre-location.md)
+ [Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Amazon FSx per NetApp ONTAP](create-ontap-location.md)

Per configurare questo tipo di trasferimento, crei una [sede](how-datasync-transfer-works.md#sync-locations) per il tuoAzure Blob Storage. È possibile utilizzare questa posizione come origine o destinazione del trasferimento. Un DataSync agente è necessario solo quando si trasferiscono dati tra Azure Blob e Amazon EFS o Amazon o quando si utilizzano FSx attività in modalità **Basic**. **Non è necessario un agente per trasferire dati tra Azure Blob e Amazon S3 usando la modalità Enhanced.**

## Fornire l'accesso al DataSync Azure Blob Storage
<a name="azure-blob-access"></a>

La modalità di DataSync accesso Azure Blob Storage dipende da diversi fattori, tra cui il trasferimento da o verso l'archiviazione BLOB e il tipo di [token SAS (Shared Access Signature) che stai utilizzando](#azure-blob-sas-tokens). I tuoi oggetti devono inoltre trovarsi in un [livello di accesso](#azure-blob-access-tiers) con cui sia DataSync possibile lavorare.

**Topics**
+ [Token SAS](#azure-blob-sas-tokens)
+ [Livelli di accesso](#azure-blob-access-tiers)

### Token SAS
<a name="azure-blob-sas-tokens"></a>

Un token SAS specifica le autorizzazioni di accesso per l'archiviazione BLOB. [(Per ulteriori informazioni su SAS, consulta la Azure Blob Storage documentazione.)](https://learn.microsoft.com/azure/storage/common/storage-sas-overview)

È possibile generare token SAS per fornire diversi livelli di accesso. DataSync supporta token con i seguenti livelli di accesso:
+ Account
+ Contenitore

Le autorizzazioni di accesso DataSync necessarie dipendono dall'ambito del token. Se non disponi delle autorizzazioni corrette, il trasferimento potrebbe fallire. Ad esempio, il trasferimento non avrà esito positivo se sposti oggetti con tag Azure Blob Storage ma il token SAS non dispone delle autorizzazioni per i tag.

**Topics**
+ [Autorizzazioni del token SAS per l'accesso a livello di account](#account-sas-tokens)
+ [Autorizzazioni del token SAS per l'accesso a livello di contenitore](#container-sas-tokens)
+ [Politiche di scadenza SAS](#azure-blob-sas-expiration-policies)

#### Autorizzazioni del token SAS per l'accesso a livello di account
<a name="account-sas-tokens"></a>

DataSync richiede un token di accesso a livello di account con le seguenti autorizzazioni (a seconda che si stia effettuando il trasferimento da o verso). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ **Servizi consentiti: Blob**
+ **Tipi di risorse consentiti**: contenitore, oggetto

  Se non includi queste autorizzazioni, non DataSync puoi trasferire i metadati degli oggetti, inclusi i tag [degli oggetti](#azure-blob-considerations-object-tags).
+ **Autorizzazioni consentite**: lettura, elenco
+ **Autorizzazioni consentite per l'indice BLOB Read/Write ** [(se si desidera copiare i tag degli DataSync oggetti)](#azure-blob-considerations-object-tags)

------
#### [ Transfers to blob storage ]
+ **Servizi consentiti**: Blob
+ **Tipi di risorse consentiti**: contenitore, oggetto

  Se non includi queste autorizzazioni, non DataSync puoi trasferire i metadati degli oggetti, inclusi i tag [degli oggetti](#azure-blob-considerations-object-tags).
+ **Autorizzazioni consentite**: lettura, scrittura, elenco, eliminazione (se desideri DataSync rimuovere file che non sono nella fonte di trasferimento)
+ **Autorizzazioni consentite per l'indice BLOB Read/Write ** [(se desideri copiare i tag degli DataSync oggetti)](#azure-blob-considerations-object-tags)

------

#### Autorizzazioni del token SAS per l'accesso a livello di contenitore
<a name="container-sas-tokens"></a>

DataSync necessita di un token di accesso a livello di contenitore con le seguenti autorizzazioni (a seconda che si stia effettuando il trasferimento da o verso). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ Lettura
+ List
+ [Tag (se desideri DataSync copiare i tag degli oggetti)](#azure-blob-considerations-object-tags)
**Nota**  
Non è possibile aggiungere l'autorizzazione al tag quando si genera un token SAS nel Azure portale. Per aggiungere l'autorizzazione al tag, genera invece il token utilizzando l'[https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)app o genera un [token SAS che fornisca l'accesso a livello di account](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Lettura
+ Scrittura
+ List
+ Elimina (se desideri DataSync rimuovere file che non sono nella fonte di trasferimento)
+ Tag (se vuoi copiare DataSync i [tag degli oggetti](#azure-blob-considerations-object-tags))
**Nota**  
Non è possibile aggiungere l'autorizzazione al tag quando si genera un token SAS nel Azure portale. Per aggiungere l'autorizzazione al tag, genera invece il token utilizzando l'[https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)app o genera un [token SAS che fornisca l'accesso a livello di account](#account-sas-tokens).

------

#### Politiche di scadenza SAS
<a name="azure-blob-sas-expiration-policies"></a>

Assicurati che il tuo SAS non scada prima di completare il trasferimento. [Per informazioni sulla configurazione di una politica di scadenza SAS, consulta la Azure Blob Storage documentazione.](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy)

Se il SAS scade durante il trasferimento, non DataSync può più accedere alla tua Azure Blob Storage posizione. (È possibile che venga visualizzato un errore Failed to open directory.) In tal caso, [aggiorna la tua posizione](#azure-blob-update-location) con un nuovo token SAS e riavvia l' DataSync attività.

### Livelli di accesso
<a name="azure-blob-access-tiers"></a>

Durante il trasferimento daAzure Blob Storage, DataSync può copiare oggetti nei livelli «caldo» e «freddo». Per gli oggetti nel livello di accesso all'archivio, è necessario reidratarli sul livello «caldo» o «freddo» prima di poterli copiare.

Durante il trasferimento suAzure Blob Storage, è DataSync possibile copiare gli oggetti nei livelli di accesso «caldo», «freddo» e «archivio». Se stai copiando oggetti nel livello di accesso all'archivio, non DataSync puoi verificare il trasferimento se stai cercando di [verificare tutti i dati nella destinazione](configure-data-verification-options.md).

DataSync non supporta il livello di accesso a freddo. Per ulteriori informazioni sui livelli di accesso, consulta la [Azure Blob Storagedocumentazione](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Considerazioni sui trasferimenti Azure Blob Storage
<a name="azure-blob-considerations"></a>

Quando si pianifica di trasferire dati da Azure Blob Storage o verso DataSync, è necessario tenere presenti alcuni aspetti.

**Topics**
+ [Costi](#azure-blob-considerations-costs)
+ [Tipi di BLOB](#blob-types)
+ [Regione AWS disponibilità](#azure-blob-considerations-regions)
+ [Copiare i tag degli oggetti](#azure-blob-considerations-object-tags)
+ [Trasferimento su Amazon S3](#azure-blob-considerations-s3)
+ [Eliminazione delle directory in una destinazione di trasferimento](#azure-blob-considerations-deleted-files)
+ [Limitazioni](#azure-blob-limitations)

### Costi
<a name="azure-blob-considerations-costs"></a>

Le tariffe associate allo spostamento o all'uscita dei dati Azure Blob Storage possono includere:
+ Esecuzione di una [macchina Azure virtuale (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (se si implementa un DataSync agente) Azure
+ Esecuzione di un'istanza [Amazon EC2](https://aws.amazon.com/ec2/pricing/) (se distribuisci un DataSync agente in un VPC interno) AWS
+ Trasferimento dei dati tramite utilizzo [DataSync](https://aws.amazon.com/datasync/pricing/), inclusi i costi di richiesta relativi ad [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)[Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se S3 è una delle tue sedi di trasferimento)
+ Trasferimento di dati in entrata o in uscita da [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Archiviazione dei dati in un [servizio AWS di archiviazione](working-with-locations.md) supportato da DataSync

### Tipi di BLOB
<a name="blob-types"></a>

Il DataSync funzionamento dei tipi di blob dipende dal fatto che il trasferimento venga effettuato o meno. Azure Blob Storage Quando sposti i dati nell'archivio blob, gli oggetti o i file che DataSync trasferisci possono essere solo blob a blocchi. Quando sposti i dati dall'archivio BLOB, DataSync puoi trasferire blocchi, pagine e aggiungere BLOB.

[Per ulteriori informazioni sui tipi di blob, consulta la documentazione. Azure Blob Storage](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs)

### Regione AWS disponibilità
<a name="azure-blob-considerations-regions"></a>

Puoi creare una posizione di Azure Blob Storage trasferimento in qualsiasi Regione AWS posizione [supportata da DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Copiare i tag degli oggetti
<a name="azure-blob-considerations-object-tags"></a>

La possibilità di DataSync conservare i tag degli oggetti durante il trasferimento da o verso l'oggetto Azure Blob Storage dipende dai seguenti fattori:
+ **La dimensione dei tag di un oggetto**: non è DataSync possibile trasferire un oggetto con tag che superano i 2 KB.
+ **Se DataSync è configurato per copiare i tag degli oggetti**: per impostazione predefinita, DataSync [copia i tag degli oggetti](configure-metadata.md).
+ **Lo spazio dei nomi utilizzato dall'account di Azure archiviazione**: DataSync può copiare i tag degli oggetti se l'account di Azure archiviazione utilizza uno spazio dei nomi semplice, ma non se l'account utilizza uno spazio dei nomi gerarchico (una funzionalità di). Azure Data Lake Storage Gen2 L' DataSync operazione avrà esito negativo se si tenta di copiare i tag degli oggetti e l'account di archiviazione utilizza uno spazio dei nomi gerarchico.
+ **Se il token SAS autorizza il tagging**: le autorizzazioni necessarie per copiare i tag degli oggetti variano a seconda del livello di accesso fornito dal token. La tua attività fallirà se provi a copiare i tag degli oggetti e il tuo token non dispone delle autorizzazioni giuste per l'etichettatura. [Per ulteriori informazioni, consulta i requisiti di autorizzazione per i token di accesso a livello di [account o i token di accesso a livello](#account-sas-tokens) di contenitore.](#container-sas-tokens)

### Trasferimento su Amazon S3
<a name="azure-blob-considerations-s3"></a>

Durante il trasferimento su Amazon S3 DataSync , non Azure Blob Storage trasferirà oggetti più grandi di 5 TB o oggetti con metadati più grandi di 2 KB.

### Eliminazione delle directory in una destinazione di trasferimento
<a name="azure-blob-considerations-deleted-files"></a>

Durante il trasferimento suAzure Blob Storage, DataSync è possibile [rimuovere oggetti nell'archivio BLOB che non sono presenti nella](configure-metadata.md) fonte di trasferimento. (Puoi configurare questa opzione cancellando l'impostazione **Mantieni i file eliminati** nella console. DataSync Il [token SAS](#azure-blob-sas-tokens) deve inoltre disporre delle autorizzazioni di eliminazione.)

Quando configuri il trasferimento in questo modo, DataSync non eliminerà le directory nell'archivio BLOB se l'account di archiviazione utilizza uno Azure spazio dei nomi gerarchico. In questo caso, è necessario eliminare manualmente le directory (ad esempio, utilizzando). [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)

### Limitazioni
<a name="azure-blob-limitations"></a>

Ricorda le seguenti limitazioni quando trasferisci dati da o verso: Azure Blob Storage
+ DataSync [crea alcune directory](filtering.md#directories-ignored-during-transfers) in una posizione per facilitare il trasferimento. Se si Azure Blob Storage tratta di una posizione di destinazione e l'account di archiviazione utilizza uno spazio dei nomi gerarchico, è possibile che nella cartella siano presenti sottodirectory specifiche per le attività (ad esempio). `task-000011112222abcde` `/.aws-datasync` DataSync in genere elimina queste sottodirectory dopo un trasferimento. Se ciò non accade, puoi eliminare tu stesso queste directory specifiche delle attività purché un'attività non sia in esecuzione.
+ DataSync non supporta l'utilizzo di un token SAS per accedere solo a una cartella specifica nel contenitore. Azure Blob Storage
+ Non è possibile fornire DataSync un token SAS di delega utente per accedere allo storage blob.

## Creazione del tuo DataSync agente (opzionale)
<a name="azure-blob-creating-agent"></a>

Un DataSync agente è necessario solo quando si trasferiscono dati tra Azure Blob e Amazon EFS o Amazon o quando si utilizzano FSx attività in modalità **Basic**. **Non è necessario un agente per trasferire dati tra Azure Blob e Amazon S3 usando la modalità Enhanced.** Questa sezione descrive come distribuire e attivare un agente.

**Suggerimento**  
Sebbene sia possibile distribuire il proprio agente su un'istanza Amazon EC2, l'utilizzo di Microsoft Hyper-V un agente potrebbe comportare una riduzione della latenza di rete e una maggiore compressione dei dati. 

### Agenti Microsoft Hyper-V
<a name="azure-blob-creating-agent-hyper-v"></a>

Puoi distribuire il tuo DataSync agente direttamente all'interno Azure di un'immagine. Microsoft Hyper-V

**Suggerimento**  
Prima di continuare, valuta la possibilità di utilizzare uno script di shell che possa aiutarti a distribuire l'agente Hyper-V più rapidamente. Azure Puoi ottenere ulteriori informazioni e scaricare il codice su. [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure)  
Se usi lo script, puoi passare alla sezione relativa[Ottenere la chiave di attivazione del tuo agente](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Prerequisiti](#azure-blob-creating-agent-hyper-v-0)
+ [Scaricamento e preparazione del tuo agente](#azure-blob-creating-agent-hyper-v-1)
+ [Implementazione del tuo agente in Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Ottenere la chiave di attivazione del tuo agente](#azure-blob-creating-agent-hyper-v-3)
+ [Attivazione del tuo agente](#azure-blob-creating-agent-hyper-v-4)

#### Prerequisiti
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Per preparare l' DataSync agente e distribuirloAzure, è necessario effettuare le seguenti operazioni:
+ Abilita Hyper-V sul tuo computer locale.
+ Installa [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1)(incluso ilHyper-V Module).
+ Installa la [AzureCLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Installare [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Scaricamento e preparazione del tuo agente
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Scarica un agente dalla DataSync console. Prima di poter implementare l'agenteAzure, è necessario convertirlo in un disco rigido virtuale (VHD) di dimensioni fisse. Per ulteriori informazioni, consulta la [documentazione relativa ad Azure](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**Per scaricare e preparare l'agente**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Agenti**, quindi scegli **Crea agente**.

1. Per **Hypervisor**, scegli **Microsoft Hyper-V**, quindi scegli **Scarica l'immagine**.

   L'agente scarica un `.zip` file che contiene un `.vhdx` file.

1. Estrarre il `.vhdx` file sul computer locale.

1. Aprire PowerShell e procedere come segue:

   1. Copiare il seguente `Convert-VHD` cmdlet:

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Sostituisci ogni istanza di `local-path-to-vhdx-file` con la posizione del `.vhdx` file sul computer locale.

   1. Esegui il comando .

   Il tuo agente è ora un VHD a dimensione fissa (con un formato di `.vhd` file) pronto per la distribuzione. Azure

#### Implementazione del tuo agente in Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

Il dispiegamento del tuo DataSync agente implica: Azure
+ La creazione di un disco gestito in Azure
+ Caricamento del tuo agente su quel disco gestito
+ Collegamento del disco gestito a una macchina virtuale Linux

**Per distribuire il tuo agente in Azure**

1. InPowerShell, vai alla directory che contiene il `.vhd` file del tuo agente.

1. Esegui il `ls` comando e salva il `Length` valore (ad esempio,`85899346432`).

   Questa è la dimensione in byte dell'immagine dell'agente, necessaria per creare un disco gestito in grado di contenere l'immagine.

1. Effettuate le seguenti operazioni per creare un disco gestito:

   1. Copia il seguente Azure comando CLI:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. `your-managed-disk`Sostituiscilo con un nome per il tuo disco gestito.

   1. Sostituiscilo `your-resource-group` con il nome del gruppo di Azure risorse a cui appartiene l'account di archiviazione.

   1. Sostituiscilo `your-azure-region` con la Azure regione in cui si trova il tuo gruppo di risorse.

   1. Sostituiscila `agent-size-bytes` con la dimensione dell'immagine dell'agente.

   1. Esegui il comando .

   Questo comando crea un disco gestito vuoto con uno [SKU standard](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types) in cui puoi caricare il tuo DataSync agente.

1. Per generare una firma ad accesso condiviso (SAS) che consenta l'accesso in scrittura al disco gestito, procedi come segue:

   1. Copia il seguente Azure comando CLI:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. Sostituisci `your-managed-disk` con il nome del disco gestito che hai creato.

   1. Sostituisci `your-resource-group` con il nome del gruppo di Azure risorse a cui appartiene l'account di archiviazione.

   1. Esegui il comando .

      Nell'output, prendi nota dell'URI SAS. È necessario questo URI quando si carica l'agente suAzure.

   Il SAS consente di scrivere sul disco per un massimo di un'ora. Ciò significa che hai un'ora per caricare il tuo agente sul disco gestito.

1. Per caricare il tuo agente sul tuo disco gestito inAzure, procedi come segue:

   1. Copia il seguente `AzCopy` comando:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. Sostituisci `local-path-to-vhd-file` con la posizione del `.vhd` file dell'agente sul tuo computer locale.

   1. Sostituisci `sas-uri` con l'URI SAS che hai ottenuto quando hai eseguito il `az disk grant-access` comando.

   1. Esegui il comando .

1. Al termine del caricamento dell'agente, revoca l'accesso al disco gestito. Per fare ciò, copia il seguente comando Azure CLI:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. Sostituiscilo `your-resource-group` con il nome del gruppo di Azure risorse a cui appartiene l'account di archiviazione.

   1. Sostituisci `your-managed-disk` con il nome del disco gestito che hai creato.

   1. Esegui il comando .

1. Effettua le seguenti operazioni per collegare il disco gestito a una nuova macchina Linux virtuale:

   1. Copia il seguente Azure comando CLI:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. Sostituiscilo `your-resource-group` con il nome del gruppo di Azure risorse a cui appartiene l'account di archiviazione.

   1. Sostituiscila `your-agent-vm` con un nome per la macchina virtuale che ricordi.

   1. Sostituisci `your-managed-disk` con il nome del disco gestito che stai collegando alla macchina virtuale.

   1. Esegui il comando .

Hai distribuito il tuo agente. Prima di iniziare a configurare il trasferimento dei dati, è necessario attivare l'agente.

#### Ottenere la chiave di attivazione del tuo agente
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Per ottenere manualmente la chiave di attivazione del tuo DataSync agente, segui questi passaggi. 

In alternativa, [DataSync puoi ottenere automaticamente la chiave di attivazione](activate-agent.md), ma questo approccio richiede una certa configurazione di rete.

**Per ottenere la chiave di attivazione del tuo agente**

1. Nel Azure portale, [abilita la diagnostica di avvio per la macchina virtuale per il tuo agente](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics) scegliendo l'impostazione **Abilita con account di archiviazione personalizzato e specificando il tuo Azure account** di archiviazione.

   Dopo aver abilitato la diagnostica di avvio per la macchina virtuale dell'agente, puoi accedere alla console locale dell'agente per ottenere la chiave di attivazione.

1. **Mentre sei ancora nel Azure portale, vai alla tua macchina virtuale e scegli Console seriale.**

1. Nella console locale dell'agente, accedi utilizzando le seguenti credenziali predefinite: 
   + **Username (Nome utente** – **admin**
   + **Password**: **password**

   A un certo punto consigliamo di modificare almeno la password dell'agente. Nella console locale dell'agente, **5** accedi al menu principale, quindi usa il `passwd` comando per modificare la password.

1. Inserisci **0** per ottenere la chiave di attivazione dell'agente.

1. Inserisci il Regione AWS luogo in cui stai utilizzando DataSync (ad esempio,**us-east-1**).

1. Scegli l'[endpoint del servizio](choose-service-endpoint.md) con cui l'agente utilizzerà per connettersi AWS. 

1. Salva il valore dell'`Activation key`output. 

#### Attivazione del tuo agente
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Dopo aver ottenuto la chiave di attivazione, puoi completare la creazione del tuo DataSync agente.

**Per attivare l'agente**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Agenti**, quindi scegli **Crea agente**.

1. Per **Hypervisor, scegli**. **Microsoft Hyper-V**

1. Per **Tipo di endpoint**, scegli lo stesso tipo di endpoint di servizio che hai specificato quando hai ricevuto la chiave di attivazione dell'agente (ad esempio, scegli Endpoint di **servizio pubblico** in). *Region name*

1. Configura la rete in modo che funzioni con il tipo di endpoint di servizio utilizzato dall'agente. Per i requisiti di rete degli endpoint di servizio, consulta i seguenti argomenti:
   + [Endpoint VPC](datasync-network.md#using-vpc-endpoint)
   + [Endpoint pubblici](datasync-network.md#using-public-endpoints)
   + [Endpoint FIPS (Federal Information Processing Standard)](datasync-network.md#using-public-endpoints)

1. Per la **chiave di attivazione**, procedi come segue:

   1. Scegli **Inserisci manualmente la chiave di attivazione del tuo agente**.

   1. Inserisci la chiave di attivazione che hai ricevuto dalla console locale dell'agente.

1. Scegliere **Create agent (Crea agente)**.

Il tuo agente è pronto a connettersi con il tuoAzure Blob Storage. Per ulteriori informazioni, consulta [Creazione della località Azure Blob Storage di trasferimento](#creating-azure-blob-location-how-to).

### Agenti Amazon EC2
<a name="azure-blob-creating-agent-ec2"></a>

Puoi distribuire il tuo DataSync agente su un'istanza Amazon EC2.

**Per creare un agente Amazon EC2**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Scegli un endpoint di servizio](choose-service-endpoint.md) con cui l'agente comunica. AWS

   In questa situazione, consigliamo di utilizzare un endpoint del servizio Virtual Private Cloud (VPC).

1. Configura la tua rete per funzionare con gli [endpoint del servizio VPC](datasync-network.md#using-vpc-endpoint).

1. [Attiva l'agente.](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html)

## Creazione della località Azure Blob Storage di trasferimento
<a name="creating-azure-blob-location-how-to"></a>

Puoi DataSync configurare l'utilizzo del tuo Azure Blob Storage come fonte o destinazione di trasferimento.

**Prima di iniziare**  
Assicurati di sapere [come DataSync accede Azure Blob Storage e funziona con i](#azure-blob-access) [livelli di accesso e i tipi](#azure-blob-access-tiers) di [blob](#blob-types). È inoltre necessario un [DataSync agente](#azure-blob-creating-agent) in grado di connettersi al contenitore. Azure Blob Storage

### Utilizzo della DataSync console
<a name="creating-azure-blob-location-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Tipo di posizione**, scegliere **Microsoft Azure Blob Storage**.

1. Per **Container URL**, inserisci l'URL del contenitore coinvolto nel trasferimento.

1. (Facoltativo) Per il **livello di accesso, se utilizzato come destinazione**, scegli il [livello di accesso](#azure-blob-access-tiers) in cui desideri trasferire i tuoi oggetti o file.

1. Per **Cartella**, inserisci i segmenti di percorso se desideri limitare il trasferimento a una directory virtuale del contenitore (ad esempio,`/my/images`).

1. Se il trasferimento richiede un agente, scegli **Usa agenti**, quindi scegli l' DataSync agente che può connettersi al tuo Azure Blob Storage contenitore.

1. Per il **token SAS**, fornisci le credenziali necessarie per accedere DataSync al tuo archivio BLOB. Alcuni set di dati pubblici sull'archiviazione BLOB di Azure non richiedono credenziali. È possibile inserire direttamente un token SAS o specificare un Gestione dei segreti AWS segreto che contenga il token. Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Il token SAS fa parte della stringa URI SAS che segue l'URI della risorsa di archiviazione e un punto interrogativo (`?`). Un token ha un aspetto simile al seguente:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Facoltativo) Immettete i valori nei campi **Chiave** e **Valore** per etichettare la posizione.

   I tag ti aiutano a gestire, filtrare e cercare AWS le tue risorse. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

### Usando il AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Copia il seguente `create-location-azure-blob` comando:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Per il `--container-url` parametro, specifica l'URL del Azure Blob Storage contenitore coinvolto nel trasferimento.

1. Per il parametro `--authentication-type`, specifica `SAS`. Se stai accedendo a un set di dati pubblico che non richiede l'autenticazione, specifica`NONE`.

1. Per l'`Token`opzione del `--sas-configuration` parametro, specifica il token SAS che consente di accedere DataSync al tuo archivio BLOB. 

   Puoi anche fornire parametri aggiuntivi per proteggere le tue chiavi utilizzando. Gestione dei segreti AWS Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Il token SAS fa parte della stringa URI SAS che segue l'URI della risorsa di archiviazione e un punto interrogativo (`?`). Un token ha un aspetto simile al seguente:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Facoltativo) Per il `--agent-arns` parametro, specifica l'Amazon Resource Name (ARN) dell' DataSync agente che può connettersi al tuo contenitore.

   Ecco un esempio di ARN dell'agente: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   È possibile specificare più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per il `--subdirectory` parametro, specificate i segmenti di percorso se desiderate limitare il trasferimento a una directory virtuale del contenitore (ad esempio,`/my/images`).

1. (Facoltativo) Per il `--access-tier` parametro, specificate il [livello di accesso](#azure-blob-access-tiers) (`HOT``COOL`, o`ARCHIVE`) in cui desiderate trasferire gli oggetti o i file.

   Questo parametro si applica solo quando si utilizza questa posizione come destinazione di trasferimento.

1. (Facoltativo) Per il `--tags` parametro, specificate le coppie chiave-valore che possono aiutarvi a gestire, filtrare e cercare la vostra posizione.

   È consigliabile creare un tag di nome per la posizione.

1. Esegui il comando `create-location-azure-blob`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Visualizzazione della località di Azure Blob Storage trasferimento
<a name="azure-blob-view-location"></a>

Puoi ottenere dettagli sulla località di DataSync trasferimento esistente per il tuoAzure Blob Storage.

### Utilizzo della DataSync console
<a name="azure-blob-view-location-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni**.

1. Scegli la tua Azure Blob Storage posizione.

   Puoi visualizzare i dettagli sulla tua posizione, incluse le attività di DataSync trasferimento che la utilizzano.

### Utilizzando il AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Copia il seguente `describe-location-azure-blob` comando:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Per il `--location-arn` parametro, specificate l'ARN per la Azure Blob Storage posizione che avete creato (ad esempio,`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Esegui il comando `describe-location-azure-blob`.

   Riceverai una risposta che mostra i dettagli sulla tua posizione. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Aggiornamento della località Azure Blob Storage di trasferimento
<a name="azure-blob-update-location"></a>

Se necessario, puoi modificare la configurazione della tua posizione nella console o utilizzando il AWS CLI.

### Utilizzando il AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Copia il seguente `update-location-azure-blob` comando:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Per il `--location-arn` parametro, specifica l'ARN per la Azure Blob Storage posizione che stai aggiornando (ad esempio,`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Per il parametro `--authentication-type`, specifica `SAS`.

1. Per l'`Token`opzione del `--sas-configuration` parametro, specifica il token SAS che consente di accedere DataSync al tuo archivio BLOB. 

   Il token fa parte della stringa URI SAS che segue l'URI della risorsa di archiviazione e un punto interrogativo (`?`). Un token ha un aspetto simile al seguente:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Per il `--agent-arns` parametro, specifica l'Amazon Resource Name (ARN) dell' DataSync agente che desideri connettere al tuo contenitore.

   Ecco un esempio di ARN dell'agente: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   È possibile specificare più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per il `--subdirectory` parametro, specificate i segmenti di percorso se desiderate limitare il trasferimento a una directory virtuale del contenitore (ad esempio,`/my/images`).

1. (Facoltativo) Per il `--access-tier` parametro, specificate il [livello di accesso](#azure-blob-access-tiers) (`HOT``COOL`, o`ARCHIVE`) in cui desiderate trasferire gli oggetti.

   Questo parametro si applica solo quando si utilizza questa posizione come destinazione di trasferimento.

## Fasi successive
<a name="create-azure-blob-location-next-steps"></a>

Dopo aver creato una DataSync posizione per la tuaAzure Blob Storage, puoi continuare a configurare il trasferimento. Ecco alcuni passaggi successivi da considerare:

1. Se non l'hai già fatto, [crea un'altra posizione](working-with-locations.md) in cui intendi trasferire i tuoi dati da o verso il tuoAzure Blob Storage.

1. Scopri come DataSync [gestisce i metadati e i file speciali](metadata-copied.md), in particolare se le località di trasferimento non hanno una struttura di metadati simile.

1. Configura il modo in cui i tuoi dati vengono trasferiti. Ad esempio, puoi [trasferire solo un sottoinsieme di dati](filtering.md) o eliminare file nell'archivio BLOB che non si trovano nella posizione di origine (purché il [token SAS](#azure-blob-sas-tokens) disponga delle autorizzazioni di eliminazione).

1. [Inizia il trasferimento](run-task.md). 

# Configurazione dei AWS DataSync trasferimenti con azioni Microsoft Azure Files SMB
<a name="transferring-azure-files"></a>

Puoi configurare il trasferimento AWS DataSync di dati da o verso una condivisione Microsoft Azure Files Server Message Block (SMB).

**Suggerimento**  
[Per una procedura dettagliata sullo spostamento dei dati dalle condivisioni SMB di Azure Files a AWS, consulta lo Storage Blog.AWS](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)

## Fornire DataSync l'accesso alle condivisioni SMB
<a name="configuring-smb-azure-files"></a>

DataSync si connette alla condivisione SMB utilizzando il protocollo SMB e si autentica con le credenziali fornite dall'utente.

**Topics**
+ [Versioni del protocollo SMB supportate](#configuring-smb-version-azure-files)
+ [Autorizzazioni richieste](#configuring-smb-permissions-azure-files)

### Versioni del protocollo SMB supportate
<a name="configuring-smb-version-azure-files"></a>

Per impostazione predefinita, sceglie DataSync automaticamente una versione del protocollo SMB in base alla negoziazione con il file server SMB.

Puoi anche configurare l'utilizzo DataSync di una versione SMB specifica, ma ti consigliamo di farlo solo se hai problemi a negoziare automaticamente con DataSync il file server SMB. DataSync supporta le versioni SMB 1.0 e successive. Per motivi di sicurezza, consigliamo di utilizzare la versione 3.0.2 o successiva di SMB. Le versioni precedenti, come SMB 1.0, contengono vulnerabilità di sicurezza note che gli aggressori possono sfruttare per compromettere i dati.

Consulta la tabella seguente per un elenco delle opzioni disponibili nella console e nell'API: DataSync


| Opzione Console | Opzione API | Description | 
| --- | --- | --- | 
| Automatica |  `AUTOMATIC`  |  DataSync e il file server SMB negoziano la versione più recente di SMB che supportano reciprocamente tra la 2.1 e la 3.1.1. Questa è l'opzione predefinita e consigliata. Se scegli una versione specifica che il tuo server di file non supporta, potresti ricevere un errore `Operation Not Supported`.  | 
|  SMB 3.0.2  |  `SMB3`  |  Limita la negoziazione del protocollo alla sola versione SMB 3.0.2.  | 
| SMB 2.1 |  `SMB2`  | Limita la negoziazione del protocollo alla sola versione 2.1 di SMB. | 
| SMB 2.0 | `SMB2_0` | Limita la negoziazione del protocollo solo alla versione 2.0 di SMB. | 
| SMB 1.0 | `SMB1` | Limita la negoziazione del protocollo solo alla versione 1.0 di SMB. | 

### Autorizzazioni richieste
<a name="configuring-smb-permissions-azure-files"></a>

DataSync necessita di un utente con il permesso di montare e accedere alla tua posizione SMB. Può trattarsi di un utente locale sul file server Windows o di un utente di dominio definito in Microsoft Active Directory.

Per impostare la proprietà degli oggetti, è DataSync necessario il `SE_RESTORE_NAME` privilegio, che in genere viene concesso ai membri dei gruppi integrati di Active Directory **Backup Operators** e **Domain Admins**. L'assegnazione di questo privilegio DataSync a un utente consente inoltre di garantire autorizzazioni sufficienti per file, cartelle e metadati dei file, ad eccezione degli elenchi di controllo degli accessi al sistema NTFS (). SACLs

Per la copia sono necessari privilegi aggiuntivi. SACLs In particolare, ciò richiede il `SE_SECURITY_NAME` privilegio Windows, concesso ai membri del gruppo **Domain Admins**. Se configuri l'attività per la copia SACLs, assicurati che l'utente disponga dei privilegi richiesti. Per ulteriori informazioni sulla configurazione di un'attività da copiare SACLs, consulta. [Configurazione della modalità di gestione di file, oggetti e metadati](configure-metadata.md)

Quando copi dati tra un file server SMB e il file system Amazon FSx for Windows File Server, le posizioni di origine e destinazione devono appartenere allo stesso dominio Microsoft Active Directory o avere una relazione di trust di Active Directory tra i rispettivi domini.

## Creazione della posizione di trasferimento di Azure Files utilizzando la console
<a name="create-azure-files-smb-location-how-to"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Location type (Tipo di posizione)**, scegliere **Server Message Block (SMB)**.

   Sarà possibile configurare questa posizione come origine o destinazione in un secondo momento.

1. Per **gli agenti**, scegli uno o più DataSync agenti che desideri connettere alla tua condivisione SMB.

   Se scegli più di un agente, assicurati di aver compreso l'utilizzo di [più agenti per una sede](do-i-need-datasync-agent.md#multiple-agents).

1. Per **SMB Server**, inserisci il nome o l'indirizzo IP del Domain Name System (DNS) della condivisione SMB che il tuo DataSync agente installerà.
**Nota**  
Non è possibile specificare un indirizzo IP versione 6 ()IPv6.

1. Per **Share name**, inserisci il nome della condivisione esportata dalla tua condivisione SMB in cui DataSync leggerà o scriverà i dati.

   È possibile includere una sottodirectory nel percorso di condivisione (ad esempio,). `/path/to/subdirectory` Assicurati che anche altri client SMB della tua rete possano montare questo percorso. 

   Per copiare tutti i dati nella sottodirectory, DataSync devi essere in grado di montare la condivisione SMB e accedere a tutti i suoi dati. Per ulteriori informazioni, consulta [Autorizzazioni richieste](create-smb-location.md#configuring-smb-permissions).

1. (Facoltativo) Espandi **le impostazioni aggiuntive** e scegli una **versione SMB** DataSync da utilizzare per accedere alla condivisione SMB.

   Per impostazione predefinita, sceglie DataSync automaticamente una versione in base alla negoziazione con la condivisione SMB. Per informazioni, consulta [Versioni SMB supportate](create-smb-location.md#configuring-smb-version).

1. Per **Utente**, inserisci un nome utente che possa montare la tua condivisione SMB e che disponga dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.

   Per ulteriori informazioni, consulta [Autorizzazioni richieste](create-smb-location.md#configuring-smb-permissions).

1. Per **Password**, inserisci la password dell'utente che può montare la tua condivisione SMB e dispone dell'autorizzazione per accedere ai file e alle cartelle coinvolti nel trasferimento.

1. (Facoltativo) Per **Dominio**, inserisci il nome di dominio Windows a cui appartiene la tua condivisione SMB.

   Se nel tuo ambiente sono presenti più domini, la configurazione di questa impostazione assicura che DataSync si connetta alla condivisione corretta.

1. (Facoltativo) Scegli **Aggiungi tag per taggare** la tua posizione.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue sedi. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

# Configurazione dei trasferimenti con altri archivi di oggetti cloud
<a name="creating-other-cloud-object-location"></a>

Con AWS DataSync, puoi trasferire dati tra i [servizi AWS di storage e i](transferring-aws-storage.md) seguenti provider di cloud object storage:
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Un DataSync agente è necessario solo quando si trasferiscono dati tra sistemi di storage in altri cloud e Amazon EFS o Amazon FSx o quando si utilizzano attività in modalità **Basic**. Non è necessario un agente per trasferire dati tra sistemi di storage in altri cloud e Amazon S3 utilizzando la modalità **Enhanced**.

Indipendentemente dal fatto che utilizzi un agente, devi anche creare una [posizione](how-datasync-transfer-works.md#sync-locations) di trasferimento per l'archiviazione di oggetti nel cloud (in particolare una posizione di **archiviazione di oggetti**). DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento.

## Fornire DataSync l'accesso all'altro spazio di archiviazione di oggetti nel cloud
<a name="other-cloud-access"></a>

Il modo in cui DataSync accede allo storage di oggetti nel cloud dipende da diversi fattori, tra cui la compatibilità dello storage con l'API Amazon S3 e le autorizzazioni e le credenziali DataSync necessarie per accedere allo storage.

**Topics**
+ [Compatibilità con le API Amazon S3](#other-cloud-s3-compatibility)
+ [Autorizzazioni ed endpoint di archiviazione](#other-cloud-permissions)
+ [Credenziali di archiviazione](#other-cloud-credentials)

### Compatibilità con le API Amazon S3
<a name="other-cloud-s3-compatibility"></a>

Il tuo storage di oggetti nel cloud deve essere compatibile con le seguenti [operazioni dell'API Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) per DataSync poterti connettere:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Autorizzazioni ed endpoint di archiviazione
<a name="other-cloud-permissions"></a>

È necessario configurare le autorizzazioni che consentono di accedere DataSync all'archivio di oggetti nel cloud. Se il tuo object storage è una posizione di origine, DataSync necessita delle autorizzazioni di lettura ed elenco per il bucket da cui stai trasferendo i dati. Se l'object storage è una posizione di destinazione, sono necessarie DataSync le autorizzazioni di lettura, elenco, scrittura ed eliminazione per il bucket.

DataSync necessita inoltre di un endpoint (o server) per connettersi allo storage. La tabella seguente descrive gli endpoint che è DataSync possibile utilizzare per accedere ad altri archivi di oggetti nel cloud:


| Altro provider di servizi cloud | Endpoint | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com`(la maggior parte delle regioni)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**Importante**  
Per dettagli su come configurare le autorizzazioni dei bucket e informazioni aggiornate sugli endpoint di archiviazione, consulta la documentazione del tuo provider di servizi cloud.

### Credenziali di archiviazione
<a name="other-cloud-credentials"></a>

DataSync necessita inoltre delle credenziali per accedere al bucket di archiviazione degli oggetti coinvolto nel trasferimento. Potrebbe trattarsi di una chiave di accesso e una chiave segreta o qualcosa di simile a seconda del modo in cui il provider di archiviazione cloud fa riferimento a queste credenziali.

Per ulteriori informazioni, consulta la documentazione del tuo provider di servizi cloud.

## Considerazioni relative al trasferimento da altri sistemi di archiviazione di oggetti nel cloud
<a name="other-cloud-considerations"></a>

Quando si pianifica di trasferire oggetti da o verso un altro provider di archiviazione cloud utilizzando DataSync, ci sono alcune cose da tenere a mente.

**Topics**
+ [Costi](#other-cloud-considerations-costs)
+ [Classi di archiviazione](#other-cloud-considerations-storage-classes)
+ [Tag dell'oggetto](#other-cloud-considerations-object-tags)
+ [Trasferimento su Amazon S3](#other-cloud-considerations-s3)

### Costi
<a name="other-cloud-considerations-costs"></a>

Le tariffe associate allo spostamento dei dati da e verso un altro provider di cloud storage possono includere:
+ Esecuzione di un'istanza [Amazon EC2](https://aws.amazon.com/ec2/pricing/) per il tuo agente DataSync 
+ Trasferimento dei dati tramite utilizzo [DataSync](https://aws.amazon.com/datasync/pricing/), inclusi i costi di richiesta relativi allo storage di oggetti nel cloud e ad [Amazon](create-s3-location.md#create-s3-location-s3-requests) S3 (se S3 è la destinazione di trasferimento)
+ Trasferimento di dati da o verso il tuo cloud storage (controlla i prezzi del tuo provider di servizi cloud)
+ Archiviazione dei dati in un [servizio AWS di archiviazione](transferring-aws-storage.md) supportato da DataSync
+ Archiviazione dei dati in un altro provider di servizi cloud (controlla i prezzi del tuo provider di servizi cloud)

### Classi di archiviazione
<a name="other-cloud-considerations-storage-classes"></a>

Alcuni provider di cloud storage dispongono di classi di archiviazione (simili ad [Amazon S3](create-s3-location.md#using-storage-classes)) che non DataSync possono essere lette senza prima essere ripristinate. Ad esempio, Oracle Cloud Infrastructure Object Storage ha una classe di archiviazione. È necessario ripristinare gli oggetti in quella classe di archiviazione prima di DataSync poterli trasferire. Per ulteriori informazioni, consulta la documentazione del tuo provider di servizi cloud.

### Tag dell'oggetto
<a name="other-cloud-considerations-object-tags"></a>

Non tutti i provider di servizi cloud supportano i tag degli oggetti. Quelli che lo fanno potrebbero non consentire l'interrogazione dei tag tramite l'API Amazon S3. In entrambe le situazioni, l'operazione di DataSync trasferimento potrebbe non riuscire se si tenta di copiare i tag degli oggetti.

È possibile evitare questo problema deselezionando la casella di controllo **Copia i tag degli oggetti** nella DataSync console durante la creazione, l'avvio o l'aggiornamento dell'attività.

### Trasferimento su Amazon S3
<a name="other-cloud-considerations-s3"></a>

Durante il trasferimento su Amazon S3 DataSync , non è possibile trasferire oggetti di dimensioni superiori a 5 TB. DataSyncinoltre, può copiare solo i metadati degli oggetti fino a 2 KB.

## Creando il tuo agente DataSync
<a name="other-cloud-creating-agent"></a>

Un DataSync agente è necessario solo quando si trasferiscono dati tra sistemi di storage in altri cloud e Amazon EFS o Amazon FSx o quando si utilizzano attività in modalità **Basic**. Non è necessario un agente per trasferire dati tra sistemi di storage in altri cloud e Amazon S3 utilizzando la modalità **Enhanced**. Questa sezione descrive come distribuire e attivare un agente su un'istanza Amazon EC2 nel tuo cloud privato virtuale (VPC) in. AWS

**Per creare un agente Amazon EC2**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent).

1. [Scegli un endpoint di servizio](choose-service-endpoint.md) con cui l'agente comunica. AWS

   In questa situazione, consigliamo di utilizzare un endpoint di servizio VPC.

1. Configura la tua rete per funzionare con gli [endpoint del servizio VPC](datasync-network.md#using-vpc-endpoint).

1. [Attiva l'agente.](activate-agent.md)

## Creazione di una posizione di trasferimento per l'altro spazio di archiviazione di oggetti nel cloud
<a name="creating-other-cloud-location-how-to"></a>

È possibile DataSync configurare l'utilizzo del cloud object storage come posizione di origine o destinazione.

**Prima di iniziare**  
Assicurati di sapere [come DataSync accede al tuo archivio di oggetti nel cloud](#other-cloud-access). È inoltre necessario un [DataSync agente](#other-cloud-creating-agent) in grado di connettersi al cloud object storage.

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Archiviazione oggetti**.

1. Per **Server**, inserisci l'[endpoint](#other-cloud-permissions) che DataSync puoi utilizzare per accedere al tuo archivio di oggetti nel cloud:
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**— `region.object.ncloudstorage.com` (la maggior parte delle regioni)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. Per **Bucket name**, inserisci il nome del bucket di archiviazione degli oggetti verso o da cui stai trasferendo i dati.

1. Per **Cartella**, inserisci il prefisso di un oggetto. DataSync trasferisce solo oggetti con questo prefisso.

1. Se il trasferimento richiede un agente, scegli **Usa agenti**, quindi scegli l' DataSync agente che può connettersi al tuo cloud object storage.

1. Espandere **Additional settings** (Impostazioni aggiuntive). Per il **protocollo Server**, scegli **HTTPS**. Per **Porta server**, scegli **443**.

1. Scorri verso il basso fino alla sezione **Autenticazione**. Assicurati che la casella di controllo **Richiede credenziali** sia selezionata, quindi fornisci DataSync le [credenziali di archiviazione](#other-cloud-credentials).
   + Per la **chiave di accesso**, inserisci l'ID per accedere al tuo archivio di oggetti nel cloud.
   + Per **Chiave segreta**, fornisci la chiave segreta per accedere al tuo archivio di oggetti nel cloud. Puoi inserire la chiave direttamente o specificare un Gestione dei segreti AWS segreto che contenga la chiave. Per ulteriori informazioni, vedere [Fornitura di credenziali per le posizioni di archiviazione](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Facoltativo) Immettete i valori nei campi **Chiave** e **Valore** per etichettare la posizione.

   I tag ti aiutano a gestire, filtrare e cercare AWS le tue risorse. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea posizione**.

## Fasi successive
<a name="other-cloud-location-next-steps"></a>

Dopo aver creato una DataSync posizione per l'archiviazione degli oggetti nel cloud, puoi continuare a configurare il trasferimento. Ecco alcuni passaggi successivi da considerare:

1. Se non l'hai già fatto, [crea un'altra posizione](transferring-aws-storage.md) in cui intendi trasferire i dati da o verso l'interno AWS.

1. Scopri come DataSync [gestisce i metadati e i file speciali](metadata-copied.md) per le posizioni di archiviazione degli oggetti.

1. Configura il modo in cui i tuoi dati vengono trasferiti. Ad esempio, forse desideri [trasferire solo un sottoinsieme dei tuoi dati](filtering.md).
**Importante**  
Assicurati di configurare la modalità di DataSync copia corretta dei tag degli oggetti. Per ulteriori informazioni, consulta Considerazioni sui [tag degli oggetti](#other-cloud-considerations-object-tags).

1. [Inizia il trasferimento](run-task.md). 

 

# Creazione di un'attività per il trasferimento dei dati
<a name="create-task-how-to"></a>

Un'*attività* descrive dove e come vengono AWS DataSync trasferiti i dati. Un'attività è composta da quanto segue:
+ [**Ubicazione di origine**](working-with-locations.md): il sistema o il servizio di storage da cui vengono DataSync trasferiti i dati.
+ [**Ubicazione di destinazione**](working-with-locations.md): il sistema o il servizio di storage a cui vengono DataSync trasferiti i dati.
+ [**Opzioni relative alle attività**](task-options.md): impostazioni come i file da trasferire, il modo in cui i dati vengono verificati, quando viene eseguita l'attività e altro ancora.
+ [**Esecuzioni di attività**](run-task.md): quando si esegue un'attività, si parla di *esecuzione di attività*.

## Creazione dell'attività
<a name="create-task-steps"></a>

Quando si crea un' DataSync attività, si specificano le posizioni di origine e di destinazione. Puoi anche personalizzare l'attività scegliendo quali file trasferire, come vengono gestiti i metadati, impostando una pianificazione e altro ancora.

Prima di creare l'attività, assicurati di comprendere [come funzionano DataSync i trasferimenti](how-datasync-transfer-works.md#transferring-files) e di rivedere le quote delle [attività](datasync-limits.md#task-hard-limits).

**Importante**  
Se hai intenzione di trasferire dati da o verso una sede Amazon S3, consulta in che [modo DataSync possono influire sui costi delle richieste S3](create-s3-location.md#create-s3-location-s3-requests) e sulla [pagina dei DataSync prezzi](https://aws.amazon.com/datasync/pricing/) prima di iniziare.

### Utilizzo della console DataSync
<a name="create-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Assicurati di trovarti in uno dei Regioni AWS luoghi in cui intendi trasferire i dati.

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Nella pagina **Configura la posizione di origine**, [crea](transferring-data-datasync.md) o scegli una posizione di origine, quindi scegli **Avanti**.

1. Nella pagina **Configura la posizione di destinazione**, [crea](transferring-data-datasync.md) o scegli una posizione di destinazione, quindi scegli **Avanti**.

1. (Consigliato) Nella pagina **Configura impostazioni**, assegna all'attività un nome facile da ricordare.

1. Nella pagina **Configura impostazioni**, scegli le opzioni relative all'attività o utilizza le impostazioni predefinite.

   Potrebbero interessarti alcune delle seguenti opzioni:
   + Specificate la [modalità di attività](choosing-task-mode.md) che desiderate utilizzare.
   + Specificate quali dati trasferire utilizzando un [manifesto](transferring-with-manifest.md) o [dei filtri](filtering.md).
   + Configura come [gestire i metadati dei file](configure-metadata.md) e [verificare l'integrità dei dati](configure-data-verification-options.md).
   + Monitora il trasferimento con [report sulle attività](task-reports.md) o [Amazon CloudWatch](monitor-datasync.md). Ti consigliamo di impostare un qualche tipo di monitoraggio per la tua attività.

   Al termine, selezionare **Next (Successivo)**.

1. Controlla la configurazione dell'attività, quindi scegli **Crea attività**.

Sei pronto per [iniziare la tua attività](run-task.md).

### Usando il AWS CLI
<a name="create-task-cli"></a>

Dopo aver [creato le posizioni di DataSync origine e di destinazione](transferring-data-datasync.md), puoi creare l'attività.

1. Nelle AWS CLI impostazioni, assicurati di utilizzare uno dei Regioni AWS luoghi in cui intendi trasferire i dati.

1. Copia il seguente `create-task` comando:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. Per`--source-location-arn`, specifica l'Amazon Resource Name (ARN) della tua posizione di origine.

1. Per`--destination-location-arn`, specifica l'ARN della località di destinazione.

   Se effettui trasferimenti tra Regioni AWS i nostri account, assicurati che l'ARN includa l'altra regione o l'ID dell'account.

1. (Consigliato) Per`--name`, specifica un nome facile da ricordare per l'attività.

1. Specificate altre opzioni di attività in base alle esigenze. Potrebbero interessarti alcune delle seguenti opzioni:
   + Specificate quali dati trasferire utilizzando un [manifesto](transferring-with-manifest.md) o [dei filtri](filtering.md).
   + Configura come [gestire i metadati dei file](configure-metadata.md) e [verificare l'integrità dei dati](configure-data-verification-options.md).
   + Monitora il trasferimento con [report sulle attività](task-reports.md) o [Amazon CloudWatch](monitor-datasync.md). Ti consigliamo di impostare un qualche tipo di monitoraggio per la tua attività.

   Per ulteriori opzioni, consulta [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Ecco un `create-task` comando di esempio che specifica diverse opzioni:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. Esegui il comando `create-task`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN dell'attività creata. Esempio:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

Sei pronto per [iniziare la tua attività.](run-task.md)

## Stati delle attività
<a name="understand-task-creation-statuses"></a>

Quando crei un' DataSync attività, puoi controllarne lo stato per vedere se è pronta per l'esecuzione.


| Stato della console | Stato dell'API | Description | 
| --- | --- | --- | 
| Disponibilità |  `AVAILABLE`  |  L'attività è pronta per iniziare il trasferimento dei dati.  | 
| In esecuzione |  `RUNNING`  | È in corso l'esecuzione di un'operazione. Per ulteriori informazioni, consulta [Stati di esecuzione delle attività](run-task.md#understand-task-execution-statuses). | 
|  Non disponibile  |  `UNAVAILABLE`  |  Un DataSync agente utilizzato dall'operazione è offline. Per ulteriori informazioni, consulta [Cosa devo fare se il mio agente è offline?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline)  | 
|  Accodati  |  `QUEUED`  |  È in corso l'esecuzione di un'altra operazione che utilizza lo stesso DataSync agente. Per ulteriori informazioni, consulta [Sapere quando l'attività è in coda](run-task.md#queue-task-execution).  | 

## Partizionamento di set di dati di grandi dimensioni con più attività
<a name="multiple-tasks-large-dataset"></a>

Se stai trasferendo un set di dati di grandi dimensioni, ad esempio la [migrazione](datasync-large-migration.md) di milioni di file o oggetti, ti consigliamo di utilizzare la modalità DataSync avanzata per il trasferimento, che può trasferire set di dati con un numero praticamente illimitato di file. Per set di dati molto grandi, con miliardi di file, dovresti prendere in considerazione la possibilità di partizionare il set di dati con più attività. DataSync Il partizionamento dei dati tra più attività (e possibilmente [agenti](do-i-need-datasync-agent.md#multiple-agents), a seconda delle ubicazioni) aiuta a ridurre il tempo DataSync necessario per preparare e trasferire i dati.

Considerate alcuni modi in cui potete partizionare un set di dati di grandi dimensioni tra diverse attività: DataSync
+ Crea attività che trasferiscono cartelle separate. Ad esempio, è possibile creare due attività destinate`/FolderB`, `/FolderA` rispettivamente, all'unità di archiviazione di origine.
+ Crea attività che trasferiscono sottoinsiemi di file, oggetti e cartelle utilizzando un [manifesto](transferring-with-manifest.md) o [filtri](filtering.md).

Tieni presente che questo approccio può aumentare I/O le operazioni sullo storage e influire sulla larghezza di banda della rete. Per ulteriori informazioni, consulta il blog su [Come accelerare i trasferimenti di dati con architetture DataSync scalabili orizzontalmente](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/).

## Segmentazione dei dati trasferiti con più attività
<a name="multiple-tasks-organize-transfer"></a>

Se trasferisci diversi set di dati verso la stessa destinazione, puoi creare più attività per segmentare i dati trasferiti.

Ad esempio, se stai trasferendo nello stesso bucket S3 denominato`MyBucket`, puoi creare prefissi diversi nel bucket che corrispondono a ciascuna attività. Questo approccio impedisce che i nomi dei file entrino in conflitto con i set di dati e consente di impostare autorizzazioni diverse per ogni prefisso. Ecco come puoi configurarlo:

1. Crea tre prefissi nella destinazione `MyBucket` denominata `task1` e`task2`: `task3`
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. Crea tre DataSync attività denominate `task1``task2`, e `task3` trasferiscile al prefisso corrispondente in. `MyBucket`

# Scelta di una modalità di operazione per il trasferimento dei dati
<a name="choosing-task-mode"></a>

L' AWS DataSync attività può essere eseguita in una delle seguenti modalità:
+ **Modalità avanzata**: trasferisci un numero virtualmente illimitato di file o oggetti con prestazioni superiori rispetto alla modalità Basic. Le attività in modalità avanzata ottimizzano il processo di trasferimento dei dati elencando, preparando, trasferendo e verificando i dati in parallelo. La modalità Enhanced è attualmente disponibile per trasferimenti tra sedi Amazon S3, trasferimenti tra Azure Blob e Amazon S3 senza agente, trasferimenti tra altri cloud e Amazon S3 senza agente e trasferimenti tra file server NFS o SMB e Amazon S3 utilizzando un agente in modalità avanzata.
+ **Modalità base**: trasferimento di file o oggetti tra AWS lo storage e tutte le altre posizioni supportate. DataSync Le attività in modalità base sono soggette a [quote](datasync-limits.md) sul numero di file, oggetti e directory in un set di dati. La modalità base prepara, trasferisce e verifica i dati in modo sequenziale, rendendola più lenta della modalità avanzata per la maggior parte dei carichi di lavoro.

## Comprensione delle differenze tra le modalità attività
<a name="task-mode-differences"></a>

Le seguenti informazioni possono aiutarti a determinare la modalità di attività da utilizzare. 


| Funzionalità | Comportamento della modalità migliorato | Comportamento in modalità base | 
| --- | --- | --- | 
| [Prestazioni](how-datasync-transfer-works.md#transferring-files) | DataSync elenca, prepara, trasferisce e verifica i dati in parallelo. Fornisce prestazioni superiori rispetto alla modalità Basic per la maggior parte dei carichi di lavoro (come il trasferimento di oggetti di grandi dimensioni) | DataSync prepara, trasferisce e verifica i dati in sequenza. Le prestazioni sono più lente della modalità Enhanced per la maggior parte dei carichi di lavoro | 
| Numero di elementi in un set di dati che è DataSync possibile utilizzare per esecuzione di attività |  Numero virtualmente illimitato di oggetti  |  [Si applicano le quote](datasync-limits.md#task-hard-limits)  | 
|  [Contatori e metriche per il](transfer-performance-counters.md) [trasferimento dei dati](monitor-datasync.md)  |  Più contatori e metriche rispetto alla modalità Basic, ad esempio il numero di oggetti DataSync trovati nella posizione di origine, il numero di oggetti preparati durante l'esecuzione di ogni attività e contatori di cartelle simili ai contatori di file e oggetti  |  Meno contatori e metriche rispetto alla modalità avanzata  | 
|  [Registrazione di log](configure-logging.md)  | Registri strutturati (formato JSON) | Registri non strutturati | 
|  [Posizioni supportate](working-with-locations.md)  | Attualmente per trasferimenti tra sedi Amazon S3, trasferimenti tra Azure Blob e Amazon S3 senza agente, trasferimenti tra altri cloud e Amazon S3 senza agente e trasferimenti tra file server NFS o SMB e Amazon S3 utilizzando un agente in modalità avanzata. |  Per i trasferimenti tra tutte le sedi che supportano DataSync   | 
|  [Opzioni di verifica dei dati](configure-data-verification-options.md)  | DataSync verifica solo i dati trasferiti | DataSync verifica tutti i dati per impostazione predefinita | 
| Costo | Per ulteriori informazioni, consulta la pagina dei [DataSync prezzi](https://aws.amazon.com/datasync/pricing) | Per ulteriori informazioni, consulta la pagina [DataSync dei prezzi](https://aws.amazon.com/datasync/pricing) | 
| Gestione degli errori per i tag degli oggetti non supportati | Per i trasferimenti di archiviazione cloud da o verso posizioni che non supportano il tagging degli oggetti, l'esecuzione dell'attività avrà esito negativo immediatamente se l'ObjectTagsopzione non è specificata o è impostata su. PRESERVE | Per i trasferimenti di archiviazione cloud da o verso posizioni che non supportano il tagging degli oggetti, l'esecuzione dell'attività verrà eseguita normalmente, ma segnalerà gli errori per oggetto per gli oggetti con tag se l'opzione non è specificata o è impostata su. ObjectTags PRESERVE | 

## Scelta di una modalità di attività
<a name="choosing-task-mode-how-to"></a>

Puoi scegliere la modalità Enhanced solo per i trasferimenti tra sedi Amazon S3, i trasferimenti tra Azure Blob e Amazon S3 senza un agente, i trasferimenti tra altri cloud e Amazon S3 senza agente e i trasferimenti tra file server NFS o SMB e Amazon S3 utilizzando un agente in modalità avanzata. Altrimenti, è necessario utilizzare la modalità Basic. Ad esempio, un trasferimento da una posizione [HDFS locale a una posizione](create-hdfs-location.md) S3 richiede la modalità Basic.

Le opzioni e le prestazioni delle attività potrebbero variare a seconda della modalità di attività scelta. Una volta creata l'attività, non è possibile modificarne la modalità.

**Autorizzazioni richieste**  
Per creare un'attività in modalità avanzata, il ruolo IAM DataSync con cui stai utilizzando deve disporre dell'`iam:CreateServiceLinkedRole`autorizzazione.  
Per le autorizzazioni DataSync utente, valuta la possibilità di utilizzare [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess). Si tratta di una politica AWS gestita che fornisce all'utente l'accesso completo DataSync e un accesso minimo alle sue dipendenze.

### Utilizzo della console DataSync
<a name="choosing-task-mode-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e di destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per la **modalità Attività**, scegli una delle seguenti opzioni:
   + **Avanzata**
   + **Di base**

   Per ulteriori informazioni, consulta [Comprensione delle differenze tra le modalità attività](#task-mode-differences).

1. Mentre sei ancora nella pagina **Configura impostazioni**, scegli altre opzioni di attività o utilizza le impostazioni predefinite.

   Potrebbero interessarti alcune delle seguenti opzioni:
   + Specificate quali dati trasferire utilizzando un [manifesto](transferring-with-manifest.md) o [dei filtri](filtering.md).
   + Configura come [gestire i metadati dei file](configure-metadata.md) e [verificare l'integrità dei dati](configure-data-verification-options.md).
   + Monitora il trasferimento con [report sulle attività](task-reports.md) o [Amazon CloudWatch Logs.](monitor-datasync.md)

   Al termine, selezionare **Next (Successivo)**.

1. Controlla la configurazione delle attività, quindi scegli **Crea attività**.

### Usando il AWS CLI
<a name="choosing-task-mode-cli"></a>

1. Nelle AWS CLI impostazioni, assicurati di utilizzare uno dei siti Regioni AWS in cui intendi trasferire i dati.

1. Copia il seguente `create-task` comando:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. Per`--source-location-arn`, specifica l'Amazon Resource Name (ARN) della tua posizione di origine.

1. Per`--destination-location-arn`, specifica l'ARN della località di destinazione.

   Se effettui trasferimenti tra Regioni AWS i nostri account, assicurati che l'ARN includa l'altra regione o l'ID dell'account.

1. Per`--task-mode`, specifica `ENHANCED` o. `BASIC`

   Per ulteriori informazioni, consulta [Comprensione delle differenze tra le modalità attività](#task-mode-differences).

1. Specificate altre opzioni di attività in base alle esigenze. Potrebbero interessarti alcune delle seguenti opzioni:
   + Specificate quali dati trasferire utilizzando un [manifesto](transferring-with-manifest.md) o [dei filtri](filtering.md).
   + Configura come [gestire i metadati dei file](configure-metadata.md) e [verificare l'integrità dei dati](configure-data-verification-options.md).
   + Monitora il trasferimento con [report sulle attività](task-reports.md) o [Amazon CloudWatch Logs.](monitor-datasync.md)

   Per altre opzioni, consulta [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Ecco un `create-task` comando di esempio che specifica la modalità avanzata e diverse altre opzioni:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. Esegui il comando `create-task`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN dell'attività creata. Esempio:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### Utilizzo dell'API DataSync
<a name="choosing-task-mode-api"></a>

È possibile specificare la modalità di DataSync operazione configurando il `TaskMode` parametro nell'[CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)operazione.

# Scelta dei trasferimenti AWS DataSync
<a name="task-options"></a>

AWS DataSync ti consente di scegliere cosa trasferire e come gestire i dati. Alcune opzioni includono:
+ Trasferimento di un elenco esatto di file o oggetti utilizzando un manifesto.
+ Inclusione o esclusione di determinati tipi di dati nel trasferimento utilizzando un filtro.
+ Per i trasferimenti ricorrenti, sposta solo i dati modificati dall'ultimo trasferimento
+ Sovrascrivere i dati nella posizione di destinazione in modo che corrispondano a quelli presenti nella posizione di origine.
+ Scelta dei metadati di file o oggetti da conservare tra le posizioni di archiviazione.

**Topics**
+ [Trasferimento di file o oggetti specifici utilizzando un manifesto](transferring-with-manifest.md)
+ [Trasferimento di file, oggetti e cartelle specifici tramite filtri](filtering.md)
+ [Comprendere come DataSync gestisce i metadati di file e oggetti](metadata-copied.md)
+ [Collegamenti e directory copiati da AWS DataSync](special-files-copied.md)
+ [Configurazione della modalità di gestione di file, oggetti e metadati](configure-metadata.md)

# Trasferimento di file o oggetti specifici utilizzando un manifesto
<a name="transferring-with-manifest"></a>

Un *manifesto* è un elenco di file o oggetti che si AWS DataSync desidera trasferire. Ad esempio, invece di dover trasferire tutto in un bucket S3 con potenzialmente milioni di oggetti, DataSync trasferisce solo gli oggetti elencati nel file manifest.

I manifesti sono simili ai [filtri](filtering.md) ma consentono di identificare esattamente quali file o oggetti trasferire anziché i dati che corrispondono a uno schema di filtro.

**Nota**  
La dimensione massima consentita per un file manifesto con attività in modalità avanzata è di 20 GB.

## Creazione del manifesto
<a name="transferring-with-manifest-create"></a>

Un manifesto è un file in formato CSV (valori separati da virgole) che elenca i file o gli oggetti che desideri trasferire nella posizione di origine. DataSync Se la tua fonte è un bucket S3, puoi anche includere la versione di un oggetto da trasferire.

**Topics**
+ [Linee guida](#transferring-with-manifest-guidelines)
+ [Manifesti di esempio](#manifest-examples)

### Linee guida
<a name="transferring-with-manifest-guidelines"></a>

Utilizza queste linee guida per aiutarti a creare un manifesto con cui funzionare. DataSync

------
#### [ Do ]
+ Specificate il percorso completo di ogni file o oggetto che desiderate trasferire.

  Non è possibile specificare solo una directory o una cartella con l'intenzione di trasferirne tutto il contenuto. In queste situazioni, prendi in considerazione l'utilizzo di un [filtro di inclusione](filtering.md) anziché di un manifesto.
+ Assicuratevi che il percorso di ogni file o oggetto sia relativo al percorso di montaggio, alla cartella, alla directory o al prefisso che avete specificato durante la configurazione della posizione di DataSync origine.

  Ad esempio, supponiamo che tu [configuri una posizione S3](create-s3-location.md#create-s3-location-how-to) con un prefisso denominato. `photos` Tale prefisso include un oggetto `my-picture.png` che desideri trasferire. Nel manifesto, dovete quindi solo specificare l'oggetto (`my-picture.png`) anziché il prefisso e l'oggetto (`photos/my-picture.png`).
+ Per specificare la versione dell'oggetto Amazon S3 IDs, separa il percorso e l'ID della versione dell'oggetto utilizzando una virgola.

  L'esempio seguente mostra una voce del manifesto con due campi. Il primo campo include un oggetto denominato`picture1.png`. Il secondo campo è separato da una virgola e include un ID di versione di`111111`:

  ```
  picture1.png,111111
  ```
+ Usa le virgolette nelle seguenti situazioni:
  + Quando un percorso contiene caratteri speciali (virgole, virgolette e terminazioni di riga):

    `"filename,with,commas.txt"`
  + Quando un percorso si estende su più righe:

    ```
    "this
    is
    a
    filename.txt"
    ```
  + Quando un percorso include virgolette:

    `filename""with""quotes.txt`

    Questo rappresenta un percorso denominato`filename"with"quotes.txt`.

  Queste regole di citazione si applicano anche ai campi ID di versione. In generale, se un campo manifesto contiene una virgoletta, è necessario evitarla inserendo un'altra citazione.
+ Separate ogni voce del file o dell'oggetto con una nuova riga.

  È possibile separare le righe utilizzando interruzioni di riga in stile Linux (line feed o carriage return) o Windows (carriage return seguito da line feed).
+ Salva il tuo manifesto (ad esempio, `my-manifest.csv` o`my-manifest.txt`).
+ Carica il manifesto in un bucket S3 a cui [DataSync puoi](#transferring-with-manifest-access) accedere.

  Questo bucket non deve necessariamente trovarsi nello stesso account Regione AWS o nello stesso account in cui stai utilizzando. DataSync

------
#### [ Don't ]
+ Specificate solo una directory o una cartella con l'intenzione di trasferirne tutto il contenuto.

  Un manifesto può includere solo i percorsi completi dei file o degli oggetti che si desidera trasferire. Se configurate la posizione di origine per utilizzare un percorso di montaggio, una cartella, una directory o un prefisso specifici, non è necessario includerlo nel manifesto.
+ Specificate un percorso del file o dell'oggetto che superi i 4.096 caratteri.
+ Specificare un percorso del file, un percorso dell'oggetto o un ID di versione dell'oggetto Amazon S3 che superi i 1.024 byte.
+ Specificate i percorsi duplicati di file o oggetti.
+ Includi un ID di versione dell'oggetto se la posizione di origine non è un bucket S3.
+ Includi più di due campi in una voce del manifesto.

  Una voce può includere solo un percorso di file o oggetto e (se applicabile) un ID di versione dell'oggetto Amazon S3.
+ Includi caratteri non conformi alla codifica UTF-8.
+ Includi spazi non intenzionali nei campi di immissione al di fuori delle virgolette.

------

### Manifesti di esempio
<a name="manifest-examples"></a>

Usa questi esempi per aiutarti a creare un manifesto che funzioni con DataSync. 

**Manifesto con percorsi completi di file o oggetti**  
L'esempio seguente mostra un manifesto con i percorsi completi dei file o degli oggetti da trasferire.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**Manifest con solo chiavi di oggetto**  
L'esempio seguente mostra un manifesto con oggetti da trasferire da una posizione di origine di Amazon S3. Poiché la [posizione è configurata](create-s3-location.md#create-s3-location-how-to) con il prefisso`photos`, vengono specificate solo le chiavi dell'oggetto.  

```
picture1.png
picture2.png
picture3.png
```

**Manifesto con i percorsi e la versione degli oggetti IDs**  
Le prime due voci del seguente esempio di manifesto includono versioni specifiche di oggetti Amazon S3 da trasferire.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**Manifesto con caratteri UTF-8**  
L'esempio seguente mostra un manifesto con file che includono caratteri UTF-8.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## Fornire DataSync l'accesso al manifesto
<a name="transferring-with-manifest-access"></a>

Hai bisogno di un ruolo AWS Identity and Access Management (IAM) che dia DataSync accesso al tuo manifest nel suo bucket S3. Questo ruolo deve includere le seguenti autorizzazioni:
+ `s3:GetObject`
+ `s3:GetObjectVersion`

Puoi generare questo ruolo automaticamente nella DataSync console o crearlo tu stesso.

**Nota**  
Se il tuo manifesto si trova in un altro Account AWS, devi creare questo ruolo manualmente.

### Creazione automatica del ruolo IAM
<a name="creating-manfiest-role-automatically"></a>

Quando crei o avvii un'attività di trasferimento nella console, DataSync puoi creare per te un ruolo IAM con le autorizzazioni `s3:GetObject` e `s3:GetObjectVersion` le autorizzazioni necessarie per accedere al tuo manifest.

**Autorizzazioni necessarie per creare automaticamente il ruolo**  
Per creare automaticamente il ruolo, assicurati che il ruolo che stai utilizzando per accedere alla DataSync console disponga delle seguenti autorizzazioni:  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### Creazione del ruolo IAM (stesso account)
<a name="creating-manfiest-role-automatically-same-account"></a>

Puoi creare manualmente il ruolo IAM che DataSync deve accedere al tuo manifest. Le seguenti istruzioni presuppongono che tu sia nello stesso posto in Account AWS cui lo usi DataSync e che si trovi il bucket S3 del tuo manifest. 

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, in **Gestione degli accessi**, scegli **Ruoli**, quindi scegli **Crea** ruolo.

1. Nella pagina **Seleziona entità affidabile**, per **Tipo di entità affidabile**, scegli **Servizio AWS**.

1. Per **Caso d'uso**, scegli **DataSync**nell'elenco a discesa e seleziona **DataSync**. Scegli **Next (Successivo)**.

1. Nella pagina **Add permissions** (Aggiungi autorizzazioni), scegli **Next** (Successivo). Dai un nome al tuo ruolo e scegli **Crea ruolo**.

1. Nella pagina **Ruoli**, cerca il ruolo che hai appena creato e scegline il nome.

1. Nella pagina dei dettagli del ruolo, scegli la scheda **Autorizzazioni**. Scegli **Aggiungi autorizzazioni**, quindi **Crea politica in linea**.

1. Scegli la scheda **JSON** e incolla la seguente politica di esempio nell'editor delle politiche:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Nella policy di esempio che hai appena incollato, sostituisci i seguenti valori con i tuoi:

   1. Sostituiscilo `amzn-s3-demo-bucket` con il nome del bucket S3 che ospita il tuo manifest.

   1. `my-manifest.csv`Sostituiscilo con il nome del file del tuo manifest.

1. Scegli **Next (Successivo)**. Dai un nome alla tua politica e scegli **Crea politica**.

1. (Consigliato) Per evitare il [problema del sostituto confuso tra diversi servizi](cross-service-confused-deputy-prevention.md), procedi come segue:

   1. Nella pagina dei dettagli del ruolo, scegli la scheda **Relazioni di fiducia**. Seleziona **Modifica policy di attendibilità**.

   1. Aggiorna la politica di fiducia utilizzando l'esempio seguente, che include le chiavi del contesto `aws:SourceArn` e della condizione `aws:SourceAccount` globale:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + Sostituisci ogni istanza `account-id` con l' Account AWS ID in cui stai utilizzando DataSync.
      + Sostituisci `region` Regione AWS con quello che stai utilizzando DataSync.

   1. Scegli **Aggiorna policy**.

Hai creato un ruolo IAM che consente di accedere DataSync al tuo manifest. Specificate questo ruolo al momento della [creazione](#manifest-creating-task) o dell'[avvio](#manifest-starting-task) dell'attività.

### Creazione del ruolo IAM (account diverso)
<a name="creating-manfiest-role-automatically-different-account"></a>

Se il tuo manifest si trova in un bucket S3 che appartiene a un altro Account AWS, devi creare manualmente il ruolo IAM da DataSync utilizzare per accedere al manifest. Quindi, nel luogo in Account AWS cui si trova il manifesto, devi includere il ruolo nella policy del bucket S3.

#### Creazione del ruolo
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, in **Gestione degli accessi**, scegli **Ruoli**, quindi scegli **Crea** ruolo.

1. Nella pagina **Seleziona entità affidabile**, per **Tipo di entità affidabile**, scegli **Servizio AWS**.

1. Per **Caso d'uso**, scegli **DataSync**nell'elenco a discesa e seleziona **DataSync**. Scegli **Next (Successivo)**.

1. Nella pagina **Add permissions** (Aggiungi autorizzazioni), scegli **Next** (Successivo). Dai un nome al tuo ruolo e scegli **Crea ruolo**.

1. Nella pagina **Ruoli**, cerca il ruolo che hai appena creato e scegline il nome.

1. Nella pagina dei dettagli del ruolo, scegli la scheda **Autorizzazioni**. Scegli **Aggiungi autorizzazioni**, quindi **Crea politica in linea**.

1. Scegli la scheda **JSON** e incolla la seguente politica di esempio nell'editor delle politiche:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Nella policy di esempio che hai appena incollato, sostituisci i seguenti valori con i tuoi:

   1. Sostituiscilo `amzn-s3-demo-bucket` con il nome del bucket S3 che ospita il tuo manifest.

   1. `my-manifest.csv`Sostituiscilo con il nome del file del tuo manifest.

1. Scegli **Next (Successivo)**. Dai un nome alla tua politica e scegli **Crea politica**.

1. (Consigliato) Per evitare il [problema del sostituto confuso tra diversi servizi](cross-service-confused-deputy-prevention.md), procedi come segue:

   1. Nella pagina dei dettagli del ruolo, scegli la scheda **Relazioni di fiducia**. Seleziona **Modifica policy di attendibilità**.

   1. Aggiorna la politica di fiducia utilizzando l'esempio seguente, che include le chiavi del contesto `aws:SourceArn` e della condizione `aws:SourceAccount` globale:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + Sostituisci ogni istanza di `account-id` con l' Account AWS ID in cui stai utilizzando DataSync.
      + Sostituisci `region` Regione AWS con quello che stai utilizzando DataSync.

   1. Scegli **Aggiorna policy**.

Hai creato il ruolo IAM che puoi includere nella tua policy sui bucket S3.

#### Aggiornamento della policy sui bucket S3 con il ruolo
<a name="creating-manfiest-role-automatically-different-account-2"></a>

Dopo aver creato il ruolo IAM, devi aggiungerlo alla policy del bucket S3 nell'altro Account AWS posto in cui si trova il tuo manifest.

1. Quindi Console di gestione AWS, passa all'account con il bucket S3 del tuo manifesto.

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella pagina dei dettagli del bucket, scegli la scheda **Autorizzazioni**.

1. In **Bucket policy**, scegli **Modifica** e procedi come segue per modificare la tua policy sui bucket S3:

   1. Aggiorna il contenuto dell'editor per includere le seguenti dichiarazioni politiche:

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. Sostituiscilo `account-id` con l' Account AWS ID dell'account DataSync con cui stai utilizzando.

   1. Sostituiscilo `datasync-role` con il ruolo IAM che hai appena creato che consente di accedere DataSync al tuo manifest.

   1. Sostituiscilo `amzn-s3-demo-bucket` con il nome del bucket S3 che ospita il tuo manifest nell'altro. Account AWS

1. Scegli **Save changes** (Salva modifiche).

Hai creato un ruolo IAM che consente di accedere DataSync al tuo manifest nell'altro account. Specificate questo ruolo al momento della [creazione](#manifest-creating-task) o dell'[avvio](#manifest-starting-task) dell'attività.

## Specificare il manifesto durante la creazione di un'attività
<a name="manifest-creating-task"></a>

È possibile specificare il manifesto che si desidera DataSync utilizzare durante la creazione di un'attività.

### Utilizzo della DataSync console
<a name="manifest-creating-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Attività**, quindi scegli **Crea attività**.

1. Configura le posizioni di origine e di destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. **Per i contenuti da scansionare**, scegli **File, oggetti e cartelle specifici**, quindi seleziona **Utilizzo di un manifesto**.

1. Per l'**URI S3**, scegli il tuo manifest ospitato su un bucket S3.

   In alternativa, puoi inserire l'URI (ad esempio,). `s3://bucket/prefix/my-manifest.csv`

1. Per la **versione dell'oggetto**, scegliete la versione del manifesto che desiderate DataSync utilizzare.

   Per impostazione predefinita, DataSync utilizza la versione più recente dell'oggetto.

1. Per il **ruolo di accesso Manifest**, effettuate una delle seguenti operazioni:
   + Scegli **Autogenerate** for per DataSync creare automaticamente un ruolo IAM con le autorizzazioni necessarie per accedere al tuo manifest nel suo bucket S3.
   + Scegli un ruolo IAM esistente che possa accedere al tuo manifest.

   Per ulteriori informazioni, consulta [Fornire DataSync l'accesso al manifesto](#transferring-with-manifest-access).

1. Configura tutte le altre impostazioni di attività di cui hai bisogno, quindi scegli **Avanti**.

1. Scegli **Create task (Crea attività)**.

### Usando il AWS CLI
<a name="manifest-creating-task-cli"></a>

1. Copia il seguente `create-task` comando:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Per il `--source-location-arn` parametro, specifica l'Amazon Resource Name (ARN) della posizione da cui stai trasferendo i dati.

1. Per il `--destination-location-arn` parametro, specifica l'ARN della posizione in cui stai trasferendo i dati.

1. Per il `--manifest-config` parametro, effettuate le seguenti operazioni:
   + `ManifestObjectPath`— Specificate la chiave dell'oggetto S3 del vostro manifesto.
   + `BucketAccessRoleArn`— Specificate il ruolo IAM che consente di accedere DataSync al vostro manifest nel suo bucket S3.

     Per ulteriori informazioni, consulta [Fornire DataSync l'accesso al manifesto](#transferring-with-manifest-access).
   + `S3BucketArn`— Specificate l'ARN del bucket S3 che ospita il vostro manifest.
   + `ManifestObjectVersionId`— Specificate la versione del manifesto che desiderate DataSync utilizzare.

     Per impostazione predefinita, DataSync utilizza la versione più recente dell'oggetto.

1. Esegui il `create-task` comando per creare l'attività.

Quando sei pronto, puoi [iniziare l'operazione di trasferimento](run-task.md).

## Specificare il manifesto all'avvio di un'attività
<a name="manifest-starting-task"></a>

È possibile specificare il manifesto che si desidera DataSync utilizzare durante l'esecuzione di un'attività.

### Utilizzo della DataSync console
<a name="manifest-starting-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Attività**, quindi scegli l'attività che desideri avviare.

1. Nella pagina di panoramica delle attività, scegli **Avvia**, quindi scegli **Inizia con opzioni di sovrascrittura**.

1. **Per i contenuti da scansionare**, scegli **File, oggetti e cartelle specifici**, quindi seleziona **Utilizzo di un manifesto**.

1. Per l'**URI S3**, scegli il tuo manifest ospitato su un bucket S3.

   In alternativa, puoi inserire l'URI (ad esempio,). `s3://bucket/prefix/my-manifest.csv`

1. Per la **versione dell'oggetto**, scegliete la versione del manifesto che desiderate DataSync utilizzare.

   Per impostazione predefinita, DataSync utilizza la versione più recente dell'oggetto.

1. Per il **ruolo di accesso Manifest**, effettuate una delle seguenti operazioni:
   + Scegli **Autogenerate** for per DataSync creare automaticamente un ruolo IAM per accedere al tuo manifest nel suo bucket S3.
   + Scegli un ruolo IAM esistente che possa accedere al tuo manifest.

   Per ulteriori informazioni, consulta [Fornire DataSync l'accesso al manifesto](#transferring-with-manifest-access).

1. Scegli **Inizia** per iniziare il trasferimento.

### Usando il AWS CLI
<a name="manifest-starting-task-cli"></a>

1. Copia il seguente `start-task-execution` comando:

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Per il `--task-arn` parametro, specifica l'Amazon Resource Name (ARN) dell'attività che stai avviando.

1. Per il `--manifest-config` parametro, procedi come segue:
   + `ManifestObjectPath`— Specificate la chiave dell'oggetto S3 del vostro manifesto.
   + `BucketAccessRoleArn`— Specificate il ruolo IAM che consente di accedere DataSync al vostro manifest nel suo bucket S3.

     Per ulteriori informazioni, consulta [Fornire DataSync l'accesso al manifesto](#transferring-with-manifest-access).
   + `S3BucketArn`— Specificate l'ARN del bucket S3 che ospita il vostro manifest.
   + `ManifestObjectVersionId`— Specificate la versione del manifesto che desiderate DataSync utilizzare.

     Per impostazione predefinita, DataSync utilizza la versione più recente dell'oggetto.

1. Esegui il `start-task-execution` comando per iniziare il trasferimento.

## Limitazioni
<a name="transferring-with-manifest-limitations"></a>
+ Non puoi usare un manifesto insieme ai [filtri](filtering.md).
+ Non è possibile specificare solo una directory o una cartella con l'intenzione di trasferirne tutto il contenuto. In queste situazioni, prendi in considerazione l'utilizzo di un [filtro di inclusione](filtering.md) anziché di un manifesto.
+ Non puoi utilizzare l'opzione **Keep deleted files** task (`PreserveDeletedFiles`nell'[API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)) per [mantenere file o oggetti nella destinazione che non si trovano nell'origine](configure-metadata.md). DataSync trasferisce solo ciò che è elencato nel manifesto e non elimina nulla nella destinazione.

## Risoluzione dei problemi
<a name="manifests-troubleshooting"></a>

**Errori relativi a `HeadObject` o `GetObjectTagging`**  
Se stai trasferendo oggetti con una versione specifica IDs da un bucket S3, potresti visualizzare un errore relativo a o. `HeadObject` `GetObjectTagging` Ad esempio, ecco un errore relativo a: `GetObjectTagging`

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Se riscontri uno di questi errori, verifica che il ruolo IAM DataSync utilizzato per accedere alla posizione di origine di S3 disponga delle seguenti autorizzazioni:
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Se devi aggiornare il tuo ruolo con queste autorizzazioni, consulta. [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](create-s3-location.md#create-role-manually)

**Errore: `ManifestFileDoesNotExist`**  
Questo errore indica che un file all'interno del manifesto non è stato trovato all'origine. Consulta le [linee guida](#transferring-with-manifest-guidelines) per la creazione di un manifesto.

## Fasi successive
<a name="manifests-next-steps"></a>

Se non l'hai già fatto, [inizia la tua attività](run-task.md). Altrimenti, [monitora l'attività della tua attività](monitoring-overview.md).

# Trasferimento di file, oggetti e cartelle specifici tramite filtri
<a name="filtering"></a>

AWS DataSync consente di applicare filtri per includere o escludere dati dalla posizione di origine in un trasferimento. Ad esempio, se non desideri trasferire file temporanei che terminano con`.tmp`, puoi creare un filtro di esclusione in modo che questi file non raggiungano la posizione di destinazione.

È possibile utilizzare una combinazione di filtri di esclusione e inclusione nella stessa operazione di trasferimento. Se modifichi i filtri di un'attività, tali modifiche vengono applicate alla successiva esecuzione dell'attività.

## Filtraggio di termini, definizioni e sintassi
<a name="filter-overview"></a>

Acquisisci familiarità con i concetti relativi al filtraggio: DataSync 

**Filtro **  
L'intera stringa che costituisce un particolare filtro (ad esempio, `*.tmp` `|` `*.temp` o). `/folderA|/folderB`  
I filtri sono costituiti da motivi delimitati da una barra verticale (\$1). Non è necessario un delimitatore quando si aggiungono motivi nella DataSync console perché ogni motivo viene aggiunto separatamente.  
I filtri distinguono tra maiuscole e minuscole Ad esempio, il filtro `/folderA` non corrisponderà`/FolderA`.

**Pattern**  
Un modello all'interno di un filtro. Ad esempio, `*.tmp` è un pattern che fa parte del `*.tmp` `|` `*.temp` filtro. Se il filtro ha più pattern, è possibile delimitare ogni pattern utilizzando una pipe (\$1).

**Cartelle**  
+ Tutti i filtri sono relativi al percorso della posizione di origine. Ad esempio, supponete di specificare `/my_source/` come percorso di origine quando create la posizione e l'attività di origine e di specificare il filtro di inclusione. `/transfer_this/` In questo caso, DataSync trasferisce solo la directory `/my_source/transfer_this/` e il relativo contenuto.
+ Per specificare una cartella direttamente nella posizione di origine, includi una barra (/) davanti al nome della cartella. Nell'esempio precedente, il modello utilizza `/transfer_this`, non `transfer_this`.
+ DataSync interpreta i seguenti modelli allo stesso modo e corrisponde sia alla cartella che al suo contenuto.

  `/dir` 

  `/dir/`
+ Quando trasferisci dati da o verso un bucket Amazon S3 DataSync, considera `/` il carattere nella chiave oggetto come l'equivalente di una cartella su un file system.

**Caratteri speciali**  
Di seguito sono riportati i caratteri speciali per l'uso con i filtri.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/filtering.html)

## Filtri di esempio
<a name="sample-filters"></a>

I seguenti esempi mostrano i filtri più comuni con cui è possibile utilizzare DataSync.

**Nota**  
Esistono dei limiti al numero di caratteri che è possibile utilizzare in un filtro. Per ulteriori informazioni, consulta [DataSync quote](datasync-limits.md#task-hard-limits).

**Esclusione di alcune cartelle dalla posizione di origine**  
In alcuni casi, potresti voler escludere le cartelle nella posizione di origine per non copiarle nella posizione di destinazione. Ad esempio, se hai work-in-progress cartelle temporanee, puoi usare qualcosa come il seguente filtro:

`*/.temp`

Per escludere cartelle con contenuti simili (come `/reports2021` e`/reports2022)`), puoi utilizzare un filtro di esclusione come il seguente:

`/reports*`

Per escludere cartelle a qualsiasi livello nella gerarchia dei file, puoi utilizzare un filtro di esclusione come il seguente. 

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

Per escludere le cartelle al livello superiore della posizione di origine, puoi utilizzare un filtro di esclusione come il seguente. 

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**Includi un sottoinsieme di cartelle nella posizione di origine**  
In alcuni casi, la posizione di origine potrebbe essere una condivisione di grandi dimensioni ed è necessario trasferire un sottoinsieme delle cartelle nella cartella principale. Per includere cartelle specifiche, avvia un'esecuzione dell'attività con un filtro di inclusione come il seguente.

`/folder-to-transfer/*`

**Escludere tipi di file specifici**  
Per escludere alcuni tipi di file dal trasferimento, puoi creare un'esecuzione dell'attività con un filtro di esclusione come `*.temp`.

**Trasferisci singoli file da te specificati**  
Per trasferire un elenco di singoli file, avviate l'esecuzione di un'attività con un filtro di inclusione come il seguente: "`/folder/subfolder/file1.txt`\$1 `/folder/subfolder/file2.txt` \$1`/folder/subfolder/file2.txt`»

## Creazione di filtri di inclusione
<a name="include-filters"></a>

I filtri di inclusione definiscono i file, gli oggetti e le cartelle che si desidera DataSync trasferire. È possibile configurare i filtri di inclusione quando si crea, si modifica o si avvia un'attività.

DataSync esegue la scansione e trasferisce solo i file e le cartelle che corrispondono ai filtri di inclusione. Ad esempio, per includere un sottoinsieme delle cartelle di origine, è possibile specificare `/important_folder_1` \$1. `/important_folder_2` 

**Nota**  
I filtri di inclusione supportano il carattere jolly (\$1) solo come carattere più a destra in uno schema. Ad esempio, `/documents*` \$1 `/code*` è supportato, ma non `*.txt` lo è.

### Utilizzo della DataSync console
<a name="include-filters-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Attività**, quindi scegli **Crea attività**.

1. Configura le posizioni di origine e di destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. **Per i contenuti da scansionare**, scegli **File, oggetti e cartelle specifici**, quindi seleziona **Utilizzo dei filtri**.

1. Per **Include**, inserisci il filtro (ad esempio, `/important_folders` per includere una directory importante), quindi scegli **Aggiungi modello**.

1. Aggiungi altri filtri di inclusione, se necessario. 

### Usando il AWS CLI
<a name="include-filters-cli"></a>

Quando si utilizza il AWS CLI, è necessario utilizzare le virgolette singole (`'`) attorno al filtro e un \$1 (pipe) come delimitatore se si dispone di più di un filtro.

L'esempio seguente specifica due filtri di inclusione `/important_folder1` e `/important_folder2` quando si esegue il comando. `create-task`

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## Creazione di filtri di esclusione
<a name="exclude-filters"></a>

I filtri di esclusione definiscono i file, gli oggetti e le cartelle nella posizione di origine che non desideri DataSync trasferire. Puoi configurare questi filtri quando crei, modifichi o inizi un'attività.

**Topics**
+ [Dati esclusi per impostazione predefinita](#directories-ignored-during-transfers)

### Dati esclusi per impostazione predefinita
<a name="directories-ignored-during-transfers"></a>

DataSync esclude automaticamente alcuni dati dal trasferimento:
+ `.snapshot`— DataSync ignora qualsiasi percorso che termina con`.snapshot`, che in genere viene utilizzato per le point-in-time istantanee dei file o delle directory di un sistema di storage.
+ `/.aws-datasync`e `/.awssync` — DataSync crea queste cartelle nella posizione dell'utente per facilitare il trasferimento.
+ `/.zfs`— Potresti vedere questa cartella con le sedi di Amazon FSx for OpenZFS.

### Utilizzo della console DataSync
<a name="adding-exclude-filters"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, scegli **Attività**, quindi scegli **Crea attività**.

1. Configura le posizioni di origine e di destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per **Escludi**, inserisci il filtro (ad esempio, `*/temp` per escludere le cartelle temporanee), quindi scegli **Aggiungi modello**.

1. Aggiungi altri filtri di esclusione, se necessario. 

1. Se necessario, aggiungi [filtri di inclusione](#include-filters).

### Usando il AWS CLI
<a name="adding-exclude-filters-cli"></a>

Quando si utilizza il AWS CLI, è necessario utilizzare le virgolette singole (`'`) attorno al filtro e un \$1 (pipe) come delimitatore se si dispone di più di un filtro. 

L'esempio seguente specifica due filtri di esclusione `*/temp` e `*/tmp` quando esegue il comando. `create-task`

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# Comprendere come DataSync gestisce i metadati di file e oggetti
<a name="metadata-copied"></a>

AWS DataSync può conservare i metadati del file o dell'oggetto durante un trasferimento di dati. Il modo in cui i metadati vengono copiati dipende dalle località di trasferimento e dal fatto che tali sedi utilizzino tipi di metadati simili.

## Metadati a livello di sistema
<a name="metadata-copied-system-level"></a>

In generale, DataSync non copia i metadati a livello di sistema. Ad esempio, durante il trasferimento da un file server SMB, le autorizzazioni configurate a livello di file system non vengono copiate nel sistema di storage di destinazione.

Esistono delle eccezioni. Durante il trasferimento tra Amazon S3 e altri sistemi di storage di oggetti DataSync , copia [alcuni metadati di oggetti definiti dal sistema](#metadata-copied-between-object-s3).

## Metadati copiati nei trasferimenti Amazon S3
<a name="metadata-copied-amazon-s3"></a>

Le tabelle seguenti descrivono quali metadati DataSync possono essere copiati quando un trasferimento coinvolge una posizione Amazon S3.

**Topics**
+ [Per Amazon S3](#metadata-copied-to-s3)
+ [Tra Amazon S3 e altri sistemi di storage di oggetti](#metadata-copied-between-object-s3)
+ [Tra Amazon S3 e HDFS](#metadata-copied-between-hdfs-s3)

### Per Amazon S3
<a name="metadata-copied-to-s3"></a>


| Quando si esegue la copia da una di queste posizioni | Verso questa posizione | DataSync può copiare | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  Di seguito sono riportati i metadati utente di Amazon S3: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html) I metadati dei file archiviati nei metadati utente di Amazon S3 sono interoperabili con le condivisioni NFS sui gateway di file utilizzando. Gateway di archiviazione AWS Un gateway di file consente l'accesso a bassa latenza dalle reti locali ai dati copiati su Amazon S3 da. DataSync Questi metadati sono interoperabili anche con for Lustre. FSx  Quando DataSync copia gli oggetti che contengono questi metadati su un server NFS, i metadati del file vengono ripristinati. Il ripristino dei metadati richiede la concessione di autorizzazioni elevate al server NFS. Per ulteriori informazioni, consulta [Configurazione dei AWS DataSync trasferimenti con un file server NFS](create-nfs-location.md).  | 

### Tra Amazon S3 e altri sistemi di storage di oggetti
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)

### Tra Amazon S3 e HDFS
<a name="metadata-copied-between-hdfs-s3"></a>


| Quando si esegue la copia tra queste posizioni | DataSync può copiare | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  | Di seguito sono riportati i metadati utente di Amazon S3:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)HDFS utilizza stringhe per archiviare la proprietà di utenti e gruppi di file e cartelle, anziché identificatori numerici, come e. UIDs GIDs | 

## Metadati copiati nei trasferimenti NFS
<a name="metadata-copied-nfs"></a>

La tabella seguente descrive quali metadati DataSync possono essere copiati tra posizioni che utilizzano Network File System (NFS).


| Quando si esegue la copia tra queste posizioni | DataSync può copiare | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  | 

## Metadati copiati nei trasferimenti SMB
<a name="metadata-copied-smb"></a>

La tabella seguente descrive quali metadati DataSync possono essere copiati tra posizioni che utilizzano Server Message Block (SMB).


| Quando si esegue la copia tra queste posizioni | DataSync può copiare | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  | 

## Metadati copiati in altri scenari di trasferimento
<a name="metadata-copied-different"></a>

DataSync gestisce i metadati nei seguenti modi durante la copia tra questi sistemi di storage (la maggior parte dei quali ha strutture di metadati diverse).

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)

## Capire quando e come DataSync applicare i metadati POSIX predefiniti
<a name="POSIX-metadata"></a>

DataSync applica i metadati POSIX predefiniti nelle seguenti situazioni:
+ Quando le posizioni di origine e di destinazione del trasferimento non hanno strutture di metadati simili
+ Quando mancano i metadati nella posizione di origine

La tabella seguente descrive come DataSync applicare i metadati POSIX predefiniti durante questi tipi di trasferimenti:


| Origine | Destinazione | Autorizzazioni di file | Autorizzazioni per le cartelle | UID | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 Nei casi in cui gli oggetti non dispongono di metadati precedentemente applicati da. DataSync

# Collegamenti e directory copiati da AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync gestisce i link fisici, i link simbolici e le directory in modo diverso a seconda delle posizioni di archiviazione coinvolte nel trasferimento.

## Collegamenti fissi
<a name="special-files-copied-hard-links"></a>

Ecco come DataSync gestisce gli hard link in alcuni scenari di trasferimento comuni:
+ **Durante il trasferimento tra un file server NFS, FSx per Lustre, per OpenZFS, FSx FSx per ONTAP (utilizzando NFS) e Amazon EFS,** gli hard link vengono preservati.
+ **Durante il trasferimento su Amazon S3, ogni file sottostante a** cui fa riferimento un collegamento fisico viene trasferito una sola volta. Durante i trasferimenti incrementali, vengono creati oggetti separati nel bucket S3. Se un collegamento fisico rimane invariato in Amazon S3, viene ripristinato correttamente quando viene trasferito su un file server NFS FSx , per Lustre, per OpenZFS FSx FSx , per ONTAP (usando NFS) o Amazon EFS.
+ **Durante il trasferimento suMicrosoft Azure Blob Storage, ogni file sottostante a cui** fa riferimento un collegamento fisico viene trasferito una sola volta. Durante i trasferimenti incrementali, vengono creati oggetti separati nell'archivio BLOB se sono presenti nuovi riferimenti nell'origine. Durante il trasferimento daAzure Blob Storage, DataSync trasferisce i collegamenti fisici come se fossero singoli file.
+ **Durante il trasferimento tra un file server SMB, FSx per Windows File Server e FSx per ONTAP (utilizzando SMB)**, gli hard link non sono supportati. Se vengono DataSync rilevati collegamenti fisici in queste situazioni, l'operazione di trasferimento viene completata con un errore. Per saperne di più, controlla i tuoi registri. CloudWatch 
+ **Durante il trasferimento su HDFS, gli** hard link non sono supportati. CloudWatch i registri mostrano che questi collegamenti sono stati ignorati.

## Link simbolici
<a name="special-files-copied-symbolic-links"></a>

Ecco come DataSync gestisce i link simbolici in alcuni scenari di trasferimento comuni:
+ **Durante il trasferimento tra un file server NFS, FSx per Lustre, per OpenZFS, FSx FSx per ONTAP (utilizzando NFS) e Amazon EFS,** i collegamenti simbolici vengono conservati.
+ **Durante il trasferimento su Amazon** S3, il percorso di destinazione del collegamento viene archiviato nell'oggetto Amazon S3. Il collegamento viene ripristinato correttamente quando viene trasferito su un file server NFS, FSx per Lustre, FSx per OpenZFS, FSx per ONTAP o Amazon EFS.
+ **Durante il trasferimento a, i link simbolici non** sono Azure Blob Storage supportati. CloudWatch i registri mostrano che questi collegamenti sono stati ignorati.
+ **Durante il trasferimento tra un file server SMB, FSx per Windows File Server e FSx per ONTAP (utilizzando SMB),** i collegamenti simbolici non sono supportati. DataSync non trasferisce un collegamento simbolico di per sé, ma un file a cui fa riferimento il collegamento simbolico. Per riconoscere i file duplicati e deduplicarli con collegamenti simbolici, è necessario configurare la deduplicazione sul file system di destinazione.
+ **Durante il trasferimento su HDFS, i link simbolici non** sono supportati. CloudWatch i registri mostrano che questi collegamenti sono stati ignorati.

## Directory
<a name="special-files-copied-directories"></a>

In generale, DataSync conserva le directory durante il trasferimento tra sistemi di storage. Questo non è il caso nelle seguenti situazioni:
+ **Durante il trasferimento su Amazon** S3, le directory sono rappresentate come oggetti vuoti con prefissi e terminano con una barra (). `/`
+ **Quando si esegue un trasferimento Azure Blob Storage senza uno spazio dei nomi gerarchico**, le directory non esistono. Quella che sembra una directory è solo una parte del nome di un oggetto.

# Configurazione della modalità di gestione di file, oggetti e metadati
<a name="configure-metadata"></a>

È possibile configurare la modalità di AWS DataSync gestione dei file, degli oggetti e dei metadati associati durante il trasferimento tra posizioni.

Ad esempio, con i trasferimenti ricorrenti, potresti voler sovrascrivere i file nella destinazione modificando l'origine per mantenere sincronizzate le posizioni. È possibile copiare proprietà come le autorizzazioni POSIX per file e cartelle, i tag associati agli oggetti e le liste di controllo degli accessi (). ACLs

## Opzioni della modalità di trasferimento
<a name="task-option-transfer-mode"></a>

È possibile configurare se DataSync trasferire solo i dati (inclusi i metadati) modificati dopo una copia iniziale o tutti i dati ogni volta che si esegue l'attività. Se hai intenzione di effettuare trasferimenti ricorrenti, potresti voler trasferire solo le modifiche apportate rispetto alla precedente esecuzione dell'attività.


| Opzione nella console | Opzione nell'API | Description | 
| --- | --- | --- | 
|  **Trasferisci solo i dati che sono stati modificati**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)impostato su `CHANGED`  | Dopo il trasferimento completo iniziale, DataSync copia solo i dati e i metadati che differiscono tra la posizione di origine e quella di destinazione. | 
|  **Trasferisci tutti i dati**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)impostato su `ALL`  |  DataSync copia tutto ciò che si trova nell'origine nella destinazione senza confrontare le differenze tra le posizioni.   | 

## Opzioni di gestione di file e oggetti
<a name="task-option-file-object-handling"></a>

È possibile controllare alcuni aspetti del DataSync trattamento dei file o degli oggetti nella posizione di destinazione. Ad esempio, DataSync puoi eliminare file nella destinazione che non si trovano nell'origine.


| Opzione nella console | Opzione nell'API | Description | 
| --- | --- | --- | 
|  **Conserva i file eliminati**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  Speciifica se DataSync mantiene file o oggetti nella posizione di destinazione che non esistono nell'origine. Se configuri la tua attività per eliminare oggetti dal tuo bucket Amazon S3, potresti incorrere in costi minimi per la durata dello storage per determinate classi di storage. Per informazioni dettagliate, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).  [Non puoi configurare l'attività per eliminare i dati nella destinazione e trasferire anche tutti i dati.](#task-option-transfer-mode) Quando trasferisci tutti i dati, DataSync non scansiona la posizione di destinazione e non sa cosa eliminare.   | 
|  **Sovrascrivi file**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  Speciifica se DataSync modifica i dati nella posizione di destinazione quando i dati o i metadati di origine sono cambiati. Se non configuri l'attività per sovrascrivere i dati, i dati di destinazione non vengono sovrascritti anche se i dati di origine sono diversi. Se l'attività sovrascrive gli oggetti, potrebbero essere applicati costi aggiuntivi per determinate classi di archiviazione (ad esempio, per il recupero o l'eliminazione anticipata). Per informazioni dettagliate, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).  | 

## Opzioni di gestione dei metadati
<a name="task-option-metadata-handling"></a>

DataSync può conservare i metadati di file e oggetti durante un trasferimento. I metadati che è DataSync possibile conservare dipendono dai sistemi di storage coinvolti e dal fatto che tali sistemi utilizzino una struttura di metadati simile.

Prima di configurare l'attività, assicuratevi di comprendere come [vengono DataSync gestiti i metadati](metadata-copied.md) e [i file speciali](special-files-copied.md) durante il trasferimento tra le posizioni di origine e di destinazione.

**Importante**  
DataSync supporta i trasferimenti da e verso determinati sistemi di archiviazione cloud di terze parti, come Google Cloud Storage e IBM Cloud Object Storage, che gestiscono i metadati di sistema in un modo che non è completamente compatibile con S3. Per questi trasferimenti, DataSync tenta di copiare attributi di metadati come`ContentType`, `ContentEncoding``ContentLanguage`, e `CacheControl` con la massima diligenza possibile. Se il sistema di storage di destinazione non applica questi attributi, questi verranno ignorati durante la verifica delle attività.


| Opzione nella console | Opzione nell'API | Description | 
| --- | --- | --- | 
|  **Proprietà della copia**  | [Gid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) [e Uid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Uid) |  Speciifica se DataSync copia la proprietà di file e cartelle POSIX, ad esempio l'ID di gruppo dei proprietari del file e l'ID utente del proprietario del file.  | 
|  **Autorizzazioni di copia**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  Speciifica se DataSync copia le autorizzazioni POSIX per file e cartelle dall'origine alla destinazione.  | 
| Copia i timestamp | [Atime e [Mtime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime)](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Mtime) |  Speciifica se DataSync copia i metadati del timestamp dall'origine alla destinazione. Richiesto quando è necessario eseguire un'attività più di una volta.  | 
| Copia i tag degli oggetti | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  Speciifica se DataSync conserva i tag associati agli oggetti durante il trasferimento tra sistemi di archiviazione degli oggetti.  | 
| Proprietà della copia e DACLs SACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)impostato su OWNER\$1DACL\$1SACL |  DataSync copia quanto segue: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/configure-metadata.html)  | 
| Proprietà della copia e DACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)impostato su OWNER\$1DACL |  DataSync copia quanto segue: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/configure-metadata.html) DataSync non copierà SACLs quando si sceglie questa opzione.  | 
| Non copiate la proprietà o ACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)impostato su NONE |  DataSync non copia alcun dato sulla proprietà o sulle autorizzazioni. Gli oggetti che DataSync scrivono nella posizione di destinazione sono di proprietà dell'utente le cui credenziali sono state fornite per accedere DataSync alla destinazione. Le autorizzazioni degli oggetti di destinazione sono determinate in base alle autorizzazioni configurate sul server di destinazione.  | 

## Configurazione delle opzioni di gestione di file, oggetti e metadati
<a name="configure-file-metadata-options"></a>

È possibile configurare la modalità di DataSync gestione di file, oggetti e metadati durante la creazione, la modifica o l'avvio dell'attività di trasferimento.

### Utilizzo della console DataSync
<a name="configure-metadata-console"></a>

Le seguenti istruzioni descrivono come configurare le opzioni di gestione di file, oggetti e metadati durante la creazione di un'attività.

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per la **modalità di trasferimento**, scegli una delle seguenti opzioni:
   + **Trasferisci solo i dati che sono stati modificati**
   + **Trasferisci tutti i dati**

   Per ulteriori informazioni su queste opzioni, consulta [Opzioni della modalità di trasferimento](#task-option-transfer-mode).

1. Seleziona **Mantieni file eliminati** se desideri DataSync mantenere nella posizione di destinazione file o oggetti che non esistono nell'origine.

   Se non scegli questa opzione e la tua attività elimina oggetti dal tuo bucket Amazon S3, potresti incorrere in costi minimi per la durata dello storage per determinate classi di storage. Per informazioni dettagliate, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).
**avvertimento**  
**Non puoi deselezionare questa opzione e abilitare Trasferisci tutti i dati.** Quando trasferisci tutti i dati, DataSync non scansiona la posizione di destinazione e non sa cosa eliminare.

1. Seleziona **Sovrascrivi file** se desideri DataSync modificare i dati nella posizione di destinazione quando i dati o i metadati di origine sono cambiati.

   Se l'attività sovrascrive gli oggetti, potrebbero essere applicati costi aggiuntivi per determinate classi di archiviazione (ad esempio, per il recupero o l'eliminazione anticipata). Per informazioni dettagliate, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).

   Se non scegli questa opzione, i dati di destinazione non vengono sovrascritti anche se i dati di origine sono diversi.

1. In **Opzioni di trasferimento**, seleziona come desideri gestire i DataSync metadati. Per ulteriori informazioni su queste opzioni, consulta [Opzioni di gestione dei metadati](#task-option-metadata-handling).
**Importante**  
Le opzioni visualizzate nella console dipendono dalle posizioni di origine e destinazione dell'attività. Potrebbe essere necessario espandere **Impostazioni aggiuntive** per visualizzare alcune di queste opzioni.
   + **Proprietà della copia**
   + **Autorizzazioni di copia**
   + **Copia i timestamp**
   + **Copia i tag degli oggetti**
   + **Proprietà delle copie e DACLs SACLs**
   + **Proprietà della copia e DACLs**
   + **Non copiare la proprietà o ACLs**

### Utilizzo dell' DataSync API
<a name="configure-file-metadata-options-api"></a>

È possibile configurare le opzioni di gestione di file, oggetti e metadati utilizzando il `Options` parametro con una delle seguenti operazioni:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# Configurazione della modalità di AWS DataSync verifica dell'integrità dei dati
<a name="configure-data-verification-options"></a>

Durante un trasferimento, AWS DataSync utilizza la verifica tramite checksum per verificare l'integrità dei dati copiati tra le sedi. Puoi anche DataSync configurare l'esecuzione di ulteriori verifiche al termine del trasferimento.

## Opzioni di verifica dei dati
<a name="data-verification-options"></a>

Utilizza le seguenti informazioni per decidere se e come DataSync eseguire questi controlli aggiuntivi.


| Opzione Console | Opzione API | Description | 
| --- | --- | --- | 
|  **Verifica solo i dati trasferiti** (consigliato)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)impostato su `ONLY_FILES_TRANSFERRED`  |  DataSync calcola il checksum dei dati trasferiti (inclusi i metadati) nella posizione di origine. Al termine del trasferimento, DataSync confronta questo checksum con il checksum calcolato sugli stessi dati nella destinazione. Consigliamo questa opzione per il trasferimento alle classi di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Per ulteriori informazioni, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).  | 
|  **Verifica tutti i dati**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)impostato su `POINT_IN_TIME_CONSISTENT`  |  Al termine del trasferimento, DataSync controlla l'intera origine e la destinazione per verificare che entrambe le sedi siano completamente sincronizzate.  Non supportato quando l'attività utilizza la [modalità Avanzata.](choosing-task-mode.md)  Se si utilizza un [manifesto](transferring-with-manifest.md), analizza e verifica DataSync solo ciò che è elencato nel manifesto. Non puoi utilizzare questa opzione per il trasferimento a classi di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Per ulteriori informazioni, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](create-s3-location.md#using-storage-classes).   | 
| Non verificare i dati dopo il trasferimento |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)impostato su `NONE`  | DataSync esegue controlli di integrità dei dati solo durante il trasferimento. A differenza di altre opzioni, non è prevista alcuna verifica aggiuntiva al termine del trasferimento. | 

## Configurazione della verifica dei dati
<a name="configure-data-verification"></a>

È possibile configurare le opzioni di verifica dei dati quando si crea un'attività, si aggiorna un'attività o si avvia l'esecuzione di un'attività.

### Utilizzo della DataSync console
<a name="configure-data-verification-options-console"></a>

Le seguenti istruzioni descrivono come configurare le opzioni di verifica dei dati durante la creazione di un'attività.

**Per configurare la verifica dei dati utilizzando la console**

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per **la verifica**, scegli una delle seguenti opzioni:
   + **Verifica solo i dati trasferiti** (scelta consigliata)
   + **Verifica tutti i dati**
   + **Non verificare i dati dopo il trasferimento**

### Utilizzando l' DataSync API
<a name="configure-data-verification-options-api"></a>

È possibile configurare la modalità di DataSync verifica dei dati utilizzando il `VerifyMode` parametro con una delle seguenti operazioni:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# Impostazione dei limiti di larghezza di banda per l'attività AWS DataSync
<a name="configure-bandwidth"></a>

È possibile configurare i limiti di larghezza di banda di rete per la propria AWS DataSync attività e ciascuna delle sue esecuzioni.

## Limitazione della larghezza di banda per un'attività
<a name="configure-bandwidth-create"></a>

Imposta un limite di larghezza di banda durante la creazione, la modifica o l'avvio di un'attività.

### Utilizzo della console DataSync
<a name="configure-bandwidth-create-console"></a>

Le seguenti istruzioni descrivono come configurare un limite di larghezza di banda per l'attività al momento della creazione.

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per **Limite di larghezza di banda**, scegli una delle seguenti opzioni:
   + Seleziona **Usa disponibile** per utilizzare tutta la larghezza di banda di rete disponibile per ogni esecuzione di attività.
   + Seleziona **Imposta limite di larghezza di banda (MiB/s)** e inserisci la larghezza di banda massima che desideri utilizzare DataSync per ogni esecuzione di attività.

### Utilizzo dell'API DataSync
<a name="configure-bandwidth-create-api"></a>

È possibile configurare il limite di larghezza di banda di un'attività utilizzando il `BytesPerSecond` parametro con una delle seguenti operazioni:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## Limitazione della larghezza di banda per l'esecuzione di un'attività
<a name="adjust-bandwidth-throttling"></a>

È possibile modificare il limite di larghezza di banda per l'esecuzione di un'attività in esecuzione o in coda.

### Utilizzo della console DataSync
<a name="adjust-bandwidth-throttling-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Scegli l'attività, quindi seleziona **Cronologia** per visualizzare le esecuzioni dell'attività.

1. Scegli l'esecuzione dell'attività che desideri modificare, quindi scegli **Modifica**.

1. Nella finestra di dialogo, scegliete una delle seguenti opzioni:
   + Seleziona **Usa disponibile** per utilizzare tutta la larghezza di banda di rete disponibile per l'esecuzione dell'attività.
   + Seleziona **Imposta limite di larghezza di banda (MiB/s)** e inserisci la larghezza di banda massima che desideri utilizzare DataSync per l'esecuzione dell'attività.

1. Scegli **Save changes** (Salva modifiche).

   Il nuovo limite di larghezza di banda entra in vigore entro 60 secondi.

### Utilizzo dell'API DataSync
<a name="adjust-bandwidth-throttling-api"></a>

È possibile modificare il limite di larghezza di banda per l'esecuzione di un'operazione in esecuzione o in coda utilizzando il `BytesPerSecond` parametro associato all'operazione. [UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)

# Pianificazione dell'esecuzione dell' AWS DataSync attività
<a name="task-scheduling"></a>

È possibile impostare una pianificazione delle AWS DataSync attività per trasferire periodicamente i dati tra le posizioni di archiviazione.

## Come funziona la pianificazione delle DataSync attività
<a name="how-task-scheduling-works"></a>

Un' DataSync operazione pianificata viene eseguita a una frequenza specificata dall'utente, con un intervallo minimo di 1 ora. È possibile creare una pianificazione delle attività utilizzando espressioni cron o rate.

**Importante**  
Non è possibile pianificare l'esecuzione di un'attività a intervalli superiori a 1 ora.

**Utilizzo delle espressioni cron**  
Usa le espressioni cron per le pianificazioni delle attività che vengono eseguite in un'ora e in un giorno specifici. Ad esempio, ecco come configurare una pianificazione delle attività AWS CLI che viene eseguita alle 12:00 UTC ogni domenica e mercoledì.  

```
cron(0 12 ? * SUN,WED *)
```

**Utilizzo delle espressioni di frequenza**  
Utilizza le espressioni di frequenza per le pianificazioni delle attività eseguite a intervalli regolari, ad esempio ogni 12 ore. Ad esempio, ecco come è possibile configurare una pianificazione delle attività AWS CLI che viene eseguita ogni 12 ore:  

```
rate(12 hours)
```

**Suggerimento**  
Per ulteriori informazioni sulla sintassi delle espressioni cron e rate, consulta la [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html).

## Creazione di una DataSync pianificazione delle attività
<a name="configure-task-schedule"></a>

Puoi pianificare la frequenza di esecuzione dell'attività utilizzando la DataSync console o AWS CLI l' DataSync API.

### Utilizzo della DataSync console
<a name="configure-task-schedule-console"></a>

Le seguenti istruzioni descrivono come impostare una pianificazione durante la creazione di un'attività. È possibile modificare la pianificazione in un secondo momento durante la modifica dell'attività.

Nella console, alcune opzioni di pianificazione consentono di specificare l'ora esatta di esecuzione dell'attività (ad esempio ogni giorno alle 22:30). Se non includi un orario per queste opzioni, l'attività viene eseguita nel momento in cui l'hai creata (o aggiornata).

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Per la **frequenza di** pianificazione, esegui una delle seguenti operazioni:
   + Scegli **Non pianificato** se non desideri che l'attività venga eseguita secondo una pianificazione.
   + Scegli **Ogni ora**, quindi scegli il minuto durante l'ora in cui desideri che l'attività venga eseguita. 
   + Scegli **Ogni giorno** e inserisci l'ora UTC in cui desideri che l'attività venga eseguita.
   + Scegli **Settimanale** e il giorno della settimana e inserisci l'ora UTC in cui desideri che l'attività venga eseguita.
   + Scegli **Giorni della settimana**, scegli uno o più giorni specifici e inserisci l'ora UTC in cui l'attività deve essere eseguita nel formato HH:MM.
   + **Scegli **Personalizzato**, quindi seleziona Espressione **Cron** o Espressione velocità.** Inserisci la pianificazione delle attività con un intervallo minimo di 1 ora. 

### Utilizzando il AWS CLI
<a name="configure-task-schedule-api"></a>

È possibile creare una pianificazione per l' DataSync attività utilizzando il `--schedule` parametro con il `start-task-execution` comando `create-task``update-task`, o.

Le istruzioni seguenti descrivono come eseguire questa operazione con il `create-task` comando.

1. Copia il seguente `create-task` comando:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. Per il `--source-location-arn` parametro, specifica l'Amazon Resource Name (ARN) della posizione da cui stai trasferendo i dati.

1. Per il `--destination-location-arn` parametro, specifica l'ARN della posizione in cui stai trasferendo i dati.

1. Per il `--schedule` parametro, specifica un'espressione cron o rate per la tua pianificazione.

   Nell'esempio, l'espressione cron `cron(0 12 ? * SUN,WED *)` imposta una pianificazione delle attività che viene eseguita alle 12:00 UTC ogni domenica e mercoledì.

1. Esegui il `create-task` comando per creare l'attività con la pianificazione.

## Sospensione della pianificazione di un' DataSync attività
<a name="pause-task-schedule"></a>

In alcuni casi è necessario sospendere la pianificazione delle DataSync attività. Ad esempio, potrebbe essere necessario disabilitare temporaneamente un trasferimento ricorrente per risolvere un problema relativo all'operazione o eseguire la manutenzione del sistema di storage.

DataSync potrebbe disattivare automaticamente la pianificazione delle attività per i seguenti motivi:
+ L'operazione fallisce ripetutamente con lo stesso errore.
+ Si [disattiva Regione AWS un](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) elemento utilizzato dall'attività.

### Utilizzo della DataSync console
<a name="pause-scheduled-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Scegli l'attività per la quale desideri sospendere la pianificazione, quindi scegli **Modifica**.

1. Per **Pianificazione**, disattiva **Abilita pianificazione.** Scegli **Save changes** (Salva modifiche).

### Usando il AWS CLI
<a name="pause-scheduled-task-cli"></a>

1. Copia il seguente `update-task` comando:

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. Per il `--task-arn` parametro, specificate l'ARN dell'attività per la quale desiderate sospendere la pianificazione.

1. Per il `--schedule` parametro, effettuate le seguenti operazioni:
   + Per`ScheduleExpression`, specifica un'espressione cron o rate per la tua pianificazione.

     Nell'esempio, l'espressione `cron(0 12 ? * SUN,WED *)` imposta una pianificazione delle attività che viene eseguita alle 12:00 UTC ogni domenica e mercoledì.
   + Per`Status`, specificare di `DISABLED` sospendere la pianificazione delle attività.

1. Esegui il comando `update-task`.

1. Per riprendere la pianificazione, esegui lo stesso `update-task` comando con `Status` set to. `ENABLED`

## Verifica dello stato di una pianificazione delle DataSync attività
<a name="check-scheduled-task"></a>

Puoi vedere se la pianificazione delle DataSync attività è abilitata. 

### Utilizzo della DataSync console
<a name="check-scheduled-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Nella colonna **Pianificazione**, controlla se la pianificazione dell'attività è abilitata o disabilitata.

### Usando il AWS CLI
<a name="check-scheduled-task-cli"></a>

1. Copia il seguente `describe-task` comando:

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. Per il `--task-arn` parametro, specifica l'ARN dell'attività su cui desideri informazioni.

1. Esegui il comando `describe-task`.

Riceverai una risposta che fornisce dettagli sull'attività, inclusa la pianificazione. (L'esempio seguente si concentra principalmente sulla configurazione della pianificazione delle attività e non mostra una `describe-task` risposta completa).

L'esempio mostra che la pianificazione dell'attività è disabilitata manualmente. Se la pianificazione è disattivata da DataSync `SERVICE`, viene visualizzato un messaggio di errore per aiutarti `DisabledReason` a capire perché l'attività continua a fallire. Per ulteriori informazioni, consulta [Risoluzione dei AWS DataSync problemi](troubleshooting-datasync.md).

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# Taggare le attività AWS DataSync
<a name="tagging-tasks"></a>

I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue AWS DataSync risorse. È possibile aggiungere fino a 50 tag a ciascuna DataSync attività ed esecuzione.

Ad esempio, è possibile creare un'attività per una migrazione di dati di grandi dimensioni e etichettarla con la chiave **Project** e il valore**Large Migration**. Per organizzare ulteriormente la migrazione, puoi etichettare un'esecuzione dell'attività con la chiave **Transfer Date** e il valore **May 2021** (le esecuzioni di attività successive potrebbero essere **June 2021** contrassegnate e così via). **July 2021**

## Taggare l'attività DataSync
<a name="tagging-tasks-console"></a>

Puoi etichettare l' DataSync attività solo durante la creazione dell'attività.

### Utilizzo della DataSync console
<a name="tagging-tasks-console-steps"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività** e quindi scegli **Crea attività**.

1. Configura le posizioni di origine e destinazione dell'attività.

   Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. Nella pagina **Configura impostazioni**, scegli **Aggiungi nuovo tag** per etichettare l'attività.

### Usando il AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. Copia il seguente `create-task` comando:

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Specificate i seguenti parametri nel comando:
   + `--source-location-arn`— Specificare l'Amazon Resource Name (ARN) della posizione di origine del trasferimento.
   + `--destination-location-arn`— Specificare l'ARN della località di destinazione nel trasferimento.
   + `--tags`— Specificate i tag da applicare all'attività.

     Per più di un tag, separa ogni coppia chiave-valore con uno spazio.

1. (Facoltativo) Specificate altri parametri che abbiano senso per lo scenario di trasferimento.

   Per un elenco di`--options`, vedete il comando [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html).

1. Esegui il comando `create-task`.

   Viene visualizzata una risposta che mostra l'attività appena creata.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Per visualizzare i tag che hai aggiunto a questa attività, puoi usare il [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

## Etichettare l'esecuzione dell' DataSync attività
<a name="tagging-task-executions-console"></a>

Puoi etichettare ogni esecuzione della tua DataSync attività.

Se l'attività contiene già dei tag, ricorda quanto segue sull'utilizzo dei tag nelle esecuzioni delle attività:
+ Se si avvia l'operazione con la console, i tag creati dall'utente vengono applicati automaticamente all'esecuzione dell'operazione. Tuttavia, i tag creati dal sistema che iniziano con non `aws:` vengono applicati.
+ Se si avvia l'attività con l' DataSync API o AWS CLI i relativi tag non vengono applicati automaticamente all'esecuzione dell'attività.

### Utilizzo della DataSync console
<a name="tagging-task-executions-console"></a>

Per aggiungere, modificare o rimuovere tag dall'esecuzione di un'attività, è necessario avviare l'attività con opzioni di sovrascrittura.

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Seleziona l'attività.

1. Scegli **Start**, quindi scegli una delle seguenti opzioni: 
   + **Inizia con i valori predefiniti**: applica tutti i tag associati all'attività.
   + **Inizia con l'override delle opzioni**: consente di aggiungere, modificare o rimuovere tag per l'esecuzione di questa particolare attività.

### Utilizzando il AWS CLI
<a name="tagging-task-executions-cli"></a>

1. Copia il seguente `start-task-execution` comando:

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Specificate i seguenti parametri nel comando:
   + `--task-arn`— Specificare l'ARN dell'attività che si desidera avviare.
   + `--tags`— Specificate i tag da applicare a questa esecuzione specifica dell'attività.

     Per più di un tag, separa ogni coppia chiave-valore con uno spazio.

1. (Facoltativo) Specificate altri parametri che abbiano senso per la vostra situazione.

   Per ulteriori informazioni, consulta il comando [start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html).

1. Esegui il comando `start-task-execution`.

   Viene visualizzata una risposta che mostra l'esecuzione dell'attività appena avviata.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Per visualizzare i tag che hai aggiunto a questa attività, puoi usare il [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)comando.

# Avvio di un'attività per trasferire i dati
<a name="run-task"></a>

Una volta creata l'attività di AWS DataSync trasferimento, puoi iniziare a spostare i dati. Ogni esecuzione di un'attività è denominata *esecuzione dell'attività*. Per informazioni su ciò che accade durante l'esecuzione di un'attività, vedere[Come DataSync trasferisce file, oggetti e directory](how-datasync-transfer-works.md#transferring-files).

**Importante**  
Se hai intenzione di trasferire dati da o verso una sede Amazon S3, consulta in che [modo DataSync possono influire sui costi delle richieste S3](create-s3-location.md#create-s3-location-s3-requests) e sulla [pagina dei DataSync prezzi](https://aws.amazon.com/datasync/pricing/) prima di iniziare.

## Avvio della tua attività
<a name="starting-task"></a>

Dopo aver creato l'attività, puoi iniziare subito a spostare i dati.

### Utilizzo della DataSync console
<a name="starting-task-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Scegli l'attività che desideri eseguire.

   Assicurati che l'attività abbia lo stato **Disponibile**. Puoi anche selezionare più attività.

1. Scegli **Azioni**, quindi scegli una delle seguenti opzioni:
   + **Avvia**: esegue l'attività (o le attività se ne hai selezionate più di una).
   + **Inizia con l'override delle opzioni**: consente di modificare alcune impostazioni delle attività prima di iniziare a spostare i dati. Quando sei pronto, scegli **Avvia**.

1. Scegli **Visualizza i dettagli dell'esecuzione** per visualizzare i dettagli sull'esecuzione dell'attività in esecuzione.

### Utilizzando il AWS CLI
<a name="start-task-execution"></a>

Per avviare l' DataSync attività, è sufficiente specificare l'Amazon Resource Name (ARN) dell'attività che si desidera eseguire. Ecco un `start-task-execution` comando di esempio:

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

L'esempio seguente avvia un'attività con alcune impostazioni diverse da quelle predefinite dell'attività:

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

Il comando restituisce un ARN per l'esecuzione dell'attività simile all'esempio seguente:

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**Nota**  
Ogni agente può eseguire una singola attività alla volta.

### Utilizzo dell'API DataSync
<a name="starting-task-api"></a>

È possibile avviare l'attività utilizzando l'[StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)operazione. Utilizzare l'[DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html)operazione per ottenere dettagli sull'esecuzione dell'attività in esecuzione.

Una volta avviata, puoi [controllare lo stato di esecuzione dell'attività](#understand-task-execution-statuses) mentre DataSync copi i tuoi dati. Se necessario, puoi anche [limitare la larghezza di banda dell'esecuzione dell'attività](configure-bandwidth.md#adjust-bandwidth-throttling).

## Stati di esecuzione delle attività
<a name="understand-task-execution-statuses"></a>

Quando si avvia un' DataSync attività, è possibile che vengano visualizzati questi stati. ([Gli stati delle attività sono diversi dagli stati](create-task-how-to.md#understand-task-creation-statuses) di esecuzione delle attività.)


| Stato della console | Stato dell'API | Descrizione | 
| --- | --- | --- | 
|  In coda  |  `QUEUED`  |  L'esecuzione di un'altra attività è in esecuzione e utilizza lo stesso DataSync agente. Per ulteriori informazioni, consulta [Sapere quando l'attività è in coda](#queue-task-execution).  | 
|  Avvio  |  `LAUNCHING`  |  DataSync sta inizializzando l'esecuzione dell'attività. Questo stato in genere passa rapidamente, ma può richiedere fino a qualche minuto.  | 
| Lanciato | `LAUNCHED` | DataSync ha avviato l'esecuzione dell'attività. | 
|  Preparing (Preparazione)  |  `PREPARING`  |  DataSync sta determinando quali dati trasferire. La preparazione può richiedere solo pochi minuti, alcune ore o anche di più, a seconda del numero di file, oggetti o directory in entrambe le posizioni e della configurazione dell'attività. Il funzionamento della preparazione dipende anche dalla modalità di operazione. Per ulteriori informazioni, consulta [Come si DataSync prepara il trasferimento dei dati](how-datasync-transfer-works.md#how-datasync-prepares).  | 
|  Trasferimento  |  `TRANSFERRING`  |  DataSync sta effettuando il trasferimento effettivo dei dati.  | 
|  Verifica in corso  |  `VERIFYING`  |  DataSync sta verificando l'integrità dei dati al termine del trasferimento.  | 
|  Riuscito  |  `SUCCESS`  |  L'esecuzione dell'operazione è riuscita.  | 
|  Annullamento in corso  |  `CANCELLING`  | L'esecuzione dell'attività è in fase di annullamento. | 
|  Errore  |  `ERROR`  |  L'esecuzione dell'operazione non è riuscita.  | 

## Sapere quando l'attività è in coda
<a name="queue-task-execution"></a>

Quando si eseguono più attività (ad esempio, si [trasferisce un set di dati di grandi dimensioni](create-task-how-to.md#multiple-tasks-large-dataset)), è DataSync possibile mettere in coda le attività da eseguire in serie (first in, first out). Alcuni esempi di quando ciò accade includono:
+ Eseguite diverse attività che utilizzano lo stesso DataSync agente. Sebbene sia possibile utilizzare lo stesso agente per più attività, un agente può eseguire solo un'attività alla volta.
+ È in corso l'esecuzione di un'attività e si avviano esecuzioni aggiuntive della stessa attività utilizzando [filtri o [manifesti](transferring-with-manifest.md)](filtering.md) diversi.

In ogni esempio, le attività in coda non iniziano fino al termine dell'attività che le precede.

## Annullamento dell'esecuzione dell'attività
<a name="cancel-running-task"></a>

 È possibile interrompere l'esecuzione di qualsiasi attività in esecuzione o in coda. DataSync 

**Per annullare l'esecuzione di un'operazione utilizzando la console**

1. Aprire la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Attività**.

1. Seleziona l'**ID attività** per l'attività in esecuzione che desideri monitorare.

   Lo stato dell'attività deve essere In **esecuzione**.

1. Scegli **Cronologia** per visualizzare le esecuzioni dell'attività.

1. Seleziona l'esecuzione dell'attività che desideri interrompere, quindi scegli **Interrompi**.

1. Nella finestra di dialogo, scegliete **Stop**.

Per annullare un'operazione in esecuzione o in coda utilizzando l' DataSync API, consulta. [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html)

### Annullamento automatico delle attività bloccate
<a name="auto-cancel-stuck-tasks"></a>

A volte l'esecuzione di un' DataSync attività in esecuzione può bloccarsi. 