

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Configurazione dei AWS DataSync trasferimenti con un cluster HDFS
<a name="create-hdfs-location"></a>

Con AWS DataSync, è possibile trasferire dati tra il cluster Hadoop Distributed File System (HDFS) e uno dei seguenti servizi di AWS archiviazione utilizzando le attività in modalità Basic:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [File server Amazon FSx per Windows](create-fsx-location.md)
+ [Amazon FSx per Lustre](create-lustre-location.md)
+ [Amazon FSx per OpenZFS](create-openzfs-location.md)
+ [Amazon FSx per NetApp ONTAP](create-ontap-location.md)

Per configurare questo tipo di trasferimento, crei una [posizione](how-datasync-transfer-works.md#sync-locations) per il tuo cluster HDFS. È possibile utilizzare questa posizione come fonte o destinazione di trasferimento.

## Fornire DataSync l'accesso ai cluster HDFS
<a name="accessing-hdfs"></a>

Per connettersi al cluster HDFS, DataSync utilizza un [agente in modalità Basic da distribuire il](deploy-agents.md) più vicino possibile al cluster HDFS. L' DataSyncagente funge da client HDFS e comunica con e all'interno del NameNodes cluster. DataNodes 

Quando si avvia un'operazione di trasferimento, DataSync interroga NameNode le posizioni dei file e delle cartelle nel cluster. Se configuri la posizione HDFS come posizione di origine, DataSync legge i file e i dati delle cartelle dal cluster e li copia DataNodes nella destinazione. Se configuri la posizione HDFS come posizione di destinazione, DataSync scrive file e cartelle dall'origine a quella del cluster DataNodes .

### Autenticazione
<a name="accessing-hdfs-authentication"></a>

Quando ci si connette a un cluster HDFS, DataSync supporta l'autenticazione semplice o l'autenticazione Kerberos. Per utilizzare l'autenticazione semplice, fornisci il nome utente di un utente con i diritti di lettura e scrittura sul cluster HDFS. Per utilizzare l'autenticazione Kerberos, fornite un file di configurazione Kerberos, un file della tabella delle chiavi Kerberos (keytab) e un nome principale Kerberos. Le credenziali del principale Kerberos devono trovarsi nel file keytab fornito.

### Encryption (Crittografia)
<a name="accessing-hdfs-encryption"></a>

Quando si utilizza l'autenticazione Kerberos, DataSync supporta la crittografia dei dati durante la trasmissione tra l'agente e il DataSync cluster HDFS. Crittografa i dati utilizzando le impostazioni di configurazione Quality of Protection (QOP) sul cluster HDFS e specificando le impostazioni QOP durante la creazione della posizione HDFS. La configurazione QOP include le impostazioni per la protezione del trasferimento dei dati e la protezione RPC (Remote Procedure Call). 

**DataSync supporta i seguenti tipi di crittografia Kerberos:**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

È inoltre possibile configurare i cluster HDFS per la crittografia inattiva utilizzando Transparent Data Encryption (TDE). Quando si utilizza l'autenticazione semplice, DataSync legge e scrive su cluster compatibili con TDE. Se usi DataSync per copiare i dati su un cluster abilitato per TDE, configura innanzitutto le zone di crittografia sul cluster HDFS. DataSync non crea zone di crittografia. 

## Funzionalità HDFS non supportate
<a name="hdfs-unsupported-features"></a>

Le seguenti funzionalità HDFS non sono attualmente supportate da: DataSync
+ Transparent Data Encryption (TDE) quando si utilizza l'autenticazione Kerberos
+ Configurazione multipla NameNodes
+ Hadoop HDFS su HTTP (HttpFS)
+ Liste di controllo degli accessi POSIX () ACLs
+ Attributi estesi HDFS (xattrs)
+ Cluster HDFS che utilizzano Apache HBase

## Creazione della posizione di trasferimento HDFS
<a name="create-hdfs-location-how-to"></a>

Puoi usare la tua posizione come origine o destinazione per il DataSync trasferimento.

**Prima di iniziare**: verifica la connettività di rete tra l'agente e il cluster Hadoop effettuando le seguenti operazioni:
+ Verifica l'accesso alle porte TCP elencate in. [Requisiti di rete per lo storage locale, autogestito e di altro tipo](datasync-network.md#on-premises-network-requirements)
+ Verifica l'accesso tra l'agente locale e il cluster Hadoop. Per istruzioni, consulta [Verifica della connessione dell'agente al sistema di storage](test-agent-connections.md#self-managed-storage-connectivity).

### Utilizzo della console DataSync
<a name="create-hdfs-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di posizione**, scegli **Hadoop Distributed File System (HDFS)**.

   Puoi configurare questa posizione come origine o destinazione in un secondo momento. 

1. Per **gli agenti**, scegli l'agente che può connettersi al tuo cluster HDFS.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. Per **NameNode**, fornisci il nome di dominio o l'indirizzo IP del principale NameNode del cluster HDFS.

1. Per **Cartella**, inserisci una cartella sul cluster HDFS che desideri utilizzare DataSync per il trasferimento dei dati.

   Se la posizione HDFS è un'origine, DataSync copia i file in questa cartella nella destinazione. Se la tua posizione è una destinazione, DataSync scrive i file in questa cartella.

1. Per impostare la **dimensione del blocco** o il **fattore di replica**, scegli **Impostazioni aggiuntive**.

   La dimensione predefinita del blocco è 128 MiB. Le dimensioni dei blocchi fornite devono essere un multiplo di 512 byte.

   Il fattore di replica predefinito è tre DataNodes durante il trasferimento al cluster HDFS. 

1. Nella sezione **Sicurezza**, scegli il **tipo di autenticazione** utilizzato sul tuo cluster HDFS. 
   + **Semplice**: per **Utente**, specifica il nome utente con le seguenti autorizzazioni sul cluster HDFS (a seconda del caso d'uso):
     + Se intendi utilizzare questa posizione come posizione di origine, specifica un utente con solo autorizzazioni di lettura.
     + Se intendi utilizzare questa posizione come posizione di destinazione, specifica un utente con autorizzazioni di lettura e scrittura.

     Facoltativamente, specifica l'URI del Key Management Server (KMS) del cluster HDFS. 
   + **Kerberos**: specifica il Kerberos **Principal** con accesso al cluster HDFS. Quindi, fornisci il **KeyTabfile che contiene il principale Kerberos** fornito. Fornite quindi il file di configurazione **Kerberos**. Infine, specifica il tipo di crittografia nella protezione del transito negli elenchi a discesa **Protezione RPC e Protezione** **trasferimento dati**.

1. (Facoltativo) Scegli **Aggiungi tag per etichettare** la tua posizione HDFS.

   I *tag* sono coppie chiave-valore che ti aiutano a gestire, filtrare e cercare le tue sedi. È consigliabile creare almeno un tag di nome per la posizione. 

1. Scegli **Crea** località.

### Utilizzando il AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Copia il seguente `create-location-hdfs` comando.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Per il `--name-nodes` parametro, specifica il nome host o l'indirizzo IP del principale del cluster HDFS NameNode e la porta TCP su cui NameNode è in ascolto.

1. Per il `--authentication-type` parametro, specifica il tipo di autenticazione da utilizzare per la connessione al cluster Hadoop. Puoi specificare `SIMPLE` o `KERBEROS`.

   Se si utilizza `SIMPLE` l'autenticazione, utilizzare il `--simple-user` parametro per specificare il nome utente dell'utente. Se si utilizza `KERBEROS` l'autenticazione, utilizzare i `--kerberos-principal` `--kerberos-krb5-conf` parametri`--kerberos-keytab`, and. Per ulteriori informazioni, consulta [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Per il `--agent-arns` parametro, specifica l'ARN dell' DataSync agente che può connettersi al cluster HDFS.

   Puoi scegliere più di un agente. Per ulteriori informazioni, consulta [Utilizzo di più agenti DataSync](do-i-need-datasync-agent.md#multiple-agents).

1. (Facoltativo) Per il `--subdirectory` parametro, specifica una cartella sul cluster HDFS che desideri utilizzare DataSync per il trasferimento dei dati.

   Se la posizione HDFS è un'origine, DataSync copia i file in questa cartella nella destinazione. Se la tua posizione è una destinazione, DataSync scrive i file in questa cartella.

1. Esegui il comando `create-location-hdfs`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```