

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Configurazione dei AWS DataSync trasferimenti con Amazon S3
<a name="create-s3-location"></a>

*Per trasferire dati da o verso il tuo bucket Amazon S3, devi creare una AWS DataSync posizione di trasferimento.* DataSync può utilizzare questa posizione come origine o destinazione per il trasferimento di dati.

## Fornire DataSync l'accesso ai bucket S3
<a name="create-s3-location-access"></a>

DataSync ha bisogno di accedere al bucket S3 verso o da cui stai trasferendo. Per fare ciò, devi creare un ruolo AWS Identity and Access Management (IAM) che DataSync presupponga le autorizzazioni necessarie per accedere al bucket. Specificate quindi questo ruolo durante [la creazione della vostra sede Amazon S3](#create-s3-location-how-to) per. DataSync

**Contents**
+ [Autorizzazioni richieste](#create-s3-location-required-permissions)
+ [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually)
+ [Accesso ai bucket S3 utilizzando la crittografia lato server](#create-s3-location-encryption)
+ [Accesso a bucket S3 con restrizioni](#denying-s3-access)
+ [Accesso ai bucket S3 con accesso VPC limitato](#create-s3-location-restricted-vpc)

### Autorizzazioni richieste
<a name="create-s3-location-required-permissions"></a>

Le autorizzazioni richieste dal tuo ruolo IAM possono dipendere dal fatto che il bucket sia una posizione di DataSync origine o di destinazione. Amazon S3 on Outposts richiede un set di autorizzazioni diverso.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3
<a name="create-role-manually"></a>

Quando [crei la tua posizione Amazon S3](#create-s3-location-how-to) nella console, DataSync puoi creare e assumere automaticamente un ruolo IAM che normalmente dispone delle autorizzazioni giuste per accedere al tuo bucket S3.

In alcune situazioni, potrebbe essere necessario creare questo ruolo manualmente (ad esempio, accedere a bucket con livelli di sicurezza aggiuntivi o trasferire da o verso un bucket in un altro). Account AWS

#### Creazione manuale di un ruolo IAM per DataSync
<a name="create-role-manually-steps"></a>

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, in **Gestione degli accessi****, scegli Ruoli**, quindi scegli **Crea ruolo**.

1. Nella pagina **Seleziona entità attendibile**, per **Tipo di entità affidabile**, scegli **Servizio AWS**.

1. Per **Caso d'uso**, scegli **DataSync**nell'elenco a discesa e seleziona **DataSync**. Scegli **Next (Successivo)**.

1. Nella pagina **Add permissions** (Aggiungi autorizzazioni), scegli **Next** (Successivo). Dai un nome al tuo ruolo e scegli **Crea ruolo**.

1. Nella pagina **Ruoli**, cerca il ruolo che hai appena creato e scegline il nome.

1. Nella pagina dei dettagli del ruolo, scegli la scheda **Autorizzazioni**. Scegli **Aggiungi autorizzazioni**, quindi **Crea politica in linea**.

1. Scegli la scheda **JSON** e [aggiungi le autorizzazioni necessarie](#create-s3-location-required-permissions) per accedere al tuo bucket nell'editor delle politiche.

1. Scegli **Next (Successivo)**. **Dai un nome alla tua politica e scegli Crea politica.**

1. (Consigliato) Per evitare il [problema del sostituto confuso tra diversi servizi](cross-service-confused-deputy-prevention.md), procedi come segue:

   1. Nella pagina dei dettagli del ruolo, scegli la scheda **Relazioni di fiducia**. Seleziona **Modifica policy di attendibilità**.

   1. Aggiorna la politica di fiducia utilizzando l'esempio seguente, che include le chiavi del contesto `aws:SourceArn` e della condizione `aws:SourceAccount` globale:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Scegli **Aggiorna policy**.

Puoi specificare questo ruolo durante la creazione della tua sede Amazon S3.

### Accesso ai bucket S3 utilizzando la crittografia lato server
<a name="create-s3-location-encryption"></a>

DataSync può trasferire dati da o verso i [bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html) che utilizzano la crittografia lato server. Il tipo di chiave di crittografia utilizzata da un bucket può determinare se è necessaria una politica personalizzata che DataSync consenta di accedere al bucket.

Quando lo utilizzi DataSync con bucket S3 che utilizzano la crittografia lato server, ricorda quanto segue:
+ **Se il tuo bucket S3 è crittografato con una chiave AWS gestita**, DataSync puoi accedere agli oggetti del bucket per impostazione predefinita se tutte le tue risorse sono nelle stesse. Account AWS
+ **Se il bucket S3 è crittografato con una chiave gestita dal cliente AWS Key Management Service (AWS KMS) (SSE-KMS)**, la [policy della chiave deve includere il ruolo](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) IAM utilizzato per accedere al bucket. DataSync 
+ **Se il bucket S3 è crittografato con una chiave SSE-KMS gestita dal cliente e in un'altra chiave, è necessaria l'autorizzazione per accedere al bucket dell'altro Account AWS**. DataSync Account AWS Puoi configurarlo effettuando le seguenti operazioni:
  + Nel ruolo IAM DataSync utilizzato, devi specificare la chiave SSE-KMS del bucket cross-account utilizzando l'Amazon Resource Name (ARN) completo della chiave. [Questa è la stessa chiave ARN che usi per configurare la crittografia predefinita del bucket.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) In questa situazione non è possibile specificare un ID chiave, un nome alias o un alias ARN.

    Ecco un esempio di codice ARN:

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    *[Per ulteriori informazioni sulla specificazione delle chiavi KMS nelle dichiarazioni politiche IAM, consulta la AWS Key Management Service Developer Guide.](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*
  + Nella policy chiave SSE-KMS, [specifica](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) il ruolo IAM utilizzato da. DataSync
+ **Se il bucket S3 è crittografato con una AWS KMS chiave gestita dal cliente (DSSE-KMS) per la crittografia lato server a doppio livello, la policy della chiave deve includere** [il ruolo](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) IAM utilizzato per accedere al bucket. DataSync [(Tieni presente che DSSE-KMS non supporta S3 Bucket Keys, il che può ridurre i costi delle richieste.)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html) AWS KMS 
+ **Se il tuo bucket S3 è crittografato con una chiave di crittografia fornita dal cliente (SSE-C**), non puoi accedere a questo bucket. DataSync

#### Esempio: politica chiave SSE-KMS per DataSync
<a name="create-s3-location-encryption-example"></a>

L'esempio seguente è una [politica chiave per una chiave](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) SSE-KMS gestita dal cliente. La policy è associata a un bucket S3 che utilizza la crittografia lato server.

Se desideri utilizzare questo esempio, sostituisci i seguenti valori con i tuoi:
+ *account-id*— Il tuo Account AWS.
+ *admin-role-name*— Il nome del ruolo IAM che può amministrare la chiave.
+ *datasync-role-name*— Il nome del ruolo IAM che consente di DataSync utilizzare la chiave per accedere al bucket.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Accesso a bucket S3 con restrizioni
<a name="denying-s3-access"></a>

Se devi trasferire da o verso un bucket S3 che in genere nega ogni accesso, puoi modificare la policy del bucket in modo che DataSync possa accedere al bucket solo per il trasferimento.

#### Esempio: consentire l'accesso in base ai ruoli IAM
<a name="denying-s3-access-example"></a>

1. Copia la seguente policy sui bucket S3.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. Nella politica, sostituisci i seguenti valori:
   + `amzn-s3-demo-bucket`— Specificare il nome del bucket S3 con restrizioni.
   + `datasync-iam-role-id`— Specificare l'ID del [ruolo IAM DataSync utilizzato](#create-s3-location-access) per accedere al bucket.

     Esegui il AWS CLI comando seguente per ottenere l'ID del ruolo IAM:

     `aws iam get-role --role-name datasync-iam-role-name`

     Nell'output, cerca il `RoleId` valore:

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Specificate l'ID del ruolo IAM che utilizzate per creare la vostra DataSync posizione per il bucket.

     Esegui il comando seguente per ottenere l'ID del ruolo IAM:

     `aws iam get-role --role-name your-iam-role-name`

     Nell'output, cerca il `RoleId` valore:

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Aggiungi questa policy](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) alla tua policy sui bucket S3.

1. Quando hai finito di utilizzare il bucket DataSync con restrizioni, rimuovi le condizioni per entrambi i ruoli IAM dalla policy del bucket.

### Accesso ai bucket S3 con accesso VPC limitato
<a name="create-s3-location-restricted-vpc"></a>

Un bucket Amazon S3 che [limita l'accesso a specifici endpoint del cloud privato virtuale (VPC) o impedisce il trasferimento DataSync da o VPCs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) verso quel bucket. [Per abilitare i trasferimenti in queste situazioni, puoi aggiornare la policy del bucket per includere il ruolo IAM che specifichi con la tua posizione. DataSync ](#create-s3-location-how-to)

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

Nella policy del bucket S3, puoi specificare l'Amazon Resource Name (ARN) del ruolo IAM della tua DataSync posizione.

L'esempio seguente è una policy sui bucket S3 che nega l'accesso a tutti tranne due (e). VPCs `vpc-1234567890abcdef0` `vpc-abcdef01234567890` Tuttavia, la policy include anche [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition e [aws: PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) condition key, che consentono all'ARN di un ruolo di DataSync location di accedere al bucket.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

Nella policy del bucket S3, puoi specificare un tag allegato al tuo DataSync ruolo IAM di location.

L'esempio seguente è una policy sui bucket S3 che nega l'accesso a tutti tranne due (e). VPCs `vpc-1234567890abcdef0` `vpc-abcdef01234567890` Tuttavia, la policy include anche [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition e [aws: PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition key, che consentono un principal con la chiave `exclude-from-vpc-restriction` e il valore del tag. `true` Puoi provare un approccio simile nella tua policy sui bucket specificando un tag associato al tuo ruolo di DataSync location.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Considerazioni sulla classe di storage con Amazon S3 Transfers
<a name="using-storage-classes"></a>

Quando Amazon S3 è la tua posizione di destinazione, DataSync puoi trasferire i dati direttamente in una classe di storage [Amazon S3](https://aws.amazon.com/s3/storage-classes/) specifica.

Alcune classi di storage hanno comportamenti che possono influire sui costi di storage di Amazon S3. Quando si utilizzano classi di storage che possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero di oggetti, le modifiche ai dati o ai metadati degli oggetti comportano tali costi. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

**Importante**  
I nuovi oggetti trasferiti nella posizione di destinazione di Amazon S3 vengono archiviati utilizzando la classe di storage specificata durante [la creazione](#create-s3-location-how-to) della posizione.  
Per impostazione predefinita, DataSync conserva la classe di storage degli oggetti esistenti nella posizione di destinazione, a meno che non configuri l'attività per [trasferire tutti i dati](configure-metadata.md#task-option-transfer-mode). In tali situazioni, la classe di archiviazione specificata durante la creazione della posizione viene utilizzata per tutti gli oggetti.


| Classe di storage Amazon S3 | Considerazioni | 
| --- | --- | 
| S3 Standard | Scegli S3 Standard per archiviare i file a cui accedi di frequente in modo ridondante in più zone di disponibilità geograficamente separate. Questa è l'impostazione predefinita se non specifichi una classe di storage.  | 
| S3 Intelligent-Tiering |  Scegli S3 Intelligent-Tiering per ottimizzare i costi di storage spostando automaticamente i dati nel livello di accesso allo storage più conveniente. Paghi una tariffa mensile per oggetto archiviato nella classe di storage S3 Intelligent-Tiering. Questa tariffa di Amazon S3 include il monitoraggio dei modelli di accesso ai dati e lo spostamento di oggetti tra livelli.  | 
| S3 Standard-IA |  Scegli S3 Standard-IA per archiviare in modo ridondante gli oggetti a cui si accede raramente in più zone di disponibilità geograficamente separate.  Gli oggetti archiviati nella classe di storage S3 Standard-IA possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Standard-IA. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 Standard-IA. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 One Zone-IA  |  Scegli S3 One Zone-IA per archiviare gli oggetti a cui si accede raramente in un'unica zona di disponibilità.  Gli oggetti archiviati nella classe di storage S3 One Zone-IA possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 One Zone-IA. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 One Zone-IA. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 Glacier Instant Retrieval |  Scegli S3 Glacier Instant Retrieval per archiviare oggetti a cui si accede raramente ma che richiedono il recupero in millisecondi. I dati archiviati nella classe di storage S3 Glacier Instant Retrieval offrono risparmi sui costi rispetto alla classe di storage S3 Standard-IA con le stesse prestazioni di latenza e throughput. Tuttavia, S3 Glacier Instant Retrieval ha costi di accesso ai dati più elevati rispetto a S3 Standard-IA. Gli oggetti archiviati in S3 Glacier Instant Retrieval possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Instant Retrieval. Gli oggetti inferiori a 128 KB sono inferiori al costo minimo di capacità per oggetto nella classe di storage S3 Glacier Instant Retrieval. Questi oggetti sono archiviati nella classe di storage S3 Standard.  | 
| S3 Glacier Flexible Retrieval | Scegli S3 Glacier Flexible Retrieval per archivi più attivi.Gli oggetti archiviati in S3 Glacier Flexible Retrieval possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Flexible Retrieval.La classe di storage S3 Glacier Flexible Retrieval richiede 40 KB di metadati aggiuntivi per ogni oggetto archiviato. DataSync inserisce oggetti di dimensioni inferiori a 40 KB nella classe di storage S3 Standard. È necessario ripristinare gli oggetti archiviati in questa classe di archiviazione prima di DataSync poterli leggere. Per informazioni, consulta [Lavorare con oggetti archiviati nella Guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) per l'utente di Amazon S3.Quando usi S3 Glacier Flexible Retrieval, scegli l'opzione **Verifica solo l'operazione di verifica dei dati trasferiti** per confrontare i checksum di dati e metadati al termine del trasferimento. Non è possibile utilizzare l'opzione **Verifica tutti i dati nella destinazione per questa classe di archiviazione perché richiede il** recupero di tutti gli oggetti esistenti dalla destinazione. | 
| S3 Glacier Deep Archive |  Scegli S3 Glacier Deep Archive per archiviare i tuoi oggetti per la conservazione dei dati a lungo termine e la conservazione digitale, laddove i dati siano accessibili una o due volte all'anno. Gli oggetti archiviati in S3 Glacier Deep Archive possono comportare costi aggiuntivi per la sovrascrittura, l'eliminazione o il recupero. Considera la frequenza con cui questi oggetti cambiano, la durata di conservazione degli oggetti e la frequenza con cui è necessario accedervi. Le modifiche ai dati o ai metadati degli oggetti equivalgono all'eliminazione di un oggetto e alla creazione di uno nuovo per sostituirlo. Ciò comporta costi aggiuntivi per gli oggetti archiviati nella classe di storage S3 Glacier Deep Archive. La classe di storage S3 Glacier Deep Archive richiede 40 KB di metadati aggiuntivi per ogni oggetto archiviato. DataSync inserisce gli oggetti che pesano meno di 40 KB nella classe di storage S3 Standard. È necessario ripristinare gli oggetti archiviati in questa classe di archiviazione prima di DataSync poterli leggere. Per informazioni, consulta [Lavorare con oggetti archiviati nella Guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) per l'utente di *Amazon S3*. Quando usi S3 Glacier Deep Archive, scegli **l'opzione Verifica solo l'operazione di trasferimento dei dati per confrontare i** checksum di dati e metadati al termine del trasferimento. Non è possibile utilizzare l'opzione **Verifica tutti i dati nella destinazione** per questa classe di archiviazione perché richiede il recupero di tutti gli oggetti esistenti dalla destinazione.  | 
|  S3 Outposts  |  La classe di storage per Amazon S3 on Outposts.  | 

## Valutazione dei costi delle richieste S3 durante l'utilizzo DataSync
<a name="create-s3-location-s3-requests"></a>

Con le sedi Amazon S3, devi sostenere i costi relativi alle richieste API S3 effettuate da. DataSync Questa sezione può aiutarti a capire come DataSync utilizza queste richieste e in che modo potrebbero influire sui costi di [Amazon S3](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Richieste S3 effettuate da DataSync](#create-s3-location-s3-requests-made)
+ [Considerazioni sui costi](#create-s3-location-s3-requests-cost)

### Richieste S3 effettuate da DataSync
<a name="create-s3-location-s3-requests-made"></a>

La tabella seguente descrive le richieste S3 che DataSync puoi effettuare quando copi dati da o verso una posizione Amazon S3.


| Richiesta S3 | Come DataSync lo usa | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync effettua almeno una `LIST` richiesta per ogni oggetto che termina con una barra (`/`) per elencare gli oggetti che iniziano con quel prefisso. Questa richiesta viene chiamata durante la fase di [preparazione](run-task.md#understand-task-execution-statuses) di un'attività.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync effettua `HEAD` richieste per recuperare i metadati degli oggetti durante le fasi di [preparazione](run-task.md#understand-task-execution-statuses) e [verifica](run-task.md#understand-task-execution-statuses) di un'attività. Possono esserci più `HEAD` richieste per oggetto a seconda di come si desidera DataSync [verificare l'integrità dei dati trasferiti](configure-data-verification-options.md). | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync effettua `GET` richieste di lettura dei dati da un oggetto durante la fase di [trasferimento](run-task.md#understand-task-execution-statuses) di un'attività. Possono esserci più `GET` richieste per oggetti di grandi dimensioni.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Se configuri l'attività per [copiare i tag degli oggetti](configure-metadata.md), DataSync effettua queste `GET` richieste per verificare la presenza di tag degli oggetti durante le fasi di [preparazione](run-task.md#understand-task-execution-statuses) e [trasferimento](run-task.md#understand-task-execution-statuses) dell'attività.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync [effettua `PUT` richieste per creare oggetti e prefissi in un bucket S3 di destinazione durante la fase di trasferimento di un'attività.](run-task.md#understand-task-execution-statuses) Poiché DataSync utilizza la [funzionalità di caricamento multiparte di Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html), possono esserci più `PUT` richieste per oggetti di grandi dimensioni. Per ridurre al minimo i costi di storage, consigliamo di utilizzare una [configurazione del ciclo]() di vita per impedire caricamenti incompleti in più parti.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | [Se gli oggetti di origine dispongono di tag e si configura l'attività per [copiare i tag degli oggetti](configure-metadata.md), DataSync effettua queste `PUT` richieste durante il trasferimento di tali tag.](run-task.md#understand-task-execution-statuses) | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync fa una `COPY` richiesta per creare una copia di un oggetto solo se i metadati di quell'oggetto cambiano. Ciò può accadere se originariamente hai copiato i dati nel bucket S3 utilizzando un altro servizio o strumento che non trasferiva i relativi metadati.  | 

### Considerazioni sui costi
<a name="create-s3-location-s3-requests-cost"></a>

DataSync effettua richieste S3 sui bucket S3 ogni volta che esegui un'attività. Ciò può comportare l'addebito di addebiti in determinate situazioni. Esempio:
+ Trasferisci spesso oggetti da o verso un bucket S3.
+ Forse non stai trasferendo molti dati, ma il tuo bucket S3 contiene molti oggetti. In questo scenario è comunque possibile riscontrare costi elevati perché DataSync effettua richieste S3 su ciascuno degli oggetti del bucket.
+ Stai effettuando il trasferimento tra i bucket S3, così DataSync come le richieste S3 sull'origine e sulla destinazione.

Per ridurre al minimo i costi delle richieste S3 relative a DataSync, considera quanto segue:

**Topics**
+ [Quali classi di storage S3 sto utilizzando?](#create-s3-location-s3-requests-storage-classes)
+ [Con che frequenza devo trasferire i miei dati?](#create-s3-location-s3-requests-recurring-transfers)

#### Quali classi di storage S3 sto utilizzando?
<a name="create-s3-location-s3-requests-storage-classes"></a>

I costi delle richieste S3 possono variare in base alla classe di storage Amazon S3 utilizzata dagli oggetti, in particolare per le classi che archiviano oggetti (come S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

Ecco alcuni scenari in cui le classi di storage possono influire sui costi delle richieste S3 quando si utilizza: DataSync
+ Ogni volta che esegui un'attività, DataSync effettua `HEAD` richieste per recuperare i metadati degli oggetti. Queste richieste comportano addebiti anche se non sposti alcun oggetto. L'impatto di queste richieste sulla fattura dipende dalla classe di archiviazione utilizzata dagli oggetti e dal numero di oggetti sottoposti a DataSync scansione.
+ Se hai spostato oggetti nella classe di storage S3 Glacier Instant Retrieval (direttamente o tramite una configurazione del ciclo di vita del bucket), le richieste sugli oggetti di questa classe sono più costose rispetto agli oggetti in altre classi di storage.
+ Se configuri l' DataSync attività per [verificare che le posizioni di origine e destinazione siano completamente sincronizzate](configure-data-verification-options.md), ci saranno `GET` richieste per ogni oggetto in tutte le classi di archiviazione (tranne S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).
+ Oltre alle `GET` richieste, sono previsti costi di recupero dei dati per gli oggetti nella classe di storage S3 Standard-IA, S3 One Zone-IA o S3 Glacier Instant Retrieval.

Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

#### Con che frequenza devo trasferire i miei dati?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Se devi spostare i dati su base ricorrente, pensa a una [pianificazione](task-scheduling.md) che non preveda più attività del necessario.

Potresti anche prendere in considerazione la possibilità di limitare la portata dei tuoi trasferimenti. Ad esempio, puoi configurare di DataSync concentrarti sugli oggetti in determinati prefissi o [filtrare i dati che vengono trasferiti](filtering.md). Queste opzioni possono aiutare a ridurre il numero di richieste S3 effettuate ogni volta che esegui un'attività. DataSync 

## Considerazioni sugli oggetti con i trasferimenti Amazon S3
<a name="create-s3-location-considerations"></a>
+ Se esegui il trasferimento da un bucket S3, usa [S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html) per determinare quanti oggetti stai spostando.
+ [Quando effettui il trasferimento tra bucket S3, ti consigliamo di utilizzare la [modalità attività avanzata perché non sei soggetto a quote di attività](choosing-task-mode.md). DataSync ](datasync-limits.md)
+ DataSync potrebbe non trasferire un oggetto con caratteri non standard nel nome. Per ulteriori informazioni, consulta le [linee guida per la denominazione delle chiavi degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) nella *Amazon S3* User Guide.
+ Quando lo utilizzi DataSync con un bucket S3 che utilizza il controllo delle [versioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html), ricorda quanto segue:
  + Durante il trasferimento in un bucket S3, DataSync crea una nuova versione di un oggetto se quell'oggetto viene modificato all'origine. Ciò comporta costi aggiuntivi.
  + Un oggetto ha una versione diversa IDs nei bucket di origine e di destinazione.
  + Solo la versione più recente di ogni oggetto viene trasferita dal bucket di origine. Le versioni precedenti non vengono copiate nella destinazione.
+ Dopo aver inizialmente trasferito i dati da un bucket S3 a un file system (ad esempio, NFS o FSx Amazon), le esecuzioni successive della DataSync stessa attività non includeranno oggetti che sono stati modificati ma che hanno le stesse dimensioni del primo trasferimento.

## Creazione della località di trasferimento per un bucket Amazon S3 generico
<a name="create-s3-location-how-to"></a>

Per creare una posizione per il trasferimento, è necessario un bucket S3 per uso generico esistente. Se non ne hai uno, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html) Guide.

**Importante**  
Prima di creare la tua posizione, assicurati di leggere le seguenti sezioni:  
[Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes)
[Valutazione dei costi delle richieste S3 durante l'utilizzo DataSync](#create-s3-location-s3-requests)

### Utilizzo della DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. Per il **tipo di posizione**, scegli **Amazon S3**, quindi scegli Bucket per **uso generico**.

1. Per l'**URI S3**, inserisci o scegli il bucket e il prefisso che desideri utilizzare per la tua posizione.
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include`//`, o pattern. `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Per la **classe di storage S3 utilizzata come destinazione**, scegli una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta [Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes).

1. In **IAM role (Ruolo IAM)**, eseguire una delle seguenti operazioni:
   + Scegli **Autogenerate** for per DataSync creare automaticamente un ruolo IAM con le autorizzazioni necessarie per accedere al bucket S3.

     Se DataSync in precedenza hai creato un ruolo IAM per questo bucket S3, quel ruolo viene scelto per impostazione predefinita.
   + Scegli un ruolo IAM personalizzato che hai creato. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. (Facoltativo) Scegli **Aggiungi nuovo tag** per etichettare la tua posizione Amazon S3.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-s3-cli"></a>

1. Copia il seguente `create-location-s3` comando:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Per`--s3-bucket-arn`, specifica l'ARN del bucket S3 che desideri utilizzare come posizione.

1. Per`--s3-storage-class`, specifica una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

1. Per`--s3-config`, specifica l'ARN del ruolo IAM che DataSync deve accedere al tuo bucket.

   Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. Per`--subdirectory`, specifica un prefisso nel bucket S3 da cui DataSync leggere o scrivere (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non può trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Esegui il comando `create-location-s3`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività.

## Creazione della località di trasferimento per un bucket S3 on Outposts
<a name="create-s3-location-outposts-how-to"></a>

Per creare una sede per il trasferimento, è necessario un bucket Amazon S3 on Outposts esistente. Se non ne hai uno, consulta la Guida per l'utente di [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

È inoltre necessario un DataSync agente. Per ulteriori informazioni, consulta [Implementazione dell'agente in modalità Basic su AWS Outposts](deploy-agents.md#outposts-agent).

Quando esegui il trasferimento da un prefisso del bucket S3 on Outposts che contiene un set di dati di grandi dimensioni (ad esempio centinaia di migliaia o milioni di oggetti), l'attività potrebbe scadere. DataSync Per evitare ciò, prendi in considerazione l'utilizzo di un [DataSync manifesto](transferring-with-manifest.md), che ti consente di specificare gli oggetti esatti che devi trasferire.

### Utilizzo della DataSync console
<a name="create-s3-location-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Posizioni** e **Crea posizione**.

1. **Per il **tipo di posizione**, scegli **Amazon S3**, quindi scegli il bucket Outposts.**

1. Per il **bucket S3**, scegli un access point Amazon S3 in grado di accedere al tuo bucket S3 on Outposts. 

   Per ulteriori informazioni, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Per la **classe di storage S3 utilizzata come destinazione**, scegli una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta. [Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes) DataSync per impostazione predefinita utilizza la classe di storage S3 Outposts per Amazon S3 on Outposts.

1. Per **gli agenti**, specifica l'Amazon Resource Name (ARN) dell' DataSync agente sul tuo Outpost.

1. Per **Folder**, inserisci un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. In **IAM role (Ruolo IAM)**, eseguire una delle seguenti operazioni:
   + Scegli **Autogenerate** per DataSync creare automaticamente un ruolo IAM con le autorizzazioni necessarie per accedere al bucket S3.

     Se DataSync in precedenza hai creato un ruolo IAM per questo bucket S3, quel ruolo viene scelto per impostazione predefinita.
   + Scegli un ruolo IAM personalizzato che hai creato. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. (Facoltativo) Scegli **Aggiungi nuovo tag** per etichettare la tua posizione Amazon S3.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

### Utilizzando il AWS CLI
<a name="create-location-s3-cli"></a>

1. Copia il seguente `create-location-s3` comando:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. Per`--s3-bucket-arn`, specifica l'ARN, un punto di accesso Amazon S3 che può accedere al tuo bucket S3 on Outposts.

   Per ulteriori informazioni, consulta la [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Per`--s3-storage-class`, specifica una classe di storage che desideri che i tuoi oggetti utilizzino quando Amazon S3 è una destinazione di trasferimento.

   Per ulteriori informazioni, consulta[Considerazioni sulla classe di storage con Amazon S3 Transfers](#using-storage-classes). DataSync per impostazione predefinita utilizza la classe di archiviazione S3 Outposts per S3 su Outposts.

1. Per`--s3-config`, specifica l'ARN del ruolo IAM che DataSync deve accedere al tuo bucket.

   Per ulteriori informazioni, consulta [Creazione di un ruolo IAM DataSync per accedere alla tua posizione Amazon S3](#create-role-manually).

1. Per`--subdirectory`, specifica un prefisso nel bucket S3 da cui DataSync leggere o scrivere (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non può trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Per`--agent-arns`, specifica l'ARN dell' DataSync agente sul tuo Outpost.

1. Esegui il comando `create-location-s3`.

   Se il comando ha esito positivo, si ottiene una risposta che mostra l'ARN della posizione creata. Esempio:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività.

## Trasferimenti Amazon S3 attraverso Account AWS
<a name="create-s3-location-cross-transfers"></a>

[Con DataSync, puoi spostare i dati da o verso i bucket S3 in diversi modi. Account AWS](working-with-locations.md#working-with-locations-across-accounts) Per ulteriori informazioni, consulta i seguenti tutorial:
+ [Trasferimento di dati dallo storage locale ad Amazon S3 attraverso Account AWS](s3-cross-account-transfer.md)
+ [Trasferimento di dati da Amazon S3 ad Amazon S3 attraverso Account AWS](tutorial_s3-s3-cross-account-transfer.md)

## Trasferimenti Amazon S3 tra società commerciali e AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

Per impostazione predefinita, DataSync non effettua trasferimenti tra bucket S3 in modalità commerciale e. AWS GovCloud (US) Regions Puoi comunque configurare questo tipo di trasferimento, tuttavia, creando una posizione di archiviazione degli oggetti per uno dei bucket S3 del trasferimento. È possibile eseguire questo tipo di trasferimento con o senza un agente. Se si utilizza un agente, l'operazione deve essere configurata per la modalità **Base**. Per effettuare il trasferimento senza un agente, è necessario utilizzare la modalità **Avanzata**.

**Prima di iniziare**: assicurati di comprendere le implicazioni in termini di costi del trasferimento tra regioni. Per ulteriori informazioni, consulta la sezione [Prezzi di AWS DataSync](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Fornire DataSync l'accesso al bucket della posizione di archiviazione degli oggetti](#create-s3-location-govcloud-iam)
+ [Creazione del tuo DataSync agente (opzionale)](#create-s3-location-govcloud-create-agent)
+ [Creazione di una posizione di archiviazione degli oggetti per il tuo bucket S3](#create-s3-location-govcloud-how-to)

### Fornire DataSync l'accesso al bucket della posizione di archiviazione degli oggetti
<a name="create-s3-location-govcloud-iam"></a>

Quando crei la posizione di archiviazione degli oggetti per questo trasferimento, devi fornire DataSync le credenziali di un utente IAM con l'autorizzazione ad accedere al bucket S3 della posizione. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#create-s3-location-required-permissions).

**avvertimento**  
Gli utenti IAM dispongono di credenziali a lungo termine, il che rappresenta un rischio per la sicurezza. Per ridurre questo rischio, si consiglia di fornire a questi utenti solo le autorizzazioni necessarie per eseguire l'attività e di rimuoverli quando non sono più necessari.

### Creazione del tuo DataSync agente (opzionale)
<a name="create-s3-location-govcloud-create-agent"></a>

Se desideri eseguire il trasferimento utilizzando la modalità **Basic**, dovrai utilizzare un agente. Poiché stai effettuando il trasferimento tra una società commerciale e un'altra AWS GovCloud (US) Region, distribuisci il tuo DataSync agente come istanza Amazon EC2 in una delle regioni. Consigliamo al tuo agente di utilizzare un endpoint del servizio VPC per evitare costi di trasferimento dei dati verso la rete Internet pubblica. Per ulteriori informazioni, consulta i [prezzi di Amazon EC2 Data Transfer](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Scegli uno dei seguenti scenari che descrivono come creare un agente in base alla regione in cui intendi eseguire l' DataSync attività.

#### Quando si esegue un' DataSync attività in una regione commerciale
<a name="using-datasync-in-commercial"></a>

Il diagramma seguente mostra un trasferimento in cui l' DataSync attività e l'agente si trovano nella regione commerciale.

![\[Un DataSync agente distribuito in una regione commerciale per un trasferimento interregionale a un bucket S3 in un. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Documentazione di riferimento | Description | 
| --- | --- | 
| 1 | Nella regione commerciale in cui stai eseguendo un' DataSyncattività, i dati vengono trasferiti dal bucket S3 di origine. Il bucket di origine è configurato come una posizione [Amazon S3](#create-s3-location-how-to) nella regione commerciale. | 
| 2 | [Trasferimenti di dati tramite l' DataSync agente, che si trova nello stesso VPC e nella stessa sottorete in cui si trovano l'endpoint del servizio VPC e le interfacce di rete.](required-network-interfaces.md) | 
| 3 | Trasferimenti di dati al bucket S3 di destinazione in. AWS GovCloud (US) Region Il bucket di destinazione è configurato come [posizione di archiviazione degli oggetti](#create-s3-location-govcloud-how-to) nella regione commerciale.  | 

È possibile utilizzare questa stessa configurazione anche per trasferire la direzione opposta dalla AWS GovCloud (US) Region regione commerciale.

**Per creare il tuo DataSync agente**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) nella tua regione commerciale.

1. Configura il tuo agente per utilizzare un [endpoint del servizio VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Attiva il tuo agente.](activate-agent.md)

#### Quando si esegue un' DataSync attività in una regione GovCloud (Stati Uniti)
<a name="using-datasync-in-govcloud-1"></a>

Il diagramma seguente mostra un trasferimento in cui si trovano l' DataSync attività e l' AWS GovCloud (US) Region agente in.

![\[Un DataSync agente distribuito in una AWS GovCloud (US) Region o più regioni si trasferisce in un bucket S3 all'interno della stessa. AWS GovCloud (US) Region\]](http://docs.aws.amazon.com/it_it/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Documentazione di riferimento | Description | 
| --- | --- | 
| 1 | Trasferimenti di dati dal bucket S3 di origine nella regione commerciale al luogo in AWS GovCloud (US) Region cui stai eseguendo un'attività. DataSync Il bucket di origine è configurato come [posizione di archiviazione degli oggetti](#create-s3-location-govcloud-how-to) in. AWS GovCloud (US) Region | 
| 2 | [In AWS GovCloud (US) Region, i dati vengono trasferiti tramite l' DataSync agente nello stesso VPC e nella stessa sottorete in cui si trovano l'endpoint del servizio VPC e le interfacce di rete.](required-network-interfaces.md) | 
| 3 | Trasferimenti di dati al bucket S3 di destinazione in. AWS GovCloud (US) Region Il bucket di destinazione è configurato come posizione [Amazon S3](#create-s3-location-how-to) in. AWS GovCloud (US) Region | 

Puoi utilizzare questa stessa configurazione anche per trasferire la direzione opposta dalla AWS GovCloud (US) Region regione commerciale.

**Per creare il tuo DataSync agente**

1. [Implementa un agente Amazon EC2](deploy-agents.md#ec2-deploy-agent-how-to) nel tuo. AWS GovCloud (US) Region

1. Configura il tuo agente per utilizzare un [endpoint del servizio VPC](choose-service-endpoint.md#datasync-in-vpc).

1. [Attiva il tuo agente.](activate-agent.md)

Se il tuo set di dati è altamente comprimibile, potresti ridurre i costi creando invece il tuo agente in una regione commerciale mentre esegui un'attività in una. AWS GovCloud (US) Region Per la creazione di questo agente sono necessarie più configurazioni del normale, inclusa la preparazione dell'agente per l'uso in una regione commerciale. Per informazioni sulla creazione di un agente per questa configurazione, consulta il AWS DataSync blog [Move data in and out of AWS GovCloud (US) with](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Creazione di una posizione di archiviazione degli oggetti per il tuo bucket S3
<a name="create-s3-location-govcloud-how-to"></a>

Hai bisogno di una posizione di archiviazione degli oggetti per il bucket S3 che si trovi nella regione in cui non stai eseguendo l'attività. DataSync 

#### Utilizzo della console DataSync
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Apri la AWS DataSync console all'indirizzo [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Assicurati di trovarti nella stessa regione in cui intendi eseguire l'attività.

1. Nel riquadro di navigazione a sinistra, espandi **Trasferimento dati**, quindi scegli **Sedi** e **Crea posizione**.

1. Per **Tipo di posizione**, scegli **Archiviazione oggetti**.

1. Per **Agenti**, scegli l' DataSync agente che hai creato per questo trasferimento.

1. Per **Server**, inserisci un endpoint Amazon S3 per il tuo bucket utilizzando uno dei seguenti formati:
   + **Bucket per regione commerciale:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region secchio**: `s3.your-gov-region.amazonaws.com`

   Per un elenco degli endpoint Amazon S3, consulta la. *[Riferimenti generali di AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*

1. Per il nome del **bucket**, inserisci il nome del bucket S3.

1. Per **Folder**, inserisci un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Seleziona **Richiede credenziali ed esegui le** seguenti operazioni:
   + Per la **chiave di accesso**, inserisci la chiave di accesso per un [utente IAM](#create-s3-location-govcloud-iam) che può accedere al bucket.
   + Per **Chiave segreta, inserisci la chiave** segreta dello stesso utente IAM.

1. (Facoltativo) Scegli **Aggiungi tag** per taggare la tua posizione.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Scegli **Crea posizione**.

#### Utilizzando il AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Copia il seguente `create-location-object-storage` comando:

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. Per il `--server-hostname` parametro, specifica un endpoint Amazon S3 per il tuo bucket utilizzando uno dei seguenti formati:
   + **Bucket per regione commerciale:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region secchio**: `s3.your-gov-region.amazonaws.com`

   Per la regione nell'endpoint, assicurati di specificare la stessa regione in cui intendi eseguire l'attività.

   Per un elenco degli endpoint Amazon S3, consulta la. *[Riferimenti generali di AWS](https://docs.aws.amazon.com/general/latest/gr/s3.html)*

1. Per il `--bucket-name` parametro, specifica il nome del bucket S3.

1. Per il `--agent-arns` parametro, specifica l' DataSyncagente che hai creato per questo trasferimento.

1. Per il `--access-key` parametro, specifica la chiave di accesso per un [utente IAM](#create-s3-location-govcloud-iam) che può accedere al bucket.

1. Per il `--secret-key` parametro, inserisci la chiave segreta dello stesso utente IAM.

1. (Facoltativo) Per il `--subdirectory` parametro, specifica un prefisso nel bucket S3 da cui eseguire la DataSync lettura o la scrittura (a seconda che il bucket sia una posizione di origine o di destinazione).
**avvertimento**  
DataSync non è possibile trasferire oggetti con un prefisso che inizia con una barra (`/`) o include o pattern. `//` `/./` `/../` Esempio:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Facoltativo) Per il `--tags` parametro, specificate le coppie chiave-valore che rappresentano i tag per la risorsa di localizzazione.

   I tag ti aiutano a gestire, filtrare e cercare le risorse. È consigliabile creare un tag di nome per la posizione.

1. Esegui il comando `create-location-object-storage`.

   Riceverai una risposta che ti mostra l'ARN della posizione che hai appena creato.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

È possibile utilizzare questa posizione come origine o destinazione per l' DataSync attività. Per l'altro bucket S3 in questo trasferimento, [crea una posizione Amazon S3](#create-s3-location-how-to).

## Fasi successive
<a name="create-s3-location-next-steps"></a>

Alcuni possibili passaggi successivi includono:

1. Se necessario, crea l'altra località. Per ulteriori informazioni, consulta [Con chi posso trasferire i miei dati AWS DataSync?](working-with-locations.md)

1. [Configura le impostazioni delle DataSync attività](task-options.md), ad esempio quali file trasferire, come gestire i metadati, tra le altre opzioni.

1. [Imposta una pianificazione](task-scheduling.md) per la tua DataSync attività.

1. [Configura il monitoraggio](monitoring-overview.md) per la tua DataSync attività.

1. [Inizia](run-task.md) la tua attività.