

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Copia oggetti
<a name="batch-ops-copy-object"></a>

È possibile utilizzare Operazioni in batch Amazon S3 per eseguire operazioni in batch su larga scala su oggetti Amazon S3. L'operazione di **copia** di Operazioni in batch copia ogni oggetto specificato nel manifesto. Puoi copiare oggetti in un bucket nella stessa regione Regione AWS o in un bucket in un'altra regione. S3 Batch Operations supporta la maggior parte delle opzioni disponibili tramite Amazon S3 per la copia di oggetti. Queste opzioni includono l'impostazione dei metadati degli oggetti, l'impostazione delle autorizzazioni e la modifica di una classe di storage di un oggetto. 

È inoltre possibile utilizzare l'operazione **Copia** per copiare gli oggetti esistenti non crittografati e riscriverli nello stesso bucket degli oggetti crittografati. Per ulteriori informazioni, consulta [Crittografia di oggetti con le operazioni in batch di Amazon S3](https://aws.amazon.com/blogs/storage/encrypting-objects-with-amazon-s3-batch-operations/).

Quando esegui la copia degli oggetti puoi modificare l'algoritmo di checksum utilizzato per calcolare il checksum dell'oggetto. Se gli oggetti non hanno un checksum aggiuntivo calcolato, puoi anche aggiungerne uno specificando l'algoritmo di checksum che Amazon S3 deve utilizzare. Per ulteriori informazioni, consulta [Verifica dell'integrità degli oggetti in Amazon S3](checking-object-integrity.md).

Per ulteriori informazioni sulla copia di oggetti in Amazon S3 e sui parametri richiesti e opzionali, consulta [Copia, spostamento e denominazione di oggetti](copy-object.md) in questa guida e [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) in *Riferimento API di Amazon Simple Storage Service*.

## Restrizioni e limitazioni
<a name="batch-ops-copy-object-restrictions"></a>

Quando si utilizza l'operazione di **copia** di Operazioni in batch, si applicano le seguenti restrizioni e limitazioni:
+ Tutti gli oggetti di origine devono trovarsi in un bucket.
+ Tutti gli oggetti di destinazione devono trovarsi in un bucket.
+ È necessario disporre delle autorizzazioni di lettura per il bucket di origine e delle autorizzazioni di scrittura per il bucket di destinazione.
+ Gli oggetti da copiare non possono avere dimensioni superiori a 5 GB.
+ Se si tenta di copiare oggetti dalle classi Recupero flessibile S3 Glacier o S3 Glacier Deep Archive alla classe di storage S3 Standard, è necessario prima ripristinare tali oggetti. Per ulteriori informazioni, consulta [Ripristino di un oggetto archiviato](restoring-objects.md).
+ È necessario creare i processi di **copia** di Operazioni in batch nella Regione di destinazione, ovvero la Regione in cui si intende copiare gli oggetti.
+ Tutte le `CopyObject` opzioni sono supportate ad eccezione dei controlli condizionali sui tag di entità (ETags) e della crittografia lato server con chiavi di crittografia fornite dal cliente (SSE-C).
+ Se il bucket di destinazione non è aggiornato, si sovrascriveranno gli oggetti che hanno gli stessi nomi di chiave.
+ Gli oggetti non sono necessariamente copiati nello stesso ordine in cui appaiono nel manifesto. Per i bucket con controllo delle versioni, se è importante mantenere l'ordine delle versioni correnti o non correnti, copiare prima tutte le versioni non correnti. Quindi, al termine del primo processo, copia le versioni correnti in un processo successivo. 
+ La copia di oggetti nella classe RRS (Reduced Redundancy Storage) non è supportata.
+ Un singolo processo di copia Operazioni in batch può supportare un manifesto con un massimo di 20 miliardi di oggetti.

# Copia di oggetti mediante operazioni in batch S3
<a name="batch-ops-examples-copy"></a>

È possibile utilizzare Operazioni in batch Amazon S3 per eseguire operazioni in batch su larga scala su oggetti Amazon S3. È possibile utilizzare Operazioni in batch S3 per creare un processo di **copia** (`CopyObject`) per copiare oggetti all'interno dello stesso account o in un account di destinazione diverso. 

Gli esempi seguenti mostrano come memorizzare e utilizzare un manifesto che si trova in un account diverso. Il primo esempio mostra come utilizzare Inventario Amazon S3 per consegnare il report di inventario all'account di destinazione e utilizzarlo durante la creazione del processo. Il secondo esempio mostra come utilizzare un manifesto di valori separati da virgole (CSV) nell'account di origine o di destinazione. Il terzo esempio mostra come utilizzare l'operazione di **Copia** per abilitare le chiavi S3 Bucket per gli oggetti esistenti che sono stati crittografati utilizzando la crittografia lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS).

**Topics**
+ [

# Utilizzo di un rapporto di inventario per copiare gli oggetti Account AWS
](specify-batchjob-manifest-xaccount-inventory.md)
+ [

# Utilizzo di un manifesto CSV per copiare oggetti Account AWS
](specify-batchjob-manifest-xaccount-csv.md)
+ [

# Utilizzo delle operazioni in batch per abilitare le chiavi S3 Bucket per SSE-KMS
](batch-ops-copy-example-bucket-key.md)

# Utilizzo di un rapporto di inventario per copiare gli oggetti Account AWS
<a name="specify-batchjob-manifest-xaccount-inventory"></a>

È possibile utilizzare Operazioni in batch Amazon S3 per eseguire operazioni in batch su larga scala su oggetti Amazon S3. È possibile utilizzare Operazioni in batch S3 per creare un processo di **copia** (`CopyObject`) per copiare oggetti all'interno dello stesso account o in un account di destinazione diverso.

È possibile utilizzare Inventario Amazon S3 per creare un report di inventario e utilizzare il report stesso per creare un elenco (manifesto) di oggetti da copiare con Operazioni in batch S3. Per maggiori informazioni sull'utilizzo di un manifest CSV nell'account di origine o di destinazione, consulta [Utilizzo di un manifesto CSV per copiare oggetti Account AWS](specify-batchjob-manifest-xaccount-csv.md).

L'inventario Amazon S3 genera inventari degli oggetti in un bucket. L'elenco risultante viene pubblicato in un file di output. Il bucket inventariato è chiamato bucket di origine, mentre il bucket dove viene memorizzato il file del rapporto di inventario è chiamato bucket di destinazione. 

Il report Amazon S3 Inventory può essere configurato per essere consegnato a un altro. Account AWS In questo modo, Operazioni in batch S3 può leggere il report di inventario quando il processo viene creato nell'account di destinazione.

Per ulteriori informazioni sui bucket di origine e di destinazione di Inventario Amazon S3, consulta [Bucket di origine e di destinazione](storage-inventory.md#storage-inventory-buckets).

Il modo più semplice per configurare un inventario è utilizzare la console Amazon S3, ma puoi anche utilizzare l'API REST di Amazon S3 AWS Command Line Interface ,AWS CLI() o. AWS SDKs

La procedura della console seguente contiene le fasi di livello elevato per la configurazione delle autorizzazioni per un processo di operazioni in batch S3. In questa procedura, si copiano gli oggetti da un account di origine a un account di destinazione, con il report di inventario archiviato nell'account di destinazione.

**Per configurare Amazon S3 Inventory per bucket di origine e di destinazione di proprietà di account diversi**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Scegli (o crea) un bucket del manifesto di destinazione in cui archiviare il report di inventario. In questa procedura, l’*account di destinazione* è l’account che possiede sia il bucket manifest di destinazione sia il bucket in cui vengono copiati gli oggetti.

1. Configura un report di inventario per un bucket di origine. Per informazioni su come utilizzare la console per configurare un inventario o su come crittografare il file dell'elenco inventario, consulta [Configurazione di Amazon S3 Inventory](configure-inventory.md). 

   Quando si configura il report di inventario, si specifica il bucket di destinazione in cui si desidera memorizzare l'elenco. Il rapporto di inventario per il bucket di origine viene pubblicato nel bucket di destinazione. In questa procedura, l'*account di origine* è l'account che possiede il bucket di origine.

   Scegliere **CSV** come formato di output.

   Quando si inseriscono le informazioni per il bucket di destinazione, scegliere **Buckets in another account (Bucket in un altro account)**. Quindi inserire il nome del bucket manifest di destinazione. Facoltativamente, è possibile inserire l'ID account dell'account di destinazione.

   Una volta salvata la configurazione dell'inventario, la console visualizza un messaggio simile al seguente: 

   Amazon S3 could not create a bucket policy on the destination bucket. Ask the destination bucket owner to add the following bucket policy to allow Amazon S3 to place data in that bucket.

   La console visualizza quindi una policy di bucket che può essere usata per il bucket di destinazione.

1. Copiare la policy del bucket di destinazione visualizzata sulla console.

1. Nell'account di destinazione, aggiungere la policy di bucket copiata nel bucket manifesto di destinazione in cui è memorizzato il report di inventario.

1. Creare un ruolo nell'account di destinazione basato sulla policy di attendibilità delle operazioni in batch S3. Per ulteriori informazioni su questa policy di attendibilità, consulta [Policy di trust](batch-ops-iam-role-policies.md#batch-ops-iam-role-policies-trust).

   Per ulteriori informazioni sulla creazione di un ruolo, consulta [ Creazione di un ruolo per delegare le autorizzazioni a Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) nella *Guida all'utente IAM*.

   Immetti un nome per il ruolo (il seguente esempio di ruolo utilizza il nome *`BatchOperationsDestinationRoleCOPY`*). Scegli il servizio **S3**, quindi scegli il caso d'uso **Operazioni in batch S3**, che applica la policy di attendibilità al ruolo. 

   Scegli quindi **Crea policy** per associare la seguente policy al ruolo. Per utilizzare questa policy, sostituisci *`user input placeholders`* con le tue informazioni. 

------
#### [ JSON ]

****  

   ```
   {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
       {
         "Sid": "AllowBatchOperationsDestinationObjectCOPY",
         "Effect": "Allow",
         "Action": [
           "s3:PutObject",
           "s3:PutObjectVersionAcl",
           "s3:PutObjectAcl",
           "s3:PutObjectVersionTagging",
           "s3:PutObjectTagging",
           "s3:GetObject",
           "s3:GetObjectVersion",
           "s3:GetObjectAcl",
           "s3:GetObjectTagging",
           "s3:GetObjectVersionAcl",
           "s3:GetObjectVersionTagging"
         ],
         "Resource": [
           "arn:aws:s3:::amzn-s3-demo-destination-bucket/*",
           "arn:aws:s3:::amzn-s3-demo-source-bucket/*",
           "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
         ]
       }
     ]
   }
   ```

------

   Il ruolo usa la policy per concedere l’autorizzazione `batchoperations.s3.amazonaws.com` per leggere il manifest nel bucket di destinazione. Concede inoltre autorizzazioni agli `GET` oggetti, alle liste di controllo degli accessi (ACLs), ai tag e alle versioni nel bucket degli oggetti di origine. Inoltre, concede le autorizzazioni agli `PUT` oggetti ACLs, ai tag e alle versioni nel bucket degli oggetti di destinazione.

1. Nell'account di origine, crea una policy per il bucket di origine che conceda le autorizzazioni del ruolo creato nel passaggio precedente agli `GET` oggetti ACLs, ai tag e alle versioni nel bucket di origine. Questa fase consente alle operazioni in batch S3 di ottenere oggetti dal bucket di origine tramite il ruolo trusted.

   Segue un esempio della policy di bucket per l’account di origine. Per utilizzare questa policy, sostituisci *`user input placeholders`* con le tue informazioni.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "AllowBatchOperationsSourceObjectCOPY",
               "Effect": "Allow",
               "Principal": {
                   "AWS": "arn:aws:iam::111122223333:role/BatchOperationsDestinationRoleCOPY"
               },
               "Action": [
                   "s3:GetObject",
                   "s3:GetObjectVersion",
                   "s3:GetObjectAcl",
                   "s3:GetObjectTagging",
                   "s3:GetObjectVersionAcl",
                   "s3:GetObjectVersionTagging"
               ],
               "Resource": "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
           }
       ]
   }
   ```

------

1. Una volta che il report di inventario è disponibile, crea un processo di **copia** (`CopyObject`) di Operazioni in batch S3 nell'account di destinazione e scegli il report di inventario dal bucket manifesto di destinazione. È necessario l'ARN del ruolo IAM creato nell'account di destinazione.

   Per informazioni generali sulla creazione di un processo, consultare [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md).

   Per informazioni sulla creazione di un processo tramite la console, consulta [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md).

# Utilizzo di un manifesto CSV per copiare oggetti Account AWS
<a name="specify-batchjob-manifest-xaccount-csv"></a>

È possibile utilizzare Operazioni in batch Amazon S3 per eseguire operazioni in batch su larga scala su oggetti Amazon S3. È possibile utilizzare Operazioni in batch S3 per creare un processo di **copia** (`CopyObject`) per copiare oggetti all'interno dello stesso account o in un account di destinazione diverso.

È possibile utilizzare un manifesto CSV memorizzato nell'account di origine per copiare gli oggetti su Account AWS con Operazioni in batch S3. Per utilizzare un report di Inventario S3 come manifesto, consulta [Utilizzo di un rapporto di inventario per copiare gli oggetti Account AWS](specify-batchjob-manifest-xaccount-inventory.md).

Per un esempio di formato CSV per i file manifesto, consulta [Creazione di un file manifesto](batch-ops-create-job.md#create-manifest-file).

La procedura seguente mostra come impostare le autorizzazioni quando si utilizza un processo di Operazioni in batch S3 per copiare oggetti da un account di origine a un account di destinazione con un file manifesto CSV memorizzato nell'account di origine.

**Per utilizzare un manifesto CSV su cui copiare oggetti Account AWS**

1. Crea un ruolo AWS Identity and Access Management (IAM) nell'account di destinazione basato sulla policy di fiducia di S3 Batch Operations. In questa procedura, l’*account di destinazione* è l’account in cui vengono copiati gli oggetti.

   Per ulteriori informazioni sulla policy di attendibilità, consultare [Policy di trust](batch-ops-iam-role-policies.md#batch-ops-iam-role-policies-trust).

   Per ulteriori informazioni sulla creazione di un ruolo, consulta [Creazione di un ruolo per delegare le autorizzazioni a Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) nella *Guida all'utente IAM*.

   Se si crea il ruolo tramite la console, inserire un nome per il ruolo (l'esempio seguente utilizza il nome `BatchOperationsDestinationRoleCOPY`). Scegli il servizio **S3**, quindi scegli il caso d'uso **Operazioni in batch S3**, che applica la policy di attendibilità al ruolo.

   Scegli quindi **Crea policy** per associare la seguente policy al ruolo. Per utilizzare questa policy, sostituisci *`user input placeholders`* con le tue informazioni.

------
#### [ JSON ]

****  

   ```
   {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
       {
         "Sid": "AllowBatchOperationsDestinationObjectCOPY",
         "Effect": "Allow",
         "Action": [
           "s3:PutObject",
           "s3:PutObjectVersionAcl",
           "s3:PutObjectAcl",
           "s3:PutObjectVersionTagging",
           "s3:PutObjectTagging",
           "s3:GetObject",
           "s3:GetObjectVersion",
           "s3:GetObjectAcl",
           "s3:GetObjectTagging",
           "s3:GetObjectVersionAcl",
           "s3:GetObjectVersionTagging"
         ],
         "Resource": [
           "arn:aws:s3:::amzn-s3-demo-destination-bucket/*",
           "arn:aws:s3:::amzn-s3-demo-source-bucket/*",
           "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
         ]
       }
     ]
   }
   ```

------

   Usando la policy, il ruolo concede l’autorizzazione `batchoperations.s3.amazonaws.com` per leggere il manifest nel bucket manifest di origine. Concede le autorizzazioni agli `GET` oggetti, alle liste di controllo degli accessi (ACLs), ai tag e alle versioni nel bucket degli oggetti di origine. Concede inoltre le autorizzazioni per `PUT` oggetti ACLs, tag e versioni nel bucket degli oggetti di destinazione.

1. Nell'account di origine, crea una policy di bucket per il bucket che contiene il manifesto per concedere al ruolo creato nel passaggio precedente le autorizzazioni per gli oggetti e le versioni di `GET` nel bucket del manifesto di origine.

   Questo passaggio consente a Operazioni in batch S3 di leggere il manifesto utilizzando il ruolo di attendibilità. Applicare la policy di bucket al bucket che contiene il manifest.

   Segue un esempio della policy di bucket da applicare al bucket manifest di origine. Per utilizzare questa policy, sostituisci *`user input placeholders`* con le tue informazioni.

------
#### [ JSON ]

****  

   ```
   {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
       {
         "Sid": "AllowBatchOperationsSourceManifestRead",
         "Effect": "Allow",
         "Principal": {
           "AWS": [
             "arn:aws:iam::111122223333:user/ConsoleUserCreatingJob",
             "arn:aws:iam::111122223333:role/BatchOperationsDestinationRoleCOPY"
           ]
         },
         "Action": [
           "s3:GetObject",
           "s3:GetObjectVersion"
         ],
         "Resource": "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
       }
     ]
   }
   ```

------

   Questa policy inoltre concede le autorizzazioni per garantire a un utente della console che sta creando un processo nell’account di destinazione le stesse autorizzazioni nel bucket manifest di origine tramite la stessa policy di bucket.

1. Nell'account di origine, create una policy per il bucket di origine che conceda le autorizzazioni per il ruolo che avete creato agli `GET` oggetti ACLs, ai tag e alle versioni nel bucket degli oggetti di origine. Le operazioni in batch S3 possono quindi ottenere oggetti dal bucket di origine tramite il ruolo trusted.

   Segue un esempio della policy di bucket per il bucket che contiene gli oggetti di origine. Per utilizzare questa policy, sostituisci *`user input placeholders`* con le tue informazioni.

------
#### [ JSON ]

****  

   ```
   {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
       {
         "Sid": "AllowBatchOperationsSourceObjectCOPY",
         "Effect": "Allow",
         "Principal": {
           "AWS": "arn:aws:iam::111122223333:role/BatchOperationsDestinationRoleCOPY"
         },
         "Action": [
           "s3:GetObject",
           "s3:GetObjectVersion",
           "s3:GetObjectAcl",
           "s3:GetObjectTagging",
           "s3:GetObjectVersionAcl",
           "s3:GetObjectVersionTagging"
         ],
         "Resource": "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
       }
     ]
   }
   ```

------

1. Creare un processo di operazioni in batch S3 nell'account di destinazione. È necessario l’Amazon Resource Name (ARN) del ruolo creato nell'account di destinazione. Per ulteriori informazioni sulla creazione di un processo, consulta [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md).

# Utilizzo delle operazioni in batch per abilitare le chiavi S3 Bucket per SSE-KMS
<a name="batch-ops-copy-example-bucket-key"></a>

S3 Bucket Keys riduce il costo della crittografia lato server con AWS Key Management Service (AWS KMS) (SSE-KMS) diminuendo il traffico delle richieste da Amazon S3 a. AWS KMS Per ulteriori informazioni, consultare [Riduzione del costo di SSE-KMS con le chiavi bucket Amazon S3](bucket-key.md) e [Configurazione del bucket per utilizzare una chiave bucket S3 con SSE-KMS per nuovi oggetti](configuring-bucket-key.md). Quando esegui un'`CopyObject`operazione utilizzando l'API REST, oppure AWS SDKs AWS CLI, puoi abilitare o disabilitare una chiave S3 Bucket a livello di oggetto aggiungendo l'intestazione della richiesta con un valore or. `x-amz-server-side-encryption-bucket-key-enabled` `true` `false` 

Quando si configura una chiave S3 Bucket per un oggetto utilizzando un'operazione `CopyObject`, Amazon S3 aggiorna solo le impostazioni per quell'oggetto. Le impostazioni della chiave del bucket S3 per il bucket di destinazione non vengono modificate. Se si invia una richiesta `CopyObject` per un oggetto crittografato AWS KMS a un bucket con S3 Bucket Keys abilitate, l'operazione a livello di oggetto utilizzerà automaticamente S3 Bucket Keys, a meno che non si disabilitino le chiavi nell'intestazione della richiesta. Se non specifichi una chiave bucket S3 per il tuo oggetto, Amazon S3 applica le impostazioni della chiave bucket S3 per il bucket di destinazione all'oggetto.

Per crittografare gli oggetti Amazon S3 esistenti, è possibile utilizzare Operazioni in batch S3. È possibile utilizzare l'operazione di **copia delle operazioni in batch** per copiare gli oggetti non crittografati esistenti e scrivere i nuovi oggetti crittografati nello stesso bucket. Per ulteriori informazioni, [consulta Encrypting objects with Amazon S3 Batch](https://aws.amazon.com/blogs/storage/encrypting-objects-with-amazon-s3-batch-operations/) Operations AWS sul blog di storage.

Nell'esempio seguente, si utilizza l'operazione di **copia** Operazioni in batch per abilitare le chiavi bucket S3 per gli oggetti esistenti. Per ulteriori informazioni, consulta [Configurazione di una chiave bucket S3 a livello di oggetto](configuring-bucket-key-object.md).

**Topics**
+ [

## Considerazioni sull'utilizzo di Operazioni in batch S3 per crittografare gli oggetti con chiavi bucket S3 abilitate
](#bucket-key-ex-things-to-note)
+ [

## Prerequisiti
](#bucket-key-ex-prerequisites)
+ [

## Fase 1: Ottenimento dell'elenco di oggetti tramite Amazon S3 Inventory
](#bucket-key-ex-get-list-of-objects)
+ [

## Fase 2: Filtro dell'elenco degli oggetti con S3 Select
](#bucket-key-ex-filter-object-list-with-s3-select)
+ [

## Fase 3: Impostazione ed esecuzione del processo di operazioni in batch S3
](#bucket-key-ex-setup-and-run-job)

## Considerazioni sull'utilizzo di Operazioni in batch S3 per crittografare gli oggetti con chiavi bucket S3 abilitate
<a name="bucket-key-ex-things-to-note"></a>

Quando si usa Operazioni in batch S3 per crittografare gli oggetti con chiavi bucket S3 abilitate, si devono considerare i seguenti problemi:
+ Verranno addebitati i costi di processi, oggetti e richieste associati alla funzione Operazioni in batch Amazon S3, oltre ai costi associati all'operazione eseguita dalla funzione Operazioni in batch Amazon S3 per tuo conto, inclusi trasferimenti dati, richieste e altri addebiti. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing).
+ Se utilizzi un bucket con versioni, ogni processo di operazioni in batch S3 eseguito crea nuove versioni crittografate degli oggetti. Conserva anche le versioni precedenti configurate senza chiave di bucket S3. Per eliminare le versioni precedenti, imposta una policy di scadenza del ciclo di vita S3 per le versioni non correnti, come descritto in [Elementi della configurazione del ciclo di vita](intro-lifecycle-rules.md).
+ L'operazione di copia crea nuovi oggetti con nuove date di creazione, che possono influire sulle operazioni del ciclo di vita, come ad esempio l'archiviazione. Se copi tutti gli oggetti nel bucket, tutte le nuove copie avranno date di creazione identiche o simili. Per identificare ulteriormente questi oggetti e creare regole del ciclo di vita diverse per vari sottoinsiemi di dati, è consigliabile utilizzare i tag oggetto. 

## Prerequisiti
<a name="bucket-key-ex-prerequisites"></a>

Prima di configurare gli oggetti per l'utilizzo di una chiave S3 Bucket, consulta [Modifiche alla nota prima dell'abilitazione di una chiave bucket S3](bucket-key.md#bucket-key-changes). 

Per utilizzare questo esempio, devi disporre di un bucket S3 Account AWS e di almeno un bucket S3 per contenere i file di lavoro e i risultati crittografati. È inoltre possibile trovare utile buona parte della documentazione esistente delle operazioni in batch S3, inclusi i seguenti argomenti:
+ [Nozioni di base sulle operazioni in batch S3](batch-ops.md#batch-ops-basics)
+ [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md)
+ [Operazioni supportate dalle operazioni in batch S3](batch-ops-operations.md)
+ [Gestione dei processi di operazioni in batch Amazon S3](batch-ops-managing-jobs.md)

## Fase 1: Ottenimento dell'elenco di oggetti tramite Amazon S3 Inventory
<a name="bucket-key-ex-get-list-of-objects"></a>

Per iniziare, identifica il bucket S3 che contiene gli oggetti da crittografare e recupera un elenco del suo contenuto. Un report di inventario di Amazon S3 è il modo più conveniente per farlo. Il report fornisce l'elenco degli oggetti di un bucket con i relativi metadati. In questo passaggio, il bucket di origine è il bucket inventariato e il bucket di destinazione è il bucket in cui si memorizza il file del report di inventario. Per ulteriori informazioni sui bucket di origine e di destinazione di Inventario Amazon S3, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

Il modo più semplice per configurare un inventario consiste nell'utilizzare la Console di gestione AWS. Ma puoi anche usare l'API REST, AWS Command Line Interface (AWS CLI) o. AWS SDKs Prima di seguire questi passaggi, assicurati di accedere alla console e aprire la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) Se si verificano errori di autorizzazione negata, aggiungi una policy bucket al bucket di destinazione. Per ulteriori informazioni, consulta [Concedere autorizzazioni per S3 Inventory e S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

**Come ottenere un elenco di oggetti tramite Inventario S3**

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Bucket** e seleziona un bucket contenente gli oggetti da crittografare.

1. Nella scheda **Gestione**, passa alla sezione **Configurazioni di inventario** e seleziona **Crea configurazione di inventario**.

1. Assegna un nome al tuo nuovo inventario, inserisci il nome del bucket S3 di destinazione e, facoltativamente, crea un prefisso di destinazione per Amazon S3 per assegnare gli oggetti in quel bucket.

1. Per **Formato di output**, seleziona **CSV**.

1. (Facoltativo) Nella sezione **Campi aggiuntivi - *facoltativi***, seleziona **Crittografia** e tutti gli altri campi del report che ti interessano. Imposta la frequenza per le consegne del report su **Giornaliero** in modo che il primo report venga consegnato al bucket quanto prima.

1. Seleziona **Crea** per salvare la configurazione.

Amazon S3 può richiedere fino a 48 ore per consegnare il primo report, quindi controlla quando arriva. Dopo aver ricevuto il primo report, procedi alla fase successiva per filtrare i contenuti del report di Inventario S3. Se non desideri più ricevere report di inventario per questo bucket, elimina la configurazione dell'inventario S3. Altrimenti, Amazon S3 continua a consegnare i report su base giornaliera o settimanale.

Un elenco di inventario non è una point-in-time visualizzazione singola di tutti gli oggetti. Gli elenchi di inventario sono uno snapshot in sequenza di voci del bucket, che sono a consistenza finale (cioè, l'elenco potrebbe non includere oggetti aggiunti o eliminati di recente). La combinazione di inventario S3 e operazioni in batch S3 funziona meglio quando si lavora con oggetti statici o con un set di oggetti creato due o più giorni prima. Per lavorare con dati più recenti, utilizza l'operazione API [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html) (`GET` bucket) per costruire manualmente l'elenco di oggetti. Se necessario, ripeti la procedura per i giorni successivi o finché il report di inventario non mostra lo stato desiderato per tutti gli oggetti.

## Fase 2: Filtro dell'elenco degli oggetti con S3 Select
<a name="bucket-key-ex-filter-object-list-with-s3-select"></a>

Dopo aver ricevuto il report di Inventario S3, è possibile filtrare il contenuto del report per elencare solo gli oggetti che non sono crittografati con chiavi bucket S3 abilitate. Se si desidera che tutti gli oggetti del bucket siano crittografati con S3 Bucket Keys abilitate, si può ignorare questo passaggio. Tuttavia, filtrando il report di Inventario S3 in questa fase si risparmia il tempo e la spesa di una nuova crittografia degli oggetti precedentemente crittografati con chiavi del bucket S3 abilitate.

Sebbene i passaggi seguenti mostrino come filtrare utilizzando [Amazon S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/), è possibile utilizzare anche [Amazon Athena](https://aws.amazon.com/athena). Per decidere quale strumento utilizzare, dai un'occhiata al file `manifest.json` del report di inventario S3. Questo file riporta il numero di file di dati associati a tale report. Se il numero è grande, usa Amazon Athena perché viene eseguito su più oggetti S3, mentre S3 Select funziona su un oggetto alla volta. Per ulteriori informazioni sull'utilizzo congiunto di Amazon S3 e Athena, consulta [Esecuzione di query sull'inventario Amazon S3 con Amazon Athena](storage-inventory-athena-query.md) «Uso di Athena» nel post del blog di AWS storage Encrypting objects [with Amazon](https://aws.amazon.com/blogs/storage/encrypting-objects-with-amazon-s3-batch-operations) S3 Batch Operations.

**Per filtrare il report di Inventario S3 utilizzando S3 Select**

1. Apri il file `manifest.json` dal report di inventario e guarda la sezione `fileSchema` del JSON. Questa sezione informa la query che si esegue sui dati. 

   Il seguente JSON è un file `manifest.json` di esempio per un inventario in formato CSV su un bucket con il controllo delle versioni abilitato. A seconda di come hai configurato il report di inventario, il manifest potrebbe apparire diverso.

   ```
     {
       "sourceBucket": "batchoperationsdemo",
       "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",
       "version": "2021-05-22",
       "creationTimestamp": "1558656000000",
       "fileFormat": "CSV",
       "fileSchema": "Bucket, Key, VersionId, IsLatest, IsDeleteMarker, BucketKeyStatus",
       "files": [
         {
           "key": "demoinv/batchoperationsdemo/DemoInventory/data/009a40e4-f053-4c16-8c75-6100f8892202.csv.gz",
           "size": 72691,
           "MD5checksum": "c24c831717a099f0ebe4a9d1c5d3935c"
         }
       ]
     }
   ```

   Se il controllo delle versioni non è attivato nel bucket o se hai deciso di eseguire il report per le versioni più recenti, la `fileSchema` è `Bucket`, `Key` e `BucketKeyStatus`. 

   Se il controllo delle versioni *è* attivato, a seconda di come è stato impostato il report di inventario, il `fileSchema` può includere quanto segue: `Bucket`, `Key`, `VersionId`, `IsLatest`, `IsDeleteMarker`, `BucketKeyStatus`. Quindi presta attenzione alle colonne 1, 2, 3 e 6 quando esegui la query. 

   Per eseguire il processo, la funzionalità Operazioni in batch Amazon S3 richiede come input il bucket, la chiave e l'ID versione, oltre al campo in base al quale eseguire la ricerca, ovvero `BucketKeyStatus`. Il campo `VersionID` non è necessario, ma è utile specificare il campo `VersionID` quando si opera su un bucket con controllo delle versioni. Per ulteriori informazioni, consulta [Utilizzo di oggetti in un bucket che supporta la funzione Controllo delle versioni](manage-objects-versioned-bucket.md).

1. Individua i file di dati per il report di inventario. L'oggetto `manifest.json` riporta i file di dati in **files**.

1. Dopo aver individuato e selezionato il file di dati nella console S3, seleziona **Operazioni** quindi scegli **Query con S3 Select**.

1. Mantieni i valori preimpostati per **CSV**, **virgola** e **GZIP** e seleziona **Successivo**.

1. Per rivedere il formato del report dell'inventario prima di procedere, scegli **Mostra anteprima file**.

1. Immetti le colonne a cui fare riferimento nel campo SQL expression (Espressione SQL), quindi seleziona **Run SQL (Esegui SQL)**. L'espressione seguente restituisce le colonne 1-3 per tutti gli oggetti senza chiave bucket S3 configurata.

   `select s._1, s._2, s._3 from s3object s where s._6 = 'DISABLED'`

   Di seguito sono riportati i risultati di esempio.

   ```
         batchoperationsdemo,0100059%7Ethumb.jpg,lsrtIxksLu0R0ZkYPL.LhgD5caTYn6vu
         batchoperationsdemo,0100074%7Ethumb.jpg,sd2M60g6Fdazoi6D5kNARIE7KzUibmHR
         batchoperationsdemo,0100075%7Ethumb.jpg,TLYESLnl1mXD5c4BwiOIinqFrktddkoL
         batchoperationsdemo,0200147%7Ethumb.jpg,amufzfMi_fEw0Rs99rxR_HrDFlE.l3Y0
         batchoperationsdemo,0301420%7Ethumb.jpg,9qGU2SEscL.C.c_sK89trmXYIwooABSh
         batchoperationsdemo,0401524%7Ethumb.jpg,ORnEWNuB1QhHrrYAGFsZhbyvEYJ3DUor
         batchoperationsdemo,200907200065HQ%7Ethumb.jpg,d8LgvIVjbDR5mUVwW6pu9ahTfReyn5V4
         batchoperationsdemo,200907200076HQ%7Ethumb.jpg,XUT25d7.gK40u_GmnupdaZg3BVx2jN40
         batchoperationsdemo,201103190002HQ%7Ethumb.jpg,z.2sVRh0myqVi0BuIrngWlsRPQdb7qOS
   ```

1. Scarica i risultati, salvali in un formato CSV e caricali in Amazon S3 come elenco di oggetti per il processo di operazioni in batch S3.

1. Se disponi di più file manifest, esegui **Query con S3 Select** anche su quelli. A seconda delle dimensioni dei risultati, è possibile combinare gli elenchi ed eseguire un singolo processo di operazioni in batch S3 oppure eseguire ogni elenco come processo separato. Per decidere il numero di processi da eseguire, considera il [prezzo](https://aws.amazon.com/s3/pricing/) dell'esecuzione di ciascun processo di Operazioni in batch S3.

## Fase 3: Impostazione ed esecuzione del processo di operazioni in batch S3
<a name="bucket-key-ex-setup-and-run-job"></a>

Ora che si dispone di elenchi CSV filtrati di oggetti S3, è possibile avviare il processo di Operazioni in batch S3 per crittografare gli oggetti con chiavi bucket S3 abilitate.

Un *processo* fa riferimento collettivamente all'elenco (manifest) degli oggetti forniti, all'operazione eseguita e ai parametri specificati. Il modo più semplice per crittografare questo insieme di oggetti con le chiavi bucket S3 abilitate è utilizzare l'operazione **Copia** e specificare lo stesso prefisso di destinazione degli oggetti elencati nel manifesto. In un bucket non convertito, questa operazione sovrascrive gli oggetti esistenti. In un bucket con il controllo delle versioni attivato, questa operazione crea una versione più recente e crittografata degli oggetti.

Durante la copia degli oggetti, specifica che Amazon S3 deve crittografare gli oggetti con la crittografia SSE-KMS. Questo processo copia gli oggetti, quindi tutti gli oggetti mostreranno una data di creazione aggiornata al momento del completamento, indipendentemente da quando sono stati aggiunti originariamente ad Amazon S3. Specifica inoltre le altre proprietà per l'insieme di oggetti come parte del processo di operazioni in batch S3, inclusi i tag oggetto e la classe di archiviazione.

**Topics**
+ [

### Impostazione della policy IAM
](#bucket-key-ex-set-up-iam-policy)
+ [

### Impostazione del ruolo IAM nelle operazioni in batch
](#bucket-key-ex-set-up-iam-role)
+ [

### Attivazione di S3 Bucket Keys per un bucket esistente
](#bucket-key-ex-enable-s3-bucket-key-on-a-bucket)
+ [

### Creazione di un processo di operazioni in batch S3
](#bucket-key-ex-create-job)
+ [

### Esecuzione del processo di operazioni in batch
](#bucket-key-ex-run-job)

### Impostazione della policy IAM
<a name="bucket-key-ex-set-up-iam-policy"></a>

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. Nel riquadro di navigazione a sinistra, scegli **Policy**, quindi scegli **Crea policy**.

1. Selezionare la scheda **JSON**. Seleziona **Modifica policy** e aggiungi la policy IAM di esempio visualizzata nel seguente blocco di codice. 

   Dopo aver copiato l'esempio di policy nella [Console IAM](https://console.aws.amazon.com/iam/), sostituisci quanto segue:

   1. Sostituisci `amzn-s3-demo-source-bucket` con il nome del bucket di origine da cui copiare gli oggetti.

   1. Sostituisci `amzn-s3-demo-destination-bucket` con il nome del bucket di destinazione in cui copiare gli oggetti.

   1. Sostituisci `amzn-s3-demo-manifest-bucket/manifest-key` con il nome del tuo oggetto manifesto.

   1. Sostituisci `amzn-s3-demo-completion-report-bucket` con il nome del bucket in cui si desidera salvare i report di completamento.

------
#### [ JSON ]

****  

   ```
     {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
         {
           "Sid": "CopyObjectsToEncrypt",
           "Effect": "Allow",
           "Action": [
             "s3:PutObject",
             "s3:PutObjectTagging",
             "s3:PutObjectAcl",
             "s3:PutObjectVersionTagging",
             "s3:PutObjectVersionAcl",
             "s3:GetObject",
             "s3:GetObjectAcl",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionAcl",
             "s3:GetObjectVersionTagging"
           ],
           "Resource": [
             "arn:aws:s3:::amzn-s3-demo-source-bucket/*",
             "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
           ]
         },
         {
           "Sid": "ReadManifest",
           "Effect": "Allow",
           "Action": [
             "s3:GetObject",
             "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-manifest-bucket/manifest-key"
         },
         {
           "Sid": "WriteReport",
           "Effect": "Allow",
           "Action": [
             "s3:PutObject"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-completion-report-bucket/*"
         }
       ]
     }
   ```

------

1. Scegliere **Next: Tags (Successivo: Tag)**.

1. Aggiungi tutti i tag desiderati (facoltativo) e seleziona **Successivo: Rivedi**.

1. Aggiungi un nome per la policy, facoltativamente, una descrizione quindi scegli **Crea policy**.

1. Scegli **Esamina policy** e quindi **Salva modifiche**.

1. Una volta completata la policy per le operazioni in batch S3, la console ritorna alla pagina **Policy** di IAM. Filtra in base al nome della policy, scegli il pulsante a sinistra del nome della policy, seleziona **Operazioni di policy** e scegli **Collega**. 

   Per associare la nuova policy creata a un ruolo IAM, seleziona gli utenti, i gruppi o i ruoli appropriati nell'account e scegli **Collega policy**. In questo modo si ritorna alla console IAM.

### Impostazione del ruolo IAM nelle operazioni in batch
<a name="bucket-key-ex-set-up-iam-role"></a>

1. Nella [Console IAM](https://console.aws.amazon.com/iam/), nel riquadro di navigazione, scegli **Ruoli**, quindi scegli **Crea ruolo**.

1. Seleziona **Servizio AWS**, **S3** e **Operazioni in batch S3**. Quindi scegliere **Next: Permissions (Successivo: Autorizzazioni)**.

1. Inizia a inserire il nome della **policy** IAM che hai appena creato. Seleziona la casella di controllo in base al nome della policy quando viene visualizzata e scegli **Successivo: Tag**.

1. (Facoltativo) Aggiungi tag o mantieni vuoti i campi di chiave e valore per questo esercizio. Scegliere **Next:Review (Successivo:Rivedi)**.

1. Specifica un nome per il ruolo e accetta la descrizione predefinita o aggiungine una personalizzata. Seleziona **Create role** (Crea ruolo).

1. Assicurati che l'utente che crea il processo disponga delle autorizzazioni riportate nell'esempio seguente. 

   Sostituisci `account-id` con il tuo ID Account AWS e `IAM-role-name` con il nome che prevedi di applicare al ruolo IAM che verrà creato nel passaggio della creazione del processo Operazioni in batch più avanti. Per ulteriori informazioni, consulta [Concessione di autorizzazioni per le operazioni in batch](batch-ops-iam-role-policies.md).

   ```
               {
               "Sid": "AddIamPermissions",
               "Effect": "Allow",
               "Action": [
               "iam:GetRole",
               "iam:PassRole"
               ],
               "Resource": "arn:aws:iam::account-id:role/IAM-role-name"
               }
   ```

### Attivazione di S3 Bucket Keys per un bucket esistente
<a name="bucket-key-ex-enable-s3-bucket-key-on-a-bucket"></a>

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Bucket** scegli il bucket per cui desideri abilitare una chiave bucket S3.

1. Scegliere **Properties (Proprietà)**.

1. In **Default encryption (Crittografia di default)**, scegliere **Edit (Modifica)**.

1. In **Tipo di crittografia**, scegli **Chiavi gestite da Amazon S3 (SSE-S3)** e **Chiave AWS Key Management Service (SSE-KMS)**. 

1. Se hai scelto **AWS Key Management Service la chiave (SSE-KMS)**, sotto **AWS KMS key**, puoi specificare la AWS KMS chiave tramite una delle seguenti opzioni.
   + Per effettuare una selezione in un elenco di chiavi KMS disponibili, seleziona **Scegli tra le chiavi AWS KMS **. Nell'elenco di chiavi disponibili, scegli una chiave KMS di crittografia simmetrica nella stessa regione del bucket. Nell'elenco vengono visualizzate sia la chiave AWS gestita (`aws/s3`) che le chiavi gestite dal cliente.
   + Per inserire l'ARN della chiave KMS, **scegli Inserisci AWS KMS la chiave ARN**, quindi inserisci la chiave KMS ARN nel campo visualizzato.
   + **Per creare una nuova chiave gestita dal cliente nella AWS KMS console, scegli Crea una chiave KMS.**

1. In **Chiave bucket**, seleziona **Abilita** quindi scegli **Salva modifiche**.

Ora che la chiave del bucket S3 è abilitata a livello di bucket, gli oggetti caricati, modificati o copiati in questo bucket erediteranno questa configurazione di crittografia per impostazione predefinita. Sono inclusi anche gli oggetti copiati tramite la funzionalità Operazioni in batch Amazon S3.

### Creazione di un processo di operazioni in batch S3
<a name="bucket-key-ex-create-job"></a>

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione seleziona **Operazioni in batch**, quindi scegli **Crea processo**.

1. Seleziona la **regione** in cui si trovano i tuoi oggetti e scegli **CSV** come tipo manifest.

1. Specifica il percorso o passare al file manifest CSV creato in precedenza dai risultati di S3 Select (o Athena). Se il manifesto contiene una versione IDs, seleziona quella casella. Scegli **Next (Successivo)**.

1. Seleziona **Copia** e scegli il bucket di destinazione della copia. Puoi mantenere la crittografia lato server disattivata. Finché nella destinazione del bucket sono abilitate le chiavi bucket S3, l'operazione di copia applica le chiavi bucket S3 al bucket di destinazione.

1. (Facoltativo) Scegli una classe di archiviazione e gli altri parametri come desiderato. I parametri specificati in questo passaggio si applicano a tutte le operazioni eseguite sugli oggetti riportati nel manifest. Scegli **Next (Successivo)**.

1. Per configurare la crittografia lato server, completa la seguente procedura: 

   1. In **Crittografia lato server** completa la seguente procedura:
      + Per conservare le impostazioni relative ai bucket per la crittografia predefinita degli oggetti lato server durante l'archiviazione in Amazon S3, scegli **Non specificare una chiave di crittografia**. Finché nella destinazione del bucket sono abilitate le chiavi bucket S3, l'operazione di copia applica la chiave bucket S3 al bucket di destinazione.
**Nota**  
Se la policy di bucket per la destinazione specificata richiede la crittografia degli oggetti prima di archiviarli in Amazon S3, è necessario specificare una chiave di crittografia. In caso contrario, la copia degli oggetti nella destinazione avrà esito negativo.
      + Per crittografare gli oggetti prima di archiviarli in Amazon S3, scegli **Specifica una chiave di crittografia**.

   1. In **Impostazioni di crittografia**, se scegli **Specifica una chiave di crittografia**, devi scegliere **Usa le impostazioni del bucket di destinazione per la crittografia predefinita** o **Ignora le impostazioni del bucket di destinazione per la crittografia predefinita**.

   1. Se scegli **Ignora le impostazioni del bucket di destinazione per la crittografia predefinita**, dovrai configurare le seguenti impostazioni di crittografia.

      1. In **Tipo di crittografia**, scegli **Chiavi gestite da Amazon S3 (SSE-S3)** o **Chiave AWS Key Management Service (SSE-KMS)**. Per crittografare gli oggetti, SSE-S3 utilizza una delle cifrature di blocco più complesse, lo standard di crittografia avanzata a 256 bit (AES-256). SSE-KMS garantisce un maggiore controllo sulla chiave. Per ulteriori informazioni, consultare [Uso della crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3)](UsingServerSideEncryption.md) e [Utilizzo della crittografia lato server con chiavi (SSE-KMS) AWS KMS](UsingKMSEncryption.md).

      1. Se scegli **Chiave AWS Key Management Service (SSE-KMS)**, in **AWS KMS key** puoi specificare la chiave AWS KMS key tramite una delle seguenti opzioni.
         + Per scegliere da un elenco di chiavi KMS disponibili, **scegli tra le tue AWS KMS keys**, quindi scegli una chiave KMS con crittografia simmetrica nella stessa regione del bucket. Nell'elenco vengono visualizzate sia la chiave AWS gestita (`aws/s3`) che le chiavi gestite dal cliente.
         + Per inserire l'ARN della chiave KMS, **scegli Inserisci la AWS KMS chiave ARN** e inserisci l'ARN della chiave KMS nel campo visualizzato.
         + **Per creare una nuova chiave gestita dal cliente nella AWS KMS console, scegli Crea una chiave KMS.**

      1. In **Chiave bucket** scegli **Abilita**. L'operazione di copia applica una chiave bucket S3 al bucket di destinazione.

1. Assegna al processo una descrizione (o mantieni quella predefinita), impostane il livello di priorità, scegli un tipo di report e specifica il **Percorso di destinazione del report di completamento**.

1. Nella sezione **Autorizzazioni**, assicurati di scegliere il ruolo IAM delle operazioni in batch definito in precedenza. Scegli **Next (Successivo)**.

1. In **Rivedi**, verificare le impostazioni. Se è necessario apportare modifiche, seleziona **Precedente**. Dopo aver confermato le impostazioni delle operazioni in batch, seleziona **Crea processo**. 

   Per ulteriori informazioni, consulta [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md).

### Esecuzione del processo di operazioni in batch
<a name="bucket-key-ex-run-job"></a>

La procedura guidata di configurazione ti riporta automaticamente alla sezione Operazioni in batch S3 della console di Amazon S3. Le transizioni del tuo nuovo processo dallo stato **Nuovo**allo stato **Preparazione in corso** indicano come inizia il processo S3. Durante lo stato Preparazione in corso, S3 legge il manifest del processo, controlla la presenza di errori e calcola il numero di oggetti.

1. Scegli il pulsante Aggiorna nella console di Amazon S3 per verificare lo stato di avanzamento. A seconda delle dimensioni del manifest, la lettura può richiedere minuti o ore.

1. Dopo che S3 ha terminato la lettura del manifest del processo, il processo passa allo stato **In attesa di conferma**. Scegli il pulsante di opzione a sinistra dell'ID processo, quindi seleziona **Esegui processo**.

1. Controlla le impostazioni del processo e scegli **Esegui processo** nell'angolo in basso a destra.

   Dopo l'inizio dell'esecuzione del processo, puoi scegliere il pulsante di aggiornamento per verificarne l'avanzamento tramite la vista del pannello di controllo della console o selezionando il processo specifico.

1. Una volta completato il processo, puoi visualizzare il numero di oggetti con stato **Riuscito** e **Non riuscito** per confermare che tutto è stato eseguito come previsto. Se hai abilitato i report del processo, controlla la causa esatta di eventuali operazioni non riuscite nel report.

   Puoi eseguire questi passaggi anche utilizzando l' AWS CLI API REST di Amazon S3 o Amazon S3. AWS SDKs Per ulteriori informazioni sul monitoraggio dello stato del processo e dei report sul completamento, consulta [Monitoraggio dei rapporti sullo stato e sul completamento dei processi](batch-ops-job-status.md).

Per esempi che mostrano l'operazione di copia con tag utilizzando il comando AWS CLI and AWS SDK per Java, consulta[Creazione di un processo Batch Operations con tag di processo utilizzati per l'etichettatura](batch-ops-tags-create.md).