

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Protezione dei dati in Amazon S3
<a name="data-protection"></a>

Oltre alla resilienza offerta dall'infrastruttura AWS globale, Amazon S3 offre una serie di funzionalità per proteggere i dati da eliminazioni accidentali o errori regionali. 

**Replica di Amazon S3**  
La replica in tempo reale consente di abilitare la copia asincrona e automatica di oggetti tra bucket Amazon S3. I bucket configurati per la replica degli oggetti possono appartenere allo stesso account o a account diversi. Account AWS Puoi replicare gli oggetti in un singolo bucket o in più bucket di destinazione. I bucket di destinazione possono trovarsi in un'area diversa Regioni AWS o all'interno della stessa regione del bucket di origine. Per abilitare i controlli di failover, è possibile configurare la replica affinché sia bidirezionale e i bucket di origine e di destinazione possano essere mantenuti sincronizzati durante un guasto a livello regionale. Per ulteriori informazioni, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md).

**Controlli di failover e dei punti di accesso multi-regione**  
I punti di accesso multi-regione di Amazon S3 forniscono un endpoint globale che le applicazioni possono utilizzare per eseguire le richieste provenienti da bucket S3 situati in più Regioni AWS. Puoi utilizzare i punti di accesso multi-regione per creare applicazioni multi-regione con la stessa architettura utilizzata in una singola regione e quindi eseguire tali applicazioni in qualsiasi parte del mondo. Invece di inviare richieste sulla rete Internet pubblica e congestionata, i punti di accesso multi-regione offrono la resilienza di rete integrata con l'accelerazione delle richieste basate su Internet ad Amazon S3. Le richieste di applicazioni effettuate all'endpoint globale di un punto di accesso multi-regione utilizzano [AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/) per l'instradamento automatico tramite la rete globale AWS al bucket S3 più vicino e con uno stato di instradamento attivo. Per ulteriori informazioni sui punti di accesso multi-regione, consulta [Gestione del traffico multi-regione con punti di accesso multi-regione](MultiRegionAccessPoints.md).  
Con i controlli di failover dei punti di accesso multi-regione di Amazon S3, puoi mantenere la continuità aziendale durante le interruzioni del traffico regionale, dotando al contempo le tue applicazioni di un'architettura multi-regione per soddisfare le esigenze di conformità e ridondanza. Se il traffico regionale viene interrotto, puoi utilizzare i controlli di failover dei punti di accesso multiregione per selezionare quale dispositivo Regioni AWS dietro un punto di accesso multiregionale Amazon S3 elaborerà le richieste di accesso ai dati e di archiviazione.   
Per supportare il failover, è possibile configurare il punto di accesso multi-regione in una configurazione attiva-passiva, con il traffico che fluisce verso la regione attiva in condizioni normali e una regione passiva in standby per il failover. Se la replica tra regioni di S3 (S3 CRR) è abilitata con regole di replica bidirezionale, puoi mantenere sincronizzati i bucket durante un failover. Per ulteriori informazioni sui controlli di failover, consulta [Controlli di failover dei punti di accesso multi-regione Amazon S3](MrapFailover.md).

**Funzione Controllo delle versioni S3**  
La funzione Controllo delle versioni è un modo per conservare più versioni di un oggetto nello stesso bucket. La funzione Controllo delle versioni può essere impiegata per conservare, recuperare e ripristinare qualsiasi versione di ogni oggetto archiviato nel bucket Amazon S3. Con la funzione Controllo delle versioni si può facilmente eseguire il ripristino dopo errori dell'applicazione e operazioni non intenzionali dell'utente. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

**Blocco di oggetti in S3**  
Puoi utilizzare il blocco oggetti S3 per archiviare gli oggetti utilizzando il modello *write once, read many* (WORM). Utilizzando il blocco oggetti S3, puoi impedire che un oggetto venga eliminato o sovrascritto per un determinato periodo di tempo o in modo indefinito. Il blocco oggetti S3 consente di soddisfare i requisiti normativi che richiedono uno storage WORM o semplicemente di aggiungere un ulteriore livello di protezione contro le modifiche e l'eliminazione degli oggetti. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).

**AWS Backup**  
Amazon S3 è integrato nativamente con AWS Backup un servizio completamente gestito e basato su policy che puoi utilizzare per definire centralmente le politiche di backup per proteggere i tuoi dati in Amazon S3. Dopo aver definito le politiche di backup e assegnato le risorse Amazon S3 alle politiche AWS Backup , automatizza la creazione di backup di Amazon S3 e archivia in modo sicuro i backup in un archivio di backup crittografato indicato nel piano di backup. Per ulteriori informazioni, consulta [Backup dei dati di Amazon S3](backup-for-s3.md).

Per un tutorial sull'utilizzo di alcune di queste funzionalità per la protezione dei dati, consulta [Tutorial: Proteggere i dati su Amazon S3 dall'eliminazione accidentale o dai bug delle applicazioni utilizzando il Controllo delle versioni S3, S3 Object Lock e Replica S3](https://aws.amazon.com/getting-started/hands-on/protect-data-on-amazon-s3/?ref=docs_gateway/amazons3/DataDurability.html).

**Importante**  
Oltre a utilizzare le funzionalità precedenti per la protezione dei dati, è opportuno consultare i suggerimenti contenuti in [Best practice di sicurezza per Amazon S3](security-best-practices.md). 

**Topics**
+ [Replica di oggetti all'interno e tra le Regioni](replication.md)
+ [Gestione del traffico multi-regione con punti di accesso multi-regione](MultiRegionAccessPoints.md)
+ [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md)
+ [Blocco di oggetti con Object Lock](object-lock.md)
+ [Backup dei dati di Amazon S3](backup-for-s3.md)

# Replica di oggetti all'interno e tra le Regioni
<a name="replication"></a>

La replica consente di abilitare la copia asincrona e automatica di oggetti tra bucket di Amazon S3. I bucket configurati per la replica di oggetti possono essere di proprietà dello stesso Account AWS o di account diversi. Puoi replicare gli oggetti in un singolo bucket o in più bucket di destinazione. I bucket di destinazione possono trovarsi in regioni diverse o all'interno della stessa regione del bucket di origine Regioni AWS .

Esistono due tipi di replica: la *replica in tempo reale* e la *replica on demand*.
+ **Replica in tempo reale**: **per replicare automaticamente oggetti nuovi e aggiornati** durante la scrittura nel bucket di origine, utilizzare la replica in tempo reale. La replica in tempo reale non esegue la replica degli oggetti esistenti nel bucket prima della configurazione della replica. Per replicare oggetti esistenti prima della configurazione della replica, occorre ricorrere alla replica on demand.
+ **Replica on demand**: **per replicare oggetti esistenti** dal bucket di origine a uno o più bucket di destinazione on demand, utilizzare Replica in batch S3. Per ulteriori informazioni sulla replica di oggetti esistenti, consulta la sezione [Quando utilizzare S3 Batch Replication](#batch-replication-scenario).

Esistono due forme di replica in tempo reale: *replica tra Regioni (CRR)* e *replica nella stessa Regione (SRR)*.
+ **Replica tra regioni (CRR)**: puoi utilizzare CRR per replicare oggetti su bucket Amazon S3 in diversi modi. Regioni AWS Per ulteriori informazioni sulla replica tra Regioni, consulta [Quando utilizzare la replica tra aree](#crr-scenario).
+ **Replica nella stessa Regione (SRR)**: è possibile utilizzare la replica nella stessa Regione per copiare oggetti tra bucket Amazon S3 nella stessa Regione AWS. Per ulteriori informazioni sulla replica nella stessa Regione, consulta [Quando utilizzare la replica della stessa regione](#srr-scenario).

**Topics**
+ [Perché utilizzare la replica?](#replication-scenario)
+ [Quando utilizzare la replica tra aree](#crr-scenario)
+ [Quando utilizzare la replica della stessa regione](#srr-scenario)
+ [Quando utilizzare la replica bidirezionale](#two-way-replication-scenario)
+ [Quando utilizzare S3 Batch Replication](#batch-replication-scenario)
+ [Requisiti del carico di lavoro e replica in tempo reale](#replication-workload-requirements)
+ [Cosa replica Amazon S3?](replication-what-is-isnot-replicated.md)
+ [Requisiti e considerazioni sulla replica](replication-requirements.md)
+ [Panoramica della configurazione della replica in tempo reale](replication-how-setup.md)
+ [Gestione o sospensione della replica in tempo reale](disable-replication.md)
+ [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md)
+ [Risoluzione dei problemi nella replica](replication-troubleshoot.md)
+ [Monitoraggio della replica con parametri, notifiche di eventi e stati](replication-metrics.md)

## Perché utilizzare la replica?
<a name="replication-scenario"></a>

La replica può essere utile per gli scopi seguenti:
+ **Replica gli oggetti conservando i metadati**: puoi utilizzare la replica per creare copie dei tuoi oggetti che conservino tutti i metadati, come l'ora e la versione di creazione dell'oggetto originale. IDs Questa funzionalità è importante se vuoi assicurarti che la replica sia identica all'oggetto di origine.
+ **Replica di oggetti in classi di archiviazione diverse**: puoi utilizzare la replica per inserire direttamente gli oggetti in S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive o in un'altra classe di archiviazione nei bucket di destinazione. Puoi anche replicare i dati nella stessa classe di archiviazione e utilizzare configurazioni del ciclo di vita nei bucket di destinazione per spostare gli oggetti in una classe di archiviazione più inattiva col passare del tempo.
+ **Conserva le copie degli oggetti con proprietà diverse**: indipendentemente dal proprietario dell'oggetto di origine, puoi chiedere ad Amazon S3 di cambiare la proprietà della replica con Account AWS quella proprietaria del bucket di destinazione. Questa opzione è detta *sostituzione del proprietario*. Puoi utilizzare questa opzione per limitare l'accesso alle repliche degli oggetti.
+ **Conserva gli oggetti archiviati su più** oggetti Regioni AWS: per garantire differenze geografiche nella posizione in cui vengono conservati i dati, puoi impostare più bucket di destinazione tra diversi. Regioni AWS Questa funzionalità potrebbe aiutarti a soddisfare determinati requisiti di conformità. 
+ **Replica gli oggetti entro 15 minuti**: per replicare i dati nella stessa regione Regione AWS o in regioni diverse entro un periodo di tempo prevedibile, puoi utilizzare S3 Replication Time Control (S3 RTC). S3 RTC replica il 99,99% dei nuovi oggetti archiviati in Amazon S3 entro 15 minuti, secondo un Accordo sul Livello di Servizio (SLA). Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).
**Nota**  
S3 RTC non si applica a Batch Replication. Batch Replication è un processo di replica on demand e può essere monitorato con S3 Batch Operations. Per ulteriori informazioni, consulta [Monitoraggio dei rapporti sullo stato e sul completamento dei processi](batch-ops-job-status.md).
+ **Sincronizzazione di bucket, replica di oggetti esistenti e replica di oggetti falliti o replicati in precedenza**: per sincronizzare i bucket e replicare oggetti esistenti, utilizza Batch Replication come operazione di replica on demand. Per ulteriori informazioni sul momento in cui è necessario utilizzare Batch Replication, consulta la sezione [Quando utilizzare S3 Batch Replication](#batch-replication-scenario).
+ **Replicare gli oggetti ed eseguire il failover su un bucket all'interno di un altro Regione AWS**: per mantenere sincronizzati tutti i metadati e gli oggetti tra i bucket durante la replica dei dati, utilizza le regole di replica bidirezionale prima di configurare i controlli di failover del punto di accesso multi-regione Amazon S3. Le regole di replica bidirezionale aiutano a garantire che quando i dati vengono scritti nel bucket S3, il traffico viene poi replicato nuovamente nel bucket di origine.

## Quando utilizzare la replica tra aree
<a name="crr-scenario"></a>

La replica tra regioni (Cross-Region Replication, CRR) S3 viene utilizzata per copiare gli oggetti tra bucket Amazon S3 in Regioni AWS diverse. La replica CRR consente di completare le seguenti operazioni:
+ **Rispetto dei requisiti di conformità**: sebbene di default Amazon S3 archivi i dati in più zone di disponibilità geograficamente distanti, per soddisfare i requisiti di conformità potrebbe essere necessario archiviarli a distanze ancora maggiori. Per soddisfare questi requisiti, puoi utilizzare la replica tra regioni e replicare i dati tra Regioni AWS distanti.
+ **Ridurre al minimo la latenza**: se i clienti si trovano in due aree geografiche, è possibile ridurre al minimo la latenza nell'accesso agli oggetti conservando le copie degli oggetti in luoghi geograficamente più vicini agli utenti. Regioni AWS 
+ **Aumenta l'efficienza operativa**: se disponi di cluster di elaborazione in due aree diverse Regioni AWS che analizzano lo stesso set di oggetti, puoi scegliere di conservare le copie degli oggetti in tali regioni.

## Quando utilizzare la replica della stessa regione
<a name="srr-scenario"></a>

La replica nella stessa regione (Same-Region Replication, SRR) viene utilizzata per copiare gli oggetti tra bucket Amazon S3 nella stessa Regione AWS. La replica SRR consente di completare le seguenti operazioni:
+ **Aggregazione dei registri in un solo bucket**: se archivi i registri in più bucket o in più account, puoi replicarli facilmente in un solo bucket nella tua regione. Questo semplifica l'elaborazione dei registri in una sola posizione.
+ **Configurazione della replica in tempo reale tra gli account di produzione e test**: se tu o i tuoi clienti disponete di account di produzione e test che utilizzano gli stessi dati, potete replicare gli oggetti tra più account conservandone i metadati.
+ **Rispetta le leggi sulla sovranità dei dati**: potrebbe essere necessario archiviare più copie dei dati in modo separato Account AWS all'interno di una determinata regione. La replica nella stessa regione può aiutarti a eseguire la replica automatica di dati fondamentali nel caso in cui i regolamenti di conformità non consentano ai dati di lasciare il tuo Paese.

## Quando utilizzare la replica bidirezionale
<a name="two-way-replication-scenario"></a>
+ **Crea set di dati condivisi su più** oggetti Regioni AWS: con la sincronizzazione delle modifiche alle repliche, puoi replicare facilmente le modifiche ai metadati, come le liste di controllo degli accessi agli oggetti (ACLs), i tag degli oggetti o i blocchi degli oggetti, sugli oggetti di replica. Questa replica bidirezionale è importante se si desidera mantenere sincronizzati tutti gli oggetti e le modifiche ai metadati degli oggetti. È possibile [abilitare la sincronizzazione delle modifiche delle repliche](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes) su una regola di replica nuova o esistente quando si esegue una replica bidirezionale tra due o più bucket nella stessa o in diverse Regioni AWS.
+ **Mantieni i dati sincronizzati tra le regioni durante il failover**: puoi sincronizzare i dati in bucket tra loro configurando regole di replica bidirezionale con S3 Cross-Region Replication (CRR) direttamente Regioni AWS da un punto di accesso multiregionale. Per prendere una decisione informata su quando avviare il failover, puoi anche abilitare i parametri di replica S3 in modo da monitorare la replica in Amazon CloudWatch, in S3 Replication Time Control (S3 RTC) o dal punto di accesso multiregionale.
+ **Rendere la tua applicazione altamente disponibile**: anche in caso di interruzione del traffico regionale, puoi utilizzare regole di replica bidirezionale per mantenere sincronizzati tutti i metadati e gli oggetti tra i bucket durante la replica dei dati.

## Quando utilizzare S3 Batch Replication
<a name="batch-replication-scenario"></a>

Batch Replication replica gli oggetti esistenti in bucket diversi come opzione on demand. A differenza della replica in tempo reale, questi processi possono essere eseguiti all'occorrenza. Batch Replication può essere utile per gli scopi seguenti:
+ **Replica di oggetti esistenti**: è possibile utilizzare Batch Replication per replicare gli oggetti aggiunti al bucket prima della configurazione della replica nella stessa regione o della replica tra regioni.
+ **Replica di oggetti che in precedenza non sono stati replicati**: è possibile applicare un filtro a un processo Batch Replication per tentare di replicare gli oggetti con uno stato di replica **FAILED** (Fallito).
+ **Replica di oggetti già replicati**: potrebbe essere necessario archiviare più copie dei dati in Account AWS o Regioni AWS separati. Batch Replication può replicare gli oggetti esistenti nelle destinazioni appena aggiunte.
+ **Replica di repliche di oggetti creati da una regola di replica**: le configurazioni di replica creano repliche di oggetti nei bucket di destinazione. Le repliche di oggetti possono essere replicate solo con Batch Replication.

## Requisiti del carico di lavoro e replica in tempo reale
<a name="replication-workload-requirements"></a>

A seconda dei requisiti del carico di lavoro, alcuni tipi di replica in tempo reale saranno più adatti a uno specifico caso d'uso rispetto ad altri. Utilizza la tabella seguente per determinare il tipo di replica da utilizzare in una specifica situazione e se utilizzare il controllo del tempo di replica di S3 (S3 RTC) per il carico di lavoro. S3 RTC replica il 99,99% dei nuovi oggetti archiviati in Amazon S3 entro 15 minuti, secondo un Accordo sul Livello di Servizio o SLA. Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).


| Requisiti del carico di lavoro | S3 RTC (SLA di 15 minuti) | replica tra Regioni (CRR) | replica nella stessa Regione (SRR) | 
| --- | --- | --- | --- | 
| Replica oggetti tra diversi Account AWS | Sì  | Sì | Sì | 
| Replica gli oggetti all'interno degli stessi Regione AWS entro 24-48 ore (senza supporto SLA) | No | No | Sì | 
| Replica oggetti tra diversi Regioni AWS entro 24-48 ore (senza supporto SLA) | No | Sì | No | 
|  Tempo di replica prevedibile: supportato dallo SLA per replicare il 99,9% degli oggetti entro 15 minuti  | Sì | No | No | 

# Cosa replica Amazon S3?
<a name="replication-what-is-isnot-replicated"></a>

Amazon S3 replica solo elementi specifici nei bucket configurati per la replica. 

**Topics**
+ [Che cosa viene replicato con le configurazioni di replica?](#replication-what-is-replicated)
+ [Che cosa non viene replicato con le configurazioni di replica?](#replication-what-is-not-replicated)

## Che cosa viene replicato con le configurazioni di replica?
<a name="replication-what-is-replicated"></a>

Di default, Amazon S3 replica quanto segue:
+ Oggetti creati dopo l'aggiunta di una configurazione di replica.
+ Oggetti non crittografati. 
+ Oggetti crittografati utilizzando chiavi fornite dal cliente (SSE-C), oggetti crittografati a riposo con una chiave gestita Amazon S3 (SSE-S3) o una chiave KMS archiviata in (SSE-KMS). AWS Key Management Service Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md). 
+ Metadati dell'oggetto dagli oggetti di origine alle repliche. Per informazioni sulla replica dei metadati dalle repliche agli oggetti di origine, consulta [Replica delle modifiche ai metadati con la sincronizzazione delle modifiche alla replica](replication-for-metadata-changes.md).
+ Solo gli oggetti nel bucket di origine per i quali il proprietario del bucket dispone delle autorizzazioni per leggere oggetti e accedere alle liste di controllo (). ACLs 

  Per ulteriori informazioni sulla proprietà delle risorse, consulta [Proprietà di bucket e oggetti di Amazon S3](access-policy-language-overview.md#about-resource-owner).
+ Gli aggiornamenti delle liste di controllo accessi degli oggetti, a meno che non indichi ad Amazon S3 di modificare il proprietario della replica quando i bucket di origine e di destinazione non sono di proprietà degli stessi account. 

  Per ulteriori informazioni, consulta [Modifica del proprietario della replica](replication-change-owner.md). 

  Potrebbe volerci del tempo prima che Amazon S3 riesca ACLs a sincronizzare le due cose. Questa modifica di proprietà si applica solo agli oggetti creati dopo che è stata aggiunta una configurazione di replica al bucket.
+  Eventuali tag degli oggetti.
+ Eventuali informazioni sulla conservazione del blocco oggetti S3. 

  Quando Amazon S3 replica gli oggetti con informazioni sulla conservazione, applica gli stessi controlli di conservazione alle repliche, ignorando il periodo di conservazione predefinito configurato sui bucket di destinazione. Se non sono previsti controlli di conservazione applicati agli oggetti nel bucket di origine e la replica viene effettuata nei bucket di destinazione con un periodo di conservazione predefinito impostato, il periodo di conservazione predefinito dei bucket di destinazione viene applicato alle repliche degli oggetti. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).

### Effetto delle operazioni di eliminazione sulla replica
<a name="replication-delete-op"></a>

Se si elimina un oggetto dal bucket di origine, per impostazione predefinita si verificano le seguenti azioni:
+ Se effettui una richiesta di eliminazione (DELETE) senza specificare l'ID della versione dell'oggetto, Amazon S3 aggiunge un contrassegno di eliminazione. Amazon S3 gestisce il contrassegno di eliminazione in questo modo:
  + Se usi la versione più recente della configurazione di replica (ovvero, se specifichi l'elemento `Filter` in una regola di configurazione di replica), Amazon S3 non replica automaticamente il contrassegno di eliminazione. Tuttavia, puoi aggiungere la *replica dei marker di eliminazione* alle regole. non-tag-based Per ulteriori informazioni, consulta [Replica dei contrassegni di eliminazione tra i bucket](delete-marker-replication.md).
  + Se non si specifica l'elemento `Filter`, Amazon S3 presuppone che la configurazione di replica sia la versione V1 e replica i contrassegni di eliminazione derivanti dalle azioni dell'utente. Tuttavia, se Amazon S3 elimina un oggetto a causa di un'azione del ciclo di vita, il contrassegno di eliminazione non viene replicato nei bucket di destinazione.
+ Se nella richiesta `DELETE` specifichi l'ID della versione dell'oggetto da eliminare, Amazon S3 elimina la versione dell'oggetto nel bucket di origine. ma non replica l'eliminazione nei bucket di destinazione. In altre parole, non elimina la stessa versione dell'oggetto dai bucket di destinazione. Ciò permette di proteggere i dati da eliminazioni da parte di utenti malintenzionati. 

## Che cosa non viene replicato con le configurazioni di replica?
<a name="replication-what-is-not-replicated"></a>

Di default, Amazon S3 non replica quanto segue:
+ Gli oggetti nel bucket di origine che sono repliche create da un'altra regola di replica. Supponiamo, per esempio, di configurare una replica dove il bucket A è l'origine e il bucket B è la destinazione. Supponiamo ora di aggiungere un'altra configurazione di replica dove il bucket B è l'origine e il bucket C è la destinazione. In questo caso, gli oggetti nel bucket B che sono repliche di oggetti nel bucket A non vengono replicati nel bucket C. 

  Per replicare oggetti che sono repliche, utilizza Batch Replication. Per ulteriori informazioni sulla configurazione di Batch Replication, visita [Replica di oggetti esistenti](s3-batch-replication-batch.md).
+ Oggetti nel bucket di origine che sono già stati replicati in una destinazione diversa. Se, ad esempio, modifichi il bucket di destinazione in una configurazione di replica esistente, Amazon S3 non replica di nuovo gli oggetti.

  Per replicare oggetti replicati in precedenza, utilizza Batch Replication. Per ulteriori informazioni sulla configurazione di Batch Replication, visita [Replica di oggetti esistenti](s3-batch-replication-batch.md).
+ La replica batch non supporta la ripetizione della replica di oggetti eliminati con l'ID versione dell'oggetto dal bucket di destinazione. Per replicare nuovamente questi oggetti è possibile copiare gli oggetti di origine presenti con un processo di copia in batch. La copia di tali oggetti crea nuove versioni dell'oggetto nel bucket di origine e avvia automaticamente la replica nella destinazione. Per ulteriori informazioni su come utilizzare la copia batch, consulta [Esempi che utilizzano operazioni in batch per copiare oggetti](batch-ops-examples-copy.md).
+ Per impostazione predefinita, quando si esegue la replica da un altro Account AWS, i marker di eliminazione aggiunti al bucket di origine non vengono replicati.

  Per informazioni su come replicare i contrassegni di eliminazione, consulta la sezione [Replica dei contrassegni di eliminazione tra i bucket](delete-marker-replication.md).
+ Oggetti archiviati nei livelli o nelle classi di storage di Recupero flessibile Amazon S3 Glacier, S3 Glacier Deep Archive, S3 Intelligent-Tiering Archive Access o S3 Intelligent-Tiering Deep Archive Access. Non è possibile replicare questi oggetti finché non vengono ripristinati e copiati in una classe di archiviazione diversa. 

  Per ulteriori informazioni su Recupero flessibile Amazon S3 Glacier e S3 Glacier Deep Archive, consulta [Classi di storage per oggetti con accesso non frequente](storage-class-intro.md#sc-glacier).

  Per ulteriori informazioni su S3 Intelligent-Tiering, consulta [Gestione dei costi di storage con il Piano intelligente Amazon S3](intelligent-tiering.md).
+ Oggetti nel bucket di origine per cui il proprietario del bucket non dispone di autorizzazioni sufficienti per eseguire la replica. 

  Per informazioni su come il proprietario di un oggetto può concedere le autorizzazioni al proprietario del bucket, consulta la sezione [Concedere autorizzazioni multi-account per il caricamento di oggetti a garanzia del controllo completo da parte del proprietario del bucket](example-bucket-policies.md#example-bucket-policies-acl-2).
+ Aggiornamenti alle risorse secondarie a livello di bucket. 

  Se, ad esempio, modifichi la configurazione del ciclo di vita o aggiungi una configurazione di notifica nel bucket di origine, tali modifiche non vengono applicate nel bucket di destinazione. Questa funzionalità permette la presenza di configurazioni diverse nei bucket di origine e di destinazione. 
+ Operazioni eseguite dalla configurazione del ciclo di vita. 

  Ad esempio, se la configurazione del ciclo di vita è abilitata solo nel bucket di origine, Amazon S3 crea i contrassegni di eliminazione per gli oggetti scaduti, ma non replica i contrassegni. Per applicare al bucket di origine e a quello di destinazione la stessa configurazione del ciclo di vita, è sufficiente abilitare quest'ultima in entrambi. Per ulteriori informazioni sulla configurazione del ciclo di vita, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md).
+ Quando si utilizzano regole di replica basate su tag con replica in tempo reale, occorre assegnare ai nuovi oggetti il tag della regola di replica corrispondente nell'operazione `PutObject`. In caso contrario, gli oggetti non verranno replicati. Non verranno replicati neanche gli oggetti a cui vengono assegnati tag dopo l'operazione `PutObject`. 

  Per replicare oggetti a cui sono stati assegnati tag dopo l'operazione `PutObject`, è necessario utilizzare Replica in batch S3. Per ulteriori informazioni su Batch Replication, consulta la sezione [Replica di oggetti esistenti](s3-batch-replication-batch.md).

# Requisiti e considerazioni sulla replica
<a name="replication-requirements"></a>

La replica Amazon S3 richiede quanto segue:
+ Il proprietario del bucket di origine deve avere l'origine e la destinazione Regioni AWS abilitate per il proprio account. La regione di destinazione deve essere abilitata per l'account del proprietario del bucket. 

  Per ulteriori informazioni sull'attivazione o la disabilitazione di un Regione AWS, consulta [Specificare quale può essere utilizzato dal Regioni AWS tuo account](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) nella Guida *Gestione dell'account AWS di riferimento*.
+ Sia per il bucket di origine che per quello di destinazione deve essere abilitata la funzione Controllo delle versioni. Per ulteriori informazioni sulla funzione Controllo delle versioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).
+ Amazon S3 deve disporre delle autorizzazioni necessarie per replicare gli oggetti dal bucket di origine a quelli di destinazione per tuo conto. Per ulteriori informazioni su queste autorizzazioni, consulta la sezione [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).
+ Se il proprietario del bucket di origine non possiede l'oggetto nel bucket, il proprietario dell'oggetto deve concedere al proprietario del bucket le autorizzazioni `READ` e `READ_ACP` con la lista di controllo degli accessi (ACL) dell'oggetto. Per ulteriori informazioni, consulta [Panoramica delle liste di controllo accessi (ACL)](acl-overview.md). 
+ Se il blocco oggetti S3 è abilitato nel bucket di origine, deve essere abilitato anche nei bucket di destinazione. 

  Per abilitare la replica su un bucket con Object Lock abilitato, devi utilizzare l' AWS Command Line Interface API REST o. AWS SDKs Per ulteriori informazioni generali, consulta [Blocco di oggetti con Object Lock](object-lock.md).
**Nota**  
È necessario concedere due nuove autorizzazioni sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) utilizzato per configurare la replica. Le due nuove autorizzazioni sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'autorizzazione `s3:Get*`, soddisfa il requisito. Per ulteriori informazioni, consulta [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).

Per ulteriori informazioni, consulta [Panoramica della configurazione della replica in tempo reale](replication-how-setup.md). 

Quando imposti la configurazione di replica in uno *scenario con più account*, in cui il bucket di origine e quello di destinazione sono di proprietà di Account AWS diversi, si applica il seguente requisito aggiuntivo:
+ Il proprietario dei bucket di destinazione deve concedere al proprietario del bucket di origine le autorizzazioni necessarie per replicare gli oggetti con una policy del bucket. Per ulteriori informazioni, consulta [(Facoltativo) Fase 3: Concessione delle autorizzazioni quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).
+ I bucket di destinazione non possono essere configurati come bucket con pagamento a carico del richiedente. Per ulteriori informazioni, consulta [Utilizzo dei bucket per uso generico con pagamento a carico del richiedente per archiviazione e trasferimenti di dati](RequesterPaysBuckets.md).

## Considerazioni sulla replica
<a name="replication-and-other-bucket-configs"></a>

Prima di creare una configurazione della replica, tenere presenti le considerazioni riportate di seguito. 

**Topics**
+ [Configurazione del ciclo di vita e repliche di oggetti](#replica-and-lifecycle)
+ [Configurazione della funzione Controllo delle versioni e configurazione di replica](#replication-and-versioning)
+ [Utilizzo di Replica S3 con Piano intelligente Amazon S3](#replication-and-intelligent-tiering)
+ [Configurazione della registrazione e configurazione di replica](#replication-and-logging)
+ [CRR e regione di destinazione](#replication-and-dest-region)
+ [Replica in batch S3](#considerations-batch-replication)
+ [Controllo del tempo di replica di S3](#considerations-RTC)

### Configurazione del ciclo di vita e repliche di oggetti
<a name="replica-and-lifecycle"></a>

Il tempo richiesto da Amazon S3 per la replica di un oggetto dipende dalle dimensioni dell'oggetto. Per gli oggetti di grandi dimensioni, questa operazione può richiedere anche diverse ore. Anche se la replica può richiedere tempo prima di diventare disponibile nella destinazione, il tempo necessario per creare la replica corrisponde a quello che è stato necessario per creare l'oggetto corrispondente nel bucket di origine. Se una configurazione del ciclo di vita è abilitata in un bucket di destinazione, le regole del ciclo di vita rispettano l'ora di creazione originale dell'oggetto, non l'ora in cui la replica è diventata disponibile nel bucket di destinazione. 

La configurazione di replica richiede che nel bucket sia abilitata la funzione Controllo delle versioni. Quando si abilita tale funzione in un bucket, tenere presente quanto segue:
+ Se è presente una configurazione del ciclo di vita di scadenza dell'oggetto, dopo avere abilitato la funzione Controllo delle versioni, è necessario aggiungere una policy `NonCurrentVersionExpiration` per mantenere lo stesso comportamento di eliminazione permanente presente prima dell'abilitazione della funzione.
+ Se è presente una configurazione del ciclo di vita di transizione, dopo avere abilitato la funzione Controllo delle versioni, è consigliabile aggiungere una policy `NonCurrentVersionTransition`.

### Configurazione della funzione Controllo delle versioni e configurazione di replica
<a name="replication-and-versioning"></a>

Quando si configura la replica in un bucket, la funzione Controllo delle versioni deve essere abilitata sia nel bucket di origine che in quello di destinazione. Dopo avere abilitato la funzione Controllo delle versioni in entrambi i bucket di origine e di destinazione e avere configurato la replica nel bucket di origine, potrebbero verificarsi i problemi seguenti:
+ Se si tenta di disabilitare la funzione Controllo delle versioni nel bucket di origine, Amazon S3 restituisce un errore. Prima di poter disabilitare la funzione Controllo delle versioni nel bucket di origine, è necessario rimuovere la configurazione di replica.
+ Se si disabilita la funzione Controllo delle versioni nel bucket di destinazione, la replica ha esito negativo. Lo stato della replica dell'oggetto di origine è `FAILED`.

### Utilizzo di Replica S3 con Piano intelligente Amazon S3
<a name="replication-and-intelligent-tiering"></a>

Piano intelligente Amazon S3 è una classe di storage progettata per ottimizzare i costi di archiviazione spostando automaticamente i dati nel livello di accesso più conveniente. Per un monitoraggio degli oggetti mensile e una tariffa di automazione bassi, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti ai quali non è stato eseguito l'accesso a livelli di accesso a costo più basso.

La replica di oggetti archiviati in Piano intelligente Amazon S3 con S3 Batch Replication o richiamando [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) o [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html)costituisce accesso. In questi casi, gli oggetti di origine delle operazioni di copia o replica sono suddivisi su più livelli.

Per ulteriori informazioni sul Piano intelligente Amazon S3, consulta [Gestione dei costi di storage con il Piano intelligente Amazon S3](intelligent-tiering.md).

### Configurazione della registrazione e configurazione di replica
<a name="replication-and-logging"></a>

Se Amazon S3 invia log a un bucket in cui è abilitata la replica, gli oggetti dei log vengono replicati.

Se nel bucket di origine o di destinazione sono abilitati i [log di accesso al server](ServerLogs.md) o i [log di AWS CloudTrail](cloudtrail-logging.md), Amazon S3 include nei log le richieste correlate alla replica. Ad esempio, Amazon S3 include nei log ogni oggetto che replica. 

### CRR e regione di destinazione
<a name="replication-and-dest-region"></a>

Amazon S3 Cross-Region Replication (CRR) viene utilizzato per copiare oggetti tra bucket S3 in diversi. Regioni AWS Puoi scegliere la regione del bucket di destinazione in base alle esigenze aziendali o a considerazioni sui costi. Ad esempio, i costi di trasferimento dei dati tra regioni variano in base alle regioni scelte. 

Supponiamo di scegliere Stati Uniti orientali (Virginia settentrionale) (`us-east-1`) come Regione per il bucket di origine. Se si sceglie Stati Uniti occidentali (Oregon) (`us-west-2`) come Regione per i bucket di destinazione, il costo sarà maggiore di quanto non sarebbe scegliendo la Regione Stati Uniti orientali (Ohio) (`us-east-2`). Per informazioni sui prezzi, consulta la sezione relativa ai prezzi per il trasferimento dati in [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). 

La replica nella stessa regione non prevede costi per il trasferimento dei dati

### Replica in batch S3
<a name="considerations-batch-replication"></a>

Per informazioni sulle considerazioni relative a Replica in batch, consulta [Considerazioni su S3 Batch Replication](s3-batch-replication-batch.md#batch-replication-considerations).

### Controllo del tempo di replica di S3
<a name="considerations-RTC"></a>

Per ulteriori informazioni sul controllo del tempo di replica di S3 (S3 RTC), consulta [Best practice e linee guida per S3 RTC](replication-time-control.md#rtc-best-practices).

# Panoramica della configurazione della replica in tempo reale
<a name="replication-how-setup"></a>

**Nota**  
Gli oggetti esistenti prima della configurazione della replica non vengono replicati automaticamente. In altre parole, Amazon S3 non esegue la replica retroattiva di oggetti. Per replicare oggetti creati prima della configurazione della replica, utilizza S3 Batch Replication. Per maggiori informazioni sulla configurazione di Replica in batch, consulta [Replica di oggetti esistenti](s3-batch-replication-batch.md).

Per abilitare la replica in tempo reale, indipendentemente dal fatto che si tratti della replica nella stessa Regione (SRR) o della replica tra Regioni (CRR), aggiungere una configurazione della replica al bucket di origine. Questa configurazione indica ad Amazon S3 di replicare gli oggetti come specificato. Nella configurazione di replica, è necessario fornire le informazioni seguenti:
+ **I bucket di destinazione**: uno o più bucket in cui desideri che Amazon S3 replichi gli oggetti.
+ **Gli oggetti da replicare**: è possibile replicare tutti gli oggetti presenti nel bucket di origine o solo parte di essi. Puoi identificare un sottoinsieme specificando nella configurazione un [prefisso di nome di chiave](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#keyprefix), uno o più tag di oggetti oppure entrambi.

  Se, ad esempio, configuri una regola di replica per replicare solo gli oggetti con il prefisso di nome di chiave `Tax/`, Amazon S3 replica gli oggetti con chiavi come `Tax/doc1` o `Tax/doc2`. Ma non replica un oggetto con la chiave `Legal/doc3`. Se specifichi sia un prefisso sia uno o più tag, Amazon S3 replica solo gli oggetti con il prefisso della chiave e i tag specificati.
+ **Un ruolo AWS Identity and Access Management (IAM)**: Amazon S3 assume questo ruolo IAM per replicare gli oggetti per tuo conto. Per ulteriori informazioni sulla creazione di questo ruolo IAM e sulla gestione delle autorizzazioni, consulta [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).

Oltre a questi requisiti minimi, puoi scegliere tra le opzioni seguenti: 
+ **Classe di archiviazione della replica**: di default, Amazon S3 archivia le repliche di oggetti utilizzando la stessa classe di archiviazione dell'oggetto di origine. È possibile specificare una classe di storage diversa per le repliche.
+ **Proprietà della replica**: Amazon S3 presuppone che la replica di un oggetto continuerà ad appartenere al proprietario dell'oggetto di origine. Quindi, quando replica gli oggetti, ne replica anche la lista di controllo degli accessi (ACL) corrispondente o l'impostazione S3 Object Ownership. Se i bucket di origine e di destinazione sono di proprietà di Account AWS diversi, è possibile configurare la replica in modo da assegnare la proprietà di una replica all' Account AWS proprietario del bucket di destinazione. Per ulteriori informazioni, consulta [Modifica del proprietario della replica](replication-change-owner.md).

Puoi configurare la replica utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() o l'API AWS SDKs REST di Amazon S3. Per istruzioni dettagliate su come configurare la replica, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

 Amazon S3 fornisce operazioni REST API per supportare la configurazione delle regole di replica. Per ulteriori informazioni, consulta i seguenti argomenti nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*:
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html) 

**Topics**
+ [Elementi del file di configurazione della replica](replication-add-config.md)
+ [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md)
+ [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md)

# Elementi del file di configurazione della replica
<a name="replication-add-config"></a>

Amazon S3 archivia la configurazione di replica come file XML. Se la replica viene configurata a livello di codice tramite la REST API di Amazon S3, i vari elementi della configurazione della replica vengono specificati in questo file XML. Se la replica viene configurata tramite AWS Command Line Interface (AWS CLI), la configurazione della replica viene specificata utilizzando il formato JSON. Per gli esempi di JSON, consulta le procedure dettagliate in [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

**Nota**  
La versione più recente del formato XML di configurazione della replica è V2. Le configurazioni di replica XML V2 sono quelle che contengono l'elemento `<Filter>` per le regole e le regole che specificano S3 Replication Time Control (S3 RTC).  
Per visualizzare la versione della configurazione di replica, puoi utilizzare l'operazione API `GetBucketReplication`. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).   
Per la compatibilità con le versioni precedenti, Amazon S3 continua a supportare il formato di configurazione della replica XML V1. Se è stato usato il formato di configurazione della replica XML V1, consulta [Considerazioni sulla compatibilità con le versioni precedenti](#replication-backward-compat-considerations) per le considerazioni relative alla compatibilità con le versioni precedenti.

Nel file XML di configurazione della replica, è necessario specificare un ruolo AWS Identity and Access Management (IAM) e una o più regole, come illustrato nell'esempio seguente:

```
<ReplicationConfiguration>
    <Role>IAM-role-ARN</Role>
    <Rule>
        ...
    </Rule>
    <Rule>
         ... 
    </Rule>
     ...
</ReplicationConfiguration>
```

Amazon S3 non può replicare oggetti senza la tua autorizzazione. Le autorizzazioni vengono concesse ad Amazon S3 con il ruolo IAM specificato nella configurazione della replica. Amazon S3 assume questo ruolo IAM per replicare gli oggetti per conto dell'utente. È necessario innanzitutto concedere le autorizzazioni necessarie al ruolo IAM. Per ulteriori informazioni sulla gestione delle autorizzazioni, consulta la sezione [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).

È possibile aggiungere una sola regola a una configurazione della replica quando:
+ Vuoi replicare tutti gli oggetti.
+ Si desidera replicare solo un sottoinsieme di oggetti. Identifichi il sottoinsieme di oggetti aggiungendo un filtro alla regola. Nel filtro si specifica un prefisso di chiave o tag dell'oggetto o una combinazione di questi elementi, per identificare il sottoinsieme di oggetti a cui si applica la regola. I filtri si applicano agli oggetti che corrispondono ai valori esatti specificati.

Per replicare sottoinsiemi di oggetti diversi, aggiungere più regole a una configurazione della replica. In ogni regola è possibile specificare un filtro tramite il quale selezionare un sottoinsieme diverso. Puoi ad esempio scegliere di replicare gli oggetti con prefissi della chiave `tax/` o `document/`. Per fare ciò devi aggiungere due regole: una che specifica il filtro prefisso della chiave `tax/` e un'altra che specifica il prefisso della chiave `document/`. Per ulteriori informazioni sui prefissi della chiave dell'oggetto, consulta [Organizzazione degli oggetti utilizzando i prefissi](using-prefixes.md).

Nelle sezioni seguenti vengono fornite informazioni aggiuntive.

**Topics**
+ [Configurazione di base delle regole](#replication-config-min-rule-config)
+ [Facoltativo: specifica di un filtro](#replication-config-optional-filter)
+ [Configurazioni di destinazione aggiuntive](#replication-config-optional-dest-config)
+ [Esempi di configurazioni di replica](#replication-config-example-configs)
+ [Considerazioni sulla compatibilità con le versioni precedenti](#replication-backward-compat-considerations)

## Configurazione di base delle regole
<a name="replication-config-min-rule-config"></a>

Ogni regola deve includere lo stato e la priorità della stessa. La regola deve anche indicare se replicare i contrassegni di eliminazione. 
+ L'elemento `<Status>` indica se la regola è abilitata o disabilitata utilizzando i valori `Enabled` o `Disabled`. Se una regola è disabilitata, Amazon S3 non esegue le operazioni in essa specificate. 
+ L'elemento `<Priority>` indica quale regola ha la precedenza ogni volta che due o più regole di replica sono in conflitto. Amazon S3 prova a replicare gli oggetti in base a tutte le regole di replica. Tuttavia, se esistono due o più regole con lo stesso bucket di destinazione, gli oggetti vengono replicati in base alla regola con la priorità più alta. Più elevato è il numero, maggiore è la priorità.
+ L'elemento `<DeleteMarkerReplication>` indica se replicare i contrassegni di eliminazione tramite i valori `Enabled` o `Disabled`.

Nella configurazione dell'elemento `<Destination>` è necessario specificare il nome del bucket o dei bucket di destinazione in cui Amazon S3 deve replicare gli oggetti. 

Nell'esempio seguente sono indicati i requisiti minimi per una regola V2. Per la compatibilità con le versioni precedenti, Amazon S3 continua a supportare il formato XML V1. Per ulteriori informazioni, consulta [Considerazioni sulla compatibilità con le versioni precedenti](#replication-backward-compat-considerations).

```
...
    <Rule>
        <ID>Rule-1</ID>
        <Status>Enabled-or-Disabled</Status>
        <Filter>
            <Prefix></Prefix>   
        </Filter>
        <Priority>integer</Priority>
        <DeleteMarkerReplication>
           <Status>Enabled-or-Disabled</Status>
        </DeleteMarkerReplication>
        <Destination>        
           <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket> 
        </Destination>    
    </Rule>
    <Rule>
         ...
    </Rule>
     ...
...
```

Puoi anche specificare altre opzioni di configurazione. Ad esempio, puoi scegliere di utilizzare una classe di storage per le repliche degli oggetti diversa dalla classe dell'oggetto di origine. 

## Facoltativo: specifica di un filtro
<a name="replication-config-optional-filter"></a>

Per scegliere un sottoinsieme di oggetti a cui si applica la regola, aggiungi un filtro facoltativo. Puoi filtrare in base al prefisso della chiave dell'oggetto, ai tag dell'oggetto o a una combinazione di entrambi. Se applichi un filtro in base sia al prefisso della chiave sia ai tag dell'oggetto, Amazon S3 combina i filtri utilizzando un operatore logico `AND`. In altre parole, la regola si applica a un sottoinsieme di oggetti con uno specifico prefisso della chiave e tag specifici. 

**Filtro in base al prefisso della chiave oggetto**  
Per specificare una regola con un filtro basato su un prefisso della chiave di un oggetto, utilizzare l'XML seguente. È possibile specificare un solo prefisso per regola.

```
<Rule>
    ...
    <Filter>
        <Prefix>key-prefix</Prefix>   
    </Filter>
    ...
</Rule>
...
```

**Filtro basato su tag oggetto**  
Per specificare una regola con un filtro basato sui tag di un oggetto, utilizzare l'XML seguente. Puoi specificare uno o più tag dell'oggetto.

```
<Rule>
    ...
    <Filter>
        <And>
            <Tag>
                <Key>key1</Key>
                <Value>value1</Value>
            </Tag>
            <Tag>
                <Key>key2</Key>
                <Value>value2</Value>
            </Tag>
             ...
        </And>
    </Filter>
    ...
</Rule>
...
```

**Filtro con un prefisso chiave e tag oggetto**  
Per specificare un filtro della regola con una combinazione di prefisso della chiave e tag di un oggetto, utilizzare l'XML seguente. I filtri vengono uniti in un elemento padre `<And>`. Amazon S3 esegue un'operazione logica `AND` per combinare questi filtri. In altre parole, la regola si applica a un sottoinsieme di oggetti con uno specifico prefisso della chiave e tag specifici. 

```
<Rule>
    ...
    <Filter>
        <And>
            <Prefix>key-prefix</Prefix>
            <Tag>
                <Key>key1</Key>
                <Value>value1</Value>
            </Tag>
            <Tag>
                <Key>key2</Key>
                <Value>value2</Value>
            </Tag>
             ...
    </Filter>
    ...
</Rule>
...
```

**Nota**  
Se si specifica una regola con un elemento `<Filter>` vuoto, la regola verrà applicata a tutti gli oggetti nel bucket.
Quando si utilizzano regole di replica basate su tag con replica in tempo reale, occorre assegnare ai nuovi oggetti il tag della regola di replica corrispondente nell'operazione `PutObject`. In caso contrario, gli oggetti non verranno replicati. Non verranno replicati neanche gli oggetti a cui vengono assegnati tag dopo l'operazione `PutObject`.   
Per replicare oggetti a cui sono stati assegnati tag dopo l'operazione `PutObject`, è necessario utilizzare Replica in batch S3. Per ulteriori informazioni su Batch Replication, consulta la sezione [Replica di oggetti esistenti](s3-batch-replication-batch.md).

## Configurazioni di destinazione aggiuntive
<a name="replication-config-optional-dest-config"></a>

Nella configurazione di destinazione devi specificare il bucket in cui Amazon S3 deve replicare gli oggetti. Puoi configurare la replica per replicare gli oggetti da un bucket di origine a uno solo o a più bucket di destinazione. 

```
...
<Destination>        
    <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
</Destination>
...
```

Puoi aggiungere le seguenti opzioni nell'elemento `<Destination>`.

**Topics**
+ [Specifica della classe di storage](#storage-class-configuration)
+ [Aggiunta di più bucket di destinazione](#multiple-destination-buckets-configuration)
+ [Specifica di parametri diversi per ogni regola di replica con più bucket di destinazione](#replication-rule-configuration)
+ [Modifica della proprietà della replica](#replica-ownership-configuration)
+ [Abilitazione di S3 Replication Time Control](#rtc-configuration)
+ [Replica gli oggetti creati con la crittografia lato server utilizzando AWS KMS](#sse-kms-configuration)

### Specifica della classe di storage
<a name="storage-class-configuration"></a>

È possibile specificare la classe di storage per le repliche degli oggetti. Per impostazione predefinita, Amazon S3 utilizza la classe di storage dell'oggetto di origine per creare le repliche degli oggetti, come nell'esempio seguente.

```
...
<Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
       <StorageClass>storage-class</StorageClass>
</Destination>
...
```

### Aggiunta di più bucket di destinazione
<a name="multiple-destination-buckets-configuration"></a>

Puoi aggiungere più bucket di destinazione in una singola configurazione di replica, come indicato di seguito.

```
...
<Rule>
    <ID>Rule-1</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled-or-Disabled</Status>
    </DeleteMarkerReplication>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket1</Bucket> 
    </Destination>    
</Rule>
<Rule>
    <ID>Rule-2</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled-or-Disabled</Status>
    </DeleteMarkerReplication>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket2</Bucket> 
    </Destination>    
</Rule>
...
```

### Specifica di parametri diversi per ogni regola di replica con più bucket di destinazione
<a name="replication-rule-configuration"></a>

Quando si aggiungono più bucket di destinazione in una singola configurazione di replica, puoi specificare parametri diversi per ogni regola di replica, come indicato di seguito.

```
...
<Rule>
    <ID>Rule-1</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Disabled</Status>
    </DeleteMarkerReplication>
      <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket1</Bucket> 
    </Destination>    
</Rule>
<Rule>
    <ID>Rule-2</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled</Status>
    </DeleteMarkerReplication>
      <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
  <ReplicationTime>
    <Status>Enabled</Status>
    <Time>
      <Minutes>15</Minutes>
    </Time>
  </ReplicationTime>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket2</Bucket> 
    </Destination>    
</Rule>
...
```

### Modifica della proprietà della replica
<a name="replica-ownership-configuration"></a>

Quando i bucket di origine e di destinazione non sono di proprietà degli stessi account, è possibile modificare la proprietà della replica con Account AWS quella proprietaria del bucket di destinazione. A questo scopo, aggiungi l'elemento `<AccessControlTranslation>`. Questo elemento assume il valore `Destination`.

```
...
<Destination>
   <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
   <Account>destination-bucket-owner-account-id</Account>
   <AccessControlTranslation>
       <Owner>Destination</Owner>
   </AccessControlTranslation>
</Destination>
...
```

Se non si aggiunge l'`<AccessControlTranslation>`elemento alla configurazione di replica, le repliche sono di proprietà dello stesso Account AWS proprietario dell'oggetto di origine. Per ulteriori informazioni, consulta [Modifica del proprietario della replica](replication-change-owner.md).

### Abilitazione di S3 Replication Time Control
<a name="rtc-configuration"></a>

Puoi abilitare S3 Replication Time Control (S3 RTC) nella configurazione di replica. S3 RTC replica la maggior parte degli oggetti in pochi secondi e il 99,99% degli oggetti entro 15 minuti, secondo un Accordo sul Livello di Servizio (SLA). 

**Nota**  
Per gli elementi `<EventThreshold>` e `<Time>` è accettato solo un valore valido di `<Minutes>15</Minutes>`.

```
...
<Destination>
  <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
  <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
  <ReplicationTime>
    <Status>Enabled</Status>
    <Time>
      <Minutes>15</Minutes>
    </Time>
  </ReplicationTime>
</Destination>
...
```

Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md). Per esempi di API, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html) nella *Guida di riferimento per l'API di Amazon Simple Storage Service*.

### Replica gli oggetti creati con la crittografia lato server utilizzando AWS KMS
<a name="sse-kms-configuration"></a>

Il bucket di origine potrebbe contenere oggetti creati con la crittografia lato server utilizzando le chiavi AWS Key Management Service () (AWS KMS SSE-KMS). Per impostazione predefinita, Amazon S3 non replica questi oggetti. Puoi facoltativamente indicare ad Amazon S3 di replicare questi oggetti. Per farlo, innanzitutto abilita esplicitamente questa funzionalità aggiungendo l'elemento `<SourceSelectionCriteria>`. Quindi fornisci AWS KMS key (per il bucket Regione AWS di destinazione) da utilizzare per crittografare le repliche degli oggetti. I seguenti esempi mostrano come specificare questi elementi.

```
...
<SourceSelectionCriteria>
  <SseKmsEncryptedObjects>
    <Status>Enabled</Status>
  </SseKmsEncryptedObjects>
</SourceSelectionCriteria>
<Destination>
  <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
  <EncryptionConfiguration>
    <ReplicaKmsKeyID>AWS KMS key ID to use for encrypting object replicas</ReplicaKmsKeyID>
  </EncryptionConfiguration>
</Destination>
...
```

Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).

## Esempi di configurazioni di replica
<a name="replication-config-example-configs"></a>

Per iniziare, puoi aggiungere le configurazioni di replica di esempio seguenti al bucket, in base alle esigenze.

**Importante**  
Per aggiungere una configurazione di replica a un bucket, devi disporre dell'autorizzazione `iam:PassRole`. Questa autorizzazione permette di passare il ruolo IAM che concede le autorizzazioni di replica ad Amazon S3. Puoi specificare il ruolo IAM fornendo l'Amazon Resource Name (ARN) utilizzato nell'elemento `<Role>` nel file XML della configurazione di replica. Per ulteriori informazioni, consulta [Concessione di autorizzazioni utente per il passaggio di un ruolo a Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) nella *Guida per l'utente di IAM*.

**Example 1: Configurazione di replica con una regola**  
La configurazione di replica di base seguente specifica una regola. La regola specifica un ruolo IAM che Amazon S3 può assumere e un singolo bucket di destinazione per le repliche degli oggetti. Se il valore dell'elemento `<Status>` è `Enabled` significa che la regola è in vigore.  

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>

    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```
Per scegliere un sottoinsieme di oggetti da replicare, puoi aggiungere un filtro. Nella configurazione seguente il filtro specifica un prefisso della chiave di un oggetto. Questa regola si applica agli oggetti con il prefisso `Tax/` nel nome della chiave.   

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>

    <Filter>
       <Prefix>Tax/</Prefix>
    </Filter>

    <Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>

  </Rule>
</ReplicationConfiguration>
```
Se specifichi l'elemento `<Filter>`, devi includere anche gli elementi `<Priority>` e `<DeleteMarkerReplication>`. In questo esempio, il valore impostato per l'elemento `<Priority>` non è rilevante perché è presente solo una regola.  
Nella configurazione seguente il filtro specifica un prefisso e due tag. La regola si applica al sottoinsieme di oggetti con il prefisso della chiave e i tag specificati. Nello specifico, si applica agli oggetti con il prefisso `Tax/` nei nomi delle chiavi e i due tag specificati. In questo esempio, il valore impostato per l'elemento `<Priority>` non è rilevante perché è presente solo una regola.  

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>

    <Filter>
        <And>
          <Prefix>Tax/</Prefix>
          <Tag>
             <Tag>
                <Key>tagA</Key>
                <Value>valueA</Value>
             </Tag>
          </Tag>
          <Tag>
             <Tag>
                <Key>tagB</Key>
                <Value>valueB</Value>
             </Tag>
          </Tag>
       </And>

    </Filter>

    <Destination>
        <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>

  </Rule>
</ReplicationConfiguration>
```
È possibile specificare una classe di storage per le repliche degli oggetti come illustrato di seguito:  

```
<?xml version="1.0" encoding="UTF-8"?>

<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
       <StorageClass>storage-class</StorageClass>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```
È possibile specificare qualsiasi classe di storage supportata da Amazon S3.

**Example 2: Configurazione di replica con due regole**  

**Example**  
Nella seguente configurazione della replica, le regole specificano che:  
+ Ogni regola filtra in base a un prefisso della chiave diverso, per cui ogni regola si applica a un sottoinsieme di oggetti diverso. In questo esempio, Amazon S3 replica gli oggetti con i nomi di chiave *`Tax/doc1.pdf`* e *`Project/project1.txt`*, ma non gli oggetti con il nome di chiave *`PersonalDoc/documentA`*. 
+ Sebbene entrambe le regole specifichino un valore per l'elemento `<Priority>`, la priorità della regola non è rilevante perché le regole si applicano a due insiemi di oggetti distinti. L'esempio successivo mostra cosa accade quando viene applicata la priorità delle regole. 
+ La seconda regola specifica una classe di archiviazione S3 Standard-IA per le repliche degli oggetti. Amazon S3 usa la classe di storage specificata per tali repliche.
   

```
<?xml version="1.0" encoding="UTF-8"?>

<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>Tax</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
     ...
  </Rule>
 <Rule>
    <Status>Enabled</Status>
    <Priority>2</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>Project</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
     <StorageClass>STANDARD_IA</StorageClass>
    </Destination>
     ...
  </Rule>


</ReplicationConfiguration>
```

**Example 3: Configurazione di replica con due regole con prefissi sovrapposti**  <a name="overlap-rule-example"></a>
In questa configurazione, le due regole specificano filtri con prefissi della chiave che si sovrappongono, *`star`* e *`starship`*. Entrambe le regole si applicano agli oggetti con il nome di chiave *`starship-x`*. In questo caso, Amazon S3 utilizza la priorità delle regole per determinare quale regola applicare. Più elevato è il numero, maggiore è la priorità.  

```
<ReplicationConfiguration>

  <Role>arn:aws:iam::account-id:role/role-name</Role>

  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>star</Prefix>
    </Filter>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
  <Rule>
    <Status>Enabled</Status>
    <Priority>2</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>starship</Prefix>
    </Filter>    
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```

**Example 4: Procedure dettagliate di esempio**  
Per le procedure dettagliate di esempio, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

Per ulteriori informazioni sulla struttura XML della configurazione di replica, consulta [PutBucketReplication](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTreplication.html)*Amazon Simple Storage Service API Reference*. 

## Considerazioni sulla compatibilità con le versioni precedenti
<a name="replication-backward-compat-considerations"></a>

La versione più recente del formato XML di configurazione della replica è V2. Le configurazioni di replica XML V2 sono quelle che contengono l'elemento `<Filter>` per le regole e le regole che specificano S3 Replication Time Control (S3 RTC).

Per visualizzare la versione della configurazione di replica, puoi utilizzare l'operazione API `GetBucketReplication`. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service). 

Per la compatibilità con le versioni precedenti, Amazon S3 continua a supportare il formato di configurazione della replica XML V1. Se si è utilizzato il formato di configurazione della replica XML V1, tenere presenti i seguenti problemi relativi alla compatibilità con le versioni precedenti:
+ Il formato di configurazione della replica XML V2 include l'elemento `<Filter>` per le regole. Con l'elemento `<Filter>`, puoi specificare filtri di oggetti basati sul prefisso della chiave o sui tag dell'oggetto, oppure su entrambi gli elementi, per specificare gli oggetti a cui si applica la regola. Il formato di configurazione della replica XML V1 supporta il filtro solo in base al prefisso della chiave. In tal caso, aggiungere l'elemento `<Prefix>` direttamente come elemento figlio dell'elemento `<Rule>`, come nell'esempio seguente:

  ```
  <?xml version="1.0" encoding="UTF-8"?>
  <ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
    <Role>arn:aws:iam::account-id:role/role-name</Role>
    <Rule>
      <Status>Enabled</Status>
      <Prefix>key-prefix</Prefix>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
      </Destination>
  
    </Rule>
  </ReplicationConfiguration>
  ```
+ Quando elimini un oggetto dal bucket di origine senza specificare un ID versione, Amazon S3 aggiunge un contrassegno di eliminazione. Se si utilizza il formato di configurazione della replica XML V1, le repliche Amazon S3 eliminano solo i contrassegni derivanti dalle operazioni dell'utente. In altre parole, Amazon S3 esegue la replica del contrassegno di eliminazione solo se un utente elimina un oggetto. Se un oggetto scaduto viene rimosso da Amazon S3 (come parte di un'operazione del ciclo di vita), Amazon S3 non replicherà il contrassegno di eliminazione. 

  Nel formato XML V2 della configurazione di replica, puoi abilitare la replica dei marker di eliminazione per le regole. non-tag-based Per ulteriori informazioni, consulta [Replica dei contrassegni di eliminazione tra i bucket](delete-marker-replication.md). 

 

# Configurazione delle autorizzazioni per la replica in tempo reale
<a name="setting-repl-config-perm-overview"></a>

Per la configurazione della replica in tempo reale in Amazon S3, occorre acquisire le autorizzazioni necessarie, come indicato di seguito:
+ Devi concedere al principale AWS Identity and Access Management (IAM) (utente o ruolo) che creerà le regole di replica un determinato set di autorizzazioni.
+ Amazon S3 necessita delle autorizzazioni per replicare gli oggetti per tuo conto. Queste autorizzazioni vengono concesse creando un ruolo IAM e specificandolo nella configurazione di replica.
+ Quando i bucket di origine e di destinazione non sono di proprietà degli stessi account, il proprietario del bucket di destinazione deve concedere al proprietario del bucket di origine anche le autorizzazioni per archiviare le repliche.

**Nota**  
Se si utilizza Operazioni in batch S3 per replicare gli oggetti on demand anziché configurare la replica in tempo reale, le policy e un ruolo IAM diversi sono necessari per Replica in batch S3. Per esempi di policy e ruoli IAM di Replica in batch, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).

**Topics**
+ [Fase 1. Concessione di autorizzazioni al principale IAM che crea le regole di replica](#setting-repl-config-role)
+ [Fase 2. Creazione di un ruolo IAM per Amazon S3](#setting-repl-config-same-acctowner)
+ [(Facoltativo) Fase 3: Concessione delle autorizzazioni quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS](#setting-repl-config-crossacct)
+ [(Facoltativo) Fase 4. Concessione di autorizzazioni per modificare la proprietà della replica](#change-replica-ownership)

## Fase 1. Concessione di autorizzazioni al principale IAM che crea le regole di replica
<a name="setting-repl-config-role"></a>

L’utente o il ruolo IAM da utilizzare per creare le regole di replica necessita delle autorizzazioni per creare regole per repliche unidirezionali o bidirezionali. Se l’utente o il ruolo non dispone di queste autorizzazioni, non è possibile creare regole di replica. Per ulteriori informazioni, consulta [Identità IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id.html) nella *Guida per l’utente IAM*.

L’utente o il ruolo necessita delle seguenti azioni:
+ `iam:AttachRolePolicy`
+ `iam:CreatePolicy`
+ `iam:CreateServiceLinkedRole`
+ `iam:PassRole`
+ `iam:PutRolePolicy`
+ `s3:GetBucketVersioning`
+ `s3:GetObjectVersionAcl`
+ `s3:GetObjectVersionForReplication`
+ `s3:GetReplicationConfiguration`
+ `s3:PutReplicationConfiguration`

Di seguito è riportato un esempio di policy IAM che include queste azioni.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetAccessPoint",
                "s3:GetAccountPublicAccessBlock",
                "s3:GetBucketAcl",
                "s3:GetBucketLocation",
                "s3:GetBucketPolicyStatus",
                "s3:GetBucketPublicAccessBlock",
                "s3:ListAccessPoints",
                "s3:ListAllMyBuckets",
                "s3:PutReplicationConfiguration",
                "s3:GetReplicationConfiguration",
                "s3:GetBucketVersioning",
                "s3:GetObjectVersionForReplication",
                "s3:GetObjectVersionAcl",
                "s3:GetObject",
                "s3:ListBucket",
                "s3:GetObjectVersion",
                "s3:GetBucketOwnershipControls",
                "s3:PutBucketOwnershipControls",
                "s3:GetObjectLegalHold",
                "s3:GetObjectRetention",
                "s3:GetBucketObjectLockConfiguration"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket1-*",
                "arn:aws:s3:::amzn-s3-demo-bucket2-*/*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "s3:List*AccessPoint*",
                "s3:GetMultiRegion*"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:Get*",
                "iam:CreateServiceLinkedRole",
                "iam:CreateRole",
                "iam:PassRole"
            ],
            "Resource": "arn:aws:iam::*:role/service-role/s3*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:List*"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:AttachRolePolicy",
                "iam:PutRolePolicy",
                "iam:CreatePolicy"
              ],
            "Resource": [
                "arn:aws:iam::*:policy/service-role/s3*",
                "arn:aws:iam::*:role/service-role/s3*"
            ]
        }
    ]
}
```

------

## Fase 2. Creazione di un ruolo IAM per Amazon S3
<a name="setting-repl-config-same-acctowner"></a>



Di default, tutte le risorse di Amazon S3, ossia bucket, oggetti e risorse secondarie correlate, sono private e solo il proprietario vi può accedere. Amazon S3 ha bisogno di autorizzazioni per leggere e replicare gli oggetti dal bucket di origine. Queste autorizzazioni vengono concesse creando un ruolo IAM e specificandolo nella configurazione della replica. 

In questa sezione vengono illustrate la policy di attendibilità e la policy di autorizzazione minima richiesta associate a questo ruolo IAM. Le procedure dettagliate di esempio forniscono step-by-step istruzioni per creare un ruolo IAM. Per ulteriori informazioni, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

**Nota**  
Se si utilizza la console per creare la configurazione di replica, è consigliabile saltare questa sezione e lasciare che sia invece la console a creare automaticamente questo ruolo IAM e le policy di attendibilità e autorizzazione necessarie.

La *policy di attendibilità* identifica le identità principali che possono assumere il ruolo IAM. La *policy di autorizzazione* specifica le azioni che il ruolo IAM può eseguire, su quali risorse e in quali condizioni. 
+ L'esempio seguente mostra una *politica di fiducia* in cui si identifica Amazon S3 come Servizio AWS principale che può assumere il ruolo:

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement":[
        {
           "Effect":"Allow",
           "Principal":{
              "Service":"s3.amazonaws.com"
           },
           "Action":"sts:AssumeRole"
        }
     ]
  }
  ```

------
+ Di seguito viene mostrata una *policy di attendibilità* esemplificativa in cui si identifica Amazon S3 e Operazioni in batch S3 come principali del servizio che può assumere il ruolo. Usare questo approccio quando si crea un processo Replica in batch. Per ulteriori informazioni, consulta [Creazione di un processo Replica in batch per nuove destinazioni o regole di replica](s3-batch-replication-new-config.md).

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement":[ 
        {
           "Effect":"Allow",
           "Principal":{
              "Service": [
                "s3.amazonaws.com",
                "batchoperations.s3.amazonaws.com"
             ]
           },
           "Action":"sts:AssumeRole"
        }
     ]
  }
  ```

------

  Per ulteriori informazioni sui ruoli IAM, consulta [Ruoli IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles.html) nella *Guida per l'utente di IAM*.
+ Di seguito viene mostrata una *policy di autorizzazioni* esemplificativa in cui si concedono al ruolo IAM le autorizzazioni per eseguire attività di replica per proprio conto. Quando Amazon S3 assume il ruolo, dispone delle autorizzazioni che sono state specificate in questa policy. In questa politica, `amzn-s3-demo-source-bucket` è il bucket di origine e `amzn-s3-demo-destination-bucket` è il nome del bucket di destinazione.

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
        {
           "Effect": "Allow",
           "Action": [
              "s3:GetReplicationConfiguration",
              "s3:ListBucket"
           ],
           "Resource": [
              "arn:aws:s3:::amzn-s3-demo-source-bucket"
           ]
        },
        {
           "Effect": "Allow",
           "Action": [
              "s3:GetObjectVersionForReplication",
              "s3:GetObjectVersionAcl",
              "s3:GetObjectVersionTagging"
           ],
           "Resource": [
              "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
           ]
        },
        {
           "Effect": "Allow",
           "Action": [
              "s3:ReplicateObject",
              "s3:ReplicateDelete",
              "s3:ReplicateTags"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        }
     ]
  }
  ```

------

  La policy di autorizzazioni concede le autorizzazioni per le seguenti azioni:
  +  `s3:GetReplicationConfiguration` e `s3:ListBucket`: le autorizzazioni per queste azioni sul bucket `amzn-s3-demo-source-bucket` consentono ad Amazon S3 di recuperare la configurazione della replica ed elencare il contenuto del bucket. (Il modello di autorizzazioni corrente richiede l'autorizzazione `s3:ListBucket` per l'accesso ai contrassegni di eliminazione.)
  + `s3:GetObjectVersionForReplication` e `s3:GetObjectVersionAcl`: le autorizzazioni per queste operazioni concesse su tutti gli oggetti permettono ad Amazon S3 di ottenere una versione dell'oggetto specifica e la lista di controllo degli accessi (ACL) associata agli oggetti. 

    
  + `s3:ReplicateObject` e `s3:ReplicateDelete`: le autorizzazioni per queste operazioni sugli oggetti nel bucket di `amzn-s3-demo-destination-bucket` permettono ad Amazon S3 di replicare gli oggetti o i contrassegni di eliminazione nel bucket di destinazione. Per informazioni sui contrassegni di eliminazione, consulta la sezione [Effetto delle operazioni di eliminazione sulla replica](replication-what-is-isnot-replicated.md#replication-delete-op). 
**Nota**  
Le autorizzazioni per l'`s3:ReplicateObject`azione sul `amzn-s3-demo-destination-bucket` bucket consentono inoltre la replica di metadati come tag di oggetti e. ACLs Pertanto non è necessario concedere esplicitamente l'autorizzazione per l'operazione `s3:ReplicateTags`.
  + `s3:GetObjectVersionTagging`: le autorizzazioni per questa azione sugli oggetti nel bucket `amzn-s3-demo-source-bucket` permettono ad Amazon S3 di leggere i tag degli oggetti per la replica. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md). Se non dispone dell'autorizzazione `s3:GetObjectVersionTagging`, Amazon S3 replica gli oggetti ma non i relativi tag.

  Per visualizzare un elenco di operazioni Amazon S3, consulta [Operazioni, risorse e chiavi di condizione per Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html#list_amazons3-actions-as-permissions) nella *Guida di riferimento per l'autorizzazione al servizio*.

  Per ulteriori informazioni sulle autorizzazioni alle operazioni API S3 per tipi di risorse S3, consulta [Autorizzazioni necessarie per le operazioni API di Amazon S3](using-with-s3-policy-actions.md).
**Importante**  
Il Account AWS proprietario del ruolo IAM deve disporre delle autorizzazioni per le azioni che concede al ruolo IAM.   
Supponiamo ad esempio che il bucket di origine contenga oggetti di proprietà di un altro Account AWS. Il proprietario degli oggetti deve concedere esplicitamente al proprietario del Account AWS ruolo IAM le autorizzazioni richieste tramite gli elenchi di controllo degli accessi degli oggetti (). ACLs In caso contrario, Amazon S3 non può accedere agli oggetti e la replica degli oggetti ha esito negativo. Per informazioni sulle autorizzazioni ACL, consulta la sezione [Panoramica delle liste di controllo accessi (ACL)](acl-overview.md).  
  
Le autorizzazioni descritte si riferiscono alla configurazione di replica minima. Se scegli di aggiungere configurazioni di replica facoltative, è necessario fornire ulteriori autorizzazioni ad Amazon S3:   
Per replicare oggetti crittografati, è necessario anche fornire le autorizzazioni per la chiave AWS Key Management Service (AWS KMS) necessarie. Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Per utilizzare Object Lock con la replica, devi concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) che usi per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication).

## (Facoltativo) Fase 3: Concessione delle autorizzazioni quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS
<a name="setting-repl-config-crossacct"></a>

Quando i bucket di origine e di destinazione non sono di proprietà degli stessi account, il proprietario del bucket di destinazione deve aggiungere anche una policy di bucket per concedere al proprietario del bucket di origine le autorizzazioni per eseguire le operazioni di replica, come mostrato nel seguente esempio. In questa policy di esempio, `amzn-s3-demo-destination-bucket` è il nome del bucket di destinazione.

È possibile utilizzare la console Amazon S3 anche per generare automaticamente questa policy di bucket. Per ulteriori informazioni, consulta [Abilita la ricezione di oggetti replicati da un bucket di origine](#receiving-replicated-objects).

**Nota**  
Il formato ARN del ruolo può apparire diverso. Se il ruolo è stato creato utilizzando la console, il formato ARN è `arn:aws:iam::account-ID:role/service-role/role-name`. Se il ruolo è stato creato utilizzando il AWS CLI, il formato ARN è. `arn:aws:iam::account-ID:role/role-name` Per ulteriori informazioni, consulta [Ruoli IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html) nella *Guida per l'utente IAM*. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "PolicyForDestinationBucket",
    "Statement": [
        {
            "Sid": "Permissions on objects",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
            },
            "Action": [
                "s3:ReplicateDelete",
                "s3:ReplicateObject"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        },
        {
            "Sid": "Permissions on bucket",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
            },
            "Action": [
                "s3:List*",
                "s3:GetBucketVersioning",
                "s3:PutBucketVersioning"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
        }
    ]
}
```

------

Per vedere un esempio, consulta [Configurazione della replica per i bucket in account diversi](replication-walkthrough-2.md).

In presenza di oggetti con tag nel bucket di origine, tenere in considerazione quanto segue:
+ Se il proprietario del bucket di origine concede ad Amazon S3 l'autorizzazione per le operazioni `s3:GetObjectVersionTagging` e `s3:ReplicateTags` per replicare i tag degli oggetti (tramite il ruolo IAM), Amazon S3 replica i tag insieme agli oggetti. Per informazioni sul ruolo IAM, consulta [Fase 2. Creazione di un ruolo IAM per Amazon S3](#setting-repl-config-same-acctowner).
+ Se il proprietario del bucket di destinazione non desidera replicare i tag, può aggiungere l'istruzione seguente alla policy del bucket di destinazione per rifiutare esplicitamente l'autorizzazione per l'operazione `s3:ReplicateTags`. In questa politica, `amzn-s3-demo-destination-bucket`è il nome del bucket di destinazione.

  ```
  ...
     "Statement":[
        {
           "Effect":"Deny",
           "Principal":{
              "AWS":"arn:aws:iam::source-bucket-account-id:role/service-role/source-account-IAM-role"
           },
           "Action":"s3:ReplicateTags",
           "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        }
     ]
  ...
  ```

**Nota**  
Se si desidera replicare oggetti crittografati, è opportuno anche concedere le autorizzazioni chiave AWS Key Management Service (AWS KMS) necessarie. Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Per utilizzare Object Lock con la replica, è necessario concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) utilizzato per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication). 

**Abilitare la ricezione di oggetti replicati da un bucket di origine**  
Anziché aggiungere manualmente la policy precedente al bucket di destinazione, è possibile generare rapidamente le policy necessarie per abilitare la ricezione di oggetti replicati da un bucket di origine tramite la console Amazon S3. 

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Bucket**e, scegliere il bucket da utilizzare come bucket di destinazione.

1. Seleziona la scheda **Gestione**, quindi scorri verso il basso fino a **Regole di replica**.

1. Per **Operazioni**, scegliere **Ricevi oggetti replicati**. 

   **Segui le istruzioni e inserisci l' Account AWS ID dell'account bucket di origine, quindi scegli Genera politiche.** La console genera una policy del bucket Amazon S3 e una policy della chiave KMS.

1. Per aggiungere questa policy alla policy del bucket esistente, scegli **Applica le impostazioni** oppure scegli **Copia** per copiare manualmente le modifiche. 

1. (Facoltativo) Copia la AWS KMS politica nella policy chiave KMS desiderata nella console. AWS Key Management Service 

## (Facoltativo) Fase 4. Concessione di autorizzazioni per modificare la proprietà della replica
<a name="change-replica-ownership"></a>

Se Account AWS il bucket di origine e quello di destinazione sono diversi, puoi chiedere ad Amazon S3 di cambiare la proprietà della replica con quella proprietaria del bucket di Account AWS destinazione. Per ignorare la proprietà delle repliche, è necessario fornire alcune autorizzazioni aggiuntive o modificare le impostazioni Proprietà dell’oggetto S3 per il bucket di destinazione. Per ulteriori informazioni sulla sovrascrittura del proprietario, consulta [Modifica del proprietario della replica](replication-change-owner.md).

# Esempi di configurazione della replica in tempo reale
<a name="replication-example-walkthroughs"></a>

Gli esempi seguenti forniscono step-by-step procedure dettagliate che mostrano come configurare la replica in tempo reale per casi d'uso comuni. 

**Nota**  
La replica in tempo reale fa riferimento alla replica nella stessa regione (SRR) e alla replica tra regioni (CRR). La replica in tempo reale non esegue la replica degli oggetti esistenti nel bucket prima della configurazione della replica. Per replicare oggetti esistenti prima della configurazione della replica, occorre ricorrere alla replica on demand. Per sincronizzare bucket e replicare gli oggetti esistenti on demand, consulta [Replica di oggetti esistenti](s3-batch-replication-batch.md).

Questi esempi dimostrano come creare una configurazione di replica utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() AWS SDKs e AWS SDK per Java ( AWS SDK per .NET e vengono mostrati alcuni esempi). 

*Per informazioni sull'installazione e la configurazione di AWS CLI, consulta i seguenti argomenti nella Guida per l'AWS Command Line Interface utente:*
+  [Inizia con AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) 
+  [Configura il AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html): devi configurare almeno un profilo. Se stai esplorando scenari per più account, devi impostare due profili.

Per informazioni su AWS SDKs, vedere [AWS SDK per Java](https://aws.amazon.com/sdk-for-java/)e [AWS SDK per .NET](https://aws.amazon.com/sdk-for-net/).

**Suggerimento**  
Per un step-by-step tutorial che dimostra come utilizzare la replica in tempo reale per replicare i dati, consulta [Tutorial: Replica dei dati all'interno e tra Regioni AWS utilizzando S3 Replication](https://aws.amazon.com/getting-started/hands-on/replicate-data-using-amazon-s3-replication/?ref=docs_gateway/amazons3/replication-example-walkthroughs.html).

**Topics**
+ [Configurazione per i bucket nello stesso account](replication-walkthrough1.md)
+ [Configurazione per i bucket in account diversi](replication-walkthrough-2.md)
+ [Utilizzo di S3 Replication Time Control](replication-time-control.md)
+ [Replica di oggetti crittografati](replication-config-for-kms-objects.md)
+ [Replica delle modifiche ai metadati](replication-for-metadata-changes.md)
+ [Replica dei contrassegni di eliminazione](delete-marker-replication.md)

# Configurazione della replica per i bucket nello stesso account
<a name="replication-walkthrough1"></a>

La replica live è la copia automatica e asincrona di oggetti su bucket generici uguali o diversi. Regioni AWS La replica in tempo reale copia gli oggetti appena creati e gli aggiornamenti degli oggetti da un bucket di origine in uno o più bucket di destinazione. Per ulteriori informazioni, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md).

Quando si configura la replica, vengono aggiunte le regole di replica al bucket di origine. Le regole di replica definiscono gli oggetti del bucket di origine da replicare e i bucket di destinazione in cui vengono archiviati gli oggetti replicati. È possibile creare una regola per replicare tutti gli oggetti in un bucket o un sottoinsieme di oggetti con un prefisso di nome di chiave specifico, uno o più tag di oggetto o entrambi gli elementi. Un bucket di destinazione può trovarsi nello stesso Account AWS del bucket di origine oppure può trovarsi in un account diverso.

Se specifichi l'ID della versione dell'oggetto da eliminare, Amazon S3 elimina la versione dell'oggetto nel bucket di origine. Ma non replica l'eliminazione nel bucket di destinazione. In altre parole, non elimina la stessa versione dell'oggetto dal bucket di destinazione. Ciò permette di proteggere i dati da eliminazioni da parte di utenti malintenzionati.

Quando si aggiunge una regola di replica a un bucket, la regola viene abilitata per impostazione predefinita e pertanto inizia a funzionare non appena viene salvata. 

In questo esempio viene configurata la replica per i bucket di origine e di destinazione di proprietà dello stesso Account AWS. Vengono forniti esempi per l'utilizzo della console Amazon S3, di AWS Command Line Interface (AWS CLI) e di and. AWS SDK per Java AWS SDK per .NET

## Prerequisiti
<a name="replication-prerequisites"></a>

Prima di utilizzare le seguenti procedure, assicurati di aver impostato le autorizzazioni necessarie per la replica, a seconda che i bucket di origine e destinazione siano di proprietà dello stesso account o di account diversi. Per ulteriori informazioni, consulta [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).

**Nota**  
Se si desidera replicare oggetti crittografati, è opportuno anche concedere le autorizzazioni chiave AWS Key Management Service (AWS KMS) necessarie. Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Per utilizzare Object Lock con la replica, devi concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) utilizzato per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication). 

## Utilizzo della console S3
<a name="enable-replication"></a>

Per configurare una regola di replica quando il bucket di destinazione si trova nello stesso bucket di origine, segui Account AWS questi passaggi.

Se il bucket di destinazione si trova in un account diverso rispetto al bucket di origine, è necessario aggiungere al bucket di destinazione una policy di bucket per concedere al proprietario dell'account del bucket di origine l'autorizzazione per replicare gli oggetti nel bucket di destinazione. Per ulteriori informazioni, consulta [(Facoltativo) Fase 3: Concessione delle autorizzazioni quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket desiderato.

1. Seleziona la scheda **Gestione**, scorri verso il basso fino a **Regole di replica** e quindi scegli **Crea regola di replica**.

    

1. Nella sezione **Configurazione della regola di replica**, in **Nome della regola di replica**, specifica il nome della regola per semplificarne l'identificazione in un secondo momento. Il nome è obbligatorio e deve essere univoco all'interno del bucket.

1. In **Status (Stato)**, l'opzione **Enabled (Abilitata)** è selezionata per impostazione predefinita. Una regola abilitata inizia a funzionare non appena viene salvata. Se desideri abilitare la regola in un secondo momento, scegli **Disabilitata**.

1. Se il bucket dispone di regole di replica esistenti, viene chiesto di impostare una priorità per la regola. È necessario impostare una priorità per la regola per evitare i conflitti causati dagli oggetti inclusi nell'ambito di più regole. In caso di regole sovrapposte, Amazon S3 utilizza la priorità delle regole per determinare quale regola applicare. Più elevato è il numero, maggiore è la priorità. Per ulteriori informazioni sulla priorità delle regole, consulta [Elementi del file di configurazione della replica](replication-add-config.md).

1. In **Bucket di origine** sono disponibili le seguenti opzioni per l'impostazione dell'origine della replica:
   + Per replicare l'intero bucket, scegli **Apply to all objects in the bucket** (Applica a tutti gli oggetti nel bucket). 
   + Per replicare tutti gli oggetti con lo stesso prefisso, scegli **Limita l'ambito di questa regola utilizzando uno o più filtri**. Ciò limita la replica a tutti gli oggetti con nomi che iniziano il prefisso specificato, ad esempio `pictures`. Immetti un prefisso nella casella **Prefisso**. 
**Nota**  
Se si immette un prefisso corrispondente al nome di una cartella, è necessario utilizzare **/** (barra) come ultimo carattere (ad esempio, `pictures/`).
   + Per replicare tutti gli oggetti con uno o più tag oggetto, scegli **Aggiungi tag** e specifica la coppia chiave-valore nelle caselle. Per aggiungere un altro tag, ripetere la procedura. È possibile combinare un prefisso con i tag. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md).

   Il nuovo schema XML della configurazione della replica supporta il filtro basato su prefissi e tag e l'impostazione della priorità delle regole. Per ulteriori informazioni sul nuovo schema, consulta [Considerazioni sulla compatibilità con le versioni precedenti](replication-add-config.md#replication-backward-compat-considerations). Per ulteriori informazioni sull'XML utilizzato con l'API Amazon S3 che funziona con l'interfaccia utente, consulta [Elementi del file di configurazione della replica](replication-add-config.md). Il nuovo schema è descritto come *configurazione di replica XML V2*.

1. In **Destinazione**, scegli il bucket in cui desideri che Amazon S3 esegui la replica degli oggetti.
**Nota**  
Il numero di bucket di destinazione è limitato al numero di bucket Regioni AWS presenti in una determinata partizione. Una partizione è un raggruppamento di regioni. AWS attualmente ha tre partizioni: `aws` (Regioni standard), `aws-cn` (Regioni della Cina) e `aws-us-gov` (AWS GovCloud (US) Regioni). È possibile utilizzare le [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) per richiedere un aumento del limite per i bucket di destinazione.
   + Per eseguire la replica in un periodo fisso nel tuo account, seleziona **Scegli un bucket in questo account** e digita o cerca i bucket di destinazione. 
   + Per eseguire la replica in uno o più bucket in un altro account Account AWS, scegli **Specificare un bucket in un altro account e inserisci l'ID dell'account** del bucket di destinazione e il nome del bucket. 

     Se il bucket di destinazione si trova in un account diverso rispetto al bucket di origine, dovrai aggiungere ai bucket di destinazione una policy di bucket per concedere al proprietario dell'account del bucket di origine l'autorizzazione per replicare gli oggetti nei bucket di destinazione. Per ulteriori informazioni, consulta [(Facoltativo) Fase 3: Concessione delle autorizzazioni quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).

     Facoltativamente, se desideri standardizzare la proprietà dei nuovi oggetti nel bucket di destinazione, seleziona **Assegna la proprietà degli oggetti al proprietario del bucket di destinazione**. Per ulteriori informazioni su questa opzione, consulta [Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md).
**Nota**  
Se la funzione Controllo delle versioni non è abilitata nel bucket di destinazione, viene visualizzato un messaggio di avviso contenente un pulsante **Abilita Controllo delle versioni**. Seleziona questo pulsante per abilitare la funzione Controllo delle versioni nel bucket.

1. Imposta un ruolo AWS Identity and Access Management (IAM) che Amazon S3 può assumere per replicare gli oggetti per tuo conto.

   Per impostare un ruolo IAM, nella sezione **Ruolo IAM** seleziona uno dei seguenti valori nell'elenco a discesa **Ruolo IAM**:
   + Consigliamo di scegliere **Crea nuovo ruolo** per fare in modo che Amazon S3 crei un nuovo ruolo IAM per l'utente. Quando salvi la regola, viene generata una nuova policy per il ruolo IAM corrispondente ai bucket di origine e di destinazione scelti.
   + Puoi decidere di utilizzare un ruolo IAM esistente. In tal caso, è necessario scegliere un ruolo che conceda ad Amazon S3 le autorizzazioni necessarie per la replica. Se questo ruolo non concede autorizzazioni sufficienti ad Amazon S3 per seguire la regola di replica, la replica non riesce.
**Importante**  
Quando si aggiunge una regola di replica a un bucket, si deve disporre dell'autorizzazione `iam:PassRole` per poter passare il ruolo IAM che concede le autorizzazioni di replica Amazon S3. Per ulteriori informazioni, consulta [Concessione di autorizzazioni utente per il passaggio di un ruolo a un Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) nella *Guida per l'utente di IAM*.

1. ****Per replicare gli oggetti nel bucket di origine che sono crittografati con crittografia lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS), in Crittografia, seleziona Replica oggetti crittografati con. AWS KMS**** In **Chiavi AWS KMS per crittografare gli oggetti di destinazione** sono disponibili le chiavi di origine che consentono la replica da utilizzare. Tutte le chiavi KMS di origine sono incluse per impostazione predefinita. Per limitare la selezione delle chiavi KMS, puoi scegliere un alias o un ID chiave. 

   Gli oggetti crittografati da quelli non selezionati AWS KMS keys non vengono replicati. Viene scelta una chiave KMS o un gruppo di chiavi KMS, ma se lo desideri puoi scegliere le chiavi KMS. Per informazioni sull'utilizzo AWS KMS con la replica, vedere. [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md)
**Importante**  
Quando si replicano oggetti crittografati con AWS KMS, la frequenza di AWS KMS richiesta raddoppia nella regione di origine e aumenta nella regione di destinazione dello stesso importo. L'aumento delle frequenze di chiamata è dovuto al modo in cui i dati AWS KMS vengono ricrittografati utilizzando la chiave KMS definita per la regione di destinazione della replica. AWS KMS ha una quota di frequenza di richiesta per account chiamante per regione. Per informazioni sulle quote predefinite, consulta la sezione [Quote di AWS KMS - richieste al secondo: variabili](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html#requests-per-second) nella *Guida per gli sviluppatori di AWS Key Management Service *.   
Se la tua attuale frequenza di richieste di `PUT` oggetti Amazon S3 durante la replica è superiore alla metà del limite di AWS KMS velocità predefinito per il tuo account, ti consigliamo di richiedere un aumento della quota di frequenza delle AWS KMS richieste. Per richiedere un incremento, invia una richiesta tramite il Supporto Center nella sezione [Contatti](https://aws.amazon.com/contact-us/). Ad esempio, supponiamo che la tua attuale frequenza di richieste di `PUT` oggetti sia di 1.000 richieste al secondo e che tu le utilizzi per AWS KMS crittografare gli oggetti. In questo caso, ti consigliamo di chiedere Supporto di aumentare il limite AWS KMS di frequenza a 2.500 richieste al secondo, sia nella regione di origine che in quella di destinazione (se diversa), per evitare limitazioni. AWS KMS  
Per visualizzare la frequenza delle richieste di `PUT` oggetti nel bucket di origine, consulta i parametri di CloudWatch richiesta di Amazon per Amazon S3. `PutRequests` Per informazioni sulla visualizzazione delle CloudWatch metriche, consulta. [Utilizzo della console S3](configure-request-metrics-bucket.md#configure-metrics)

   Se hai scelto di replicare gli oggetti crittografati con AWS KMS, procedi come segue: 

   1. In **AWS KMS key per crittografare gli oggetti di destinazione**, specifica la tua chiave KMS in uno dei seguenti modi:
     + Per effettuare una selezione in un elenco di chiavi KMS disponibili, seleziona **Scegli tra le chiavi AWS KMS keys** e quindi scegli una **chiave KMS** dell'elenco delle chiavi disponibili.

       In questo elenco vengono visualizzate sia la chiave Chiave gestita da AWS (`aws/s3`) che quella gestita dal cliente. Per ulteriori informazioni sulle chiavi gestite dal cliente, consulta [Chiavi gestite dal cliente e chiavi AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) nella *Guida per gli sviluppatori di AWS Key Management Service *.
     + Per inserire il nome della risorsa Amazon (ARN) della chiave KMS, scegli **Inserisci ARN AWS KMS key ** e specifica l'ARN della chiave KMS nel campo visualizzato. In questo modo vengono crittografate le repliche nel bucket di destinazione. È possibile trovare l'ARN per la chiave KMS nella [console IAM](https://console.aws.amazon.com/iam/) in **Chiavi di crittografia**. 
     + Per creare una nuova chiave gestita dal cliente nella AWS KMS console, scegli **Crea una chiave KMS**.

       Per ulteriori informazioni sulla creazione di una AWS KMS key, consulta [Creating keys](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) nella *AWS Key Management Service Developer Guide*.
**Importante**  
Puoi usare solo chiavi KMS abilitate nello Regione AWS stesso bucket. Quando selezioni **Scegli tra le chiavi KMS**, la console S3 elenca solo 100 chiavi KMS per regione. Se hai oltre 100chiavi KMS nella stessa regione, puoi vedere solo i primi le prime 100 nella console S3. Per utilizzare una chiave KMS non elencata nella console, seleziona **Inserisci ARN AWS KMS key ** e specifica l'ARN della chiave KMS.  
Quando utilizzi una chiave KMS AWS KMS key per la crittografia lato server in Amazon S3, devi scegliere una chiave KMS di crittografia simmetrica. Amazon S3 supporta solo chiavi KMS di crittografia simmetriche e non chiavi KMS asimmetriche. Per ulteriori informazioni, consulta [Identificazione delle chiavi KMS simmetriche e asimmetriche](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) nella *Guida per gli sviluppatori di AWS Key Management Service *.

     *Per ulteriori informazioni sulla creazione di una AWS KMS key, consulta [Creating](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) keys nella Developer Guide.AWS Key Management Service * Per ulteriori informazioni sull'utilizzo AWS KMS con Amazon S3, consulta. [Utilizzo della crittografia lato server con chiavi (SSE-KMS) AWS KMS](UsingKMSEncryption.md)

1. In **Classe di storage di destinazione**, per replicare i dati in una classe di archiviazione specifica nel bucket di destinazione, seleziona **Modifica classe di archiviazione per gli oggetti replicati**. Scegli quindi la classe di storage che desideri utilizzare per gli oggetti replicati nel bucket di destinazione. Se non selezioni questa opzione, la classe di storage per gli oggetti replicati sarà la stessa degli oggetti originali.

1. Durante l'impostazione dei valori in **Opzioni di replica aggiuntive**, sono disponibili le seguenti opzioni aggiuntive:
   + Se desideri abilitare la funzionalità di controllo del tempo di replica di S3 (S3 RTC) nella configurazione della replica, seleziona **Controllo del tempo di replica (RTC)**. Per ulteriori informazioni su questa opzione, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).
   + Se desideri abilitare i parametri di replica S3 nella configurazione di replica, seleziona **Replication metrics and events** (Parametri ed eventi di replica). Per ulteriori informazioni, consulta [Monitoraggio della replica con parametri, notifiche di eventi e stati](replication-metrics.md).
   + Se desideri abilitare la replica del contrassegno di eliminazione nella configurazione di replica, seleziona **Replica del contrassegno di eliminazione**. Per ulteriori informazioni, consulta [Replica dei contrassegni di eliminazione tra i bucket](delete-marker-replication.md).
   + Se desideri abilitare la sincronizzazione delle modifiche alla replica di Amazon S3 nella configurazione di replica, seleziona **Sincronizzazione delle modifiche alla replica**. Per ulteriori informazioni, consulta [Replica delle modifiche ai metadati con la sincronizzazione delle modifiche alla replica](replication-for-metadata-changes.md).
**Nota**  
Quando si utilizzano i parametri di replica S3 RTC o S3, si applicano costi aggiuntivi.

1. Per terminare, seleziona **Salva**.

1. Dopo aver salvato la regola, potrai modificare, abilitare, disabilitare o eliminare la regola selezionando la regola e scegliendo **Modifica regola**. 

## Usando il AWS CLI
<a name="replication-ex1-cli"></a>

Per utilizzare il AWS CLI per impostare la replica quando i bucket di origine e di destinazione sono di proprietà dello stesso Account AWS, procedi come segue:
+ Creare bucket di origine e di destinazione.
+ Abilitare il controllo delle versioni sui bucket.
+ Crea un ruolo AWS Identity and Access Management (IAM) che dia ad Amazon S3 l'autorizzazione a replicare oggetti.
+ Aggiungere la configurazione della replica al bucket di origine.

Per verificare l'impostazione, testarla.

**Per configurare la replica quando i bucket di origine e di destinazione sono di proprietà dello stesso Account AWS**

1. Impostare un profilo di credenziali per la AWS CLI. In questo esempio si utilizza il nome del profilo `acctA`. Per informazioni sull'impostazione di profili con credenziali e sull'uso di profili denominati, consulta [Impostazioni del file di configurazione e delle credenziali](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) nella *Guida per l'utente di AWS Command Line Interface *. 
**Importante**  
Il profilo utilizzato per questo esempio deve disporre delle autorizzazioni necessarie. Ad esempio, nella configurazione di replica dovrai specificare il ruolo IAM che Amazon S3 può assumere. È possibile effettuare questa operazione solo se il profilo utilizzato dispone dell'autorizzazione `iam:PassRole`. Per ulteriori informazioni, consulta [Concedere le autorizzazioni utente per il passaggio di un ruolo a un Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) nella *Guida per l'utente IAM*. Se utilizzi le credenziali di amministratore per creare un profilo con nome, puoi eseguire tutte le attività. 

1. Creare un bucket di origine e abilitare su di esso il controllo delle versioni utilizzando i seguenti comandi di AWS CLI . Per utilizzare questi comandi, sostituire *`user input placeholders`* con le proprie informazioni. 

   Il seguente comando `create-bucket` crea un bucket di origine denominato `amzn-s3-demo-source-bucket` nella Regione Stati Uniti orientali (Virginia settentrionale) (`us-east-1`).

   

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   Il seguente comando `put-bucket-versioning` abilita il controllo delle versioni S3 sul bucket `amzn-s3-demo-source-bucket`: 

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Crea un bucket di destinazione e abilita il controllo delle versioni su di esso utilizzando i seguenti comandi. AWS CLI Per utilizzare questi comandi, sostituire *`user input placeholders`* con le proprie informazioni. 
**Nota**  
Per impostare una configurazione di replica quando entrambi i bucket di origine e di destinazione si trovano nello stesso Account AWS, si utilizza lo stesso profilo per i bucket di origine e di destinazione. Questo esempio usa `acctA`.   
Per testare una configurazione di replica quando i bucket sono di proprietà di diversi Account AWS, specifica profili diversi per ogni account. Ad esempio, è possibile utilizzare un profilo `acctB` per il bucket di destinazione.

   

   Il seguente comando `create-bucket` crea un bucket di destinazione denominato `amzn-s3-demo-destination-bucket` nella Regione Stati Uniti occidentali (Oregon) (`us-west-2`):

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctA
   ```

   Il seguente comando `put-bucket-versioning` abilita il controllo delle versioni S3 sul bucket `amzn-s3-demo-destination-bucket`: 

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Creare un ruolo IAM. Specifica questo ruolo nella configurazione di replica che aggiungi al bucket *source* in un secondo momento. Amazon S3 assume questo ruolo per replicare gli oggetti per tuo conto. Il ruolo IAM si crea in due fasi:
   + Creare un ruolo.
   + Collegare una policy di autorizzazione al ruolo.

   1. Crea il ruolo IAM.

      1. Copiare la seguente policy di attendibilità e salvarla in un file denominato `s3-role-trust-policy.json` nella directory corrente sul computer locale. Questa policy concede al principale del servizio Amazon S3 le autorizzazioni per assumere il ruolo.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Per creare un ruolo, eseguire il comando seguente.

         ```
         $ aws iam create-role \
         --role-name replicationRole \
         --assume-role-policy-document file://s3-role-trust-policy.json  \
         --profile acctA
         ```

   1. Collegare una policy di autorizzazione al ruolo.

      1. Copiare la seguente policy di autorizzazioni e salvarla in un file denominato `s3-role-permissions-policy.json` nella directory corrente sul computer locale. Questa policy di accesso concede le autorizzazioni per varie operazioni su oggetti e bucket Amazon S3. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ReplicateTags"
                  ],
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               }
            ]
         }
         ```

------
**Nota**  
Se si desidera replicare oggetti crittografati, è opportuno anche concedere le autorizzazioni chiave AWS Key Management Service (AWS KMS) necessarie. Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Per utilizzare Object Lock con la replica, devi concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) utilizzato per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication). 

      1. Eseguire il comando seguente per creare una policy e collegarla al ruolo. Sostituisci *`user input placeholders`* con le informazioni appropriate.

         ```
         $ aws iam put-role-policy \
         --role-name replicationRole \
         --policy-document file://s3-role-permissions-policy.json \
         --policy-name replicationRolePolicy \
         --profile acctA
         ```

1. Aggiungi una configurazione di replica al bucket di origine. 

   1. Sebbene l'API Amazon S3 richieda di specificare la configurazione di replica come XML, AWS CLI richiede di specificare la configurazione di replica come JSON. Salvare il seguente JSON in un file denominato `replication.json` nella directory locale sul computer in uso.

      ```
      {
        "Role": "IAM-role-ARN",
        "Rules": [
          {
            "Status": "Enabled",
            "Priority": 1,
            "DeleteMarkerReplication": { "Status": "Disabled" },
            "Filter" : { "Prefix": "Tax"},
            "Destination": {
              "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
            }
          }
        ]
      }
      ```

   1. Aggiornare il JSON sostituendo i valori di `amzn-s3-demo-destination-bucket` e `IAM-role-ARN` con le proprie informazioni. Salvare le modifiche.

   1. Eseguire il seguente comando `put-bucket-replication` per aggiungere la configurazione della replica al bucket di origine. Assicurarsi di fornire il nome del bucket di origine:

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

   Per recuperare la configurazione della replica, utilizzare il comando `get-bucket-replication`:

   ```
   $ aws s3api get-bucket-replication \
   --bucket amzn-s3-demo-source-bucket \
   --profile acctA
   ```

1. Verificare la configurazione nella console Amazon S3 eseguendo i seguenti passaggi:

   1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

   1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket). Scegli il bucket di origine nell'elenco **Bucket per uso generico**.

   1. Nel bucket di origine creare una cartella denominata `Tax`. 

   1. Aggiungere oggetti di esempio alla cartella `Tax` nel bucket di origine. 
**Nota**  
Il tempo richiesto da Amazon S3 per la replica di un oggetto dipende dalle dimensioni dell'oggetto. Per informazioni su come visualizzare lo stato della replica, consulta la sezione [Ottenimento delle informazioni sullo stato della replica](replication-status.md).

      Nel bucket di *destinazione*, verificare quanto segue:
      + Amazon S3 ha replicato gli oggetti.
      + Gli oggetti sono repliche. Nella scheda **Proprietà** degli oggetti, scorrere verso il basso fino alla sezione **Panoramica della gestione degli oggetti**. In **Configurazioni di gestione**, controllare il valore in **Stato della replica**. Assicurarsi che questo valore sia impostato su `REPLICA`.
      + Le repliche sono di proprietà dell'account del bucket di origine. È possibile verificare la proprietà dell'oggetto nella scheda **Autorizzazioni** degli oggetti. 

        Se i bucket di origine e di destinazione sono di proprietà di account diversi, è possibile aggiungere una configurazione ottimale per indicare ad Amazon S3 di modificare la proprietà di una replica nell'account di destinazione. Per vedere un esempio, consulta [Come modificare il proprietario della replica](replication-change-owner.md#replication-walkthrough-3). 

## Utilizzando il AWS SDKs
<a name="replication-ex1-sdk"></a>

Utilizzate i seguenti esempi di codice per aggiungere una configurazione di replica a un bucket con AWS SDK per .NET, AWS SDK per Java rispettivamente.

**Nota**  
Se si desidera replicare oggetti crittografati, è opportuno anche concedere le autorizzazioni chiave AWS Key Management Service (AWS KMS) necessarie. Per ulteriori informazioni, consulta [Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Per utilizzare Object Lock con la replica, è necessario concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) utilizzato per impostare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication). 

------
#### [ Java ]

Per aggiungere una configurazione di replica a un bucket e quindi recuperare e verificare la configurazione utilizzando l'SDK for AWS Java, puoi utilizzare S3Client per gestire le impostazioni di replica a livello di codice.

Per esempi di come configurare la replica con l' AWS SDK for Java, [consulta Impostare la configurazione di replica su un](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutBucketReplication_section.html) bucket nel riferimento alle API di Amazon *S3*.

------
#### [ C\$1 ]

Il seguente esempio di AWS SDK per .NET codice aggiunge una configurazione di replica a un bucket e quindi la recupera. Per utilizzare questo codice, fornisci i nomi dei bucket e l'Amazon Resource Name (ARN) per il ruolo IAM. Per informazioni sulla configurazione e l'esecuzione degli esempi di codice, consulta [Nozioni di base su AWS SDK per .NET](https://docs.aws.amazon.com/sdk-for-net/v3/developer-guide/net-dg-config.html) nella *Guida per gli sviluppatori di AWS SDK per .NET *. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class CrossRegionReplicationTest
    {
        private const string sourceBucket = "*** source bucket ***";
        // Bucket ARN example - arn:aws:s3:::destinationbucket
        private const string destinationBucketArn = "*** destination bucket ARN ***";
        private const string roleArn = "*** IAM Role ARN ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint sourceBucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 s3Client;
        public static void Main()
        {
            s3Client = new AmazonS3Client(sourceBucketRegion);
            EnableReplicationAsync().Wait();
        }
        static async Task EnableReplicationAsync()
        {
            try
            {
                ReplicationConfiguration replConfig = new ReplicationConfiguration
                {
                    Role = roleArn,
                    Rules =
                        {
                            new ReplicationRule
                            {
                                Prefix = "Tax",
                                Status = ReplicationRuleStatus.Enabled,
                                Destination = new ReplicationDestination
                                {
                                    BucketArn = destinationBucketArn
                                }
                            }
                        }
                };

                PutBucketReplicationRequest putRequest = new PutBucketReplicationRequest
                {
                    BucketName = sourceBucket,
                    Configuration = replConfig
                };

                PutBucketReplicationResponse putResponse = await s3Client.PutBucketReplicationAsync(putRequest);

                // Verify configuration by retrieving it.
                await RetrieveReplicationConfigurationAsync(s3Client);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' when writing an object", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown encountered on server. Message:'{0}' when writing an object", e.Message);
            }
        }
        private static async Task RetrieveReplicationConfigurationAsync(IAmazonS3 client)
        {
            // Retrieve the configuration.
            GetBucketReplicationRequest getRequest = new GetBucketReplicationRequest
            {
                BucketName = sourceBucket
            };
            GetBucketReplicationResponse getResponse = await client.GetBucketReplicationAsync(getRequest);
            // Print.
            Console.WriteLine("Printing replication configuration information...");
            Console.WriteLine("Role ARN: {0}", getResponse.Configuration.Role);
            foreach (var rule in getResponse.Configuration.Rules)
            {
                Console.WriteLine("ID: {0}", rule.Id);
                Console.WriteLine("Prefix: {0}", rule.Prefix);
                Console.WriteLine("Status: {0}", rule.Status);
            }
        }
    }
}
```

------

# Configurazione della replica per i bucket in account diversi
<a name="replication-walkthrough-2"></a>

La replica in tempo reale è la copia automatica e asincrona di oggetti tra bucket uguali o diversi. Regioni AWS La replica in tempo reale copia gli oggetti appena creati e gli aggiornamenti degli oggetti da un bucket di origine in uno o più bucket di destinazione. Per ulteriori informazioni, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md).

Quando si configura la replica, vengono aggiunte le regole di replica al bucket di origine. Le regole di replica definiscono gli oggetti del bucket di origine da replicare e i bucket di destinazione in cui vengono archiviati gli oggetti replicati. È possibile creare una regola per replicare tutti gli oggetti in un bucket o un sottoinsieme di oggetti con un prefisso di nome di chiave specifico, uno o più tag di oggetto o entrambi gli elementi. Un bucket di destinazione può trovarsi nello stesso Account AWS del bucket di origine oppure può trovarsi in un account diverso.

Se specifichi l'ID della versione dell'oggetto da eliminare, Amazon S3 elimina la versione dell'oggetto nel bucket di origine. Ma non replica l'eliminazione nel bucket di destinazione. In altre parole, non elimina la stessa versione dell'oggetto dal bucket di destinazione. Ciò permette di proteggere i dati da eliminazioni da parte di utenti malintenzionati.

Quando si aggiunge una regola di replica a un bucket, la regola viene abilitata per impostazione predefinita e pertanto inizia a funzionare non appena viene salvata. 

La configurazione della replica in tempo reale quando i bucket di origine e di destinazione sono di proprietà di Account AWS diversi prevede una procedura simile a quella della configurazione della replica quando entrambi i bucket sono di proprietà dello stesso account. Tuttavia, esistono varie differenze quando si configura la replica in uno scenario comprendente più account: 
+ Il proprietario del bucket di destinazione deve concedere al proprietario del bucket di origine l'autorizzazione necessaria per replicare gli oggetti nella policy del bucket di destinazione. 
+ Quando si replicano oggetti crittografati mediante crittografia lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS) in uno scenario multi-account, il proprietario della chiave KMS deve concedere al proprietario del bucket di origine l'autorizzazione per utilizzare la chiave KMS. Per ulteriori informazioni, consulta [Concessione di autorizzazioni aggiuntive per scenari multi-account](replication-config-for-kms-objects.md#replication-kms-cross-acct-scenario). 
+ Per impostazione predefinita, gli oggetti replicati appartengono al proprietario del bucket di origine. In uno scenario multi-account, è possibile configurare la replica per trasferire la proprietà degli oggetti replicati al proprietario del bucket di destinazione. Per ulteriori informazioni, consulta [Modifica del proprietario della replica](replication-change-owner.md).

**Per configurare la replica quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS**

1. In questo esempio i bucket di origine e di destinazione vengono creati in due Account AWS diversi. È necessario disporre di due profili di credenziali impostati per AWS CLI. Questo esempio utilizza `acctA` e `acctB` per i nomi di tali profili. Per informazioni sull'impostazione di profili con credenziali e sull'uso di profili denominati, consulta [Impostazioni del file di configurazione e delle credenziali](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) nella *Guida per l'utente di AWS Command Line Interface *. 

1. Segui le step-by-step istruzioni riportate di seguito [Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md) con le seguenti modifiche:
   + Per tutti AWS CLI i comandi relativi alle attività del bucket di origine (come la creazione del bucket di origine, l'abilitazione del controllo delle versioni e la creazione del ruolo IAM), utilizza il profilo. `acctA` Utilizzare il profilo `acctB` per creare il bucket di destinazione. 
   + Assicurarsi che la policy di autorizzazione per il ruolo IAM specifichi i bucket di origine e di destinazione creati per questo esempio.

1. Nella console, aggiungere la seguente policy di bucket al bucket *di destinazione* per consentire al proprietario del bucket *di origine* di replicare gli oggetti. Per istruzioni, consulta [Aggiunta di una policy di bucket utilizzando la console di Amazon S3](add-bucket-policy.md). Assicurati di modificare la policy fornendo l' Account AWS ID del proprietario del bucket di origine, il nome del ruolo IAM e il nome del bucket di destinazione. 
**Nota**  
Per utilizzare l’esempio seguente, sostituisci `user input placeholders` con le informazioni appropriate. Sostituire `amzn-s3-demo-destination-bucket` con il nome del bucket di destinazione. Sostituire `source-bucket-account-ID:role/service-role/source-account-IAM-role` nel nome della risorsa Amazon (ARN) IAM con il ruolo IAM utilizzato per questa configurazione della replica.  
Se il ruolo del servizio IAM è stato creato manualmente, impostare il percorso del ruolo nell'ARN IAM come `role/service-role/`, come mostrato nel seguente esempio di policy. Per ulteriori informazioni, consulta [IAM ARNs nella IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html#identifiers-arns) *User Guide*. 

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Id": "",
       "Statement": [
           {
               "Sid": "Set-permissions-for-objects",
               "Effect": "Allow",
               "Principal": {
                   "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
               },
               "Action": [
                   "s3:ReplicateObject",
                   "s3:ReplicateDelete"
               ],
               "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
           },
           {
               "Sid": "Set-permissions-on-bucket",
               "Effect": "Allow",
               "Principal": {
                   "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
               },
               "Action": [
                   "s3:GetBucketVersioning",
                   "s3:PutBucketVersioning"
               ],
               "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
           }
       ]
   }
   ```

------

1. (Facoltativo) Quando si replicano oggetti crittografati mediante SSE-KMS, il proprietario della chiave KMS deve concedere al proprietario del bucket di origine l'autorizzazione per utilizzare la chiave KMS. Per ulteriori informazioni, consulta [Concessione di autorizzazioni aggiuntive per scenari multi-account](replication-config-for-kms-objects.md#replication-kms-cross-acct-scenario).

1. (Facoltativo) Nella replica il proprietario dell'oggetto di origine possiede la replica stessa per impostazione predefinita. Quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS, puoi aggiungere impostazioni di configurazione opzionali per modificare la proprietà della replica a Account AWS quella proprietaria dei bucket di destinazione. Ciò include la concessione dell'autorizzazione `ObjectOwnerOverrideToBucketOwner`. Per ulteriori informazioni, consulta [Modifica del proprietario della replica](replication-change-owner.md).

# Modifica del proprietario della replica
<a name="replication-change-owner"></a>

Nella replica, il proprietario dell'oggetto di origine possiede anche la replica per impostazione predefinita. Tuttavia, quando i bucket di origine e di destinazione sono di proprietà di diversi Account AWS, potresti voler modificare la proprietà della replica. Ad esempio, è preferibile modificare la proprietà per limitare l'accesso alle repliche degli oggetti. Nella configurazione di replica, è possibile aggiungere impostazioni di configurazione opzionali per modificare la proprietà della replica a Account AWS quella proprietaria dei bucket di destinazione. 

Per modificare il proprietario della replica, procedere come segue:
+ Aggiungere l'opzione di *sostituzione del proprietario* alla configurazione della replica per indicare ad Amazon S3 di modificare la proprietà della replica. 
+ Concedere ad Amazon S3 l'autorizzazione `s3:ObjectOwnerOverrideToBucketOwner` per modificare la proprietà della replica. 
+ Aggiungere l'autorizzazione `s3:ObjectOwnerOverrideToBucketOwner` alla policy del bucket di destinazione per consentire la modifica della proprietà della replica. L'autorizzazione `s3:ObjectOwnerOverrideToBucketOwner` consente al proprietario dei bucket di destinazione di accettare la proprietà delle repliche degli oggetti.

Per ulteriori informazioni, consultare [Considerazioni sull'opzione di sostituzione della proprietà](#repl-ownership-considerations) e [Aggiunta dell'opzione di sostituzione del proprietario alla configurazione della replica](#repl-ownership-owneroverride-option). Per un esempio pratico con step-by-step istruzioni, vedere. [Come modificare il proprietario della replica](#replication-walkthrough-3)

**Importante**  
Anziché utilizzare l'opzione di sostituzione del proprietario, è possibile utilizzare l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto. Quando si utilizza la replica e i bucket di origine e di destinazione sono di proprietà di diversi Account AWS, il proprietario del bucket di destinazione può utilizzare l'impostazione imposta dal proprietario del bucket per Object Ownership per modificare la proprietà della replica con quella proprietaria del bucket di destinazione. Account AWS Questa impostazione disabilita gli elenchi di controllo dell'accesso agli oggetti (). ACLs   
L'impostazione Proprietario del bucket applicato imita il comportamento di sovrascrittura del proprietario esistente senza la necessità dell'autorizzazione `s3:ObjectOwnerOverrideToBucketOwner`. Tutti gli oggetti replicati nel bucket di destinazione con l'impostazione proprietario del bucket applicato sono di proprietà del proprietario del bucket di destinazione. Per ulteriori informazioni su Object Ownership, consulta [Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md).

## Considerazioni sull'opzione di sostituzione della proprietà
<a name="repl-ownership-considerations"></a>

Quando configuri l'opzione di sostituzione del proprietario, si applicano le seguenti considerazioni:
+ Per impostazione predefinita, il proprietario dell'oggetto di origine possiede anche la replica. Amazon S3 replica la versione dell'oggetto e l'ACL associata.

  Se si aggiunge l'opzione di sostituzione del proprietario alla configurazione della replica, Amazon S3 replica solo la versione dell'oggetto, non l'ACL. Inoltre, Amazon S3 non replica le modifiche successive all'ACL dell'oggetto di origine. Amazon S3 imposta l'ACL sulla replica che concede il controllo completo al proprietario del bucket di destinazione. 
+  Quando si aggiorna una configurazione della replica per abilitare o disabilitare la sostituzione del proprietario, si verifica quanto segue:
  + Se aggiungi l'opzione di sostituzione del proprietario alla configurazione della replica:

    Quando replica una versione dell'oggetto, Amazon S3 elimina l'ACL associata all'oggetto di origine e imposta l'ACL sulla replica concedendo il controllo completo al proprietario del bucket di destinazione. Amazon S3 non replica le modifiche successive all'ACL dell'oggetto di origine. Tuttavia, questa modifica dell'ACL non si applica alle versioni dell'oggetto che sono state replicate prima di impostare l'opzione di sostituzione proprietario. Gli aggiornamenti all'ACL negli oggetti di origine che sono stati replicati prima che fosse impostata la sostituzione del proprietario continuano a essere replicati in quanto l'oggetto e le relative repliche continuano ad avere lo stesso proprietario.
  + Se rimuovi l'opzione di sostituzione del proprietario dalla configurazione della replica:

    Amazon S3 replica i nuovi oggetti che appaiono nel bucket di origine e quelli associati ACLs ai bucket di destinazione. Per gli oggetti che sono stati replicati prima della rimozione dell'override del proprietario, Amazon S3 non esegue la replica perché ACLs la modifica della proprietà dell'oggetto apportata da Amazon S3 rimane in vigore. Cioè, ACLs la versione dell'oggetto che è stata replicata quando è stata impostata l'override del proprietario continua a non essere replicata.

## Aggiunta dell'opzione di sostituzione del proprietario alla configurazione della replica
<a name="repl-ownership-owneroverride-option"></a>

**avvertimento**  
Aggiungi l'opzione owner override solo quando i bucket di origine e di destinazione sono di proprietà di diversi. Account AWS Amazon S3 non controlla se i bucket sono di proprietà dello stesso account o di account diversi. Se aggiungi l'override del proprietario quando entrambi i bucket sono di proprietà dello stesso Account AWS, Amazon S3 applica l'override del proprietario. Questa opzione concede le autorizzazioni complete al proprietario del bucket di destinazione e non replica gli aggiornamenti successivi alle liste di controllo degli accessi degli oggetti di origine (). ACLs Il proprietario della replica può modificare direttamente l'ACL associata a una replica con una richiesta `PutObjectAcl`, ma non tramite replica.

Per specificare l'opzione di sostituzione del proprietario, aggiungi quanto segue all'elemento `Destination`: 
+ L'elemento `AccessControlTranslation`, che indica ad Amazon S3 di modificare la proprietà della replica
+ L'`Account`elemento, che specifica il proprietario del bucket di destinazione Account AWS 

```
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
    ...
    <Destination>
      ...
      <AccessControlTranslation>
           <Owner>Destination</Owner>
       </AccessControlTranslation>
      <Account>destination-bucket-owner-account-id</Account>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```

La seguente configurazione della replica di esempio indica ad Amazon S3 di replicare gli oggetti con il prefisso della chiave *`Tax`* nel bucket di destinazione `amzn-s3-demo-destination-bucket` e di modificare la proprietà delle repliche. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
   <Role>arn:aws:iam::account-id:role/role-name</Role>
   <Rule>
      <ID>Rule-1</ID>
      <Priority>1</Priority>
      <Status>Enabled</Status>
      <DeleteMarkerReplication>
         <Status>Disabled</Status>
      </DeleteMarkerReplication>
      <Filter>
         <Prefix>Tax</Prefix>
      </Filter>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <Account>destination-bucket-owner-account-id</Account>
         <AccessControlTranslation>
            <Owner>Destination</Owner>
         </AccessControlTranslation>
      </Destination>
   </Rule>
</ReplicationConfiguration>
```

## Concessione ad Amazon S3 dell'autorizzazione per modificare la proprietà della replica
<a name="repl-ownership-add-role-permission"></a>

Concedi ad Amazon S3 le autorizzazioni per modificare la proprietà della replica aggiungendo l'autorizzazione per l'`s3:ObjectOwnerOverrideToBucketOwner`azione nella politica delle autorizzazioni associata al ruolo (IAM). AWS Identity and Access Management Questo è il ruolo IAM specificato nella configurazione della replica che consente ad Amazon S3 di acquisire e replicare gli oggetti per conto dell'utente. Per utilizzare il seguente esempio, sostituire `amzn-s3-demo-destination-bucket` con il nome del bucket di destinazione.

```
...
{
    "Effect":"Allow",
         "Action":[
       "s3:ObjectOwnerOverrideToBucketOwner"
    ],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
}
...
```

## Aggiunta dell'autorizzazione alla policy del bucket di destinazione per consentire la modifica della proprietà della replica
<a name="repl-ownership-accept-ownership-b-policy"></a>

Il proprietario del bucket di destinazione deve concedere al proprietario del bucket di origine l'autorizzazione necessaria per modificare la proprietà della replica. Il proprietario del bucket di destinazione concede al proprietario del bucket di origine l'autorizzazione per l'operazione `s3:ObjectOwnerOverrideToBucketOwner`. Questa autorizzazione consente al proprietario del bucket di destinazione di accettare la proprietà delle repliche degli oggetti. La seguente istruzione della policy del bucket di esempio mostra come fare: Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
...
{
    "Sid":"1",
    "Effect":"Allow",
    "Principal":{"AWS":"source-bucket-account-id"},
    "Action":["s3:ObjectOwnerOverrideToBucketOwner"],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
}
...
```

## Come modificare il proprietario della replica
<a name="replication-walkthrough-3"></a>

Quando i bucket di origine e di destinazione in una configurazione di replica sono di proprietà di diversi Account AWS, puoi dire ad Amazon S3 di cambiare la proprietà della replica con quella proprietaria Account AWS del bucket di destinazione. Gli esempi seguenti mostrano come utilizzare la console Amazon S3, il AWS Command Line Interface (AWS CLI) e il AWS SDKs per modificare la proprietà della replica. 

### Utilizzo della console S3
<a name="replication-ex3-console"></a>

Per step-by-step istruzioni, consulta. [Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md) Questo argomento fornisce istruzioni per impostare una configurazione di replica quando i bucket di origine e di destinazione sono di proprietà uguale e diversa. Account AWS

### Usare il AWS CLI
<a name="replication-ex3-cli"></a>

Nella seguente procedura viene mostrato come modificare la proprietà della replica utilizzando AWS CLI. In questa procedura, esegui le seguenti operazioni: 
+ Creazione dei bucket di origine e di destinazione.
+ Abilitare il controllo delle versioni sui bucket.
+ Crea un ruolo AWS Identity and Access Management (IAM) che dia ad Amazon S3 l'autorizzazione a replicare oggetti.
+ Aggiungere la configurazione della replica al bucket di origine.
+ Nella configurazione della replica si indica ad Amazon S3 di modificare la proprietà della replica.
+ Verificare la configurazione della replica.

**Per modificare la proprietà della replica quando i bucket di origine e di destinazione sono di proprietà di diversi () Account AWS AWS CLI**

Per utilizzare i AWS CLI comandi di esempio in questa procedura, sostituiscili `user input placeholders` con le tue informazioni. 

1. In questo esempio, si creano i bucket di origine e di destinazione in due diversi Account AWS. Per utilizzare questi due account, occorre configurare AWS CLI con due profili denominati. Questo esempio utilizza i profili denominati rispettivamente *`acctA`* e *`acctB`*. Per informazioni sull'impostazione di profili con credenziali e sull'uso di profili denominati, consulta [Impostazioni del file di configurazione e delle credenziali](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) nella *Guida per l'utente di AWS Command Line Interface *. 
**Importante**  
I profili utilizzati per questa procedura devono disporre delle autorizzazioni necessarie. Ad esempio, nella configurazione di replica dovrai specificare il ruolo IAM che Amazon S3 può assumere. È possibile effettuare questa operazione solo se il profilo utilizzato dispone dell'autorizzazione `iam:PassRole`. Se si utilizzano le credenziali dell'utente amministratore per creare un profilo denominato, è possibile eseguire tutte le attività in questa procedura. Per ulteriori informazioni, consulta [Concessione di autorizzazioni utente per il passaggio di un ruolo a un Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) nella *Guida per l'utente di IAM*. 

1. Creare il bucket di origine e abilitare la funzione Controllo delle versioni. Questo esempio crea un bucket denominato `amzn-s3-demo-source-bucket` nella Regione Stati Uniti orientali (Virginia settentrionale) (`us-east-1`). 

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Creare un bucket di destinazione e abilitare la funzione Controllo delle versioni. Questo esempio crea un bucket di destinazione denominato `amzn-s3-demo-destination-bucket` nella Regione Stati Uniti occidentali (Oregon) (`us-west-2`). Utilizzare un profilo Account AWS diverso da quello utilizzato per il bucket di origine.

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctB
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctB
   ```

1. Devi aggiungere l'autorizzazione alla policy del bucket di *destinazione* per consentire la modifica della proprietà della replica.

   1.  Salvare la seguente policy in un file denominato `destination-bucket-policy.json`. Assicurarsi di sostituire *`user input placeholders`* con le proprie informazioni.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Sid": "destination_bucket_policy_sid",
                  "Principal": {
                      "AWS": "source-bucket-owner-123456789012"
                  },
                  "Action": [
                      "s3:ReplicateObject",
                      "s3:ReplicateDelete",
                      "s3:ObjectOwnerOverrideToBucketOwner",
                      "s3:ReplicateTags",
                      "s3:GetObjectVersionTagging"
                  ],
                  "Effect": "Allow",
                  "Resource": [
                      "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
                  ]
              }
          ]
      }
      ```

------

   1. Aggiungere la policy precedente al bucket di destinazione utilizzando il seguente comando `put-bucket-policy`:

      ```
      aws s3api put-bucket-policy --region $ {destination-region} --bucket $ {amzn-s3-demo-destination-bucket} --policy file://destination_bucket_policy.json
      ```

1. Creare un ruolo IAM. Specifica questo ruolo nella configurazione di replica che aggiungi al bucket *source* in un secondo momento. Amazon S3 assume questo ruolo per replicare gli oggetti per tuo conto. Il ruolo IAM si crea in due fasi:
   + Crea il ruolo.
   + Collegare una policy di autorizzazione al ruolo.

   1. Crea il ruolo IAM.

      1. Copiare la seguente policy di attendibilità e salvarla in un file denominato `s3-role-trust-policy.json` nella directory corrente sul computer locale. Questa policy concede ad Amazon S3 le autorizzazioni per assumere il ruolo.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Esegui il AWS CLI `create-role` comando seguente per creare il ruolo IAM:

         ```
         $ aws iam create-role \
         --role-name replicationRole \
         --assume-role-policy-document file://s3-role-trust-policy.json  \
         --profile acctA
         ```

         Prendere nota del nome della risorsa Amazon (ARN) del ruolo IAM creato. Tale nome sarà necessario in un passaggio successivo.

   1. Collegare una policy di autorizzazione al ruolo.

      1. Copiare la seguente policy di autorizzazioni e salvarla in un file denominato `s3-role-perm-pol-changeowner.json` nella directory corrente sul computer locale. Questa policy di accesso concede le autorizzazioni per varie operazioni su oggetti e bucket Amazon S3. Nelle fasi che seguono si associa questa policy al ruolo IAM creato in precedenza. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ObjectOwnerOverrideToBucketOwner",
                     "s3:ReplicateTags",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               }
            ]
         }
         ```

------

      1. Per associare la policy delle autorizzazioni precedente al ruolo, eseguire il seguente comando `put-role-policy`:

         ```
         $ aws iam put-role-policy \
         --role-name replicationRole \
         --policy-document file://s3-role-perm-pol-changeowner.json \
         --policy-name replicationRolechangeownerPolicy \
         --profile acctA
         ```

1. Aggiungere una configurazione di replica al bucket di origine.

   1. È AWS CLI necessario specificare la configurazione di replica come JSON. Salvare il seguente JSON in un file denominato `replication.json` nella directory corrente sul computer locale. Nella configurazione, `AccessControlTranslation` specifica la modifica della proprietà della replica dal proprietario del bucket di origine al proprietario del bucket di destinazione. 

      ```
      {
         "Role":"IAM-role-ARN",
         "Rules":[
            {
               "Status":"Enabled",
               "Priority":1,
               "DeleteMarkerReplication":{
                  "Status":"Disabled"
               },
               "Filter":{
               },
               "Status":"Enabled",
               "Destination":{
                  "Bucket":"arn:aws:s3:::amzn-s3-demo-destination-bucket",
                  "Account":"destination-bucket-owner-account-id",
                  "AccessControlTranslation":{
                     "Owner":"Destination"
                  }
               }
            }
         ]
      }
      ```

   1. Modificare il JSON fornendo i valori per il nome del bucket di destinazione, l'ID account del proprietario del bucket di destinazione e `IAM-role-ARN`. Sostituisci *`IAM-role-ARN`* con l'ARN del ruolo IAM creato in precedenza. Salvare le modifiche.

   1. Per aggiungere la configurazione della replica al bucket di origine, eseguire il seguente comando:

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

1. Verificare la configurazione della replica controllando la proprietà della replica nella console Amazon S3.

   1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

   1. Aggiungere oggetti al bucket *di origine* . Verifica che il bucket di destinazione contenga le repliche degli oggetti e che la proprietà delle repliche sia passata a Account AWS quella proprietaria del bucket di destinazione.

### Usando il AWS SDKs
<a name="replication-ex3-sdk"></a>

 Per un esempio di codice per l'aggiunta di una configurazione della replica, consulta [Utilizzando il AWS SDKs](replication-walkthrough1.md#replication-ex1-sdk). La configurazione della replica deve essere modificata di conseguenza. Per informazioni concettuali, consulta [Modifica del proprietario della replica](#replication-change-owner). 

# Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3
<a name="replication-time-control"></a>

Amazon S3 Replication Time Control (S3 RTC) permette di soddisfare i requisiti aziendali o di conformità per la replica dei dati fornendo visibilità sui tempi di replica di Amazon S3. S3 RTC replica la maggior parte degli oggetti caricati in Amazon S3 in pochi secondi e il 99,9% di tali oggetti entro 15 minuti. 

Per impostazione predefinita, S3 RTC include due modi per monitorare l'avanzamento della replica: 
+ **Parametri di Replica Amazon S3**: con i parametri di replica S3, è possibile monitorare il numero totale di operazioni API S3 in attesa di replica, la dimensione totale degli oggetti in attesa di replica, il tempo massimo di replica nella Regione di destinazione e il numero totale delle operazioni che non sono state replicate. Quindi puoi monitorare separatamente ogni set di dati replicato. È inoltre possibile abilitare i parametri di Replica Amazon S3 indipendentemente da S3 RTC. Per ulteriori informazioni, consulta [Utilizzo dei parametri di Replica S3](repl-metrics.md).

  Le regole di replica per le quali è abilitato il controllo del tempo di replica di S3 (S3 RTC) pubblicano i parametri di Replica Amazon S3. I parametri di replica sono disponibili entro 15 minuti dall'attivazione di S3 RTC. I parametri di replica sono disponibili tramite la console Amazon S3, l'API Amazon S3, AWS SDKs the AWS Command Line Interface ()AWS CLI e Amazon. CloudWatch Per ulteriori informazioni sulle CloudWatch metriche, consulta. [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md) Per ulteriori informazioni sulla visualizzazione dei parametri di replica tramite la console Amazon S3, consulta [Visualizzazione dei parametri di replica](repl-metrics.md#viewing-replication-metrics).

  I parametri di replica S3 vengono fatturati alla stessa tariffa dei parametri personalizzati di Amazon. CloudWatch Per informazioni, consulta i [ CloudWatchprezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). 
+ **Notifiche di eventi Amazon S3**: S3 RTC fornisce gli eventi `OperationMissedThreshold` e `OperationReplicatedAfterThreshold` che notificano al proprietario del bucket se la replica dell'oggetto supera la soglia dei 15 minuti o si verifica dopo tale intervallo di tempo. Con S3 RTC, è possibile che Notifiche di eventi Amazon S3 invii una notifica nel caso raro in cui gli oggetti non vengano replicati entro 15 minuti e quando tali oggetti vengono replicati una volta superata la soglia di 15 minuti. 

  Gli eventi di replica sono disponibili entro 15 minuti dall'abilitazione di S3 RTC. Le notifiche degli eventi di Amazon S3 sono disponibili tramite Amazon SQS, Amazon SNS o. AWS Lambda Per ulteriori informazioni, consulta [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](replication-metrics-events.md).

 

## Best practice e linee guida per S3 RTC
<a name="rtc-best-practices"></a>

Per la replica dei dati in Amazon S3 con controllo del tempo di replica di S3 (S3 RTC) abilitato, attenersi alle seguenti linee guida di best practice per ottimizzare le prestazioni di replica dei carichi di lavoro. 

**Topics**
+ [Linee guida sulle prestazioni per la frequenza di richieste e la replica di Amazon S3](#rtc-request-rate-performance)
+ [Stima delle frequenze di richieste di replica](#estimating-replication-request-rates)
+ [Superamento delle quote di velocità di trasferimento dati di S3 RTC](#exceed-rtc-data-transfer-limits)
+ [AWS KMS tassi di richiesta di replica di oggetti crittografati](#kms-object-replication-request-rates)

### Linee guida sulle prestazioni per la frequenza di richieste e la replica di Amazon S3
<a name="rtc-request-rate-performance"></a>

Le applicazioni possono raggiungere migliaia di transazioni al secondo nelle prestazioni di richiesta durante il caricamento e il recupero di storage da Amazon S3. Ad esempio, un'applicazione può raggiungere almeno 3.500 richieste `PUT`/`COPY`/`POST`/`DELETE` o 5.500 richieste `GET`/`HEAD` al secondo per prefisso in un bucket S3, incluse le richieste che Replica Amazon S3 effettua per conto dell'utente. Non esistono limiti al numero di prefissi in un bucket. È possibile aumentare le proprie performance in lettura o scrittura parallelizzando le scritture. Ad esempio, se si creano 10 prefissi in un bucket S3 per parallelizzare le letture, è possibile scalare le prestazioni di lettura a 55.000 richieste di lettura al secondo. 

Amazon S3 riduce orizzontalmente le risorse in modo automatico in risposta a frequenze di richieste sostenute oltre queste linee guida o a frequenze di richieste sostenute in contemporanea a richieste `LIST`. Mentre Amazon S3 si ottimizza internamente per la nuova frequenza di richieste, potresti ricevere temporaneamente risposte HTTP 503 fino al completamento dell'ottimizzazione. Questo comportamento potrebbe verificarsi con gli aumenti delle frequenze di richiesta al secondo o quando si abilita per la prima volta S3 RTC. Durante questi periodi, la latenza di replica potrebbe aumentare. Il contratto sul livello di servizio (SLA) di S3 RTC non si applica ai periodi di tempo in cui vengono superate le linee guida sulle prestazioni di Amazon S3 per le richieste al secondo. 

Lo SLA di S3 RTC non si applica neanche ai periodi di tempo in cui la velocità di trasferimento dati di replica supera il limite predefinito di 1 Gbps. Se si prevede che la velocità di trasferimento della replica superi 1 Gbps, è possibile contattare il [Centro Supporto AWS](https://console.aws.amazon.com/support/home#/) o utilizzare [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) per richiedere un aumento della quota della velocità di trasferimento della replica. 

### Stima delle frequenze di richieste di replica
<a name="estimating-replication-request-rates"></a>

La frequenza di richieste totale, incluse le richieste effettuate da Replica Amazon S3 per conto dell'utente, deve rientrare nelle linee guida sulla frequenza di richieste di Amazon S3 per i bucket di origine e di destinazione della replica. Per ogni oggetto replicato, Replica Amazon S3 esegue fino a cinque richieste `GET`/`HEAD` e una richiesta `PUT` al bucket di origine e una richiesta `PUT` a ciascun bucket di destinazione.

Ad esempio, se si prevede di replicare 100 oggetti al secondo, Replica Amazon S3 può eseguire 100 richieste `PUT` aggiuntive per conto dell'utente per un totale di 200 richieste `PUT` al secondo nel bucket S3 di origine. Replica Amazon S3 può anche eseguire fino a 500 richieste `GET`/`HEAD` (5 richieste `GET`/`HEAD` per ogni oggetto replicato). 

**Nota**  
Vengono addebitati i costi per una sola richiesta `PUT` per oggetto replicato. Per ulteriori informazioni, consulta le informazioni sui prezzi di [Amazon S3 FAQs sulla](https://aws.amazon.com/s3/faqs/#Replication) replica. 

### Superamento delle quote di velocità di trasferimento dati di S3 RTC
<a name="exceed-rtc-data-transfer-limits"></a>

Se si prevede che la velocità di trasferimento dati di S3 RTC superi la quota predefinita di 1 Gbps, contattare il [Centro Supporto AWS](https://console.aws.amazon.com/support/home#/) o utilizzare [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) per richiedere un aumento della quota. 

### AWS KMS tassi di richiesta di replica di oggetti crittografati
<a name="kms-object-replication-request-rates"></a>

Quando si replicano oggetti crittografati con la crittografia lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS), vengono applicate le quote di richieste al secondo. AWS KMS AWS KMS potrebbe rifiutare una richiesta altrimenti valida perché la frequenza delle richieste supera la quota per il numero di richieste al secondo. Quando una richiesta viene limitata, AWS KMS restituisce un errore. `ThrottlingException` La quota della tariffa di AWS KMS richiesta si applica alle richieste effettuate direttamente e alle richieste effettuate dalla replica di Amazon S3 per tuo conto. 

Ad esempio, se prevedi di replicare 1.000 oggetti al secondo, puoi sottrarre 2.000 richieste dalla quota di frequenza delle richieste. AWS KMS La frequenza di richieste al secondo risultante è disponibile per i AWS KMS carichi di lavoro, esclusa la replica. Puoi utilizzare i [parametri di AWS KMS richiesta in Amazon CloudWatch](https://docs.aws.amazon.com/kms/latest/developerguide/monitoring-cloudwatch.html) per monitorare il tasso totale di AWS KMS richieste sul tuo Account AWS.

Per richiedere un aumento delle tue AWS KMS richieste di quote al secondo, contatta [Supporto AWS Center](https://console.aws.amazon.com/support/home#/) o utilizza [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html). 

## Abilitazione di S3 Replication Time Control
<a name="replication-walkthrough-5"></a>

Puoi iniziare a utilizzare S3 Replication Time Control (S3 RTC) con una regola di replica nuova o esistente. È possibile scegliere di applicare la regola di replica a un intero bucket o a oggetti con un prefisso o un tag specifico. Quando si attiva S3 RTC, i parametri di Replica S3 vengono abilitati anche nella regola di replica. 

Puoi configurare S3 RTC utilizzando la console Amazon S3, l'API Amazon S3, e AWS SDKs il (). AWS Command Line Interface AWS CLI

**Topics**

### Utilizzo della console S3
<a name="replication-ex5-console"></a>

Per step-by-step istruzioni, consulta. [Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md) Questo argomento fornisce istruzioni per abilitare S3 RTC nella configurazione di replica quando i bucket di origine e di destinazione sono di proprietà uguale o diversa. Account AWS

### Utilizzo del AWS CLI
<a name="replication-ex5-cli"></a>

Per utilizzare la AWS CLI replica di oggetti con S3 RTC abilitato, devi creare bucket, abilitare il controllo delle versioni sui bucket, creare un ruolo IAM che autorizzi Amazon S3 a replicare oggetti e aggiungere la configurazione di replica al bucket di origine. La configurazione della replica deve avere S3 RTC abilitato, come mostrato nel seguente esempio. 

Per step-by-step istruzioni su come configurare la configurazione di replica utilizzando il, consulta. AWS CLI[Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md)

Il seguente esempio di configurazione della replica abilita e imposta i valori `ReplicationTime` e `EventThreshold` per una regola di replica. L'attivazione e l'impostazione di questi valori abilita S3 RTC sulla regola.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "DeleteMarkerReplication": {
                "Status": "Disabled"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",
                "Metrics": {
                    "Status": "Enabled",
                    "EventThreshold": {
                        "Minutes": 15
                    }
                },
                "ReplicationTime": {
                    "Status": "Enabled",
                    "Time": {
                        "Minutes": 15
                    }
                }
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

**Importante**  
 `Metrics:EventThreshold:Minutes` e `ReplicationTime:Time:Minutes` possono avere solo `15` come valore valido. 

### Utilizzo dell' AWS SDK for Java
<a name="replication-ex5-sdk"></a>

 Di seguito è riportato un esempio Java per aggiungere la configurazione della replica con controllo del tempo di replica di S3 (S3 RTC).

```
import software.amazon.awssdk.auth.credentials.AwsBasicCredentials;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3.model.DeleteMarkerReplication;
import software.amazon.awssdk.services.s3.model.Destination;
import software.amazon.awssdk.services.s3.model.Metrics;
import software.amazon.awssdk.services.s3.model.MetricsStatus;
import software.amazon.awssdk.services.s3.model.PutBucketReplicationRequest;
import software.amazon.awssdk.services.s3.model.ReplicationConfiguration;
import software.amazon.awssdk.services.s3.model.ReplicationRule;
import software.amazon.awssdk.services.s3.model.ReplicationRuleFilter;
import software.amazon.awssdk.services.s3.model.ReplicationTime;
import software.amazon.awssdk.services.s3.model.ReplicationTimeStatus;
import software.amazon.awssdk.services.s3.model.ReplicationTimeValue;

public class Main {

  public static void main(String[] args) {
    S3Client s3 = S3Client.builder()
      .region(Region.US_EAST_1)
      .credentialsProvider(() -> AwsBasicCredentials.create(
          "AWS_ACCESS_KEY_ID",
          "AWS_SECRET_ACCESS_KEY")
      )
      .build();

    ReplicationConfiguration replicationConfig = ReplicationConfiguration
      .builder()
      .rules(
          ReplicationRule
            .builder()
            .status("Enabled")
            .priority(1)
            .deleteMarkerReplication(
                DeleteMarkerReplication
                    .builder()
                    .status("Disabled")
                    .build()
            )
            .destination(
                Destination
                    .builder()
                    .bucket("destination_bucket_arn")
                    .replicationTime(
                        ReplicationTime.builder().time(
                            ReplicationTimeValue.builder().minutes(15).build()
                        ).status(
                            ReplicationTimeStatus.ENABLED
                        ).build()
                    )
                    .metrics(
                        Metrics.builder().eventThreshold(
                            ReplicationTimeValue.builder().minutes(15).build()
                        ).status(
                            MetricsStatus.ENABLED
                        ).build()
                    )
                    .build()
            )
            .filter(
                ReplicationRuleFilter
                    .builder()
                    .prefix("testtest")
                    .build()
            )
        .build())
        .role("role_arn")
        .build();

    // Put replication configuration
    PutBucketReplicationRequest putBucketReplicationRequest = PutBucketReplicationRequest
      .builder()
      .bucket("source_bucket")
      .replicationConfiguration(replicationConfig)
      .build();

    s3.putBucketReplication(putBucketReplicationRequest);
  }
}
```

# Replica di oggetti crittografati (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)
<a name="replication-config-for-kms-objects"></a>

**Importante**  
Amazon S3 ora applica la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3) come livello di base della crittografia per ogni bucket di Amazon S3. A partire dal 5 gennaio 2023, tutti i caricamenti di nuovi oggetti su Amazon S3 vengono crittografati automaticamente senza costi aggiuntivi e senza alcun impatto sulle prestazioni. Lo stato di crittografia automatico per la configurazione di crittografia predefinita del bucket S3 e per il caricamento di nuovi oggetti è disponibile nei CloudTrail log, in S3 Inventory, S3 Storage Lens, nella console Amazon S3 e come intestazione di risposta dell'API Amazon S3 aggiuntiva nella e. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [Domande frequenti sulla crittografia predefinita](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Quando si replicano oggetti che sono stati crittografati utilizzando la crittografia lato server, è necessario prestare particolare attenzione. Amazon S3 supporta i seguenti tipi di crittografia lato server:
+ Crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3)
+ Crittografia lato server con () chiavi (SSE-KMS) AWS Key Management Service AWS KMS
+ Crittografia lato server a doppio livello con chiavi (DSSE-KMS) AWS KMS 
+ Crittografia lato server con chiavi fornite dal cliente (SSE-C)

Per ulteriori informazioni sulla crittografia lato server, consulta [Protezione dei dati con la crittografia lato server](serv-side-encryption.md).

Questo argomento spiega le autorizzazioni necessarie per indirizzare Amazon S3 a replicare oggetti che sono stati crittografati utilizzando la crittografia lato server. Questo argomento fornisce anche elementi di configurazione aggiuntivi che è possibile aggiungere ed esempi di policy AWS Identity and Access Management (IAM) che concedono le autorizzazioni necessarie per la replica di oggetti crittografati. 

Per un esempio con step-by-step istruzioni, vedere. [Abilitazione della replica per oggetti crittografati](#replication-walkthrough-4) Per informazioni sulla creazione di una configurazione di replica, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md). 

**Nota**  
Puoi usare più regioni AWS KMS keys in Amazon S3. Tuttavia, Amazon S3 attualmente tratta le chiavi multiregionali come se fossero chiavi monoregionali e non utilizza le caratteristiche multiregionali della chiave. Per ulteriori informazioni, consulta [Utilizzo delle chiavi multiregione](https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html) nella *Guida per gli sviluppatori di AWS Key Management Service *.

**Topics**
+ [In che modo la crittografia predefinita del bucket influisce sulla replica](#replication-default-encryption)
+ [Replica di oggetti crittografati con SSE-C](#replicationSSEC)
+ [Replica di oggetti crittografati con SSE-S3, SSE-KMS o DSSE-KMS](#replications)
+ [Abilitazione della replica per oggetti crittografati](#replication-walkthrough-4)

## In che modo la crittografia predefinita del bucket influisce sulla replica
<a name="replication-default-encryption"></a>

Una volta abilitata la crittografia predefinita per un bucket di destinazione della replica, si applica il seguente comportamento di crittografia:
+ Se gli oggetti nel bucket di origine non sono crittografati, gli oggetti replicati nel bucket di destinazione vengono crittografati in base alle impostazioni di crittografia predefinita del bucket di destinazione. Di conseguenza, i tag di entità (ETags) degli oggetti di origine differiscono da quelli degli oggetti ETags di replica. Se disponi di applicazioni che utilizzano ETags, devi aggiornarle per tenere conto di questa differenza.
+ Se gli oggetti nel bucket di origine sono crittografati utilizzando la crittografia lato server con chiavi gestite Amazon S3 (SSE-S3), la crittografia lato server con chiavi () (SSE-KMS AWS KMS) o la crittografia lato server a doppio livello con AWS Key Management Service AWS KMS chiavi (DSSE-KMS), gli oggetti di replica nel bucket di destinazione utilizzano lo stesso tipo di crittografia degli oggetti di origine. Le impostazioni della crittografia predefinita del bucket di destinazione non vengono utilizzate.

## Replica di oggetti crittografati con SSE-C
<a name="replicationSSEC"></a>

Utilizzando la crittografia lato server con le chiavi fornite dal cliente (SSE-C), è possibile gestire le chiavi di crittografia di proprietà. Con SSE-C, puoi gestire le chiavi mentre Amazon S3 si occupa del processo di crittografia e decrittografia. È necessario fornire una chiave di crittografia come parte della richiesta, ma non è necessario scrivere codice per eseguire la crittografia o la decrittografia degli oggetti. Quando carichi un oggetto, Amazon S3 ne esegue la crittografia utilizzando la chiave che hai specificato. Quindi Amazon S3 elimina la chiave dalla memoria. Quando viene recuperato un oggetto, è necessario fornire la stessa chiave di crittografia come parte della richiesta. Per ulteriori informazioni, consulta [Utilizzo della crittografia lato server con chiavi fornite dal cliente (SSE-C)](ServerSideEncryptionCustomerKeys.md).

S3 Replication supporta oggetti crittografati con SSE-C. Puoi configurare la replica di oggetti SSE-C nella console Amazon S3 o con la stessa modalità con cui configuri la AWS SDKs replica per oggetti non crittografati. Non sono disponibili autorizzazioni SSE-C aggiuntive oltre a quelle attualmente richieste per la replica. 

La replica S3 replica automaticamente gli oggetti crittografati con SSE-C appena caricati, se idonei, secondo la configurazione di replica S3 specificata. Per la replica di oggetti esistenti nei bucket, utilizza la replica in batch in S3. Per ulteriori informazioni sulla replica di oggetti, consulta [Panoramica della configurazione della replica in tempo reale](replication-how-setup.md) e [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md).

Non sono previsti costi aggiuntivi per la replica di oggetti SSE-C. Per informazioni dettagliate sui prezzi della replica, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). 

## Replica di oggetti crittografati con SSE-S3, SSE-KMS o DSSE-KMS
<a name="replications"></a>

Per impostazione predefinita, Amazon S3 non replica gli oggetti crittografati con SSE-KMS o DSSE-KMS. Questa sezione illustra un'ulteriore configurazione che puoi aggiungere per fare in modo che Amazon S3 replichi questi oggetti. 

Per un esempio con istruzioni, consulta. step-by-step [Abilitazione della replica per oggetti crittografati](#replication-walkthrough-4) Per informazioni sulla creazione di una configurazione di replica, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md). 

### Specifica di informazioni aggiuntive nella configurazione di replica
<a name="replication-kms-extra-config"></a>

Nella configurazione di replica, è necessario eseguire queste operazioni:
+ Nell'`Destination`elemento della configurazione di replica, aggiungi l'ID della chiave simmetrica gestita dal AWS KMS cliente che desideri che Amazon S3 utilizzi per crittografare le repliche degli oggetti, come mostrato nel seguente esempio di configurazione di replica. 
+ Specifica esplicitamente la funzione abilitando la replica di oggetti crittografati mediante le chiavi KMS (SSE-KMS o DSSE-KMS). Per attivare, aggiungi l'elemento `SourceSelectionCriteria`, come mostrato nel seguente esempio di configurazione della replica.

 

```
<ReplicationConfiguration>
   <Rule>
      ...
      <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
           <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
      </SourceSelectionCriteria>

      <Destination>
          ...
          <EncryptionConfiguration>
             <ReplicaKmsKeyID>AWS KMS key ARN or Key Alias ARN that's in the same Regione AWS as the destination bucket.</ReplicaKmsKeyID>
          </EncryptionConfiguration>
       </Destination>
      ...
   </Rule>
</ReplicationConfiguration>
```

**Importante**  
La chiave KMS deve essere stata creata nello stesso bucket di destinazione. Regione AWS 
Chiave KMS *deve* essere valida. L'operazione `PutBucketReplication` dell'API non controlla la validità delle chiavi KMS. Se utilizzi una chiave KMS non valida, viene restituito il codice di stato HTTP `200 OK` in risposta, ma la replica non riesce.

Nell'esempio seguente viene illustrata una configurazione di replica che include gli elementi di configurazione opzionali. Questa configurazione di replica ha una regola. La regola si applica agli oggetti con il prefisso della chiave `Tax`. Amazon S3 utilizza l' AWS KMS key ID specificato per crittografare queste repliche di oggetti.

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration>
   <Role>arn:aws:iam::account-id:role/role-name</Role>
   <Rule>
      <ID>Rule-1</ID>
      <Priority>1</Priority>
      <Status>Enabled</Status>
      <DeleteMarkerReplication>
         <Status>Disabled</Status>
      </DeleteMarkerReplication>
      <Filter>
         <Prefix>Tax</Prefix>
      </Filter>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <EncryptionConfiguration>
            <ReplicaKmsKeyID>AWS KMS key ARN or Key Alias ARN that's in the same Regione AWS as the destination bucket.</ReplicaKmsKeyID>
         </EncryptionConfiguration>
      </Destination>
      <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
            <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
      </SourceSelectionCriteria>
   </Rule>
</ReplicationConfiguration>
```

### Concessione di autorizzazioni aggiuntive per il ruolo IAM
<a name="replication-kms-permissions"></a>

Per replicare oggetti crittografati a riposo utilizzando SSE-S3, SSE-KMS o DSSE-KMS, concedi le seguenti autorizzazioni aggiuntive al ruolo (IAM) specificato nella configurazione di replica. AWS Identity and Access Management Queste autorizzazioni vengono concesse aggiornando la policy di autorizzazione associata al ruolo IAM. 
+ **Operazione `s3:GetObjectVersionForReplication` per gli oggetti di origine**: consente ad Amazon S3 di replicare gli oggetti non crittografati e gli oggetti creati con la crittografia lato server mediante le chiavi SSE-S3, SSE-KMS o DSSE-KMS.
**Nota**  
Ti consigliamo di utilizzare l'operazione `s3:GetObjectVersionForReplication` anziché l'operazione `s3:GetObjectVersion` in quanto `s3:GetObjectVersionForReplication` concede ad Amazon S3 solo le autorizzazioni minime necessarie per la replica. Inoltre, l'operazione `s3:GetObjectVersion` permette la replica di oggetti non crittografati e crittografati SSE-S3, ma non di oggetti crittografati utilizzando le chiavi KMS (SSE-KMS o DSSE-KMS). 
+ **`kms:Decrypt``kms:Encrypt` AWS KMS e azioni per le chiavi KMS**
  + È necessario concedere le autorizzazioni `kms:Decrypt` per la AWS KMS key utilizzata per decrittografare l'oggetto di origine.
  + È necessario concedere le autorizzazioni `kms:Encrypt` per la AWS KMS key utilizzata per crittografare la replica dell'oggetto.
+ **Operazione `kms:GenerateDataKey` per la replica di oggetti in testo normale**: se stai replicando oggetti di testo normale in un bucket con la crittografia SSE-KMS o DSSE-KMS abilitata per impostazione predefinita, devi includere l'autorizzazione `kms:GenerateDataKey` per il contesto di crittografia di destinazione e la chiave KMS nella policy IAM.

**Importante**  
Se utilizzi S3 Batch Replication per replicare set di dati su più regioni e in precedenza il tipo di crittografia lato server degli oggetti era stato aggiornato da SSE-S3 a SSE-KMS, potresti aver bisogno di autorizzazioni aggiuntive. Nel bucket `kms:decrypt` della regione di origine, devi disporre delle autorizzazioni. Quindi, avrai bisogno delle `kms:encrypt` autorizzazioni `kms:decrypt` e per il bucket nella regione di destinazione. 

Ti consigliamo di limitare queste autorizzazioni solo ai bucket e agli oggetti di destinazione utilizzando le chiavi di condizione. AWS KMS Il Account AWS titolare del ruolo IAM deve disporre delle `kms:Decrypt` autorizzazioni `kms:Encrypt` e delle azioni per le chiavi KMS elencate nella policy. Se le chiavi KMS sono di proprietà di un altro Account AWS, il proprietario delle chiavi KMS deve concedere queste autorizzazioni al proprietario del Account AWS ruolo IAM. *Per ulteriori informazioni sulla gestione dell'accesso a queste chiavi KMS, consulta [Using IAM policies with AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/iam-policies.html) nella Developer Guide. AWS Key Management Service *

### Chiavi bucket S3 e replica
<a name="bk-replication"></a>

Per utilizzare la replica con una chiave S3 Bucket, la AWS KMS key policy per la chiave KMS utilizzata per crittografare la replica dell'oggetto deve includere l'autorizzazione per il principale chiamante. `kms:Decrypt` La chiamata a `kms:Decrypt` verifica l'integrità della chiave bucket S3 prima del suo utilizzo. Per ulteriori informazioni, consulta [Utilizzo di una chiave bucket S3 con la replica](bucket-key.md#bucket-key-replication).

Quando una chiave del bucket S3 è abilitata per il bucket di origine o di destinazione, il contesto di crittografia sarà il nome della risorsa Amazon (ARN) del bucket e non l'ARN dell'oggetto, ad esempio `arn:aws:s3:::bucket_ARN`. Dovrai aggiornare le policy IAM per utilizzare l'ARN del bucket per il contesto di crittografia:

```
"kms:EncryptionContext:aws:s3:arn": [
"arn:aws:s3:::bucket_ARN"
]
```

Per ulteriori informazioni, consulta [Contesto di crittografia (`x-amz-server-side-encryption-context`)](specifying-kms-encryption.md#s3-kms-encryption-context) (nella sezione relativa a REST API) e [Modifiche alla nota prima dell'abilitazione di una chiave bucket S3](bucket-key.md#bucket-key-changes).

### Policy di esempio: utilizzo di SSE-S3 e SSE-KMS con la replica
<a name="kms-replication-examples"></a>

Le policy IAM di esempio riportate di seguito mostrano le istruzioni per utilizzare SSE-S3 e SSE-KMS con la replica.

**Example - Utilizzo di SSE-KMS con bucket di destinazione separati**  
La seguente policy di esempio mostra le istruzioni per utilizzare SSE-KMS con bucket di destinazione separati. 

**Example - Replica di oggetti creati con SSE-S3 e SSE-KMS**  
Di seguito è riportata una policy IAM completa che concede le autorizzazioni necessarie per la replica di oggetti non crittografati, oggetti creati con SSE-S3 e oggetti creati con SSE-KMS.    
****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetReplicationConfiguration",
            "s3:ListBucket"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObjectVersionForReplication",
            "s3:GetObjectVersionAcl"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:ReplicateObject",
            "s3:ReplicateDelete"
         ],
         "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/key-prefix1*"
      },
      {
         "Action":[
            "kms:Decrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
               ]
            }
         },
         "Resource":[
           "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      },
      {
         "Action":[
            "kms:Encrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket/prefix1*"
               ]
            }
         },
         "Resource":[
            "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      }
   ]
}
```

**Example -  Replica oggetti con chiavi bucket S3**  
Di seguito è riportata una policy IAM completa che concede le autorizzazioni necessarie per la replica degli oggetti con chiavi bucket S3.    
****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetReplicationConfiguration",
            "s3:ListBucket"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObjectVersionForReplication",
            "s3:GetObjectVersionAcl"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:ReplicateObject",
            "s3:ReplicateDelete"
         ],
         "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/key-prefix1*"
      },
      {
         "Action":[
            "kms:Decrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-source-bucket"
               ]
            }
         },
         "Resource":[
           "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      },
      {
         "Action":[
            "kms:Encrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket"
               ]
            }
         },
         "Resource":[
            "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      }
   ]
}
```

### Concessione di autorizzazioni aggiuntive per scenari multi-account
<a name="replication-kms-cross-acct-scenario"></a>

In uno scenario con più account, in cui i bucket di origine e di destinazione sono di proprietà di diversi Account AWS, puoi utilizzare una chiave KMS per crittografare le repliche degli oggetti. Tuttavia, il proprietario della chiave KMS deve concedere al proprietario del bucket di origine l'autorizzazione per utilizzare la chiave KMS. 

**Nota**  
[Se è necessario replicare i dati SSE-KMS su più account, la regola di replica deve specificare una chiave gestita dal cliente per l'account di destinazione.](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) AWS KMS [Chiavi gestite da AWS](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk)non consentono l'utilizzo tra account e pertanto non possono essere utilizzati per eseguire la replica tra account.<a name="cross-acct-kms-key-permission"></a>

**Per concedere al proprietario del bucket di origine l'autorizzazione per l'utilizzo della chiave KMS (console AWS KMS )**

1. [Accedi a Console di gestione AWS e apri la AWS KMS console su /kms. https://console.aws.amazon.com](https://console.aws.amazon.com/kms)

1. Per modificare il Regione AWS, usa il selettore della regione nell'angolo in alto a destra della pagina.

1. Per visualizzare le chiavi nell'account creato e gestito dall'utente, nel riquadro di navigazione, seleziona **Chiavi gestite dal cliente**.

1. Scegli la chiave KMS.

1. In **Configurazione generale**, seleziona la scheda **Policy delle chiavi**.

1. **Scorri verso il basso fino a Altro. Account AWS**

1. Scegli **Aggiungi altro Account AWS**. 

   Viene visualizzata la finestra di dialogo **Altri Account AWS**. 

1. Nella finestra di dialogo, scegli **Aggiungi un altro Account AWS**. Per **arn:aws:iam::**, inserisci l'ID account del bucket di origine.

1. Scegli **Save changes** (Salva modifiche).

**Per concedere al proprietario del bucket di origine l'autorizzazione per l'utilizzo della chiave KMS (AWS CLI)**
+ Per informazioni sul comando `put-key-policy` AWS Command Line Interface (AWS CLI), vedete [https://docs.aws.amazon.com/cli/latest/reference/kms/put-key-policy.html](https://docs.aws.amazon.com/cli/latest/reference/kms/put-key-policy.html)nella Guida ai * AWS CLI comandi*. Per ulteriori informazioni sull’operazione API `PutKeyPolicy` sottostante, consulta [https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) nella [Guida di riferimento delle API di AWS Key Management Service](https://docs.aws.amazon.com/kms/latest/APIReference/).

### AWS KMS considerazioni sulle quote di transazione
<a name="crr-kms-considerations"></a>

Quando si aggiungono molti nuovi oggetti con AWS KMS crittografia dopo aver abilitato la replica tra regioni (CRR), è possibile che si verifichi una limitazione (errori HTTP). `503 Service Unavailable` La limitazione (della larghezza di banda della rete) si verifica quando il numero di transazioni AWS KMS al secondo supera la quota corrente. Per ulteriori informazioni, consulta [Quote](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) nella *Guida per gli sviluppatori di AWS Key Management Service *.

Per richiedere un aumento della quota, è possibile utilizzare Service Quotas. Per ulteriori informazioni, consulta la sezione [Richiesta di un aumento di quota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html). Se Service Quotas non è supportato nella tua regione, [apri una Supporto AWS](https://console.aws.amazon.com/support/home#/) richiesta. 

## Abilitazione della replica per oggetti crittografati
<a name="replication-walkthrough-4"></a>

Per impostazione predefinita, Amazon S3 non replica oggetti crittografati utilizzando la crittografia lato server con AWS Key Management Service () chiavi (SSE-KMS AWS KMS) o la crittografia lato server a due livelli con chiavi (DSSE-KMS). AWS KMS Per replicare gli oggetti crittografati con SSE-KMS o DSS-KMS, devi modificare la configurazione di replica del bucket per indicare ad Amazon S3 di replicare questi oggetti. Questo esempio spiega come utilizzare la console Amazon S3 e AWS Command Line Interface (AWS CLI) per modificare la configurazione della replica dei bucket per consentire la replica di oggetti crittografati.

**Nota**  
Quando una chiave del bucket S3 è abilitata per il bucket di origine o di destinazione, il contesto di crittografia sarà il nome della risorsa Amazon (ARN) del bucket e non l'ARN dell'oggetto. Dovrai aggiornare le policy IAM per utilizzare l'ARN del bucket per il contesto di crittografia. Per ulteriori informazioni, consulta [Chiavi bucket S3 e replica](#bk-replication).

**Nota**  
Puoi usare più regioni AWS KMS keys in Amazon S3. Tuttavia, Amazon S3 attualmente tratta le chiavi multiregionali come se fossero chiavi monoregionali e non utilizza le caratteristiche multiregionali della chiave. Per ulteriori informazioni, consulta [Utilizzo delle chiavi multiregione](https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html) nella *Guida per gli sviluppatori di AWS Key Management Service *.

### Utilizzo della console S3
<a name="replication-ex4-console"></a>

Per step-by-step istruzioni, consulta. [Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md) Questo argomento fornisce istruzioni per impostare una configurazione di replica quando i bucket di origine e di destinazione sono di proprietà uguale e diversa. Account AWS

### Usare il AWS CLI
<a name="replication-ex4-cli"></a>

Per replicare oggetti crittografati con AWS CLI, effettuate le seguenti operazioni: 
+ Crea i bucket di origine e di destinazione e abilita il controllo delle versioni per questi bucket. 
+ Crea un ruolo di servizio AWS Identity and Access Management (IAM) che dia ad Amazon S3 l'autorizzazione a replicare oggetti. Le autorizzazioni del ruolo IAM includono le autorizzazioni necessarie per replicare gli oggetti crittografati.
+ Aggiungi una configurazione di replica al bucket di origine. La configurazione di replica fornisce informazioni relative alla replica di oggetti crittografati con le chiavi KMS.
+ Aggiungi gli oggetti crittografati al bucket di origine. 
+ Esegui il test della configurazione per verificare che gli oggetti crittografati vengano replicati nel bucket di destinazione.

Le procedure seguenti ti guidano attraverso questo processo. 

**Per replicare gli oggetti crittografati lato server (AWS CLI)**

Per utilizzare gli esempi in questa procedura, sostituire `user input placeholders` con le proprie informazioni.

1. In questo esempio vengono creati entrambi i bucket di origine (*`amzn-s3-demo-source-bucket`*) e di destinazione (*`amzn-s3-demo-destination-bucket`*) nello stesso Account AWS. Imposti anche un profilo di credenziali per la AWS CLI. In questo esempio si utilizza il nome del profilo `acctA`. 

   Per informazioni sull'impostazione di profili con credenziali e sull'uso di profili denominati, consulta [Impostazioni del file di configurazione e delle credenziali](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) nella *Guida per l'utente di AWS Command Line Interface *. 

1. Usa i seguenti comandi per creare il bucket `amzn-s3-demo-source-bucket` e abilitare il controllo delle versioni. Il seguente comando di esempio crea il bucket `amzn-s3-demo-source-bucket` nella Regione Stati Uniti orientali (Virginia settentrionale) (`us-east-1`).

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Usa i seguenti comandi per creare il bucket `amzn-s3-demo-destination-bucket` e abilitare il controllo delle versioni. Il seguente comando di esempio crea il bucket `amzn-s3-demo-destination-bucket` nella Regione Stati Uniti occidentali (Oregon) (`us-west-2`). 
**Nota**  
Per impostare la configurazione di replica quando entrambi i bucket `amzn-s3-demo-source-bucket` e `amzn-s3-demo-destination-bucket` si trovano nello stesso Account AWS, utilizza lo stesso profilo. Questo esempio usa `acctA`. Per configurare la replica quando i bucket sono di proprietà di diversi Account AWS, è necessario specificare profili diversi per ciascuno di essi. 

   

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Quindi, crea un ruolo di servizio IAM. Questo ruolo verrà specificato nella configurazione della replica che verrà aggiunta al bucket `amzn-s3-demo-source-bucket` in un secondo momento. Amazon S3 assume questo ruolo per replicare gli oggetti per tuo conto. Il ruolo IAM si crea in due fasi:
   + Creazione di un ruolo del servizio
   + Collegare una policy di autorizzazione al ruolo.

   1. Per creare un ruolo di servizio IAM, procedi come segue:

      1. Copiare la seguente policy di attendibilità e salvala in un file denominato `s3-role-trust-policy-kmsobj.json` nella directory corrente sul computer locale. Questa policy fornisce le autorizzazioni ai principali del servizio Amazon S3 per assumere il ruolo in modo che Amazon S3 possa eseguire attività per conto dell'utente.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Usa il comando seguente per creare il ruolo:

         ```
         $ aws iam create-role \
         --role-name replicationRolekmsobj \
         --assume-role-policy-document file://s3-role-trust-policy-kmsobj.json  \
         --profile acctA
         ```

   1. Quindi, collega una policy di autorizzazione al ruolo. Questa policy di accesso concede le autorizzazioni per varie operazioni su oggetti e bucket Amazon S3. 

      1. Copiare la seguente policy di autorizzazioni e salvarla in un file denominato `s3-role-permissions-policykmsobj.json` nella directory corrente sul computer locale. Crea un ruolo IAM e successivamente collegalo alla policy. 
**Importante**  
Nella politica delle autorizzazioni, si specifica la AWS KMS chiave IDs che verrà utilizzata per la crittografia dei `amzn-s3-demo-source-bucket` bucket and. `amzn-s3-demo-destination-bucket` È necessario creare due chiavi KMS separate per i bucket and. `amzn-s3-demo-source-bucket` `amzn-s3-demo-destination-bucket` AWS KMS keys non sono condivisi al di fuori di quello Regione AWS in cui sono stati creati. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration",
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Effect":"Allow",
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket",
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ReplicateTags"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLikeIfExists":{
                        "s3:x-amz-server-side-encryption":[
                           "aws:kms",
                           "AES256",
                           "aws:kms:dsse"
                        ],
                        "s3:x-amz-server-side-encryption-aws-kms-key-id":[
                           "AWS KMS key IDs(in ARN format) to use for encrypting object replicas"  
                        ]
                     }
                  },
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               },
               {
                  "Action":[
                     "kms:Decrypt"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLike":{
                        "kms:ViaService":"s3.us-east-1.amazonaws.com",
                        "kms:EncryptionContext:aws:s3:arn":[
                           "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                        ]
                     }
                  },
                  "Resource":[
                     "arn:aws:kms:us-east-1:111122223333:key/key-id" 
                  ]
               },
               {
                  "Action":[
                     "kms:Encrypt"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLike":{
                        "kms:ViaService":"s3.us-west-2.amazonaws.com",
                        "kms:EncryptionContext:aws:s3:arn":[
                           "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
                        ]
                     }
                  },
                  "Resource":[
                     "arn:aws:kms:us-west-2:111122223333:key/key-id" 
                  ]
               }
            ]
         }
         ```

------

      1. Creare una policy e collegarla al ruolo.

         ```
         $ aws iam put-role-policy \
         --role-name replicationRolekmsobj \
         --policy-document file://s3-role-permissions-policykmsobj.json \
         --policy-name replicationRolechangeownerPolicy \
         --profile acctA
         ```

1. Quindi, aggiungi la seguente configurazione di replica al bucket `amzn-s3-demo-source-bucket` che indica ad Amazon S3 di replicare gli oggetti con prefisso `Tax/` nel bucket `amzn-s3-demo-destination-bucket`. 
**Importante**  
Nella configurazione di replica dovrai specificare il ruolo IAM che Amazon S3 può assumere. Puoi effettuare questa operazione solo se disponi dell'autorizzazione `iam:PassRole`. Il profilo specificato nel comando della CLI deve disporre di questa autorizzazione. Per ulteriori informazioni, consulta [Concessione di autorizzazioni utente per il passaggio di un ruolo a un Servizio AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) nella *Guida per l'utente di IAM*.

   ```
    <ReplicationConfiguration>
     <Role>IAM-Role-ARN</Role>
     <Rule>
       <Priority>1</Priority>
       <DeleteMarkerReplication>
          <Status>Disabled</Status>
       </DeleteMarkerReplication>
       <Filter>
          <Prefix>Tax</Prefix>
       </Filter>
       <Status>Enabled</Status>
       <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
           <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
       </SourceSelectionCriteria>
       <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <EncryptionConfiguration>
           <ReplicaKmsKeyID>AWS KMS key IDs to use for encrypting object replicas</ReplicaKmsKeyID>
         </EncryptionConfiguration>
       </Destination>
     </Rule>
   </ReplicationConfiguration>
   ```

   Per aggiungere una configurazione di replica al bucket `amzn-s3-demo-source-bucket`, procedi come segue:

   1.  AWS CLI Richiede di specificare la configurazione di replica come JSON. Salvare il seguente JSON in un file (`replication.json`) nella directory corrente sul computer locale. 

      ```
      {
         "Role":"IAM-Role-ARN",
         "Rules":[
            {
               "Status":"Enabled",
               "Priority":1,
               "DeleteMarkerReplication":{
                  "Status":"Disabled"
               },
               "Filter":{
                  "Prefix":"Tax"
               },
               "Destination":{
                  "Bucket":"arn:aws:s3:::amzn-s3-demo-destination-bucket",
                  "EncryptionConfiguration":{
                     "ReplicaKmsKeyID":"AWS KMS key IDs (in ARN format) to use for encrypting object replicas"
                  }
               },
               "SourceSelectionCriteria":{
                  "SseKmsEncryptedObjects":{
                     "Status":"Enabled"
                  }
               }
            }
         ]
      }
      ```

   1. Modifica il JSON per fornire valori per il bucket `amzn-s3-demo-destination-bucket`, `AWS KMS key IDs (in ARN format)` e `IAM-role-ARN`. Salvare le modifiche.

   1. Esegui il comando seguente per aggiungere la configurazione di replica al bucket `amzn-s3-demo-source-bucket`. Assicurati di fornire il nome del bucket di `amzn-s3-demo-source-bucket`.

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

1. Esegui il test della configurazione per verificare che gli oggetti crittografati vengano replicati. Nella console di Amazon S3 effettuare quanto segue:

   1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

   1. Nel bucket di `amzn-s3-demo-source-bucket`, crea una cartella denominata `Tax`. 

   1. Aggiungere oggetti campione alla cartella. Assicurati di scegliere l'opzione di crittografia e specifica la chiave KMS per crittografare gli oggetti. 

   1. Verifica che il bucket `amzn-s3-demo-destination-bucket` contenga le repliche dell'oggetto e che queste vengano crittografate utilizzando la chiave KMS specificata nella configurazione. Per ulteriori informazioni, consulta [Ottenimento delle informazioni sullo stato della replica](replication-status.md).

### Utilizzando il AWS SDKs
<a name="replication-ex4-sdk"></a>

Per un esempio di codice che illustra come aggiungere una configurazione di replica, consulta [Utilizzando il AWS SDKs](replication-walkthrough1.md#replication-ex1-sdk). La configurazione della replica deve essere modificata di conseguenza. 

 

# Replica delle modifiche ai metadati con la sincronizzazione delle modifiche alla replica
<a name="replication-for-metadata-changes"></a>

La sincronizzazione delle modifiche alle repliche di Amazon S3 può aiutarti a mantenere i metadati degli oggetti come tag, liste di controllo degli accessi (ACLs) e impostazioni Object Lock replicati tra repliche e oggetti di origine. Per impostazione predefinita, Amazon S3 replica i metadati dagli oggetti di origine solo alle repliche. Quando la sincronizzazione delle modifiche alla replica è abilitata, Amazon S3 replica le modifiche dei metadati apportate alle copie di replica nell'oggetto di origine, rendendo la replica bidirezionale.

## Abilitazione della sincronizzazione delle modifiche alla replica
<a name="enabling-replication-for-metadata-changes"></a>

Puoi utilizzare la sincronizzazione delle modifiche alla replica Amazon S3 con regole di replica nuove o esistenti. È possibile applicarla a un intero bucket o agli oggetti che hanno un prefisso specifico.

Per abilitare la sincronizzazione delle modifiche alla replica mediante la console Amazon S3, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md). Questo argomento fornisce istruzioni per abilitare la sincronizzazione delle modifiche alla replica nella configurazione di replica quando i bucket di origine e di destinazione sono di proprietà uguale o diversa. Account AWS

Per abilitare la sincronizzazione delle modifiche alla replica utilizzando AWS Command Line Interface (AWS CLI), è necessario aggiungere una configurazione di replica al bucket contenente le repliche con enabled. `ReplicaModifications` Per impostare la replica bidirezionale, creare una regola di replica dal bucket di origine (`amzn-s3-demo-source-bucket`) al bucket contenente le repliche (`amzn-s3-demo-destination-bucket`). Quindi, creare una seconda regola di replica dal bucket contenente le repliche (`amzn-s3-demo-destination-bucket`) al bucket di origine (`amzn-s3-demo-source-bucket`). I bucket di origine e di destinazione possono essere uguali o diversi. Regioni AWS

**Nota**  
È necessario abilitare la sincronizzazione delle modifiche alla replica sia sul bucket di origine che su quello di destinazione per replicare le modifiche ai metadati della replica, ad esempio le liste di controllo dell'accesso agli oggetti (ACLs), i tag degli oggetti o le impostazioni di Object Lock sugli oggetti replicati. Analogamente a tutte le regole di replica, è possibile applicare queste regole all'intero bucket o a un sottoinsieme di oggetti filtrati per prefisso o tag di oggetto.

Nella seguente configurazione di esempio, Amazon S3 replica le modifiche dei metadati sotto il prefisso `Tax` al bucket `amzn-s3-demo-source-bucket`, che contiene gli oggetti di origine.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "SourceSelectionCriteria": {
                "ReplicaModifications":{
                    "Status": "Enabled"
                }
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-source-bucket"
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

Per istruzioni complete sulla creazione di regole di replica utilizzando il, vedere. AWS CLI[Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md)

# Replica dei contrassegni di eliminazione tra i bucket
<a name="delete-marker-replication"></a>

Per impostazione predefinita, quando la replica S3 è abilitata e un oggetto viene eliminato nel bucket di origine, Amazon S3 aggiunge un contrassegno di eliminazione solo nel bucket di origine. Questa operazione consente di proteggere i dati nei bucket di destinazione da eliminazioni accidentali o dolose. Se è stata abilitata la *replica dei contrassegni di eliminazione*, questi contrassegni vengono copiati nei bucket di destinazione e Amazon S3 si comporterà come se l'oggetto fosse stato eliminato nei bucket di origine e di destinazione. Per ulteriori informazioni sul funzionamento dei contrassegni di eliminazione, consulta [Utilizzo dei contrassegni di eliminazione](DeleteMarker.md).

**Nota**  
La replica dei contrassegni di eliminazione non è supportata per le regole di replica basate su tag. La replica dei contrassegni di eliminazione non rispetta l'Accordo sul livello di servizio (SLA) di 15 minuti concesso quando si utilizza il controllo del tempo di replica di S3 (S3 RTC).
Se non si utilizza la versione XML più recente della configurazione della replica, le operazioni di eliminazione influiscono sulla replica in modo diverso. Per ulteriori informazioni, consulta [Effetto delle operazioni di eliminazione sulla replica](replication-what-is-isnot-replicated.md#replication-delete-op).
Se si abilita la replica dei contrassegni di eliminazione e il bucket di origine ha una regola di scadenza del ciclo di vita S3, i contrassegni di eliminazione aggiunti dalla regola di scadenza del ciclo di vita S3 non verranno replicati nel bucket di destinazione.

## Abilitazione della replica dei contrassegni di eliminazione
<a name="enabling-delete-marker-replication"></a>

Puoi iniziare a utilizzare la replica dei contrassegni di eliminazione con una regola di replica nuova o esistente. È possibile applicare la replica dei contrassegni di eliminazione a un intero bucket o agli oggetti che hanno un prefisso specifico.

Per abilitare la replica dei contrassegni di eliminazione utilizzando la console Amazon S3, consulta [Utilizzo della console S3](replication-walkthrough1.md#enable-replication). Questo argomento fornisce istruzioni per abilitare la replica dei marker di eliminazione nella configurazione di replica quando i bucket di origine e di destinazione sono di proprietà uguale o diversa. Account AWS

Per abilitare la replica dei marker di eliminazione utilizzando AWS Command Line Interface (AWS CLI), è necessario aggiungere una configurazione di replica al bucket di origine con `DeleteMarkerReplication` enabled, come mostrato nella configurazione di esempio seguente. 

Nella seguente configurazione della replica di esempio, i contrassegni di eliminazione vengono replicati nel bucket di destinazione `amzn-s3-demo-destination-bucket` per gli oggetti sotto il prefisso `Tax`.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "DeleteMarkerReplication": {
                "Status": "Enabled"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

Per istruzioni complete sulla creazione di regole di replica tramite, vedere. AWS CLI[Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md)

# Gestione o sospensione della replica in tempo reale
<a name="disable-replication"></a>

La replica live è la copia automatica e asincrona di oggetti tra bucket uguali o diversi. Regioni AWS Dopo aver impostato la configurazione della replica, Amazon S3 replica gli oggetti nuovi e gli aggiornamenti degli oggetti da un bucket di origine a uno o più bucket di destinazione specifici. 

Per aggiungere regole di replica al bucket di origine, viene utilizzata la console di Amazon S3. Le regole di replica definiscono gli oggetti del bucket di origine da replicare e i bucket o i bucket di destinazione in cui vengono archiviati gli oggetti replicati. Per ulteriori informazioni sulla replica, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md).

È possibile gestire le regole di replica nella pagina **Replica** nella console Amazon S3. È possibile aggiungere, visualizzare, modificare, abilitare, disabilitare o eliminare le regole di replica. Inoltre, è possibile modificare la priorità delle regole di replica. Per informazioni sull'aggiunta di regole di replica a un bucket, consulta [Utilizzo della console S3](replication-walkthrough1.md#enable-replication).

**Per gestire le regole di replica per un bucket utilizzando la console Amazon S3**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket). 

1. Nella scheda **Bucket per uso generico** scegli il nome del bucket desiderato.

1. Seleziona la scheda **Gestione**, quindi scorri verso il basso fino a **Regole di replica**.

1. È possibile modificare le regole di replica come indicato di seguito:
   + Per abilitare o disabilitare una regola di replica, scegli il pulsante di opzione a sinistra della regola. Dal menu **Azioni** scegli **Abilita regola** o **Disabilita regola**. È anche possibile disabilitare, abilitare o eliminare tutte le regole nel bucket dal menu **Operazioni**.
**Nota**  
Se si disabilita, e successivamente si riabilita, una regola di replica, tutti gli oggetti nuovi o modificati che non sono stati replicati mentre la regola era disabilitata *non* vengono replicati automaticamente quando la regola viene riabilitata. Per replicare questi oggetti, è necessario utilizzare Replica in batch S3. Per ulteriori informazioni, consulta [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md).
   + Per modificare la priorità di una regola, scegli il pulsante di opzione a sinistra della regola, quindi scegli **Modifica regola**.

     È necessario impostare le priorità delle regole per evitare i conflitti causati dagli oggetti inclusi nell'ambito di più regole. In caso di regole sovrapposte, Amazon S3 utilizza la priorità delle regole per determinare quale regola applicare. Più elevato è il numero, maggiore è la priorità. Per ulteriori informazioni sulla priorità delle regole, consulta [Elementi del file di configurazione della replica](replication-add-config.md).

## Sospensione o interruzione della replica
<a name="replication-pause"></a>

Per sospendere temporaneamente la replica e farla riprendere automaticamente in un secondo momento, è possibile utilizzare l'operazione `aws:s3:bucket-pause-replication` in AWS Fault Injection Service. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/fis/latest/userguide/fis-actions-reference.html#bucket-pause-replication](https://docs.aws.amazon.com/fis/latest/userguide/fis-actions-reference.html#bucket-pause-replication) e [Sospensione della replica S3](https://docs.aws.amazon.com/fis/latest/userguide/cross-region-scenario.html#cross-region-scenario-actions-pause-s3-replication) nella *Guida per l'utente di AWS Fault Injection Service *.

Per interrompere la replica in Amazon S3, è consigliabile disabilitare le regole di replica. Se si disabilita, e successivamente si riabilita, una regola di replica, tutti gli oggetti nuovi o modificati che non sono stati replicati mentre la regola era disabilitata *non* vengono replicati automaticamente quando la regola viene riabilitata. Per replicare questi oggetti, è necessario utilizzare Replica in batch S3. Per ulteriori informazioni, consulta [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md).

La replica si interromperà anche se rimuovi il ruolo AWS Identity and Access Management (IAM), le autorizzazioni AWS Key Management Service (AWS KMS) o le autorizzazioni della bucket policy che concedono ad Amazon S3 le autorizzazioni richieste. Tuttavia, è consigliabile non utilizzare questi approcci perché impediscono la replica. Amazon S3 segnala lo stato di replica per gli oggetti interessati come `FAILED`. Se le autorizzazioni vengono successivamente ripristinate, gli oggetti contrassegnati come `FAILED` *non* vengono replicati automaticamente. Per replicare questi oggetti, è necessario utilizzare Replica in batch S3.

# Replica di oggetti esistenti con Replica in batch
<a name="s3-batch-replication-batch"></a>

Replica in batch S3 differisce dalla replica in tempo reale, che replica in modo continuo e automatico nuovi oggetti tra bucket Amazon S3. Invece, Replica in batch S3 viene utilizzato on demand su oggetti esistenti. È possibile utilizzare Replica in batch S3 per replicare i tipi di oggetti seguenti: 
+ Oggetti esistenti prima dell'applicazione di una configurazione della replica
+ Oggetti che sono stati replicati in precedenza
+ Oggetti la cui replica non è riuscita

È possibile replicare questi oggetti on demand utilizzando un processo Operazioni in batch.

Per iniziare a utilizzare Replica in batch occorre:
+ **Avviare Replica in batch per una nuova regola o destinazione di replica**: è possibile creare un processo Replica in batch una tantum al momento della creazione della prima regola in una nuova configurazione della replica o dell'aggiunta di un nuovo bucket di destinazione a una configurazione esistente tramite la console Amazon S3. 
+ **Avvia la replica in batch per una configurazione di replica esistente**: puoi creare un nuovo processo di replica in batch utilizzando S3 Batch Operations tramite la console Amazon S3, AWS Command Line Interface (AWS CLI), o AWS SDKs l'API REST di Amazon S3.

Al termine del processo Batch Replication, viene visualizzato un report di completamento. Per ulteriori informazioni su come utilizzare questo report per esaminare il processo, consulta [Monitoraggio dei rapporti sullo stato e sul completamento dei processi](batch-ops-job-status.md).

## Considerazioni su S3 Batch Replication
<a name="batch-replication-considerations"></a>

Prima di utilizzare Replica in batch S3, esaminare il seguente elenco di considerazioni: 
+ Il bucket di origine deve avere una configurazione di replica esistente. Per abilitare la replica, consulta le sezioni [Panoramica della configurazione della replica in tempo reale](replication-how-setup.md) e [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).
+ Se si è configurato Ciclo di vita S3 per il bucket, è consigliabile disabilitare le regole del ciclo di vita mentre il processo Replica in batch è attivo. Ciò garantisce la parità tra il bucket di origine e quello di destinazione. Altrimenti, questi bucket potrebbero divergere e il bucket di destinazione non sarà una replica esatta del bucket di origine. Si consideri ad esempio lo scenario riportato di seguito:
  + Il bucket di origine ha più versioni di un oggetto e un contrassegno di eliminazione su tale oggetto.
  + I bucket di origine e destinazione dispongono di una configurazione del ciclo di vita per rimuovere i contrassegni di eliminazione scaduti.

  In questo scenario, Replica in batch può replicare il contrassegno di eliminazione nel bucket di destinazione prima di replicare le versioni dell'oggetto. Questo comportamento può far sì che la configurazione del ciclo di vita indichi il contrassegno di eliminazione come scaduto e che il contrassegno di eliminazione venga rimosso dal bucket di destinazione prima della replica delle versioni dell'oggetto.
+ Il ruolo AWS Identity and Access Management (IAM) specificato per eseguire il processo Batch Operations deve disporre delle autorizzazioni necessarie per eseguire l'operazione di replica batch sottostante. Per ulteriori informazioni sulla creazione dei ruoli IAM, consulta la sezione [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).
+ Replica in batch richiede un manifesto che può essere generato da Amazon S3. Il manifesto generato deve essere archiviato nello stesso Regione AWS bucket di origine. Se si sceglie di non generare il manifesto, è possibile fornire un report di inventario Amazon S3 o un file CSV contenente gli oggetti che si desidera replicare. Per ulteriori informazioni, consulta [Specifica di un manifesto per un processo Batch Replication](#batch-replication-manifest). 
+ Replica in batch non supporta la ripetizione della replica di oggetti eliminati con l'ID versione dell'oggetto dal bucket di destinazione. Per replicare nuovamente questi oggetti è possibile copiare gli oggetti di origine presenti con un processo di copia in batch. La copia di tali oggetti crea nuove versioni degli oggetti nel bucket di origine e avvia automaticamente la replica nel bucket di destinazione. L'eliminazione e la nuova creazione del bucket di destinazione non avviano la replica.

  Per ulteriori informazioni su Copia in batch, consulta [Esempi che utilizzano operazioni in batch per copiare oggetti](batch-ops-examples-copy.md).
+ Se si sta utilizzando una regola di replica sul bucket di origine, assicurarsi di [aggiornare la configurazione della replica](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-walkthrough-2.html), concedendo al ruolo IAM associato alla regola di replica le autorizzazioni adeguate per replicare gli oggetti. Il ruolo IAM deve disporre delle autorizzazioni necessarie per eseguire la replica sia sul bucket di origine che su quello di destinazione.
+ Se si inviano più processi Replica in batch per lo stesso bucket in un breve intervallo di tempo, Amazon S3 eseguirà tali processi contemporaneamente.
+ Se si inviano più processi Replica in batch per due bucket diversi, tenere presente che Amazon S3 potrebbe non eseguire tutti i processi contemporaneamente. Se si supera il numero di processi Replica in batch che possono essere eseguiti contemporaneamente sul proprio account, Amazon S3 metterà in pausa i processi con priorità più bassa per gestire quelli con priorità più alta. Una volta completati i processi con priorità più alta, tutti i processi in pausa tornano attivi.
+ Replica in batch non è supportato per gli oggetti archiviati nelle classi di storage Recupero flessibile Amazon S3 Glacier e S3 Glacier Deep Archive.
+ Per replicare in batch gli oggetti archiviati nei livelli di archiviazione Archive Access o Deep Archive Access di S3 Intelligent-Tiering, è innanzitutto necessario avviare una richiesta di [ripristino](https://docs.aws.amazon.com/AmazonS3/latest/userguide/intelligent-tiering-managing.html#restore-data-from-int-tier-archive) e attendere che gli oggetti vengano spostati nel livello Frequent Access. 
+ Un singolo processo di replica in batch può supportare un manifesto con un massimo di 20 miliardi di oggetti.
+ Se utilizzi S3 Batch Replication per replicare set di dati su più regioni e in precedenza il tipo di crittografia lato server degli oggetti era stato aggiornato da SSE-S3 a SSE-KMS, potresti aver bisogno di autorizzazioni aggiuntive. Nel bucket `kms:decrypt` della regione di origine, devi disporre delle autorizzazioni. Quindi, avrai bisogno delle `kms:encrypt` autorizzazioni `kms:decrypt` e per il bucket nella regione di destinazione. Per ulteriori informazioni, consulta [Replica di oggetti crittografati](replication-config-for-kms-objects.md).

## Specifica di un manifesto per un processo Batch Replication
<a name="batch-replication-manifest"></a>

Un manifesto è un oggetto Amazon S3 che contiene le chiavi dell'oggetto su cui si desidera che Amazon S3 agisca. Se si desidera creare un processo Replica in batch, occorre fornire un manifesto generato dall'utente o fare in modo che Amazon S3 generi un manifesto basato sulla configurazione della replica.

Se si fornisce un manifesto generato dall'utente, deve essere sotto forma di report di inventario Amazon S3 o di file CSV. Se gli oggetti nel manifesto si trovano in un bucket con versioni, è necessario specificare la versione IDs degli oggetti. Verrà replicato solo l'oggetto con l'ID versione specificato nel manifesto. Per ulteriori informazioni sulla specifica di un manifesto, consulta la sezione [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest).

Se Amazon S3 deve generare automaticamente un file manifesto per conto dell'utente, gli oggetti elencati utilizzano lo stesso bucket, prefisso e tag di origine di tutte le configurazioni di replica del bucket di origine. Con un manifesto generato, Amazon S3 replica tutte le versioni idonee degli oggetti.

**Nota**  
Se scegli che Amazon S3 generi il manifesto, quest'ultimo deve essere archiviato nello stesso bucket Regione AWS di origine.

## Filtri per i processi Batch Replication
<a name="batch-replication-filters"></a>

Quando si crea un processo Replica in batch, è possibile specificare dei filtri aggiuntivi, ad esempio la data di creazione dell'oggetto e lo stato della replica, al fine di ridurre l'ambito del processo.

Puoi filtrare gli oggetti da replicare in base al valore `ObjectReplicationStatuses` fornendo uno o più dei seguenti valori:
+ `"NONE"`: indica che Amazon S3 non ha mai tentato di replicare l'oggetto in precedenza.
+ `"FAILED"`: indica che Amazon S3 ha tentato di replicare l'oggetto in precedenza ma la replica non è andata a buon fine.
+ `"COMPLETED"`: indica che Amazon S3 ha replicato correttamente l'oggetto in precedenza.
+ `"REPLICA"`: indica che questo oggetto è una replica eseguita da Amazon S3 da un altro bucket di origine.

Per ulteriori informazioni sugli stati di replica, consulta la sezione [Ottenimento delle informazioni sullo stato della replica](replication-status.md).

Se non si filtra il processo Replica in batch, Operazioni in batch tenta di replicare tutti gli oggetti (indipendentemente dal relativo valore `ObjectReplicationStatus`) nel file manifesto che corrispondono alle regole di configurazione della replica, ad eccezione di alcuni oggetti che non vengono replicati per impostazione predefinita. Per ulteriori informazioni, consulta [Che cosa non viene replicato con le configurazioni di replica?](replication-what-is-isnot-replicated.md#replication-what-is-not-replicated)

A seconda del proprio obiettivo, è possibile impostare `ObjectReplicationStatuses` su uno dei seguenti valori:
+ Per replicare solo gli oggetti esistenti che non sono mai stati replicati, includere solo `"NONE"`.
+ Per ritentare la replica dei soli oggetti la cui replica precedente non è andata a buon fine, includere solo `"FAILED"`.
+ Per replicare gli oggetti esistenti e ritentare la replica degli oggetti la cui replica precedente non è andata a buon fine, includere sia `"NONE"` sia `"FAILED"`.
+ Per riempire un bucket di destinazione con gli oggetti replicati in un'altra destinazione, includere `"COMPLETED"`.
+ Per replicare gli oggetti replicati in precedenza, includere `"REPLICA"`.

## Report di completamento della replica in batch
<a name="batch-replication-completion-report"></a>

Quando crei un processo di Batch Replication, puoi richiedere un report di completamento in formato CVS. Questo report mostra gli oggetti, i codici di esito positivo o negativo della replica, gli output e le descrizioni. Per ulteriori informazioni sul monitoraggio dei processi e sui report di completamento, consulta [Rapporti di completamento](batch-ops-job-status.md#batch-ops-completion-report). 

Per l'elenco dei codici di esito negativo della replica con le descrizioni, consulta [Motivi degli errori di replica Amazon S3](replication-metrics-events.md#replication-failure-codes).

Per informazioni sulla risoluzione dei problemi di Replica in batch, consulta [Errori di replica in batch](replication-troubleshoot.md#troubleshoot-batch-replication-errors).

## Guida introduttiva alla replica in batch
<a name="batch-replication-tutorial"></a>

Per ulteriori informazioni su come utilizzare la replica in batch, consulta il [Tutorial: Replicating existing objects in your Amazon S3 buckets with S3 Batch Replication](https://aws.amazon.com/getting-started/hands-on/replicate-existing-objects-with-amazon-s3-batch-replication/) (Replica di oggetti esistenti nei bucket Amazon S3 con S3 Batch Replication).

# Configurazione di un ruolo IAM per Replica in batch S3
<a name="s3-batch-replication-policies"></a>

Poiché Replica in batch Amazon S3 è un tipo di processo Operazioni in batch, è necessario creare un ruolo AWS Identity and Access Management (IAM) per concedere le autorizzazioni Operazioni in batch per eseguire operazioni per conto dell'utente. Inoltre, devi collegare una policy IAM di Batch Replication al ruolo IAM di Batch Operations. 

Utilizzare le procedure seguenti per creare una policy e un ruolo IAM che fornisce a Operazioni in batch l'autorizzazione per avviare un processo Replica in batch.

**Per creare una policy per Replica in batch**

1. Accedi Console di gestione AWS e apri la console IAM all'indirizzo. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)

1. In **Gestione accessi** scegli **Policy**.

1. Seleziona **Create Policy** (Crea policy).

1. Nella pagina **Specifica autorizzazioni**, seleziona **JSON**.

1. Inserire una delle seguenti policy, a seconda che il manifesto sia stato generato da Amazon S3 o fornito dall'utente. Per ulteriori informazioni sui manifest, consulta [Specifica di un manifesto per un processo Batch Replication](s3-batch-replication-batch.md#batch-replication-manifest). 

   Prima di utilizzare queste policy, sostituire `user input placeholders` nelle policy seguenti con i nomi del bucket di origine della replica, del bucket del manifesto e del bucket dei report di completamento. 
**Nota**  
Il ruolo IAM dell'utente per Replica in batch richiede autorizzazioni diverse, a seconda che l'utente generi o fornisca un manifesto, pertanto è necessario assicurarsi di scegliere la policy appropriata tra i seguenti esempi.

**Policy da impiegare se si utilizza e si archivia un manifesto generato da Amazon S3**

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
         {
            "Action": [
               "s3:InitiateReplication"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
            ]
         },
         {
            "Action": [
               "s3:GetReplicationConfiguration",
               "s3:PutInventoryConfiguration"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket"
            ]
         },
         {
            "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
            ]
         },
         {
            "Effect": "Allow",
            "Action": [
               "s3:PutObject"
            ],
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-completion-report-bucket/*",
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"    
            ]
         }
      ]
   }
   ```

------

**Policy da impiegare se si utilizza un manifesto fornito dall'utente**

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
         {
            "Action": [
               "s3:InitiateReplication"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
            ]
         },
         {
            "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
            ]
         },
         {
            "Effect": "Allow",
            "Action": [
               "s3:PutObject"
            ],
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-completion-report-bucket/*"    
            ]
         }
      ]
   }
   ```

------

1. Scegli **Next (Successivo)**.

1. Specifica un nome per la policy e scegli **Crea policy**.

**Per creare un ruolo IAM per Replica in batch**

1. Accedi Console di gestione AWS e apri la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

1. In **Access management** (Gestione accessi), scegli **Roles** (Ruoli).

1. Scegli **Crea ruolo**.

1. Scegli **Servizio AWS** come tipo di entità attendibile. Nella sezione **Casi d'uso** scegli **S3** come servizio e **Operazioni in batch S3** come caso d'uso.

1. Scegli **Next (Successivo)**. Viene visualizzata la pagina **Aggiungi autorizzazioni**. Nella casella di ricerca, immettere la policy creata nella procedura precedente. Seleziona la casella di controllo accanto al nome della policy, quindi scegli **Successivo**. 

1. Nella pagina **Nomina, verifica e crea** specificare un nome per il ruolo IAM.

1. Nella sezione **Passaggio 1: Attribuire attendibilità alle identità**, verificare che il proprio ruolo IAM utilizzi la seguente policy di fiducia:

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement":[
         {
            "Effect":"Allow",
            "Principal":{
               "Service":"batchoperations.s3.amazonaws.com"
            },
            "Action":"sts:AssumeRole"
         }
      ]
   }
   ```

------

1. Nella sezione **Passaggio 2: Aggiungere autorizzazioni**, verificare che il proprio ruolo IAM utilizzi la policy creata in precedenza. 

1. Scegli **Crea ruolo**. 

# Creazione di un processo Replica in batch per nuove destinazioni o regole di replica
<a name="s3-batch-replication-new-config"></a>

In Amazon S3, la replica in tempo reale non replica alcun oggetto già esistente nel bucket di origine prima della creazione di una configurazione della replica. La replica in tempo reale replica automaticamente solo gli oggetti nuovi e aggiornati che vengono scritti nel bucket dopo la creazione della configurazione della replica. Per replicare oggetti già esistenti, è possibile utilizzare Replica in batch S3 per replicare questi oggetti on demand. 

Quando si crea la prima regola in una nuova configurazione della replica in tempo reale o quando si aggiunge un nuovo bucket di destinazione a una configurazione della replica esistente tramite la console Amazon S3, è possibile creare un processo Replica in batch. Questo processo Replica in batch può essere utilizzato per replicare nel bucket di destinazione gli oggetti esistenti nel bucket di origine. 

Per utilizzare Replica in batch per una configurazione esistente senza aggiungere un nuovo bucket di destinazione, consulta [Creazione di un processo Batch Replication per le regole di replica esistenti](s3-batch-replication-existing-config.md).

**Prerequisiti**  
Prima di creare un processo Replica in batch, è necessario creare un ruolo AWS Identity and Access Management (IAM) per Operazioni in batch al fine di concedere ad Amazon S3 le autorizzazioni per eseguire operazioni per conto dell'utente. Per ulteriori informazioni, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).

## Utilizzo di Replica in batch per una nuova regola di replica o una nuova destinazione tramite la console Amazon S3
<a name="batch-replication-new-config-console"></a>

Quando si crea la prima regola in una nuova configurazione della replica o quando si aggiunge un nuovo bucket di destinazione a una configurazione esistente tramite la console Amazon S3, si ha la possibilità di creare un processo Replica in batch per replicare oggetti esistenti nel bucket di origine.

**Per creare un processo Replica in batch durante la creazione o l'aggiornamento di una configurazione della replica**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket). 

1. Scegli dall'elenco **Bucket per uso generico** il nome del bucket che contiene gli oggetti da replicare.

1. Per creare una nuova regola di replica o modificare una regola esistente, scegli la scheda **Gestione** e scorri verso il basso fino a **Regole di replica**:
   + Per creare una nuova regola di replica, scegliere **Create replication rule** (Crea regola di replica). Per esempi su come configurare una regola di replica di base, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).
   + Per modificare una regola di replica esistente, seleziona il pulsante di opzione vicino alla regola, quindi scegli **Modifica regola**.

1. Creare la nuova regola di replica o modificare la destinazione per la regola di replica esistente e scegliere **Save** (Salva).

   Dopo aver creato la prima regola in una nuova configurazione di replica o dopo aver modificato una configurazione esistente per aggiungere una nuova destinazione, viene visualizzata una finestra di dialogo **Replicate existing objects?** (Replicare gli oggetti esistenti?) che offre la possibilità di creare un processo Batch Replication.

1. Se desideri creare ed eseguire questo processo ora, scegli **Sì, replica gli oggetti esistenti**.

   Se desideri creare un processo Replica in batch in un secondo momento, scegli **No, non replicare oggetti esistenti**.

1. Se si sceglie **Sì, replica oggetti esistenti**, viene visualizzata la pagina **Crea processo di operazioni in batch**. Il processo Replica in batch S3 ha le impostazioni seguenti:   
**Opzioni di esecuzione del processo**  
Se desideri che il processo Replica in batch S3 venga eseguito immediatamente, scegli **Esegui automaticamente il processo quando è pronto**. Se desideri eseguire il processo in un secondo momento, seleziona **Attendi l'esecuzione del processo quando è pronto**.  
Se si sceglie **Esegui automaticamente il processo quando è pronto**, non sarà possibile creare e salvare un manifesto Operazioni in batch. Per salvare il manifesto Operazioni in batch, scegli **Attendi l'esecuzione del processo quando è pronto**.  
**Manifesto Batch Operations**  
Se si sceglie **Attendi l'esecuzione del processo quando è pronto**, viene visualizzata la sezione **Manifesto Operazioni in batch**. Il manifesto è un elenco di tutti gli oggetti sui quali desideri eseguire l'operazione specificata. È possibile scegliere di salvare il manifesto. Analogamente ai file di inventario S3, il manifesto viene salvato come file CSV e archiviato in un bucket. Per ulteriori informazioni sui manifesti Batch Operations, consulta la sezione [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest).  
**Report di completamento**  
Operazioni in batch S3 esegue un'unica attività per ciascun oggetto specificato nel manifesto. I report di completamento offrono un modo semplice per visualizzare i risultati delle attività in un formato consolidato, senza ulteriori operazioni di configurazione. Puoi richiedere un report di completamento per tutte le attività o solo per le attività fallite. Per ulteriori informazioni sui report di completamento, consulta la sezione [Rapporti di completamento](batch-ops-job-status.md#batch-ops-completion-report).  
**Permissions**  
Una delle cause più comuni di errori di replica è l'insufficienza delle autorizzazioni nel ruolo fornito AWS Identity and Access Management (IAM). Per ulteriori informazioni sulla creazione di questo ruolo, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md). Assicurati di creare o scegliere un ruolo IAM con le autorizzazioni richieste per Replica in batch. 

1. Scegli **Save** (Salva).

# Creazione di un processo Batch Replication per le regole di replica esistenti
<a name="s3-batch-replication-existing-config"></a>

In Amazon S3, la replica in tempo reale non replica alcun oggetto già esistente nel bucket di origine prima della creazione di una configurazione della replica. La replica in tempo reale replica automaticamente solo gli oggetti nuovi e aggiornati che vengono scritti nel bucket dopo la creazione della configurazione della replica. Per replicare oggetti già esistenti, è possibile utilizzare Replica in batch S3 per replicare questi oggetti on demand. 

Puoi configurare S3 Batch Replication per una configurazione di replica esistente utilizzando AWS SDKs, AWS Command Line Interface (AWS CLI) o la console Amazon S3. Per una panoramica di Replica in batch, consulta [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md).

Al termine del processo Batch Replication, viene visualizzato un report di completamento. Per ulteriori informazioni su come utilizzare il report per esaminare il processo, consulta la sezione [Monitoraggio dei rapporti sullo stato e sul completamento dei processi](batch-ops-job-status.md).

**Prerequisiti**  
Prima di creare un processo Replica in batch, è necessario creare un ruolo AWS Identity and Access Management (IAM) per Operazioni in batch al fine di concedere ad Amazon S3 le autorizzazioni per eseguire operazioni per conto dell'utente. Per ulteriori informazioni, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).

## Utilizzo della console S3
<a name="batch-replication-existing-config-console"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Operazioni in batch**.

1. Scegli **Crea processo**.

1. Verificare che la sezione **Regione AWS** mostri la Regione in cui si desidera creare il processo. 

1. Nella sezione **Manifesto** specificare il formato del manifesto che si desidera utilizzare. Il manifesto è un elenco di tutti gli oggetti sui quali desideri eseguire l'operazione specificata. Per ulteriori informazioni sui manifesti Batch Operations, consulta la sezione [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest).
   + Se hai preparato un manifesto, scegli **S3 inventory report (manifest.json)** (Report di inventario S3 (manifest.json)) o **CSV**. Se il manifesto è in un bucket con versione, è possibile specificare l'ID versione per il manifesto. Se non si specifica un ID versione, Operazioni in batch utilizza la versione corrente del manifesto. Per ulteriori informazioni sulla creazione di un manifesto, consulta [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest).
**Nota**  
Se gli oggetti nel tuo manifesto si trovano in un bucket con versioni, devi specificare la versione IDs degli oggetti. Per ulteriori informazioni, consulta [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest).
   + Per creare un manifesto basato sulla configurazione di replica, scegli **Create manifest using S3 Replication configuration** (Crea manifesto utilizzando la configurazione di replica S3). Quindi, scegli il bucket di origine della configurazione della replica.

1. (Facoltativo) Se si sceglie **Crea manifesto utilizzando la configurazione di Replica S3**, è possibile includere filtri aggiuntivi, come la data di creazione dell'oggetto e lo stato della replica. Per esempi su come filtrare in base allo stato della replica, consulta [Specifica di un manifesto per un processo Batch Replication](s3-batch-replication-batch.md#batch-replication-manifest). 

1. (Facoltativo) Se si è scelto **Crea manifesto utilizzando la configurazione di Replica S3**, è possibile salvare il manifesto generato. Per salvare questo manifesto, seleziona **Manifesto delle operazioni in batch di salvataggio**. Specifica quindi il bucket di destinazione per il manifesto e scegli se crittografare il manifesto. 
**Nota**  
Il manifesto generato deve essere archiviato nello stesso Regione AWS bucket di origine.

1. Scegli **Next (Successivo)**.

1. Nella pagina **Operazioni** scegli **Replica**, quindi scegli **Successivo**. 

1. (Facoltativo) Fornisci un valore per **Description** (Descrizione). 

1. Modifica il valore **Priority** (Priorità) del processo, se necessario. Numeri maggiori indicano una priorità superiore. Amazon S3 tenta di eseguire i processi con priorità più elevata prima dei processi con priorità inferiore. Per ulteriori informazioni sulla priorità dei processi, consulta [Assegnazione della priorità dei processi](batch-ops-job-priority.md).

1. (Facoltativo) Genera un report di completamento. Per generarlo, seleziona **Genera report di completamento**.

   Se scegli di generare un report di completamento, devi scegliere se riferire **Failed tasks only** (Solo attività fallite) o **All tasks** (Tutte le attività) e fornire un bucket di destinazione per il report.

1. Nella sezione **Autorizzazioni**, assicurati di scegliere un ruolo IAM con le autorizzazioni richieste per Replica in batch. Una delle cause più comuni degli errori di replica è rappresentata dalla mancanza di autorizzazioni sufficienti nel ruolo IAM fornito. Per ulteriori informazioni sulla creazione di questo ruolo, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md). 

1. (Facoltativo) Aggiungi tag di processo al processo Batch Replication.

1. Scegli **Next (Successivo)**.

1. Rivedi la configurazione del processo e scegli **Crea processo**.

## Utilizzo di AWS CLI con un manifesto S3
<a name="batch-replication-existing-config-cli"></a>

Il seguente comando di esempio `create-job` crea un processo Replica in batch S3 tramite un manifesto generato da S3 per l' Account AWS `111122223333`. Questo esempio replica oggetti esistenti e oggetti la cui replica in precedenza non è andata a buon fine. Per informazioni sul filtro in base allo stato della replica, consulta [Specifica di un manifesto per un processo Batch Replication](s3-batch-replication-batch.md#batch-replication-manifest). 

Per utilizzare questo comando, sostituisci *`user input placeholders`* con le informazioni appropriate. Sostituire il ruolo IAM `role/batch-Replication-IAM-policy` con il ruolo IAM creato in precedenza. Per ulteriori informazioni, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).

```
aws s3control create-job --account-id 111122223333 \ 
--operation '{"S3ReplicateObject":{}}' \ 
--report '{"Bucket":"arn:aws:s3:::amzn-s3-demo-completion-report-bucket",\ 
"Prefix":"batch-replication-report", \ 
"Format":"Report_CSV_20180820","Enabled":true,"ReportScope":"AllTasks"}' \ 
--manifest-generator '{"S3JobManifestGenerator": {"ExpectedBucketOwner": "111122223333", \ 
"SourceBucket": "arn:aws:s3:::amzn-s3-demo-source-bucket", \ 
"EnableManifestOutput": false, "Filter": {"EligibleForReplication": true, \ 
"ObjectReplicationStatuses": ["NONE","FAILED"]}}}' \ 
--priority 1 \ 
--role-arn arn:aws:iam::111122223333:role/batch-Replication-IAM-policy \ 
--no-confirmation-required \ 
--region source-bucket-region
```

**Nota**  
È necessario avviare il processo dallo stesso bucket di Regione AWS origine della replica. 

Dopo aver avviato correttamente un processo Batch Replication, viene visualizzato l'ID del processo come risposta. Il processo può essere monitorato utilizzando il seguente comando `describe-job`. Per utilizzare questo comando, sostituisci *`user input placeholders`* con le informazioni appropriate. 

```
aws s3control describe-job --account-id 111122223333 --job-id job-id --region source-bucket-region
```

## Utilizzo di con un manifesto AWS CLI fornito dall'utente
<a name="batch-replication-existing-config-cli-customer-manifest"></a>

Nell'esempio seguente viene creato un processo Replica in batch S3 tramite un manifesto definito dall'utente per l' Account AWS `111122223333`. Se gli oggetti del manifesto si trovano in un bucket con versioni, è necessario specificare la versione IDs degli oggetti. Verrà replicato solo l'oggetto con l'ID versione specificato nel manifesto. Per ulteriori informazioni sulla creazione di un manifesto, consulta [Specifica di un manifest](batch-ops-create-job.md#specify-batchjob-manifest). 

Per utilizzare questo comando, sostituisci *`user input placeholders`* con le informazioni appropriate. Sostituire il ruolo IAM `role/batch-Replication-IAM-policy` con il ruolo IAM creato in precedenza. Per ulteriori informazioni, consulta [Configurazione di un ruolo IAM per Replica in batch S3](s3-batch-replication-policies.md).

```
aws s3control create-job --account-id 111122223333 \ 
--operation '{"S3ReplicateObject":{}}' \
--report '{"Bucket":"arn:aws:s3:::amzn-s3-demo-completion-report-bucket",\
"Prefix":"batch-replication-report", \
"Format":"Report_CSV_20180820","Enabled":true,"ReportScope":"AllTasks"}' \
--manifest '{"Spec":{"Format":"S3BatchOperations_CSV_20180820",\
"Fields":["Bucket","Key","VersionId"]},\
"Location":{"ObjectArn":"arn:aws:s3:::amzn-s3-demo-manifest-bucket/manifest.csv",\
"ETag":"Manifest Etag"}}' \
--priority 1 \
--role-arn arn:aws:iam::111122223333:role/batch-Replication-IAM-policy \
--no-confirmation-required \
--region source-bucket-region
```

**Nota**  
È necessario avviare il processo dallo stesso bucket di origine della Regione AWS replica. 

Dopo aver avviato correttamente un processo Batch Replication, viene visualizzato l'ID del processo come risposta. Il processo può essere monitorato utilizzando il seguente comando `describe-job`.

```
aws s3control describe-job --account-id 111122223333 --job-id job-id --region source-bucket-region
```

# Risoluzione dei problemi nella replica
<a name="replication-troubleshoot"></a>

Questa sezione riporta i suggerimenti per la risoluzione dei problemi di Replica Amazon S3 e informazioni sugli errori di replica in batch di Amazon S3.

**Topics**
+ [Suggerimenti per la risoluzione dei problemi di Replica Amazon S3](#troubleshoot-replication-tips)
+ [Errori di replica in batch](#troubleshoot-batch-replication-errors)

## Suggerimenti per la risoluzione dei problemi di Replica Amazon S3
<a name="troubleshoot-replication-tips"></a>

Se le repliche degli oggetti non vengono visualizzate nel bucket di destinazione dopo aver configurato la replica, usa questi suggerimenti per identificare e correggere i problemi.
+ La replica della maggior parte degli oggetti viene eseguita entro 15 minuti. Il tempo impiegato da Amazon S3 per replicare un oggetto dipende da diversi fattori, tra cui la combinazione di regione di origine/regione di destinazione e le dimensioni dell'oggetto. La replica di oggetti di grandi dimensioni può richiedere anche diverse ore. Per una migliore visibilità dei tempi di replica, puoi [utilizzare la funzionalità di controllo del tempo di replica di S3 (S3 RTC)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-time-control.html#enabling-replication-time-control).

  Se l'oggetto replicato è di grandi dimensioni, attendi qualche minuto prima di controllare se è diventato disponibile nella destinazione. È inoltre possibile controllare lo stato della replica dell'oggetto di origine. Se lo stato della replica dell'oggetto è `PENDING`, Amazon S3 non ha completato la replica. Se lo stato della replica dell'oggetto è `FAILED`, controlla la configurazione della replica impostata nel bucket di origine. 

  Inoltre, per ricevere informazioni sugli errori di Amazon S3 durante la replica, è possibile configurare la funzionalità Notifiche eventi Amazon S3 in modo da ricevere gli eventi di errore di replica. Per ulteriori informazioni, consulta [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).
+ È possibile chiamare l'operazione API `HeadObject` per verificare lo stato della replica di un oggetto. L'operazione API `HeadObject` restituisce lo stato della replica `PENDING`, `COMPLETED` o `FAILED` di un oggetto. In risposta a una chiamata API `HeadObject`, lo stato della replica viene restituito nell'intestazione `x-amz-replication-status`.
**Nota**  
Per eseguire `HeadObject`, è necessario disporre dell'accesso in lettura all'oggetto che si sta richiedendo. Una richiesta `HEAD` ha le stesse opzioni di una richiesta `GET`, senza eseguire alcuna operazione `GET`. Ad esempio, per eseguire una `HeadObject` richiesta utilizzando AWS Command Line Interface (AWS CLI), è possibile eseguire il comando seguente. Sostituisci `user input placeholders` con le informazioni appropriate.   

  ```
  aws s3api head-object --bucket amzn-s3-demo-source-bucket --key index.html
  ```
+ Se `HeadObject` restituisce oggetti con uno stato della replica `FAILED`, è possibile utilizzare Replica in batch S3 per eseguire la replica degli oggetti con replica non riuscita. Per ulteriori informazioni, consulta [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md). In alternativa, puoi caricare nuovamente gli oggetti con replica non riuscita nel bucket di origine, che avvierà la replica dei nuovi oggetti. 
+ Nella configurazione di replica nel bucket di origine verifica quanto segue:
  + La correttezza dell'Amazon Resource Name (ARN) relativo al bucket di destinazione.
  + La correttezza del prefisso del nome della chiave. Ad esempio, se si imposta la configurazione per replicare gli oggetti con il prefisso `Tax`, solo gli oggetti con i nomi della chiave quali `Tax/document1` o `Tax/document2` vengono replicati. Un oggetto con il nome della chiave `document3` non sia replicato.
  + Lo stato della regola di replica è `Enabled`.
+ Verificare che il controllo delle versioni non sia stato sospeso per i bucket inclusi nella configurazione della replica. Sia per il bucket di origine che per quello di destinazione deve essere abilitata la funzione Controllo delle versioni.
+ Se una regola di replica è impostata su **Cambia la proprietà dell'oggetto con il proprietario del bucket di destinazione**, il ruolo AWS Identity and Access Management (IAM) utilizzato per la replica deve disporre dell'autorizzazione. `s3:ObjectOwnerOverrideToBucketOwner` Questa autorizzazione viene concessa sulla risorsa (in questo caso, il bucket di destinazione). Ad esempio, la seguente istruzione `Resource` mostra come concedere questa autorizzazione al bucket di destinazione:

  ```
  {
    "Effect":"Allow",
    "Action":[
      "s3:ObjectOwnerOverrideToBucketOwner"
    ],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
  }
  ```
+ Se il bucket di destinazione è di proprietà di un altro account, il proprietario del bucket di origine deve concedere l'autorizzazione `s3:ObjectOwnerOverrideToBucketOwner` al proprietario del bucket di origine. Per utilizzare la seguente policy di esempio, sostituisci `user input placeholders` con le tue informazioni. 

------
#### [ JSON ]

****  

  ```
  {
    "Version":"2012-10-17",		 	 	 
    "Id": "Policy1644945280205",
    "Statement": [
      {
        "Sid": "Stmt1644945277847",
        "Effect": "Allow",
        "Principal": {
          "AWS": "arn:aws:iam::123456789101:role/s3-replication-role"
        },
        "Action": [
          "s3:ReplicateObject",
          "s3:ReplicateTags",
          "s3:ObjectOwnerOverrideToBucketOwner"
        ],
        "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
      }
    ]
  }
  ```

------
**Nota**  
Se le impostazioni dell'opzione Proprietà dell'oggetto del bucket di destinazione includono **Bucket owner enforced**, non è necessario aggiornare l'impostazione su **Assegna la proprietà degli oggetti al proprietario del bucket di destinazione** nella regola di replica. La modifica della proprietà dell'oggetto avverrà per impostazione predefinita. Per ulteriori informazioni sulla modifica della proprietà della replica, consulta [Modifica del proprietario della replica](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-change-owner.html).
+ Se stai impostando la configurazione di replica in uno scenario con più account, in cui i bucket di origine e di destinazione sono di proprietà di diversi Account AWS, i bucket di destinazione non possono essere configurati come bucket Requester Pays. Per ulteriori informazioni, consulta [Utilizzo dei bucket per uso generico con pagamento a carico del richiedente per archiviazione e trasferimenti di dati](RequesterPaysBuckets.md).
+ Se gli oggetti di origine di un bucket sono crittografati mediante crittografia lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS), la regola di replica deve essere configurata per includere oggetti con crittografia AWS KMS. Assicurati di selezionare **Replica oggetti crittografati con AWS KMS** nelle impostazioni dell'opzione **Crittografia** nella console Amazon S3. Quindi, seleziona una AWS KMS chiave per crittografare gli oggetti di destinazione.
**Nota**  
Se il bucket di destinazione si trova in un account diverso, specifica una chiave gestita dal AWS KMS cliente di proprietà dell'account di destinazione. Non utilizzare la chiave predefinita gestita da Amazon S3 (`aws/s3`). L'utilizzo della chiave predefinita crittografa gli oggetti con la chiave gestita da Amazon S3 di proprietà dell'account di origine, impedendo che l'oggetto venga condiviso con un altro account. Di conseguenza, l'account di destinazione non sarà in grado di accedere agli oggetti nel bucket di destinazione.

  Per utilizzare una AWS KMS chiave che appartiene all'account di destinazione per crittografare gli oggetti di destinazione, l'account di destinazione deve concedere le `kms:Encrypt` autorizzazioni `kms:GenerateDataKey` e al ruolo di replica nella politica delle chiavi KMS. Per utilizzare la seguente istruzione di esempio nella policy della chiave KMS, sostituisci `user input placeholders` con le tue informazioni:

  ```
  {    
      "Sid": "AllowS3ReplicationSourceRoleToUseTheKey",
      "Effect": "Allow",
      "Principal": {
          "AWS": "arn:aws:iam::123456789101:role/s3-replication-role"
      },
      "Action": ["kms:GenerateDataKey", "kms:Encrypt"],
      "Resource": "*"
  }
  ```

  Se usi un asterisco (`*`) per l'istruzione `Resource` nella policy della chiave AWS KMS , la policy concede l'autorizzazione all'uso della chiave KMS solo per il ruolo di replica. La policy non consente al ruolo di replica di aumentare il livello delle proprie autorizzazioni. 

  Per impostazione predefinita, la policy della chiave KMS concede all'utente root le autorizzazioni complete per la chiave. Queste autorizzazioni possono essere delegate ad altri utenti nello stesso account. A meno che non siano presenti istruzioni `Deny` nella policy della chiave KMS di origine, è sufficiente utilizzare una policy IAM per concedere le autorizzazioni del ruolo di replica alla chiave KMS di origine.
**Nota**  
Le policy della chiave KMS che limitano l'accesso a intervalli CIDR, endpoint del cloud privato virtuale (VPC) o punti di accesso S3 specifici possono causare la mancata riuscita della replica.

  Se le chiavi KMS di origine o destinazione concedono autorizzazioni in base al contesto di crittografia, verifica che le chiavi dei bucket Amazon S3 siano attivate per i bucket. Se le chiavi dei bucket Amazon S3 sono attive per i bucket, il contesto di crittografia deve essere la risorsa a livello di bucket, come segue:

  ```
  "kms:EncryptionContext:arn:aws:arn": [
       "arn:aws:s3:::amzn-s3-demo-source-bucket"
       ]
  "kms:EncryptionContext:arn:aws:arn": [
       "arn:aws:s3:::amzn-s3-demo-destination-bucket"
       ]
  ```

  Oltre alle autorizzazioni concesse dalla policy della chiave KMS, l'account di origine deve aggiungere le seguenti autorizzazioni minime alla policy IAM del ruolo di replica:

  ```
  {
      "Effect": "Allow",
      "Action": [
          "kms:Decrypt",
          "kms:GenerateDataKey"
      ],
      "Resource": [
          "Source-KMS-Key-ARN"
      ]
  },
  {
      "Effect": "Allow",
      "Action": [
          "kms:GenerateDataKey",
          "kms:Encrypt"
      ],
      "Resource": [
          "Destination-KMS-Key-ARN"
      ]
  }
  ```
**Importante**  
Se utilizzi S3 Batch Replication per replicare set di dati su più regioni e in precedenza il tipo di crittografia lato server degli oggetti era stato aggiornato da SSE-S3 a SSE-KMS, potresti aver bisogno di autorizzazioni aggiuntive. Nel bucket `kms:decrypt` della regione di origine, devi disporre delle autorizzazioni. Quindi, avrai bisogno delle `kms:encrypt` autorizzazioni `kms:decrypt` e per il bucket nella regione di destinazione.

  Per ulteriori informazioni su come replicare oggetti crittografati con AWS KMS, vedere [Replicazione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-walkthrough-4.html) di oggetti crittografati.
+ Se il bucket di destinazione è di proprietà di un altro Account AWS, verifica che il proprietario del bucket disponga di una politica del bucket sul bucket di destinazione che consenta al proprietario del bucket di origine di replicare gli oggetti. Per vedere un esempio, consulta [Configurazione della replica per i bucket in account diversi](replication-walkthrough-2.md).
+ Per utilizzare Object Lock con la replica, devi concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) che usi per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Utilizzo di Object Lock con la replica S3](object-lock-managing.md#object-lock-managing-replication).
+ Se i tuoi oggetti non si replicano anche dopo aver convalidato le autorizzazioni, verifica la presenza di eventuali istruzioni `Deny` esplicite nelle seguenti posizioni:
  + Le istruzioni `Deny` nelle policy di bucket di origine o di destinazione. La replica non riesce se la policy del bucket nega l'accesso al ruolo di replica per una delle seguenti operazioni:

    Bucket di origine:

    ```
    1.            "s3:GetReplicationConfiguration",
    2.            "s3:ListBucket",
    3.            "s3:GetObjectVersionForReplication",
    4.            "s3:GetObjectVersionAcl",
    5.            "s3:GetObjectVersionTagging"
    ```

    Bucket di destinazione:

    ```
    1.            "s3:ReplicateObject",
    2.            "s3:ReplicateDelete",
    3.            "s3:ReplicateTags"
    ```
  + Le istruzioni `Deny` o i limiti delle autorizzazione associati al ruolo IAM possono causare la mancata esecuzione della replica.
  + `Deny`le istruzioni nelle policy di controllo del AWS Organizations servizio (SCPs) allegate agli account di origine o di destinazione possono causare il fallimento della replica.
  + `Deny`le istruzioni nelle policy di controllo AWS Organizations delle risorse (RCPs) allegate ai bucket di origine o di destinazione possono causare il fallimento della replica.
+ Se la replica di un oggetto non è presente nel bucket di destinazione, il problema a livello di replica potrebbe essere dovuto alle cause seguenti:
  + Amazon S3 non replica un oggetto in un bucket di origine che è una replica creata da un'altra configurazione di replica. Se, ad esempio, imposti una configurazione di replica dal bucket A al bucket B al bucket C, Amazon S3 non replica le repliche degli oggetti del bucket B nel bucket C.
  + Il proprietario del bucket di origine può concedere altre Account AWS autorizzazioni per caricare oggetti. Per impostazione predefinita, il proprietario del bucket di origine non dispone di autorizzazioni per gli oggetti creati da altri account. La configurazione di replica esegue la replica solo degli oggetti per i quali il proprietario del bucket di origine dispone delle autorizzazioni di accesso. Per evitare questo problema, il proprietario del bucket di origine può concedere altre Account AWS autorizzazioni per creare oggetti in modo condizionale, richiedendo autorizzazioni di accesso esplicite su tali oggetti. Per un esempio di policy, consulta [Concedere autorizzazioni multi-account per il caricamento di oggetti a garanzia del controllo completo da parte del proprietario del bucket](example-bucket-policies.md#example-bucket-policies-acl-2).
+ Supponiamo di aggiungere nella configurazione della replica una regola per replicare un sottoinsieme di oggetti con un tag specifico. In questo caso, è necessario assegnare il valore e la chiave del tag specifici al momento della creazione dell'oggetto per permettere ad Amazon S3 di replicare l'oggetto. Se prima crei un oggetto e quindi aggiungi il tag all'oggetto esistente, Amazon S3 non replica l'oggetto. 
+ Usare la funzionalità Notifiche di eventi Amazon S3 per inviare un avviso nei casi in cui gli oggetti non vengono replicati nella Regione AWS di destinazione. Le notifiche di eventi di Amazon S3 sono disponibili tramite Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oppure. AWS Lambda Per ulteriori informazioni, consulta [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](replication-metrics-events.md).

  Puoi anche visualizzare i motivi degli errori di replica usando la funzionalità Notifiche eventi Amazon S3. Per esaminare l'elenco dei motivi degli errori, consulta [Motivi degli errori di replica Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-failure-codes.html).

## Errori di replica in batch
<a name="troubleshoot-batch-replication-errors"></a>

Per risolvere i problemi relativi agli oggetti che non vengono replicati nel bucket di destinazione, controllare i diversi tipi di autorizzazioni per i bucket, il ruolo di replica e il ruolo IAM utilizzati per creare il processo di replica in batch. Inoltre, occorre assicurarsi di controllare le impostazioni Blocco dell'accesso pubblico e le impostazioni Proprietà oggetti S3 dei bucket.

Per ulteriori suggerimenti per la risoluzione dei problemi relativi all'utilizzo di Operazioni in batch, consulta [Risoluzione dei problemi relativi a Operazioni in batch S3](troubleshooting-batch-operations.md). 

Se hai configurato la replica e gli oggetti non si replicano, vedi [Perché i miei oggetti Amazon S3 non si replicano quando configuro la replica tra i](https://repost.aws/knowledge-center/s3-troubleshoot-replication) miei bucket? AWS re:Post nel Knowledge Center.

Durante l'utilizzo della replica in batch, è possibile che si verifichi uno dei seguenti errori:
+ La generazione del manifesto non ha trovato chiavi corrispondenti ai criteri di filtro.

  Questo errore può verificarsi per uno dei seguenti motivi:
  + Quando gli oggetti nel bucket di origine vengono archiviati nelle classi di storage Recupero flessibile Amazon S3 Glacier o S3 Glacier Deep Archive.

    Per utilizzare la replica in batch su questi oggetti, è innanzitutto necessario ripristinarli nella classe di storage S3 Standard utilizzando un'operazione **Ripristino** (`S3InitiateRestoreObjectOperation`) in un processo di operazioni in batch. Per ulteriori informazioni, consulta [Ripristino di un oggetto archiviato](restoring-objects.md) e [Ripristino di oggetti (operazioni in batch)](batch-ops-initiate-restore-object.md). Dopo aver ripristinato gli oggetti, è possibile replicarli utilizzando un processo di replica in batch.
  + Quando i criteri di filtro forniti non corrispondono a nessun oggetto valido nel bucket di origine.

    Verificare e correggere i criteri di filtro. Ad esempio, nella regola Replica in batch, i criteri di filtro cercano tutti gli oggetti nel bucket di origine con il prefisso `Tax/`. Se il nome del prefisso è stato inserito in modo errato, con una barra all'inizio e alla fine `/Tax/` anziché solo alla fine, non viene trovato alcun oggetto S3. Per risolvere l'errore, correggere il prefisso, in questo caso, da `/Tax/` in `Tax/` nella regola di replica.
+ Lo stato dell'operazione in batch non è riuscito e il motivo è: non è stato possibile scrivere il report del processo nel bucket dei report.

  Questo errore si verifica se il ruolo IAM utilizzato per il processo Operazioni in batch non è in grado di inserire il report di completamento nella posizione specificata al momento della creazione del processo. Per risolvere questo problema, verificare che il ruolo IAM disponga dell'autorizzazione `s3:PutObject` per il bucket in cui si desidera salvare il report di completamento di Operazioni in batch. È consigliabile inviare il report a un bucket diverso dal bucket di origine.
+ L'operazione in batch è stata completata con errori e il totale degli errori non è 0.

  Questo errore si verifica in presenza di problemi relativi ad autorizzazioni oggetti insufficienti per il processo di replica in batch in esecuzione. Se si utilizza una regola di replica per il processo di replica in batch, assicurarsi che il ruolo IAM utilizzato per la replica disponga delle autorizzazioni appropriate per accedere agli oggetti dal bucket di origine o di destinazione. Puoi anche controllare il [rapporto sul completamento della replica in batch](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-batch-replication-batch.html#batch-replication-completion-report) per esaminare il [motivo specifico dell'errore di Replica Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-failure-codes.html).
+ Il processo batch è stato eseguito correttamente ma il numero di oggetti previsti nel bucket di destinazione non è lo stesso.

  Questo errore si verifica quando c'è una mancata corrispondenza tra gli oggetti elencati nel manifesto fornito nel processo di replica in batch e i filtri selezionati al momento della creazione del processo. È possibile che questo messaggio venga visualizzato anche quando gli oggetti nel bucket di origine non corrispondono a nessuna regola di replica e non sono inclusi nel manifesto generato.

### Gli errori relativi alle operazioni in batch si verificano dopo l'aggiunta di una nuova regola di replica a una configurazione della replica esistente
<a name="new-replication-rule"></a>

Il processo Operazioni in batch tenta di eseguire la replica degli oggetti esistenti per ogni regola nella configurazione della replica del bucket di origine. In caso di problemi con una delle regole di replica esistenti, è possibile che vengano restituiti errori. 

Il report di completamento del processo Operazioni in batch spiega i motivi della mancata esecuzione del processo. Per visualizzare un elenco di errori comuni, consulta [Motivi degli errori di replica Amazon S3](replication-metrics-events.md#replication-failure-codes).

# Monitoraggio della replica con parametri, notifiche di eventi e stati
<a name="replication-metrics"></a>

È possibile monitorare le configurazioni di replica in tempo reale e i processi Replica in batch S3 tramite i seguenti meccanismi: 
+ Parametri di **replica S3: quando abiliti i parametri** di replica S3, CloudWatch Amazon emette parametri che puoi utilizzare per tenere traccia dei byte in sospeso, delle operazioni in sospeso e della latenza di replica a livello di regola di replica. Puoi visualizzare i parametri di replica S3 tramite la console Amazon S3 e la console Amazon. CloudWatch Nella console Amazon S3 è possibile visualizzare questi parametri nella scheda **Parametri** del bucket di origine. Per ulteriori informazioni sui parametri di Replica S3, consulta [Utilizzo dei parametri di Replica S3](repl-metrics.md). 
+ **Parametri di S3 Storage Lens**: oltre ai parametri di Replica S3, è possibile utilizzare i parametri di Protezione dati relativi alla replica forniti dai pannelli di controllo di S3 Storage Lens. Ad esempio, se si utilizzano i parametri gratuiti di S3 Storage Lens, è possibile visualizzare parametri come il numero totale di byte replicati dal bucket di origine o il numero di oggetti replicati dal bucket di origine. 

  Per verificare la posizione complessiva di replica, è possibile abilitare parametri avanzati in S3 Storage Lens. Con i parametri avanzati di S3 Storage Lens, è possibile vedere di quante regole di vario tipo si dispone, incluso il numero di regole di replica con una destinazione di replica non valida. 

  Per ulteriori informazioni sull'utilizzo dei parametri di replica in S3 Storage Lens, consulta [Visualizzazione dei parametri di replica nei pannelli di controllo di S3 Storage Lens](viewing-replication-metrics-storage-lens.md).
+ **Notifiche di eventi S3**: S3 Event Notifications può inviarti notifiche a livello di oggetto nei casi in cui gli oggetti non si replicano nella loro destinazione Regione AWS o quando gli oggetti non vengono replicati entro determinate soglie. Notifiche di eventi S3 fornisce i seguenti tipi di eventi di replica: `s3:Replication:OperationFailedReplication`, `s3:Replication:OperationMissedThreshold`, `s3:Replication:OperationReplicatedAfterThreshold` e `s3:Replication:OperationNotTracked`. 

  Gli eventi Amazon S3 sono disponibili tramite Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oppure. AWS Lambda Per ulteriori informazioni, consulta [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](replication-metrics-events.md).
+ **Valori dello stato della replica**: è possibile recuperare anche lo stato della replica degli oggetti. Lo stato della replica consente di determinare lo stato corrente di un oggetto sottoposto a replica. Lo stato della replica di un oggetto di origine restituirà `PENDING`, `COMPLETED` o `FAILED`. Lo stato della replica di una replica restituirà `REPLICA`. 

  È anche possibile utilizzare i valori dello stato della replica durante la creazione di processi di Replica in batch S3. Ad esempio questi valori di stato possono essere utilizzati per replicare gli oggetti che non sono mai stati replicati o la cui replica non è andata a buon fine. 

  Per ulteriori informazioni sul recupero dello stato della replica degli oggetti, consulta [Ottenimento delle informazioni sullo stato della replica](replication-status.md). Per ulteriori informazioni sull'utilizzo di questi valori con Replica in batch, consulta [Filtri per i processi Batch Replication](s3-batch-replication-batch.md#batch-replication-filters).

**Topics**
+ [Utilizzo dei parametri di Replica S3](repl-metrics.md)
+ [Visualizzazione dei parametri di replica nei pannelli di controllo di S3 Storage Lens](viewing-replication-metrics-storage-lens.md)
+ [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](replication-metrics-events.md)
+ [Ottenimento delle informazioni sullo stato della replica](replication-status.md)

# Utilizzo dei parametri di Replica S3
<a name="repl-metrics"></a>

Le metriche di replica S3 forniscono metriche dettagliate per le regole nella configurazione di replica. Con i parametri di replica, puoi monitorare l' minute-by-minuteavanzamento tenendo traccia dei byte in sospeso, delle operazioni in sospeso, delle operazioni che non hanno avuto esito positivo e della latenza di replica.

**Nota**  
I parametri di replica S3 vengono fatturati alla stessa tariffa dei parametri personalizzati di Amazon. CloudWatch Per ulteriori informazioni, consulta i [ CloudWatchprezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/).
Se utilizzi S3 Replication Time Control, Amazon CloudWatch inizia a riportare i parametri di replica 15 minuti dopo aver abilitato S3 RTC sulla rispettiva regola di replica. 

I parametri di replica S3 vengono attivati automaticamente quando si abilita il controllo del tempo di replica di S3 (S3 RTC). È anche possibile abilitare i parametri di Replica S3 indipendentemente da S3 RTC durante [la creazione o la modifica di una regola](replication-walkthrough1.md). La funzionalità di controllo del tempo di replica di S3 (S3 RTC) include altre funzionalità, ad esempio un Accordo sul livello di servizio (SLA) e notifiche per soglie non raggiunte. Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).

Quando i parametri di replica S3 sono abilitati, Amazon S3 pubblica i seguenti parametri su Amazon. CloudWatch CloudWatchle metriche vengono fornite con la massima diligenza possibile.


| Nome parametro | Descrizione parametro | A quali oggetti si applica questo parametro? | In quale Regione viene pubblicato questo parametro? | Questo parametro viene ancora pubblicato se il bucket di destinazione viene eliminato? | Questo parametro viene ancora pubblicato se la replica non avviene? | 
| --- | --- | --- | --- | --- | --- | 
| **Byte in attesa di replica** |  Numero totale di byte di oggetti in attesa di replica per una determinata regola di replica.  | Questo parametro si applica solo ai nuovi oggetti replicati con la replica tra Regioni di S3 (S3 CRR) o la replica nella stessa Regione di S3 (S3 SRR). | Questo parametro viene pubblicato nella Regione del bucket di destinazione. | No | Sì | 
| **Latenza di replica** |  Numero massimo di secondi in base ai quali il bucket di destinazione della replica è dietro al bucket di origine per una determinata regola di replica.  | Questo parametro si applica solo ai nuovi oggetti replicati con S3 CRR o S3 SRR. | Questo parametro viene pubblicato nella Regione del bucket di destinazione. | No | Sì | 
| **Operazioni in attesa di replica** |  Numero di operazioni in attesa di replica per una determinata regola di replica. Questa metrica tiene traccia delle operazioni relative agli oggetti, ai marker di eliminazione, ai tag, agli elenchi di controllo degli accessi (ACLs) e a S3 Object Lock.  | Questo parametro si applica solo ai nuovi oggetti replicati con S3 CRR o S3 SRR. | Questo parametro viene pubblicato nella Regione del bucket di destinazione. | No | Sì | 
| **Operazioni di replica non riuscite** |  Numero di operazioni che non sono state replicate per una determinata regola di replica. Questa metrica tiene traccia delle operazioni relative agli oggetti, ai marker di eliminazione, ai tag, agli elenchi di controllo degli accessi (ACLs) e al blocco degli oggetti. **Operazioni di replica non riuscite** tiene traccia degli errori di Replica Amazon S3 aggregati a intervalli di un minuto. Per identificare gli oggetti specifici la cui replica non è riuscita e i relativi motivi, iscriviti all'evento `OperationFailedReplication` mediante la funzionalità Notifiche eventi Amazon S3. Per ulteriori informazioni, consulta [Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3](replication-metrics-events.md).  |  Questo parametro si applica sia ai nuovi oggetti replicati con S3 CRR o S3 SRR sia agli oggetti esistenti replicati con S3 Batch Replication.  Se un job di S3 Batch Replication non viene eseguito affatto, i parametri non vengono inviati ad Amazon. CloudWatch Ad esempio, il processo non verrà eseguito se non disponi delle autorizzazioni necessarie per eseguire un processo Replica Amazon S3 o se i tag o il prefisso nella configurazione della replica non corrispondono.   | Questo parametro viene pubblicato nella Regione del bucket di origine. | Sì | No | 

Per informazioni sull'utilizzo di queste metriche in, consulta. CloudWatch [Parametri di replica S3 in CloudWatch](metrics-dimensions.md#s3-cloudwatch-replication-metrics)

## Abilitazione dei parametri di replica S3
<a name="enabling-replication-metrics"></a>

Puoi iniziare a utilizzare i parametri di replica S3 con una regola di replica nuova o esistente. Per istruzioni complete sulla creazione delle regole di replica, consulta [Configurazione della replica per i bucket nello stesso account](replication-walkthrough1.md). Puoi decidere di applicare la regola di replica a un intero bucket S3 o a oggetti Amazon S3 con un prefisso o un tag specifico.

In questo argomento vengono fornite le istruzioni per abilitare le metriche di Replica S3 nella configurazione della replica quando i bucket di origine e destinazione sono di proprietà dello stesso o di diversi Account AWS.

Per abilitare le metriche di replica utilizzando AWS Command Line Interface (AWS CLI), è necessario aggiungere una configurazione di replica al bucket di origine con enabled. `Metrics` In questa configurazione di esempio, gli oggetti con il prefisso `Tax` vengono replicati nel bucket di destinazione `amzn-s3-demo-bucket` e vengono generate le metriche per tali oggetti.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
                "Metrics": {
                    "Status": "Enabled"
                }
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

## Visualizzazione dei parametri di replica
<a name="viewing-replication-metrics"></a>

I parametri di Replica S3 sono visualizzati nella scheda **Parametri** del bucket per uso generico di origine nella console Amazon S3. Queste CloudWatch metriche Amazon sono disponibili anche nella CloudWatch console Amazon. Quando abiliti i parametri di replica S3, Amazon CloudWatch emette parametri che puoi utilizzare per tenere traccia dei byte in sospeso, delle operazioni in sospeso e della latenza di replica a livello di regola di replica. 

I parametri di Replica S3 vengono attivati automaticamente quando si abilita la replica con la funzionalità di controllo del tempo di replica di S3 (S3 RTC) utilizzando la console Amazon S3 o la REST API di Amazon S3. È anche possibile abilitare i parametri di Replica S3 indipendentemente da S3 RTC durante [la creazione o la modifica di una regola](replication-walkthrough1.md).

Se utilizzi S3 Replication Time Control, Amazon CloudWatch inizia a riportare i parametri di replica 15 minuti dopo aver abilitato S3 RTC sulla rispettiva regola di replica. Per ulteriori informazioni, consulta [Utilizzo dei parametri di Replica S3](#repl-metrics).

Le metriche di replica tengono traccia della regola della configurazione di replica. IDs Un ID regola di replica può essere specifico per un prefisso, un tag o una combinazione di entrambi.

 Per ulteriori informazioni sui CloudWatch parametri per Amazon S3, consulta. [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md)

**Prerequisiti**  
Creare una regola di replica che dispone di parametri di Replica S3 abilitati. Per ulteriori informazioni, consulta [Abilitazione dei parametri di replica S3](#enabling-replication-metrics).

**Per visualizzare i parametri di Replica S3 tramite la scheda **Parametri** del bucket di origine**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**. 

1. Nell’elenco dei bucket seleziona il nome del bucket contenente gli oggetti per cui desideri ottenere le metriche di replica.

1. Seleziona la scheda **Parametri**.

1. In **Parametri di replica**, scegli le regole di replica per le quali desideri visualizzare i parametri.

1. Seleziona **Visualizza grafici**.

   Amazon S3 visualizza i grafici relativi a **Latenza di replica**, **Byte in attesa di replica**, **Operazioni in attesa di replica** e **Operazioni di replica non riuscite** per le regole selezionate.

# Visualizzazione dei parametri di replica nei pannelli di controllo di S3 Storage Lens
<a name="viewing-replication-metrics-storage-lens"></a>

Oltre ai [parametri di Replica S3](repl-metrics.md), è possibile utilizzare i parametri di Protezione dati relativi alla replica forniti da S3 Storage Lens. S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che puoi utilizzare per avere una panoramica completa a livello di organizzazione sull'utilizzo e sulle attività relative all'archiviazione di oggetti. Per ulteriori informazioni, consulta [Utilizzo di S3 Storage Lens per proteggere i dati](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-data-protection.html#storage-lens-data-protection-replication-rule). 

A un costo aggiuntivo, è possibile eseguire l'aggiornamento e ricevere due livelli di parametri di S3 Storage Lens: parametri gratuiti e parametri e suggerimenti avanzati. I parametri avanzati e i suggerimenti ti consentono di accedere a parametri e funzionalità aggiuntive per ottenere informazioni dettagliate sul tuo spazio di archiviazione. Per maggiori informazioni sui prezzi di S3 Storage Lens, consulta i [prezzi di Amazon S3](https://aws.amazon.com/s3/pricing). 

Se si utilizzano i parametri gratuiti di S3 Storage Lens, è possibile visualizzare parametri come il numero totale di byte replicati dal bucket di origine o il numero di oggetti replicati dal bucket di origine. 

Per verificare la posizione complessiva di replica, è possibile abilitare parametri avanzati in S3 Storage Lens. Con i parametri avanzati di S3 Storage Lens, è possibile vedere di quante regole di vario tipo si dispone, incluso il numero di regole di replica con una destinazione di replica non valida. 

Per un elenco completo dei parametri di S3 Storage Lens, inclusi i parametri di replica presenti in ogni livello, consulta il [Glossario dei parametri di S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html). 

**Prerequisiti**  
Creare una [configurazione della replica in tempo reale](replication-how-setup.md) o un [processo di Replica in batch S3](s3-batch-replication-batch.md). 

**Per visualizzare i parametri di replica in Amazon S3 Storage Lens**

1. Creare un pannello di controllo di S3 Storage Lens. Per step-by-step istruzioni, consulta[Utilizzo della console S3](storage_lens_creating_dashboard.md#storage_lens_console_creating).

1. (Facoltativo) Durante la configurazione del pannello di controllo, se desideri visualizzare tutti i parametri di replica di S3 Storage Lens, seleziona **Parametri e raccomandazioni avanzati**, quindi seleziona **Parametri avanzati di protezione dei dati**. Per un elenco completo dei parametri, consulta [Glossario dei parametri di S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html).

   Se si abilitano i suggerimenti e i parametri avanzati, è possibile ottenere ulteriori informazioni sulle configurazioni di replica. I parametri relativi al conteggio delle regole di replica di S3 Storage Lens possono essere utilizzati per ottenere informazioni dettagliate sui bucket configurati per la replica. Queste informazioni includono le regole di replica all'interno di e tra bucket e regioni. Per ulteriori informazioni, consulta [Conteggiare il numero totale di regole di replica per ogni bucket](storage-lens-data-protection.md#storage-lens-data-protection-replication-rule).

1. Dopo aver creato il pannello di controllo, aprilo e scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), scegli **Data protection** (Protezione dati). Quindi deseleziona **Summary** (Riepilogo).

1. Per filtrare l'elenco **Bucket** in modo da visualizzare solo i parametri di replica, scegli l'icona delle preferenze (![\[The preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri di protezione dei dati finché non rimangono selezionati solo i parametri di replica.

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Continua**.

# Ricezione di eventi di errore di replica con notifiche di eventi Amazon S3
<a name="replication-metrics-events"></a>

Se sulla propria configurazione della replica sono stati abilitati i parametri di Replica S3, è possibile configurare Notifiche di eventi Amazon S3 per inviare una notifica quando gli oggetti non vengono replicati nella loro Regione AWS di destinazione. Se si è abilitato il controllo del tempo di replica di S3 (S3 RTC) sulla propria configurazione della replica, è anche possibile ricevere una notifica quando gli oggetti non vengono replicati entro la soglia S3 RTC di 15 minuti per la replica. 

Utilizzando i seguenti tipi di `Replication` eventi, è possibile monitorare l' minute-by-minuteavanzamento degli eventi di replica tenendo traccia dei byte in sospeso, delle operazioni in sospeso e della latenza di replica. Per ulteriori informazioni sui parametri di Replica S3, consulta [Utilizzo dei parametri di Replica S3](repl-metrics.md).
+ Il tipo di evento `s3:Replication:OperationFailedReplication` notifica quando un oggetto idoneo per la replica non è stato replicato. 
+ Il tipo di evento `s3:Replication:OperationMissedThreshold` notifica quando un oggetto idoneo per la replica che utilizza S3 RTC supera la soglia di 15 minuti per la replica.
+ Il tipo di evento `s3:Replication:OperationReplicatedAfterThreshold` notifica quando un oggetto idoneo per la replica che utilizza S3 RTC viene replicato dopo la soglia di 15 minuti.
+ Il tipo di evento `s3:Replication:OperationNotTracked` notifica quando un oggetto idoneo per la replica in tempo reale (replica nella stessa Regione [SRR] o replica tra Regioni [CRR]) non è più monitorato dai parametri di replica.

Per una descrizione completa dei tipi di eventi di replica supportati, consulta [Tipi di eventi supportati per SQS, SNS e Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types).

Per l'elenco dei codici di errore acquisiti da Notifiche di eventi S3, consulta [Motivi degli errori di replica Amazon S3](#replication-failure-codes).

Puoi ricevere notifiche di eventi Amazon S3 utilizzando Amazon Simple Queue Service (Amazon SQS), Servizio di notifica semplice Amazon (Amazon SNS) o AWS Lambda. Per ulteriori informazioni, consulta [Notifiche di eventi Amazon S3](EventNotifications.md).

Per istruzioni su come configurare Notifiche di eventi Amazon S3, consulta [Abilitare le notifiche di eventi](how-to-enable-disable-notification-intro.md).

**Nota**  
Oltre ad abilitare le notifiche degli eventi, assicurarsi di abilitare anche i parametri di Replica S3. Per ulteriori informazioni, consulta [Abilitazione dei parametri di replica S3](repl-metrics.md#enabling-replication-metrics).

Quello che segue è un esempio di un messaggio inviato da Amazon S3 per pubblicare un evento `s3:Replication:OperationFailedReplication`. Per ulteriori informazioni, consulta [Struttura del messaggio di evento](notification-content-structure.md).

```
{
  "Records": [
    {
      "eventVersion": "2.2",
      "eventSource": "aws:s3",
      "awsRegion": "us-east-1",
      "eventTime": "2024-09-05T21:04:32.527Z",
      "eventName": "Replication:OperationFailedReplication",
      "userIdentity": {
        "principalId": "s3.amazonaws.com"
      },
      "requestParameters": {
        "sourceIPAddress": "s3.amazonaws.com"
      },
      "responseElements": {
        "x-amz-request-id": "123bf045-2b4b-4ca8-a211-c34a63c59426",
        "x-amz-id-2": "12VAWNDIHnwJsRhTccqQTeAPoXQmRt22KkewMV8G3XZihAuf9CLDdmkApgZzudaIe2KlLfDqGS0="
      },
      "s3": {
        "s3SchemaVersion": "1.0",
        "configurationId": "ReplicationEventName",
        "bucket": {
          "name": "amzn-s3-demo-bucket1",
          "ownerIdentity": {
            "principalId": "111122223333"
          },
          "arn": "arn:aws:s3:::amzn-s3-demo-bucket1"
        },
        "object": {
          "key": "replication-object-put-test.png",
          "size": 520080,
          "eTag": "e12345ca7e88a38428305d3ff7fcb99f",
          "versionId": "abcdeH0Xp66ep__QDjR76LK7Gc9X4wKO",
          "sequencer": "0066DA1CBF104C0D51"
        }
      },
      "replicationEventData": {
        "replicationRuleId": "notification-test-replication-rule",
        "destinationBucket": "arn:aws:s3:::amzn-s3-demo-bucket2",
        "s3Operation": "OBJECT_PUT",
        "requestTime": "2024-09-05T21:03:59.168Z",
        "failureReason": "AssumeRoleNotPermitted"
      }
    }
  ]
}
```

## Motivi degli errori di replica Amazon S3
<a name="replication-failure-codes"></a>

La seguente tabella elenca i motivi degli errori di replica in Amazon S3. È possibile visualizzare questi motivi ricevendo l'evento `s3:Replication:OperationFailedReplication` con Notifiche di eventi Amazon S3 e cercando il valore `failureReason`. 

Puoi visualizzare questi motivi di errore anche nei report di completamento della replica in batch in S3. Per ulteriori informazioni, consulta [Report di completamento della replica in batch](s3-batch-replication-batch.md#batch-replication-completion-report).


| Motivo dell'errore di replica | Description | 
| --- | --- | 
| `AssumeRoleNotPermitted` | Amazon S3 non può assumere il ruolo AWS Identity and Access Management (IAM) specificato nella configurazione di replica o nel job Batch Operations. | 
| `DstBucketInvalidRegion` | Il bucket di destinazione non è Regione AWS uguale a quello specificato dal job Batch Operations. Questo errore è specifico per la replica in batch. | 
| `DstBucketNotFound` | Amazon S3 non è in grado di trovare il bucket di destinazione specificato nella configurazione della replica. | 
| `DstBucketObjectLockConfigMissing` | Per replicare gli oggetti da un bucket di origine con la funzionalità di blocco degli oggetti abilitata, anche la destinazione deve avere il blocco degli oggetti abilitato. Questo errore indica che il blocco degli oggetti potrebbe non essere abilitato nel bucket di destinazione. Per ulteriori informazioni, consulta [Considerazioni su Object Lock](object-lock-managing.md). | 
| `DstBucketUnversioned` | Il controllo delle versioni non è abilitato per il bucket di destinazione S3. Per replicare gli oggetti con la funzionalità Replica Amazon S3, abilita il controllo delle versioni per bucket di destinazione. | 
| `DstDelObjNotPermitted` | Amazon S3 non è in grado di replicare i contrassegni di eliminazione nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateDelete` per il bucket di destinazione. | 
| `DstKmsKeyInvalidState` | La chiave AWS Key Management Service (AWS KMS) per il bucket di destinazione non è in uno stato valido. Rivedi e abilita la AWS KMS chiave richiesta. Per ulteriori informazioni sulla gestione delle AWS KMS chiavi, consulta [Key states of AWS KMS keys](https://docs.aws.amazon.com/kms/latest/developerguide/key-state.html) nella *AWS Key Management Service Developer Guide*. | 
| `DstKmsKeyNotFound` | La AWS KMS chiave configurata per il bucket di destinazione nella configurazione di replica non esiste. | 
| `DstMultipartCompleteNotPermitted` | Amazon S3 non è in grado di completare i caricamenti in più parti degli oggetti nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateObject` per il bucket di destinazione. | 
| `DstMultipartInitNotPermitted` | Amazon S3 non è in grado di avviare i caricamenti in più parti degli oggetti nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateObject` per il bucket di destinazione.  | 
| `DstMultipartUploadNotPermitted` | Amazon S3 non è in grado di caricare oggetti in più parti nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateObject` per il bucket di destinazione.  | 
| `DstObjectHardDeleted` | S3 Batch Replication non supporta la ripetizione della replica di oggetti eliminati con l'ID versione dell'oggetto del bucket di destinazione. Questo errore è specifico per la replica in batch. | 
| `DstPutAclNotPermitted` | Amazon S3 non è in grado di replicare gli elenchi di controllo degli accessi agli oggetti (ACLs) nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateObject` per il bucket di destinazione. | 
| `DstPutLegalHoldNotPermitted` | Amazon S3 non è in grado di impostare un blocco legale di Object Lock per l’oggetto di destinazione durante la replica di oggetti immutabili. È possibile che manchi l'autorizzazione `s3:PutObjectLegalHold` per il bucket di destinazione. Per ulteriori informazioni, consulta [Blocchi a fini giudiziari](object-lock.md#object-lock-legal-holds). | 
|  `DstPutObjectNotPermitted` | Amazon S3 non è in grado di replicare oggetti nel bucket di destinazione. Ciò può verificarsi quando mancano le autorizzazioni (`s3:ReplicateObject`o le `s3:ObjectOwnerOverrideToBucketOwner` autorizzazioni) richieste per il bucket di destinazione o quando la policy AWS KMS chiave non consente al ruolo di replica del bucket di origine di utilizzare la AWS KMS chiave (`kms:Decrypt`e le azioni) nel bucket di destinazione. `kms:GenerateDataKey*`  | 
|  `DstPutRetentionNotPermitted` | Amazon S3 non è in grado di impostare un periodo di conservazione degli oggetti di destinazione durante la replica di oggetti immutabili. È possibile che manchi l'autorizzazione `s3:PutObjectRetention` per il bucket di destinazione. | 
| `DstPutTaggingNotPermitted` | Amazon S3 non è in grado di replicare tag di oggetti nel bucket di destinazione. È possibile che manchi l'autorizzazione `s3:ReplicateObject` per il bucket di destinazione. | 
| `DstVersionNotFound ` | Amazon S3 non è in grado di trovare la versione dell'oggetto richiesta nel bucket di destinazione per cui devono essere replicati i metadati.  | 
| `InitiateReplicationNotPermitted` | Amazon S3 non è in grado di avviare la replica sugli oggetti. È possibile che manchi l'autorizzazione `s3:InitiateReplication` per il processo Operazioni in batch. Questo errore è specifico per la replica in batch. | 
| `SrcBucketInvalidRegion` | Il bucket di origine non è Regione AWS uguale a quello specificato dal job Batch Operations. Questo errore è specifico per la replica in batch. | 
| `SrcBucketNotFound` | Amazon S3 non è in grado di trovare il bucket di origine. | 
| `SrcBucketReplicationConfigMissing` | Amazon S3 non è riuscito a trovare una configurazione della replica per il bucket di origine. | 
| `SrcGetAclNotPermitted` |  Amazon S3 non è in grado di accedere all'oggetto nel bucket di origine per la replica. È possibile che manchi l'autorizzazione `s3:GetObjectVersionAcl` per l'oggetto del bucket di origine. Gli oggetti nel bucket di origine devono essere di proprietà del proprietario del bucket. Se ACLs sono abilitati, verifica se Object Ownership è impostato su Bucket owner preferred o Object writer. Se Proprietà dell'oggetto è impostata su Proprietario del bucket preferito, gli oggetti del bucket di origine devono avere l'ACL `bucket-owner-full-control` affinché il proprietario del bucket diventi il proprietario dell'oggetto. L'account di origine può assumere la proprietà di tutti gli oggetti nel proprio bucket impostando Object Ownership su Bucket owner, imposto e disabilitando. ACLs  | 
| `SrcGetLegalHoldNotPermitted` | Amazon S3 non è in grado di accedere alle informazioni di conservazione legale di S3 Object Lock. | 
| `SrcGetObjectNotPermitted` | Amazon S3 non è in grado di accedere all'oggetto nel bucket di origine per la replica. È possibile che manchi l'autorizzazione `s3:GetObjectVersionForReplication` per il bucket di origine.  | 
| `SrcGetRetentionNotPermitted` | Amazon S3 non è in grado di accedere alle informazioni del periodo di conservazione di S3 Object Lock. | 
| `SrcGetTaggingNotPermitted` | Amazon S3 non è in grado di accedere alle informazioni sui tag di oggetto dal bucket di origine. È possibile che manchi l'autorizzazione `s3:GetObjectVersionTagging` per il bucket di origine. | 
| `SrcHeadObjectNotPermitted` | Amazon S3 non è in grado di recuperare i metadati dell'oggetto dal bucket di origine. È possibile che manchi l'autorizzazione `s3:GetObjectVersionForReplication` per il bucket di origine.  | 
| `SrcKeyNotFound` | Amazon S3 non è in grado di trovare la chiave dell'oggetto di origine da replicare. L'oggetto di origine potrebbe essere stato eliminato prima del completamento della replica. | 
| `SrcKmsKeyInvalidState` | La AWS KMS chiave per il bucket di origine non è in uno stato valido. Rivedi e abilita la AWS KMS chiave richiesta. Per ulteriori informazioni sulla gestione delle AWS KMS chiavi, consulta [Key states of AWS KMS keys](https://docs.aws.amazon.com/kms/latest/developerguide/key-state.html) nella *AWS Key Management Service Developer Guide*. | 
| `SrcObjectNotEligible` | Alcuni oggetti non sono idonei per la replica. Ciò può essere dovuto alla classe di archiviazione dell'oggetto o ai tag dell'oggetto che non corrispondono alla configurazione di replica. | 
| `SrcObjectNotFound` | L'oggetto di origine non esiste. | 
| `SrcReplicationNotPending` | Amazon S3 ha già replicato questo oggetto. Questo oggetto non è più in attesa di replica. | 
| `SrcVersionNotFound` | Amazon S3 non è in grado di trovare la versione dell'oggetto di origine da replicare. La versione dell'oggetto di origine potrebbe essere stato eliminato prima del completamento della replica. | 

### Argomenti correlati
<a name="replication-metrics-related-topics"></a>

[Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md)

[Risoluzione dei problemi nella replica](replication-troubleshoot.md)

# Ottenimento delle informazioni sullo stato della replica
<a name="replication-status"></a>

Lo stato della replica consente di determinare lo stato corrente di un oggetto da replicare. Lo stato della replica di un oggetto di origine restituirà `PENDING`, `COMPLETED` o `FAILED`. Lo stato della replica di una replica restituirà `REPLICA`.

È anche possibile utilizzare i valori dello stato della replica durante la creazione di processi di Replica in batch S3. Ad esempio questi valori di stato possono essere utilizzati per replicare gli oggetti che non sono mai stati replicati o la cui replica non è andata a buon fine. Per ulteriori informazioni sull'utilizzo di questi valori con Replica in batch, consulta [Utilizzo delle informazioni sullo stato della replica con i processi di Replica in batch](#replication-status-batch-replication).

**Topics**
+ [Panoramica dello stato della replica](#replication-status-overview)
+ [Stato della replica in caso di replica su più bucket di destinazione](#replication-status-multiple-destinations)
+ [Stato della replica se è abilitata la sincronizzazione della modifica alla replica Amazon S3](#replication-status-replica-mod-syn)
+ [Utilizzo delle informazioni sullo stato della replica con i processi di Replica in batch](#replication-status-batch-replication)
+ [Ricerca dello stato di replica](#replication-status-usage)

## Panoramica dello stato della replica
<a name="replication-status-overview"></a>

Nella replica esistono un bucket di origine in cui si configura la replica e uno o più bucket di destinazione in cui Amazon S3 replica gli oggetti. Quando si richiede un oggetto (utilizzando `GetObject`) o i metadati di un oggetto (utilizzando `HeadObject`) da questi bucket, Amazon S3 restituisce l'intestazione `x-amz-replication-status` nella risposta: 
+ Quando richiedi un oggetto dal bucket di origine, Amazon S3 restituisce l'intestazione `x-amz-replication-status` se l'oggetto nella richiesta è idoneo per la replica. 

  Supponi, ad esempio, che nella configurazione di replica venga specificato il prefisso di oggetto `TaxDocs` che indica ad Amazon S3 di replicare solo gli oggetti con il prefisso del nome della chiave `TaxDocs`. Tutti gli oggetti caricati che hanno questo prefisso del nome della chiave, ad esempio `TaxDocs/document1.pdf`, verranno replicati. Per le richieste di oggetti con questo prefisso del nome della chiave, Amazon S3 restituisce l'intestazione `x-amz-replication-status` con uno dei valori seguenti per lo stato della replica dell'oggetto: `PENDING`, `COMPLETED` o `FAILED`.
**Nota**  
Se la replica dell'oggetto ha esito negativo dopo il caricamento di un oggetto, non è possibile provare a eseguirla di nuovo. È necessario caricare nuovamente l'oggetto oppure utilizzare Replica in batch S3 per replicare eventuali oggetti la cui replica non è riuscita. S3 Lifecycle blocca le azioni di scadenza e transizione su oggetti con stato di replica `PENDING` o`FAILED`. Per ulteriori informazioni su Replica in batch, consulta [Replica di oggetti esistenti con Replica in batch](s3-batch-replication-batch.md).   
Gli oggetti passano a uno `FAILED` stato per problemi come le autorizzazioni mancanti per i ruoli di replica, le autorizzazioni AWS Key Management Service (AWS KMS) o le autorizzazioni del bucket. In caso di errori temporanei, ad esempio se un bucket o una Regione non è disponibile, lo stato della replica non passerà a `FAILED`, ma rimarrà `PENDING`. Dopo che la risorsa torna online, Amazon S3 riprende la replica di tali oggetti.
+ Quando richiedi un oggetto dal bucket di destinazione, se l'oggetto nella richiesta è una replica creata da Amazon S3, Amazon S3 restituisce l'intestazione `x-amz-replication-status` con il valore `REPLICA`.

**Nota**  
Prima di eliminare un oggetto da un bucket di origine in cui è abilitata la replica, è consigliabile controllare lo stato della replica per assicurarsi che l'oggetto sia stato replicato.   
Se una configurazione del ciclo di vita S3 è abilitata nel bucket di origine, Amazon S3 sospende le azioni del ciclo di vita finché non contrassegna lo stato di replica dell'oggetto come. `COMPLETED` Se lo stato di replica è impostato`FAILED`, S3 Lifecycle continua a bloccare le azioni di scadenza e transizione sull'oggetto fino a quando non viene risolto il problema di replica sottostante. Per ulteriori informazioni, consulta [Ciclo di vita S3 e](lifecycle-and-other-bucket-config.md#lifecycle-and-replication).

## Stato della replica in caso di replica su più bucket di destinazione
<a name="replication-status-multiple-destinations"></a>

Quando si replicano oggetti in più bucket di destinazione, l'intestazione `x-amz-replication-status` funziona in modo diverso. L'intestazione dell'oggetto di origine restituisce un valore `COMPLETED` solo se la replica ha esito positivo su tutte le destinazioni. L'intestazione rimane al valore `PENDING` fino al completamento della replica per tutte le destinazioni. Se la replica su una o più destinazioni non riesce, viene restituita l'intestazione `FAILED`.

## Stato della replica se è abilitata la sincronizzazione della modifica alla replica Amazon S3
<a name="replication-status-replica-mod-syn"></a>

Quando le regole di replica abilitano la sincronizzazione delle modifiche alla replica Amazon S3, le repliche possono riportare stati diversi da `REPLICA`. Se le modifiche dei metadati sono in corso di replica, l'intestazione `x-amz-replication-status` restituisce `PENDING`. Se la sincronizzazione delle modifiche della replica non riesce a replicare i metadati, l'intestazione restituisce `FAILED`. Se i metadati vengono replicati correttamente, le repliche restituiscono l'intestazione `REPLICA`.

## Utilizzo delle informazioni sullo stato della replica con i processi di Replica in batch
<a name="replication-status-batch-replication"></a>

Quando si crea un processo di Replica in batch, è possibile specificare opzionalmente dei filtri aggiuntivi, ad esempio la data di creazione dell'oggetto e lo stato della replica, al fine di ridurre l'ambito del processo.

Puoi filtrare gli oggetti da replicare in base al valore `ObjectReplicationStatuses` fornendo uno o più dei seguenti valori:
+ `"NONE"`: indica che Amazon S3 non ha mai tentato di replicare l'oggetto in precedenza.
+ `"FAILED"`: indica che Amazon S3 ha tentato di replicare l'oggetto in precedenza ma la replica non è andata a buon fine.
+ `"COMPLETED"`: indica che Amazon S3 ha replicato correttamente l'oggetto in precedenza.
+ `"REPLICA"`: indica che si tratta di un oggetto di replica replicato da Amazon S3 da un'altra origine.

Per ulteriori informazioni sull'utilizzo di questi valori dello stato della replica con Replica in batch, consulta [Filtri per i processi Batch Replication](s3-batch-replication-batch.md#batch-replication-filters).

## Ricerca dello stato di replica
<a name="replication-status-usage"></a>

Per visualizzare lo stato della replica degli oggetti in un bucket, è possibile utilizzare lo strumento Inventario Amazon S3. Amazon S3 invia un file CSV al bucket di destinazione specificato nella configurazione dell'inventario. Puoi anche utilizzare Amazon Athena per eseguire una query sullo stato della replica nel report di inventario. Per ulteriori informazioni su Inventario Amazon S3, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

Puoi anche trovare lo stato della replica degli oggetti utilizzando la console Amazon S3,AWS CLI() o AWS Command Line Interface AWS l'SDK. 

### Utilizzo della console S3
<a name="replication-status-console"></a>

Nella console Amazon S3 è possibile visualizzare lo stato della replica di un oggetto nella pagina dei dettagli dell'oggetto.

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Scegli il nome del bucket di origine della replica nell'elenco **Bucket per uso generico**.

1. Nell'elenco **Oggetti**, seleziona il nome dell'oggetto. Viene visualizzata la pagina dei dettagli dell'oggetto. 

1. Nella scheda **Proprietà** scorrere verso il basso fino alla sezione **Panoramica della gestione degli oggetti**. In **Configurazioni di gestione**, controllare il valore in **Stato della replica**.

### Utilizzando il AWS CLI
<a name="replication-status-cli"></a>

Utilizzate il `head-object` comando AWS Command Line Interface (AWS CLI) per recuperare i metadati degli oggetti, come illustrato nell'esempio seguente. Sostituire `amzn-s3-demo-source-bucket1` con il nome del bucket di origine della replica e sostituire l'altro `user input placeholders` con le proprie informazioni.

```
aws s3api head-object --bucket amzn-s3-demo-source-bucket1 --key object-key --version-id object-version-id           
```

Il comando restituisce i metadati dell'oggetto, incluso l'elemento `ReplicationStatus` come illustrato nella risposta di esempio seguente.

```
{
   "AcceptRanges":"bytes",
   "ContentType":"image/jpeg",
   "LastModified":"Mon, 23 Mar 2015 21:02:29 GMT",
   "ContentLength":3191,
   "ReplicationStatus":"COMPLETED",
   "VersionId":"jfnW.HIMOfYiD_9rGbSkmroXsFj3fqZ.",
   "ETag":"\"6805f2cfc46c0f04559748bb039d69ae\"",
   "Metadata":{

   }
}
```

### Usando il AWS SDKs
<a name="replication-status-sdk"></a>

I seguenti frammenti di codice ottengono lo stato di replica utilizzando rispettivamente AWS SDK per Java e AWS SDK per .NET. 

------
#### [ Java ]

```
GetObjectMetadataRequest metadataRequest = new GetObjectMetadataRequest(bucketName, key);
ObjectMetadata metadata = s3Client.getObjectMetadata(metadataRequest);

System.out.println("Replication Status : " + metadata.getRawMetadataValue(Headers.OBJECT_REPLICATION_STATUS));
```

------
#### [ .NET ]

```
GetObjectMetadataRequest getmetadataRequest = new GetObjectMetadataRequest
    {
         BucketName = sourceBucket,
         Key        = objectKey
    };

GetObjectMetadataResponse getmetadataResponse = client.GetObjectMetadata(getmetadataRequest);
Console.WriteLine("Object replication status: {0}", getmetadataResponse.ReplicationStatus);
```

------

# Gestione del traffico multi-regione con punti di accesso multi-regione
<a name="MultiRegionAccessPoints"></a>

I punti di accesso multi-regione di Amazon S3 forniscono un endpoint globale che le applicazioni possono utilizzare per eseguire le richieste provenienti da bucket S3 situati in più Regioni AWS. È possibile utilizzare punti di accesso multiregionali per creare applicazioni multiregionali con la stessa architettura utilizzata in una singola Regione ed eseguirle ovunque nel mondo. Invece di inviare richieste sulla rete Internet pubblica e congestionata, i punti di accesso multi-regione offrono ad Amazon S3 la resilienza di rete integrata con l'accelerazione delle richieste basate su Internet. Le richieste di applicazioni effettuate all'endpoint globale di un punto di accesso multi-regione utilizzano [AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/) per l'instradamento automatico tramite la rete globale AWS al bucket S3 più vicino e con uno stato di instradamento attivo.

Se si verifica un'interruzione del traffico regionale, è possibile utilizzare i controlli di failover dei punti di accesso multi-regione per spostare il traffico delle richieste di dati S3 tra le Regioni AWS e reindirizzare il traffico S3 lontano dalle interruzioni in pochi minuti. È possibile anche testare la resilienza dell'applicazione rispetto a un'interruzione per eseguire il failover delle applicazioni ed eseguire simulazioni di disaster recovery. Se è necessario connettersi e accelerare le richieste a S3 dall'esterno di un VPC, è possibile semplificare le applicazioni e l'architettura di rete con i punti di accesso multi-regione di Amazon S3. Le richieste dei punti di accesso multi-regione vengono instradate sulla rete globale AWS e quindi di nuovo a S3 all'interno della Regione AWS, senza dover attraversare la rete Internet pubblica. Di conseguenza, è possibile creare applicazioni ad altissima disponibilità.

Durante la creazione e la configurazione dei punti di accesso multi-regione, si specificherà un insieme di Regioni AWS in cui si desidera archiviare i dati da fornire tramite tale punto di accesso multi-regione. È possibile utilizzare il nome dell'endpoint dei punti di accesso multi-regione fornito per connettere i client. Dopo aver stabilito le connessioni client, è possibile selezionare i bucket esistenti o nuovi tra cui instradare le richieste dei punti di accesso multi-regione. Utilizzare quindi le regole della [Replica tra Regioni S3](https://aws.amazon.com/s3/features/replication/) per sincronizzare i dati tra i bucket in tali Regioni.

Dopo aver configurato il punto di accesso multi-regione, è possibile quindi richiedere o scrivere dati tramite l'endpoint globale dei punti di accesso multi-regione. Amazon S3 gestisce automaticamente le richieste al set di dati replicato dalla Regione disponibile più vicina. All'interno della Console di gestione AWS, è possibile anche visualizzare la topologia di replica sottostante e le metriche di replica relative alle richieste dei punti di accesso multi-regione. In questo modo è ancora più semplice creare, gestire e monitorare lo storage per le applicazioni multi-regione. In alternativa, è possibile utilizzare Amazon CloudFront per automatizzare la creazione e la configurazione dei punti di accesso multi-regione S3.

L'immagine seguente è una rappresentazione grafica di un punto di accesso multi-regione Amazon S3 in una configurazione multi-regione. Il grafico mostra come le richieste Amazon S3 vengono indirizzate automaticamente ai bucket nella Regione AWS attiva più vicina.

![\[Diagramma che mostra le richieste instradate tramite un punto di accesso multi-regione Amazon S3.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/MultiRegionAccessPoints.png)


 L'immagine seguente è una rappresentazione grafica di un punto di accesso multi-regione Amazon S3 in una configurazione attiva-passiva. Il grafico illustra come controllare il traffico di accesso ai dati di Amazon S3 per passare tra Regioni AWS attive e passive.

![\[Diagramma che mostra un punto di accesso multi-regione Amazon S3 in una configurazione attiva-passiva.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/MultiRegionAccessPointsFailover.png)




**Topics**
+ [Creazione di punti di accesso multi-regione](CreatingMultiRegionAccessPoints.md)
+ [Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink](MultiRegionAccessConfiguration.md)
+ [Esecuzione di richieste utilizzando un punto di accesso multi-regione](MultiRegionAccessPointRequests.md)

# Creazione di punti di accesso multi-regione
<a name="CreatingMultiRegionAccessPoints"></a>

Per creare un punto di accesso multi-regione in Amazon S3, esegui le operazioni seguenti: 
+ Specifica il nome del punto di accesso multi-regione.
+ Scegli un bucket in ognuno Regione AWS dei quali desideri soddisfare le richieste per il punto di accesso multiregionale.
+ Configura le impostazioni per il blocco dell'accesso pubblico di Amazon S3 per il punto di accesso multi-regione.

Fornisci tutte queste informazioni in una richiesta di creazione, che Amazon S3 elabora in modo asincrono. Amazon S3 offre un token che consente di monitorare lo stato della richiesta di creazione asincrona. 

Assicurati di risolvere avvisi di sicurezza, errori, avvisi generali e suggerimenti da AWS Identity and Access Management Access Analyzer prima di salvare la policy. IAM Access Analyzer esegue controlli della policy per convalidarla in rapporto alla [sintassi della policy](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_grammar.html) e alle [best practice](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) di IAM. Questi controlli generano risultati e forniscono suggerimenti utili per aiutarti a creare policy funzionali e conformi alle best practice per la sicurezza. Per ulteriori informazioni sulla convalida delle policy tramite IAM Access Analyzer, consulta [IAM Access Analyzer policy validation (Convalida delle policy di IAM Access Analyzer)](https://docs.aws.amazon.com/IAM/latest/UserGuide/access-analyzer-policy-validation.html) nella *Guida per l'utente di IAM*. Per visualizzare un elenco di avvisi, errori e suggerimenti di IAM Access Analyzer, consulta [Riferimento ai controlli delle policy IAM Access Analyzer](https://docs.aws.amazon.com/IAM/latest/UserGuide/access-analyzer-reference-policy-checks.html).

Quando utilizzi l'API, la richiesta di creare un punto di accesso multi-regione è asincrona. Quando invii una richiesta di creazione di un punto di accesso multi-regione, Amazon S3 autorizza la richiesta in modo sincrono. Quindi restituisce immediatamente un token che consente di monitorare lo stato di avanzamento della richiesta di creazione. Per ulteriori informazioni sulla registrazione delle richieste asincrone per creare e gestire punti di accesso multi-regione, consulta [Utilizzo dei punti di accesso multi-regione con operazioni API supportate](MrapOperations.md). 

Dopo aver creato il punto di accesso multi-regione, puoi creare per esso una policy di controllo degli accessi. Ogni punto di accesso multi-regione può avere una policy associata. Le policy dei punti di accesso multi-regione sono policy basate su risorse che consentono di limitare l'utilizzo del punto di accesso multi-regione per risorsa, utente o altre condizioni.

**Nota**  
Affinché un'applicazione o un utente possa accedere a un oggetto tramite un punto di accesso multi-regione, entrambe le policy seguenti devono consentire la richiesta:   
La policy di accesso per il punto di accesso multi-regione.
La policy di accesso per il bucket sottostante contenente l'oggetto
Quando le due policy sono diverse, ha la precedenza quella più restrittiva.   
Per semplificare la gestione delle autorizzazioni per i punti di accesso multi-regione, puoi delegare il controllo degli accessi dal bucket al punto di accesso multi-regione. Per ulteriori informazioni, consulta [Esempi di policy dei punti di accesso multi-regione](MultiRegionAccessPointPermissions.md#MultiRegionAccessPointPolicyExamples).

L'utilizzo di un bucket con un punto di accesso multi-regione non modifica il comportamento di un bucket a cui si accede tramite il nome del bucket esistente o un nome della risorsa Amazon (ARN). Tutte le operazioni esistenti inerenti il bucket continuano a funzionare come prima. Le limitazioni incluse in una policy per un punto di accesso multi-regione si applicano solo alle richieste effettuate tramite quell'access point multi-regione. 

Dopo aver creato la policy per un punto di accesso multi-regione, puoi aggiornarla ma non puoi eliminarla. Puoi tuttavia aggiornare la policy del punto di accesso multi-regione in modo che neghi tutte le autorizzazioni. 

**Topics**
+ [Regole per la denominazione dei punti di accesso multi-regione in Amazon S3](multi-region-access-point-naming.md)
+ [Regole per la scelta dei bucket per i punti di accesso multi-regione in Amazon S3](multi-region-access-point-buckets.md)
+ [Creare un punto di accesso multi-regione in Amazon S3](multi-region-access-point-create-examples.md)
+ [Blocco dell'accesso pubblico con i punti di accesso multi-regione di Amazon S3](multi-region-access-point-block-public-access.md)
+ [Visualizzazione dei dettagli della configurazione dei punti di accesso multi-regione S3](multi-region-access-point-view-examples.md)
+ [Eliminazione di un punto di accesso multi-regione](multi-region-access-point-delete-examples.md)

# Regole per la denominazione dei punti di accesso multi-regione in Amazon S3
<a name="multi-region-access-point-naming"></a>

Quando crei un punto di accesso multi-regione, gli assegni un nome, ovvero una stringa scelta da te. Dopo la creazione, non puoi modificare il nome del punto di accesso multi-regione. Il nome deve essere univoco nel tuo Account AWS e deve essere conforme ai requisiti di denominazione elencati in [Restrizioni e limitazioni dei punti di accesso multi-regione](MultiRegionAccessPointRestrictions.md). Per facilitare l'identificazione del punto di accesso multi-regione, utilizza un nome significativo per te o per l'organizzazione oppure che rispecchi lo scenario. 

Utilizzerai questo nome per richiamare le operazioni di gestione di un punto di accesso multi-regione, ad esempio `GetMultiRegionAccessPoint` e `PutMultiRegionAccessPointPolicy`. Il nome non viene utilizzato per inviare richieste al punto di accesso multi-regione e non deve necessariamente essere esposto ai client che effettuano richieste utilizzando il punto di accesso multi-regione. 

Quando Amazon S3 crea un punto di accesso multi-regione, gli assegna automaticamente un alias. Questo alias è una stringa alfanumerica univoca che termina in `.mrap`. L'alias viene utilizzato per costruire il nome host e l'ARN (Amazon Resource Name) per un punto di accesso multi-regione. Il nome completo si basa anche sull'alias del punto di accesso multi-regione.

Non è possibile determinare il nome di un punto di accesso multi-regione dal relativo alias, pertanto puoi divulgare un alias senza il rischio di esporre il nome, lo scopo o il proprietario del punto di accesso multi-regione. Amazon S3 seleziona l'alias per ogni nuovo punto di accesso multi-regione e l'alias non può essere modificato. Per ulteriori informazioni sull'indirizzamento di un access point multi-regione, consulta[Esecuzione di richieste utilizzando un punto di accesso multi-regione](MultiRegionAccessPointRequests.md). 

Gli alias del punto di accesso multi-regione sono univoci nel tempo e non si basano sul suo nome né sulla sua configurazione. Se crei un punto di accesso multi-regione, quindi lo elimini e ne crei un altro con lo stesso nome e la stessa configurazione, il secondo punto di accesso multi-regione avrà un alias diverso dal primo. I nuovi punti di accesso multi-regione non possono mai avere lo stesso alias di uno precedente.

# Regole per la scelta dei bucket per i punti di accesso multi-regione in Amazon S3
<a name="multi-region-access-point-buckets"></a>

Ogni punto di accesso multi-regione è associato alle regioni in cui desideri evadere le richieste. Il punto di accesso multi-regione deve essere associato esattamente a un bucket in ciascuna di queste regioni. Specifica il nome di ogni bucket nella richiesta per creare il punto di accesso multi-regione. I bucket che supportano il punto di accesso multiregionale possono trovarsi nello stesso Account AWS che possiede il punto di accesso multiregionale oppure in un altro. Account AWS

 Un singolo bucket può essere utilizzato da più punti di accesso multi-regione. 

**Importante**  
Puoi specificare i bucket associati a un punto di accesso multi-regione solo al momento della creazione. Dopo la creazione, non puoi aggiungere, modificare o rimuovere i bucket dalla configurazione del punto di accesso multi-regione. Per modificare i bucket, devi eliminare l'intero punto di accesso multi-regione e crearne uno nuovo. 
Non puoi eliminare un bucket che fa parte di un punto di accesso multi-regione. Se desideri eliminare un bucket associato a un punto di accesso multi-regione, elimina prima il punto di accesso multi-regione. 
Se al punto di accesso multi-regione aggiungi un bucket di proprietà di un altro account, il proprietario del bucket deve aggiornare anche la policy di bucket per concedere le autorizzazioni di accesso al punto di accesso multi-regione. In caso contrario, il punto di accesso multi-regione non sarà in grado di recuperare i dati dal bucket. Per alcune policy di esempio che illustrano come concedere tale accesso, consulta [Esempi di policy dei punti di accesso multi-regione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointPermissions.html#MultiRegionAccessPointPolicyExamples). 
 Non tutte le regioni supportano i punti di accesso multiregione. Per vedere l'elenco delle regioni supportate, consulta [Restrizioni e limitazioni dei punti di accesso multi-regione](MultiRegionAccessPointRestrictions.md). 

Puoi creare regole di replica per sincronizzare i dati tra i bucket. Queste regole consentono di copiare automaticamente i dati dai bucket di origine ai bucket di destinazione. La connessione di bucket a un punto di accesso multi-regione non influisce sul funzionamento della replica. La configurazione della replica con punti di accesso multi-regione viene descritta in una sezione successiva.

**Importante**  
Quando esegui una richiesta su un punto di accesso multi-regione, tale punto di accesso non è a conoscenza del contenuto dei dati dei bucket nel punto di accesso multi-regione. Pertanto, il bucket che riceve la richiesta potrebbe non contenere i dati richiesti. Per creare set di dati coerenti nei bucket Amazon S3 associati a un punto di accesso multi-regione, ti consigliamo di configurare la replica tra regioni di S3 (CRR). Per ulteriori informazioni, consulta [Configurazione della replica per l'utilizzo con punti di accesso multi-regione](MultiRegionAccessPointBucketReplication.md).

# Creare un punto di accesso multi-regione in Amazon S3
<a name="multi-region-access-point-create-examples"></a>

Negli esempi seguenti viene illustrato come creare un punto di accesso multi-regione utilizzando la console Amazon S3.

## Utilizzo della console S3
<a name="multi-region-access-point-create-console"></a>

**Per creare un punto di accesso multi-regione**
**Nota**  
Le Regioni da abilitare con punto di accesso multi-Regione non sono attualmente supportate nella console Amazon S3.

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli **Crea punti di accesso multi-regione** per iniziare a creare il punto di accesso multi-regione.

1. Nella pagina **Punto di accesso multi-regione**, specifica un nome per il punto di accesso multi-regione nel campo **Nome del punto di accesso multi-regione**.

1. Seleziona i bucket che verranno associati a questo punto di accesso multi-regione. Puoi scegliere i bucket che si trovano nel tuo account oppure puoi scegliere i bucket da altri account.
**Nota**  
Devi aggiungere almeno un bucket dal tuo account o da altri account. Inoltre, tieni presente che i punti di accesso multi-regione supportano un solo bucket per ogni Regione AWS. Pertanto, non puoi aggiungere due bucket dalla stessa regione. Non sono supportate le [Regioni AWS disattivate per impostazione predefinita](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html).
   + Per aggiungere un bucket presente nel tuo account, scegli **Aggiungi bucket**. Viene visualizzato un elenco dei bucket disponibili nel tuo account. Puoi cercare il tuo bucket per nome o ordinare i nomi dei bucket in ordine alfabetico.
   + Per aggiungere un bucket da un altro account, scegli **Aggiungi bucket da altri account**. Assicurati di conoscere il nome e l' Account AWS ID esatti del bucket, perché non puoi cercare o cercare i bucket in altri account.
**Nota**  
Devi inserire un Account AWS ID e un nome di bucket validi. Il bucket deve inoltre trovarsi in una regione supportata; in caso contrario, si verificherà un errore quando tenti di creare il punto di accesso multi-regione. Per l'elenco delle regioni che supportano i punti di accesso multi-regione, consulta [Restrizioni e limitazioni dei punti di accesso multi-regione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html).

1. (Facoltativo) Se devi rimuovere un bucket aggiunto, scegli **Rimuovi**.
**Nota**  
Non puoi aggiungere o rimuovere bucket a questo punto di accesso multi-regione dopo averlo creato.

1. In **Block Public Access settings for this Multi-Region Access Point (Impostazioni di blocco dell'accesso pubblico per il punto di accesso multi-regione)**, seleziona le impostazioni di blocco dell'accesso pubblico da applicare al punto di accesso. Per impostazione predefinita, tutte le impostazioni di blocco dell'accesso pubblico sono abilitate per i nuovi punti di accesso multi-regione. È consigliabile lasciare tutte le impostazioni abilitate, a meno che tu non debba necessariamente disabilitarne una specifica.
**Nota**  
Non è possibile modificare le impostazioni del blocco dell'accesso pubblico per un punto di accesso multi-regione dopo la sua creazione. Pertanto, se intendi bloccare l'accesso pubblico, assicurati che le tue applicazioni funzionino correttamente senza accesso pubblico prima di creare un punto di accesso multi-regione.

1. Scegli **Create Multi-Region Access Point (Crea punto di accesso multi-regione)**.

**Importante**  
Se al punto di accesso multi-regione aggiungi un bucket di proprietà di un altro account, il proprietario del bucket deve aggiornare anche la policy di bucket per concedere le autorizzazioni di accesso al punto di accesso multi-regione. In caso contrario, il punto di accesso multi-regione non sarà in grado di recuperare i dati dal bucket. Per alcune policy di esempio che illustrano come concedere tale accesso, consulta [Esempi di policy dei punti di accesso multi-regione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointPermissions.html#MultiRegionAccessPointPolicyExamples).

## Utilizzando il AWS CLI
<a name="multi-region-access-point-create-cli"></a>

È possibile utilizzare il AWS CLI per creare un punto di accesso multiregionale. Quando crei il punto di accesso multi-regione, devi specificare tutti i bucket che supporterà. Non è possibile aggiungere bucket al punto di accesso multi-regione dopo che il punto è stato creato. 

 Nell'esempio seguente viene creato un punto di accesso multi-regione con due bucket utilizzando la AWS CLI. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

**Nota**  
Per creare un punto di accesso multi-Regione utilizzando i bucket in una Regione da abilitare, assicurati di [attivare prima tutte le Regioni da abilitare](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html). In caso contrario, riceverai un errore `403 InvalidRegion` quando tenti di creare un punto di accesso multi-Regione utilizzando i bucket per una Regione da abilitare che non hai effettivamente abilitato.

```
aws s3control create-multi-region-access-point --account-id 111122223333 --details '{
        "Name": "simple-multiregionaccesspoint-with-two-regions",
        "PublicAccessBlock": {
            "BlockPublicAcls": true,
            "IgnorePublicAcls": true,
            "BlockPublicPolicy": true,
            "RestrictPublicBuckets": true
        },
        "Regions": [
            { "Bucket": "amzn-s3-demo-bucket1" }, 
            { "Bucket": "amzn-s3-demo-bucket2" } 
        ]
    }' --region us-west-2
```

# Blocco dell'accesso pubblico con i punti di accesso multi-regione di Amazon S3
<a name="multi-region-access-point-block-public-access"></a>

Ogni punto di accesso multi-regione dispone di impostazioni distinte per il blocco dell'accesso pubblico di Amazon S3. Queste impostazioni funzionano insieme alle impostazioni di blocco dell'accesso pubblico per il proprietario del Account AWS punto di accesso multiregionale e dei bucket sottostanti. 

Quando Amazon S3 autorizza una richiesta, applica la combinazione più restrittiva di queste impostazioni. Se le impostazioni di blocco dell'accesso pubblico per una di queste risorse (l'account proprietario del punto di accesso multi-regione, il bucket sottostante o l'account proprietario del bucket) bloccano l'accesso per l'azione o la risorsa richiesta, Amazon S3 rifiuta la richiesta.

È consigliabile abilitare tutte le impostazioni di blocco dell'accesso pubblico a meno che non sia necessario disabilitarne alcune. Per impostazione predefinita, tutte le impostazioni di blocco dell'accesso pubblico sono abilitate per i punti di accesso multi-regione. Se il blocco dell'accesso pubblico è abilitato, il punto di accesso multi-regione non è in grado di accettare richieste basate su Internet.

**Importante**  
Dopo la creazione del punto di accesso multi-regione, non puoi più modificare le relative impostazioni di blocco dell'accesso pubblico. 

 Per ulteriori informazioni sul blocco dell'accesso pubblico in Amazon S3, consulta [Blocco dell'accesso pubblico allo storage Amazon S3](access-control-block-public-access.md). 

# Visualizzazione dei dettagli della configurazione dei punti di accesso multi-regione S3
<a name="multi-region-access-point-view-examples"></a>

Nell'esempio seguente viene illustrato come visualizzare i dettagli di configurazione del punto di accesso multi-regione utilizzando la console Amazon S3. 

## Utilizzo della console S3
<a name="multi-region-access-point-view-console"></a>

**Per creare un punto di accesso multi-regione**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il nome del punto di accesso multi-regione di cui si desidera visualizzare la configurazione.
   + Nella scheda **Proprietà** sono elencati tutti i bucket associati al punto di accesso multi-regione, la data di creazione, il nome della risorsa Amazon (ARN) e l'alias. Nella colonna ID Account AWS sono riportati anche tutti i bucket di proprietà di account esterni associati al punto di accesso multi-regione.
   + Nella scheda **Autorizzazioni** sono elencate le impostazioni di blocco dell'accesso pubblico applicate ai bucket associati a questo punto di accesso multi-regione. Puoi anche visualizzare la policy del punto di accesso multi-regione per il tuo punto di accesso multi-regione, se ne hai creato uno. L'avviso **Informazioni** nella pagina **Autorizzazioni** include anche tutti i bucket (nel tuo account e in altri account) per questo punto di accesso multi-regione con l'impostazione **L'accesso pubblico è bloccato** abilitata.
   + La scheda **Replica e failover** fornisce una visualizzazione in formato mappa dei bucket associati al punto di accesso multi-regione e delle regioni in cui risiedono i bucket. Se sono presenti bucket di un altro account per i quali non disponi delle autorizzazioni per estrarrne i dati, la regione verrà contrassegnata in rosso sulla mappa **Riepilogo della replica**, a indicare che si tratta di una **Regione AWS che ha generato errori durante il recupero dello stato della replica**.
**Nota**  
Per recuperare le informazioni sullo stato della replica da un bucket in un account esterno, il proprietario del bucket deve concederti l'autorizzazione `s3:GetBucketReplication`nella propria policy dei bucket.

     Questa scheda fornisce anche le metriche di replica, le regole di replica e gli stati di failover per le regioni utilizzate con il punto di accesso multi-regione.

## Utilizzando il AWS CLI
<a name="multi-region-access-point-view-cli"></a>

 È possibile utilizzare il AWS CLI per visualizzare i dettagli di configurazione per un punto di accesso multiregionale.

L' AWS CLI esempio seguente ottiene la configurazione corrente del punto di accesso multiregionale. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control get-multi-region-access-point --account-id 111122223333 --name amzn-s3-demo-bucket
```

# Eliminazione di un punto di accesso multi-regione
<a name="multi-region-access-point-delete-examples"></a>

La procedura seguente spiega come eliminare un punto di accesso multi-regione utilizzando la console Amazon S3. Tieni presente che l’eliminazione di un punto di accesso multi-Regione non comporta l’eliminazione dei bucket associati al punto di accesso multi-Regione. Invece, elimina solo il punto di accesso multi-Regione stesso.

**Nota**  
I punti di accesso multiregione S3 che utilizzano bucket nelle regioni AWS opzionali sono attualmente supportati solo tramite e AWS SDKs dalla CLI. AWS Per eliminare un punto di accesso multiregionale utilizzando i bucket in una regione opzionale, assicurati di specificare quali AWS regioni opt-in il tuo account può utilizzare per prime. Altrimenti, se provi a eliminare un punto di accesso multiregionale che utilizza bucket nelle regioni con AWS attivazione disattivata, riceverai un errore.

## Utilizzo della console S3
<a name="multi-region-access-point-delete-console"></a>

**Per creare un punto di accesso multi-regione**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Seleziona il pulsante di opzione accanto al nome del punto di accesso multi-regione.

1. Scegli **Elimina**.

1. Nella finestra di dialogo **Elimina punto di accesso multiregionale**, inserisci il nome del AWS bucket che desideri eliminare.
**Nota**  
Assicurati di inserire un nome valido per il bucket. In caso contrario, il pulsante **Elimina** verrà disabilitato.

1. Scegli **Elimina** per confermare l'eliminazione del punto di accesso multi-regione.

## Utilizzando il AWS CLI
<a name="multi-region-access-point-delete-cli"></a>

È possibile utilizzare il AWS CLI per eliminare un punto di accesso multiregionale. Questa operazione non elimina i bucket associati al punto di accesso multi-regione, ma solo al punto di accesso multi-regione stesso. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control delete-multi-region-access-point --account-id 123456789012 --details Name=example-multi-region-access-point-name
```

# Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink
<a name="MultiRegionAccessConfiguration"></a>

Puoi utilizzare i punti di accesso multi-regione per instradare il traffico delle richieste Amazon S3 tra Regioni AWS. Ogni endpoint globale del punto di accesso multi-regione instrada il traffico delle richieste di dati Amazon S3 da più fonti senza dover creare configurazioni di rete complesse con endpoint distinti. Queste origini del traffico delle richieste di dati includono:
+ Traffico con origine in un cloud privato virtuale (VPC)
+ Il traffico proveniente dai data center locali viaggia attraverso AWS PrivateLink 
+ Traffico proveniente dalla rete Internet pubblica

Se stabilisci una AWS PrivateLink connessione a un punto di accesso multiregionale S3, puoi instradare le richieste S3 verso AWS, o tra più Regioni AWS, tramite una connessione privata utilizzando una semplice architettura e configurazione di rete. Quando si utilizza AWS PrivateLink, non è necessario configurare una connessione peering VPC.

**Topics**
+ [Configurazione delle Regioni con consenso esplicito con punti di accesso multi-Regione](ConfiguringMrapOptInRegions.md)
+ [Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md)
+ [Rimozione dell'accesso a un punto di accesso multi-regione da un endpoint VPC](RemovingMultiRegionAccessPointAccess.md)

# Configurazione delle Regioni con consenso esplicito con punti di accesso multi-Regione
<a name="ConfiguringMrapOptInRegions"></a>

Una regione AWS opt-in è una regione che non è abilitata per impostazione predefinita nel tuo AWS account. Al contrario, le regioni abilitate per impostazione predefinita sono note come Regioni AWS regioni commerciali.

Per iniziare a utilizzare i punti di accesso multiregionali nelle regioni AWS opzionali, devi abilitare manualmente la regione opt-in per il tuo AWS account prima di creare il punto di accesso multiregionale. Dopo aver abilitato la Regione con consenso esplicito, è possibile creare i punti di accesso multi-Regione con bucket presenti nella Regione con consenso esplicito selezionata. Per istruzioni su come abilitare o disabilitare una regione opzionale per il tuo AWS account o la tua AWS organizzazione, vedi [Abilitare o disabilitare una regione per gli account autonomi](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone) o [Abilitare o disabilitare](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-organization) una regione nell'organizzazione.

**Nota**  
Le regioni con accesso a punti di accesso multiregionali sono attualmente supportate solo tramite e. AWS SDKs AWS CLI

 I punti di accesso multiregionali S3 supportano le seguenti regioni opzionali: AWS 
+ `Africa (Cape Town)`
+ `Asia Pacific (Hong Kong)`
+ `Asia Pacific (Jakarta)`
+ `Asia Pacific (Melbourne)`
+ `Asia Pacific (Hyderabad)`
+ `Canada West (Calgary)`
+ `Europe (Zurich)`
+ `Europe (Milan)`
+ `Europe (Spain)`
+ `Israel (Tel Aviv)`
+ `Middle East (Bahrain)`
+ `Middle East (UAE)`

**Nota**  
Non sono previsti costi aggiuntivi per l’abilitazione di una Regione con consenso esplicito. Tuttavia, la creazione o l’utilizzo di una risorsa tramite un punto di accesso multi-Regione comporta dei costi di fatturazione.

## Utilizzo di un punto di accesso multiregionale in una regione con attivazione AWS
<a name="UsingMrapOptInRegions"></a>

Per eseguire un'[operazione sul piano dati](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MrapOperations.html) sul punto di accesso multiregionale, tutti gli AWS account associati devono abilitare le regioni opt-in che fanno parte del punto di accesso multiregionale. Questo requisito si applica all’account richiedente, al proprietario del punto di accesso multi-Regione, ai proprietari del bucket S3 e al proprietario dell’endpoint VPC. Se uno di questi account non abilita le Regioni AWS con consenso esplicito, le richieste dei punti di accesso multi-Regione hanno esito negativo. Per ulteriori informazioni sugli errori `InvalidToken` o `AllAccessDisabled`, consulta [Elenco dei codici di errore](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html#ErrorCodeList).

**Nota**  
[Le operazioni del piano di controllo (control-plane)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MrapOperations.html), come l’aggiornamento della policy dei punti di accesso multi-Regione o l’aggiornamento della configurazione del failover, non sono influenzate dallo stato della Regione con consenso esplicito di una Regione che fa parte del punto di accesso multi-Regione. Inoltre, non è necessario disabilitare alcuna Regione con consenso esplicito attiva prima di eliminare un punto di accesso multi-Regione.

## Disattivazione di una regione con opt-in attivo AWS
<a name="DisablingMrapOptInRegions"></a>

Se si disabilita una Regione con consenso esplicito che fa parte del punto di accesso multi-Regione, le richieste indirizzate a questa Regione generano un errore `403 AllAccessDisabled`. Per disabilitare in modo sicuro una Regione con consenso esplicito, è consigliabile individuare prima una Regione alternativa nella configurazione del punto di accesso multi-Regione verso cui indirizzare il traffico. È quindi possibile utilizzare i controlli di failover del punto di accesso multi-Regione per contrassegnare la Regione alternativa come attiva e la Regione da disabilitare come passiva. Dopo aver modificato i controlli di failover, è possibile disabilitare la Regione con consenso esplicito.

## Attivazione di una regione di AWS opt-in precedentemente disabilitata
<a name="EnablingDisabledMrapOptInRegions"></a>

Per abilitare una AWS regione di attivazione precedentemente disattivata per il punto di accesso multiregionale, assicurati di aggiornare le impostazioni dell'account AWS . Dopo aver riabilitato la Regione con consenso esplicito, esegui l’operazione API [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html) per applicare la policy dei punti di accesso multi-Regione alla regione con consenso esplicito.

Se si accede al punto di accesso multiregionale tramite un endpoint VPC, si consiglia di aggiornare la politica VPCE e utilizzare l'operazione API per applicare [ModifyVpcEndpoint](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_ModifyVpcEndpoint.html)la politica degli endpoint VPC aggiornata alla regione di opt-in riabilitata.

## Politica sui punti di accesso multiregionali e account multipli AWS
<a name="UsingMrapPolicyOptInRegions"></a>

Se la politica relativa ai punti di accesso multiregionali consente l'accesso a più AWS account, tutti gli account richiedenti devono inoltre abilitare le stesse regioni di opt-in nelle impostazioni dell'account. Se l’account richiedente invia una richiesta di punto di accesso multi-Regione senza abilitare le Regioni con consenso esplicito che fanno parte del punto di accesso multi-Regione, viene generato un errore `400 InvalidToken`.

## AWS considerazioni relative alla regione che prevede l'opt-in
<a name="MrapOptInRegionsConsiderations"></a>

Quando si accede a un punto di accesso multi-Regione da una Regione con consenso esplicito, è opportuno tenere presente quanto segue:
+ Quando si abilita una Regione con consenso esplicito, è possibile creare un punto di accesso multi-Regione utilizzando i bucket della Regione con consenso esplicito. Quando si disabilita una Regione con consenso esplicito, il punto di accesso multi-Regione non è più supportato nella Regione con consenso esplicito. Per disabilitare una Regione con consenso esplicito per il punto di accesso multi-Regione, è necessario prima [disabilitare la Regione nell’account](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone). Quindi si crea un nuovo punto di accesso multi-Regione con l’elenco preferito di Regioni con consenso esplicito.
+ Se si tenta di creare un punto di accesso multi-Regione con una Regione con consenso esplicito disabilitata, viene generato un errore `403 InvalidRegion`. Dopo aver abilitato la Regione con consenso esplicito, è possibile creare nuovamente il punto di accesso multi-Regione.
+ Il numero massimo di Regioni supportate per un punto di accesso multi-Regione è di 17 Regioni. Sono incluse sia le Regioni con consenso esplicito che le Regioni commerciali. Per ulteriori informazioni, consulta [Restrizioni e limitazioni dei punti di accesso multi-Regione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html).
+ Le richieste del piano di controllo (control-plane) per punti di accesso multi-Regione funzionano anche se non è abilitata alcuna Regione con consenso esplicito.
+ Quando si crea un punto di accesso multi-Regione per la prima volta, è necessario abilitare tutte le Regioni con consenso esplicito che fanno parte del punto di accesso multi-Regione.
+ Tutti AWS gli account a cui è concesso l'accesso a un punto di accesso multiregionale S3 tramite la politica relativa ai punti di accesso multiregionali devono abilitare anche le stesse regioni opt-in che fanno parte del punto di accesso multiregionale.

# Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink
<a name="MultiRegionAccessPointsPrivateLink"></a>

 AWS PrivateLink ti fornisce connettività privata ad Amazon S3 utilizzando indirizzi IP privati nel tuo cloud privato virtuale (VPC). Puoi effettuare il provisioning di uno o più endpoint di interfaccia all'interno del tuo VPC per connetterti ai punti di accesso multi-regione di Amazon S3.

 Puoi creare endpoint **com.amazonaws.s3-global.accesspoint** per punti di accesso multiregionali tramite, o. Console di gestione AWS AWS CLI AWS SDKs Per ulteriori informazioni su come configurare un endpoint di interfaccia per i punti di accesso multi-regione, consulta [Endpoint VPC dell'interfaccia](https://docs.aws.amazon.com/vpc/latest/privatelink/vpce-interface.html) nella *Guida dell'utente di VPC*. 

 Per effettuare richieste a un punto di accesso multi-regione tramite endpoint di interfaccia, segui la procedura riportata di seguito per configurare il VPC e il punto di accesso multi-regione. 

**Per configurare un punto di accesso multiregionale da utilizzare con AWS PrivateLink**

1. Crea o disponi di un endpoint VPC appropriato in grado di connettersi a punti di accesso multi-regione. Per ulteriori informazioni sulla creazione di endpoint VPC, consulta [Endpoint VPC di interfaccia](https://docs.aws.amazon.com/vpc/latest/privatelink/vpce-interface.html) nella *Guida per l'utente di VPC*.
**Importante**  
 Assicurati di creare un endpoint **com.amazonaws.s3-global.accesspoint**. Altri tipi di endpoint non possono accedere ai punti di accesso multi-regione. 

   Dopo aver creato questo endpoint VPC, tutte le richieste del punto di accesso multi-regione nel VPC si instradano attraverso questo endpoint se hai abilitato il DNS privato per l'endpoint. Questo è abilitato per impostazione predefinita. 

1. Se la policy del punto di accesso multi-regione non supporta le connessioni dagli endpoint VPC, dovrai aggiornarlo.

1. Verifica che le policy dei singoli bucket consentano l'accesso agli utenti del punto di accesso multi-regione.

Ricorda che i punti di accesso multi-regione funzionano instradando le richieste ai bucket, non soddisfacendo le richieste stesse. È importante ricordare che l'origine della richiesta deve disporre delle autorizzazioni per il punto di accesso multi-regione e deve poter accedere ai singoli bucket del punto di accesso multi-regione. In caso contrario, la richiesta potrebbe essere instradata a un bucket in cui l'origine non dispone delle autorizzazioni per soddisfare la richiesta. Un punto di accesso multiregionale e i bucket associati possono appartenere allo stesso account o a un altro account. AWS Tuttavia, VPCs da account diversi è possibile utilizzare un punto di accesso multiregionale se le autorizzazioni sono configurate correttamente. 

Per questo motivo, la policy dell'endpoint VPC deve consentire l'accesso sia al punto di accesso multi-regione che a ogni bucket sottostante che desideri che sia in grado di soddisfare le richieste. Ad esempio, supponiamo di avere un punto di accesso multi-regione con l'alias `mfzwi23gnjvgw.mrap`. È supportato dai bucket `amzn-s3-demo-bucket1` e `amzn-s3-demo-bucket2`, tutti di proprietà dell'account AWS `123456789012`. In questo caso, le seguenti policy dell'endpoint VPC consente ai bucket di supporto di soddisfare le richieste `GetObject` dal VPC fatte a `mfzwi23gnjvgw.mrap`. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
    {
        "Sid": "Read-buckets-and-MRAP-VPCE-policy",
        "Principal": "*",
        "Action": [
            "s3:GetObject"
        ],
        "Effect": "Allow",
        "Resource": [
            "arn:aws:s3:::amzn-s3-demo-bucket1/*",
            "arn:aws:s3:::amzn-s3-demo-bucket2/*",
            "arn:aws:s3::111122223333:accesspoint/mfzwi23gnjvgw.mrap/object/*"
        ]
    }]
}
```

------

Come accennato in precedenza, devi inoltre assicurarti che la policu del punto di accesso multi-regione sia configurata in modo da supportare l'accesso tramite un endpoint VPC. Non è necessario specificare l'endpoint VPC che richiede l'accesso. La policy di esempio seguente concede l'accesso a qualsiasi richiedente che tenta di utilizzare il punto di accesso multi-regione per le richieste `GetObject`. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
    {
        "Sid": "Open-read-MRAP-policy",
        "Effect": "Allow",
        "Principal": "*",
        "Action": [
            "s3:GetObject"
          ],
        "Resource": "arn:aws:s3::111122223333:accesspoint/mfzwi23gnjvgw.mrap/object/*"
    }]
}
```

------

E, naturalmente, i singoli bucket avrebbero bisogno di una policy per supportare l'accesso delle richieste inviate tramite l'endpoint VPC. La policy di esempio seguente consente l'accesso in lettura a tutti gli utenti anonimi, incluse le richieste effettuate tramite l'endpoint VPC. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
   "Statement": [
   {
       "Sid": "Public-read",
       "Effect": "Allow",
       "Principal": "*",
       "Action": "s3:GetObject",
       "Resource": [
           "arn:aws:s3:::amzn-s3-demo-bucket1",
           "arn:aws:s3:::amzn-s3-demo-bucket2/*"]
    }]
}
```

------

 Per informazioni sulla modifica di una policy dell'endpoint VPC, consulta [Controllare l'accesso ai servizi con endpoint VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-access.html) nella *Guida per l'utente di VPC*. 

# Rimozione dell'accesso a un punto di accesso multi-regione da un endpoint VPC
<a name="RemovingMultiRegionAccessPointAccess"></a>

Se sei proprietario di un punto di accesso multi-regione e desideri rimuovere l'accesso a tale punto da un endpoint di interfaccia, devi specificare una nuova policy di accesso per il punto di accesso multi-regione che impedisca l'accesso alle richieste provenienti dagli endpoint VPC. Tuttavia, se i bucket nel punto di accesso multi-regione supportano le richieste tramite endpoint VPC, essi continueranno a supportarle. Se desideri impedire il supporto, devi aggiornare anche le policy dei bucket. L'impostazione di una nuova policy di accesso al punto di accesso multi-regione impedisce l'accesso solo a tale punto di accesso e non ai bucket sottostanti. 

**Nota**  
Non puoi eliminare una policy di accesso per un punto di accesso multi-area. Per rimuovere l'accesso a un punto di accesso multi-area, devi fornire una nuova policy di accesso con l'accesso modificato come desideri. 

Invece di aggiornare la policy di accesso per il punto di accesso multi-regione, puoi aggiornare le policy di bucket per impedire le richieste tramite gli endpoint VPC. In questo caso, gli utenti potrebbero comunque accedere al punto di accesso multi-regione tramite l'endpoint VPC. Tuttavia, se viene instradata a un bucket la cui policy impedisce l'accesso, la richiesta al punto di accesso multi-regione genera un messaggio di errore. 

# Esecuzione di richieste utilizzando un punto di accesso multi-regione
<a name="MultiRegionAccessPointRequests"></a>

Come altre risorse, i punti di accesso multiregionali di Amazon S3 hanno nomi di risorse Amazon (). ARNs Puoi usarli ARNs per indirizzare le richieste verso punti di accesso multiregionali utilizzando AWS Command Line Interface (AWS CLI) o AWS SDKs l'API Amazon S3. Puoi anche usarli ARNs per identificare punti di accesso multiregionali nelle politiche di controllo degli accessi. L'ARN di un punto di accesso multi-regione non include né rivela il nome del punto di accesso corrispondente. Per ulteriori informazioni su ARNs, consulta [Amazon Resource Names (ARNs)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) nel *Riferimenti generali di AWS*.

**Nota**  
L'alias del punto di accesso multiregionale e l'ARN non possono essere usati in modo intercambiabile.

I punti di accesso multiregionali ARNs utilizzano il seguente formato:

 `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias`

Di seguito sono riportati alcuni esempi di punti di accesso multiregionali: ARNs 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap`rappresenta il punto di accesso multiregionale con l'alias`mfzwi23gnjvgw.mrap`, di proprietà di. Account AWS `123456789012` 
+ `arn:aws:s3::123456789012:accesspoint/*` rappresenta tutti i punti di accesso multi-regione dell'account `123456789012`. Questo ARN corrisponde a tutti i punti di accesso multi-regione per l'account `123456789012`, ma non corrisponde ai punti di accesso Amazon S3 regionali perché l'ARN non include una Regione AWS. Per contro, l'ARN `arn:aws:s3:us-west-2:123456789012:accesspoint/*` corrisponde a tutti i punti di accesso Amazon S3 regionali della regione `us-west-2` per l'account `123456789012`, ma non corrisponde ad alcun punto di accesso multi-regione. 

ARNs per gli oggetti a cui si accede tramite un punto di accesso multiregionale, utilizzare il seguente formato:

 `arn:aws:s3::account_id:accesspoint/MultiRegionAccessPoint_alias//key`

Come nel caso di un punto di accesso multiregionale ARNs, ARNs i quattro oggetti a cui si accede tramite punti di accesso multiregionali non includono un. Regione AWS Ecco alcuni esempi. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//-01` rappresenta `-01`, accessibile tramite il punto di accesso multi-regione con l'alias `mfzwi23gnjvgw.mrap` di proprietà dell'account `123456789012`. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//*` rappresenta tutti gli oggetti a cui è possibile accedere tramite il punto di accesso multi-regione con l'alias `mfzwi23gnjvgw.mrap`, nell'account `123456789012`. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//-01/finance/*` rappresenta tutti gli oggetti a cui è possibile accedere in `-01/finance/` per il punto di accesso multi-regione con l'alias `mfzwi23gnjvgw.mrap` nell'account `123456789012`. 

## Nomi host del punto di accesso multi-regione
<a name="MultiRegionAccessPointHostnames"></a>

Puoi accedere ai dati in Amazon S3 tramite un punto di accesso multi-regione utilizzando il relativo nome host. Le richieste possono essere indirizzate a questo nome host dalla rete Internet pubblica. Se hai configurato uno o più gateway Internet per il punto di accesso multi-regione, è anche possibile indirizzare le richieste a questo nome host da un cloud privato virtuale (VPC). Per ulteriori informazioni sulla creazione di endpoint di interfaccia VPC da utilizzare con punti di accesso multi-regione, consulta[Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md). 

Per eseguire richieste tramite un punto di accesso multi-regione da un VPC mediante un endpoint VPC, puoi usare AWS PrivateLink. Quando si effettuano richieste a un punto di accesso multiregionale utilizzando AWS PrivateLink, non è possibile utilizzare direttamente un nome DNS (Regional DOMAIN NAME SYSTEM) specifico dell'endpoint che termina con. `region.vpce.amazonaws.com` Questo nome host non ha un certificato associato ad esso, quindi non può essere utilizzato direttamente. Puoi comunque utilizzare il sistema dei nomi di dominio (DNS) pubblico dell'endpoint VPC come destinazione di `CNAME` o `ALIAS`. In alternativa, puoi abilitare il sistema dei nomi di dominio (DNS) privato sull'endpoint e utilizzare il nome del sistema dei nomi di dominio (DNS) `MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com` standard del punto di accesso multi-regione come descritto in questa sezione. 

Quando effettui richieste all'API per le operazioni sui dati di Amazon S3, ad esempio `GetObject`, tramite un punto di accesso multi-regione, il nome host per la richiesta è come segue: 

`MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com` 

Ad esempio, per creare una richiesta `GetObject` tramite il punto di accesso multi-regione con l'alias `mfzwi23gnjvgw.mrap`, esegui una richiesta sul nome host `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com`. La porzione `s3-global` del nome host indica che questo nome host non è per una regione specifica.

L'esecuzione di richieste tramite un punto di accesso multi-regione è simile all'esecuzione di richieste tramite un punto di accesso a una regione singola. È tuttavia importante essere consapevoli delle seguenti differenze: 
+  I punti di accesso multiregionali non includono un. ARNs Regione AWS Seguono il formato `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias`. 
+  Per le richieste effettuate tramite operazioni API (tali richieste non richiedono l'uso di un ARN), i punti di accesso multi-regione utilizzano uno schema di endpoint diverso. Lo schema è `MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com`, ad esempio `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com`. Nota le differenze rispetto a un punto di accesso a una regione singola: 
  + I nomi host del punto di accesso multi-regione utilizzano il proprio alias, non il nome del punto di accesso multi-regione. 
  + I nomi host dei punti di accesso multiregionali non includono l'ID del proprietario. Account AWS 
  + I nomi host dei punti di accesso multi-regione non includono una Regione AWS. 
  + I nomi host del punto di accesso multi-regione includono `s3-global.amazonaws.com` invece di `s3.amazonaws.com`. 
+ Le richieste tramite punti di accesso multi-regione devono essere firmate utilizzando Signature Version 4A (Sigv4a). Quando si utilizza AWS SDKs, l'SDK converte automaticamente un SigV4 in SigV4a. Verifica pertanto che l'[SDK AWS supporti](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html) il formato SigV4a come implementazione di firma utilizzata per firmare le richieste globali a livello di Regione AWS . [Per ulteriori informazioni su SigV4a, consulta Firmare le richieste API in. AWS*Riferimenti generali di AWS*](https://docs.aws.amazon.com/general/latest/gr/signing_aws_api_requests.html) 

## Punti di accesso multi-regione e Amazon S3 Transfer Acceleration
<a name="MultiRegionAccessPointsAndTransferAcceleration"></a>

Amazon S3 Transfer Acceleration è una caratteristica che abilita trasferimenti di dati più rapidi a bucket. Transfer Acceleration è configurato a livello di singolo bucket. Per ulteriori informazioni su Transfer Acceleration, consulta [Configurazione di trasferimenti veloci e sicuri di file con Amazon S3 Transfer Acceleration](transfer-acceleration.md). 

I punti di accesso multiregionali utilizzano un meccanismo di trasferimento accelerato simile a quello di Transfer Acceleration per l'invio di oggetti di grandi dimensioni sulla rete. AWS Per questo motivo, non devi usare Transfer Acceleration quando invii richieste tramite un punto di accesso multi-regione. Questo miglioramento delle prestazioni di trasferimento viene incorporato automaticamente nel punto di accesso multi-regione. 

**Topics**
+ [Nomi host del punto di accesso multi-regione](#MultiRegionAccessPointHostnames)
+ [Punti di accesso multi-regione e Amazon S3 Transfer Acceleration](#MultiRegionAccessPointsAndTransferAcceleration)
+ [Permissions](MultiRegionAccessPointPermissions.md)
+ [Restrizioni e limitazioni dei punti di accesso multi-regione](MultiRegionAccessPointRestrictions.md)
+ [Instradamento della richiesta tramite punto di accesso multi-regione](MultiRegionAccessPointRequestRouting.md)
+ [Controlli di failover dei punti di accesso multi-regione Amazon S3](MrapFailover.md)
+ [Configurazione della replica per l'utilizzo con punti di accesso multi-regione](MultiRegionAccessPointBucketReplication.md)
+ [Utilizzo dei punti di accesso multi-regione con operazioni API supportate](MrapOperations.md)
+ [Monitoraggio e registrazione delle richieste effettuate tramite un punto di accesso multi-regione alle risorse sottostanti](MultiRegionAccessPointMonitoring.md)

# Permissions
<a name="MultiRegionAccessPointPermissions"></a>

Gli access point multiregionali di Amazon S3 possono semplificare l'accesso multiplo ai dati per i bucket Amazon S3. Regioni AWS I punti di accesso multi-regione sono endpoint globali denominati che possono essere utilizzati per eseguire operazioni su oggetti di accesso ai dati di Amazon S3, ad esempio `GetObject` e `PutObject`. Ogni punto di accesso multi-regione può disporre di autorizzazioni e controlli di rete distinti per qualsiasi richiesta eseguita tramite l'endpoint globale.

Ogni punto di accesso multi-regione può inoltre applicare una policy di accesso personalizzata che funziona in combinazione con la policy di bucket collegata al bucket sottostante. Affinché una richiesta tra account abbia esito positivo, le seguenti policy devono consentire l’operazione:
+ Policy dei punti di accesso multi-regione
+ La policy sottostante AWS Identity and Access Management (IAM)
+ Policy di bucket sottostante (a cui viene indirizzata la richiesta)

**Nota**  
Per le richieste relative allo stesso account, è necessaria solo la policy IAM sottostante, che garantisce l’accesso appropriato.

È possibile configurare qualsiasi policy dei punti di accesso multi-regione per accettare richieste solo da gruppi o utenti IAM specifici. Per un esempio su come eseguire questa operazione, consulta l'esempio 2 in [Esempi di policy dei punti di accesso multi-regione](#MultiRegionAccessPointPolicyExamples). Per limitare l'accesso ai dati di Amazon S3 a una rete privata, puoi configurare la policy dei punti di accesso multi-regione in modo che accetti le richieste solo da un cloud privato virtuale (VPC).

Ad esempio, supponiamo di effettuare una `GetObject` richiesta tramite un punto di accesso multiregionale utilizzando un utente chiamato `AppDataReader` nel proprio account AWS . Per far sì che la richiesta non venga negata, l'utente `AppDataReader` deve ricevere l'autorizzazione `s3:GetObject` dal punto di accesso multi-regione e da ogni relativo bucket sottostante. `AppDataReader` non sarà in grado di recuperare i dati dai bucket che non concedono questa autorizzazione.

**Importante**  
La delega del controllo dell'accesso di un bucket a una policy del punto di accesso multi-regione non modifica il comportamento del bucket a cui si accede direttamente tramite il nome del bucket o il nome della risorsa Amazon (ARN). Tutte le operazioni eseguite direttamente sul bucket continueranno a funzionare come prima. Le limitazioni incluse in una policy del punto di accesso multi-regione si applicano solo alle richieste effettuate tramite il corrispondente punto di accesso multi-regione.

## Gestione dell'accesso pubblico a un punto di accesso multi-regione
<a name="MultiRegionAccessPointPublicAccess"></a>

I punti di accesso multi-regione supportano impostazioni di blocco dell'accesso pubblico indipendenti per ciascun punto di accesso. Quando crei un punto di accesso multi-regione puoi specificare le impostazioni di blocco dell'accesso pubblico applicabili. 

**Nota**  
Tutte le impostazioni di blocco dell'accesso pubblico abilitate in **Impostazioni di blocco dell'accesso pubblico per questo account** (nel tuo account) o **Impostazioni del Blocco dell'accesso pubblico per bucket esterni** continuano a essere valide anche se le impostazioni indipendenti di blocco dell'accesso pubblico per il punto di accesso multi-regione sono disabilitate.

Per qualsiasi richiesta eseguita tramite un punto di accesso multi-regione, Amazon S3 valuta le impostazioni di Blocco dell'accesso pubblico Amazon S3 per:
+ Punto di accesso multi-regione
+ I bucket sottostanti (compresi i bucket esterni)
+ L'account proprietario del punto di accesso multi-regione
+ L'account proprietario dei bucket sottostanti (inclusi gli account esterni)

Se una di queste impostazioni indica che la richiesta deve essere bloccata, Amazon S3 rifiuta la richiesta. Per ulteriori informazioni sulla caratteristica di blocco dell'accesso pubblico di Amazon S3, consulta [Blocco dell'accesso pubblico allo storage Amazon S3](access-control-block-public-access.md). 

**Importante**  
Per impostazione predefinita, tutte le impostazioni di Blocco dell'accesso pubblico Amazon S3 sono abilitate per i punti di accesso multi-regione. Devi disabilitare esplicitamente le impostazioni che non vuoi applicare a un punto di accesso multi-regione.   
Dopo la creazione del punto di accesso multi-regione, non puoi più modificare le relative impostazioni di blocco dell'accesso pubblico. 

## Visualizzazione delle impostazioni di Blocco dell'accesso pubblico Amazon S3 per un punto di accesso multi-regione
<a name="viewing-bpa-mrap-settings"></a>

**Per visualizzare le impostazioni di Blocco dell'accesso pubblico Amazon S3 per un punto di accesso multi-regione**

1. 

   Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il nome del punto di accesso multi-regione che desideri esaminare.

1. Scegli la scheda **Autorizzazioni**.

1. In **Block Public Access settings for this Multi-Region Access Point** (Impostazioni di Blocco dell'accesso pubblico per il punto di accesso multi-regione corrente), seleziona le impostazioni di Blocco dell'accesso pubblico Amazon S3 da applicare al tuo punto di accesso multi-regione.
**Nota**  
Dopo la creazione del punto di accesso multi-regione, non puoi modificare le impostazioni di Blocco dell'accesso pubblico Amazon S3. Pertanto, se intendi bloccare l'accesso pubblico, assicurati che le tue applicazioni funzionino correttamente senza accesso pubblico prima di creare un punto di accesso multi-regione. 

## Utilizzo di una policy dei punti di accesso multi-regione
<a name="use-mrap-policy"></a>

Il seguente esempio di policy dei punti di accesso multi-regione consente a un utente IAM di visualizzare e scaricare file dal punto di accesso multi-regione. Per utilizzare questa policy di esempio, sostituisci `user input placeholders` con le tue informazioni.

------
#### [ JSON ]

****  

```
 {
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Principal":{
            "AWS":"arn:aws:iam::123456789012:user/JohnDoe" 
         },
         "Action":[
            "s3:ListBucket",
            "s3:GetObject"
         ],
         "Resource":[
            "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias",
            "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*"
         ]
      }
   ]
}
```

------

Per associare la policy dei punti di accesso multi-regione al punto di accesso multi-regione specificato mediante AWS Command Line Interface (AWS CLI), utilizza il comando `put-multi-region-access-point-policy` seguente. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni. Ogni punto di accesso multi-regione può avere una sola policy, quindi una richiesta effettuata per l'operazione `put-multi-region-access-point-policy` sostituisce qualsiasi policy esistente associata al punto di accesso multi-regione specificato.

------
#### [ AWS CLI ]

```
aws s3control put-multi-region-access-point-policy
--account-id 111122223333
--details { "Name": "amzn-s3-demo-bucket-MultiRegionAccessPoint", "Policy": "{ \"Version\": \"2012-10-17\", \"Statement\": { \"Effect\": \"Allow\", \"Principal\": { \"AWS\": \"arn:aws:iam::111122223333:root\" }, \"Action\": [\"s3:ListBucket\", \"s3:GetObject\"], \"Resource\": [ \"arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias", \"arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*\" ] } }" }
```

------

Per esaminare i risultati dell'operazione precedente, utilizza il comando seguente:

------
#### [ AWS CLI ]

```
aws s3control describe-multi-region-access-point-operation
--account-id 111122223333
--request-token-arn requestArn
```

------

Per recuperare la policy dei punti di accesso multi-regione, utilizza il comando seguente:

------
#### [ AWS CLI ]

```
aws s3control get-multi-region-access-point-policy
--account-id 111122223333
--name=amzn-s3-demo-bucket-MultiRegionAccessPoint
```

------

## Modifica della policy dei punti di accesso multi-regione
<a name="editing-mrap-policy"></a>

La policy dei punti di accesso multi-regione (scritta in JSON) fornisce l'accesso all'archiviazione ai bucket Amazon S3 utilizzati con questo punto di accesso multi-regione. Puoi consentire o negare a principali specifici di eseguire varie azioni sul tuo punto di accesso multi-regione. Quando una richiesta viene instradata a un bucket tramite il punto di accesso multi-regione, si applicano le policy di accesso per il punto di accesso multi-regione e per il bucket. La policy di accesso più restrittiva ha sempre la precedenza. 

**Nota**  
Se un bucket contiene oggetti di proprietà di altri account, la policy dei punti di accesso multi-regione non si applica agli oggetti di proprietà di altri Account AWS.

Dopo aver applicato una policy dei punti di accesso multi-regione, tale policy non può essere eliminata. È possibile modificare la policy o creare una nuova policy che sovrascriva quella esistente.

**Per esaminare la policy dei punti di accesso multi-regione**



1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Seleziona il nome del punto di accesso multi-regione per il quale desideri modificare la policy.

1. Scegli la scheda **Autorizzazioni**.

1. Scorri verso il basso fino alla sezione **Multi-Region Access Point policy** (Policy del punto di accesso multi-regione). Scegli **Edit** (Modifica) per aggiornare la policy (in JSON).

1. Viene visualizzata la pagina **Edit Multi-Region Access Point policy** (Modifica policy del punto di accesso multi-regione). Puoi immettere la policy direttamente nel campo di testo oppure puoi scegliere **Add statement** (Aggiungi istruzione) per selezionare gli elementi della policy da un elenco a discesa.
**Nota**  
La console visualizza automaticamente il nome della risorsa Amazon (ARN) del punto di accesso multi-regione che può essere utilizzato nella policy. Per degli esempi di policy dei punti di accesso multi-regione, consulta [Esempi di policy dei punti di accesso multi-regione](#MultiRegionAccessPointPolicyExamples).

## Esempi di policy dei punti di accesso multi-regione
<a name="MultiRegionAccessPointPolicyExamples"></a>

Politiche delle risorse di supporto per punti di accesso multiregionali AWS Identity and Access Management (IAM) di Amazon S3. È possibile utilizzare queste policy per controllare l'utilizzo del punto di accesso multi-regione per risorsa, utente o altre condizioni. Affinché un'applicazione o un utente possa accedere agli oggetti tramite un punto di accesso multi-regione, sia il punto di accesso multi-regione che il bucket sottostante devono consentire la stessa richiesta.

Per consentire lo stesso accesso sia al punto di accesso multi-regione che al bucket sottostante, esegui una delle seguenti operazioni:
+ **(Consigliato)** Per semplificare i controlli di accesso quando si utilizza un punto di accesso multi-regione di Amazon S3, delega il controllo dell'accesso per il bucket Amazon S3 al punto di accesso multi-regione. Per un esempio su come eseguire questa operazione, consulta l'esempio 1 in questa sezione. 
+ Aggiungi le stesse autorizzazioni contenute nella policy del punto di accesso multi-regione alla policy di bucket sottostante.

**Importante**  
La delega del controllo dell'accesso di un bucket a una policy del punto di accesso multi-regione non modifica il comportamento del bucket a cui si accede direttamente tramite il nome del bucket o il nome della risorsa Amazon (ARN). Tutte le operazioni eseguite direttamente sul bucket continueranno a funzionare come prima. Le limitazioni incluse in una policy del punto di accesso multi-regione si applicano solo alle richieste effettuate tramite il corrispondente punto di accesso multi-regione.

**Example 1: delega dell'accesso a specifici punti di accesso multi-regione nella policy di bucket (per lo stesso account o per più account)**  
La seguente policy di esempio per i bucket consente l'accesso completo a livello di bucket a un punto di accesso multi-regione specifico. Questo significa che tutto l'accesso a questo bucket è controllato dalle policy associate al punto di accesso multi-regione. Si consiglia di configurare i bucket in questo modo per tutti i casi d'uso che non richiedono l'accesso diretto al bucket. È possibile utilizzare questa struttura di policy di bucket per i punti di accesso multi-regione nello stesso account o in un altro account.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement" : [
    {
        "Effect": "Allow",
        "Principal" : { "AWS": "*" },
        "Action" : "*",
        "Resource" : [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*"],
        "Condition": {
            "StringEquals" : { "s3:DataAccessPointArn" : "arn:aws:s3::111122223333:accesspoint/example-multi-region-access-point" }
        }
    }]
}
```
Se sono presenti più punti di accesso multi-regione a cui concedi l'accesso, assicurati di specificare ogni punto di accesso multi-regione.

**Example 2: concessione a un account dell'accesso a un punto di accesso multi-regione nella policy del punto di accesso multi-regione**  
La seguente policy del punto di accesso multi-regione consente all'account `123456789012` di elencare e leggere gli oggetti contenuti nel punto di accesso multi-regione definito con *`MultiRegionAccessPoint_ARN`*.    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
       "Effect": "Allow",
       "Principal": {
          "AWS": "arn:aws:iam::111122223333:user/JohnDoe"
       },
       "Action": [
          "s3:ListBucket",
          "s3:GetObject"
       ],
       "Resource": [ 
          "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias",
          "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*"
       ]
     }
  ]
}
```

**Example 3: policy del punto di accesso multi-regione che consente l'elenco dei bucket**  
La seguente policy del punto di accesso multi-regione consente all'account `123456789012` di elencare gli oggetti contenuti nel punto di accesso multi-regione definito con *`MultiRegionAccessPoint_ARN`*.

# Restrizioni e limitazioni dei punti di accesso multi-regione
<a name="MultiRegionAccessPointRestrictions"></a>

I punti di accesso multi-regione di Amazon S3 presentano le seguenti restrizioni e limitazioni: 

## Nomi e alias
<a name="MultiRegionAccessPointRestrictions-Names"></a>

I nomi dei punti di accesso multi-Regione devono soddisfare i seguenti requisiti:
+  Deve essere unico all'interno di un singolo AWS account.
+  Devono iniziare con un numero o una lettera minuscola.
+  Devono contenere da 3 a 50 caratteri.
+ Non possono iniziare o terminare con un trattino (`-`).
+ Non possono contenere trattini bassi (`_`), lettere maiuscole o punti (`.`).
+  Non possono essere modificati dopo la creazione.

Gli alias dei punti di accesso multi-Regione (che sono diversi dai nomi dei punti di accesso multi-Regione) vengono generati automaticamente da Amazon S3 e non possono essere modificati o riutilizzati. Per ulteriori informazioni sulla differenza tra alias dei punti di accesso multi-Regione e nomi dei punti di accesso multi-Regione e le rispettive regole di denominazione, consulta [Regole per la denominazione dei punti di accesso multi-regione in Amazon S3](multi-region-access-point-naming.md).

## Accesso a un punto di accesso multi-Regione
<a name="MultiRegionAccessPointRestrictions-Access"></a>

Non puoi accedere ai dati tramite un punto di accesso multi-Regione utilizzando endpoint gateway. Puoi invece accedere ai dati tramite un punto di accesso multi-regione utilizzando endpoint di interfaccia. Per utilizzarlo AWS PrivateLink, devi creare endpoint VPC. Per ulteriori informazioni, consulta [Configurazione di un punto di accesso multiregionale da utilizzare con AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md). Tuttavia, tieni presente che IPv6 non è supportato.

Per utilizzare punti di accesso multiregionali con Amazon CloudFront, devi configurare il punto di accesso multiregionale come tipo di `Custom Origin` distribuzione. Per ulteriori informazioni sui vari tipi di origine, consulta [Usare origini diverse con CloudFront le distribuzioni](https://docs.aws.amazon.com//AmazonCloudFront/latest/DeveloperGuide/DownloadDistS3AndCustomOrigins.html). *Per ulteriori informazioni sull'utilizzo di punti di accesso multiregionali con Amazon CloudFront, consulta [Creazione di un'applicazione attiva-attiva e basata sulla prossimità in più regioni](https://aws.amazon.com/blogs/storage/building-an-active-active-latency-based-application-across-multiple-regions/) sul blog Storage.AWS *

**Nota**  
I bucket S3 su Outposts non sono supportati.

## Firma delle richieste API AWS
<a name="MultiRegionAccessPointRestrictions-Signing"></a>

Per firmare una richiesta AWS API, il punto di accesso multiregionale deve soddisfare i seguenti requisiti minimi:

**Nota**  
I punti di accesso multi-regione non supportano richieste anonime.
+ Supporto di Transport Layer Security (TLS) versione 1.2.
+ Supporto di Signature Version 4 (SigV4A): questa versione di SigV4 consente di firmare richieste per più Regioni AWS. Questa caratteristica è utile nelle operazioni API che potrebbero comportare l'accesso ai dati da una tra più regioni. Quando utilizzi un AWS SDK, fornisci le tue credenziali e le richieste ai punti di accesso multiregionali utilizzeranno la versione 4A di Signature senza configurazioni aggiuntive. Assicurati di verificare la [compatibilità del tuo SDK AWS](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html) con l'algoritmo SigV4a. [Per ulteriori informazioni su SigV4a, consulta Firmare le richieste API in. AWS*Riferimenti generali di AWS*](https://docs.aws.amazon.com/general/latest/gr/signing_aws_api_requests.html)
**Nota**  
Per utilizzare Sigv4A con credenziali di sicurezza temporanee, ad esempio quando si utilizzano ruoli (IAM), è possibile richiedere le credenziali temporanee da un endpoint Regional AWS Identity and Access Management (). AWS Security Token Service AWS STS Se si richiedono credenziali temporanee dall'endpoint globale di AWS STS (`sts.amazonaws.com`), è necessario prima impostare la compatibilità regionale dei token di sessione affinché l'endpoint globale sia valido in tutte le Regioni AWS. [https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html)

## Operazioni API di Amazon S3
<a name="MultiRegionAccessPointRestrictions-API"></a>
+ `CopyObject` è supportato come destinazione solo quando si utilizza l’ARN del punto di accesso multi-Regione.
+ La funzionalità per le operazioni in batch di S3 non è supportata.

## AWS SDKs
<a name="MultiRegionAccessPointRestrictions-SDKs"></a>

Alcune AWS SDKs non sono supportate. Per confermare quali AWS SDKs sono supportati per i punti di accesso multiregionali, consulta [Compatibilità con AWS SDKs](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat).

## Service Quotas
<a name="MultiRegionAccessPointRestrictions-Quotas"></a>

Tieni presente le seguenti limitazioni delle quote di servizio:
+ È previsto un massimo di 100 punti di accesso multi-regione per account.
+ Esiste un limite di 17 regioni per un singolo punto di accesso multi-regione.

## Creazione, eliminazione o modifica di un punto di accesso multi-Regione
<a name="MultiRegionAccessPointRestrictions-Modifying"></a>

Quando crei, elimini o modifichi un punto di accesso multi-Regione, tieni presente le seguenti regole e restrizioni:
+ Dopo aver creato un punto di accesso multi-regione, non puoi aggiungere, modificare o rimuovere i bucket dalla relativa configurazione. Per modificare i bucket, devi eliminare l'intero punto di accesso multi-regione e crearne uno nuovo. Se viene eliminato un bucket multi-account nel punto di accesso multi-regione, l'unico modo per ricollegarlo è ricreare il bucket utilizzando lo stesso nome e la stessa regione in tale account.
+ I bucket sottostanti (nello stesso account) utilizzati in un punto di accesso multi-regione possono essere eliminati solo dopo aver eliminato il punto di accesso multi-regione associato.

## Supporto delle Regioni
<a name="MultiRegionAccessPointRestrictions-RegionSupport"></a>

**Richieste del piano di controllo (control-plane)**

Tutte le richieste del piano di controllo (control-plane) per creare o mantenere punti di accesso multi-regione devono essere instradate alla regione `US West (Oregon)`. Per richieste sul piano dati del punto di accesso multi-regione, non è necessario specificare le regioni. 

Per il piano di controllo (control-plane) di failover del punto di accesso multi-regione, le richieste devono essere instradate a una delle cinque regioni supportate seguenti:
+ `US East (N. Virginia)`
+ `US West (Oregon)`
+ `Asia Pacific (Sydney)`
+ `Asia Pacific (Tokyo)`
+ `Europe (Ireland)`

**Regioni abilitate per impostazione predefinita**

Il punto di accesso multiregionale supporta i bucket con le seguenti impostazioni predefinite Regioni AWS (che sono [abilitati per impostazione predefinita](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) nel tuo): Account AWS
+ `US East (N. Virginia)`
+ `US East (Ohio)`
+ `US West (N. California)`
+ `US West (Oregon)`
+ `Asia Pacific (Mumbai)`
+ `Asia Pacific (Osaka)`
+ `Asia Pacific (Seoul)`
+ `Asia Pacific (Singapore)`
+ `Asia Pacific (Sydney)`
+ `Asia Pacific (Tokyo)`
+ `Canada (Central)`
+ `Europe (Frankfurt)`
+ `Europe (Ireland)`
+ `Europe (London)`
+ `Europe (Paris)`
+ `Europe (Stockholm)`
+ `South America (São Paulo)`

**AWS Regioni opzionali**

Il punto di accesso multiregionale supporta anche i bucket nel seguente opt-in Regioni AWS (che sono [disabilitati per impostazione predefinita](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) nelle tue): Account AWS
+ `Africa (Cape Town)`
+ `Asia Pacific (Hong Kong)`
+ `Asia Pacific (Jakarta)`
+ `Asia Pacific (Melbourne)`
+ `Asia Pacific (Hyderabad)`
+ `Canada West (Calgary)`
+ `Europe (Zurich)`
+ `Europe (Milan)`
+ `Europe (Spain)`
+ `Israel (Tel Aviv)`
+ `Middle East (Bahrain)`
+ `Middle East (UAE)`

**Nota**  
Non sono previsti costi aggiuntivi per l’abilitazione di una Regione con consenso esplicito. Tuttavia, la creazione o l’utilizzo di una risorsa tramite un punto di accesso multi-Regione comporta dei costi di fatturazione.

Una Regione da abilitare deve essere abilitata manualmente durante la configurazione o la creazione del punto di accesso multi-Regione. Per ulteriori informazioni sui comportamenti delle Regioni da abilitare per i punti di accesso multi-Regione, consulta [Configurazione delle Regioni con consenso esplicito con punti di accesso multi-Regione](ConfiguringMrapOptInRegions.md). *Per informazioni su come abilitare una regione opt-in nella tua Account AWS, consulta [Abilitare o disabilitare una regione per gli account autonomi nella Guida di riferimento per la AWS gestione degli account](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone).*

# Instradamento della richiesta tramite punto di accesso multi-regione
<a name="MultiRegionAccessPointRequestRouting"></a>

 Quando effettui una richiesta tramite un punto di accesso multi-regione, Amazon S3 individua i bucket associati al punto di accesso multi-regione più vicini. Amazon S3 indirizza quindi la richiesta a quel bucket, indipendentemente dalla regione AWS in cui si trova. 

Dopo che il punto di accesso multi-regione instrada la richiesta al bucket più vicino, Amazon S3 elabora la richiesta come se fosse stata eseguita direttamente su tale bucket. I punti di accesso multi-regione non rilevano il contenuto dei dati di un bucket Amazon S3. Pertanto, il bucket che riceve la richiesta potrebbe non contenere i dati richiesti. Per creare set di dati coerenti nei bucket Amazon S3 associati a un punto di accesso multi-regione, puoi configurare la replica tra regioni di Amazon S3 (CRR). Quindi qualsiasi bucket può soddisfare la richiesta correttamente. 

 Amazon S3 indirizza le richieste dei punti di accesso multi-regione in base alle seguenti regole: 
+ Amazon S3 ottimizza le richieste da evadere in base alla prossimità. Esamina i bucket supportati dal punto di accesso multi-regione e inoltra la richiesta al bucket più vicino. 
+ Se la richiesta specifica una risorsa esistente (ad esempio `GetObject`), Amazon S3 *non* considera il nome dell'oggetto durante l'adempimento della richiesta. Ciò significa che un oggetto potrebbe esistere in un bucket nel punto di accesso multi-regione, ma la richiesta verrà instradata a un bucket che non contiene l'oggetto. Questo scenario restituirà un messaggio di errore 404 al client. 

  Per evitare errori 404, ti consigliamo di configurare la replica tra regioni di Amazon S3 (S3 CRR) per i bucket. La replica consente infatti di risolvere il problema potenziale che nasce quando l'oggetto desiderato si trova in un bucket del punto di accesso multi-regione, ma non si trova nel bucket specifico a cui è stata instradata la richiesta. Per maggiori informazioni sulla configurazione della replica, consulta [Configurazione della replica per l'utilizzo con punti di accesso multi-regione](MultiRegionAccessPointBucketReplication.md). 

  Per garantire che le richieste vengano soddisfatte utilizzando gli oggetti specifici desiderati, è inoltre consigliabile attivare il controllo delle versioni dei bucket e includere gli ID delle versioni nelle richieste. In questo modo sei sicuro di disporre della versione corretta dell'oggetto che stai cercando. I bucket con la funzione di controllo delle versioni abilitata consentono di ripristinare gli oggetti che sono stati sovrascritti per errore. Per ulteriori informazioni, consulta [Utilizzo della funzione Controllo delle versioni nei bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).
+ Se la richiesta prevede di creare una risorsa (ad esempio `PutObject` o `CreateMultipartUpload`), Amazon S3 la esegue utilizzando il bucket più vicino. Ad esempio, considera un'azienda di video che vuole supportare i caricamenti video da qualsiasi parte del mondo. Quando un utente invia una richiesta `PUT` al punto di accesso multi-regione, l'oggetto viene inserito nel bucket più vicino. Per rendere il video caricato disponibile ad altre persone in tutto il mondo per il download con la latenza più bassa, puoi utilizzare la funzionalità di replica tra regioni di S3 (S3 CRR) con replica bidirezionale. L'uso di questa funzionalità con la replica tra regioni mantiene sincronizzato il contenuto di tutti i bucket associati al punto di accesso multi-regione. Per ulteriori informazioni sulla replica con i punti di accesso multi-regione, consulta [Configurazione della replica per l'utilizzo con punti di accesso multi-regione](MultiRegionAccessPointBucketReplication.md).

# Controlli di failover dei punti di accesso multi-regione Amazon S3
<a name="MrapFailover"></a>

Con i controlli di failover dei punti di accesso multi-regione di Amazon S3, puoi mantenere la continuità aziendale durante le interruzioni del traffico regionale, dotando al contempo le tue applicazioni di un'architettura multi-regione per soddisfare le esigenze di conformità e ridondanza. Se il traffico regionale viene interrotto, puoi utilizzare i controlli di failover dei punti di accesso multiregione per selezionare quale dispositivo Regioni AWS dietro un punto di accesso multiregionale Amazon S3 elaborerà le richieste di accesso ai dati e di archiviazione. 

Per supportare il failover, è possibile configurare il punto di accesso multi-regione in una configurazione attiva-passiva, con il traffico che fluisce verso la regione attiva in condizioni normali e una regione passiva in standby per il failover. 

Ad esempio, per eseguire il failover su una Regione AWS regione a tua scelta, sposti il traffico dalla regione principale (attiva) alla regione secondaria (passiva). In una configurazione attiva-passiva come questa, un bucket è attivo e accetta traffico, mentre l'altro bucket è passivo e non accetta traffico. Il bucket passivo viene utilizzato per il ripristino di emergenza. Quando si avvia il failover, tutto il traffico (ad esempio le richieste `GET` o `PUT`) viene indirizzato al bucket nello stato attivo (in una regione) e allontanato dal bucket nello stato passivo (in un'altra regione).

Se la replica tra regioni di S3 (S3 CRR) è abilitata con regole di replica bidirezionale, puoi mantenere sincronizzati i bucket durante un failover. Inoltre, se hai abilitato la replica CRR in una configurazione attiva-attiva, i punti di accesso multi-regione Amazon S3 possono anche recuperare i dati dalla posizione del bucket più vicina, migliorando le prestazioni delle applicazioni. 

## Regione AWS supporto
<a name="RegionSupport"></a>

Con i controlli di failover dei punti di accesso multi-regione Amazon S3, i tuoi bucket S3 possono trovarsi in una qualsiasi delle [17 regioni](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html) in cui sono supportati i punti di accesso multi-regione. È possibile avviare il failover in due regioni qualsiasi contemporaneamente.

**Nota**  
Sebbene il failover venga avviato solo tra due regioni contemporaneamente, è possibile aggiornare separatamente gli stati di instradamento per più regioni contemporaneamente nel punto di accesso multi-regione.

I seguenti argomenti illustrano come utilizzare e gestire i controlli di failover dei punti di controllo multi-regione Amazon S3.

**Topics**
+ [Regione AWS supporto](#RegionSupport)
+ [Stati di instradamenti dei punti di accesso multi-regione Amazon S3](FailoverConfiguration.md)
+ [Utilizzo dei controlli di failover dei punti di accesso multi-regione Amazon S3](UsingFailover.md)
+ [Errori dei controlli di failover dei punti di accesso multi-regione Amazon S3](mrap-failover-errors.md)

# Stati di instradamenti dei punti di accesso multi-regione Amazon S3
<a name="FailoverConfiguration"></a>

La configurazione del failover dei punti di accesso multi-regione di Amazon S3 determina lo stato di instradamento delle Regioni AWS utilizzate con il punto di accesso multi-regione. Puoi configurare il tuo punto di accesso multi-regione Amazon S3 in modo che sia in uno stato attivo-attivo o attivo-passivo.
+ **Attivo-attivo**: in una configurazione attiva-attiva, tutte le richieste vengono inviate automaticamente alla Regione AWS del punto di accesso multi-regione più vicino. Dopo che il punto di accesso multi-regione è stato configurato con stato attivo, tutte le regioni possono ricevere traffico. Se si verifica un'interruzione del traffico in una configurazione attiva-attiva, il traffico di rete verrà automaticamente reindirizzato a una delle regioni attive.
+ **Attivo-passivo**: in una configurazione attiva-passiva, le regioni attive nel punto di accesso multi-regione ricevono traffico e quelle passive no. Se intendi utilizzare i controlli di failover S3 per avviare il failover in una situazione di emergenza, configura i tuoi punti di accesso multi-regione in una configurazione attiva-passiva mentre esegui i test e la pianificazione del ripristino di emergenza.

# Utilizzo dei controlli di failover dei punti di accesso multi-regione Amazon S3
<a name="UsingFailover"></a>

Questa sezione illustra come gestire e utilizzare i controlli di failover dei punti di accesso Amazon S3 utilizzando la Console di gestione AWS. 

**Nella sezione **Configurazione del failover della pagina dei dettagli del punto di accesso multiregionale sono disponibili due controlli di failover** Console di gestione AWS: **Modifica dello stato del routing** e Failover.** Puoi utilizzare questi controlli nel modo seguente: 
+ **Modifica lo stato del routing****: è possibile modificare manualmente gli stati di routing fino a 17 Regioni AWS in un'unica richiesta per il punto di accesso multiregionale selezionando Modifica lo stato del routing.** È possibile utilizzare **Edit routing status** (Modifica stato di instradamento) per i seguenti scopi: 
  + Per impostare o modificare gli stati di instradamento di una o più regioni nel punto di accesso multi-regione
  + Per creare una configurazione di failover per il punto di accesso multi-regione configurando due regioni in modo che siano in uno stato attivo-passivo
  + Per eseguire manualmente il failover delle regioni
  + Per scambiare manualmente il traffico tra regioni
+ **Failover**: quando si avvia il failover scegliendo **Failover**, si aggiornano solo gli stati di instradamento di due regioni già configurate per essere in uno stato attivo-passivo. Durante un failover avviato scegliendo **Failover**, gli stati di instradamento tra le due regioni vengono scambiati automaticamente.

## Modifica dello stato di instradamento delle regioni nel punto di accesso multi-regione
<a name="editing-mrap-routing-status"></a>

È possibile aggiornare manualmente gli stati di routing fino a 17 Regioni AWS in un'unica richiesta per il punto di accesso multiregionale scegliendo **Modifica lo stato del routing** nella sezione Configurazione del **failover** della pagina dei dettagli del punto di accesso multiregionale. Tuttavia, quando si avvia il failover scegliendo **Failover**, si aggiornano solo gli stati di instradamento di due regioni già configurate per essere in uno stato attivo-passivo. Durante un failover avviato scegliendo **Failover**, gli stati di instradamento tra le due regioni vengono scambiati automaticamente.

È possibile utilizzare **Edit routing status** (Modifica stato di instradamento) (come descritto nella procedura seguente) per i seguenti scopi:
+ Per impostare o modificare gli stati di instradamento di una o più regioni nel punto di accesso multi-regione
+ Per creare una configurazione di failover per il punto di accesso multi-regione configurando due regioni in modo che siano in uno stato attivo-passivo
+ Per eseguire manualmente il failover delle regioni
+ Per scambiare manualmente il traffico tra regioni

### Utilizzo della console S3
<a name="update-mrap-routing-console"></a>

**Per aggiornare lo stato di instradamento delle regioni nel punto di accesso multi-regione**



1. Accedi alla console di gestione. AWS 

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il punto di accesso multi-regione da aggiornare.

1. Scegli la scheda **Replication and failover** (Replica e failover).

1. Seleziona una o più regioni di cui desideri modificare lo stato di instradamento.
**Nota**  
Per avviare il failover, almeno una regione Regione AWS deve essere designata come **attiva** e una regione deve essere designata come **passiva** nel punto di accesso multiregionale.

1. Scegli **Edit routing status** (Modifica stato di instradamento).

1. Nella finestra di dialogo visualizzata, seleziona **Active** (Attivo) o **Passive** (Passivo) per l'opzione **Routing status** (Stato instradamento) per ciascuna regione.

   Uno stato attivo consente di indirizzare il traffico verso la regione. Uno stato passivo impedisce che qualsiasi traffico venga indirizzato verso la regione.

   **Se si sta creando una configurazione di failover per il punto di accesso multiregionale o si avvia il failover, almeno una regione Regione AWS deve essere designata come **attiva** e una regione deve essere designata come passiva nel punto di accesso multiregionale.**

1. Scegli **Save routing status** (Salva stato di instradamento). Il reindirizzamento del traffico richiede circa 2 minuti.

Dopo aver inviato lo stato di routing del punto di accesso multiregionale, è possibile verificare le modifiche allo stato del routing. Regioni AWS Per verificare queste modifiche, vai su Amazon CloudWatch all'indirizzo [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/)per monitorare lo spostamento del traffico di richieste di dati di Amazon S3 (ad esempio `GET` e `PUT` richieste) tra regioni attive e passive. Le connessioni esistenti non verranno interrotte durante il failover. Le connessioni esistenti continueranno fino a raggiungere lo stato di operazione riuscita o errore.

### Utilizzando il AWS CLI
<a name="update-mrap-routing-cli"></a>

**Nota**  
È possibile eseguire comandi di AWS CLI routing di punti di accesso multiregionali su una qualsiasi di queste cinque regioni:  
`ap-southeast-2`
`ap-northeast-1`
`us-east-1`
`us-west-2`
`eu-west-1`

Il seguente comando di esempio aggiorna la configurazione di instradamento corrente per i punti di accesso multi-regione. Per aggiornare lo stato attivo o passivo di un bucket, imposta il valore `TrafficDialPercentage` su `100` per attivo e su `0` per passivo. In questo esempio, `amzn-s3-demo-bucket1` è impostato su attivo e *amzn-s3-demo-bucket2* su passivo. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni. 

```
aws s3control submit-multi-region-access-point-routes
--region ap-southeast-2 
--account-id 123456789012 
--mrap MultiRegionAccessPoint_ARN
--route-updates Bucket=amzn-s3-demo-bucket1,TrafficDialPercentage=100
                Bucket=amzn-s3-demo-bucket2
,TrafficDialPercentage=0
```

Il seguente comando di esempio recupera la configurazione di instradamento aggiornata per i punti di accesso multi-regione. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 123456789012
--mrap MultiRegionAccessPoint_ARN
```

## Avvio del failover
<a name="InitiatingFailover"></a>

Quando avvii il failover scegliendo **Failover** nella sezione **Failover configuration** (Configurazione failover) nella pagina dei dettagli del punto di accesso multi-regione, il traffico delle richieste Amazon S3 viene automaticamente spostato su una Regione AWS alternativa. Il processo di failover viene completato entro 2 minuti. 

È possibile avviare un failover su due Regioni AWS contemporaneamente (delle [17 regioni in cui sono supportati i punti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html) di accesso multiregionali). Gli eventi di failover vengono quindi registrati in AWS CloudTrail. Una volta completato il failover, puoi monitorare il traffico Amazon S3 e qualsiasi aggiornamento del routing del traffico verso la nuova regione attiva in Amazon. CloudWatch

**Importante**  
Per mantenere sincronizzati tutti i metadati e gli oggetti tra i bucket durante la replica dei dati, si consiglia di creare regole di replica bidirezionali e abilitare la sincronizzazione delle modifiche della replica prima di configurare i controlli di failover.   
Le regole di replica bidirezionale aiutano a garantire che quando i dati vengono scritti nel bucket Amazon S3, il traffico viene poi replicato nuovamente nel bucket di origine. La sincronizzazione delle modifiche delle repliche aiuta a garantire che i metadati degli oggetti siano sincronizzati anche tra i bucket durante la replica bidirezionale.   
Per maggiori informazioni sulla configurazione della replica per supportare il failover, consulta [Configurazione della replica per l'utilizzo con punti di accesso multi-regione](MultiRegionAccessPointBucketReplication.md).

**Per avviare il failover tra bucket replicati**

1. Accedi alla console di gestione. AWS 

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il punto di accesso multi-regione da utilizzare per avviare il failover.

1. Scegli la scheda **Replication and failover** (Replica e failover).

1. Scorri verso il basso fino alla sezione **Failover configuration** (Configurazione failover) e selezionane due Regioni AWS.
**Nota**  
Per avviare il failover, almeno una regione Regione AWS deve essere designata come **attiva** e una regione deve essere designata come **passiva** nel punto di accesso multiregionale. Uno stato attivo consente di indirizzare il traffico verso una regione. Uno stato passivo impedisce che qualsiasi traffico venga indirizzato verso la regione.

1. Scegli **Failover**.

1. Nella finestra di dialogo, scegli di nuovo **Failover** per avviare il processo di failover. Durante questo processo, gli stati di instradamento delle due regioni vengono scambiati automaticamente. Tutto il nuovo traffico viene indirizzato alla regione che diventa attiva e il traffico smette di essere indirizzato verso la regione che diventa passiva. Il reindirizzamento del traffico richiede circa 2 minuti.

   Dopo aver avviato il processo di failover, puoi verificare le variazioni a livello di traffico. Per verificare queste modifiche, vai su Amazon CloudWatch all'indirizzo [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/)per monitorare lo spostamento del traffico di richieste di dati di Amazon S3 (ad esempio `GET` e `PUT` richieste) tra regioni attive e passive. Le connessioni esistenti non verranno interrotte durante il failover. Le connessioni esistenti continueranno fino a raggiungere lo stato di operazione riuscita o errore. 

## Visualizzazione dei controlli di instradamento del punto di accesso multi-regione Amazon S3
<a name="viewing-mrap-routing-controls"></a>

### Utilizzo della console S3
<a name="viewing-mrap-routing-console"></a>

**Per visualizzare i controlli di instradamento per il punto di accesso multi-regione Amazon S3**



1. Accedi alla console di gestione. AWS 

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il punto di accesso multi-regione che desideri esaminare.

1. Scegli la scheda **Replication and failover** (Replica e failover). Questa pagina mostra i dettagli e il riepilogo della configurazione dell'instradamento per il punto di accesso multi-regione, le regole di replica associate e i parametri di replica. Puoi vedere lo stato del instradamento delle tue regioni nella sezione **Failover configuration** (Configurazione failover).

### Utilizzando il AWS CLI
<a name="viewing-mrap-routing-cli"></a>

Il AWS CLI comando di esempio seguente ottiene la configurazione corrente del percorso del punto di accesso multiregionale  per la regione specificata. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 123456789012 
--mrap MultiRegionAccessPoint_ARN
```

**Nota**  
Questo comando può essere eseguito solo su queste cinque regioni:  
`ap-southeast-2`
`ap-northeast-1`
`us-east-1`
`us-west-2`
`eu-west-1`

# Errori dei controlli di failover dei punti di accesso multi-regione Amazon S3
<a name="mrap-failover-errors"></a>

Quando si aggiorna la configurazione di failover per il punto di accesso multi-regione, è possibile che si verifichi uno dei seguenti errori:
+ HTTP 400 - Richiesta non valida): questo errore si può verificare se si inserisce un ARN non valido per un punto di accesso multi-regione durante l'aggiornamento della configurazione del failover. Puoi confermare l'ARN del punto di accesso multi-regione facendo riferimento alla policy del punto di accesso multi-regione in questione. Per esaminare o aggiornare la policy del punto di accesso multi-regione, consulta [Modifica della policy dei punti di accesso multi-regione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingFailover.html#editing-mrap-policy). Questo errore può verificarsi anche se si utilizza una stringa vuota o una stringa casuale durante l'aggiornamento dei controlli di failover del punto di accesso multi-regione Amazon S3. Assicurati di usare il seguente formato di ARN per punti di accesso multi-regione: 

  `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias` 
+ HTTP 503 Slow Down (HTTP 503 - Rallentamento): questo errore si verifica se si inviano troppe richieste in un breve periodo di tempo. Le richieste rifiutate genereranno un errore.
+ HTTP 409 Conflict (HTTP 409 - Conflitto): questo errore si verifica quando due o più richieste di aggiornamento simultanee della configurazione dell'instradamento sono destinate a un unico punto di accesso multi-regione. La prima richiesta ha esito positivo, ma tutte le altre richieste hanno esito negativo e ciò genera un errore.
+ Metodo HTTP 405 non consentito: questo errore si verifica quando è stato selezionato un punto di accesso multiregionale con uno solo all' Regione AWS avvio del failover. È necessario selezionare due regioni prima di poter avviare il failover. In caso contrario, viene restituito un errore.

# Configurazione della replica per l'utilizzo con punti di accesso multi-regione
<a name="MultiRegionAccessPointBucketReplication"></a>

Quando effettui una richiesta all'endpoint di un punto di accesso multi-regione, Amazon S3 instrada automaticamente la richiesta al bucket più vicino. Per questa decisione, Amazon S3 non prende in considerazione il contenuto della richiesta. Se esegui una richiesta `GET` per un oggetto, la richiesta potrebbe essere instradata a un bucket che non dispone di una copia dell'oggetto. In questo caso, riceverai un errore con il codice di stato HTTP 404 (Non trovato). Per ulteriori informazioni sull'instradamento delle richieste ai punti di accesso multi-regione, consulta [Instradamento della richiesta tramite punto di accesso multi-regione](MultiRegionAccessPointRequestRouting.md).

Se desideri che il punto di accesso multi-regione sia in grado di recuperare l'oggetto indipendentemente dal bucket che riceve la richiesta, devi configurare la replica tra regioni di Amazon S3 (CRR). 

 Ad esempio, considera un punto di accesso multi-regione con tre bucket: 
+ Un bucket denominato `amzn-s3-demo-bucket1` nella regione `US West (Oregon)` che contiene l'oggetto `my-image.jpg` 
+ Un bucket denominato `amzn-s3-demo-bucket2` nella regione `Asia Pacific (Mumbai)` che contiene l'oggetto `my-image.jpg` 
+ Un bucket denominato `amzn-s3-demo-bucket` nella regione `Europe (Frankfurt)` che non contiene l'oggetto `my-image.jpg` 

In questa situazione, se esegui una richiesta `GetObject` per l'oggetto`my-image.jpg`, il successo della richiesta dipende dal bucket che la riceve. Poiché Amazon S3 non considera il contenuto della richiesta, potrebbe instradare la richiesta `GetObject` al bucket `amzn-s3-demo-bucket` se è il bucket più vicino che risponde. Anche se l'oggetto si trova in un bucket nel punto di accesso multi-regione, otterrai un errore 404 (non trovato) perché il singolo bucket che ha ricevuto la richiesta non ha l'oggetto. 

L'attivazione della replica tra regioni (CRR) consente di evitare questo risultato. Con le regole di replica appropriate, l'oggetto `my-image.jpg` viene copiato nel bucket `amzn-s3-demo-bucket`. Pertanto, se Amazon S3 instrada la tua richiesta a quel bucket, ora puoi recuperare l'oggetto. 

La replica funziona normalmente con i bucket assegnati a un punto di accesso multi-regione. Amazon S3 non esegue alcuna gestione speciale con i bucket che si trovano in punti di accesso multi-regione. Per ulteriori informazioni sulla configurazione della replica nei bucket, consulta [Panoramica della configurazione della replica in tempo reale](replication-how-setup.md).

**Suggerimenti per l'utilizzo della replica con i punti di accesso multi-regione**  
Per ottimizzare le prestazioni di replica in caso di utilizzo dei punti di accesso multi-regione, consigliamo quanto segue: 
+ Configurare la funzionalità di controllo del tempo di replica di S3 (S3 RTC). Per eseguire la replica dei dati in regioni diverse in un arco di tempo prevedibile, puoi utilizzare S3 RTC. S3 RTC replica il 99,99% dei nuovi oggetti archiviati in Amazon S3 entro 15 minuti, secondo un Accordo sul Livello di Servizio (SLA). Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md). Non vi sono costi aggiuntivi per S3 RTC. Per ulteriori informazioni, consulta la pagina [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).
+ Utilizza la replica bidirezionale per supportare la sincronizzazione dei bucket quando questi vengono aggiornati tramite il punto di accesso multi-regione. Per ulteriori informazioni, consulta [Creare regole di replica bidirezionale per il punto di accesso multi-regione](mrap-create-two-way-replication-rules.md).
+ Crea punti di accesso multi-regione multi-account per replicare i dati in bucket in Account AWS distinti. Questo approccio prevede la separazione a livello di account, in modo che i dati possano essere accessibili e replicati su diversi account in regioni diverse dal bucket di origine. La configurazione di punti di accesso multi-regione multi-account non comporta costi aggiuntivi. Se sei proprietario di un bucket ma non possiedi il punto di accesso multi-regione, paghi solo i costi di richiesta e trasferimento dei dati. I proprietari di punti di accesso multi-regione pagano i costi di instradamento dei dati e accelerazione di Internet. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).
+ Abilita la sincronizzazione delle modifiche delle repliche per ogni regola di replica per mantenere sincronizzate anche le modifiche dei metadati degli oggetti. Per ulteriori informazioni, consulta [Abilitazione della sincronizzazione delle modifiche alla replica](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes).
+ Abilita i CloudWatch parametri di Amazon per [monitorare gli eventi di replica.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html) CloudWatch si applicano le tariffe relative ai parametri. Per ulteriori informazioni, consulta i [ CloudWatchprezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/).

**Topics**
+ [Creare una regola di replica unidirezionale per il punto di accesso multi-regione](mrap-create-one-way-replication-rules.md)
+ [Creare regole di replica bidirezionale per il punto di accesso multi-regione](mrap-create-two-way-replication-rules.md)
+ [Visualizzare regole di replica bidirezionale per il punto di accesso multi-regione](mrap-view-replication-rules.md)

# Creare una regola di replica unidirezionale per il punto di accesso multi-regione
<a name="mrap-create-one-way-replication-rules"></a>

Le regole di replica consentono la copia asincrona e automatica di oggetti tra bucket. Una regola di replica unidirezionale aiuta a garantire che i dati vengano replicati completamente da un bucket di origine in un bucket Regione AWS di destinazione in un'altra regione. Quando è configurata la replica unidirezionale, viene creata una regola di replica dal bucket di origine (*amzn-s3-demo-bucket*) al bucket di destinazione (*amzn-s3-demo-bucket*). Come tutte le regole di replica, puoi applicare la regola di replica unidirezionale all'intero bucket Amazon S3 o a un sottoinsieme di oggetti filtrati per prefisso o tag oggetto.

**Importante**  
Ti consigliamo di utilizzare la replica unidirezionale se gli utenti utilizzeranno solo gli oggetti nei bucket di destinazione. Se gli utenti caricheranno o modificheranno gli oggetti nei bucket di destinazione, utilizza la replica bidirezionale per mantenere sincronizzati tutti i bucket. Ti consigliamo anche di utilizzare la replica bidirezionale se prevedi di usare il punto di accesso multi-regione per il failover. Per configurare la replica bidirezionale, consulta [Creare regole di replica bidirezionale per il punto di accesso multi-regione](mrap-create-two-way-replication-rules.md).

**Per creare una regola di replica bidirezionale per il punto di accesso multi-regione**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il nome del punto di accesso multi-regione.

1. Scegli la scheda **Replication and failover** (Replica e failover).

1. Scorri verso il basso fino alla sezione **Replication rules** (Regole di replica) e quindi scegli **Create replication rules** (Crea regole di replica). Assicurati di disporre di autorizzazioni sufficienti per creare la regola di replica; in caso contrario, il controllo delle versioni verrà disabilitato.
**Nota**  
Puoi creare regole di replica solo per i bucket gestiti dal tuo account. Per creare regole di replica per i bucket esterni, saranno i relativi proprietari a dover creare tali regole.

1. Nella pagina **Creazione di regole di replica**, scegli il modello **Replica oggetti da uno o più bucket di origine a uno o più bucket di destinazione**.
**Importante**  
Quando crei regole di replica utilizzando questo modello, tali regole sostituiscono qualsiasi regola di replica esistente già assegnata al bucket.   
Per aggiungere o modificare le regole di replica esistenti anziché sostituirle, vai alla scheda **Management** (Gestione) di ciascun bucket nella console, quindi modifica le regole nella sezione **Replication rules** (Regole di replica). Puoi anche aggiungere o modificare le regole di replica esistenti utilizzando l'API AWS CLI SDKs, o REST. Per ulteriori informazioni, consulta [Elementi del file di configurazione della replica](replication-add-config.md).

1. Nella sezione **Origine e destinazione**, in **Bucket di origine**, seleziona uno o più bucket da cui desideri eseguire la replica degli oggetti. Tutti i bucket (di origine e di destinazione) scelti per la replica devono avere la funzionalità S3 Controllo delle versioni abilitata e ogni bucket deve trovarsi in una Regione AWS diversa. Per ulteriori informazioni sulla funzionalità S3 di controllo delle versioni, consulta [Utilizzo della funzione Controllo delle versioni nei bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).

   In **Bucket di destinazione**, seleziona uno o più bucket in cui desideri eseguire la replica degli oggetti.

1. Nella sezione **Replication rule configuration** (Configurazione regole di replica), scegli se la regola di replica sarà abilitata (opzione **Enabled**) o disabilitata (opzione **Disabled**) al momento della creazione.
**Nota**  
Non è possibile immettere un nome nella casella **Replication rule name** (Nome regola di replica). I nomi delle regole di replica vengono generati in base alla configurazione definita dall'utente quando crea la regola di replica.

1. Nella sezione **Scope** (Ambito), scegli l'ambito appropriato per la replica.
   + Per replicare l'intero bucket, scegli **Apply to all objects in the bucket** (Applica a tutti gli oggetti nel bucket). 
   + Per replicare un sottoinsieme di oggetti nel bucket, scegli **Limit the scope of this rule using one or more filters** (Limita l'ambito di questa regola utilizzando uno o più filtri). 

     Puoi filtrare gli oggetti utilizzando un prefisso, tag di oggetti o una combinazione di entrambi. 
     + Per limitare la replica a tutti gli oggetti con nomi che iniziano con la stessa stringa (ad esempio, `pictures`), immetti un prefisso nella caselal **Prefix** (Prefisso). 

       Se specifichi un prefisso corrispondente al nome di una cartella, devi utilizzare un delimitatore, ad esempio `/` (barra), per indicarne il livello nella gerarchica (ad esempio, `pictures/`). Per ulteriori informazioni sui prefissi, consulta [Organizzazione degli oggetti utilizzando i prefissi](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html).
     + Per replicare tutti gli oggetti contenenti uno o più tag di oggetto, seleziona **Add tag** (Aggiungi tag) e specifica la coppia valore-chiave nelle caselle. Per aggiungere un altro tag, ripeti la procedura. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md).

1. Scorri verso il basso fino alla sezione **Additional replication options** (Opzioni di replica aggiuntive) e seleziona le opzioni di replica che desideri applicare.
**Nota**  
Ti consigliamo di applicare le seguenti opzioni:  
**Replication time control (RTC)** (Controllo tempo di replica [RTC]): per replicare i dati in regioni diverse in un intervallo di tempo prevedibile, puoi utilizzare la funzionalità di controllo del tempo di replica di S3 (S3 RTC). S3 RTC replica il 99,99% dei nuovi oggetti archiviati in Amazon S3 entro 15 minuti, secondo un Accordo sul Livello di Servizio (SLA). Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).
**Metriche e notifiche di replica**: abilita i parametri di Amazon per monitorare gli CloudWatch eventi di replica.
**Replica del contrassegno di eliminazione**: i contrassegni di eliminazione creati dalle operazioni di eliminazione di S3 verranno replicati. I contrassegni di eliminazione creati dalle regole del ciclo di vita non vengono replicati. Per ulteriori informazioni, consulta [Replica dei contrassegni di eliminazione tra i bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-marker-replication.html).
Sono previsti costi aggiuntivi per S3 RTC e i parametri e le notifiche di replica. CloudWatch Per ulteriori informazioni, consulta i prezzi di [Amazon S3 e i prezzi](https://aws.amazon.com/s3/pricing/) di [Amazon CloudWatch ](https://aws.amazon.com/cloudwatch/pricing/).

1. Se stai scrivendo una nuova regola di replica che sostituisce una esistente, seleziona **I acknowledge that by choosing Create replication rules, these existing replication rules will be overwritten** (Riconosco che scegliendo Crea regole di replica, queste regole di replica esistenti verranno sovrascritte).

1. Scegli **Creazione di regole di replica** per creare e salvare la nuova regola di replica unidirezionale.

# Creare regole di replica bidirezionale per il punto di accesso multi-regione
<a name="mrap-create-two-way-replication-rules"></a>

Le regole di replica consentono la copia asincrona e automatica di oggetti tra bucket. Una regola di replica bidirezionale garantisce che i dati vengano sincronizzati completamente tra due o più bucket in Regioni AWS diverse. Per impostare la replica bidirezionale, viene creata una regola di replica dal bucket di origine (DOC-EXAMPLE-BUCKET-1) al bucket contenente le repliche (DOC-EXAMPLE-BUCKET-2). Quindi, viene creata una seconda regola di replica dal bucket contenente le repliche (DOC-EXAMPLE-BUCKET-2) al bucket di origine (DOC-EXAMPLE-BUCKET-1).

Come tutte le regole di replica, puoi applicare la regola di replica bidirezionale all'intero bucket Amazon S3 o a un sottoinsieme di oggetti filtrati per prefisso o tag di oggetto. Puoi anche mantenere sincronizzate le modifiche dei metadati dei tuoi oggetti [abilitando la sincronizzazione delle modifiche delle repliche](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes) per ogni regola di replica. Puoi abilitare la sincronizzazione delle modifiche alla replica tramite la console Amazon S3, AWS CLI AWS SDKs l'API REST di Amazon S3 oppure. AWS CloudFormation

Per monitorare l'avanzamento della replica di oggetti e metadati degli oggetti in Amazon CloudWatch, abilita le metriche e le notifiche di replica S3. Per maggiori informazioni, consulta [Monitoraggio dell'avanzamento con i parametri di replica e le notifiche di eventi Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).

**Per creare una regola di replica bidirezionale per il punto di accesso multi-regione**



1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il nome del punto di accesso multi-regione da aggiornare.

1. Scegli la scheda **Replication and failover** (Replica e failover).

1. Scorri verso il basso fino alla sezione **Replication rules** (Regole di replica) e quindi scegli **Create replication rules** (Crea regole di replica).

1. Nella pagina **Create replication rules** (Crea regole di replica), scegli il modello **Replicate objects among all specified buckets** (Replica oggetti tra tutti i bucket specificati). Il modello **Replicate objects among all specified buckets** (Replica oggetti tra tutti i bucket specificati) imposta la replica bidirezionale (con funzionalità di failover) per i bucket.
**Importante**  
Quando crei regole di replica utilizzando questo modello, tali regole sostituiscono qualsiasi regola di replica esistente già assegnata al bucket.   
Per aggiungere o modificare le regole di replica esistenti anziché sostituirle, vai alla scheda **Management** (Gestione) di ciascun bucket nella console, quindi modifica le regole nella sezione **Replication rules** (Regole di replica). Puoi anche aggiungere o modificare le regole di replica esistenti utilizzando AWS CLI AWS SDKs, o l'API REST di Amazon S3. Per ulteriori informazioni, consulta [Elementi del file di configurazione della replica](replication-add-config.md).

1. Nella sezione **Buckets** (Bucket), seleziona almeno due bucket da cui desideri replicare gli oggetti. Tutti i bucket scelti per la replica devono avere la funzionalità S3 di controllo delle versioni abilitata e ogni bucket deve trovarsi in una Regione AWS diversa. Per ulteriori informazioni sulla funzionalità S3 di controllo delle versioni, consulta [Utilizzo della funzione Controllo delle versioni nei bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).
**Nota**  
Assicurati di disporre delle autorizzazioni di lettura e replica necessarie per eseguire la replica; in caso contrario, verranno restituiti errori. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM](https://docs.aws.amazon.com/AmazonS3/latest/userguide/setting-repl-config-perm-overview.html).

1. Nella sezione **Replication rule configuration** (Configurazione regole di replica), scegli se la regola di replica sarà abilitata (opzione **Enabled**) o disabilitata (opzione **Disabled**) al momento della creazione.
**Nota**  
Non è possibile immettere un nome nella casella **Replication rule name** (Nome regola di replica). I nomi delle regole di replica vengono generati in base alla configurazione definita dall'utente quando crea la regola di replica.

1. Nella sezione **Scope** (Ambito), scegli l'ambito appropriato per la replica.
   + Per replicare l'intero bucket, scegli **Apply to all objects in the bucket** (Applica a tutti gli oggetti nel bucket). 
   + Per replicare un sottoinsieme di oggetti nel bucket, scegli **Limit the scope of this rule using one or more filters** (Limita l'ambito di questa regola utilizzando uno o più filtri). 

     Puoi filtrare gli oggetti utilizzando un prefisso, tag di oggetti o una combinazione di entrambi. 
     + Per limitare la replica a tutti gli oggetti con nomi che iniziano con la stessa stringa (ad esempio, `pictures`), immetti un prefisso nella caselal **Prefix** (Prefisso). 

       Se si immette un prefisso corrispondente al nome di una cartella, è necessario utilizzare `/` (barra) come ultimo carattere (ad esempio, `pictures/`).
     + Per replicare tutti gli oggetti contenenti uno o più tag di oggetto, seleziona **Add tag** (Aggiungi tag) e specifica la coppia valore-chiave nelle caselle. Per aggiungere un altro tag, ripeti la procedura. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md).

1. Scorri verso il basso fino alla sezione **Additional replication options** (Opzioni di replica aggiuntive) e seleziona le opzioni di replica che desideri applicare.
**Nota**  
Ti consigliamo di applicare le seguenti opzioni, soprattutto se intendi configurare il tuo punto di accesso multi-regione in modo che supporti il failover:  
**Replication time control (RTC)** (Controllo tempo di replica [RTC]): per replicare i dati in regioni diverse in un intervallo di tempo prevedibile, puoi utilizzare la funzionalità di controllo del tempo di replica di S3 (S3 RTC). S3 RTC replica il 99,99% dei nuovi oggetti archiviati in Amazon S3 entro 15 minuti, secondo un Accordo sul Livello di Servizio (SLA). Per ulteriori informazioni, consulta [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).
**Metriche e notifiche di replica**: abilita i parametri di Amazon per monitorare gli CloudWatch eventi di replica.
**Replica del contrassegno di eliminazione**: i contrassegni di eliminazione creati dalle operazioni di eliminazione di S3 verranno replicati. I contrassegni di eliminazione creati dalle regole del ciclo di vita non vengono replicati. Per ulteriori informazioni, consulta [Replica dei contrassegni di eliminazione tra i bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-marker-replication.html).
**Replica modification sync** (Sincronizzazione modifiche repliche): abilita la sincronizzazione delle modifiche delle repliche per ogni regola di replica per mantenere sincronizzate anche le modifiche dei metadati degli oggetti. Per ulteriori informazioni, consulta [Abilitazione della sincronizzazione delle modifiche alla replica](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes).
Sono previsti costi aggiuntivi per S3 RTC e i parametri e le notifiche di replica. CloudWatch Per ulteriori informazioni, consulta i prezzi di [Amazon S3 e i prezzi](https://aws.amazon.com/s3/pricing/) di [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/pricing/).

1. Se stai scrivendo una nuova regola di replica che sostituisce una esistente, seleziona **I acknowledge that by choosing Create replication rules, these existing replication rules will be overwritten** (Riconosco che scegliendo Crea regole di replica, queste regole di replica esistenti verranno sovrascritte).

1. Scegli **Create replication rules** (Crea regole di replica) per creare e salvare le nuove regole di replica bidirezionale. 

# Visualizzare regole di replica bidirezionale per il punto di accesso multi-regione
<a name="mrap-view-replication-rules"></a>

Con i punti di accesso multi-regione, puoi impostare regole di replica unidirezionale o bidirezionale. Per informazioni su come gestire le regole di replica, consulta [Gestione delle regole di replica utilizzando la console di Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/disable-replication.html).

**Per visualizzare regole di replica bidirezionale per il punto di accesso multi-regione**



1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Multi-Region Access Points** (Punti di accesso multi-regione).

1. Scegli il nome del punto di accesso multi-regione.

1. Scegli la scheda **Replication and failover** (Replica e failover).

1. Scorri verso il basso fino alla sezione **Regole di replica**. In questa sezione sono elencate tutte le regole di replica create per il punto di accesso multi-regione.
**Nota**  
Se al punto di accesso multi-regione corrente hai aggiunto un bucket da un altro account, devi ottenere l'autorizzazione `s3:GetBucketReplication` dal proprietario del bucket per visualizzare le regole di replica per tale bucket.

# Utilizzo dei punti di accesso multi-regione con operazioni API supportate
<a name="MrapOperations"></a>

 Amazon S3 offre un insieme di operazioni che permettono di gestire i punti di accesso multi-regione. Amazon S3 elabora alcune di queste operazioni in modo sincrono e alcune in modo asincrono. Quando richiami un'operazione asincrona, per prima cosa Amazon S3 autorizza in modo sincrono l'operazione richiesta. Se l'autorizzazione ha esito positivo, Amazon S3 restituisce un token che puoi utilizzare per monitorare lo stato di avanzamento e i risultati dell'operazione richiesta. 

**Nota**  
Le richieste effettuate tramite la console Amazon S3 sono sempre sincrone. La console attende il completamento della richiesta prima di consentire l'invio di un'altra richiesta. 

È possibile visualizzare lo stato e i risultati correnti delle operazioni asincrone utilizzando la console oppure utilizzare `DescribeMultiRegionAccessPointOperation` nell'API AWS CLI AWS SDKs, o REST. Amazon S3 fornisce un token di tracciamento nella risposta a un'operazione asincrona. Includi quel token di tracciamento come argomento per `DescribeMultiRegionAccessPointOperation`. Quando includi il token di monitoraggio, Amazon S3 restituisce lo stato corrente e i risultati dell'operazione specificata, inclusi eventuali errori o informazioni pertinenti sulla risorsa. Amazon S3 esegue le operazioni `DescribeMultiRegionAccessPointOperation` in modo sincrono. 

Tutte le richieste del piano di controllo (control-plane) per creare o mantenere punti di accesso multi-regione devono essere instradate alla regione `US West (Oregon)`. Per richieste sul piano dati del punto di accesso multi-regione, non è necessario specificare le regioni. Per il piano di controllo (control-plane) di failover del punto di accesso multi-regione, la richiesta deve essere instradata a una delle cinque regioni supportate. Per ulteriori informazioni sulle Regioni supportate dal punto di accesso multi-regione, consulta [Restrizioni e limitazioni dei punti di accesso multi-regione](MultiRegionAccessPointRestrictions.md).

Inoltre, è necessario concedere l'`s3:ListAllMyBuckets`autorizzazione all'utente, al ruolo o a un'altra entità AWS Identity and Access Management (IAM) che invia una richiesta di gestione di un punto di accesso multiregionale. 

Negli esempi seguenti viene illustrato come utilizzare i punti di accesso multi-regione con operazioni compatibili in Amazon S3.

**Topics**
+ [Compatibilità dei punti di accesso multiregionali con e Servizi AWS AWS SDKs](#mrap-api-support)
+ [Compatibilità dei punti di accesso multi-regione con le operazioni S3](#mrap-operations-support)
+ [Visualizzare la configurazione di instradamento del punto di accesso multi-regione](#query-mrap-routing-configuration)
+ [Aggiornare la policy di bucket Amazon S3 sottostante](#update-underlying-bucket-policy)
+ [Aggiornare la configurazione di instradamento di un punto di accesso multi-regione](#update-mrap-route-configuration)
+ [Aggiunta di un oggetto a un bucket nel punto di accesso multi-regione](#add-bucket-mrap)
+ [Recupero degli oggetti dal punto di accesso multi-regione](#get-object-mrap)
+ [Elencare gli oggetti archiviati in un bucket sottostante il punto di accesso multi-regione](#list-objects-mrap)
+ [Utilizzare un URL prefirmato con i punti di accesso multi-regione](#use-presigned-url-mrap)
+ [Utilizzare un bucket configurato con l'opzione di pagamento a carico del richiedente con i punti di accesso multi-regione](#use-requester-pays-mrap)

## Compatibilità dei punti di accesso multiregionali con e Servizi AWS AWS SDKs
<a name="mrap-api-support"></a>

Per utilizzare un punto di accesso multiregionale con applicazioni che richiedono un nome bucket Amazon S3, utilizza l'Amazon Resource Name (ARN) del punto di accesso multiregionale quando effettui richieste utilizzando un SDK. AWS [Per verificare quali AWS SDKs sono compatibili con i punti di accesso multiregionali, consulta Compatibilità con. AWS SDKs](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat)

## Compatibilità dei punti di accesso multi-regione con le operazioni S3
<a name="mrap-operations-support"></a>

Puoi utilizzare le seguenti operazioni API del piano dati Amazon S3 per eseguire azioni sugli oggetti nei bucket associati al punto di accesso multi-regione. Le seguenti operazioni S3 possono accettare punti di accesso multiregionali: ARNs
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_AbortMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_AbortMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLegalHold.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectRetention.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListParts.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListParts.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPart.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPart.html)

**Nota**  
I punti di accesso multi-regione supportano le operazioni di copia utilizzando punti di accesso multi-regione solo come destinazione quando si utilizza l'ARN del punto di accesso multi-regione.

Puoi utilizzare le seguenti operazioni del piano di controllo (control-plane) Amazon S3 per creare e gestire i punti di accesso multi-regione:
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_CreateMultiRegionAccessPoint.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_CreateMultiRegionAccessPoint.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DescribeMultiRegionAccessPointOperation.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DescribeMultiRegionAccessPointOperation.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPoint.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPoint.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicyStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicyStatus.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointRoutes.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointRoutes.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_ListMultiRegionAccessPoints.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_ListMultiRegionAccessPoints.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_SubmitMultiRegionAccessPointRoutes.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_SubmitMultiRegionAccessPointRoutes.html)

## Visualizzare la configurazione di instradamento del punto di accesso multi-regione
<a name="query-mrap-routing-configuration"></a>

------
#### [ AWS CLI ]

Il seguente comando di esempio recupera la configurazione di instradamento del punto di accesso multi-regione in modo da poter visualizzare gli stati di instradamento correnti per i bucket. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 111122223333
--mrap arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap
```

------
#### [ SDK for Java ]

Il seguente codice SDK per Java recupera la configurazione di instradamento del punto di accesso multi-regione in modo da poter visualizzare gli stati di instradamento correnti per i bucket. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
S3ControlClient s3ControlClient = S3ControlClient.builder()
    .region(Region.US_EAST_1)
    .credentialsProvider(credentialsProvider)
    .build();
 
GetMultiRegionAccessPointRoutesRequest request = GetMultiRegionAccessPointRoutesRequest.builder()
    .accountId("111122223333")
    .mrap("arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap")
    .build();
 
GetMultiRegionAccessPointRoutesResponse response = s3ControlClient.getMultiRegionAccessPointRoutes(request);
```

------
#### [ SDK for JavaScript ]

Il seguente SDK per il JavaScript codice recupera la configurazione del percorso del punto di accesso multiregionale in modo da poter visualizzare gli stati di routing correnti per i bucket. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
const REGION = 'us-east-1'
 
const s3ControlClient = new S3ControlClient({
  region: REGION
})
 
export const run = async () => {
  try {
    const data = await s3ControlClient.send(
      new GetMultiRegionAccessPointRoutesCommand({
        AccountId: '111122223333',
        Mrap: 'arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap',
      })
    )
    console.log('Success', data)
    return data
  } catch (err) {
    console.log('Error', err)
  }
}
 
run()
```

------
#### [ SDK for Python ]

Il seguente codice SDK per Python recupera la configurazione di instradamento del punto di accesso multi-regione in modo da poter visualizzare gli stati di instradamento correnti per i bucket. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
s3.get_multi_region_access_point_routes(
        AccountId=111122223333,
        Mrap=arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap)['Routes']
```

------

## Aggiornare la policy di bucket Amazon S3 sottostante
<a name="update-underlying-bucket-policy"></a>

Per garantire un accesso adeguato, devi anche aggiornare la policy di bucket Amazon S3 sottostante. Nei seguenti esempi il controllo dell'accesso viene delegato alla policy del punto di accesso multi-regione. Dopo aver delegato il controllo dell'accesso alla policy del punto di accesso multi-regione, la policy del bucket non viene più utilizzata per il controllo dell'accesso quando le richieste vengono effettuate tramite il punto di accesso multi-regione.

Di seguito è riportato un esempio di policy di bucket che delega il controllo degli accessi alla policy del punto di accesso multi-regione. Per utilizzare questa policy di bucket, sostituisci `user input placeholders` con le tue informazioni. Per applicare questo criterio tramite il AWS CLI `put-bucket-policy` comando, come illustrato nell'esempio successivo, salvate il criterio in un file, ad esempio. `policy.json`

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": { 
        "AWS": "arn:aws:iam::444455556666:root" 
      },
      "Action": [
        "s3:GetObject",
        "s3:PutObject",
        "s3:DeleteObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::amzn-s3-demo-bucket",
        "arn:aws:s3:::amzn-s3-demo-bucket/*"
      ],
      "Condition": {
        "StringEquals": {
          "s3:DataAccessPointAccount": "444455556666"
        }
      }
    }
  ]
}
```

------

Il seguente comando di esempio `put-bucket-policy` associa la policy del bucket S3 aggiornata al bucket S3:

```
aws s3api put-bucket-policy
  --bucket amzn-s3-demo-bucket
  --policy file:///tmp/policy.json
```

## Aggiornare la configurazione di instradamento di un punto di accesso multi-regione
<a name="update-mrap-route-configuration"></a>

Il seguente comando di esempio aggiorna la configurazione di instradamento del punto di accesso multi-regione. I comandi di instradamento del punto di accesso multi-regione possono essere eseguiti nelle seguenti cinque regioni:
+ `ap-southeast-2`
+ `ap-northeast-1`
+ `us-east-1`
+ `us-west-2`
+ `eu-west-1`

In una configurazione di instradamento dei punti di accesso multi-regione, è possibile impostare i bucket su uno stato di instradamento attivo o passivo. A differenza dei bucket passivi, i bucket attivi ricevono traffico. È possibile impostare lo stato di instradamento di un bucket impostando il valore `TrafficDialPercentage` del bucket su `100` per attivo o su `0` per passivo. 

------
#### [ AWS CLI ]

Il seguente comando di esempio aggiorna la configurazione di instradamento per i punti di accesso multi-regione. In questo esempio, `amzn-s3-demo-bucket1` è impostato sullo stato attivo e `amzn-s3-demo-bucket2` su passivo. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control submit-multi-region-access-point-routes
--region ap-southeast-2 
--account-id 111122223333
--mrap arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap
--route-updates Bucket=amzn-s3-demo-bucket1,TrafficDialPercentage=100
                Bucket=amzn-s3-demo-bucket2,TrafficDialPercentage=0
```

------
#### [ SDK for Java ]

Il seguente codice SDK per Java aggiorna la configurazione di instradamento del punto di accesso multi-regione. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
S3ControlClient s3ControlClient = S3ControlClient.builder()
    .region(Region.ap-southeast-2)
    .credentialsProvider(credentialsProvider)
    .build();
 
SubmitMultiRegionAccessPointRoutesRequest request = SubmitMultiRegionAccessPointRoutesRequest.builder()
    .accountId("111122223333")
    .mrap("arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap")
    .routeUpdates(
        MultiRegionAccessPointRoute.builder()
            .region("eu-west-1")
            .trafficDialPercentage(100)
            .build(),
        MultiRegionAccessPointRoute.builder()
            .region("ca-central-1")
            .bucket("111122223333")
            .trafficDialPercentage(0)
            .build()
    )
    .build();
 
SubmitMultiRegionAccessPointRoutesResponse response = s3ControlClient.submitMultiRegionAccessPointRoutes(request);
```

------
#### [ SDK for JavaScript ]

Il seguente SDK per il JavaScript codice aggiorna la configurazione del percorso del punto di accesso multiregionale. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
const REGION = 'ap-southeast-2'
 
const s3ControlClient = new S3ControlClient({
  region: REGION
})
 
export const run = async () => {
  try {
    const data = await s3ControlClient.send(
      new SubmitMultiRegionAccessPointRoutesCommand({
        AccountId: '111122223333',
        Mrap: 'arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap',
        RouteUpdates: [
          {
            Region: 'eu-west-1',
            TrafficDialPercentage: 100,
          },
          {
            Region: 'ca-central-1',
            Bucket: 'amzn-s3-demo-bucket1',
            TrafficDialPercentage: 0,
          },
        ],
      })
    )
    console.log('Success', data)
    return data
  } catch (err) {
    console.log('Error', err)
  }
}
 
run()
```

------
#### [ SDK for Python ]

Il seguente codice SDK per Python aggiorna la configurazione di instradamento del punto di accesso multi-regione. Per utilizzare questa sintassi di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
s3.submit_multi_region_access_point_routes(
        AccountId=111122223333,
        Mrap=arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap, 
        RouteUpdates= [{
            'Bucket': amzn-s3-demo-bucket,
            'Region': ap-southeast-2, 
            'TrafficDialPercentage': 10
        }])
```

------

## Aggiunta di un oggetto a un bucket nel punto di accesso multi-regione
<a name="add-bucket-mrap"></a>

Per aggiungere un oggetto al bucket associato al punto di accesso multi-regione, puoi utilizzare l'operazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html). Per mantenere sincronizzati tutti i bucket nel punto di accesso multi-regione, abilita [Replica tra regioni](MultiRegionAccessPointBucketReplication.md).

**Nota**  
Per utilizzare questa operazione, devi disporre dell'autorizzazione `s3:PutObject` per il punto di accesso multi-regione. Per ulteriori informazioni sui requisiti di autorizzazione del punto di accesso multi-regione, consultare [Permissions](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

La seguente richiesta del piano dati di esempio carica *`example.txt`* nel punto di accesso multi-regione specificato. Per utilizzare questo esempio, sostituisci *`user input placeholders`* con le informazioni appropriate.

```
aws s3api put-object --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap --key example.txt --body example.txt
```

------
#### [ SDK for Java ]

```
S3Client s3Client = S3Client.builder()
        .build();
        
PutObjectRequest objectRequest = PutObjectRequest.builder()
        .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
        .key("example.txt")
        .build();

s3Client.putObject(objectRequest, RequestBody.fromString("Hello S3!"));
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({});

async function putObjectExample() {
    const command = new PutObjectCommand({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
        Key: "example.txt",
        Body: "Hello S3!",
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.put_object(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap',
    Key='example.txt',
    Body='Hello S3!'
)
```

------

## Recupero degli oggetti dal punto di accesso multi-regione
<a name="get-object-mrap"></a>

Per recuperare oggetti dal punto di accesso multi-regione, puoi utilizzare l'operazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html).

**Nota**  
Per utilizzare questa operazione API, devi disporre dell'autorizzazione `s3:GetObject` per il punto di accesso multi-regione. Per ulteriori informazioni sui requisiti di autorizzazione del punto di accesso multi-regione, consultare [Permissions](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

La seguente richiesta del piano dati di esempio recupera *`example.txt`* dal punto di accesso multi-regione specificato e lo scarica come *`downloaded_example.txt`*. Per utilizzare questo esempio, sostituisci *`user input placeholders`* con le informazioni appropriate.

```
aws s3api get-object --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap --key example.txt downloaded_example.txt
```

------
#### [ SDK for Java ]

```
S3Client s3 = S3Client
   .builder()
   .build();

GetObjectRequest getObjectRequest = GetObjectRequest.builder()
    .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
    .key("example.txt")
    .build();

s3Client.getObject(getObjectRequest);
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({})

async function getObjectExample() {
    const command = new GetObjectCommand({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
        Key: "example.txt"
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.get_object(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap',
    Key='example.txt'
)
```

------

## Elencare gli oggetti archiviati in un bucket sottostante il punto di accesso multi-regione
<a name="list-objects-mrap"></a>

Per restituire un elenco di oggetti archiviati in un bucket sottostante il punto di accesso multi-regione, utilizza l'operazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html). Nel comando di esempio seguente, tutti gli oggetti per il punto di accesso multi-regione specificato vengono elencati utilizzando l'ARN per il punto di accesso multi-regione. In questo caso, l'ARN del punto di accesso multi-regione è:

`arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap`

**Nota**  
Per utilizzare questa operazione API, devi disporre dell'autorizzazione `s3:ListBucket` per il punto di accesso multi-regione e il bucket sottostante. Per ulteriori informazioni sui requisiti di autorizzazione del punto di accesso multi-regione, consultare [Permissions](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

La seguente richiesta del piano dati di esempio elenca gli oggetti nel bucket che sta alla base del punto di accesso multi-regione specificato dall'ARN. Per utilizzare questo esempio, sostituisci *`user input placeholders`* con le informazioni appropriate.

```
aws s3api list-objects-v2 --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap
```

------
#### [ SDK for Java ]

```
S3Client s3Client = S3Client.builder()
        .build();
        
String bucketName = "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap";

ListObjectsV2Request listObjectsRequest = ListObjectsV2Request
    .builder()
    .bucket(bucketName)
    .build();

 s3Client.listObjectsV2(listObjectsRequest);
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({});

async function listObjectsExample() {
    const command = new ListObjectsV2Command({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.list_objects_v2(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap'
)
```

------

## Utilizzare un URL prefirmato con i punti di accesso multi-regione
<a name="use-presigned-url-mrap"></a>

Puoi utilizzare un URL prefirmato per generare un URL che consenta ad altri utenti di accedere ai bucket Amazon S3 tramite un punto di accesso multi-regione di Amazon S3. Quando crei un URL prefirmato, associalo a un'operazione sugli oggetti specifica come un caricamento S3 (`PutObject`) o un download S3 (`GetObject`). L'URL prefirmato può essere condiviso e gli utenti che dispongono dell'autorizzazione di accesso possono eseguire l'azione incorporata nell'URL come se fossero l'utente di firma originale.

I prefirmati URLs hanno una data di scadenza. Una volta raggiunta la scadenza, l'URL non funzionerà più. 

Prima di utilizzare S3 Multi-Region Access Point con presigned URLs, verifica la [compatibilità dell'AWS SDK](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat) con l'algoritmo SigV4A. Verifica che la tua versione SDK supporti SigV4a come implementazione di firma utilizzata per firmare le richieste globali a livello di Regione AWS . Per ulteriori informazioni sull'utilizzo di presigned URLs con Amazon S3, [consulta Condivisione di oggetti utilizzando](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ShareObjectPreSignedURL.html) presigned. URLs

Gli esempi seguenti mostrano come utilizzare punti di accesso multiregionali con presigned. URLs Per utilizzare questi esempi, sostituisci *`user input placeholders`* con le informazioni appropriate.

------
#### [ AWS CLI ]

```
aws s3 presign arn:aws:s3::123456789012:accesspoint/MultiRegionAccessPoint_alias/example-file.txt
```

------
#### [ SDK for Python ]

```
import logging
import boto3
from botocore.exceptions import ClientError

s3_client = boto3.client('s3',aws_access_key_id='xxx',aws_secret_access_key='xxx')
s3_client.generate_presigned_url(HttpMethod='PUT',ClientMethod="put_object", Params={'Bucket':'arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap','Key':'example-file'})
```

------
#### [ SDK for Java ]

```
S3Presigner s3Presigner = S3Presigner.builder()
    .credentialsProvider(StsAssumeRoleCredentialsProvider.builder()
        .refreshRequest(assumeRole)
        .stsClient(stsClient)
        .build())
    .build();

GetObjectRequest getObjectRequest = GetObjectRequest.builder()
    .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
    .key("example-file")
    .build();

GetObjectPresignRequest preSignedReq = GetObjectPresignRequest.builder()
    .getObjectRequest(getObjectRequest)
    .signatureDuration(Duration.ofMinutes(10))
    .build();

PresignedGetObjectRequest presignedGetObjectRequest = s3Presigner.presignGetObject(preSignedReq);
```

------

**Nota**  
Per utilizzare SigV4A con credenziali di sicurezza temporanee, ad esempio quando si utilizzano ruoli IAM, assicuratevi di richiedere le credenziali temporanee da un endpoint regionale in (), anziché da un endpoint globale. AWS Security Token Service AWS STS Se utilizzi l'endpoint globale for AWS STS (`sts.amazonaws.com`), AWS STS genererà credenziali temporanee da un endpoint globale, che non è supportato da Sig4A. Di conseguenza, verrà restituito un errore. [Per risolvere questo problema, utilizza uno degli endpoint regionali elencati per. AWS STS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html#id_credentials_region-endpoints)

## Utilizzare un bucket configurato con l'opzione di pagamento a carico del richiedente con i punti di accesso multi-regione
<a name="use-requester-pays-mrap"></a>

Se un bucket S3 associato ai punti di accesso multi-regione è [configurato per utilizzare l'opzione Pagamento a carico del richiedente](https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysExamples.html), il richiedente pagherà la richiesta di creazione del bucket, il download e gli eventuali costi relativi ai punti di accesso multi-regione. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

Di seguito è riportato un esempio di richiesta di piano dati a un punto di accesso multi-regione connesso a un bucket con pagamento a carico del richiedente.

------
#### [ AWS CLI ]

Per scaricare oggetti da un punto di accesso multi-regione collegato a un bucket con pagamento a carico del richiedente, devi specificare `--request-payer requester` come parte della richiesta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object.html). Inoltre, devi specificare il nome del file nel bucket e la posizione in cui archiviare il file scaricato.

```
aws s3api get-object --bucket MultiRegionAccessPoint_ARN --request-payer requester --key example-file-in-bucket.txt example-location-of-downloaded-file.txt 
```

------
#### [ SDK for Java ]

Per scaricare oggetti da un punto di accesso multi-regione collegato a un bucket con pagamento a carico del richiedente, devi specificare `RequestPayer.REQUESTER` come parte della richiesta `GetObject`. È inoltre necessario specificare il nome del file nel bucket e la posizione in cui deve essere archiviato.

```
GetObjectResponse getObjectResponse = s3Client.getObject(GetObjectRequest.builder()
    .key("example-file.txt")
    .bucket("arn:aws:s3::
123456789012:accesspoint/abcdef0123456.mrap")
    .requestPayer(RequestPayer.REQUESTER)
    .build()
).response();
```

------

# Monitoraggio e registrazione delle richieste effettuate tramite un punto di accesso multi-regione alle risorse sottostanti
<a name="MultiRegionAccessPointMonitoring"></a>

Amazon S3 registra le richieste effettuate tramite i punti di accesso multi-regione e le richieste effettuate alle operazioni API che li gestiscono, ad esempio `CreateMultiRegionAccessPoint` e `GetMultiRegionAccessPointPolicy`. Le richieste effettuate ad Amazon S3 tramite un punto di accesso multiregionale vengono visualizzate nei log di accesso al server Amazon S3 e nei log con il nome host del punto di accesso multiregionale AWS CloudTrail . Il nome host di un punto di accesso ha il formato `MRAP_alias.accesspoint.s3-global.amazonaws.com`. Ad esempio, supponiamo di disporre della seguente configurazione di bucket e punto di accesso multi-regione: 
+ Un bucket denominato `my-bucket-usw2` nella regione `us-west-2` che contiene l'oggetto `my-image.jpg` 
+ Un bucket denominato `my-bucket-aps1` nella regione `ap-south-1` che contiene l'oggetto `my-image.jpg` 
+  Un bucket denominato `my-bucket-euc1` nella regione `eu-central-1` che non contiene un oggetto denominato `my-image.jpg`. 
+  Un punto di accesso multi-regione denominato `my-mrap` con l'alias `mfzwi23gnjvgw.mrap`configurato per soddisfare le richieste da tutti e tre i bucket. 
+  L'ID del tuo account è. AWS `123456789012` 

Una richiesta eseguita per recuperare `my-image.jpg` direttamente attraverso uno qualsiasi dei bucket appare nei registri con il nome host `bucket_name.s3.Region.amazonaws.com`. 

Se invece esegui la richiesta tramite il punto di accesso multi-regione, Amazon S3 determina innanzitutto quali bucket nelle diverse regioni si trovano più vicini. Dopo che Amazon S3 determina i bucket utilizzare per eseguire la richiesta, invia la richiesta a tale bucket e registra l'operazione utilizzando il nome host del punto di accesso multi-regione. In questo esempio, se Amazon S3 inoltra la richiesta a `my-bucket-aps1`, i tuoi log riporteranno una richiesta `GET` riuscita per `my-image.jpg` da `my-bucket-aps1`, utilizzando `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` come nome host. 

**Importante**  
I punti di accesso multi-regione non rilevano il contenuto dei dati dei bucket sottostanti. Pertanto, il bucket che riceve la richiesta potrebbe non contenere i dati richiesti. Se Amazon S3 determina che il bucket `my-bucket-euc1` è il più vicino, i log includeranno una richiesta `GET` non riuscita per `my-image.jpg` da `my-bucket-euc1`, utilizzando `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` come nome host. Se la richiesta è stata invece instradata a `my-bucket-usw2`, i tuoi log indicherebbero una richiesta `GET` riuscita.

 Per ulteriori informazioni sui log degli accessi al server Amazon S3, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md). Per ulteriori informazioni su AWS CloudTrail, vedi [Cos'è AWS CloudTrail?](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) nella *Guida AWS CloudTrail per l'utente*. 

## Monitoraggio e registrazione delle richieste effettuate alle operazioni API di gestione dei punti di accesso multi-regione
<a name="MonitoringMultiRegionAccessPointAPIs"></a>

Amazon S3 fornisce diverse operazioni API per gestire i punti di accesso multi-regione, come `CreateMultiRegionAccessPoint` e `GetMultiRegionAccessPointPolicy`. Quando effettui richieste a queste operazioni API utilizzando AWS Command Line Interface (AWS CLI) o l'API REST di Amazon S3 AWS SDKs, Amazon S3 elabora queste richieste in modo asincrono. Se disponi delle autorizzazioni appropriate per la richiesta, Amazon S3 restituisce un token per queste richieste. Puoi usare questo token con `DescribeAsyncOperation` per semplificare la visualizzazione dello stato delle operazioni asincrone in corso. Amazon S3 elabora le richieste `DescribeAsyncOperation` in modo sincrono. Per visualizzare lo stato delle richieste asincrone, puoi utilizzare la console Amazon S3 o l'API REST AWS CLI. SDKs 

**Nota**  
La console visualizza solo lo stato delle richieste asincrone effettuate nei 14 giorni precedenti. Per visualizzare lo stato delle richieste precedenti, usa l'API, o AWS CLI REST SDKs. 

 Le operazioni di gestione asincrona possono avere uno tra diversi stati: 

NEW  
 Amazon S3 ha ricevuto la richiesta e si sta preparando per eseguire l'operazione. 

IN\$1PROGRESS  
 Amazon S3 sta attualmente eseguendo l'operazione. 

SUCCESS  
 L'operazione è stata completata. La risposta include informazioni rilevanti, ad esempio l'alias del punto di accesso multi-regione per una richiesta `CreateMultiRegionAccessPoint`. 

FAILED  
 L'operazione ha avuto esito negativo. La risposta include un messaggio di errore che indica il motivo dell'errore. 

## Utilizzo AWS CloudTrail con punti di accesso multiregionali
<a name="MultiRegionAccessPointCloudTrail"></a>

Puoi utilizzarlo AWS CloudTrail per visualizzare, cercare, scaricare, archiviare, analizzare e rispondere alle attività degli account nell'intera AWS infrastruttura. Con i punti di accesso multiregionali e CloudTrail la registrazione, puoi identificare quanto segue: 
+ Chi o cosa ha eseguito l'operazione e l'operazione eseguita
+ Le risorse utilizzate
+ Quando si è verificato l'evento
+ Altri dettagli relativi all'evento

Puoi utilizzare queste informazioni di registrazione per aiutarti ad analizzare e rispondere alle attività che si sono verificate nei punti di accesso multi-regione. 

### Come configurare i punti di accesso AWS CloudTrail multiregionali
<a name="MultiRegionAccessPointCTSetup"></a>

Per abilitare CloudTrail la registrazione per qualsiasi operazione relativa alla creazione o alla manutenzione di punti di accesso multiregionali, è necessario configurare la CloudTrail registrazione per registrare gli eventi nella regione Stati Uniti occidentali (Oregon). Devi impostare la configurazione della registrazione in questo modo indipendentemente dalla regione in cui ti trovi quando esegui la richiesta o dalle regioni supportate dal punto di accesso multi-regione. Tutte le richieste di creazione o gestione di un punto di accesso multi-regione vengono instradate attraverso la regione Stati Uniti occidentali (Oregon). Ti consigliamo di aggiungere questa regione a un trail esistente o crearne uno nuovo che contenga questa regione e tutte le regioni associate al punto di accesso multi-regione.

Amazon S3 registra le richieste eseguite tramite un punto di accesso multi-regione e quelle eseguite alle operazioni API che gestiscono i punti di accesso, ad esempio `CreateMultiRegionAccessPoint` e `GetMultiRegionAccessPointPolicy`. Quando si registrano queste richieste tramite un punto di accesso multiregionale, esse vengono visualizzate nei AWS CloudTrail registri con il nome host del punto di accesso multiregionale. Ad esempio, se effettui richieste a un bucket tramite un punto di accesso multiregionale con l'alias`mfzwi23gnjvgw.mrap`, le voci nel registro avranno un nome host di CloudTrail . `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` 

I punti di accesso multiregionali instradano le richieste al bucket più vicino. A causa di questo comportamento, quando si esaminano CloudTrail i log di un punto di accesso multiregionale, si notano le richieste inviate ai bucket sottostanti. Alcune di queste richieste potrebbero corrispondere a richieste dirette al bucket non instradate attraverso il punto di accesso multi-regione. Considera questa eventualità quando esamini il traffico. Quando un bucket si trova in un punto di accesso multi-regione, è comunque possibile effettuare richieste direttamente a tale bucket senza passare attraverso il punto di accesso multi-regione. 

Esistono eventi asincroni coinvolti nella creazione e nella gestione dei punti di accesso multi-regione. Le richieste asincrone non hanno eventi di completamento nel registro. CloudTrail Per ulteriori informazioni sul monitoraggio delle richieste asincrone, consulta [Monitoraggio e registrazione delle richieste effettuate alle operazioni API di gestione dei punti di accesso multi-regione](#MonitoringMultiRegionAccessPointAPIs). 

 [Per ulteriori informazioni su AWS CloudTrail, consulta What is? AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) nella *Guida AWS CloudTrail per l'utente*. 

# Conservazione di più versioni degli oggetti con Controllo delle versioni S3
<a name="Versioning"></a>

La funzione Controllo delle versioni in Amazon S3 è un modo per conservare più versioni di un oggetto nello stesso bucket. Puoi utilizzare la funzione Controllo delle versioni S3 per conservare, recuperare e ripristinare qualsiasi versione di ogni oggetto archiviato nei tuoi bucket. Con la funzione Controllo delle versioni si può facilmente eseguire il ripristino dopo errori dell'applicazione e operazioni non intenzionali dell'utente. Quando abiliti la funzione Controllo delle versioni del bucket, se Amazon S3 riceve più richieste di scrittura per lo stesso oggetto contemporaneamente, vengono archiviati tutti gli oggetti.

I bucket con la funzione Controllo delle versioni abilitata consentono di ripristinare oggetti che sono stati eliminati o sovrascritti accidentalmente. Ad esempio, se elimini un oggetto, Amazon S3 inserisce un contrassegno di eliminazione invece di rimuovere l'oggetto in modo permanente. Il contrassegno di eliminazione diventa la versione corrente dell'oggetto. La sovrascrittura di un oggetto genera una nuove versione dell'oggetto nel bucket. È sempre possibile ripristinare la versione precedente. Per ulteriori informazioni, consulta [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md). 

Per impostazione predefinita, la funzione Controllo delle versioni S3 è disabilitato nei bucket ed è necessario abilitarlo esplicitamente. Per ulteriori informazioni, consulta [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md).

**Nota**  
L'API SOAP non supporta la funzione Controllo delle versioni S3. Il supporto di SOAP su HTTP non viene più utilizzato, ma è ancora disponibile su HTTPS. Le nuove funzioni di Amazon S3 non sono supportate per SOAP.
A ogni versione archiviata e trasferita di un oggetto si applicano le tariffe Amazon S3 normali. Ogni versione di un oggetto è l'intero oggetto e non semplicemente la sua versione precedente con qualche differenza. Per questo motivo, se sono presenti tre versioni di un oggetto memorizzate verranno addebitati tre oggetti. 

## Bucket senza versione, con funzione Controllo delle versioni e con funzione Controllo delle versioni sospesa
<a name="versioning-states"></a>

I bucket possono trovarsi in uno dei tre stati: 
+ Senza versione (impostazione predefinita)
+ Funzione Controllo delle versioni attivata
+ Funzione Controllo delle versioni sospesa

Puoi abilitare e sospendere la funzione Controllo delle versioni a livello di bucket. Dopo aver abilitato la funzione Controllo delle versioni del bucket, non è possibile riportare il bucket nello stato senza versione. Tuttavia puoi *sospendere* la funzione Controllo delle versioni su tali bucket.

La funzione Controllo delle versioni si applica a tutti (mai solo ad alcuni) oggetti del bucket. Quando si abilita il controllo delle versioni in un bucket, tutti i nuovi oggetti vengono sottoposti al controllo versioni e viene assegnato un ID versione univoco. Gli oggetti già presenti nel bucket al momento in cui è stato abilitato il controllo delle versioni verranno successivamente *sempre* sottoposti al controllo versioni e verrà loro assegnato un ID versione univoco quando vengono modificati da richieste future. Tieni presente quanto segue: 
+ Gli oggetti che sono stati archiviati nel bucket prima dell'impostazione dello stato della funzione Controllo delle versioni hanno un ID versione `null`. Quando si abilita la funzione Controllo delle versioni, gli oggetti esistenti nel bucket non si modificano. Ciò che cambia è il modo in cui Amazon S3 gestirà gli oggetti delle richieste future. Per ulteriori informazioni, consulta [Utilizzo di oggetti in un bucket che supporta la funzione Controllo delle versioni](manage-objects-versioned-bucket.md).
+ Il proprietario del bucket (o un qualsiasi utente con le autorizzazioni appropriate) può sospendere la funzione Controllo delle versioni per interrompere l'accumulo di versioni. Quando si sospende la funzione Controllo delle versioni, gli oggetti esistenti nel bucket non si modificano. Ciò che cambia è il modo in cui Amazon S3 gestirà gli oggetti delle richieste future. Per ulteriori informazioni, consulta [Utilizzo di oggetti di un bucket con funzione Controllo delle versioni sospesa](VersionSuspendedBehavior.md).

## Utilizzo della funzione Controllo delle versioni S3 con il ciclo di vita di S3
<a name="versioning-lifecycle"></a>

La funzione Controllo delle versioni degli oggetti consente, insieme al ciclo di vita di S3, di personalizzare il metodo di conservazione dei dati e di controllare i costi di storage. Per ulteriori informazioni, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md). Per informazioni sulla creazione di configurazioni S3 Lifecycle utilizzando,, o l'API Console di gestione AWS REST AWS CLI AWS SDKs, consulta. [Impostazione di una configurazione del ciclo di vita S3 in un bucket](how-to-set-lifecycle-configuration-intro.md)

**Importante**  
Se nel bucket senza funzione Controllo delle versioni è presente una configurazione del ciclo di vita per la scadenza dell'oggetto e si vuole mantenere lo stesso comportamento di eliminazione permanente che si applica quando la funzione Controllo delle versioni è abilitata, è necessario aggiungere una configurazione di scadenza non corrente. La configurazione del ciclo di vita per la scadenza non corrente gestisce le eliminazioni delle versioni non correnti dell'oggetto nel bucket abilitato per il controllo delle versioni. (Un bucket abilitato per il controllo delle versioni mantiene una versione dell'oggetto corrente e zero o più versioni dell'oggetto non correnti.) Per ulteriori informazioni, consulta [Impostazione di una configurazione del ciclo di vita S3 in un bucket](how-to-set-lifecycle-configuration-intro.md).

Per informazioni sull'utilizzo della funzione Controllo delle versioni S3, fai riferimento agli argomenti di seguito.

**Topics**
+ [Bucket senza versione, con funzione Controllo delle versioni e con funzione Controllo delle versioni sospesa](#versioning-states)
+ [Utilizzo della funzione Controllo delle versioni S3 con il ciclo di vita di S3](#versioning-lifecycle)
+ [Come funzionano il Controllo delle versioni S3](versioning-workflows.md)
+ [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md)
+ [Configurazione dell'eliminazione di MFA](MultiFactorAuthenticationDelete.md)
+ [Utilizzo di oggetti in un bucket che supporta la funzione Controllo delle versioni](manage-objects-versioned-bucket.md)
+ [Utilizzo di oggetti di un bucket con funzione Controllo delle versioni sospesa](VersionSuspendedBehavior.md)
+ [Risoluzione dei problemi relativi al controllo delle versioni](troubleshooting-versioning.md)

# Come funzionano il Controllo delle versioni S3
<a name="versioning-workflows"></a>

Puoi utilizzare il controllo delle versioni S3 per mantenere più versioni di un oggetto in un unico bucket e ripristinare gli oggetti che vengono accidentalmente eliminati o sovrascritti. Ad esempio, se applichi il controllo delle versioni S3 a un bucket, si verificano le seguenti modifiche: 
+ Se anziché rimuovere un oggetto in modo permanente lo elimini, Amazon S3 inserisce un contrassegno di eliminazione che diventa la versione corrente dell'oggetto. È quindi possibile ripristinare la versione precedente. Per ulteriori informazioni, consulta [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md).
+ Se sovrascrivi un oggetto, Amazon S3 aggiunge una nuova versione dell'oggetto nel bucket. La versione precedente rimane nel bucket e diventa una versione non corrente. Puoi ripristinare la versione precedente.

**Nota**  
A ogni versione archiviata e trasferita di un oggetto si applicano le tariffe Amazon S3 normali. Ogni versione di un oggetto è l'intero oggetto e non la sua versione precedente con qualche differenza. Per questo motivo, se sono presenti tre versioni di un oggetto memorizzate verranno addebitati tre oggetti.

A ogni bucket S3 creato è associata una sottorisorsa per la *funzione Controllo delle versioni*. (Per ulteriori informazioni, consulta [Opzioni di configurazione dei bucket per uso generico](UsingBucket.md#bucket-config-options-intro).) Per impostazione predefinita, il bucket è *senza versione*, di conseguenza la sottorisorsa per la funzione Controllo delle versioni archivia una configurazione vuota della funzione Controllo delle versioni.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</VersioningConfiguration>
```

Per abilitare il controllo delle versioni, puoi inviare una richiesta ad Amazon S3 con una configurazione del controllo delle versioni con lo stato `Enabled`. 

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>Enabled</Status> 
</VersioningConfiguration>
```

Per sospendere la funzione Controllo delle versioni, si imposterà il valore dello stato su `Suspended`.

**Nota**  
Quando abiliti il controllo delle versioni in un bucket per la prima volta, potrebbe essere necessario un breve periodo di tempo per la propagazione completa della modifica. Durante la propagazione di questa modifica, è possibile che si verifichino gli errori `HTTP 404 NoSuchKey` intermittenti nelle richieste agli oggetti creati o aggiornati dopo l'abilitazione del controllo delle versioni. Ti consigliamo di attendere 15 minuti dopo aver abilitato il controllo delle versioni prima di eseguire operazioni di scrittura (`PUT` o `DELETE`) sugli oggetti nel bucket. 

Il proprietario del bucket e tutti gli utenti autorizzati AWS Identity and Access Management (IAM) possono abilitare il controllo delle versioni. Il proprietario del bucket è colui Account AWS che ha creato il bucket. Per ulteriori informazioni sulle autorizzazioni, consultare [Identity and Access Management per Amazon S3](security-iam.md).

Per ulteriori informazioni sull'attivazione e la disabilitazione del controllo delle versioni di S3 utilizzando l'API Console di gestione AWS, AWS Command Line Interface (AWS CLI) o REST, consulta. [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md)

**Topics**
+ [Version IDs](#version-ids)
+ [Flussi di lavoro per la funzione Controllo delle versioni](#versioning-workflows-examples)

## Version IDs
<a name="version-ids"></a>

Se si abilita la funzione Controllo delle versioni del bucket, Amazon S3 genera automaticamente un ID versione univoco per l'oggetto archiviato. Ad esempio, in un bucket è possibile avere due oggetti con la stessa chiave (nome dell'oggetto) ma una versione diversa IDs, ad esempio (versione 111111) e `photo.gif` `photo.gif` (versione 121212).

![\[Diagramma che mostra un bucket abilitato al controllo delle versioni che contiene due oggetti con la stessa chiave ma una versione diversa. IDs\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_Enabled.png)


Ogni oggetto ha un ID versione, indipendentemente dal fatto che Controllo delle versioni S3 sia abilitato o meno. Se il controllo delle versioni S3 non è abilitato, Amazon S3 imposta il valore dell'ID versione su `null`. Se si attiva la funzione Controllo delle versioni S3, Amazon S3 assegna un valore ID versione per l'oggetto. Questo valore distingue l'oggetto dalle altre versioni della stessa chiave.

Quando si attiva la funzione Controllo delle versioni S3 in un bucket esistente, gli oggetti già archiviati nel bucket rimangono invariati. La versione IDs (`null`), i contenuti e le autorizzazioni rimangono gli stessi. Dopo aver abilitato il controllo delle versioni S3, ogni oggetto aggiunto al bucket ottiene un ID versione che lo distingue dalle altre versioni della stessa chiave. 

Solo Amazon S3 genera versioni IDs che non possono essere modificate. IDs Le versioni sono stringhe opache Unicode, con codifica UTF-8, pronte per l'URL e lunghe non più di 1.024 byte. Di seguito è riportato un esempio:

`3sL4kqtJlcpXroDTDmJ+rmSpXd3dIbrHY+MTRCxf3vjVBH40Nr8X8gdRQBpUMLUo`

**Nota**  
Per semplicità, negli altri esempi di questo argomento vengono utilizzati testi molto più brevi. IDs



## Flussi di lavoro per la funzione Controllo delle versioni
<a name="versioning-workflows-examples"></a>

Se si esegue l'operazione `PUT` su un oggetto in un bucket abilitato per il controllo delle versioni, la versione non corrente non viene sovrascritta. Come mostrato nella seguente figura, quando viene eseguita un'operazione `PUT` per una nuova versione di `photo.gif` in un bucket che già contiene un oggetto con lo stesso nome:
+ L'oggetto originale (ID = 111111) rimane nel bucket.
+ Amazon S3 genera un nuovo ID versione (121212) e aggiunge nel bucket questa versione più recente dell'oggetto.

![\[Diagramma che mostra il funzionamento del controllo delle versioni S3 quando si esegue l'operazione PUT per un oggetto in un bucket con il controllo delle versioni abilitato.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_PUT_versionEnabled3.png)


Con questa funzionalità è possibile recuperare la versione precedente di un oggetto che è stato accidentalmente sovrascritto o eliminato.

Quando esegui l'operazione `DELETE` per un oggetto, tutte le versioni rimangono nel bucket e Amazon S3 inserisce un contrassegno di eliminazione, come mostrato nell'illustrazione seguente.

![\[Illustrazione che mostra l'inserimento di un contrassegno di eliminazione.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled.png)


Il contrassegno di eliminazione diventa la versione corrente dell'oggetto. Per default, le richieste `GET` recuperano la versione più recente archiviata. L'esecuzione di una richiesta `GET Object` quando la versione corrente è un contrassegno di eliminazione restituisce un errore `404 Not Found`, come mostrato nell'illustrazione seguente.

![\[Illustrazione che mostra una GetObject chiamata per un marker di eliminazione che restituisce un errore 404 (Not Found).\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound.png)


È possibile, tuttavia, eseguire un'operazione `GET` su una versione non corrente di un oggetto specificando l'ID versione corrispondente. Nell'illustrazione seguente viene eseguita un'operazione `GET` su una versione specifica dell'oggetto (111111). Amazon S3 restituisce la versione dell'oggetto anche se non è la versione corrente.

Per ulteriori informazioni, consulta [Recupero delle versioni degli oggetti da un bucket con funzione Controllo delle versioni abilitata](RetrievingObjectVersions.md).

![\[Diagramma che illustra come funziona il controllo delle versioni S3 quando si esegue l'operazione GET per una versione non corrente in un bucket con il controllo delle versioni abilitato.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_GET_Versioned3.png)


È possibile eliminare in modo permanente un oggetto specificando la versione che si desidera eliminare. Soltanto il proprietario del bucket di Amazon S3 o un utente IAM può eliminare definitivamente una versione. Se l'operazione `DELETE` specifica `versionId`, la versione dell'oggetto viene eliminata definitivamente e Amazon S3 non inserisce un contrassegno di eliminazione.

![\[Diagramma che mostra in che modo DELETE versionId elimini definitivamente una versione specifica dell'oggetto.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)


Puoi aggiungere un ulteriore livello di sicurezza configurando un bucket per abilitare l'eliminazione con autenticazione a più fattori (MFA). Quando abiliti l'eliminazione MFA per un bucket, il proprietario del bucket deve includere due tipi di autenticazione in qualsiasi richiesta per eliminare una versione o modificare lo stato del controllo delle versioni del bucket. Per ulteriori informazioni, consulta [Configurazione dell'eliminazione di MFA](MultiFactorAuthenticationDelete.md).

### Quando vengono create nuove versioni per un oggetto?
<a name="versioning-workflows-new-versions"></a>

Le nuove versioni vengono create solo quando esegui l'operazione `PUT` per un nuovo oggetto. Tieni presente che alcune azioni, come `CopyObject`, funzionano implementando un'operazione `PUT`.

Alcune azioni che modificano l'oggetto corrente non creano una nuova versione perché non eseguono l'operazione `PUT` di un nuovo oggetto. Ciò include azioni come la modifica dei tag su un oggetto. 

**Importante**  
Se rilevi un aumento significativo nel numero di risposte HTTP 503 (servizio non disponibile) ricevute per le richieste `PUT` o `DELETE` di Amazon S3 in un bucket con il controllo delle versioni S3 abilitato, è possibile che esistano uno o più oggetti nel bucket per i quali sono presenti milioni di versioni. Per ulteriori informazioni, consulta la sezione sul controllo delle versioni S3 in [Risoluzione dei problemi relativi al controllo delle versioni](troubleshooting-versioning.md).

# Abilitazione della funzione Controllo delle versioni sui bucket
<a name="manage-versioning-examples"></a>

È possibile utilizzare la funzione Controllo delle versioni S3 per mantenere più versioni di un oggetto in un bucket. Questa sezione fornisce esempi di come abilitare il controllo delle versioni su un bucket utilizzando la console, l'API REST e (). AWS SDKs AWS Command Line Interface AWS CLI

**Nota**  
Dopo aver abilitato il controllo delle versioni in un bucket per la prima volta, potrebbero essere necessari fino a 15 minuti per la propagazione completa della modifica nel sistema S3. Durante questo periodo, le richieste `GET` per oggetti creati o aggiornati dopo aver abilitato il controllo delle versioni possono causare errori `HTTP 404 NoSuchKey`. È consigliabile attendere 15 minuti dopo aver abilitato il controllo delle versioni prima di eseguire operazioni di scrittura (`PUT` o `DELETE`) sugli oggetti nel bucket. Questo periodo di attesa consente di evitare potenziali problemi con la visibilità degli oggetti e il controllo delle versioni.

Per ulteriori informazioni sulla funzione Controllo delle versioni S3, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md). Per informazioni sull'utilizzo di oggetti che si trovano in bucket con la funzione Controllo delle versioni abilitata, consulta [Utilizzo di oggetti in un bucket che supporta la funzione Controllo delle versioni](manage-objects-versioned-bucket.md).

Per ulteriori informazioni su come utilizzare la funzionalità S3 di controllo delle versioni per proteggere i dati, consulta [Tutorial: Protezione dei dati su Amazon S3 da eliminazioni accidentali o bug delle applicazioni mediante le funzionalità S3 di controllo delle versioni, blocco degli oggetti e replica](https://aws.amazon.com/getting-started/hands-on/protect-data-on-amazon-s3/?ref=docs_gateway/amazons3/manage-versioning-examples.html).

A ogni bucket S3 creato è associata una sottorisorsa per la *funzione Controllo delle versioni*. (Per ulteriori informazioni, consulta [Opzioni di configurazione dei bucket per uso generico](UsingBucket.md#bucket-config-options-intro).) Per impostazione predefinita, il bucket è *senza versione*, di conseguenza la sottorisorsa per la funzione Controllo delle versioni archivia una configurazione vuota della funzione Controllo delle versioni.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</VersioningConfiguration>
```

Per abilitare la funzione Controllo delle versioni, è possibile inviare una richiesta ad Amazon S3 con una configurazione della funzione che include lo stato. 

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>Enabled</Status> 
</VersioningConfiguration>
```

Per sospendere la funzione Controllo delle versioni, si imposterà il valore dello stato su `Suspended`.

Il proprietario del bucket e tutti gli utenti autorizzati possono abilitare il controllo delle versioni. Il proprietario del bucket è colui Account AWS che ha creato il bucket (l'account root). Per ulteriori informazioni sulle autorizzazioni, consultare [Identity and Access Management per Amazon S3](security-iam.md).

Le sezioni seguenti forniscono maggiori dettagli sull'abilitazione del controllo delle versioni di S3 utilizzando la console e il AWS CLI. AWS SDKs

## Utilizzo della console S3
<a name="enable-versioning"></a>

Segui questi passaggi per utilizzare per Console di gestione AWS abilitare il controllo delle versioni su un bucket S3.

**Come abilitare o disabilitare il controllo delle versioni su un bucket per uso generico S3**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket per il quale desideri abilitare il controllo delle versioni.

1. Scegliere **Properties (Proprietà)**.

1. In **Bucket Versioning (Funzione Controllo delle versioni del bucket)** scegliere **Edit (Modifica)**.

1. Scegliere **Suspend (Sospendi)** o **Enable (Abilita)**, quindi scegliere **Save changes (Salva modifiche)**.

**Nota**  
È possibile utilizzare l' AWS autenticazione a più fattori (MFA) con il controllo delle versioni. Quando utilizzi l'MFA con il controllo delle versioni, devi fornire le tue chiavi Account AWS di accesso e un codice valido dal dispositivo MFA dell'account per eliminare definitivamente una versione dell'oggetto o sospendere o riattivare il controllo delle versioni.   
Per utilizzare l'autenticazione MFA con la funzione Controllo delle versioni, abilita `MFA Delete`. Non è possibile abilitare `MFA Delete` utilizzando la Console di gestione AWS. È necessario utilizzare () o l'API AWS Command Line Interface .AWS CLI Per ulteriori informazioni, consulta [Configurazione dell'eliminazione di MFA](MultiFactorAuthenticationDelete.md).

## Usando il AWS CLI
<a name="manage-versioning-examples-cli"></a>

L’esempio seguente abilita il controllo delle versioni su un bucket per uso generico S3. 

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled
```

L’esempio seguente abilita il controllo delle versioni S3 e l’eliminazione dell’autenticazione a più fattori (MFA) su un bucket per un dispositivo MFA fisico. Per i dispositivi MFA fisici, nel parametro `--mfa`, inserisci una concatenazione del numero di serie del dispositivo MFA, uno spazio e il valore visualizzato sul dispositivo di autenticazione.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "SerialNumber 123456"
```

L’esempio seguente abilita il controllo delle versioni S3 e l’eliminazione dell’autenticazione a più fattori (MFA) su un bucket per un dispositivo MFA virtuale. Per i dispositivi MFA virtuali, nel parametro `--mfa`, inserisci una concatenazione dell’ARN del dispositivo MFA, uno spazio e il valore visualizzato sul dispositivo di autenticazione.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "arn:aws:iam::account-id:mfa/root-account-mfa-device 123789"
```

**Nota**  
L'utilizzo dell'eliminazione di MFA richiede un dispositivo di autenticazione fisico o virtuale approvato. Per ulteriori informazioni sull'utilizzo dell'eliminazione di MFA in Amazon S3, consulta [Configurazione dell'eliminazione di MFA](MultiFactorAuthenticationDelete.md).

Per ulteriori informazioni sull'abilitazione del controllo delle versioni utilizzando il AWS CLI, vedere [put-bucket-versioning](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-versioning.html)nel *AWS CLI Command Reference.*

## Usando il AWS SDKs
<a name="manage-versioning-examples-sdk"></a>

Gli esempi seguenti abilitano il controllo delle versioni su un bucket e quindi recuperano lo stato del controllo delle versioni utilizzando e il. AWS SDK per Java AWS SDK per .NET[Per informazioni sull'utilizzo di altri AWS SDKs, consulta il Developer Center.AWS](https://aws.amazon.com/code/)

------
#### [ .NET ]

Per informazioni sulla configurazione e l'esecuzione degli esempi di codice, consulta [Getting Started with the AWS SDK for .NET nella AWS SDK for](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) .NET *Developer Guide*. 

```
using System;
using Amazon.S3;
using Amazon.S3.Model;

namespace s3.amazon.com.rproxy.goskope.com.docsamples
{
    class BucketVersioningConfiguration
    {
        static string bucketName = "*** bucket name ***";

        public static void Main(string[] args)
        {
            using (var client = new AmazonS3Client(Amazon.RegionEndpoint.USEast1))
            {
                try
                {
                    EnableVersioningOnBucket(client);
                    string bucketVersioningStatus = RetrieveBucketVersioningConfiguration(client);
                }
                catch (AmazonS3Exception amazonS3Exception)
                {
                    if (amazonS3Exception.ErrorCode != null &&
                        (amazonS3Exception.ErrorCode.Equals("InvalidAccessKeyId")
                        ||
                        amazonS3Exception.ErrorCode.Equals("InvalidSecurity")))
                    {
                        Console.WriteLine("Check the provided AWS Credentials.");
                        Console.WriteLine(
                        "To sign up for service, go to http://aws.amazon.com/s3");
                    }
                    else
                    {
                        Console.WriteLine(
                         "Error occurred. Message:'{0}' when listing objects",
                         amazonS3Exception.Message);
                    }
                }
            }

            Console.WriteLine("Press any key to continue...");
            Console.ReadKey();
        }

        static void EnableVersioningOnBucket(IAmazonS3 client)
        {

                PutBucketVersioningRequest request = new PutBucketVersioningRequest
                {
                    BucketName = bucketName,
                    VersioningConfig = new S3BucketVersioningConfig 
                    {
                        Status = VersionStatus.Enabled
                    }
                };

                PutBucketVersioningResponse response = client.PutBucketVersioning(request);
        }


        static string RetrieveBucketVersioningConfiguration(IAmazonS3 client)
        {
                GetBucketVersioningRequest request = new GetBucketVersioningRequest
                {
                    BucketName = bucketName
                };
 
                GetBucketVersioningResponse response = client.GetBucketVersioning(request);
                return response.VersioningConfig.Status;
            }
    }
}
```

------
#### [ Java ]

Per istruzioni su come creare e testare un esempio funzionante, consulta [Getting Started](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/getting-started.html) nella AWS SDK per Java Developer Guide.

```
import java.io.IOException;

import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Region;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.s3.AmazonS3Client;
import com.amazonaws.services.s3.model.AmazonS3Exception;
import com.amazonaws.services.s3.model.BucketVersioningConfiguration;
import com.amazonaws.services.s3.model.SetBucketVersioningConfigurationRequest;

public class BucketVersioningConfigurationExample {
    public static String bucketName = "*** bucket name ***"; 
    public static AmazonS3Client s3Client;

    public static void main(String[] args) throws IOException {
        s3Client = new AmazonS3Client(new ProfileCredentialsProvider());
        s3Client.setRegion(Region.getRegion(Regions.US_EAST_1));
        try {

            // 1. Enable versioning on the bucket.
        	BucketVersioningConfiguration configuration = 
        			new BucketVersioningConfiguration().withStatus("Enabled");
            
			SetBucketVersioningConfigurationRequest setBucketVersioningConfigurationRequest = 
					new SetBucketVersioningConfigurationRequest(bucketName,configuration);
			
			s3Client.setBucketVersioningConfiguration(setBucketVersioningConfigurationRequest);
			
			// 2. Get bucket versioning configuration information.
			BucketVersioningConfiguration conf = s3Client.getBucketVersioningConfiguration(bucketName);
			 System.out.println("bucket versioning configuration status:    " + conf.getStatus());

        } catch (AmazonS3Exception amazonS3Exception) {
            System.out.format("An Amazon S3 error occurred. Exception: %s", amazonS3Exception.toString());
        } catch (Exception ex) {
            System.out.format("Exception: %s", ex.toString());
        }        
    }
}
```

------
#### [ Python ]

Nel seguente codice Python di esempio viene creato un bucket Amazon S3, viene abilitato per il controllo delle versioni e viene configurato un ciclo di vita che fa scadere le versioni degli oggetti non simultanee dopo 7 giorni.

```
def create_versioned_bucket(bucket_name, prefix):
    """
    Creates an Amazon S3 bucket, enables it for versioning, and configures a lifecycle
    that expires noncurrent object versions after 7 days.

    Adding a lifecycle configuration to a versioned bucket is a best practice.
    It helps prevent objects in the bucket from accumulating a large number of
    noncurrent versions, which can slow down request performance.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket_name: The name of the bucket to create.
    :param prefix: Identifies which objects are automatically expired under the
                   configured lifecycle rules.
    :return: The newly created bucket.
    """
    try:
        bucket = s3.create_bucket(
            Bucket=bucket_name,
            CreateBucketConfiguration={
                "LocationConstraint": s3.meta.client.meta.region_name
            },
        )
        logger.info("Created bucket %s.", bucket.name)
    except ClientError as error:
        if error.response["Error"]["Code"] == "BucketAlreadyOwnedByYou":
            logger.warning("Bucket %s already exists! Using it.", bucket_name)
            bucket = s3.Bucket(bucket_name)
        else:
            logger.exception("Couldn't create bucket %s.", bucket_name)
            raise

    try:
        bucket.Versioning().enable()
        logger.info("Enabled versioning on bucket %s.", bucket.name)
    except ClientError:
        logger.exception("Couldn't enable versioning on bucket %s.", bucket.name)
        raise

    try:
        expiration = 7
        bucket.LifecycleConfiguration().put(
            LifecycleConfiguration={
                "Rules": [
                    {
                        "Status": "Enabled",
                        "Prefix": prefix,
                        "NoncurrentVersionExpiration": {"NoncurrentDays": expiration},
                    }
                ]
            }
        )
        logger.info(
            "Configured lifecycle to expire noncurrent versions after %s days "
            "on bucket %s.",
            expiration,
            bucket.name,
        )
    except ClientError as error:
        logger.warning(
            "Couldn't configure lifecycle on bucket %s because %s. "
            "Continuing anyway.",
            bucket.name,
            error,
        )

    return bucket
```

------

# Configurazione dell'eliminazione di MFA
<a name="MultiFactorAuthenticationDelete"></a>

Quando si utilizza la funzione Controllo delle versioni S3 nei bucket Amazon S3, puoi aggiungere un altro livello di sicurezza configurando un bucket per abilitare l'*eliminazione MFA (autenticazione a più fattori)*. In tal caso, il proprietario del bucket deve includere due tipi di autenticazione in qualsiasi richiesta per eliminare una versione o modificare lo stato della funzione Controllo delle versioni del bucket.

La cancellazione MFA richiede autenticazione aggiuntiva per le seguenti operazioni:
+ Modifica dello stato della funzione Controllo delle versioni del bucket
+ Eliminazione permanente della versione di un oggetto

La cancellazione MFA richiede due forme di autenticazione contemporaneamente:
+ Le credenziali di sicurezza
+ la sequenza di un numero di serie valido, uno spazio e il codice a sei cifre visualizzato sul dispositivo di autenticazione approvato.

La cancellazione MFA fornisce così una protezione ulteriore, ad esempio se le credenziali di sicurezza fossero compromesse. L'eliminazione di MFA può aiutare a prevenire le eliminazioni accidentali dei bucket richiedendo all'utente che avvia l'azione di eliminazione di dimostrare il possesso fisico di un dispositivo MFA con un codice MFA e aggiungendo un ulteriore livello di interazione e sicurezza all'azione di eliminazione.

Per identificare i bucket con la funzionalità di eliminazione dell'autenticazione a più fattori (MFA) abilitata, puoi utilizzare i parametri di Amazon S3 Storage Lens. S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che puoi utilizzare per avere una panoramica completa a livello di organizzazione sull'utilizzo e sulle attività relative all'archiviazione di oggetti. Per ulteriori informazioni, consulta [ Valutazione dell'attività e dell'utilizzo dello storage con S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens?icmpid=docs_s3_user_guide_MultiFactorAuthenticationDelete.html). Per un elenco completo dei parametri, consulta [Glossario dei parametri di S3 Storage](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_MultiFactorAuthenticationDelete.html).

Il proprietario del bucket, chi Account AWS ha creato il bucket (account root) e tutti gli utenti autorizzati possono abilitare il controllo delle versioni. Tuttavia, solo il proprietario del bucket (account root) può abilitare l'eliminazione di MFA. Per ulteriori informazioni, consulta la sezione [Protezione dell'accesso all' AWS utilizzo della MFA](https://aws.amazon.com/blogs/security/securing-access-to-aws-using-mfa-part-3/) nel blog AWS sulla sicurezza.

**Nota**  
Per utilizzare l'eliminazione MFA con la funzione Controllo delle versioni, abilita `MFA Delete`. Tuttavia, non è possibile abilitare `MFA Delete` l'utilizzo la Console di gestione AWS. È necessario utilizzare AWS Command Line Interface (AWS CLI) o l'API.   
Per esempi sull'utilizzo dell'eliminazione MFA con il controllo delle versioni, consulta la sezione degli esempi nell'argomento [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md).  
Non puoi utilizzare l'eliminazione MFA con le configurazioni del ciclo di vita. Per ulteriori informazioni sulle configurazioni del ciclo di vita e sul modo in cui interagiscono con altre configurazioni, consulta [Come il ciclo di vita S3 interagisce con altre configurazioni del bucket](lifecycle-and-other-bucket-config.md).

Per abilitare o disabilitare la cancellazione MFA si ricorre alla stessa API utilizzata per configurare la funzione Controllo delle versioni di un bucket. Amazon S3 archivia la configurazione della cancellazione MFA nella stessa sottorisorsa della *funzione Controllo delle versioni* che contiene lo stato della funzione Controllo delle versioni del bucket.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>VersioningState</Status>
  <MfaDelete>MfaDeleteState</MfaDelete>  
</VersioningConfiguration>
```

Per usare la cancellazione MFA si può utilizzare un dispositivo MFA fisico o virtuale per generare un codice di autenticazione. L'esempio seguente mostra il codice di autenticazione generato visualizzato su un dispositivo hardware.

![\[Un esempio di codice di autenticazione generato visualizzato su un dispositivo hardware.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/MFADevice.png)


La cancellazione MFA e l'accesso all'API protetto con autenticazione MFA sono caratteristiche destinate a offrire protezione in vari scenari. La cancellazione MFA viene configurata su un bucket per far sì che i dati del bucket non possano essere eliminati accidentalmente. Si utilizza l'accesso all'API protetto con autenticazione MFA per forzare un altro fattore di autenticazione (codice MFA) durante l'accesso a risorse Amazon S3 sensibili. Puoi richiedere che qualsiasi operazione su tali risorse di Amazon S3 venga eseguita fornendo credenziali temporanee create utilizzando MFA. Per un esempio, consulta [Richiesta dell'autenticazione a più fattori (MFA)](example-bucket-policies.md#example-bucket-policies-MFA). 

Per ulteriori informazioni su come acquistare e attivare un dispositivo di autenticazione, consulta [Autenticazione a più fattori](https://aws.amazon.com/iam/details/mfa/).

## Abilitazione del controllo delle versioni S3 e configurazione dell'eliminazione MFA
<a name="enable-versioning-mfa-delete"></a>

### Usando il AWS CLI
<a name="enable-versioning-mfa-delete-cli"></a>

Il numero di serie è il numero che identifica in modo univoco il dispositivo MFA. Per i dispositivi MFA fisici, si tratta del numero di serie univoco fornito con il dispositivo. Per i dispositivi MFA virtuali, il numero di serie è l'ARN del dispositivo. Per utilizzare i seguenti comandi, sostituisci *user input placeholders* con le tue specifiche informazioni.

L’esempio seguente abilita il controllo delle versioni S3 e l’eliminazione dell’autenticazione a più fattori (MFA) su un bucket per un dispositivo MFA fisico. Per i dispositivi MFA fisici, nel parametro `--mfa`, inserisci una concatenazione del numero di serie del dispositivo MFA, uno spazio e il valore visualizzato sul dispositivo di autenticazione.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "SerialNumber 123456"
```

L’esempio seguente abilita il controllo delle versioni S3 e l’eliminazione dell’autenticazione a più fattori (MFA) su un bucket per un dispositivo MFA virtuale. Per i dispositivi MFA virtuali, nel parametro `--mfa`, inserisci una concatenazione dell’ARN del dispositivo MFA, uno spazio e il valore visualizzato sul dispositivo di autenticazione.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "arn:aws:iam::account-id:mfa/root-account-mfa-device 123789"
```

Per ulteriori informazioni, consulta l'articolo AWS RePost [Come posso attivare l'eliminazione tramite MFA per il mio bucket Amazon S3](https://repost.aws/knowledge-center/s3-bucket-mfa-delete)? .

### Utilizzo della REST API
<a name="enable-versioning-mfa-delete-rest-api"></a>

Per ulteriori informazioni su come specificare l'eliminazione MFA utilizzando l'API REST di Amazon S3, consulta [PutBucketVersioning](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html)*Amazon Simple* Storage Service API Reference.

# Utilizzo di oggetti in un bucket che supporta la funzione Controllo delle versioni
<a name="manage-objects-versioned-bucket"></a>

Gli oggetti che sono stati archiviati nel bucket Amazon S3 prima dell'impostazione dello stato della funzione Controllo delle versioni hanno un ID versione `null`. Quando si abilita la funzione Controllo delle versioni, gli oggetti esistenti nel bucket non si modificano. Ciò che cambia è il modo in cui Amazon S3 gestirà gli oggetti delle richieste future.

**Trasferimento delle versioni di un oggetto**  
È possibile definire regole di configurazione del ciclo di vita per gli oggetti con un ciclo di vita ben definito per trasferire le versioni di tali oggetti alla classe di archiviazione S3 Glacier Flexible Retrieval (Recupero flessibile S3 Glacier) in uno specifico momento del ciclo di vita. Per ulteriori informazioni, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md).

Gli argomenti di questa sezione illustrano varie operazioni sugli oggetti di un bucket che supporta la funzione Controllo delle versioni. Per ulteriori informazioni sulla funzione Controllo delle versioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

**Topics**
+ [Aggiunta di oggetti a bucket che supportano la funzione Controllo delle versioni](AddingObjectstoVersioningEnabledBuckets.md)
+ [Elenchi di oggetti in un bucket che supporta la funzione Controllo delle versioni](list-obj-version-enabled-bucket.md)
+ [Recupero delle versioni degli oggetti da un bucket con funzione Controllo delle versioni abilitata](RetrievingObjectVersions.md)
+ [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md)
+ [Configurazione delle autorizzazioni degli oggetti con versione](VersionedObjectPermissionsandACLs.md)

# Aggiunta di oggetti a bucket che supportano la funzione Controllo delle versioni
<a name="AddingObjectstoVersioningEnabledBuckets"></a>

Dopo aver abilitato la funzione Controllo delle versioni del bucket, Amazon S3 aggiungerà automaticamente un ID versione univoco a ogni oggetto archiviato (utilizzando `PUT`, `POST` o `CopyObject`) nel bucket. 

La figura seguente mostra l'aggiunta di un ID univoco a un oggetto da parte di Amazon S3 quando l'oggetto viene aggiunto a un bucket con la funzione Controllo delle versioni abilitata. 

![\[Illustrazione che mostra l'aggiunta di un ID versione univoco a un oggetto quando l'oggetto viene aggiunto a un bucket con il controllo delle versioni abilitato.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_PUT_versionEnabled.png)


**Nota**  
I valori degli ID versione assegnati da Amazon S3 sono compatibili con l'URL (possono essere inclusi in un URI).

Per ulteriori informazioni sulla funzione Controllo delle versioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md). Puoi aggiungere versioni di oggetti a un bucket abilitato al controllo delle versioni utilizzando la console e l'API REST. AWS SDKs

## Utilizzo della console
<a name="add-obj-versioning-enabled-bucket-console"></a>

Per istruzioni, consulta [Caricamento degli oggetti](upload-objects.md). 

## Utilizzando il AWS SDKs
<a name="add-obj-versioning-enabled-bucket-sdk"></a>

Per esempi di caricamento di oggetti utilizzando AWS SDKs per Java, .NET e PHP, vedere. [Caricamento degli oggetti](upload-objects.md) Gli esempi di caricamento di oggetti in bucket senza versione e con funzione Controllo delle versioni abilitata sono identici ma, nel caso dei bucket con funzione Controllo delle versioni abilitata, Amazon S3 assegna un numero di versione. Negli altri casi il numero di versione è null. 

Per informazioni sull'utilizzo di altri AWS SDKs, consultate il [AWS Developer](https://aws.amazon.com/code/) Center. 

## Utilizzo della REST API
<a name="add-obj-versioning-enabled-bucket-rest"></a>

**Per aggiungere oggetti a bucket che supportano la funzione Controllo delle versioni**

1. Abilitare la funzione Controllo delle versioni del bucket tramite una richiesta `PutBucketVersioning`.

   Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTVersioningStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTVersioningStatus.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

1. Inviare una richiesta `PUT`, `POST` o `CopyObject` per memorizzare un oggetto nel bucket.

Quando si aggiunge un oggetto a un bucket con la funzione Controllo delle versioni abilitata, Amazon S3 restituisce l'ID versione dell'oggetto nell'intestazione di risposta `x-amz-version-id`, come mostrato nell'esempio di seguito.

```
1. x-amz-version-id: 3/L4kqtJlcpXroDTDmJ+rmSpXd3dIbrHY
```

# Elenchi di oggetti in un bucket che supporta la funzione Controllo delle versioni
<a name="list-obj-version-enabled-bucket"></a>

Questa sezione fornisce esempi di elenchi di versioni di oggetti di un bucket con funzione Controllo delle versioni abilitata. Amazon S3 archivia le informazioni sulla versione di un oggetto nella sottorisorsa *versioni* associata al bucket. Per ulteriori informazioni, consulta [Opzioni di configurazione dei bucket per uso generico](UsingBucket.md#bucket-config-options-intro). Per elencare gli oggetti in un bucket con il controllo delle versioni abilitato, è necessario disporre dell'autorizzazione `ListBucketVersions`.

## Utilizzo della console S3
<a name="view-object-versions"></a>

Segui questi passaggi per utilizzare la console di Amazon S3 per visualizzare le varie versioni di un oggetto.

**Per visualizzare più versioni di un oggetto**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Buckets (Bucket)** scegliere il nome del bucket contenente l'oggetto.

1. Per visualizzare un elenco delle versioni degli oggetti nel bucket, scegli l'opzione **Show versions** (Mostra versioni). 

   Per ogni versione dell'oggetto, la console mostra un ID versione univoco, la data e l'ora di creazione della versione e altre proprietà. Gli oggetti archiviati nel bucket prima dell'impostazione dello stato della funzione Controllo delle versioni hanno un ID versione **null**.

   Per elencare gli oggetti senza le versioni, scegliere l'opzione **List versions (Elenca versioni)** .

Puoi anche visualizzare, scaricare ed eliminare le versioni degli oggetti nel riquadro di panoramica sull'oggetto della console. Per ulteriori informazioni, consulta [Visualizzazione delle proprietà di un oggetto nella console di Amazon S3](view-object-properties.md).

**Nota**  
 Per accedere a versioni di oggetti precedenti a 300 versioni, è necessario utilizzare la AWS CLI o l'URL dell'oggetto.

**Importante**  
È possibile annullare l'eliminazione di un oggetto solo se è stato eliminato come ultima versione (corrente). Non è possibile annullare l'eliminazione della versione precedente di un oggetto eliminato. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

## Utilizzando il AWS SDKs
<a name="list-obj-version-enabled-bucket-sdk-examples"></a>

Gli esempi di questa sezione mostrano come recuperare un elenco di oggetti da un bucket con funzione Controllo delle versioni abilitata. Ogni richiesta restituisce fino a 1.000 versioni, a meno che non sia stato specificato un valore inferiore. Se il bucket contiene un numero di versioni superiore a tale limite, sarà necessario inviare una serie di richieste per recuperare un elenco di tutte le versioni. Questo processo di restituzione di risultati in "pagine" è chiamato *paginazione*.

Per illustrare il funzionamento della paginazione, gli esempi limitano ogni risposta a due versioni di un oggetto. Dopo aver recuperato la prima pagina di risultati, ogni esempio verifica se l'elenco delle versioni è troncato. In caso affermativo, l'esempio continua recuperando pagine fino al recupero di tutte le versioni. 

**Nota**  
Gli esempi seguenti operano anche con un bucket che non ha la funzione Controllo delle versioni abilitata o per gli oggetti che non hanno versioni specifiche. In questi casi Amazon S3 restituisce l'elenco di oggetti con la versione ID `null`.

 [Per informazioni sull'utilizzo di altri AWS SDKs, consulta il Developer Center.AWS](https://aws.amazon.com/code/) 

------
#### [ Java ]

Per istruzioni su come creare e testare un esempio funzionante, consulta [Getting Started](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/getting-started.html) nella AWS SDK per Java Developer Guide.

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.s3.AmazonS3;
import com.amazonaws.services.s3.AmazonS3ClientBuilder;
import com.amazonaws.services.s3.model.ListVersionsRequest;
import com.amazonaws.services.s3.model.S3VersionSummary;
import com.amazonaws.services.s3.model.VersionListing;

public class ListKeysVersioningEnabledBucket {

    public static void main(String[] args) {
        Regions clientRegion = Regions.DEFAULT_REGION;
        String bucketName = "*** Bucket name ***";

        try {
            AmazonS3 s3Client = AmazonS3ClientBuilder.standard()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(clientRegion)
                    .build();

            // Retrieve the list of versions. If the bucket contains more versions
            // than the specified maximum number of results, Amazon S3 returns
            // one page of results per request.
            ListVersionsRequest request = new ListVersionsRequest()
                    .withBucketName(bucketName)
                    .withMaxResults(2);
            VersionListing versionListing = s3Client.listVersions(request);
            int numVersions = 0, numPages = 0;
            while (true) {
                numPages++;
                for (S3VersionSummary objectSummary : versionListing.getVersionSummaries()) {
                    System.out.printf("Retrieved object %s, version %s\n",
                            objectSummary.getKey(),
                            objectSummary.getVersionId());
                    numVersions++;
                }
                // Check whether there are more pages of versions to retrieve. If
                // there are, retrieve them. Otherwise, exit the loop.
                if (versionListing.isTruncated()) {
                    versionListing = s3Client.listNextBatchOfVersions(versionListing);
                } else {
                    break;
                }
            }
            System.out.println(numVersions + " object versions retrieved in " + numPages + " pages");
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it, so it returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

------
#### [ .NET ]

Per informazioni sulla configurazione e l'esecuzione degli esempi di codice, consulta [Getting Started with the AWS SDK for .NET nella AWS SDK for](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) .NET *Developer Guide*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class ListObjectsVersioningEnabledBucketTest
    {
        static string bucketName = "*** bucket name ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint bucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 s3Client;

        public static void Main(string[] args)
        {
            s3Client = new AmazonS3Client(bucketRegion);
            GetObjectListWithAllVersionsAsync().Wait();
        }

        static async Task GetObjectListWithAllVersionsAsync()
        {
            try
            {
                ListVersionsRequest request = new ListVersionsRequest()
                {
                    BucketName = bucketName,
                    // You can optionally specify key name prefix in the request
                    // if you want list of object versions of a specific object.

                    // For this example we limit response to return list of 2 versions.
                    MaxKeys = 2
                };
                do
                {
                    ListVersionsResponse response = await s3Client.ListVersionsAsync(request); 
                    // Process response.
                    foreach (S3ObjectVersion entry in response.Versions)
                    {
                        Console.WriteLine("key = {0} size = {1}",
                            entry.Key, entry.Size);
                    }

                    // If response is truncated, set the marker to get the next 
                    // set of keys.
                    if (response.IsTruncated)
                    {
                        request.KeyMarker = response.NextKeyMarker;
                        request.VersionIdMarker = response.NextVersionIdMarker;
                    }
                    else
                    {
                        request = null;
                    }
                } while (request != null);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' when writing an object", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown encountered on server. Message:'{0}' when writing an object", e.Message);
            }
        }
    }
}
```

------

## Utilizzo della REST API
<a name="ListingtheObjectsinaVersioningEnabledBucket"></a>

**Example - Un elenco di tutte le versioni degli oggetti di un bucket**  
Per visualizzare un elenco di tutte le versioni degli oggetti in un bucket, utilizzare la sottorisorsa `versions` in una richiesta `GET Bucket`. Amazon S3 può recuperare fino a 1.000 oggetti e ogni versione di oggetto è conteggiata interamente come oggetto. Quindi se un bucket contiene due chiavi (ad esempio, `photo.gif` e `picture.jpg`) e la prima ha 990 versioni mentre la seconda ne ha 400, con una singola richiesta si potrebbero recuperare tutte le 990 versioni `photo.gif` e solo le 10 più recenti di `picture.jpg`.  
Amazon S3 restituisce le versioni degli oggetti nell'ordine inverso rispetto a come sono state archiviate, ovvero l'ultima verrà restituita per prima.  
Nella richiesta `GET Bucket`, includere la sottorisorsa `versions`.  

```
1. GET /?versions HTTP/1.1
2. Host: bucketName.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 +0000
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

**Example - Recupero di tutte le versioni di una chiave**  
 Per recuperare un sottoinsieme di versioni di un oggetto, usa i parametri di richiesta per `GET Bucket`. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html).   

1. Impostare il parametro `prefix` sulla chiave dell'oggetto che si desidera recuperare.

1. Inviare una richiesta `GET Bucket` utilizzando la sottorisorsa `versions` e `prefix`.

   `GET /?versions&prefix=objectName HTTP/1.1`

**Example - Recupero di oggetti tramite un prefisso**  
Nell'esempio seguente vengono recuperati gli oggetti la cui chiave è o inizia con `myObject`.  

```
1. GET /?versions&prefix=myObject HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```
Si possono utilizzare altri parametri di richiesta per recuperare un sottoinsieme di tutte le versioni dell'oggetto. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

**Example - Recupero di un elenco di oggetti aggiuntivi se la risposta viene troncata**  
Se il numero di oggetti che possono essere restituiti in una richiesta `GET` supera il valore di `max-keys`, la risposta conterrà `<isTruncated>true</isTruncated>` e includerà la prima chiave (in `NextKeyMarker`) e il primo ID versione (in `NextVersionIdMarker`) che soddisfano la richiesta, ma che non sono stati restituiti. Si utilizzano i valori restituiti come posizione di inizio di una richiesta successiva per recuperare gli ulteriori oggetti che soddisfano la richiesta `GET`.   
Utilizzare la procedura seguente per recuperare gli ulteriori oggetti di un bucket che soddisfano la richiesta `GET Bucket versions` originaria. Per ulteriori informazioni su `key-marker`, `version-id-marker`, `NextKeyMarker` e `NextVersionIdMarker`, consulta la sezione [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html) nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*.  
Di seguito sono riportate le risposte aggiuntive che soddisfano la richiesta `GET` originale:  
+ Impostare il valore di `key-marker` sulla chiave restituita in `NextKeyMarker` nella risposta precedente.
+ Impostare il valore di `version-id-marker` sull'ID versione restituito in `NextVersionIdMarker` nella risposta precedente.
+ Inviare una richiesta `GET Bucket versions` utilizzando `key-marker` e `version-id-marker`.

**Example - Recupero di oggetto che iniziano con la chiave e l'ID versione specificati**  

```
1. GET /?versions&key-marker=myObject&version-id-marker=298459348571 HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

## Utilizzo del AWS CLI
<a name="list-obj-version-enabled-bucket-cli"></a>

Il comando seguente restituisce i metadati relativi a tutte le versioni degli oggetti in un bucket. 

```
aws s3api list-object-versions --bucket amzn-s3-demo-bucket1
```

Per ulteriori informazioni su `list-object-versions`, consulta [https://docs.aws.amazon.com/cli/latest/reference/s3api/list-object-versions.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/list-object-versions.html) nel *Riferimento ai comandi AWS CLI *.

# Recupero delle versioni degli oggetti da un bucket con funzione Controllo delle versioni abilitata
<a name="RetrievingObjectVersions"></a>

La funzione Controllo delle versioni in Amazon S3 è un modo per mantenere più varianti di un oggetto nello stesso bucket. Una richiesta `GET` semplice consente di recuperare la versione corrente di un oggetto. La figura seguente mostra come `GET` restituisce la versione corrente dell'oggetto, `photo.gif`.

![\[Illustrazione che mostra come GET restituisce la versione corrente dell'oggetto.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_GET_NoVersionID.png)


Per recuperare una specifica versione occorre indicare l'ID versione. La figura seguente mostra una richiesta `GET versionId` che restituisce la versione specificata dell'oggetto (che non è necessariamente la versione corrente).

![\[Illustrazione che mostra come una richiesta GET versionId consenta di recuperare la versione specificata dell'oggetto.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_GET_Versioned.png)


Puoi recuperare le versioni degli oggetti in Amazon S3 utilizzando la console o l'API AWS SDKs REST.

**Nota**  
 Per accedere a versioni di oggetti precedenti a 300 versioni, è necessario utilizzare la AWS CLI o l'URL dell'oggetto.

## Utilizzo della console S3
<a name="retrieving-object-versions"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Buckets (Bucket)** scegliere il nome del bucket contenente l'oggetto.

1. Nell'elenco **Oggetti** scegliere il nome dell'oggetto.

1. Scegliere le **Versioni**.

   Amazon S3 mostra tutte le versioni per l'oggetto.

1. Selezionare la casella di controllo accanto all' **ID versione** per le versioni che si desidera recuperare.

1. Scegliere **Azioni**, scegliere **Scarica**e salvare l'oggetto.

È anche possibile visualizzare, scaricare ed eliminare le versioni degli oggetti nel pannello di panoramica sull'oggetto. Per ulteriori informazioni, consulta [Visualizzazione delle proprietà di un oggetto nella console di Amazon S3](view-object-properties.md).

**Importante**  
È possibile annullare l'eliminazione di un oggetto solo se è stato eliminato come ultima versione (corrente). Non è possibile annullare l'eliminazione della versione precedente di un oggetto eliminato. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

## Utilizzando il AWS SDKs
<a name="retrieve-obj-version-sdks"></a>

Gli esempi per il caricamento di oggetti in bucket senza versione e con funzione Controllo delle versioni abilitata, sono gli stessi. Tuttavia, per i bucket con funzione Controllo delle versioni abilitata, Amazon S3 assegna un numero di versione. Negli altri casi il numero di versione è null.

Per esempi di download di oggetti utilizzando AWS SDKs Java, .NET e PHP, vedete [Download di oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html).

Per esempi di come elencare la versione degli oggetti utilizzata AWS SDKs per .NET e Rust, consulta [Elencare la versione degli oggetti in un bucket Amazon S3](https://docs.aws.amazon.com/code-library/latest/ug/s3_example_s3_ListObjectVersions_section.html).

## Utilizzo della REST API
<a name="retrieve-obj-version-rest"></a>

**Per recuperare una specifica versione di un oggetto**

1. Impostare `versionId` sull'ID versione dell'oggetto che si desidera recuperare.

1. Inviare una richiesta `GET Object versionId`.

**Example - Recupero di un oggetto con versione**  
La seguente richiesta recupera la versione `L4kqtJlcpXroDTDmpUMLUo` di `my-image.jpg`.  

```
1. GET /my-image.jpg?versionId=L4kqtJlcpXroDTDmpUMLUo HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

È possibile recuperare solo i metadati di un oggetto (non il contenuto). Per informazioni, consulta [Recupero dei metadata di una versione di un oggetto](RetMetaOfObjVersion.md).

Per informazioni sul ripristino di una versione di un oggetto precedente, consulta [Ripristino di versioni precedenti](RestoringPreviousVersions.md).

# Recupero dei metadata di una versione di un oggetto
<a name="RetMetaOfObjVersion"></a>

Se si desidera recuperare solo i metadata di un oggetto (e non il suo contenuto), si utilizza l'operazione `HEAD`. Per impostazione predefinita si otterranno i metadata della versione più recente. Per recuperare i metadata di una specifica versione di oggetto si indicherà l'ID versione.

**Per recuperare i metadata di una versione di un oggetto**

1. Impostare `versionId` sull'ID versione dell'oggetto di cui si desidera recuperare i metadata.

1. Inviare una richiesta `HEAD Object versionId`.

**Example - Recupero dei metadata di un oggetto con versione**  
La richiesta seguente consente di recuperare i metadati della versione `3HL4kqCxf3vjVBH40Nrjfkd` di `my-image.jpg`.  

```
1. HEAD /my-image.jpg?versionId=3HL4kqCxf3vjVBH40Nrjfkd HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

Di seguito è illustrata una risposta di esempio.

```
 1. HTTP/1.1 200 OK
 2. x-amz-id-2: ef8yU9AS1ed4OpIszj7UDNEHGran
 3. x-amz-request-id: 318BC8BC143432E5
 4. x-amz-version-id: 3HL4kqtJlcpXroDTDmjVBH40Nrjfkd
 5. Date: Wed, 28 Oct 2009 22:32:00 GMT
 6. Last-Modified: Sun, 1 Jan 2006 12:00:00 GMT
 7. ETag: "fba9dede5f27731c9771645a39863328"
 8. Content-Length: 434234
 9. Content-Type: text/plain
10. Connection: close
11. Server: AmazonS3
```

# Ripristino di versioni precedenti
<a name="RestoringPreviousVersions"></a>

Puoi utilizzare il controllo delle versioni per recuperare le versioni precedenti di un oggetto. Esistono due metodi per farlo:
+ Copiare una versione precedente dell'oggetto nello stesso bucket.

  La copia diventa la versione corrente dell'oggetto e vengono conservate tutte le sue versioni.
+ Eliminare definitivamente la versione corrente dell'oggetto.

  Così facendo, in effetti, la versione precedente diventa la versione corrente dell'oggetto.

Poiché vengono mantenute tutte le versioni dell'oggetto, è possibile trasformare una qualsiasi versione precedente nella versione corrente copiano una specifica versione dell'oggetto nello stesso bucket. Nella figura seguente l'oggetto di origine (ID = 111111) viene copiato nello stesso bucket. Amazon S3 fornisce un nuovo ID (88778877), che diventa la versione corrente dell'oggetto. In questo modo il bucket conterrà sia la versione originaria dell'oggetto (111111) che la sua copia (88778877). Per ulteriori informazioni su come ottenere una versione precedente e quindi caricarla per renderla la versione corrente, consulta [Recupero delle versioni degli oggetti da un bucket con funzione Controllo delle versioni abilitata](https://docs.aws.amazon.com/AmazonS3/latest/userguide/RetrievingObjectVersions.html) e [Caricamento di oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html).

![\[Illustrazione che mostra come copiare una versione specifica di un oggetto nello stesso bucket per impostarla come versione corrente.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_COPY2.png)


Una richiesta `GET` successiva recupera la versione 88778877.

La figura seguente mostra come l'eliminazione della versione corrente (121212) di un oggetto consente di lasciare la versione precedente (111111) come oggetto corrente. Per ulteriori informazioni sull'eliminazione di un oggetto, consulta [Eliminazione di un singolo oggetto](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-objects.html).

![\[Illustrazione che mostra come l'eliminazione della versione corrente di un oggetto mantenga la versione precedente come l'oggetto corrente.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_COPY_delete2.png)


Una richiesta `GET` successiva recupera la versione 111111.

**Nota**  
Per ripristinare le versioni degli oggetti in batch, puoi [utilizzare l'operazione `CopyObject`](https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-copy-object.html). L'operazione `CopyObject` copia ogni oggetto specificato nel manifesto. Tuttavia tieni presente che gli oggetti non vengono necessariamente copiati nello stesso ordine in cui appaiono nel manifesto. Per i bucket con versione, se è importante mantenere l'ordine di versione corrente/non corrente, è necessario copiare prima tutte le versioni non correnti. Quindi, al termine del primo processo, copia le versioni correnti in un processo successivo.

## Come ripristinare le versioni precedenti degli oggetti
<a name="restoring-obj-version-version-enabled-bucket-examples"></a>

Per ulteriori indicazioni sul ripristino di oggetti eliminati, consulta [Come posso recuperare un oggetto Amazon S3 che è stato eliminato in un](https://repost.aws/knowledge-center/s3-undelete-configuration) bucket abilitato al rilascio di versioni? AWS re:Post nel Knowledge Center.

### Utilizzo della console S3
<a name="retrieving-object-versions"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Buckets (Bucket)** scegliere il nome del bucket contenente l'oggetto.

1. Nell'elenco **Oggetti** scegliere il nome dell'oggetto.

1. Scegliere le **Versioni**.

   Amazon S3 mostra tutte le versioni per l'oggetto.

1. Selezionare la casella di controllo accanto all' **ID versione** per le versioni che si desidera recuperare.

1. Scegliere **Azioni**, scegliere **Scarica**e salvare l'oggetto.

È anche possibile visualizzare, scaricare ed eliminare le versioni degli oggetti nel pannello di panoramica sull'oggetto. Per ulteriori informazioni, consulta [Visualizzazione delle proprietà di un oggetto nella console di Amazon S3](view-object-properties.md).

**Importante**  
È possibile annullare l'eliminazione di un oggetto solo se è stato eliminato come ultima versione (corrente). Non è possibile annullare l'eliminazione della versione precedente di un oggetto eliminato. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

### Utilizzando il AWS SDKs
<a name="restoring-obj-version-version-enabled-bucket-sdks"></a>

Per informazioni sull'utilizzo di altri AWS SDKs, consulta il [AWS Developer Center](https://aws.amazon.com/code/). 

------
#### [ Python ]

Il seguente esempio di codice Python ripristina la versione precedente di un oggetto con versione eliminando tutte le versioni che si sono succedute dopo la versione di rollback specificata. 

```
def rollback_object(bucket, object_key, version_id):
    """
    Rolls back an object to an earlier version by deleting all versions that
    occurred after the specified rollback version.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that holds the object to roll back.
    :param object_key: The object to roll back.
    :param version_id: The version ID to roll back to.
    """
    # Versions must be sorted by last_modified date because delete markers are
    # at the end of the list even when they are interspersed in time.
    versions = sorted(
        bucket.object_versions.filter(Prefix=object_key),
        key=attrgetter("last_modified"),
        reverse=True,
    )

    logger.debug(
        "Got versions:\n%s",
        "\n".join(
            [
                f"\t{version.version_id}, last modified {version.last_modified}"
                for version in versions
            ]
        ),
    )

    if version_id in [ver.version_id for ver in versions]:
        print(f"Rolling back to version {version_id}")
        for version in versions:
            if version.version_id != version_id:
                version.delete()
                print(f"Deleted version {version.version_id}")
            else:
                break

        print(f"Active version is now {bucket.Object(object_key).version_id}")
    else:
        raise KeyError(
            f"{version_id} was not found in the list of versions for " f"{object_key}."
        )
```

------

# Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata
<a name="DeletingObjectVersions"></a>

È possibile eliminare le versioni degli oggetti dai bucket Amazon S3 ogni volta che si desidera. Si possono anche definire regole di configurazione del ciclo di vita per oggetti con un ciclo di vita ben definito per fare in modo che Amazon S3 forzi la scadenza delle versioni correnti di un oggetto o che rimuova le versioni dell'oggetto non correnti in modo permanente. Se il bucket ha la funzionalità Controllo delle versioni abilitata o sospesa, le operazioni di configurazione del ciclo di vita agiscono nel modo seguente:
+ L'operazione `Expiration` si applica alla versione corrente dell'oggetto. Anziché eliminare la versione corrente dell'oggetto, Amazon S3 la conserva come versione non corrente aggiungendo un *contrassegno di eliminazione*, che quindi diventa la versione corrente.
+ L'operazione `NoncurrentVersionExpiration` si applica solo alle versioni non correnti di un oggetto e Amazon S3 rimuove queste versioni in modo permanente. Non è possibile ripristinare gli oggetti rimossi in modo permanente.

Per ulteriori informazioni sul ciclo di vita S3, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md) e [Esempi di configurazioni del ciclo di vita S3](lifecycle-configuration-examples.md).

Per visualizzare il numero di versioni di oggetti correnti e non correnti presenti nei tuoi bucket, puoi utilizzare i parametri di Amazon S3 Storage Lens. S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che puoi utilizzare per avere una panoramica completa a livello di organizzazione sull'utilizzo e sulle attività relative all'archiviazione di oggetti. Per ulteriori informazioni, consulta la sezione [Utilizzo di S3 Storage Lens per ottimizzare i costi di archiviazione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-optimize-storage.html?icmpid=docs_s3_user_guide_DeletingObjectVersions.html). Per un elenco completo dei parametri, consulta [Glossario dei parametri di S3 Storage](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html).

**Nota**  
 A ogni versione archiviata e trasferita di un oggetto, incluse le versioni dell'oggetto non corrente, si applicano le tariffe Amazon S3 normali. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). 

## Eliminare casi di utilizzo delle richieste
<a name="delete-request-use-cases"></a>

Una richiesta `DELETE` può essere usata nei seguenti casi d'uso:
+ Quando la funzione Controllo delle versioni è abilitata, un semplice `DELETE` non può eliminare un oggetto in modo permanente. (Una richiesta `DELETE` semplice è una richiesta che non specifica un ID versione.) Invece di eliminare l'oggetto, Amazon S3 inserisce un contrassegno di eliminazione nel bucket e tale contrassegno diventa la versione corrente dell'oggetto, con un nuovo ID. 

  Quando si prova a utilizzare la funzione `GET` di un oggetto la cui versione corrente è un contrassegno di eliminazione, Amazon S3 si comporta come se l'oggetto fosse stato eliminato (anche se non è stato cancellato) e restituisce un errore 404. Per ulteriori informazioni, consulta [Utilizzo dei contrassegni di eliminazione](DeleteMarker.md).

  La figura seguente mostra una richiesta `DELETE` semplice che non rimuove effettivamente l'oggetto specificato. Anziché rimuovere l'oggetto, Amazon S3 inserisce un contrassegno di eliminazione.  
![\[Illustrazione che mostra l'inserimento di un contrassegno di eliminazione.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled.png)
+ Per eliminare oggetti con versione in modo permanente occorre usare `DELETE Object versionId`.

  La figura seguente mostra una richiesta che l'eliminazione della versione specificata di un oggetto rimuove tale oggetto in modo permanente.  
![\[Diagramma che mostra in che modo DELETE Object versionId elimini definitivamente una versione specifica dell'oggetto.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)

## Per eliminare le versioni degli oggetti
<a name="delete-object-version"></a>

Puoi eliminare le versioni degli oggetti in Amazon S3 utilizzando la console AWS SDKs, l'API REST o il. AWS Command Line Interface

### Utilizzo della console S3
<a name="deleting-object-versions"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Buckets (Bucket)** scegliere il nome del bucket contenente l'oggetto.

1. Nell'elenco **Oggetti** scegliere il nome dell'oggetto.

1. Scegliere le **Versioni**.

   Amazon S3 mostra tutte le versioni per l'oggetto.

1. Seleziona la casella di controllo accanto a **Version ID** (ID versione) per le versioni che desideri recuperare.

1. Scegli **Elimina**.

1. In **Eliminare definitivamente gli oggetti? **, immettere **permanently delete**.
**avvertimento**  
Quando si elimina definitivamente una versione di un oggetto, l'azione non può essere annullata.

1. Scegliere **Delete objects (Elimina oggetti)**.

   Amazon S3 elimina la versione dell'oggetto.

### Utilizzando il AWS SDKs
<a name="delete-obj-version-version-enabled-bucket-sdks"></a>

Per esempi di eliminazione di oggetti utilizzando AWS SDKs per Java, .NET e PHP, vedere. [Eliminazione di oggetti Amazon S3](DeletingObjects.md) Gli esempi per l'eliminazione di oggetti in bucket senza versione e con funzione Controllo delle versioni abilitata sono gli stessi. Tuttavia, per i bucket con funzione Controllo delle versioni abilitata, Amazon S3 assegna un numero di versione. Negli altri casi il numero di versione è null. 

Per informazioni sull'utilizzo di altri AWS SDKs, consulta il [AWS Developer](https://aws.amazon.com/code/) Center. 

------
#### [ Python ]

Nell'esempio di codice Python seguente viene illustrata l'eliminazione permanente di un oggetto con versione eliminando tutte le sue versioni.

```
def permanently_delete_object(bucket, object_key):
    """
    Permanently deletes a versioned object by deleting all of its versions.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that contains the object.
    :param object_key: The object to delete.
    """
    try:
        bucket.object_versions.filter(Prefix=object_key).delete()
        logger.info("Permanently deleted all versions of object %s.", object_key)
    except ClientError:
        logger.exception("Couldn't delete all versions of %s.", object_key)
        raise
```

------

### Utilizzo della REST API
<a name="delete-obj-version-enabled-bucket-rest"></a>

**Per eliminare una versione specifica di un oggetto**
+ In una richiesta `DELETE`, specificare l'ID versione.

**Example - Eliminazione di una versione specifica**  
Nell'esempio seguente viene eliminata la versione `UIORUnfnd89493jJFJ` di `photo.gif`.  

```
1. DELETE /photo.gif?versionId=UIORUnfnd89493jJFJ HTTP/1.1 
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 12 Oct 2009 17:50:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:xQE0diMbLRepdf3YB+FIEXAMPLE=
5. Content-Type: text/plain
6. Content-Length: 0
```

### Utilizzando il AWS CLI
<a name="delete-obj-version-enabled-bucket-cli"></a>

Il comando seguente elimina un oggetto denominato test.txt da un bucket denominato `amzn-s3-demo-bucket1`. Per rimuovere una versione specifica di un oggetto, devi essere il proprietario del bucket e utilizzare la risorsa secondaria ID versione.

```
aws s3api delete-object --bucket amzn-s3-demo-bucket1 --key test.txt --version-id versionID
```

Per ulteriori informazioni su `delete-object`, consulta [https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html) nel *Riferimento ai comandi AWS CLI *.

Per ulteriori informazioni sull'eliminazione delle versioni degli oggetti, consulta gli argomenti riportati di seguito.
+ [Utilizzo dei contrassegni di eliminazione](DeleteMarker.md)
+ [Rimozione dei contrassegni di eliminazione per rendere corrente una versione precedente](ManagingDelMarkers.md#RemDelMarker)
+ [Eliminazione di un oggetto da un bucket con cancellazione MFA abilitata](UsingMFADelete.md)

# Utilizzo dei contrassegni di eliminazione
<a name="DeleteMarker"></a>

In Amazon S3, un *contrassegno di eliminazione* è il segnaposto (o contrassegno) di un oggetto con controllo delle versioni specificato in una richiesta `DELETE` semplice. Una richiesta `DELETE` semplice è una richiesta che non specifica un ID versione. Poiché l'oggetto si trova in un bucket con funzione Controllo delle versioni abilitata, non viene eliminato. Ma il contrassegno di eliminazione fa sì che Amazon S3 si comporti come se l'oggetto fosse stato eliminato. Puoi utilizzare una chiamata `DELETE` API di Amazon S3 su un contrassegno di eliminazione. A tale scopo, è necessario effettuare la `DELETE` richiesta utilizzando un utente o un ruolo AWS Identity and Access Management (IAM) con le autorizzazioni appropriate.

I contrassegni di eliminazione sono dotati di un *nome chiave* (o *chiave*) e di un ID versione, come qualsiasi altro oggetto. Tuttavia, differiscono da altri oggetti nei modi seguenti:
+ Un contrassegno di eliminazione non dispone di dati associati.
+ Un contrassegno di eliminazione non è associato a un valore della lista di controllo degli accessi (ACL).
+ Se invii una richiesta `GET` per un contrassegno di eliminazione, la richiesta `GET` non recupera nulla perché un contrassegno di eliminazione non contiene dati. In particolare, quando la richiesta `GET` non specifica un `versionId`, viene visualizzato un errore 404 (Not Found).

I contrassegni di eliminazione accumulano un addebito minimo per l'archiviazione in Amazon S3. Le dimensioni di storage di un contrassegno di eliminazione corrispondono a quelle del suo nome delle chiave. Un nome delle chiave è una sequenza di caratteri Unicode. La codifica UTF-8 per il nome chiave aggiunge da 1 a 4 byte di archiviazione al bucket per ogni carattere contenuto nel nome. I contrassegni di eliminazione sono archiviati nella classe di archiviazione S3 Standard. 

Per scoprire quanti contrassegni di eliminazione sono impostati e in quale classe di archiviazione sono archiviati, puoi usare Amazon S3 Storage Lens. Per ulteriori informazioni, consultare [Monitoraggio dell'attività e dell'utilizzo dello storage con Amazon S3 Storage Lens](storage_lens.md) e [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

Per ulteriori informazioni sui nomi delle chiavi, consultare [Denominazione di oggetti Amazon S3](object-keys.md). Per informazioni sull'eliminazione di un contrassegno di eliminazione, consultare [Gestione dei contrassegni di eliminazione](ManagingDelMarkers.md). 

Solo Amazon S3 può creare un contrassegno di eliminazione e compie questa operazione ogni volta che si invia una richiesta `DeleteObject` relativa a un oggetto di un bucket con funzione Controllo delle versioni abilitata o sospesa. L'oggetto specificato nella richiesta `DELETE` non viene effettivamente eliminato. Invece il contrassegno di eliminazione diventa la versione corrente dell'oggetto Il nome delle chiave dell'oggetto (o chiave) diventa la chiave del contrassegno di eliminazione. 

Quando ottieni un oggetto senza specificare un `versionId` nella richiesta, se la versione corrente è un contrassegno di eliminazione, Amazon S3 risponde con quanto segue:
+ Un errore 404 (Not Found)
+ Un'intestazione di risposta, `x-amz-delete-marker: true`

Quando ottieni un oggetto specificando un `versionId` nella richiesta, se la versione specificata è un contrassegno di eliminazione, Amazon S3 risponde con quanto segue:
+ Un errore di tipo 405 (metodo non concesso)
+ Un'intestazione di risposta, `x-amz-delete-marker: true`
+ Un'intestazione di risposta, `Last-Modified: timestamp` (solo quando si utilizzano le operazioni [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)o l'[GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)API)

L'intestazione della risposta `x-amz-delete-marker: true` indica che l'oggetto a cui è stato effettuato l'accesso è un contrassegno di eliminazione. Questa intestazione della risposta non restituisce mai `false`, perché quando il valore è `false`, la versione corrente o specificata dell'oggetto non è un indicatore di eliminazione.

L'intestazione della risposta `Last-Modified` fornisce l'ora di creazione dei contrassegni di eliminazione.

La figura seguente mostra come una chiamata API `GetObject` su un oggetto la cui versione corrente è un contrassegno di eliminazione risponde con un errore 404 (Not Found) e l'intestazione della risposta include `x-amz-delete-marker: true`.

![\[Illustrazione che mostra una chiamata GetObject per un contrassegno di eliminazione che restituisce un errore 404 (Not Found).\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound.png)


Se effettui una chiamata `GetObject` su un oggetto specificando un `versionId` nella richiesta e se la versione specificata è un contrassegno di eliminazione, Amazon S3 risponde con un errore 405 (Method Not Allowed) e le intestazioni della risposta includono `x-amz-delete-marker: true` e `Last-Modified: timestamp`.

![\[Illustrazione che mostra una chiamata GetObject per un contrassegno di eliminazione che restituisce un errore 405 (Method Not Allowed).\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound_405.png)


Anche se sovrascritti, gli indicatori di eliminazione rimangono nelle versioni degli oggetti. L’unico modo per ottenere l’elenco degli indicatori di eliminazione (e di altre versioni di un oggetto) è utilizzare una richiesta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html). È possibile effettuare questa richiesta nella Console di gestione AWS elencando gli oggetti di un bucket per uso generico e selezionando **Mostra versioni**. Per ulteriori informazioni, consulta [Elenchi di oggetti in un bucket che supporta la funzione Controllo delle versioni](list-obj-version-enabled-bucket.md).

La figura seguente mostra che una richiesta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html) o [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html) non restituisce gli oggetti la cui versione corrente è un contrassegno di eliminazione.

![\[Illustrazione che mostra come una chiamata ListObjectsV2 o ListObjects non restituisce alcun contrassegno di eliminazione.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_GETBucketwithDeleteMarkers.png)


# Gestione dei contrassegni di eliminazione
<a name="ManagingDelMarkers"></a>

## Configurazione del ciclo di vita per ripulire automaticamente i contrassegni di eliminazione scaduti
<a name="LifecycleDelMarker"></a>

Un contrassegno di eliminazione oggetto scaduto è un elemento in cui tutte le versioni dell'oggetto vengono eliminate e rimane solo un singolo contrassegno di eliminazione. Se la configurazione relativa al ciclo di vita è impostata per eliminare le versioni correnti oppure l'opzione `ExpiredObjectDeleteMarker` è impostata in modo esplicito, Amazon S3 rimuove il contrassegno di eliminazione dell'oggetto scaduto. Per un esempio, consulta [Rimozione dei contrassegni di eliminazione degli oggetti scaduti in un bucket con il controllo delle versioni abilitato](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7). 

## Rimozione dei contrassegni di eliminazione per rendere corrente una versione precedente
<a name="RemDelMarker"></a>

Quando si elimina un oggetto in un bucket che supporta la funzione Controllo delle versioni, tutte le versioni rimangono nel bucket e Amazon S3 crea un contrassegno di eliminazione per l'oggetto. Per annullare l'eliminazione dell'oggetto, è necessario eliminare il contrassegno di eliminazione. Per ulteriori informazioni sulla funzione Controllo delle versioni e sui contrassegni di eliminazione, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

Per eliminare definitivamente un contrassegno di eliminazione occorre includere il suo ID versione nella richiesta `DeleteObject versionId`. La figura seguente mostra una richiesta `DeleteObject versionId` che rimuove definitivamente un contrassegno di eliminazione.

![\[Illustrazione che mostra l'eliminazione di un contrassegno di eliminazione utilizzando il relativo ID versione.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_deleteMarkerVersioned.png)


L'effetto della rimozione del contrassegno di eliminazione è che una richiesta `GET` semplice non recupererà l'ID versione corrente (121212) dell'oggetto. 

**Nota**  
Se si utilizza una richiesta `DeleteObject` per eliminare un contrassegno di eliminazione (senza specificare l'ID versione del contrassegno), Amazon S3 non elimina il contrassegno, ma `PUTs` inserisce un altro contrassegno di eliminazione.

Per rimuovere un contrassegno di eliminazione con un ID di versione `NULL`, è necessario passare il `NULL` come ID di versione nella richiesta `DeleteObject`. La figura seguente mostra come una semplice richiesta `DeleteObject` effettuata senza un ID di versione, in cui la versione corrente è un marker di eliminazione, non rimuove nulla, ma aggiunge invece un marker di eliminazione ulteriore con un ID di versione univoco (7498372).

![\[Illustrazione che mostra l'eliminazione di un contrassegno di eliminazione utilizzando un ID versione NULL.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_deleteMarker.png)


## Utilizzo della console S3
<a name="undelete-objects"></a>

Utilizzare la seguente procedura per recuperare gli oggetti eliminati che non sono cartelle dal bucket S3, inclusi gli oggetti che si trovano all'interno di tali cartelle. 

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nell'elenco **Bucket** scegli il nome del bucket desiderato.

1. Per visualizzare un elenco delle **versioni** degli oggetti nel bucket, scegliere l'opzione **List versions (Elenca versioni)**. Verranno visualizzati i contrassegni di eliminazione degli oggetti eliminati. 

   

1. Per annullare l'eliminazione di un oggetto, è necessario eliminare il contrassegno di eliminazione. Selezionare la casella di controllo accanto al **contrassegno di eliminazione** dell'oggetto da recuperare, quindi scegliere **Delete (Elimina)**.

1. Conferma l'eliminazione nella pagina **Delete objects (Elimina oggetti)** .

   1. In **Permanently delete objects?** (Eliminare definitivamente gli oggetti?), specifica **permanently delete**.

   1. Scegliere **Delete objects (Elimina oggetti)**.

**Nota**  
Non puoi utilizzare la console di Amazon S3 per annullare l'eliminazione delle cartelle. È necessario utilizzare il AWS CLI o SDK. Per gli esempi, consulta [Come posso ripristinare un oggetto Amazon S3 eliminato da un bucket con il controllo delle versioni abilitato?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-undelete-configuration/) nel Knowledge Center di AWS .

## Utilizzo di REST API
<a name="delete-marker-rest-api"></a>

**Per rimuovere definitivamente un contrassegno di eliminazione**

1. Impostare `versionId` sull'ID versione del contrassegno di eliminazione che si desidera rimuovere.

1. Inviare una richiesta `DELETE Object versionId`.

**Example - Rimozione di un contrassegno di eliminazione**  
Il seguente esempio consente di rimuovere il contrassegno di eliminazione della versione budget 4857693 di `photo.gif`.  

```
1. DELETE /photo.gif?versionId=4857693 HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

Quando si elimina un contrassegno di eliminazione, Amazon S3 include nella risposta:

```
1. 204 NoContent 
2. x-amz-version-id: versionID 
3. x-amz-delete-marker: true
```

## Usando il AWS SDKs
<a name="remove-delete-marker-examples-sdk"></a>

Per informazioni sull'utilizzo di altri AWS SDKs, consulta il [AWS Developer Center](https://aws.amazon.com/code/).

------
#### [ Python ]

Nell'esempio di codice Python seguente viene illustrato come rimuovere un marker di eliminazione da un oggetto, rendendo quindi la versione non corrente più recente la versione corrente dell'oggetto.

```
def revive_object(bucket, object_key):
    """
    Revives a versioned object that was deleted by removing the object's active
    delete marker.
    A versioned object presents as deleted when its latest version is a delete marker.
    By removing the delete marker, we make the previous version the latest version
    and the object then presents as *not* deleted.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that contains the object.
    :param object_key: The object to revive.
    """
    # Get the latest version for the object.
    response = s3.meta.client.list_object_versions(
        Bucket=bucket.name, Prefix=object_key, MaxKeys=1
    )

    if "DeleteMarkers" in response:
        latest_version = response["DeleteMarkers"][0]
        if latest_version["IsLatest"]:
            logger.info(
                "Object %s was indeed deleted on %s. Let's revive it.",
                object_key,
                latest_version["LastModified"],
            )
            obj = bucket.Object(object_key)
            obj.Version(latest_version["VersionId"]).delete()
            logger.info(
                "Revived %s, active version is now %s  with body '%s'",
                object_key,
                obj.version_id,
                obj.get()["Body"].read(),
            )
        else:
            logger.warning(
                "Delete marker is not the latest version for %s!", object_key
            )
    elif "Versions" in response:
        logger.warning("Got an active version for %s, nothing to do.", object_key)
    else:
        logger.error("Couldn't get any version info for %s.", object_key)
```

------

# Eliminazione di un oggetto da un bucket con cancellazione MFA abilitata
<a name="UsingMFADelete"></a>

Quando configuri l’eliminazione MFA, solo l’utente root può eliminare definitivamente le versioni degli oggetti o modificare la configurazione del controllo delle versioni sul bucket S3. È necessario utilizzare un dispositivo MFA per autenticare l’utente root a eseguire l’azione di eliminazione.

Se la configurazione della funzione Controllo delle versioni comprende l'abilitazione della cancellazione MFA, il proprietario del bucket deve includere l'intestazione `x-amz-mfa` nelle richieste per eliminare definitivamente una versione dell'oggetto o per cambiare lo stato della funzione Controllo delle versioni del bucket. Le richieste che includono `x-amz-mfa` devono utilizzare l'HTTPS.

Il valore dell'intestazione è dato dalla concatenazione del numero di serie del dispositivo di autenticazione, uno spazio e il codice di autenticazione visualizzato sul dispositivo. Se non si include questa intestazione di richiesta, la richiesta ha esito negativo.

Quando si utilizza, AWS CLI includi le stesse informazioni del valore del `mfa` parametro.

Per ulteriori informazioni sui dispositivi di autenticazione, vedere [Autenticazione a più fattori](https://aws.amazon.com/iam/details/mfa/).

Per ulteriori informazioni sull'abilitazione della cancellazione MFA;, consultare [Configurazione dell'eliminazione di MFA](MultiFactorAuthenticationDelete.md).

**Nota**  
L’eliminazione di un oggetto in un bucket con controllo delle versioni che è abilitato all’eliminazione MFA non è disponibile tramite la Console di gestione AWS.

## Utilizzando il AWS CLI
<a name="MFADeleteCLI"></a>

Utilizza il comando seguente per eliminare un oggetto in un bucket con controllo delle versioni che è abilitato all’eliminazione MFA. Quando si utilizza il seguente esempio di comando, sostituisci `user input placeholders` con le tue informazioni.

```
 aws s3api delete-object --bucket amzn-s3-demo-bucket --key OBJECT-KEY --version-id "VERSION ID" --mfa "MFA_DEVICE_SERIAL_NUMBER MFA_DEVICE_CODE"						
```

## Utilizzo della REST API
<a name="MFADeleteAPI"></a>

L'esempio seguente mostra come eliminare `my-image.jpg` (con la versione specificata), che risiede in un bucket configurato con l'eliminazione MFA abilitata. 

Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectDELETE.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectDELETE.html) nella Guida di riferimento delle API di Amazon Simple Storage Service.

```
1. DELETE /my-image.jpg?versionId=3HL4kqCxf3vjVBH40Nrjfkd HTTPS/1.1
2. Host: bucketName.s3.amazonaws.com
3. x-amz-mfa: 20899872 301749
4. Date: Wed, 28 Oct 2009 22:32:00 GMT
5. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

# Configurazione delle autorizzazioni degli oggetti con versione
<a name="VersionedObjectPermissionsandACLs"></a>

Le autorizzazioni per gli oggetti in Amazon S3 sono impostate a livello di versione. Ogni versione ha il proprio proprietario dell'oggetto. Chi crea Account AWS la versione dell'oggetto è il proprietario. È quindi possibile definire autorizzazioni diverse per versioni differenti dello stesso oggetto. A tale scopo occorre specificare l'ID versione dell'oggetto le cui autorizzazioni si desidera impostare in una richiesta `PUT Object versionId acl`. Per una descrizione dettagliata e istruzioni sull'uso ACLs, vedere[Identity and Access Management per Amazon S3](security-iam.md).

**Example - Configurazione delle autorizzazioni di un oggetto con versione**  
La seguente richiesta imposta l'autorizzazione del beneficiario, con ID utente canonico, `FULL_CONTROL` su on the key*b4bf1b36f9716f094c3079dcf5ac9982d4f2847de46204d47448bc557fb5ac2a*, version ID`my-image.jpg`,. `3HL4kqtJvjVBH40Nrjfkd`  

```
 1. PUT /my-image.jpg?acl&versionId=3HL4kqtJvjVBH40Nrjfkd HTTP/1.1
 2. Host: bucket.s3.amazonaws.com
 3. Date: Wed, 28 Oct 2009 22:32:00 GMT
 4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
 5. Content-Length: 124
 6.  
 7. <AccessControlPolicy>
 8.   <Owner>
 9.     <ID>75cc57f09aa0c8caeab4f8c24e99d10f8e7faeebf76c078efc7c6caea54ba06a</ID>
10.   </Owner>
11.   <AccessControlList>
12.     <Grant>
13.       <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="CanonicalUser">
14.         <ID>a9a7b886d6fd24a52fe8ca5bef65f89a64e0193f23000e241bf9b1c61be666e9</ID>
15.       </Grantee>
16.       <Permission>FULL_CONTROL</Permission>
17.     </Grant>
18.   </AccessControlList>
19.   </AccessControlPolicy>
```

Analogamente, per conoscere le autorizzazioni della versione specifica di un oggetto, è necessario indicarne l'ID versione in una richiesta `GET Object versionId acl`. Includere l'ID versione è necessario perché, per impostazione predefinita, `GET Object acl` restituisce le autorizzazioni della versione corrente dell'oggetto. 

**Example - Recupero delle autorizzazioni della versione specificata di un oggetto**  
Nell'esempio seguente Amazon S3 restituisce le autorizzazioni per la chiave, `my-image.jpg`, ID versione, `DVBH40Nr8X8gUMLUo`.  

```
1. GET /my-image.jpg?versionId=DVBH40Nr8X8gUMLUo&acl HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU
```

Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGETacl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGETacl.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

# Utilizzo di oggetti di un bucket con funzione Controllo delle versioni sospesa
<a name="VersionSuspendedBehavior"></a>

In Amazon S3 è possibile sospendere la funzione Controllo delle versioni per non accumulare nuove versioni dello stesso oggetto in un bucket. Potrebbe essere necessario farlo perché si desidera solo una singola versione di un oggetto in un bucket. In alternativa, potrebbe esservi la necessità di non voler accumulare addebiti per più versioni. 

Quando si sospende la funzione Controllo delle versioni, gli oggetti esistenti nel bucket non si modificano. Ciò che cambia è il modo in cui Amazon S3 gestirà gli oggetti delle richieste future. Negli argomenti di questa sezione vengono illustrate le varie operazioni degli oggetti in un bucket con la funzione Controllo delle versioni sospesa, tra cui l'aggiunta, il recupero e l'eliminazione di oggetti.

Per ulteriori informazioni sulla funzione Controllo delle versioni S3, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md). Per ulteriori informazioni sul recupero delle versioni degli oggetti, consulta la sezione [Recupero delle versioni degli oggetti da un bucket con funzione Controllo delle versioni abilitata](RetrievingObjectVersions.md).

**Topics**
+ [Aggiunta di oggetti a bucket con funzione Controllo delle versioni sospesa](AddingObjectstoVersionSuspendedBuckets.md)
+ [Recupero di oggetti da bucket con funzioneControllo delle versioni sospesa](RetrievingObjectsfromVersioningSuspendedBuckets.md)
+ [Eliminazione di oggetti da bucket con funzione Controllo delle versioni sospesa](DeletingObjectsfromVersioningSuspendedBuckets.md)

# Aggiunta di oggetti a bucket con funzione Controllo delle versioni sospesa
<a name="AddingObjectstoVersionSuspendedBuckets"></a>

Puoi aggiungere oggetti a bucket con la funzione Controllo delle versioni sospesa in Amazon S3 per creare l'oggetto con ID versione null o sovrascrivere una qualsiasi versione dell'oggetto con un ID versione corrispondente.

Dopo la sospensione della funzione Controllo delle versioni di un bucket, Amazon S3 aggiungerà automaticamente un ID versione `null` a ogni oggetto archiviato successivamente (utilizzando `PUT`, `POST` o `CopyObject`) nel bucket.

La figura seguente mostra l'aggiunta dell'ID versione `null` a un oggetto da parte di Amazon S3 quando l'oggetto viene aggiunto a un bucket con funzione Controllo delle versioni abilitata.

![\[Amazon S3 aggiunge l'ID versione null a un oggetto grafico.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended.png)


Se nel bucket è già presente una versione null e si aggiunge un altro oggetto con la stessa chiave, l'oggetto così aggiunto sovrascrive la versione null originaria. 

Se il bucket contiene oggetti con versione, la versione della funzione `PUT` diventa quella corrente dell'oggetto. La figura seguente mostra come l'aggiunta di un oggetto a un bucket contenente oggetti con versione non sovrascrive l'oggetto già presente nel bucket. 

In questo caso, la versione 111111 risiedeva già nel bucket. Amazon S3 aggiunge un ID versione null all'oggetto da aggiungere e lo archivia nel bucket. La versione 111111 risulta ora sovrascritta.

![\[Amazon S3 aggiunge l'ID di versione null a un oggetto senza sovrascrivere l'immagine della versione 111111.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended3.png)


Se nel bucket è già presente una versione null, tale versione viene sovrascritta, come mostrato nell'illustrazione seguente.

![\[Amazon S3 aggiunge l'ID versione null a un oggetto sovrascrivendo la grafica del contenuto originale.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended4.png)


Sebbene la chiave e l'ID (`null`) della versione null siano identici prima e dopo la richiesta `PUT`, i contenuti della versione null inizialmente memorizzati nel bucket vengono sostituiti da quelli dell'oggetto `PUT` per l'inserimento nel bucket.

# Recupero di oggetti da bucket con funzioneControllo delle versioni sospesa
<a name="RetrievingObjectsfromVersioningSuspendedBuckets"></a>

Le richieste `GET Object` restituiscono la versione corrente di un oggetto indipendentemente dal fatto che la funzione Controllo delle versioni del bucket sia stata abilitata o meno. La figura seguente mostra come un semplice `GET` restituisce la versione corrente di un oggetto.

![\[Illustrazione che mostra come un semplice GET restituisce la versione corrente di un oggetto.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_GET_suspended.png)


# Eliminazione di oggetti da bucket con funzione Controllo delle versioni sospesa
<a name="DeletingObjectsfromVersioningSuspendedBuckets"></a>

È possibile eliminare oggetti da bucket con la funzione Controllo delle versioni sospesa per rimuovere un oggetto con ID versione null.

Se la funzione Controllo delle versioni è sospesa per un bucket, una richiesta `DELETE`:
+ Può rimuovere solo gli oggetti con ID versione `null`.
+ Non rimuove alcun oggetto se non è presente una versione null dell'oggetto nel bucket.
+ Inserisce un contrassegno di eliminazione nel bucket.

Se il controllo delle versioni del bucket è sospeso, l'operazione rimuove l'oggetto con un valore `versionId` null. Se è presente un ID versione, Amazon S3 inserisce un contrassegno di eliminazione che diventa la versione corrente dell'oggetto. La figura seguente mostra come una semplice richiesta `DELETE` rimuove una versione null e Amazon S3 inserisce un contrassegno di eliminazione al suo posto con ID versione `null`.

![\[Illustrazione che mostra una semplice eliminazione per rimuovere un oggetto con ID versione NULL.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningSuspended.png)


Per eliminare definitivamente un oggetto con `versionId`, è necessario includere il valore `versionId` dell'oggetto nella richiesta. Poiché un contrassegno di eliminazione non include alcun contenuto, il contenuto della versione `null` viene perso quando viene sostituito da un contrassegno di eliminazione.

La figura seguente mostra un bucket che non contiene versioni null. In questo caso `DELETE` non rimuove nulla. Anziché rimuovere l'oggetto, Amazon S3 inserisce semplicemente un contrassegno di eliminazione.

![\[Illustrazione che mostra l'inserimento di un contrassegno di eliminazione.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningSuspendedNoNull.png)


Anche in un bucket con versione sospesa, il proprietario del bucket può eliminare definitivamente una versione specificata includendo l'ID della versione nella richiesta, a meno che le autorizzazioni per la `DELETE` richiesta non siano state esplicitamente negate. `DELETE` Ad esempio, per negare l'eliminazione di qualsiasi oggetto con un ID di `null` versione, è necessario negare esplicitamente le autorizzazioni and. `s3:DeleteObject` `s3:DeleteObjectVersions`

La figura seguente mostra che l'eliminazione di una versione specificata di un oggetto rimuove tale oggetto in modo permanente. Solo il proprietario del bucket può eliminare la versione specificata di un oggetto.

![\[Illustrazione che mostra l'eliminazione permanente di un oggetto con un ID versione specificato.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)


# Risoluzione dei problemi relativi al controllo delle versioni
<a name="troubleshooting-versioning"></a>

I seguenti argomenti sono utili per risolvere alcuni problemi comuni relativi alla funzione Controllo delle versioni di Amazon S3.

**Topics**
+ [Desidero recuperare oggetti che sono stati eliminati per errore in un bucket in cui la funzione Controllo delle versioni è abilitata](#recover-objects)
+ [Voglio eliminare definitivamente gli oggetti con il controllo delle versioni abilitato](#delete-objects-permanent)
+ [Sto riscontrando un peggioramento delle prestazioni dopo aver abilitato il controllo delle versioni del bucket](#performance-degradation)

## Desidero recuperare oggetti che sono stati eliminati per errore in un bucket in cui la funzione Controllo delle versioni è abilitata
<a name="recover-objects"></a>

In generale, quando le versioni degli oggetti vengono eliminate dai bucket S3, Amazon S3 non può più recuperarle. Tuttavia, se hai abilitato la funzione S3 Controllo delle versioni sul tuo bucket S3, una richiesta `DELETE` che non specifica un ID di versione non può eliminare definitivamente un oggetto. Viene invece aggiunto un contrassegno di eliminazione come segnaposto. Questo contrassegno di eliminazione diventa la versione corrente dell'oggetto. 

Per verificare se gli oggetti eliminati sono rimossi definitivamente o temporaneamente (sostituiti da un contrassegno di eliminazione), procedi come segue: 

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Buckets (Bucket)** scegliere il nome del bucket contenente l'oggetto.

1. Nell'elenco **Oggetti**, attiva il controllo **Mostra versioni** a destra della barra di ricerca, quindi cerca l'oggetto eliminato nella barra di ricerca. Questo controllo è disponibile solo se la funzione Controllo delle versioni è stata precedentemente abilitata nel bucket.

   Puoi anche utilizzare [S3 Inventory per cercare gli oggetti eliminati](storage-inventory.md#storage-inventory-contents).

1. Se non riesci a trovare l'oggetto dopo aver attivato il controllo **Mostra versioni** o dopo avere creato un report di inventario non riesci a trovare il [contrassegno di eliminazione](DeleteMarker.md) dell'oggetto, significa che l'eliminazione è permanente e l'oggetto non può più essere recuperato.



Puoi anche verificare lo stato di un oggetto eliminato utilizzando l'operazione `HeadObject` API di AWS Command Line Interface (AWS CLI). A tale scopo, utilizza il comando `head-object` e sostituisci `user input placeholders` con le tue informazioni. 

`aws s3api head-object --bucket amzn-s3-demo-bucket --key index.html`

Se esegui il comando `head-object` su un oggetto con il controllo delle versioni abilitato la cui versione corrente è un contrassegno di cancellazione, riceverai un errore 404 Non trovato. Esempio: 

Si è verificato un errore (404) durante la chiamata dell' HeadObject operazione: Not Found

Se esegui il comando `head-object` su un oggetto con il controllo delle versioni abilitato e fornisci l'ID versione dell'oggetto, Amazon S3 recupera i metadati dell'oggetto, a conferma che l'oggetto esiste ancora e che non è stato eliminato definitivamente.

`aws s3api head-object --bucket amzn-s3-demo-bucket --key index.html --version-id versionID`

```
{
"AcceptRanges": "bytes",
"ContentType": "text/html",
"LastModified": "Thu, 16 Apr 2015 18:19:14 GMT",
"ContentLength": 77,
"VersionId": "Zg5HyL7m.eZU9iM7AVlJkrqAiE.0UG4q",
"ETag": "\"30a6ec7e1a9ad79c203d05a589c8b400\"",
"Metadata": {}
}
```

Se l'oggetto viene trovato e la relativa versione più recente è un contrassegno di eliminazione, significa che la versione precedente dell'oggetto esiste ancora. Poiché il contrassegno di eliminazione corrisponde alla versione corrente dell'oggetto, è possibile recuperare l'oggetto eliminando il contrassegno di eliminazione. 

Dopo aver rimosso definitivamente il contrassegno di eliminazione, la seconda versione più recente dell'oggetto diventa la versione corrente, rendendolo nuovamente disponibile. Per una rappresentazione visiva di come gli oggetti vengono recuperati, consulta [Rimozione dei contrassegni di eliminazione](ManagingDelMarkers.md#RemDelMarker).

Per rimuovere una versione specifica di un oggetto, devi essere il proprietario del bucket. Per eliminare definitivamente un contrassegno di eliminazione occorre includere il suo ID versione nella richiesta `DeleteObject`. Per eliminare il contrassegno di eliminazione, usa il seguente comando e sostituisci `user input placeholders` con le tue informazioni: 

****  
`aws s3api delete-object --bucket amzn-s3-demo-bucket --key index.html --version-id versionID`

Per ulteriori informazioni sul comando `delete-object`, consulta [https://docs.aws.amazon.com//cli/latest/reference/s3api/delete-object.html](https://docs.aws.amazon.com//cli/latest/reference/s3api/delete-object.html) in the *Guida di riferimento ai comandi della AWS CLI *. Per informazioni sull'eliminazione definitiva dei contrassegni di eliminazione, consulta [Gestione dei contrassegni di eliminazione](ManagingDelMarkers.md).

## Voglio eliminare definitivamente gli oggetti con il controllo delle versioni abilitato
<a name="delete-objects-permanent"></a>

In un bucket con la funzione Controllo delle versioni abilitata, una richiesta `DELETE` senza un ID versione non può eliminare un oggetto definitivamente. Questo tipo di richiesta inserisce invece un contrassegno di eliminazione.

Per eliminare oggetti con la funzione Controllo delle versioni abilitata in modo permanente, puoi scegliere tra i seguenti metodi:
+ Crea una regola del ciclo di vita S3 per eliminare definitivamente le versioni non correnti. Per eliminare in modo definitivo le versioni non correnti, in **Elimina in modo definitivo le versioni non correnti degli oggetti**, specifica il numero di giorni nel campo **Numero di giorni dopo il quale gli oggetti diventano non correnti**. Facoltativamente puoi specificare il numero di versioni più recenti da mantenere immettendo un valore nel campo **Number of newer versions to retain** (Numero di versioni più recenti da mantenere). Per ulteriori informazioni sulla creazione di questa regola, consulta l'argomento relativo all'[impostazione di una configurazione del ciclo di vita S3](how-to-set-lifecycle-configuration-intro.md).
+ Elimina una versione specificata includendo l'ID versione nella richiesta `DELETE`. Per ulteriori informazioni, consulta l'argomento relativo alla [procedura di eliminazione definitiva degli oggetti con controllo delle versioni abilitata](DeletingObjectVersions.md#delete-request-use-cases).
+ Crea una regola del ciclo di vita per far scadere le versioni correnti. Per definire la scadenza delle versioni correnti degli oggetti, seleziona **Scadenza versioni correnti degli oggetti** e aggiungi un numero in **Giorni dopo la creazione degli oggetti**. Per ulteriori informazioni sulla creazione di questa regola del ciclo di vita, consulta l'argomento relativo all'[impostazione di una configurazione del ciclo di vita S3](how-to-set-lifecycle-configuration-intro.md).
+ Per eliminare definitivamente tutti gli oggetti con il controllo delle versioni abilitato e i relativi contrassegni di eliminazione, crea due regole del ciclo di vita: una per far scadere le versioni correnti ed eliminare definitivamente le versioni non correnti degli oggetti e l'altra per eliminare i contrassegni di eliminazione degli oggetti scaduti.

In un bucket con il controllo delle versioni abilitato, una richiesta `DELETE` che non specifica un ID versione può rimuovere solo gli oggetti con un ID versione `NULL`. Se l'oggetto è stato caricato quando il controllo delle versioni era abilitato, una richiesta `DELETE` che non specifica un ID versione crea un contrassegno di eliminazione per tale oggetto.

**Nota**  
Per i bucket con la funzione S3 Blocco oggetti abilitata, una richiesta oggetto `DELETE` con un ID versione dell'oggetto protetto causa un errore 403 Accesso negato. Una richiesta oggetto `DELETE` senza un ID versione aggiunge un contrassegno di eliminazione come versione più recente dell'oggetto con una risposta 200 OK. Gli oggetti protetti dalla funzionalità Blocco oggetti non possono essere eliminati definitivamente finché i relativi periodi di conservazione e blocchi a fini legali non vengono rimossi. Per ulteriori informazioni, consulta [Come funziona il blocco oggetti S3](object-lock.md#object-lock-overview).

## Sto riscontrando un peggioramento delle prestazioni dopo aver abilitato il controllo delle versioni del bucket
<a name="performance-degradation"></a>

Il peggioramento delle prestazioni può verificarsi nei bucket con il controllo delle versioni abilitato se sono presenti troppi contrassegni di eliminazione o oggetti con versioni e se non vengono seguite le best practice.

**Numero eccessivo di contrassegni di eliminazione**  
Dopo aver abilitato la funzione Controllo delle versioni in un bucket, una richiesta `DELETE` senza un ID versione effettuata su un oggetto crea un contrassegno di eliminazione con un ID versione univoco. Le configurazioni del ciclo di vita con una regola **Scadenza versioni correnti degli oggetti** aggiungono un contrassegno di eliminazione con un ID versione univoco a ogni oggetto. Un numero eccessivo di contrassegni di eliminazione può ridurre le prestazioni nel bucket.

Se la funzione Controllo delle versioni viene disabilitata in un bucket, Amazon S3 contrassegna l'ID versione come `NULL` per i nuovi oggetti creati. Un'operazione di scadenza in un bucket con la funzione Controllo delle versioni disabilitata fa sì che Amazon S3 crei un contrassegno di eliminazione il cui ID versione è `NULL`. In un bucket con la funzione Controllo delle versioni disabilitata, viene creato un contrassegno di eliminazione `NULL` per ogni richiesta di eliminazione. Questi contrassegni di eliminazione `NULL` sono anche chiamati contrassegni di eliminazione degli oggetti scaduti quando tutte le versioni degli oggetti vengono eliminate e rimane solo un unico contrassegno di eliminazione. In presenza di un numero eccessivo di contrassegni di eliminazione `NULL`, si verifica un peggioramento delle prestazioni nel bucket.

**Numero eccessivo di oggetti con il controllo delle versioni abilitato**  
Se un bucket con il controllo delle versioni abilitato contiene oggetti con milioni di versioni, può verificarsi un incremento del numero di errori di tipo 503 Servizio non disponibile. Se rilevi un aumento significativo del numero di risposte HTTP 503 Servizio non disponibile ricevute per le richieste oggetto `PUT` o `DELETE` in un bucket con il controllo delle versioni abilitato, è possibile che esistano uno o più oggetti nel bucket per i quali sono presenti milioni di versioni. In presenza di oggetti con milioni di versioni, Amazon S3 limita automaticamente le richieste a livello di bucket. La limitazione delle richieste consente di proteggere il bucket dal traffico generato da un numero eccessivo di richieste, che potrebbe potenzialmente impedire la gestione di altre richieste eseguite nello stesso bucket. 

Per determinare quali oggetti sono dotati di milioni di versioni, utilizza S3 Inventory. S3 Inventory genera un report che fornisce un elenco di file flat degli oggetti in un bucket. Per ulteriori informazioni, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

Per verificare se nel bucket è presente un numero elevato di oggetti con il controllo delle versioni abilitato, utilizza le metriche di S3 Storage Lens per visualizzare i valori pertinenti nei campi **Conteggio oggetti versione corrente**, **Conteggio di oggetti versione non corrente** e **Conteggio oggetti contrassegno di eliminazione**. Per ulteriori informazioni sulle metriche di Storage Lens, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

Il team Amazon S3 consiglia ai clienti di analizzare le applicazioni che sovrascrivono ripetutamente lo stesso oggetto, creando potenzialmente milioni di versioni per tale oggetto, al fine di determinare se il funzionamento dell'applicazione corrisponde a quello previsto. Ad esempio, un'applicazione che sovrascrive lo stesso oggetto ogni minuto per una settimana può creare oltre diecimila versioni. Si consiglia di archiviare meno di centomila versioni per ciascun oggetto. Se hai un caso d'uso che richiede milioni di versioni per uno o più oggetti, contatta il Supporto AWS team per ricevere assistenza nella determinazione di una soluzione migliore.

**Best practice**  
Per evitare problemi di deterioramento delle prestazioni correlati al controllo delle versioni, consigliamo di adottare le seguenti best practice:
+ Abilita una regola del ciclo di vita per far scadere le versioni precedenti degli oggetti. Ad esempio, è possibile creare una regola del ciclo di vita per far scadere le versioni non correnti dopo 30 giorni dal passaggio dell'oggetto allo stato non corrente. Puoi anche conservare più versioni non correnti se non desideri eliminarle tutte. Per ulteriori informazioni, consulta l'argomento relativo all'[impostazione di una configurazione del ciclo di vita S3](how-to-set-lifecycle-configuration-intro.md).
+ Abilita una regola del ciclo di vita per eliminare i contrassegni di eliminazione degli oggetti scaduti a cui non sono associati oggetti dati nel bucket. Per ulteriori informazioni, consulta l'argomento relativo alla [rimozione dei contrassegni di eliminazione degli oggetti scaduti](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7).

Per ulteriori best practice per l'ottimizzazione delle prestazioni di Amazon S3, consulta [Modelli di progettazione delle best practice](optimizing-performance.md).

# Blocco di oggetti con Object Lock
<a name="object-lock"></a>

Object Lock S3 può impedire che gli oggetti Amazon S3 vengano eliminati o sovrascritti per un determinato periodo di tempo o in modo indefinito. Object Lock utilizza un modello *write-once-read-many*(WORM) per archiviare oggetti. È possibile utilizzare Object Lock per soddisfare i requisiti normativi che richiedono un'archiviazione WORM o per aggiungere un ulteriore livello di protezione contro le modifiche e l'eliminazione degli oggetti.

**Nota**  
Object Lock S3 è stato valutato da Cohasset Associates per l'utilizzo in ambienti soggetti alle normative SEC 17a-4, CTCC e FINRA. Per ulteriori informazioni su come Object Lock fa riferimento a queste normative, consulta [Cohasset Associates Compliance Assessment](https://d1.awsstatic.com/r2018/b/S3-Object-Lock/Amazon-S3-Compliance-Assessment.pdf).

Il blocco degli oggetti offre due modi per gestire la conservazione degli oggetti: i *periodi di conservazione* e i *blocchi a fini giudiziari*. La versione di un oggetto può avere un periodo di conservazione, un blocco a fini legali o entrambi.
+ **Periodo di conservazione**: un periodo di conservazione specifica un determinato intervallo di tempo durante il quale la versione di un oggetto rimane bloccata. È possibile impostare un periodo di conservazione univoco per singoli oggetti. Inoltre, è possibile impostare un periodo di conservazione predefinito su un bucket S3. È possibile anche limitare i periodi di conservazione minimi e massimi consentiti utilizzando la chiave di condizione `s3:object-lock-remaining-retention-days` nella policy del bucket. Questa chiave di condizione permette di definire il periodo di conservazione consentito. Per ulteriori informazioni, consulta [Impostazione di limiti su periodi di conservazione con una policy di bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lock-managing.html#object-lock-managing-retention-limits).
+ **Blocco a fini legali**: un blocco a fini legali offre la stessa protezione di un periodo di conservazione ma non presenta una data di scadenza. pertanto rimane invariato fino a quando non viene rimosso esplicitamente. I blocchi a fini legali sono indipendenti dai periodi di conservazione e vengono applicati alle singole versioni degli oggetti.

Object Lock funziona solo nei bucket con il controllo delle versioni S3 abilitato. Quando si blocca una versione di un oggetto, Amazon S3 archivia le informazioni di blocco nei metadati per quella versione di oggetto. L'inserimento di un periodo di conservazione o di un blocco a fini legali in un oggetto protegge solo la versione specificata nella richiesta. I periodi di conservazione e i blocchi a fini legali non impediscono la creazione di nuove versioni dell'oggetto o l'aggiunta di contrassegni di eliminazione all'oggetto. Per informazioni sulla funzione Controllo delle versioni S3, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

Se si inserisce un oggetto in un bucket che contiene già un oggetto protetto esistente con lo stesso nome della chiave dell'oggetto, Amazon S3 crea una nuova versione dell'oggetto. La versione protetta esistente dell'oggetto rimane bloccata in base alla rispettiva configurazione di conservazione.

## Come funziona il blocco oggetti S3
<a name="object-lock-overview"></a>

**Topics**
+ [Periodi di conservazione](#object-lock-retention-periods)
+ [Modalità di conservazione](#object-lock-retention-modes)
+ [Blocchi a fini giudiziari](#object-lock-legal-holds)
+ [Come funzionano le eliminazioni con S3 Object Lock](#object-lock-how-deletes-work)
+ [Best practice per l'utilizzo di S3 Object Lock](#object-lock-best-practices)
+ [Autorizzazioni richieste](#object-lock-permissions)

### Periodi di conservazione
<a name="object-lock-retention-periods"></a>

Un *periodo di conservazione* protegge una versione di un oggetto per un determinato intervallo di tempo. Quando imposti un periodo di conservazione per una versione di un oggetto, Amazon S3 archivia un timestamp nei metadati della versione dell'oggetto per indicare la scadenza del periodo di conservazione. Allo scadere del periodo di conservazione, la versione dell'oggetto può essere sovrascritta o eliminata.

È possibile inserire un periodo di conservazione in modo esplicito sulla versione di un singolo oggetto o sulle proprietà di un bucket in modo che si applichi automaticamente a tutti gli oggetti nel bucket. Quando applichi un periodo di conservazione a una versione di un oggetto in modo esplicito, specifichi una *Data di fine conservazione* per tale versione. Amazon S3 archivia questa data nei metadati della versione dell'oggetto.

È anche possibile impostare un periodo di conservazione nelle proprietà di un bucket. Quando si imposta un periodo di conservazione su un bucket, si specifica una durata, in giorni o in anni, per la protezione di qualsiasi versione dell'oggetto inserita nel bucket. Quando si inserisce un oggetto nel bucket, Amazon S3 calcola una *Data di fine conservazione* per la versione dell'oggetto aggiungendo la durata specificata al timestamp di creazione della versione dell'oggetto. La versione dell'oggetto viene quindi protetta esattamente come se fosse stato impostato un singolo blocco con tale periodo di conservazione sulla versione dell'oggetto.

**Nota**  
Quando esegui il `PUT` di una versione dell'oggetto che dispone di una modalità e un periodo di conservazione individuali espliciti in un bucket, le impostazioni Object Lock individuali della versione dell'oggetto hanno la precedenza su qualsiasi impostazione di conservazione delle proprietà del bucket.

Come tutte le altre impostazioni del blocco degli oggetti, i periodi di conservazione si applicano alle singole versioni degli oggetti. Versioni diverse di un singolo oggetto possono avere modalità e periodi di conservazione diversi.

Ad esempio, supponi di avere un oggetto che è a 15 giorni di un periodo di conservazione di 30 giorni e applichi il comando `PUT` a un oggetto in Amazon S3 con lo stesso nome e un periodo di conservazione di 60 giorni. In questo caso la richiesta `PUT` va a buon fine e Amazon S3 crea una nuova versione dell'oggetto con un periodo di conservazione di 60 giorni. Per la versione precedente rimane impostato il periodo di conservazione originale e tale versione può quindi essere eliminata in 15 giorni.

Dopo aver applicato un'impostazione di conservazione a una versione dell'oggetto, è possibile estendere il periodo di conservazione. A tale scopo, invia una nuova richiesta Object Lock per la versione dell'oggetto con una *Data di fine conservazione* posteriore rispetto a quella attualmente configurata per la versione dell'oggetto. Amazon S3 sostituisce il periodo di conservazione esistente con il nuovo periodo più lungo. Qualsiasi utente con autorizzazioni per impostare un periodo di conservazione per un oggetto può estendere il periodo di conservazione per una versione di un oggetto. Per impostare un periodo di conservazione, è necessaria l'autorizzazione `s3:PutObjectRetention`.

Quando si imposta un periodo di conservazione su un oggetto o bucket S3, è necessario selezionare una delle due modalità di conservazione: *conformità* o *governance*.

### Modalità di conservazione
<a name="object-lock-retention-modes"></a>

Object Lock S3 fornisce due modalità di conservazione che applicano livelli di protezione diversi agli oggetti:
+ Modalità Conformità
+ Modalità Governance

In modalità *conformità*, una versione protetta di un oggetto non può essere sovrascritta o eliminata da alcun utente, incluso l'utente root in Account AWS. Quando un oggetto è bloccato in modalità conformità, la relativa modalità di conservazione non può essere modificata e il periodo di conservazione non può essere abbreviato. La modalità conformità garantisce che una versione di un oggetto non possa essere sovrascritta o eliminata per tutta la durata del periodo di conservazione.

**Nota**  
L'unico modo per eliminare un oggetto in modalità di conformità prima della scadenza della data di conservazione è eliminare l'oggetto associato. Account AWS

Nella modalità *Governance*, gli utenti non possono sovrascrivere o eliminare una versione di un oggetto, né modificare le relative impostazioni di blocco, a meno che non dispongano di autorizzazioni speciali. La modalità governance permette di impedire alla maggior parte degli utenti di eliminare gli oggetti ma, allo stesso tempo, concede ad alcuni utenti l'autorizzazione per modificare le impostazioni di conservazione o per eliminare gli oggetti, se necessario. Puoi usare la modalità governance anche per testare le impostazioni del periodo di conservazione prima di creare un periodo di conservazione in modalità di conformità. 

Per sovrascrivere o rimuovere le impostazioni di conservazione in modalità governance, occorre disporre dell'autorizzazione `s3:BypassGovernanceRetention` e includere in modo esplicito `x-amz-bypass-governance-retention:true` come un'intestazione della richiesta in qualsiasi richiesta che richieda la sostituzione della modalità governance. 

**Nota**  
Per impostazione predefinita, la console Amazon S3 include l'intestazione `x-amz-bypass-governance-retention:true`. Se si prova a eliminare oggetti protetti dalla modalità *governance* e che dispongono dell'autorizzazione `s3:BypassGovernanceRetention`, l'operazione andrà a buon fine. 

### Blocchi a fini giudiziari
<a name="object-lock-legal-holds"></a>

Con Object Lock è possibile inserire anche un *blocco a fini legali* nella versione di un oggetto. Analogamente a un periodo di conservazione, un blocco a fini giudiziari impedisce che una versione di un oggetto venga sovrascritta o eliminata. Tuttavia, un blocco a fini legali non dispone di un periodo di tempo fisso associato e rimane valido fino a quando non viene rimosso. I blocchi a fini giudiziari possono essere applicati e rimossi liberamente da qualsiasi utente con l'autorizzazione `s3:PutObjectLegalHold`. 

I blocchi a fini giudiziari sono indipendenti dai periodi di conservazione. L'applicazione di un blocco a fini giudiziari a una versione di un oggetto non influisce sulla modalità di conservazione o sul periodo di conservazione per tale versione dell'oggetto. 

Ad esempio, supponi di inserire un blocco a fini legali nella versione di un oggetto mentre la versione dell'oggetto è protetta da un periodo di conservazione. Se il periodo di conservazione scade, l'oggetto non perde la protezione WORM. Il blocco a fini legali continua a proteggere l'oggetto fino a quando non viene rimosso in modo esplicito da un utente autorizzato. Analogamente, se rimuovi un blocco a fini giudiziari da una versione di un oggetto per la quale è impostato un periodo di conservazione, la versione dell'oggetto rimane protetta fino alla scadenza del periodo di conservazione.

### Come funzionano le eliminazioni con S3 Object Lock
<a name="object-lock-how-deletes-work"></a>

Se il bucket ha S3 Object Lock abilitato e l’oggetto è protetto da un periodo di conservazione o da un blocco legale e si tenta di eliminare un oggetto, Amazon S3 restituisce una delle seguenti risposte, a seconda di come si cerca di eliminare l’oggetto:
+ **Richiesta `DELETE` permanente**: se viene inviata una richiesta `DELETE` permanente (una richiesta che specifica un ID di versione), Amazon S3 restituisce un errore di accesso negato (`403 Forbidden`) quando si tenta di eliminare l’oggetto. Per ulteriori informazioni sulla risoluzione dei problemi relativi agli errori di accesso negato con Object Lock, consulta [Impostazioni dell'opzione S3 Blocco oggetti](troubleshoot-403-errors.md#troubleshoot-403-object-lock).
+ **Richiesta `DELETE` semplice**: se viene inviata una richiesta `DELETE` semplice (una richiesta che non specifica un ID di versione), Amazon S3 restituisce una risposta `200 OK` e inserisce un [indicatore di eliminazione](DeleteMarker.md) nel bucket, che diventa la versione corrente dell’oggetto con un nuovo ID. Per ulteriori informazioni sulla gestione dei contrassegni di eliminazione con Object Lock, consulta [Gestione dei contrassegni di eliminazione con Object Lock](object-lock-managing.md#object-lock-managing-delete-markers).

### Best practice per l'utilizzo di S3 Object Lock
<a name="object-lock-best-practices"></a>

Prendere in considerazione l'utilizzo della *modalità governance* se si desidera proteggere gli oggetti dall'eliminazione da parte della maggior parte degli utenti durante un periodo di conservazione predefinito, ma allo stesso tempo si desidera che alcuni utenti con autorizzazioni speciali abbiano la flessibilità necessaria per modificare le impostazioni di conservazione o eliminare gli oggetti. 

Prendere in considerazione l'utilizzo della *modalità conformità* se non si desidera che nessun utente, incluso l'utente root dell' Account AWS, sia in grado di eliminare gli oggetti durante un periodo di conservazione predefinito. È possibile utilizzare questa modalità nel caso in cui sia necessario archiviare dati conformi. 

È possibile usare la modalità *Blocco a fini legali* quando non si è sicuri di quanto tempo si desidera che gli oggetti rimangano immutabili. Ad esempio, se è in corso una verifica esterna dei dati e si desidera mantenere gli oggetti immutabili fino al completamento della verifica. In alternativa, si potrebbe avere un progetto in corso che utilizza un set di dati che si desidera mantenere immutabile fino al completamento del progetto. 

### Autorizzazioni richieste
<a name="object-lock-permissions"></a>

Le operazioni del blocco degli oggetti richiedono autorizzazioni specifiche. A seconda dell'operazione esatta che si sta tentando di eseguire, potrebbe essere necessaria una delle seguenti autorizzazioni:
+ `s3:BypassGovernanceRetention`
+ `s3:GetBucketObjectLockConfiguration`
+ `s3:GetObjectLegalHold`
+ `s3:GetObjectRetention`
+ `s3:PutBucketObjectLockConfiguration`
+ `s3:PutObjectLegalHold`
+ `s3:PutObjectRetention`

Per un elenco completo delle autorizzazioni di Amazon S3 con le relative descrizioni, consulta [Operazioni, risorse e chiavi di condizione per Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html) nella *Guida di riferimento per l'autorizzazione del servizio*.

Per ulteriori informazioni sulle autorizzazioni alle operazioni API S3 per tipi di risorse S3, consulta [Autorizzazioni necessarie per le operazioni API di Amazon S3](using-with-s3-policy-actions.md).

Per informazioni sull'utilizzo delle condizioni con le autorizzazioni, consulta [Esempi di policy per i bucket che utilizzano le chiavi di condizione](amazon-s3-policy-keys.md).

# Considerazioni su Object Lock
<a name="object-lock-managing"></a>

Amazon S3 Object Lock può impedire che gli oggetti vengano eliminati o sovrascritti per un determinato periodo di tempo o in modo indefinito.

Puoi utilizzare la console Amazon S3, AWS Command Line Interface (AWS CLI) o l'API REST di Amazon S3 per visualizzare o impostare le informazioni di Object Lock. AWS SDKs Per informazioni generali sulle funzionalità S3 Object Lock, consulta [Blocco di oggetti con Object Lock](object-lock.md).

**Importante**  
Dopo aver abilitato Object Lock su un bucket, non è possibile disabilitare Object Lock o sospendere il controllo delle versioni per tale bucket. 
I bucket S3 con Object Lock non possono essere utilizzati come bucket di destinazione per i log di accesso al server. Per ulteriori informazioni, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).

**Topics**
+ [Autorizzazioni per la visualizzazione di informazioni di blocco](#object-lock-managing-view)
+ [Bypassare la modalità Governance](#object-lock-managing-bypass)
+ [Utilizzo di Object Lock con la replica S3](#object-lock-managing-replication)
+ [Utilizzo di Object Lock con la crittografia](#object-lock-managing-encryption)
+ [Utilizzo di Object Lock con Inventario Amazon S3](#object-lock-inv-report)
+ [Gestione delle policy del ciclo di vita S3 con Object Lock](#object-lock-managing-lifecycle)
+ [Gestione dei contrassegni di eliminazione con Object Lock](#object-lock-managing-delete-markers)
+ [Utilizzo di S3 Storage Lens con Object Lock](#object-lock-storage-lens)
+ [Caricamento di oggetti in un bucket con Object Lock abilitato](#object-lock-put-object)
+ [Configurare eventi e notifiche](#object-lock-managing-events)
+ [Impostazione di limiti su periodi di conservazione con una policy di bucket](#object-lock-managing-retention-limits)

## Autorizzazioni per la visualizzazione di informazioni di blocco
<a name="object-lock-managing-view"></a>

È possibile visualizzare in modo programmatico lo stato Object Lock della versione di un oggetto Amazon S3 mediante le operazioni [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html) o [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html). Entrambe le operazioni restituiscono la modalità di conservazione, la data di fine conservazione e lo stato del blocco a fini legali per la versione dell'oggetto specificata. Inoltre, è possibile visualizzare lo stato di Object Lock per più oggetti nel bucket S3 utilizzando l'Inventario S3. 

Per visualizzare la modalità e il periodo di conservazione della versione di un oggetto, è necessaria l'autorizzazione `s3:GetObjectRetention`. Per visualizzare lo stato di blocco per vincoli di legge di un oggetto, è necessaria l'autorizzazione `s3:GetObjectLegalHold`. Per visualizzare la configurazione di conservazione predefinita di un bucket, occorre disporre dell'autorizzazione `s3:GetBucketObjectLockConfiguration`. Se si esegue una richiesta per una configurazione Object Lock su un bucket che non dispone di S3 Object Lock abilitato, Amazon S3 restituisce un errore. 

## Bypassare la modalità Governance
<a name="object-lock-managing-bypass"></a>

Se si dispone dell'autorizzazione `s3:BypassGovernanceRetention`, è possibile eseguire operazioni su versioni degli oggetti bloccate nella modalità governance come se non fossero protette. Queste operazioni includono l'eliminazione di una versione dell'oggetto, la riduzione del periodo di conservazione o la rimozione del periodo di conservazione di Object Lock tramite l'inserimento di una nuova richiesta `PutObjectRetention` con parametri vuoti. 

Per bypassare la modalità Governance, è necessario indicare esplicitamente nella richiesta che si desidera bypassare la modalità Governance. A tale scopo, includi l'`x-amz-bypass-governance-retention:true`intestazione nella richiesta di operazione `PutObjectRetention` API o utilizza il parametro equivalente con le richieste effettuate tramite o. AWS CLI AWS SDKs La console S3 applica automaticamente questa intestazione alle richieste effettuate tramite la console S3 se si dispone dell'autorizzazione `s3:BypassGovernanceRetention`.

**Nota**  
Bypassare la modalità Governance non modifica lo stato dei vincoli di legge della versione di un oggetto. Se nella versione di un oggetto è abilitato un blocco a fini legali, questo rimane in vigore e impedisce richieste di sovrascrittura o eliminazione della versione dell'oggetto.

## Utilizzo di Object Lock con la replica S3
<a name="object-lock-managing-replication"></a>

È possibile utilizzare Object Lock con la replica S3 per abilitare la copia asincrona e automatica di oggetti bloccati e dei relativi metadati di conservazione tra i bucket S3. Ciò significa che per gli oggetti replicati, Amazon S3 utilizza la configurazione Object Lock del bucket di origine. In altre parole, se Object Lock è abilitato nel bucket di origine, sarà abilitato anche nel bucket di destinazione. Se un oggetto viene caricato direttamente nel bucket di destinazione (all'esterno della Replica S3), utilizza l'Object Lock impostato sul bucket di destinazione. Quando si utilizza la replica, gli oggetti in un *bucket di origine* vengono replicati in uno o più *bucket di destinazione*. 

Per configurare la replica su un bucket con Object Lock abilitato, puoi utilizzare la console S3, l'API REST di Amazon AWS CLI S3 oppure. AWS SDKs

**Nota**  
Per utilizzare Object Lock con la replica, devi concedere due autorizzazioni aggiuntive sul bucket S3 di origine nel ruolo AWS Identity and Access Management (IAM) che usi per configurare la replica. Le due nuove autorizzazioni aggiuntive sono `s3:GetObjectRetention` e `s3:GetObjectLegalHold`. Se il ruolo dispone di un'istruzione di autorizzazione `s3:Get*`, tale istruzione soddisfa il requisito. Per ulteriori informazioni, consulta [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md).  
Per informazioni generali sulla replica S3, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md).  
Per esempi di configurazione della replica S3, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

## Utilizzo di Object Lock con la crittografia
<a name="object-lock-managing-encryption"></a>

Amazon S3 esegue la crittografia di tutti i nuovi oggetti per impostazione predefinita. È possibile usare Object Lock con gli oggetti crittografati. Per ulteriori informazioni, consulta [Protezione dei dati con la crittografia](UsingEncryption.md).

Sebbene Object Lock possa aiutare a impedire l'eliminazione o la sovrascrittura degli oggetti Amazon S3, non protegge dalla perdita dell'accesso alle chiavi di crittografia o dall'eliminazione delle chiavi di crittografia. Ad esempio, se si crittografano gli oggetti con la crittografia AWS KMS lato server e la AWS KMS chiave viene eliminata, gli oggetti potrebbero diventare illeggibili.

## Utilizzo di Object Lock con Inventario Amazon S3
<a name="object-lock-inv-report"></a>

È possibile configurare Inventario Amazon S3 per creare elenchi degli oggetti in un bucket S3 in base a una pianificazione definita. È possibile configurare Inventario Amazon S3 per includere i seguenti metadati Object Lock per gli oggetti:
+ La data di fine conservazione
+ La modalità di conservazione
+ Lo stato di blocco a fini legali

Per ulteriori informazioni, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

## Gestione delle policy del ciclo di vita S3 con Object Lock
<a name="object-lock-managing-lifecycle"></a>

Le configurazioni di gestione del ciclo di vita di un oggetto continuano a funzionare normalmente sugli oggetti protetti, compresa l'applicazione del contrassegno di eliminazione. Tuttavia, una versione bloccata di un oggetto non può essere eliminata da una policy di scadenza del ciclo di vita S3. Object Lock viene mantenuto indipendentemente dalla classe di storage in cui risiede l'oggetto e durante le transizioni del ciclo di vita S3 tra le classi di storage.

Per ulteriori informazioni sulla gestione della configurazione del ciclo di vita di un oggetto, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md).

## Gestione dei contrassegni di eliminazione con Object Lock
<a name="object-lock-managing-delete-markers"></a>

Anche se non è possibile eliminare una versione protetta di un oggetto, puoi comunque creare un contrassegno di eliminazione per tale oggetto. L'inserimento di un contrassegno di eliminazione su un oggetto non elimina l'oggetto né alcuna sua versione. Tuttavia, fa sì che Amazon S3 si comporti per molti versi come se l'oggetto fosse stato eliminato. Per ulteriori informazioni, consulta [Utilizzo dei contrassegni di eliminazione](DeleteMarker.md).

**Nota**  
I contrassegni di eliminazione non sono protetti contro i WORM, indipendentemente dal periodo di conservazione o dal blocco per vincoli di legge dell'oggetto a cui si riferiscono.

## Utilizzo di S3 Storage Lens con Object Lock
<a name="object-lock-storage-lens"></a>

Per visualizzare i parametri relativi ai byte di archiviazione abilitati per il blocco e il conteggio degli oggetti, puoi utilizzare Amazon S3 Storage Lens. S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che puoi utilizzare per avere una panoramica completa a livello di organizzazione sull'utilizzo e sulle attività relative all'archiviazione di oggetti.

Per ulteriori informazioni, consulta [Utilizzo di S3 Storage Lens per proteggere i tuoi dati](storage-lens-data-protection.md).

Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

## Caricamento di oggetti in un bucket con Object Lock abilitato
<a name="object-lock-put-object"></a>

L'intestazione `Content-MD5` o `x-amz-sdk-checksum-algorithm` è necessaria per qualsiasi richiesta di caricamento di un oggetto con un periodo di conservazione configurato con Object Lock. Queste intestazioni servono a verificare l'integrità dell'oggetto durante il caricamento.

Quando si carica un oggetto con la console Amazon S3, S3 aggiunge automaticamente l'intestazione `Content-MD5`. Facoltativamente, è possibile specificare una funzione di checksum e un valore di checksum aggiuntivi tramite la console come intestazione `x-amz-sdk-checksum-algorithm`. Se utilizzi l'[PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)API, devi specificare l'`Content-MD5`intestazione, l'intestazione o entrambi per configurare il `x-amz-sdk-checksum-algorithm` periodo di conservazione di Object Lock.

Per ulteriori informazioni, consulta [Verifica dell'integrità degli oggetti in Amazon S3](checking-object-integrity.md).

## Configurare eventi e notifiche
<a name="object-lock-managing-events"></a>

Puoi utilizzare Amazon S3 Event Notifications per tenere traccia degli accessi e delle modifiche alle configurazioni e ai dati di Object Lock utilizzando. AWS CloudTrail Per informazioni su CloudTrail, consulta [What is? AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) nella *Guida AWS CloudTrail per l'utente*.

Puoi anche utilizzare Amazon CloudWatch per generare avvisi basati su questi dati. Per informazioni su CloudWatch, consulta [What is Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) nella *Amazon CloudWatch User Guide*.

## Impostazione di limiti su periodi di conservazione con una policy di bucket
<a name="object-lock-managing-retention-limits"></a>

Puoi impostare periodi di conservazione minimo e massimo per un bucket mediante una policy di bucket. Il periodo massimo di conservazione è 100 anni.

L'esempio seguente mostra una policy di bucket che utilizza la chiave di condizione `s3:object-lock-remaining-retention-days` per impostare un periodo di conservazione massimo di 10 giorni.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "SetRetentionLimits",
    "Statement": [
        {
            "Sid": "SetRetentionPeriod",
            "Effect": "Deny",
            "Principal": "*",
            "Action": [
                "s3:PutObjectRetention"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket1/*",
            "Condition": {
                "NumericGreaterThan": {
                    "s3:object-lock-remaining-retention-days": "10"
                }
            }
        }
    ]
}
```

------

**Nota**  
Se il bucket è quello di destinazione per una configurazione di replica, puoi impostare i periodi di conservazione minimo e massimo per le repliche di oggetti creati mediante la replica. A questo scopo, occorre consentire l'operazione `s3:ReplicateObject` nella policy di bucket. Per ulteriori informazioni sulle autorizzazioni di replica, consulta [Configurazione delle autorizzazioni per la replica in tempo reale](setting-repl-config-perm-overview.md). 

Per ulteriori informazioni sulle policy di bucket, consulta gli argomenti indicati di seguito:
+ [ Operazioni, risorse e chiavi di condizione per Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html) nella *Guida di riferimento per l'autorizzazione del servizio*

  Per ulteriori informazioni sulle autorizzazioni alle operazioni API S3 per tipi di risorse S3, consulta [Autorizzazioni necessarie per le operazioni API di Amazon S3](using-with-s3-policy-actions.md).
+ [Operazioni con gli oggetti](security_iam_service-with-iam.md#using-with-s3-actions-related-to-objects)
+ [Esempi di policy per i bucket che utilizzano le chiavi di condizione](amazon-s3-policy-keys.md)

# Configurazione di S3 Object Lock
<a name="object-lock-configure"></a>

Con Amazon S3 Object Lock, puoi archiviare oggetti in bucket Amazon S3 generici utilizzando *write-once-read-many*un modello (WORM). Puoi utilizzarlo per impedire che un oggetto venga eliminato o sovrascritto per un periodo di tempo fisso o indefinito. Per informazioni generali sulle funzionalità Object Lock, consulta [Blocco di oggetti con Object Lock](object-lock.md).

Prima di bloccare eventuali oggetti, devi abilitare il controllo delle versioni S3 e Object Lock su un bucket per uso generico. In seguito, puoi impostare un periodo di conservazione, un blocco a fini legali o entrambi. 

Per utilizzare Object Lock, devi disporre di determinate autorizzazioni. Per un elenco delle autorizzazioni correlate a varie operazioni Object Lock, consulta [Autorizzazioni richieste](object-lock.md#object-lock-permissions).

**Importante**  
Dopo aver abilitato Object Lock su un bucket, non è possibile disabilitare Object Lock o sospendere il controllo delle versioni per tale bucket. 
I bucket S3 con Object Lock non possono essere utilizzati come bucket di destinazione per i log di accesso al server. Per ulteriori informazioni, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).

**Topics**
+ [Abilitazione di Object Lock durante la creazione di un nuovo bucket S3 generico](#object-lock-configure-new-bucket)
+ [Abilitazione di Object Lock su un bucket S3 esistente](#object-lock-configure-existing-bucket)
+ [Impostazione o modifica di un blocco a fini legali su un oggetto S3](#object-lock-configure-set-legal-hold)
+ [Impostazione o modifica di un periodo di conservazione su un oggetto S3](#object-lock-configure-set-retention-period-object)
+ [Impostazione o modifica di un periodo di conservazione predefinito su un bucket S3](#object-lock-configure-set-retention-period-bucket)

## Abilitazione di Object Lock durante la creazione di un nuovo bucket S3 generico
<a name="object-lock-configure-new-bucket"></a>

Puoi abilitare Object Lock durante la creazione di un nuovo bucket S3 generico utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() AWS SDKs o l'API REST di Amazon S3.

### Utilizzo della console S3
<a name="object-lock-new-bucket-console"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Scegliere **Create bucket (Crea bucket)**.

   Viene visualizzata la pagina **Create bucket (Crea bucket)**.

1. In **Nome bucket**, immettere il nome del bucket.
**Nota**  
Una volta creato un bucket, non è possibile modificarne il nome. Per ulteriori informazioni sulla denominazione dei bucket, consulta [Regole di denominazione dei bucket per uso generico](bucketnamingrules.md).

1. Per la **regione**, scegli Regione AWS dove vuoi che risieda il bucket. 

1. In **Proprietà degli oggetti**, scegli di disabilitare o abilitare gli elenchi di controllo degli accessi (ACLs) e controlla la proprietà degli oggetti caricati nel tuo bucket.

1. In **Impostazioni di blocco dell'accesso pubblico per questo bucket** scegli le impostazioni di blocco dell'accesso pubblico che vuoi applicare al bucket. 

1. In **Controllo delle versioni per il bucket**, scegli **Abilitato**.

   Object Lock funziona solo con bucket con versioni.

1. (Facoltativo) In **Tags** (Tag), puoi scegliere di aggiungere tag al bucket. I tag sono coppie chiave-valore utilizzate per classificare lo spazio di archiviazione e allocare i costi.

1. In **Impostazioni avanzate**, trova **Object Lock** e scegli **Attiva**.

   Devi confermare che l'attivazione di Object Lock consentirà in modo permanente il blocco degli oggetti in questo bucket.

1. Seleziona **Crea bucket**.

### Usando il AWS CLI
<a name="object-lock-new-bucket-cli"></a>

L'esempio `create-bucket` seguente crea un nuovo bucket S3 denominato `amzn-s3-demo-bucket1` con Object Lock abilitato:

```
aws s3api create-bucket --bucket amzn-s3-demo-bucket1 --object-lock-enabled-for-bucket
```

Per ulteriori informazioni ed esempi, consulta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

**Nota**  
È possibile eseguire AWS CLI comandi dalla console utilizzando AWS CloudShell. AWS CloudShell è una shell preautenticata basata su browser che è possibile avviare direttamente da. Console di gestione AWS[Per ulteriori informazioni, consulta Cos'è? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) nella *Guida AWS CloudShell per l'utente*.

### Utilizzo della REST API
<a name="object-lock-new-bucket-rest"></a>

Puoi utilizzare la REST API per creare un nuovo bucket S3 con Object Lock abilitato. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

### Usando il AWS SDKs
<a name="object-lock-new-bucket-sdk"></a>

Per esempi su come abilitare Object Lock durante la creazione di un nuovo bucket S3 con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_LCreateBucket_section.html) nell'*Amazon S3* API Reference.

Per esempi su come ottenere la configurazione corrente di Object Lock con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) nell'*Amazon S3 API* Reference.

Per uno scenario interattivo che dimostra le diverse funzionalità di Object Lock utilizzando il AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) nell'*Amazon S3* API Reference.

Per informazioni generali sull'utilizzo di diversi AWS SDKs, consulta [Sviluppo con Amazon S3 utilizzando il riferimento AWS SDKs all'API](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) di riferimento di *Amazon S3*.

## Abilitazione di Object Lock su un bucket S3 esistente
<a name="object-lock-configure-existing-bucket"></a>

Puoi abilitare Object Lock per un bucket S3 esistente utilizzando la console Amazon S3, l'o AWS CLI l' AWS SDKsAPI REST di Amazon S3.

### Utilizzo della console S3
<a name="object-lock-existing-bucket-console"></a>

**Nota**  
Object Lock funziona solo con bucket con versioni.

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Bucket**, scegli il nome del bucket per il quale desideri abilitare Object Lock.

1. Scegliere la scheda **Properties (Proprietà)**.

1. In **Proprietà**, scorri verso il basso fino alla sezione **Object Lock** e scegli **Modifica**.

1. In **Object Lock**, scegli **Attiva**.

   Devi confermare che l'attivazione di Object Lock consentirà in modo permanente il blocco degli oggetti in questo bucket.

1. Scegli **Save changes** (Salva modifiche).



### Usando il AWS CLI
<a name="object-lock-existing-bucket-cli"></a>

Il comando di esempio `put-object-lock-configuration` seguente imposta un periodo di conservazione di Object Lock di 50 giorni su un bucket denominato `amzn-s3-demo-bucket1`:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 }}}'
```

Per ulteriori informazioni ed esempi, consulta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

**Nota**  
È possibile eseguire AWS CLI comandi dalla console utilizzando AWS CloudShell. AWS CloudShell è una shell preautenticata basata su browser che è possibile avviare direttamente da. Console di gestione AWS[Per ulteriori informazioni, consulta Cos'è? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) nella *Guida AWS CloudShell per l'utente*.

### Utilizzo della REST API
<a name="object-lock-existing-bucket-rest"></a>

Puoi utilizzare la REST API Amazon S3 per abilitare Object Lock su un bucket S3 esistente. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

### Usando il AWS SDKs
<a name="object-lock-existing-bucket-sdk"></a>

Per esempi su come abilitare Object Lock per un bucket S3 esistente con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLockConfiguration_section.html) nell'*Amazon S3 API Reference*.

Per esempi su come ottenere la configurazione corrente di Object Lock con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) nell'*Amazon S3 API* Reference.

Per uno scenario interattivo che dimostra le diverse funzionalità di Object Lock utilizzando il AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) nell'*Amazon S3* API Reference.

Per informazioni generali sull'utilizzo di diversi AWS SDKs, consulta [Sviluppo con Amazon S3 utilizzando il riferimento AWS SDKs all'API](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) di riferimento di *Amazon S3*.

## Impostazione o modifica di un blocco a fini legali su un oggetto S3
<a name="object-lock-configure-set-legal-hold"></a>

Puoi impostare o rimuovere un blocco legale su un oggetto S3 utilizzando la console AWS CLI Amazon S3 o l'API REST di Amazon S3. AWS SDKs

**Importante**  
Se desideri impostare un blocco a fini legali su un oggetto, Object Lock deve già essere abilitato nel bucket dell'oggetto.
Quando esegui il `PUT` di una versione dell'oggetto che dispone di una modalità e un periodo di conservazione individuali espliciti in un bucket, le impostazioni Object Lock individuali della versione dell'oggetto hanno la precedenza su qualsiasi impostazione di conservazione delle proprietà del bucket.

Per ulteriori informazioni, consulta [Blocchi a fini giudiziari](object-lock.md#object-lock-legal-holds).

### Utilizzo della console S3
<a name="object-lock-set-legal-hold-console"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Bucket**, scegli il nome del bucket contenente gli oggetti su cui desideri impostare o modificate un blocco a fini legali.

1. Nell'elenco **Oggetti**, seleziona l'oggetto su cui desideri impostare o modificare un blocco a fini legali.

1. Nella pagina delle **proprietà dell'oggetto**, individua la sezione **Blocco oggetti di carattere legale** e scegli **Modifica**.

1. Scegli **Abilita** per impostare un blocco a fini legali o **Disabilita** per rimuoverlo.

1. Scegli **Save changes** (Salva modifiche).

### Usando il AWS CLI
<a name="object-lock-set-legal-hold-cli"></a>

L'esempio `put-object-legal-hold` seguente imposta un blocco a fini legali sull'oggetto *`my-image.fs`* nel bucket denominato `amzn-s3-demo-bucket1`:

```
aws s3api put-object-legal-hold --bucket amzn-s3-demo-bucket1 --key my-image.fs --legal-hold="Status=ON"
```

L'esempio `put-object-legal-hold` seguente rimuove un blocco a fini legali sull'oggetto *`my-image.fs`* nel bucket denominato `amzn-s3-demo-bucket1`:

```
aws s3api put-object-legal-hold --bucket amzn-s3-demo-bucket1 --key my-image.fs --legal-hold="Status=OFF"
```

Per ulteriori informazioni ed esempi, consulta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-legal-hold.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-legal-hold.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

**Nota**  
È possibile eseguire AWS CLI comandi dalla console utilizzando AWS CloudShell. AWS CloudShell è una shell preautenticata basata su browser che è possibile avviare direttamente da. Console di gestione AWS[Per ulteriori informazioni, consulta Cos'è? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) nella *Guida AWS CloudShell per l'utente*.

### Utilizzo della REST API
<a name="object-lock-set-legal-hold-rest"></a>

Puoi utilizzare la REST API per impostare o modificare un blocco a fini legali su un oggetto. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

### Usando il AWS SDKs
<a name="object-lock-set-legal-hold-sdk"></a>

Per esempi su come impostare una conservazione legale su un oggetto con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLegalHold_section.html) nel riferimento all'*API di Amazon S3*.

Per esempi su come ottenere lo stato attuale di conservazione legale con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLegalHoldConfiguration_section.html) nel riferimento alle *API di Amazon S3*.

Per uno scenario interattivo che dimostra le diverse funzionalità di Object Lock utilizzando il AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) nell'*Amazon S3* API Reference.

Per informazioni generali sull'utilizzo di diversi AWS SDKs, consulta [Sviluppo con Amazon S3 utilizzando il riferimento AWS SDKs all'API](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) di riferimento di *Amazon S3*.

## Impostazione o modifica di un periodo di conservazione su un oggetto S3
<a name="object-lock-configure-set-retention-period-object"></a>

Puoi impostare o modificare un periodo di conservazione su un oggetto S3 utilizzando la console AWS CLI Amazon S3 o l'API REST di Amazon S3. AWS SDKs

**Importante**  
Se desideri impostare un periodo di conservazione su un oggetto, Object Lock deve già essere abilitato nel bucket dell'oggetto.
Quando esegui il `PUT` di una versione dell'oggetto che dispone di una modalità e un periodo di conservazione individuali espliciti in un bucket, le impostazioni Object Lock individuali della versione dell'oggetto hanno la precedenza su qualsiasi impostazione di conservazione delle proprietà del bucket.
L'unico modo per eliminare un oggetto in modalità di conformità prima della scadenza della data di conservazione è eliminare l'oggetto associato. Account AWS

Per ulteriori informazioni, consulta [Periodi di conservazione](object-lock.md#object-lock-retention-periods).

### Utilizzo della console S3
<a name="object-lock-set-retention-period-console"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Bucket**, scegli il nome del bucket contenente l'oggetto su cui desideri impostare o modificate un periodo di conservazione.

1. Nell'elenco **Oggetti**, seleziona l'oggetto su cui desideri impostare o modificare un periodo di conservazione.

1. Nella pagina delle **proprietà dell'oggetto**, individua la sezione **Conservazione del blocco oggetti** e scegli **Modifica**.

1. In **Conservazione**, scegli **Abilita** per impostare un periodo di conservazione o **Disabilita** per rimuovere un periodo di conservazione.

1. Se hai scelto **Abilita**, in **Modalità di conservazione**, scegli **Modalità di governance** o **Modalità di conformità**. Per ulteriori informazioni, consulta [Modalità di conservazione](object-lock.md#object-lock-retention-modes).

1. In **Data di fine conservazione**, scegli la data in cui desideri che termini il periodo di conservazione. Durante questo periodo, l'oggetto sarà protetto da WORM e non potrà essere sovrascritto o eliminato. Per ulteriori informazioni, consulta [Periodi di conservazione](object-lock.md#object-lock-retention-periods).

1. Scegli **Salva modifiche**.

### Usando il AWS CLI
<a name="object-lock-set-retention-period-cli"></a>

L'esempio `put-object-retention` seguente imposta un periodo di conservazione sull'oggetto *`my-image.fs`* nel bucket denominato `amzn-s3-demo-bucket1` fino al 1° gennaio 2025:

```
aws s3api put-object-retention --bucket amzn-s3-demo-bucket1 --key my-image.fs --retention='{ "Mode": "GOVERNANCE", "RetainUntilDate": "2025-01-01T00:00:00" }'
```

Per ulteriori informazioni ed esempi, consulta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-retention.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-retention.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

**Nota**  
È possibile eseguire AWS CLI comandi dalla console utilizzando AWS CloudShell. AWS CloudShell è una shell preautenticata basata su browser che è possibile avviare direttamente da. Console di gestione AWS[Per ulteriori informazioni, consulta Cos'è? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) nella *Guida AWS CloudShell per l'utente*.

### Utilizzo della REST API
<a name="object-lock-set-retention-period-rest"></a>

Puoi utilizzare la REST API per impostare un periodo di conservazione su un oggetto. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

### Usando il AWS SDKs
<a name="object-lock-set-retention-period-sdk"></a>

Per esempi su come impostare un periodo di conservazione su un oggetto con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectRetention_section.html) nel riferimento alle *API di Amazon S3*.

Per esempi su come ottenere il periodo di conservazione di un oggetto con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) nel riferimento alle *API di Amazon S3*.

Per uno scenario interattivo che dimostra le diverse funzionalità di Object Lock utilizzando il AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) nell'*Amazon S3* API Reference.

Per informazioni generali sull'utilizzo di diversi AWS SDKs, consulta [Sviluppo con Amazon S3 utilizzando il riferimento AWS SDKs all'API](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) di riferimento di *Amazon S3*.

## Impostazione o modifica di un periodo di conservazione predefinito su un bucket S3
<a name="object-lock-configure-set-retention-period-bucket"></a>

Puoi impostare o modificare un periodo di conservazione predefinito su un bucket S3 utilizzando la console AWS CLI Amazon S3 o l'API REST di Amazon S3. AWS SDKs Specifica una durata, in giorni o in anni, per stabilire quanto a lungo proteggere ogni versione di un oggetto inserita nel bucket.

**Importante**  
Se desideri impostare un periodo di conservazione su un bucket, Object Lock deve già essere abilitato nel bucket.
Quando esegui il `PUT` di una versione dell'oggetto che dispone di una modalità e un periodo di conservazione individuali espliciti in un bucket, le impostazioni Object Lock individuali della versione dell'oggetto hanno la precedenza su qualsiasi impostazione di conservazione delle proprietà del bucket.
L'unico modo per eliminare un oggetto in modalità di conformità prima della scadenza della data di conservazione è eliminare l'oggetto associato. Account AWS

Per ulteriori informazioni, consulta [Periodi di conservazione](object-lock.md#object-lock-retention-periods).

### Utilizzo della console S3
<a name="object-lock-set-retention-period-bucket-console"></a>

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Buckets** (Bucket).

1. Nell'elenco **Bucket**, scegli il nome del bucket su cui desideri impostare o modificate un periodo di conservazione.

1. Scegliere la scheda **Properties (Proprietà)**.

1. In **Proprietà**, scorri verso il basso fino alla sezione **Object Lock** e scegli **Modifica**.

1. In **Conservazione predefinita**, scegli **Abilita** per impostare un periodo di conservazione predefinito o **Disabilita** per rimuovere un periodo di conservazione predefinito.

1. Se hai scelto **Abilita**, in **Modalità di conservazione**, scegli **Modalità di governance** o **Modalità di conformità**. Per ulteriori informazioni, consulta [Modalità di conservazione](object-lock.md#object-lock-retention-modes).

1. In **Periodo di conservazione predefinito**, scegli il numero di giorni o anni di durata del periodo di conservazione. Gli oggetti inseriti in questo bucket verranno bloccati per questo numero di giorni o anni. Per ulteriori informazioni, consulta [Periodi di conservazione](object-lock.md#object-lock-retention-periods).

1. Scegli **Salva modifiche**.

### Usando il AWS CLI
<a name="object-lock-configure-set-retention-period-bucket-cli"></a>

Il comando di esempio `put-object-lock-configuration` seguente imposta un periodo di conservazione di Object Lock di 50 giorni su un bucket denominato `amzn-s3-demo-bucket1` utilizzando la modalità di conformità:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 }}}'
```

L'esempio `put-object-lock-configuration` seguente rimuove la configurazione di conservazione predefinita su un bucket:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled"}'
```

Per ulteriori informazioni ed esempi, consulta [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html) nella *documentazione di riferimento dei comandi della AWS CLI *.

**Nota**  
È possibile eseguire AWS CLI comandi dalla console utilizzando AWS CloudShell. AWS CloudShell è una shell preautenticata basata su browser che è possibile avviare direttamente da. Console di gestione AWS[Per ulteriori informazioni, consulta Cos'è? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) nella *Guida AWS CloudShell per l'utente*.

### Utilizzo della REST API
<a name="object-lock-configure-set-retention-period-bucket-rest"></a>

È possibile utilizzare la REST API per impostare un periodo di conservazione predefinito su un bucket S3 esistente. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

### Usando il AWS SDKs
<a name="object-lock-configure-set-retention-period-bucket-sdk"></a>

Per esempi su come impostare un periodo di conservazione predefinito su un bucket S3 esistente con AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLockConfiguration_section.html) nell'*Amazon S3* API Reference.

Per uno scenario interattivo che dimostra le diverse funzionalità di Object Lock utilizzando il AWS SDKs, consulta [Esempi di codice](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) nell'*Amazon S3* API Reference.

Per informazioni generali sull'utilizzo di diversi AWS SDKs, consulta [Sviluppo con Amazon S3 utilizzando il riferimento AWS SDKs all'API](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) di riferimento di *Amazon S3*.

# Backup dei dati di Amazon S3
<a name="backup-for-s3"></a>

Amazon S3  è integrato nativamente con AWS Backup un servizio completamente gestito e basato su policy che puoi utilizzare per definire centralmente le politiche di backup per proteggere i tuoi dati in Amazon S3. Dopo aver definito le politiche di backup e assegnato le risorse Amazon S3 alle politiche AWS Backup , automatizza la creazione di backup di Amazon S3 e archivia in modo sicuro i backup in un archivio di backup crittografato indicato nel piano di backup. 

Quando si utilizza AWS Backup per Amazon S3, è possibile eseguire le seguenti azioni:
+ Creare backup continui e backup periodici. I backup continui sono utili per il point-in-time ripristino, mentre i backup periodici sono utili per soddisfare le esigenze di conservazione dei dati a lungo termine.
+ Automatizzare la pianificazione e conservazione dei backup configurando centralmente le policy di backup.
+ Ripristinare i backup dei dati Amazon S3 di un momento specifico.

Inoltre AWS Backup, è possibile utilizzare S3 Versioning e S3 Replication per facilitare il ripristino in seguito a eliminazioni accidentali ed eseguire operazioni di ripristino automatico. 

**Prerequisiti**  
È necessario attivare [S3 Versioning](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html) sul bucket prima di poterne eseguire il backup. AWS Backup 

**Nota**  
Ti consigliamo di [impostare una regola di scadenza del ciclo di vita per i bucket con il controllo delle versioni abilitato](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-configuration-examples.html#lifecycle-config-conceptual-ex6) che vengono sottoposti a backup. Se non imposti un periodo di scadenza del ciclo di vita, i costi di archiviazione di Amazon S3 potrebbero aumentare perché AWS Backup mantiene tutte le versioni dei dati di Amazon S3.

**Nozioni di base**  
*Per iniziare a usare Amazon S3, consulta [Creating Amazon S3](https://docs.aws.amazon.com/aws-backup/latest/devguide/s3-backups.html) backup nella Developer Guide. AWS Backup AWS Backup *

**Restrizioni e limitazioni**  
Per informazioni sulle limitazioni, consulta [Creating Amazon S3 backups ](https://docs.aws.amazon.com/aws-backup/latest/devguide/s3-backups.html) (Creazione di backup di Amazon S3) nella *Guida per gli sviluppatori di AWS Backup *. 