

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Registrazione e monitoraggio in Amazon S3
<a name="monitoring-overview"></a>

Il monitoraggio è una parte importante per mantenere l'affidabilità, la disponibilità e le prestazioni di Amazon S3 e delle tue AWS soluzioni. Ti consigliamo di raccogliere i dati di monitoraggio da tutte le parti della AWS soluzione in modo da poter eseguire più facilmente il debug di un errore multipunto, se si verifica. Prima di iniziare il monitoraggio di Amazon S3, è opportuno creare un piano di monitoraggio che includa le risposte alle seguenti domande:
+ Quali sono gli obiettivi del monitoraggio?
+ Di quali risorse si intende eseguire il monitoraggio?
+ Con quale frequenza sarà eseguito il monitoraggio di queste risorse?
+ Quali strumenti di monitoraggio verranno utilizzati?
+ Chi eseguirà i processi di monitoraggio?
+ Chi deve ricevere una notifica quando si verifica un problema?

Per ulteriori informazioni sulla registrazione e il monitoraggio in Amazon S3, consulta gli argomenti riportati di seguito.

**Nota**  
Per ulteriori informazioni sull'uso della classe di storage Amazon S3 Express One Zone con i bucket di directory, consulta [S3 Express One Zone](directory-bucket-high-performance.md#s3-express-one-zone) e [Operazioni con i bucket di directory](directory-buckets-overview.md).

Il monitoraggio è una parte importante per mantenere l'affidabilità, la disponibilità e le prestazioni di Amazon S3 e delle tue AWS soluzioni. È necessario raccogliere i dati di monitoraggio da tutte le parti della AWS soluzione in modo da poter eseguire più facilmente il debug di un errore multipunto, se si verifica. AWS fornisce diversi strumenti per monitorare le risorse Amazon S3 e rispondere a potenziali incidenti.

** CloudWatch Allarmi Amazon**  
Utilizzando Amazon CloudWatch alarms, controlli una singola metrica per un periodo di tempo specificato. Se la metrica supera una determinata soglia, viene inviata una notifica a un argomento o una policy di Amazon SNS. AWS Auto Scaling CloudWatch gli allarmi non richiamano azioni perché si trovano in uno stato particolare. È necessario invece cambiare lo stato e mantenerlo per un numero di periodi specificato. Per ulteriori informazioni, consulta [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md).

**AWS CloudTrail Registri**  
CloudTrail fornisce un registro delle azioni intraprese da un utente, un ruolo o un AWS servizio in Amazon S3. Utilizzando le informazioni raccolte da CloudTrail, è possibile determinare la richiesta effettuata ad Amazon S3, l'indirizzo IP da cui è stata effettuata, chi ha effettuato la richiesta, quando è stata effettuata e ulteriori dettagli. Per ulteriori informazioni, consulta [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md).

**Amazon GuardDuty**  
[Amazon GuardDuty](https://docs.aws.amazon.com/guardduty/latest/ug/what-is-guardduty.html) è un servizio di rilevamento delle minacce che monitora continuamente account, contenitori, carichi di lavoro e dati all'interno del tuo AWS ambiente per identificare potenziali minacce o rischi per la sicurezza dei tuoi bucket S3. GuardDuty fornisce inoltre un contesto completo sulle minacce che rileva. GuardDuty monitora i registri AWS CloudTrail di gestione alla ricerca di minacce e visualizza le informazioni rilevanti per la sicurezza. Ad esempio, GuardDuty includerà fattori di una richiesta API, come l'utente che ha effettuato la richiesta, la posizione da cui è stata effettuata la richiesta e l'API specifica richiesta, che potrebbe essere insolita nel tuo ambiente. [GuardDuty S3 Protection](https://docs.aws.amazon.com/guardduty/latest/ug/s3-protection.html) monitora gli eventi relativi ai dati S3 raccolti CloudTrail e identifica comportamenti potenzialmente anomali e dannosi in tutti i bucket S3 dell'ambiente.

**Log di accesso Amazon S3**  
I log di accesso al server forniscono record dettagliati relativi alle richieste che vengono effettuate a un bucket. I log di accesso al server sono utili per numerose applicazioni. Ad esempio, le informazioni del log di accesso possono essere utili nei controlli di accesso e di sicurezza. Per ulteriori informazioni, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).

**AWS Trusted Advisor**  
Trusted Advisor si basa sulle migliori pratiche apprese servendo centinaia di migliaia di clienti. AWS Trusted Advisor ispeziona l' AWS ambiente e quindi formula raccomandazioni quando esistono opportunità per risparmiare denaro, migliorare la disponibilità e le prestazioni del sistema o contribuire a colmare le lacune di sicurezza. Tutti i AWS clienti hanno accesso a cinque Trusted Advisor controlli. I clienti con un piano di supporto Business o Enterprise possono visualizzare tutti i Trusted Advisor controlli.   
Trusted Advisor dispone dei seguenti controlli relativi ad Amazon S3:  
+ Registrazione della configurazione dei bucket Amazon S3.
+ Controlli della sicurezza per i bucket di Amazon S3 dotati di autorizzazioni di accesso aperte.
+ Controlli della tolleranza ai guasti per i bucket di Amazon S3 per i quali la funzione Controllo delle versioni non è abilitata o è sospesa.
Per ulteriori informazioni, consulta [AWS Trusted Advisor](https://docs.aws.amazon.com/awssupport/latest/user/getting-started.html#trusted-advisor) nella *Guida per l'utente di Supporto *.

**Amazon S3 Storage Lens**  
Amazon S3 Storage Lens è una funzionalità di analisi del cloud-storage che può essere utilizzata per ottenere visibilità a livello di organizzazione sull'utilizzo e l'attività dell'object-storage. È possibile utilizzare i parametri di S3 Storage Lens per generare approfondimenti, ad esempio per scoprire la quantità di spazio di archiviazione disponibile nell'intera organizzazione o quali sono i bucket e i prefissi caratterizzati da una crescita più rapida. Puoi anche utilizzare i parametri di S3 Storage Lens per individuare le opportunità di ottimizzazione dei costi, implementare le best practice di protezione e sicurezza dei dati e migliorare le prestazioni dei carichi di lavoro delle applicazioni.  
S3 Storage Lens aggrega le metriche e visualizza le informazioni nella sezione Istantanea account della pagina **Bucket** della console Amazon S3. S3 Storage Lens fornisce anche una dashboard interattiva che può essere utilizzata per visualizzare le intuizioni e le tendenze, segnalare i valori anomali e ricevere raccomandazioni per ottimizzare i costi di storage e applicare le best practice per la protezione dei dati. La dashboard offre opzioni di drill-down per generare e visualizzare informazioni dettagliate a livello di organizzazione, account, classe di storage, bucket Regione AWS, prefisso o gruppo Storage Lens. Per ulteriori informazioni, consulta [Informazioni su Amazon S3 Storage Lens](storage_lens_basics_metrics_recommendations.md).

**Inventario Amazon S3**  
Inventario Amazon S3 genera un elenco di oggetti e metadati che è possibile utilizzare per interrogare e gestire gli oggetti. È possibile utilizzare questo report di inventario per generare dati granulari come la dimensione dell'oggetto, la data dell'ultima modifica, lo stato di crittografia e altri campi. Questi report sono disponibili giornalmente o settimanalmente per fornire automaticamente l'elenco più recente.  
Ad esempio, è possibile utilizzare Inventario Amazon S3 per verificare e segnalare lo stato di replica e crittografia degli oggetti per esigenze aziendali, di conformità e normative. È inoltre possibile utilizzare Inventario Amazon S3 per semplificare e velocizzare i flussi di processo aziendali e i processi sui big data, che fornisce un'alternativa pianificata alle operazioni API sincrone `List` di Amazon S3. Inventario Amazon S3 non utilizza le operazioni dell'API `List` per verificare gli oggetti e non influisce sulla velocità di richiesta del bucket. Per ulteriori informazioni, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

**Notifiche di eventi Amazon S3**  
Con la funzione Amazon S3 Event Notifications, si ricevono notifiche quando si verificano determinati eventi nel proprio bucket S3. Per abilitare le notifiche, aggiungi una configurazione di notifica che identifichi gli eventi che Amazon S3 deve pubblicare. Per ulteriori informazioni, consulta [Notifiche di eventi Amazon S3](EventNotifications.md).

**Amazon S3 e AWS X-Ray**  
AWS X-Ray si integra con Amazon S3 per tracciare le richieste upstream per aggiornare i bucket S3 dell'applicazione. Se un servizio traccia le richieste utilizzando l'SDK X-Ray, Amazon S3 può inviare le intestazioni di tracciamento agli abbonati di eventi a valle, come Λ, Amazon SQS e Amazon SNS. X-Ray abilita i messaggi di tracciamento per le notifiche di eventi di Amazon S3. È possibile utilizzare la mappa di traccia X-Ray per visualizzare le connessioni tra Amazon S3 e altri servizi utilizzati dall'applicazione. Per ulteriori informazioni, consulta [Amazon S3 e X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/xray-services-s3.html).

Le best practice di sicurezza seguenti gestiscono anche il logging e il monitoraggio:
+ [Identify and audit all your Amazon S3 buckets](security-best-practices.md#audit)
+ [Implement monitoring using Amazon Web Services monitoring tools](security-best-practices.md#tools)
+ [Attiva AWS Config](security-best-practices.md#config)
+ [Enable Amazon S3 server access logging](security-best-practices.md#serverlog)
+ [Use CloudTrail](security-best-practices.md#objectlog)
+ [Monitor Amazon Web Services security advisories](security-best-practices.md#advisories)

**Topics**
+ [

# Strumenti di monitoraggio
](monitoring-automated-manual.md)
+ [

# Opzioni di registrazione per Amazon S3
](logging-with-S3.md)
+ [

# Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail
](cloudtrail-logging.md)
+ [

# Registrazione delle richieste con registrazione dell'accesso al server
](ServerLogs.md)
+ [

# Monitoraggio delle metriche con Amazon CloudWatch
](cloudwatch-monitoring.md)
+ [

# Notifiche di eventi Amazon S3
](EventNotifications.md)
+ [

# Monitoraggio dell'attività e dell'utilizzo dello storage con Amazon S3 Storage Lens
](storage_lens.md)
+ [

# Catalogazione e analisi dei dati con Inventario S3
](storage-inventory.md)

# Strumenti di monitoraggio
<a name="monitoring-automated-manual"></a>

AWS offre diversi strumenti che puoi utilizzare per monitorare Amazon S3. Alcuni di questi strumenti possono essere configurati in modo che eseguano automaticamente il monitoraggio, mentre altri richiedono l'intervento manuale. Si consiglia di automatizzare il più possibile i processi di monitoraggio.

## Strumenti di monitoraggio automatici
<a name="monitoring-automated_tools"></a>

Per controllare Amazon S3 e segnalare l'eventuale presenza di problemi, puoi usare gli strumenti di monitoraggio automatici seguenti:
+ **Amazon CloudWatch Alarms**: monitora una singola metrica in un periodo di tempo specificato ed esegui una o più azioni in base al valore della metrica rispetto a una determinata soglia in diversi periodi di tempo. L'azione è una notifica inviata a un argomento di Amazon Simple Notification Service (Amazon SNS) o a una policy di Amazon EC2 Auto Scaling. CloudWatch gli allarmi non richiamano azioni semplicemente perché si trovano in uno stato particolare. Lo stato deve essere cambiato e restare costante per un numero specificato di periodi. Per ulteriori informazioni, consulta [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md).
+ **AWS CloudTrail Monitoraggio dei log**: condividi i file di CloudTrail registro tra account, monitora i file di registro in tempo reale inviandoli a CloudWatch Logs, scrivi applicazioni di elaborazione dei log in Java e verifica che i file di registro non siano cambiati dopo la consegna da parte di. CloudTrail Per ulteriori informazioni, consulta [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md).

## Strumenti di monitoraggio manuali
<a name="monitoring-manual-tools"></a>

Un'altra parte importante del monitoraggio di Amazon S3 consiste nel monitorare manualmente gli elementi che gli CloudWatch allarmi non coprono. Amazon S3 e altri Console di gestione AWS dashboard forniscono una at-a-glance visione dello stato del tuo ambiente. CloudWatch Trusted Advisor AWS È possibile abilitare la *registrazione degli accessi al server*, che monitora le richieste di accesso al bucket. Ogni record del log di accesso contiene i dettagli su una singola richiesta di accesso, ad esempio il richiedente, il nome del bucket, l'ora della richiesta, l'operazione della richiesta, lo stato della risposta e un eventuale codice di errore. Per ulteriori informazioni, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).
+ Il dashboard Amazon S3 mostra quanto segue:
  + I bucket e gli oggetti e le proprietà in essi contenuti.
+ La CloudWatch home page mostra quanto segue:
  + Stato e allarmi attuali
  + Grafici degli allarmi e delle risorse
  + Stato di integrità dei servizi

  Inoltre, è possibile utilizzare CloudWatch per effettuare le seguenti operazioni: 
  + Creare [pannelli di controllo personalizzati](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) per monitorare i servizi di interesse.
  + Creare grafici dei dati dei parametri per la risoluzione di problemi e il rilevamento di tendenze.
  + Cerca e sfoglia tutte le metriche AWS delle tue risorse.
  + Crea e modifica gli allarmi per ricevere le notifiche dei problemi.
+ AWS Trusted Advisor può aiutarti a monitorare AWS le tue risorse per migliorare prestazioni, affidabilità, sicurezza ed economicità. Per tutti gli utenti sono disponibili quattro controlli di Trusted Advisor ; per gli utenti con un piano di assistenza Business o Enterprise sono disponibili più di 50 controlli. Per ulteriori informazioni, consulta [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/trustedadvisor/).

  Trusted Advisor dispone dei seguenti controlli relativi ad Amazon S3: 
  + Controlli della configurazione di registrazione dei bucket di Amazon S3.
  + Controlli della sicurezza per i bucket di Amazon S3 dotati di autorizzazioni di accesso aperte.
  + Controlli della tolleranza ai guasti per i bucket di Amazon S3 per i quali la funzione Controllo delle versioni non è abilitata o è sospesa.

# Opzioni di registrazione per Amazon S3
<a name="logging-with-S3"></a>

Puoi registrare le azioni intraprese dagli utenti, dai ruoli o Servizi AWS sulle risorse di Amazon S3 e conservare i record di registro per scopi di controllo e conformità. A tale scopo, è possibile utilizzare i log degli accessi al server, i log AWS CloudTrail o una combinazione di entrambi. Ti consigliamo di utilizzarlo CloudTrail per registrare azioni a livello di bucket e a livello di oggetto per le tue risorse Amazon S3. Per ulteriori informazioni su ciascuna opzione, consulta le sezioni riportate di seguito.
+ [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md)
+ [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md)

La tabella seguente elenca le proprietà chiave dei log e dei CloudTrail log di accesso al server Amazon S3. Per assicurarti che CloudTrail soddisfi i tuoi requisiti di sicurezza, consulta la tabella e le note.


| Proprietà dei log | AWS CloudTrail | Log di server Amazon S3 | 
| --- |--- |--- |
|  Può essere inoltrato ad altri sistemi (Amazon CloudWatch Logs, Amazon Events) CloudWatch   |  Sì  | No | 
|  Distribuisce i log a più destinazioni (ad esempio, invia lo stesso log a due diversi bucket)  |  Sì  | No | 
|  Attiva i log per un sottoinsieme di oggetti (prefisso)  |  Sì  | No | 
|  Distribuzione di log multi-account (bucket di origine e di destinazione di proprietà di account diversi)  |  Sì  | No | 
|  Convalida dell'integrità del file di log mediante firma digitale o hashing  |  Sì  | No | 
|  Valori predefiniti o scelta della crittografia per i file di log  |  Sì  | No | 
|  Operazioni sugli oggetti (utilizzando Amazon S3 APIs)  |  Sì   |  Sì  | 
|  Operazioni con bucket (utilizzando Amazon APIs S3)  |  Sì   |  Sì  | 
|  Interfaccia utente ricercabile per i log  |  Sì  | No | 
|  Campi per i parametri di blocco degli oggetti, proprietà Select di Amazon S3 per i record di log  |  Sì  | No | 
|  Campi per `Object Size`, `Total Time`, `Turn-Around Time` e `HTTP Referer` per i record di log  |  No  |  Sì  | 
|  Transizioni, scadenze e ripristini del ciclo di vita  |  No  |  Sì  | 
|  Logging delle chiavi in un'operazione di eliminazione batch  |  Sì   |  Sì  | 
|  Errori di autenticazione1  |  No  |  Sì  | 
|  Account in cui vengono distribuiti i log  |  Proprietario del bucket 2 e richiedente  |  Solo proprietario del bucket  | 
| **Performance and Cost** | **AWS CloudTrail** | **Amazon S3 Server Logs** | 
| --- |--- |--- |
|  Prezzo  |  Gli eventi di gestione (prima distribuzione) sono gratuiti, gli eventi di dati sono a pagamento, oltre ai log di storage  |  Nessun costo aggiuntivo oltre all'archiviazione dei log  | 
|  Velocità di distribuzione dei log  |  Eventi di dati ogni 5 minuti, eventi di gestione ogni 15 minuti  |  Entro qualche ora  | 
|  Formato dei log  |  JSON  |  File di log con record delimitati da nuove righe e separati da spazi  | 

**Note**

1. CloudTrail non fornisce i log delle richieste che non superano l'autenticazione (in cui le credenziali fornite non sono valide) o che falliscono a causa del reindirizzamento (codice di errore). `301 Moved Permanently` Include, tuttavia, i log di richieste in cui l'autenticazione non riesce (`AccessDenied`) e delle richieste effettuate da utenti anonimi.

1. Il proprietario del bucket S3 riceve CloudTrail i log quando l'account non ha accesso completo all'oggetto nella richiesta. Per ulteriori informazioni, consulta [Azioni a livello di oggetto Amazon S3 in scenari multi-account](cloudtrail-logging-s3-info.md#cloudtrail-object-level-crossaccount). 

1. S3 non supporta l'invio di CloudTrail log o log di accesso al server al richiedente o al proprietario del bucket per le richieste degli endpoint VPC quando la policy dell'endpoint VPC le nega o per le richieste che falliscono prima che la policy VPC venga valutata.

# Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail
<a name="cloudtrail-logging"></a>

[AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html)è un servizio che fornisce un registro delle azioni intraprese da un utente, un ruolo o un Servizio AWS. CloudTrail acquisisce tutte le chiamate API per Amazon S3 come eventi. Le chiamate acquisite includono chiamate dalla console Amazon S3 e chiamate di codice alle operazioni API Amazon S3. Utilizzando le informazioni raccolte da CloudTrail, è possibile determinare la richiesta effettuata ad Amazon S3, l'indirizzo IP da cui è stata effettuata, quando è stata effettuata e ulteriori dettagli.

Ogni evento o voce di log contiene informazioni sull’utente che ha generato la richiesta. Le informazioni di identità consentono di determinare quanto segue:
+ Se la richiesta è stata effettuata con le credenziali utente root o utente.
+ Se la richiesta è stata effettuata per conto di un utente del Centro identità IAM.
+ Se la richiesta è stata effettuata con le credenziali di sicurezza temporanee per un ruolo o un utente federato.
+ Se la richiesta è stata effettuata da un altro Servizio AWS.

CloudTrail è attivo nel tuo account Account AWS quando crei l'account e hai automaticamente accesso alla **cronologia degli CloudTrail eventi**. La **cronologia CloudTrail degli eventi** fornisce un record visualizzabile, ricercabile, scaricabile e immutabile degli ultimi 90 giorni di eventi di gestione registrati in un. Regione AWS*Per ulteriori informazioni, consulta [Lavorare con la cronologia degli CloudTrail eventi](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html) nella Guida per l'utente.AWS CloudTrail * Non sono CloudTrail previsti costi per la visualizzazione della **cronologia degli eventi**.

Per una registrazione continua degli eventi degli Account AWS ultimi 90 giorni, crea un trail o un data store di eventi [CloudTrail Lake](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake.html).

**CloudTrail sentieri**  
Un *trail* consente di CloudTrail inviare file di log a un bucket Amazon S3. Tutti i percorsi creati utilizzando il Console di gestione AWS sono multiregionali. È possibile creare un trail per una singola Regione o per più Regioni tramite AWS CLI. La creazione di un percorso multiregionale è consigliata in quanto consente di registrare l'intera attività del proprio Regioni AWS account. Se si crea un trail per una singola Regione, è possibile visualizzare solo gli eventi registrati nella Regione AWS del trail. Per ulteriori informazioni sui trail, consulta [Creating a trail for your Account AWS](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html) e [Creating a trail for an organization](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/creating-trail-organization.html) nella *Guida per l'utente di AWS CloudTrail *.  
Puoi inviare gratuitamente una copia dei tuoi eventi di gestione in corso al tuo bucket Amazon S3 CloudTrail creando un percorso, tuttavia ci sono costi di storage di Amazon S3. [Per ulteriori informazioni sui CloudTrail prezzi, consulta la pagina Prezzi.AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/) Per informazioni sui prezzi di Amazon S3, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

**CloudTrail Archivi di dati sugli eventi di Lake**  
*CloudTrail Lake* ti consente di eseguire query basate su SQL sui tuoi eventi. CloudTrail [Lake converte gli eventi esistenti in formato JSON basato su righe in formato Apache ORC.](https://orc.apache.org/) ORC è un formato di archiviazione a colonne ottimizzato per il recupero rapido dei dati. Gli eventi vengono aggregati in *archivi di dati degli eventi*, che sono raccolte di eventi immutabili basate sui criteri selezionati applicando i [selettori di eventi avanzati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake-concepts.html#adv-event-selectors). I selettori applicati a un archivio di dati degli eventi controllano quali eventi persistono e sono disponibili per l'esecuzione della query. *Per ulteriori informazioni su CloudTrail Lake, consulta [Working with AWS CloudTrail Lake](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake.html) nella Guida per l'utente.AWS CloudTrail *  
CloudTrail Gli archivi e le richieste di dati sugli eventi di Lake comportano dei costi. Quando crei un datastore di eventi, scegli l'[opzione di prezzo](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake-manage-costs.html#cloudtrail-lake-manage-costs-pricing-option) da utilizzare per tale datastore. L'opzione di prezzo determina il costo per l'importazione e l'archiviazione degli eventi, nonché il periodo di conservazione predefinito e quello massimo per il datastore di eventi. [Per ulteriori informazioni sui CloudTrail prezzi, consulta la sezione Prezzi.AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/)

È possibile archiviare i file di log nel bucket per un periodo di tempo indeterminato, ma è anche possibile definire regole per il ciclo di vita di Amazon S3 per archiviare o eliminare automaticamente i file di log. Per impostazione predefinita, i file di log sono crittografati mediante la crittografia lato server (SSE) di Amazon S3.

## Utilizzo CloudTrail dei log con i log di accesso e i log del server Amazon S3 CloudWatch
<a name="cloudtrail-logging-vs-server-logs"></a>

AWS CloudTrail i log forniscono un registro delle azioni intraprese da un utente, un ruolo o un AWS servizio in Amazon S3, mentre i log di accesso al server di Amazon S3 forniscono record dettagliati per le richieste effettuate a un bucket S3. Per ulteriori informazioni sul funzionamento dei diversi log e delle relative proprietà, prestazioni e costi, consulta [Opzioni di registrazione per Amazon S3](logging-with-S3.md). 

Puoi utilizzare AWS CloudTrail i log insieme ai log di accesso al server per Amazon S3. CloudTrail i log forniscono un monitoraggio dettagliato delle API per le operazioni a livello di bucket e a livello di oggetto di Amazon S3. I log di accesso al server per Amazon S3 forniscono visibilità sulle operazioni a livello di oggetto sui dati in Amazon S3. Per ulteriori informazioni sui log degli accessi al server, consultare [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).

Puoi anche utilizzare CloudTrail i log insieme ad Amazon CloudWatch per Amazon S3. CloudTrail l'integrazione con CloudWatch Logs fornisce l'attività dell'API a livello di bucket S3 acquisita da un flusso CloudTrail di CloudWatch log nel gruppo di log specificato CloudWatch . Puoi creare CloudWatch allarmi per monitorare attività API specifiche e ricevere notifiche e-mail quando si verifica un'attività API specifica. Per ulteriori informazioni sugli CloudWatch allarmi per il monitoraggio di attività specifiche dell'API, consulta la Guida per l'[AWS CloudTrail utente](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/). Per ulteriori informazioni sull'utilizzo CloudWatch con Amazon S3, consulta. [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md)

**Nota**  
S3 non supporta la consegna dei CloudTrail log al richiedente o al proprietario del bucket per le richieste degli endpoint VPC quando la policy degli endpoint VPC le nega.

## CloudTrail tracciamento con chiamate API SOAP di Amazon S3
<a name="cloudtrail-s3-soap"></a>

CloudTrail tiene traccia delle chiamate API SOAP di Amazon S3. Il supporto SOAP di Amazon S3 su HTTP è obsoleto, ma è comunque disponibile su HTTPS. Per ulteriori informazioni sul supporto SOAP di Amazon S3, consulta [Appendice: API SOAP](https://docs.aws.amazon.com/AmazonS3/latest/API/APISoap.html) nella *Guida alle API di Amazon S3*. 

**Importante**  
Le funzioni più recenti di Amazon S3 non sono supportate per SOAP. Ti consigliamo di utilizzare l'API REST o il AWS SDKs.

 La tabella seguente mostra le azioni SOAP di Amazon S3 tracciate mediante registrazione. CloudTrail 


| Nome API SOAP | Nome dell'evento API utilizzato nel registro CloudTrail  | 
| --- | --- | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPListAllMyBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPListAllMyBuckets.html)  | ListBuckets | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPCreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPCreateBucket.html)  | CreateBucket | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPDeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPDeleteBucket.html)  | DeleteBucket | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketAccessControlPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketAccessControlPolicy.html)  | GetBucketAcl | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketAccessControlPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketAccessControlPolicy.html)  | PutBucketAcl | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketLoggingStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketLoggingStatus.html)  | GetBucketLogging | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketLoggingStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketLoggingStatus.html)  | PutBucketLogging | 

 Per ulteriori informazioni su CloudTrail Amazon S3, consulta i seguenti argomenti: 

**Topics**
+ [

## Utilizzo CloudTrail dei log con i log di accesso e i log del server Amazon S3 CloudWatch
](#cloudtrail-logging-vs-server-logs)
+ [

## CloudTrail tracciamento con chiamate API SOAP di Amazon S3
](#cloudtrail-s3-soap)
+ [

# Eventi Amazon S3 CloudTrail
](cloudtrail-logging-s3-info.md)
+ [

# CloudTrail voci dei file di registro per Amazon S3 e S3 su Outposts
](cloudtrail-logging-understanding-s3-entries.md)
+ [

# Abilitazione della registrazione CloudTrail degli eventi per i bucket e gli oggetti S3
](enable-cloudtrail-logging-for-s3.md)
+ [

# Identificazione delle richieste Amazon S3 tramite CloudTrail
](cloudtrail-request-identification.md)

# Eventi Amazon S3 CloudTrail
<a name="cloudtrail-logging-s3-info"></a>

**Importante**  
Amazon S3 ora applica la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3) come livello di base della crittografia per ogni bucket di Amazon S3. A partire dal 5 gennaio 2023, tutti i caricamenti di nuovi oggetti su Amazon S3 vengono crittografati automaticamente senza costi aggiuntivi e senza alcun impatto sulle prestazioni. Lo stato di crittografia automatico per la configurazione di crittografia predefinita del bucket S3 e per il caricamento di nuovi oggetti è disponibile nei CloudTrail log, in S3 Inventory, S3 Storage Lens, nella console Amazon S3 e come intestazione di risposta dell'API Amazon S3 aggiuntiva nella e. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [Domande frequenti sulla crittografia predefinita](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Questa sezione fornisce informazioni sugli eventi a cui S3 effettua l'accesso. CloudTrail

## Eventi relativi ai dati di Amazon S3 in CloudTrail
<a name="cloudtrail-data-events"></a>

Gli [eventi di dati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#logging-data-events) forniscono informazioni sulle operazioni delle risorse eseguite su o in una risorsa (ad esempio, lettura o scrittura su un oggetto Amazon S3). Queste operazioni sono definite anche operazioni del piano dei dati. Gli eventi di dati sono spesso attività che interessano volumi elevati di dati. Per impostazione predefinita, CloudTrail non registra gli eventi relativi ai dati. La **cronologia CloudTrail degli eventi** non registra gli eventi relativi ai dati.

Per gli eventi di dati sono previsti costi aggiuntivi. Per ulteriori informazioni sui prezzi di CloudTrail, consulta [Prezzi di AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/).

Puoi registrare gli eventi relativi ai dati per i tipi di risorse Amazon S3 utilizzando la CloudTrail console o AWS CLI le operazioni CloudTrail API. Per ulteriori informazioni su come registrare gli eventi di dati, consulta [Registrazione di eventi di dati con Console di gestione AWS](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#logging-data-events-console) e [Registrazione di eventi di dati con AWS Command Line Interface](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#creating-data-event-selectors-with-the-AWS-CLI) nella *Guida all'utente AWS CloudTrail *.

La tabella seguente elenca i tipi di risorse Amazon S3 per i quali è possibile registrare eventi di dati. La colonna **Data event type (console)** mostra il valore da scegliere dall'elenco **Data event type** (console) sulla CloudTrail console. La colonna del **valore resources.type** mostra il `resources.type` valore da specificare durante la configurazione dei selettori di eventi avanzati utilizzando o. AWS CLI CloudTrail APIs La CloudTrail colonna **Dati APIs registrati mostra le chiamate API registrate per** il tipo di risorsa. CloudTrail 




| Tipo di evento di dati (console) | valore resources.type | Dati registrati APIs su CloudTrail | 
| --- | --- | --- | 
| S3 |  AWS::S3::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3 Express One Zone |  AWS::S3Express::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| Punto di accesso S3 |  AWS::S3::Access Point  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3 Object Lambda |  AWS::S3ObjectLambda::AccessPoint  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3 Outposts |  AWS::S3Outposts::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 

È possibile configurare selettori di eventi avanzati per filtrare i campi `eventName`, `readOnly` e `resources.ARN` per registrare solo gli eventi importanti per l'utente. Per ulteriori informazioni su questi campi, consulta [https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html) in *Riferimento API AWS CloudTrail *.

## Eventi di gestione di Amazon S3 in CloudTrail
<a name="cloudtrail-management-events"></a>

Amazon S3 registra tutte le operazioni del piano di controllo (control-plane) come eventi di gestione. Per ulteriori informazioni sulle operazioni dell'API S3, consulta la [documentazione di riferimento delle API di Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html).

## Come CloudTrail acquisisce le richieste inviate ad Amazon S3
<a name="cloudtrail-logging-s3-requests"></a>

Per impostazione predefinita, CloudTrail registra le chiamate API a livello di bucket S3 effettuate negli ultimi 90 giorni, ma non registra le richieste fatte agli oggetti. Le chiamate a livello di bucket includono eventi come `CreateBucket`, `DeleteBucket`, `PutBucketLifecycle`, `PutBucketPolicy` e così via. Puoi visualizzare gli eventi a livello di bucket sulla console. CloudTrail Tuttavia, non è possibile visualizzare gli eventi relativi ai dati (chiamate a livello di oggetto Amazon S3): è necessario analizzare o interrogare i log per essi. CloudTrail 

Se stai registrando l'attività dei dati con AWS CloudTrail, il record di evento per un evento di dati di Amazon `DeleteObjects` S3 include sia `DeleteObjects` l'evento che `DeleteObject` un evento per ogni oggetto eliminato come parte di tale operazione. È possibile escludere la visibilità aggiuntiva sugli oggetti eliminati dal record dell’evento. Per ulteriori informazioni, consulta [Esempi della AWS CLI per filtrare eventi di dati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) nella *Guida per l’utente dell’AWS CloudTrail *.

## Azioni a livello di account Amazon S3 tracciate mediante registrazione CloudTrail
<a name="cloudtrail-account-level-tracking"></a>

CloudTrail registra le azioni a livello di account. I record Amazon S3 vengono scritti insieme ad altri Servizio AWS record in un file di registro. CloudTrail determina quando creare e scrivere su un nuovo file in base a un periodo di tempo e alle dimensioni del file. 

Le tabelle in questa sezione elencano le azioni a livello di account Amazon S3 supportate per la registrazione da. CloudTrail

Le azioni API a livello di account Amazon S3 tracciate tramite CloudTrail registrazione vengono visualizzate con i seguenti nomi di eventi. I nomi degli CloudTrail eventi sono diversi dal nome dell'azione API. Ad esempio, DeletePublicAccessBlock è DeleteAccountPublicAccessBlock.
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DeletePublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DeletePublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutPublicAccessBlock.html)

## Azioni a livello di bucket di Amazon S3 tracciate mediante registrazione CloudTrail
<a name="cloudtrail-bucket-level-tracking"></a>

Per impostazione predefinita, CloudTrail registra le azioni a livello di bucket per i bucket generici. I record Amazon S3 vengono scritti insieme ad altri record di AWS servizio in un file di registro. CloudTrail determina quando creare e scrivere su un nuovo file in base a un periodo di tempo e alle dimensioni del file. 

Questa sezione elenca le azioni a livello di bucket di Amazon S3 supportate per la registrazione da. CloudTrail

Le azioni API a livello di bucket di Amazon S3 tracciate tramite CloudTrail registrazione vengono visualizzate con i seguenti nomi di eventi. In alcuni casi, il nome dell' CloudTrail evento è diverso dal nome dell'azione dell'API. Ad esempio, `PutBucketLifecycleConfiguration` è `PutBucketLifecycle`.
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataConfiguration.html) (operazione API V2)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataTableConfiguration.html) (operazione API V1)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataConfiguration.html) (operazione API V2)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataTableConfiguration.html) (operazione API V1)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeletePublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeletePublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAccelerateConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAccelerateConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLocation.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLocation.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLogging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataConfiguration.html) (operazione API V2)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataTableConfiguration.html) (operazione API V1)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketNotification.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketNotification.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLockConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicyStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicyStatus.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketRequestPayment.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketRequestPayment.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketVersioning.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketVersioning.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketWebsite.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketWebsite.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListBuckets.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAccelerateConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAccelerateConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotification.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotification.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketRequestPayment.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketRequestPayment.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketWebsite.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketWebsite.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataJournalTableConfiguratione.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataJournalTableConfiguratione.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataInventoryTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataInventoryTableConfiguration.html)

Oltre a tali operazioni API, è possibile utilizzare anche l'operazione a livello di oggetto [oggetto OPTIONS](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTOPTIONSobject.html). Questa azione viene considerata come un'azione a livello di bucket nella CloudTrail registrazione perché controlla la configurazione CORS di un bucket.

**Nota**  
L' HeadBucket API è supportata come evento di dati Amazon S3 in. CloudTrail 

## Azioni a livello di bucket Amazon S3 Express One Zone (endpoint API regionale) tracciate mediante registrazione CloudTrail
<a name="cloudtrail-bucket-level-tracking-s3express"></a>

Per impostazione predefinita, CloudTrail registra le azioni a livello di bucket per i bucket di directory come eventi di gestione. Il formato `eventsource` per gli eventi CloudTrail di gestione per S3 Express One Zone è. `s3express.amazonaws.com`

Vengono registrate le seguenti operazioni dell'API degli endpoint regionali. CloudTrail
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListDirectoryBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListDirectoryBuckets.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html)

Per ulteriori informazioni, consulta [Logging with AWS CloudTrail for S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html) Express One Zone

## Azioni a livello di oggetto Amazon S3 in scenari multi-account
<a name="cloudtrail-object-level-crossaccount"></a>

Di seguito sono riportati i casi d'uso speciali che riguardano le chiamate API a livello di oggetto in scenari tra più account e il modo in cui vengono segnalati i log. CloudTrail CloudTrail consegna i log al richiedente (l'account che ha effettuato la chiamata API), tranne in alcuni casi di accesso negato in cui le voci di registro vengono oscurate o omesse. Quando si imposta l'accesso multiaccount, considerare gli esempi riportati in questa sezione.

**Nota**  
Gli esempi presuppongono che i CloudTrail log siano configurati in modo appropriato. 

### Esempio 1: CloudTrail consegna i log al proprietario del bucket
<a name="cloudtrail-crossaccount-example1"></a>

CloudTrail consegna i log al proprietario del bucket anche se il proprietario del bucket non dispone delle autorizzazioni per la stessa operazione dell'API dell'oggetto. Si consideri il seguente scenario multiaccount:
+ L'account A possiede il bucket.
+ L'account B (richiedente) tenta di accedere a un oggetto in quel bucket.
+ L'account C è proprietario dell'oggetto. L'account C potrebbe essere o non essere lo stesso account dell'account A.

**Nota**  
CloudTrail consegna sempre i log delle API a livello di oggetto al richiedente (Account B). CloudTrail Inoltre, fornisce gli stessi log al proprietario del bucket (Account A) anche quando il proprietario del bucket non possiede l'oggetto (Account C) o non dispone delle autorizzazioni per le stesse operazioni API su quell'oggetto.

### Esempio 2: CloudTrail non prolifera gli indirizzi e-mail utilizzati nell'impostazione dell'oggetto ACLs
<a name="cloudtrail-crossaccount-example2"></a>

Si consideri il seguente scenario multiaccount:
+ L'account A possiede il bucket.
+  L'account B (richiedente) invia una richiesta per impostare un'assegnazione nell'ACL dell'oggetto utilizzando un indirizzo e-mail. Per ulteriori informazioni su ACLs, vedere[Panoramica delle liste di controllo accessi (ACL)](acl-overview.md).

Il richiedente recupera i log insieme alle informazioni dell'e-mail. Tuttavia, il proprietario del bucket, se è idoneo a ricevere i log, come nell'esempio 1, ottiene il registro che riporta l'evento. CloudTrail Tuttavia, il proprietario del bucket non riceve le informazioni sulla configurazione dell'ACL, in particolare l'indirizzo e-mail dell'assegnatario e l'assegnazione. L'unica informazione riportata nel log per il proprietario del bucket è che l'account B ha effettuato una chiamata dell'API ACL.

# CloudTrail voci dei file di registro per Amazon S3 e S3 su Outposts
<a name="cloudtrail-logging-understanding-s3-entries"></a>

**Importante**  
Amazon S3 ora applica la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3) come livello di base della crittografia per ogni bucket di Amazon S3. A partire dal 5 gennaio 2023, tutti i caricamenti di nuovi oggetti su Amazon S3 vengono crittografati automaticamente senza costi aggiuntivi e senza alcun impatto sulle prestazioni. Lo stato di crittografia automatico per la configurazione di crittografia predefinita del bucket S3 e per il caricamento di nuovi oggetti è disponibile nei CloudTrail log, in S3 Inventory, S3 Storage Lens, nella console Amazon S3 e come intestazione di risposta dell'API Amazon S3 aggiuntiva nella e. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [Domande frequenti sulla crittografia predefinita](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Un evento rappresenta una singola richiesta proveniente da qualsiasi fonte e include informazioni sull'operazione dell'API richiesta, la data e l'ora dell'operazione, i parametri della richiesta e così via. CloudTrail i file di registro non sono una traccia ordinata dello stack delle chiamate API pubbliche, quindi gli eventi non vengono visualizzati in un ordine specifico.

**Nota**  
Per visualizzare esempi di file di CloudTrail log per Amazon S3 Express One Zone, consulta [esempi di file di CloudTrail log per S3 Express](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-log-files.html) One Zone.

Per maggiori informazioni, consulta i seguenti esempi.

**Topics**
+ [

## Esempio: immissione di file di CloudTrail registro per Amazon S3
](#example-ct-log-s3)

## Esempio: immissione di file di CloudTrail registro per Amazon S3
<a name="example-ct-log-s3"></a>

L'esempio seguente mostra una voce di CloudTrail registro che illustra il [GETServizio](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTServiceGET.html) e [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTacl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTacl.html)le azioni.

```
{
    "Records": [
    {
        "eventVersion": "1.03",
        "userIdentity": {
            "type": "IAMUser",
            "principalId": "111122223333",
            "arn": "arn:aws:iam::111122223333:user/myUserName",
            "accountId": "111122223333",
            "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
            "userName": "myUserName"
        },
        "eventTime": "2019-02-01T03:18:19Z",
        "eventSource": "s3.amazonaws.com",
        "eventName": "ListBuckets",
        "awsRegion": "us-west-2",
        "sourceIPAddress": "127.0.0.1",
        "userAgent": "[]",
        "requestParameters": {
            "host": [
                "s3.us-west-2.amazonaws.com"
            ]
        },
        "responseElements": null,
        "additionalEventData": {
            "SignatureVersion": "SigV2",
            "AuthenticationMethod": "QueryString",
            "aclRequired": "Yes"
    },
        "requestID": "47B8E8D397DCE7A6",
        "eventID": "cdc4b7ed-e171-4cef-975a-ad829d4123e8",
        "eventType": "AwsApiCall",
        "recipientAccountId": "444455556666",
        "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }      
    },
    {
       "eventVersion": "1.03",
       "userIdentity": {
            "type": "IAMUser",
            "principalId": "111122223333",
            "arn": "arn:aws:iam::111122223333:user/myUserName",
            "accountId": "111122223333",
            "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
            "userName": "myUserName"
        },
      "eventTime": "2019-02-01T03:22:33Z",
      "eventSource": "s3.amazonaws.com",
      "eventName": "PutBucketAcl",
      "awsRegion": "us-west-2",
      "sourceIPAddress": "",
      "userAgent": "[]",
      "requestParameters": {
          "bucketName": "",
          "AccessControlPolicy": {
              "AccessControlList": {
                  "Grant": {
                      "Grantee": {
                          "xsi:type": "CanonicalUser",
                          "xmlns:xsi": "http://www.w3.org/2001/XMLSchema-instance",
                          "ID": "d25639fbe9c19cd30a4c0f43fbf00e2d3f96400a9aa8dabfbbebe1906Example"
                       },
                      "Permission": "FULL_CONTROL"
                   }
              },
              "xmlns": "http://s3.amazonaws.com/doc/2006-03-01/",
              "Owner": {
                  "ID": "d25639fbe9c19cd30a4c0f43fbf00e2d3f96400a9aa8dabfbbebe1906Example"
              }
          },
          "host": [
              "s3.us-west-2.amazonaws.com"
          ],
          "acl": [
              ""
          ]
      },
      "responseElements": null,
      "additionalEventData": {
          "SignatureVersion": "SigV4",
          "CipherSuite": "ECDHE-RSA-AES128-SHA",
          "AuthenticationMethod": "AuthHeader"
      },
      "requestID": "BD8798EACDD16751",
      "eventID": "607b9532-1423-41c7-b048-ec2641693c47",
      "eventType": "AwsApiCall",
      "recipientAccountId": "111122223333",
      "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }              
    },
    {
      "eventVersion": "1.03",
      "userIdentity": {
          "type": "IAMUser",
          "principalId": "111122223333",
          "arn": "arn:aws:iam::111122223333:user/myUserName",
          "accountId": "111122223333",
          "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
          "userName": "myUserName"
        },
      "eventTime": "2019-02-01T03:26:37Z",
      "eventSource": "s3.amazonaws.com",
      "eventName": "GetBucketVersioning",
      "awsRegion": "us-west-2",
      "sourceIPAddress": "",
      "userAgent": "[]",
      "requestParameters": {
          "host": [
              "s3.us-west-2.amazonaws.com"
          ],
          "bucketName": "amzn-s3-demo-bucket1",
          "versioning": [
              ""
          ]
      },
      "responseElements": null,
      "additionalEventData": {
          "SignatureVersion": "SigV4",
          "CipherSuite": "ECDHE-RSA-AES128-SHA",
          "AuthenticationMethod": "AuthHeader"
    },
      "requestID": "07D681279BD94AED",
      "eventID": "f2b287f3-0df1-4961-a2f4-c4bdfed47657",
      "eventType": "AwsApiCall",
      "recipientAccountId": "111122223333",
      "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }                 
    }
  ]
}
```

# Abilitazione della registrazione CloudTrail degli eventi per i bucket e gli oggetti S3
<a name="enable-cloudtrail-logging-for-s3"></a>

Puoi utilizzare gli eventi CloudTrail relativi ai dati per ottenere informazioni sulle richieste a livello di bucket e oggetto in Amazon S3. [Per abilitare gli eventi CloudTrail relativi ai dati per tutti i tuoi bucket o per un elenco di bucket specifici, devi creare un percorso manualmente in. CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-a-trail-using-the-console-first-time.html) 

**Nota**  
L'impostazione predefinita per CloudTrail è quella di trovare solo gli eventi di gestione. Assicurarsi che gli eventi di dati siano abilitati per l'account.
 Con un bucket S3 che genera un carico di lavoro elevato, è possibile generare migliaia di log in un breve lasso di tempo. Tieni presente per quanto tempo scegli di abilitare gli eventi CloudTrail relativi ai dati per un bucket occupato. 

 CloudTrail archivia i log degli eventi dei dati di Amazon S3 in un bucket S3 di tua scelta. Prendi in considerazione l'utilizzo di un bucket separato Account AWS per organizzare meglio gli eventi da più bucket di tua proprietà in un posto centrale per facilitare le interrogazioni e l'analisi. AWS Organizations ti aiuta a crearne uno Account AWS collegato all'account proprietario del bucket che stai monitorando. Per ulteriori informazioni, consulta [Cos'è AWS Organizations?](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_introduction.html) nella *Guida AWS Organizations per l'utente*.

Quando si registrano gli eventi relativi ai dati per un trail in CloudTrail, è possibile scegliere di utilizzare selettori di eventi avanzati o selettori di eventi di base per registrare gli eventi relativi ai dati per gli oggetti archiviati in bucket generici. Per registrare gli eventi di dati per gli oggetti memorizzati nei bucket della directory, è necessario utilizzare selettori di eventi avanzati. Per ulteriori informazioni, consulta [Logging with AWS CloudTrail for S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html) Express One Zone.

Quando crei un trail nella CloudTrail console utilizzando selettori di eventi avanzati, nella sezione Data events puoi scegliere **Registra tutti gli eventi per il **modello di selettore di log per registrare** tutti gli eventi** a livello di oggetto. Quando crei un trail nella CloudTrail console utilizzando selettori di eventi di base, nella sezione Data events puoi selezionare la casella di controllo Seleziona tutti i **bucket S3 nel tuo account per registrare tutti gli eventi a** livello di oggetto. 

**Nota**  
È una best practice la creazione di una configurazione del ciclo di vita per il bucket degli eventi di dati AWS CloudTrail . Definisci la configurazione del ciclo di vita in modo tale da rimuovere periodicamente i file di log al termine del periodo di tempo desiderato per l'audit. In questo modo, si riduce la quantità di dati analizzati da Athena per ogni query. Per ulteriori informazioni, consulta [Impostazione di una configurazione del ciclo di vita S3 in un bucket](how-to-set-lifecycle-configuration-intro.md).
Per ulteriori informazioni sul formato della registrazione, consulta [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md).
Per esempi su come interrogare CloudTrail i log, consulta il post *sul blog AWS Big Data* [Analyze Security, Compliance, and Operational Activity Using AWS CloudTrail and Amazon Athena](https://aws.amazon.com/blogs/big-data/aws-cloudtrail-and-amazon-athena-dive-deep-to-analyze-security-compliance-and-operational-activity/). 

## Abilitazione della registrazione per gli oggetti in un bucket utilizzando la console
<a name="enable-cloudtrail-events"></a>

Puoi utilizzare la AWS CloudTrail console per configurare un CloudTrail trail per registrare gli eventi relativi ai dati per gli oggetti in un bucket S3. CloudTrail supporta la registrazione di operazioni API a livello di oggetto Amazon S3 come`GetObject`, e. `DeleteObject` `PutObject` Questi eventi vengono chiamati *eventi di dati*. 

Per impostazione predefinita, i CloudTrail trail non registrano gli eventi relativi ai dati, ma puoi configurare i trail per registrare gli eventi di dati per i bucket S3 da te specificati o per registrare gli eventi di dati per tutti i bucket Amazon S3 presenti nel tuo. Account AWS Per ulteriori informazioni, consulta [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md). 

CloudTrail non inserisce gli eventi relativi ai dati nella cronologia degli eventi. CloudTrail Inoltre, non tutte le azioni a livello di bucket sono inserite nella cronologia degli eventi. CloudTrail Per ulteriori informazioni sulle azioni API a livello di bucket Amazon S3 tracciate mediante registrazione, consulta. CloudTrail [Azioni a livello di bucket di Amazon S3 tracciate mediante registrazione CloudTrail](cloudtrail-logging-s3-info.md#cloudtrail-bucket-level-tracking) Per ulteriori informazioni su come interrogare CloudTrail i log, consulta l'articolo del AWS Knowledge Center sull'[uso dei modelli di filtro di Amazon CloudWatch Logs e di Amazon Athena](https://aws.amazon.com/premiumsupport/knowledge-center/find-cloudtrail-object-level-events/) per interrogare i log. CloudTrail 

**Nota**  
Se stai registrando l'attività dei dati con AWS CloudTrail, il record di evento per un evento di dati di Amazon `DeleteObjects` S3 include sia `DeleteObjects` l'evento che `DeleteObject` un evento per ogni oggetto eliminato come parte di tale operazione. È possibile escludere la visibilità aggiuntiva sugli oggetti eliminati dal record dell’evento. Per ulteriori informazioni, consulta [Esempi della AWS CLI per filtrare eventi di dati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) nella *Guida per l’utente dell’AWS CloudTrail *.

*Per abilitare la registrazione degli eventi CloudTrail relativi ai dati per gli oggetti in un bucket generico S3 o in un bucket di directory S3, consulta [Creating a trail with](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-a-trail-using-the-console-first-time) the console nella Guida per l'utente. CloudTrail AWS CloudTrail *

Per ulteriori informazioni sulla registrazione dei log di un oggetto in un bucket di directory S3, consulta [Registrazione con i AWS CloudTrail bucket di directory](s3-express-one-zone-logging.md).

*Per informazioni sull'utilizzo della CloudTrail console per configurare un trail per registrare gli eventi relativi ai dati S3, consulta [Logging](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html) data events nella Guida per l'utente.AWS CloudTrail * 

*Per disabilitare la registrazione degli eventi CloudTrail relativi ai dati per gli oggetti in un bucket S3, consulta [Eliminare un trail con la console nella Guida per l' CloudTrail ](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-delete-trails-console.html)utente.AWS CloudTrail * 

**Importante**  
Per gli eventi di dati sono previsti costi aggiuntivi. Per ulteriori informazioni, consultare [Prezzi di AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/). 

Per ulteriori informazioni sulla CloudTrail registrazione con i bucket S3, consulta i seguenti argomenti:
+ [Creazione di un bucket per uso generico](create-bucket-overview.md)
+ [Visualizzazione delle proprietà di un bucket per uso generico S3](view-bucket-properties.md)
+ [Registrazione delle chiamate API Amazon S3 tramite AWS CloudTrail](cloudtrail-logging.md)
+ [Utilizzo dei file di CloudTrail registro](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-working-with-log-files.html) *nella Guida per l'utente AWS CloudTrail *

# Identificazione delle richieste Amazon S3 tramite CloudTrail
<a name="cloudtrail-request-identification"></a>

In Amazon S3, puoi identificare le richieste utilizzando un registro AWS CloudTrail eventi. AWS CloudTrail è il metodo preferito per identificare le richieste Amazon S3, ma se utilizzi i log di accesso al server Amazon S3, consulta. [Utilizzo dei log degli accessi al server Amazon S3 per identificare le richieste](using-s3-access-logs-to-identify-requests.md)

**Topics**
+ [

## Identificazione delle richieste effettuate ad Amazon S3 in un registro CloudTrail
](#identify-S3-requests-using-in-CTlog)
+ [

## Identificazione delle richieste Amazon S3 Signature versione 2 mediante CloudTrail
](#cloudtrail-identification-sigv2-requests)
+ [

## Identificazione dell'accesso agli oggetti S3 utilizzando CloudTrail
](#cloudtrail-identification-object-access)

## Identificazione delle richieste effettuate ad Amazon S3 in un registro CloudTrail
<a name="identify-S3-requests-using-in-CTlog"></a>

Dopo aver configurato l' CloudTrail invio di eventi a un bucket, dovresti iniziare a vedere gli oggetti andare al bucket di destinazione sulla console Amazon S3. Questi sono formattati come riportato di seguito: 

`s3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/Region/yyyy/mm/dd` 

Gli eventi registrati da CloudTrail vengono archiviati come oggetti gzipped JSON compressi nel bucket S3. Per trovare in modo efficiente le richieste, è necessario utilizzare un servizio come Amazon Athena per indicizzare e interrogare i CloudTrail log. 

*Per ulteriori informazioni su CloudTrail e Athena, consulta [Creazione della tabella per i AWS CloudTrail log in Athena utilizzando la proiezione delle partizioni nella Amazon Athena User Guide](https://docs.aws.amazon.com/athena/latest/ug/cloudtrail-logs.html#create-cloudtrail-table-partition-projection).*

## Identificazione delle richieste Amazon S3 Signature versione 2 mediante CloudTrail
<a name="cloudtrail-identification-sigv2-requests"></a>

Puoi utilizzare un registro CloudTrail eventi per identificare quale versione di firma API è stata utilizzata per firmare una richiesta in Amazon S3. Questa possibilità è importante perché il supporto di Signature Version 2 sta per essere disattivato perché obsoleto. Dopo, Amazon S3 non accetterà più le richieste che usano Signature Version 2 e tutte le richieste dovranno usare la firma *Signature Version 4*. 

Ti consigliamo *vivamente* di CloudTrail utilizzarlo per determinare se alcuni dei tuoi flussi di lavoro utilizzano la firma Signature versione 2. Nel caso, correggili aggiornando le librerie e il codice in modo che utilizzino invece Signature Version 4 per evitare qualsiasi impatto sul business. 

Per ulteriori informazioni, consulta [Annuncio: AWS CloudTrail per Amazon S3 aggiunge nuovi campi per un controllo di sicurezza avanzato](https://forums.aws.amazon.com/ann.jspa?annID=6551). AWS re:Post

**Nota**  
CloudTrail gli eventi per Amazon S3 includono la versione della firma nei dettagli della richiesta con il nome chiave di '. `additionalEventData` Per trovare la versione della firma sulle richieste effettuate per oggetti in Amazon S3 come`GET`, e sulle `DELETE` richieste`PUT`, devi abilitare gli eventi relativi ai CloudTrail dati. (Questa funzionalità è disattivata per impostazione predefinita).

AWS CloudTrail è il metodo preferito per identificare le richieste Signature Version 2. Se utilizzi i log degli accessi del server Amazon S3, consulta [Identificazione delle richieste di Signature versione 2 tramite i log degli accessi ad Amazon S3](using-s3-access-logs-to-identify-requests.md#using-s3-access-logs-to-identify-sigv2-requests).

**Topics**
+ [

### Esempi di query Athena per l'identificazione di richieste Amazon S3 Signature versione 2
](#ct-examples-identify-sigv2-requests)
+ [

### Partizionamento dei dati di Signature versione 2
](#partitioning-sigv2-data)

### Esempi di query Athena per l'identificazione di richieste Amazon S3 Signature versione 2
<a name="ct-examples-identify-sigv2-requests"></a>

**Example : seleziona tutti gli eventi Signature Version 2 e stampa solo `EventTime`, `S3_Action`, `Request_Parameters`, `Region`, `SourceIP` e `UserAgent`**  
Nella query Athena seguente sostituisci *`s3_cloudtrail_events_db.cloudtrail_table`* con i dettagli Athena e aumenta o rimuovi il limite in base alle necessità.   

```
SELECT EventTime, EventName as S3_Action, requestParameters as Request_Parameters, awsregion as AWS_Region, sourceipaddress as Source_IP, useragent as User_Agent
FROM s3_cloudtrail_events_db.cloudtrail_table
WHERE eventsource='s3.amazonaws.com'
AND json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
LIMIT 10;
```

**Example - Selezionare tutti i richiedenti che inviano traffico di tipo Signature versione 2**  
   

```
SELECT useridentity.arn, Count(requestid) as RequestCount
FROM s3_cloudtrail_events_db.cloudtrail_table
WHERE eventsource='s3.amazonaws.com'
    and json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
Group by useridentity.arn
```

### Partizionamento dei dati di Signature versione 2
<a name="partitioning-sigv2-data"></a>

Se è necessario eseguire query su una grande quantità di dati, è possibile ridurre i costi e i tempi di esecuzione di Athena creando una tabella partizionata. 

Per farlo, creare una nuova tabella con partizioni nel modo seguente.

```
   CREATE EXTERNAL TABLE s3_cloudtrail_events_db.cloudtrail_table_partitioned(
        eventversion STRING,
        userIdentity STRUCT<
            type:STRING,
            principalid:STRING,
            arn:STRING,
            accountid:STRING,
            invokedby:STRING,
            accesskeyid:STRING,
            userName:STRING,
         sessioncontext:STRUCT<
                    attributes:STRUCT< 
                    mfaauthenticated:STRING,
                    creationdate:STRING>,
                    sessionIssuer:STRUCT<
                    type:STRING,
                    principalId:STRING,
                    arn:STRING,
                    accountId:STRING,
                    userName:STRING>
                >
             >,
        eventTime STRING,
        eventSource STRING,
        eventName STRING,
        awsRegion STRING,
        sourceIpAddress STRING,
        userAgent STRING,
        errorCode STRING,
        errorMessage STRING,
        requestParameters STRING,
        responseElements STRING,
        additionalEventData STRING,
        requestId STRING,
        eventId STRING,
        resources ARRAY<STRUCT<ARN:STRING,accountId: STRING,type:STRING>>, 
        eventType STRING,
        apiVersion STRING,
        readOnly STRING,
        recipientAccountId STRING,
        serviceEventDetails STRING,
        sharedEventID STRING,
        vpcEndpointId STRING
    )   
    PARTITIONED BY (region string, year string, month string, day string)
    ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.orc.OrcSerde' 
    STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
    OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
    LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/';
```

Quindi creare le partizioni individualmente. Non è possibile ottenere risultati da date che non sono state create. 

```
ALTER TABLE s3_cloudtrail_events_db.cloudtrail_table_partitioned ADD
    PARTITION (region= 'us-east-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-east-1/2019/02/19/'
    PARTITION (region= 'us-west-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-west-1/2019/02/19/'
    PARTITION (region= 'us-west-2', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-west-2/2019/02/19/'
    PARTITION (region= 'ap-southeast-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-southeast-1/2019/02/19/'
    PARTITION (region= 'ap-southeast-2', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-southeast-2/2019/02/19/'
    PARTITION (region= 'ap-northeast-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-northeast-1/2019/02/19/'
    PARTITION (region= 'eu-west-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/eu-west-1/2019/02/19/'
    PARTITION (region= 'sa-east-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/sa-east-1/2019/02/19/';
```

È quindi possibile effettuare la richiesta sulla base di queste partizioni e non è necessario caricare l'intero bucket. 

```
SELECT useridentity.arn,
Count(requestid) AS RequestCount
FROM s3_cloudtrail_events_db.cloudtrail_table_partitioned
WHERE eventsource='s3.amazonaws.com'
AND json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
AND region='us-east-1'
AND year='2019'
AND month='02'
AND day='19'
Group by useridentity.arn
```

## Identificazione dell'accesso agli oggetti S3 utilizzando CloudTrail
<a name="cloudtrail-identification-object-access"></a>

Puoi utilizzare i registri AWS CloudTrail degli eventi per identificare le richieste di accesso agli oggetti Amazon S3 per eventi ai dati `GetObject` come`DeleteObject`, `PutObject` e, e scoprire ulteriori informazioni su tali richieste.

**Nota**  
Se stai registrando l'attività dei dati con AWS CloudTrail, il record di evento per un evento di dati di Amazon `DeleteObjects` S3 include sia `DeleteObjects` l'evento che `DeleteObject` un evento per ogni oggetto eliminato come parte di tale operazione. È possibile escludere la visibilità aggiuntiva sugli oggetti eliminati dal record dell’evento. Per ulteriori informazioni, consulta [Esempi della AWS CLI per filtrare eventi di dati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) nella *Guida per l’utente dell’AWS CloudTrail *.

L'esempio seguente mostra come ottenere tutte le richieste di `PUT` oggetti per Amazon S3 da un registro AWS CloudTrail eventi. 

**Topics**
+ [

### Esempi di query Athena per l'identificazione di richieste di accesso agli oggetti Amazon S3
](#ct-examples-identify-object-access-requests)

### Esempi di query Athena per l'identificazione di richieste di accesso agli oggetti Amazon S3
<a name="ct-examples-identify-object-access-requests"></a>

Negli esempi di query Athena seguenti sostituisci *`s3_cloudtrail_events_db.cloudtrail_table`* con i dettagli Athena e modifica l'intervallo della data in base alle necessità. 

**Example : seleziona tutti gli eventi con richieste `PUT` di accesso agli oggetti e stampa solo `EventTime`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `object` e `UserARN`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  json_extract_scalar(requestParameters, '$.key') as object,
  userIdentity.arn as userArn
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  eventName = 'PutObject'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example : seleziona tutti gli eventi con richieste `GET` di accesso agli oggetti e stampa solo `EventTime`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `object` e `UserARN`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  json_extract_scalar(requestParameters, '$.key') as object,
  userIdentity.arn as userArn
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  eventName = 'GetObject'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example : seleziona tutti gli eventi anonimi del richiedente per un bucket in un determinato periodo e stampa solo `EventTime`, `EventName`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `UserARN` e `AccountID`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  userIdentity.arn as userArn,
  userIdentity.accountId
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  userIdentity.accountId = 'anonymous'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example : identifica tutte le richieste che richiedono una ACL per l'autorizzazione**  
 L'esempio di query Amazon Athena seguente mostra come identificare tutte le richieste relative ai bucket S3 che richiedono una lista di controllo degli accessi (ACL) per l'autorizzazione. Se la richiesta richiede una ACL per l'autorizzazione, il valore `aclRequired` in `additionalEventData` è `Yes`. Se non ACLs fosse richiesto, non `aclRequired` è presente. È possibile utilizzare queste informazioni per eseguire la migrazione delle autorizzazioni ACL alle policy di bucket appropriate. Dopo aver creato queste politiche sui bucket, puoi ACLs disabilitarle. Per ulteriori informazioni sulla disabilitazione ACLs, consulta. [Prerequisiti per la disabilitazione ACLs](object-ownership-migrating-acls-prerequisites.md)  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  userIdentity.arn as userArn,
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName,
  json_extract_scalar(requestParameters, '$.key') as object,
  json_extract_scalar(additionalEventData, '$.aclRequired') as aclRequired
FROM 
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  json_extract_scalar(additionalEventData, '$.aclRequired') = 'Yes'
  AND eventTime BETWEEN '2022-05-10T00:00:00Z' and '2022-08-10T00:00:00Z'
```

**Nota**  
Questi esempi di query possono essere utili anche per il monitoraggio della sicurezza. Puoi rivedere i risultati per le chiamate `PutObject` o `GetObject` da indirizzi IP o richiedenti imprevisti o non autorizzati e per l'identificazione di eventuali richieste anonime ai bucket.
 La query recupera solo le informazioni a partire dall'orario in cui è stata abilitata la registrazione. 

Se utilizzi i log di accesso al server Amazon S3, consulta [Identificazione delle richieste di accesso agli oggetti tramite i log degli accessi Amazon S3](using-s3-access-logs-to-identify-requests.md#using-s3-access-logs-to-identify-objects-access).

# Registrazione delle richieste con registrazione dell'accesso al server
<a name="ServerLogs"></a>

La registrazione degli accessi al server fornisce record dettagliati per le richieste che sono effettuate a un bucket. I log di accesso al server sono utili per numerose applicazioni. Ad esempio, le informazioni del log di accesso possono essere utili nei controlli di accesso e di sicurezza. Queste informazioni possono essere utili anche per comprendere la base clienti e la fattura Amazon S3.

**Nota**  
I log degli accessi al server non registrano le informazioni sugli errori di reindirizzamento a regioni sbagliate per le regioni lanciate dopo il 20 marzo 2019. Errori di reindirizzamento della regione errata si verificano quando una richiesta per un oggetto o un bucket viene effettuata al di fuori della regione in cui si trova il bucket. 

## Come si abilita il recapito dei log?
<a name="server-access-logging-overview"></a>

Per abilitare la distribuzione dei log, attenersi alla procedura di base riportata di seguito. Per informazioni dettagliate, vedi [Abilitazione della registrazione degli accessi al server Amazon S3](enable-server-access-logging.md).

1. **Fornisci il nome del bucket di destinazione** (noto anche come *bucket di destinazione*). Questo bucket è dove vuoi che Amazon S3 salvi i log di accesso come oggetti. Sia i bucket di origine che quelli di destinazione devono trovarsi nella stessa Regione AWS e devono appartenere allo stesso account. Il bucket di destinazione non deve avere una configurazione del periodo di conservazione predefinita di S3 Object Lock. Inoltre, nel bucket di destinazione l'opzione di pagamento a carico del cliente non deve essere abilitata.

   È possibile far recapitare i log a qualsiasi bucket di proprietà che si trovi nella stessa Regione del bucket di origine, compreso il bucket di origine stesso. Tuttavia, per una gestione più semplice dei log, si consiglia di salvare i log di accesso in un bucket diverso. 

   Quando il bucket di origine e il bucket di destinazione sono lo stesso bucket, vengono creati log aggiuntivi per i log che sono scritti nel bucket, il che crea un loop di log infinito. Ciò potrebbe non essere ideale perché potrebbe causare un piccolo incremento di fatturazione dello storage. Inoltre, i registri aggiuntivi relativi ai log potrebbero rendere difficile trovare il log che si sta cercando. 

   Se scegli di salvare i log degli accessi nel bucket di origine, è consigliabile specificare un prefisso di destinazione (noto anche come *prefisso target*) per tutte le chiavi degli oggetti del log. Quando specifichi un prefisso, tutti i nomi degli oggetti del log iniziano con una stringa comune, che semplifica l'identificazione degli oggetti del log. 

1. **(Facoltativo) Assegna un prefisso a tutte le chiavi degli oggetti del log Amazon S3.** Il prefisso di destinazione (noto anche come *prefisso target*) semplifica l'individuazione degli oggetti del log. Se, ad esempio, specifichi il valore di prefisso `logs/`, ogni chiave degli oggetti del log creato da Amazon S3 è preceduta dal prefisso `logs/`.

   ```
   logs/2013-11-01-21-32-16-E568B2907131C0C0
   ```

   Se specifichi il valore del prefisso `logs`, l'oggetto del log viene visualizzato come segue:

   ```
   logs2013-11-01-21-32-16-E568B2907131C0C0
   ```

   I [prefissi](https://docs.aws.amazon.com/general/latest/gr/glos-chap.html#keyprefix) sono utili anche per distinguere tra i bucket di origine quando più bucket si collegano allo stesso bucket di destinazione.

   Il prefisso può essere utile nell'eliminazione dei log. Ad esempio, è possibile impostare una regola di configurazione del ciclo di vita per Amazon S3 per eliminare gli oggetti con un prefisso specifico. Per ulteriori informazioni, consulta [Eliminazione dei file di log Amazon S3](deleting-log-files-lifecycle.md).

1. **(Facoltativo) Imposta autorizzazioni **che consentano ad altri utenti di accedere ai log generati.** Per default, solo il proprietario del bucket dispone di tutte le autorizzazioni per accedere agli oggetti del log. *Se il bucket di destinazione utilizza l'impostazione imposta dal proprietario del bucket per S3 Object Ownership per disabilitare gli elenchi di controllo degli accessi (ACLs), non puoi concedere le autorizzazioni nelle sovvenzioni di destinazione (note anche come sovvenzioni di destinazione) che utilizzi.* ACLs Tuttavia, puoi aggiornare la policy di bucket per il bucket di destinazione per concedere l'accesso ad altri utenti. Per ulteriori informazioni, consultare [Identity and Access Management per Amazon S3](security-iam.md) e [Autorizzazioni per la distribuzione dei registri](enable-server-access-logging.md#grant-log-delivery-permissions-general). 

1. **(Facoltativo) Imposta un formato della chiave dell'oggetto di log per i file di log.** Sono disponibili due opzioni per il formato della chiave dell'oggetto di log (noto anche come *formato chiave dell'oggetto target*): 
   + **Non-date-based partizionamento**: questo è il formato originale della chiave dell'oggetto di registro. Se scegli questo formato, il formato della chiave del file di log viene visualizzato come segue: 

     ```
     [DestinationPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
     ```

     Ad esempio, se specifichi `logs/` come prefisso, gli oggetti di log vengono denominati in questo modo: 

     ```
     logs/2013-11-01-21-32-16-E568B2907131C0C0
     ```
   + **Partizionamento basato sulla data**: se scegli il partizionamento basato sulla data, puoi scegliere l'ora dell'evento o l'ora di consegna per il file di log come origine della data utilizzata nel formato di log. Questo formato semplifica l'interrogazione dei log.

     Se scegli il partizionamento basato sulla data, il formato chiave del file di log viene visualizzato come segue: 

     ```
     [DestinationPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
     ```

     Ad esempio, se specifichi `logs/` come prefisso target, gli oggetti del log vengono denominati in questo modo:

     ```
     logs/123456789012/us-west-2/amzn-s3-demo-source-bucket/2023/03/01/2023-03-01-21-32-16-E568B2907131C0C0
     ```

     Per l'ora di consegna, l'ora indicato nei nomi dei file di log corrisponde all'ora di consegna dei file di log. 

     Per quanto riguarda l'ora di consegna degli eventi, l'anno, il mese e il giorno corrispondono al giorno in cui si è verificato l'evento e l'ora, i minuti e i secondi sono impostati su `00` nella chiave. I log forniti in questi file di log riguardano solo un giorno specifico. 

   

   Se configuri i log tramite AWS Command Line Interface (AWS CLI) o l'API REST di Amazon S3 AWS SDKs, `TargetObjectKeyFormat` usali per specificare il formato della chiave dell'oggetto di registro. Per specificare il non-date-based partizionamento, usa. `SimplePrefix` Per specificare un partizionamento basato sulla data, utilizza `PartitionedPrefix`. Se si utilizza `PartitionedPrefix`, utilizza `PartitionDateSource` per specificare `EventTime` o `DeliveryTime`.

   Infatti `SimplePrefix`, il formato della chiave del file di log è il seguente:

   ```
   [TargetPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
   ```

   Per `PartitionedPrefix` con l'ora dell'evento o l'ora di consegna, il formato della chiave del file di log viene visualizzato come segue:

   ```
   [TargetPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
   ```

## Formato della chiave dell'oggetto di log
<a name="server-log-keyname-format"></a>

Amazon S3 utilizza i formati della chiave dell'oggetto seguenti per gli oggetti di log che carica nel bucket di destinazione:
+ **Non-date-based partizionamento**: questo è il formato originale della chiave dell'oggetto di registro. Se scegli questo formato, il formato della chiave del file di log viene visualizzato come segue: 

  ```
  [DestinationPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
  ```
+ **Partizionamento basato sulla data**: se scegli il partizionamento basato sulla data, puoi scegliere l'ora dell'evento o l'ora di consegna per il file di log come origine della data utilizzata nel formato di log. Questo formato semplifica l'interrogazione dei log.

  Se scegli il partizionamento basato sulla data, il formato chiave del file di log viene visualizzato come segue: 

  ```
  [DestinationPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
  ```

Nella chiave dell'oggetto di log, `YYYY`, `MM`, `DD`, `hh`, `mm` e `ss` indicano rispettivamente anno, mese, giorno, ora, minuti e secondi in cui è stato distribuito il file di log. Date e ore sono in formato UTC. 

Un file di log distribuito in un orario specifico può contenere report scritti in un momento qualsiasi prima di quell'orario. Non esiste modo di sapere se tutti i report del log per un determinato intervallo di tempo sono stati distribuiti o meno. 

Il componente `UniqueString` della chiave serve a impedire che i file vengano sovrascritti. Non ha alcun significato e il software di elaborazione dei log dovrebbe ignorarlo. 

## Come vengono distribuiti i log?
<a name="how-logs-delivered"></a>

Amazon S3 raccoglie periodicamente i record dei log degli accessi, li consolida in file di log e quindi carica i file di log nel bucket di destinazione come oggetti log. Se abiliti la registrazione di log in più bucket di origine che identificano lo stesso bucket di destinazione, nel bucket di destinazione saranno presenti i log degli accessi per tutti i bucket di origine. Ogni oggetto del log, tuttavia, fornisce i report del log di accesso per uno specifico bucket di origine. 

Amazon S3 utilizza uno speciale account di recapito di log per scrivere i log degli accessi nel server. Queste scritture sono soggette alle normali restrizioni del controllo accessi. Si consiglia di aggiornare la policy del bucket nel bucket di destinazione per concedere l'accesso al principale del servizio di registrazione di log (`logging.s3.amazonaws.com`) per la consegna di log degli accessi. Puoi anche concedere l'accesso per la consegna di log degli accessi al gruppo di consegna di log S3 tramite la lista di controllo degli accessi (ACL) del bucket. Tuttavia, non è consigliabile concedere l'accesso al gruppo di consegna di log S3 tramite le ACL del bucket. 

Quando abiliti la registrazione degli accessi al server e si concede l'accesso per la consegna di log di accesso tramite la policy del bucket di destinazione, devi aggiornare la policy per consentire l'accesso `s3:PutObject` al principale del servizio di registrazione dei log. Se utilizzi la console di Amazon S3 per abilitare la registrazione dei log degli accessi al server, la console aggiorna automaticamente la policy del bucket di destinazione per concedere tali autorizzazioni al principale del servizio di registrazione di log. Per ulteriori informazioni sulla concessione di autorizzazioni per il recapito del registro degli accessi al server, consulta [Autorizzazioni per la distribuzione dei registri](enable-server-access-logging.md#grant-log-delivery-permissions-general). 

**Nota**  
S3 non supporta l'invio di CloudTrail log o log di accesso al server al richiedente o al proprietario del bucket per le richieste degli endpoint VPC quando la policy dell'endpoint VPC le nega o per le richieste che falliscono prima che la policy VPC venga valutata.

**Impostazione proprietario del bucket applicato per S3 Object Ownership**  
Se il bucket di destinazione utilizza l'impostazione forzata del proprietario del bucket per la proprietà degli oggetti, sono disabilitati e non influiscono più sulle autorizzazioni. ACLs È necessario aggiornare la policy del bucket nel bucket di destinazione per concedere l'accesso al principale del servizio di registrazione di log. Per ulteriori informazioni su Object Ownership, consulta [Concedere l'accesso al gruppo di consegna di log S3 per la registrazione di log degli accessi al server](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs).

## Consegna di log del server sulla base del miglior tentativo
<a name="LogDeliveryBestEffort"></a>

I record dei log degli accessi al server vengono distribuiti sulla base del miglior tentativo. La maggior parte delle richieste di un bucket correttamente configurato per la registrazione determinano la consegna di un report del log. La maggior parte dei record vengono distribuiti entro qualche ora dal momento della creazione, ma possono essere distribuiti come maggiore frequenza. 

La completezza e la tempestività della registrazione del server non è tuttavia garantita. È possibile che il record del log per una richiesta specifica venga consegnato molto tempo dopo l'elaborazione effettiva della richiesta o *non venga consegnato affatto*. Potresti persino notare la duplicazione di un record di log. Lo scopo dei log del server è fornire un'idea della natura del traffico nel bucket. Sebbene sia raro perdere i record di log o vedere la duplicazione di un record di log, tieni presente che la registrazione di log del server non intende essere un resoconto completo di tutte le richieste.

Data la natura basata sul miglior tentativo possibile della registrazione di log del server, i report di utilizzo potrebbero includere una o più richieste di accesso che non appaiono in un log del server consegnato. Puoi trovare questi report di utilizzo in **Report costi e utilizzo** nella console Gestione dei costi e fatturazione AWS .

## Tempo richiesto per l'applicazione delle modifiche dello stato di registrazione del bucket
<a name="BucketLoggingStatusChanges"></a>

L'applicazione effettiva delle modifiche dello stato di registrazione di un bucket sulla distribuzione dei file di log richiede tempo. Ad esempio, se abiliti la registrazione per un bucket, è possibile che nell'ora successiva alcune richieste vengano registrate nel log e altre no. Supponi di cambiare il bucket di destinazione per la registrazione di log dal bucket A al bucket B. Nell'ora successiva, alcuni log potrebbero continuare a essere distribuiti nel bucket A, mentre potrebbero essere consegnati nel nuovo bucket di destinazione, B. In tutti i casi, le nuove impostazioni diventano effettive senza bisogno di ulteriori azioni da parte dell'utente. 

Per ulteriori informazioni su registrazione e file di log, consulta le seguenti sezioni:

**Topics**
+ [

## Come si abilita il recapito dei log?
](#server-access-logging-overview)
+ [

## Formato della chiave dell'oggetto di log
](#server-log-keyname-format)
+ [

## Come vengono distribuiti i log?
](#how-logs-delivered)
+ [

## Consegna di log del server sulla base del miglior tentativo
](#LogDeliveryBestEffort)
+ [

## Tempo richiesto per l'applicazione delle modifiche dello stato di registrazione del bucket
](#BucketLoggingStatusChanges)
+ [

# Abilitazione della registrazione degli accessi al server Amazon S3
](enable-server-access-logging.md)
+ [

# Formato del log di accesso al server Amazon S3
](LogFormat.md)
+ [

# Eliminazione dei file di log Amazon S3
](deleting-log-files-lifecycle.md)
+ [

# Utilizzo dei log degli accessi al server Amazon S3 per identificare le richieste
](using-s3-access-logs-to-identify-requests.md)
+ [

# Risoluzione dei problemi di registrazione degli accessi al server
](troubleshooting-server-access-logging.md)

# Abilitazione della registrazione degli accessi al server Amazon S3
<a name="enable-server-access-logging"></a>

La registrazione degli accessi al server fornisce record dettagliati per le richieste che sono effettuate a un bucket Amazon S3. I log di accesso al server sono utili per numerose applicazioni. Ad esempio, le informazioni del log di accesso possono essere utili nei controlli di accesso e di sicurezza. Queste informazioni possono essere utili anche per comprendere la base clienti e la fattura Amazon S3.

Per impostazione predefinita, Amazon S3 non raccoglie i log di accesso al server. Quando abiliti la registrazione di log, Amazon S3 fornisce i log degli accessi per un bucket di origine a un bucket di destinazione scelto (noto anche come *bucket target*). Il bucket di destinazione deve trovarsi nello stesso bucket Regione AWS di Account AWS origine. 

Un record di log degli accessi contiene informazioni dettagliate sulle richieste effettuate a un bucket, tra cui il tipo di richiesta, le risorse specificate nella richiesta, nonché l'ora e la data di elaborazione della richiesta. Per ulteriori informazioni sui principi di base della registrazione, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md). 

**Importante**  
L'abilitazione della registrazione degli accessi al server per un bucket Amazon S3 non prevede addebiti aggiuntivi. Tuttavia, i file di log distribuiti dal sistema accumulano i consueti addebiti per lo storage. È possibile eliminare i file di log in qualsiasi momento. Il costo di trasferimento dei dati per la consegna dei file di log non viene valutato, ma viene addebitata la normale tariffa di trasferimento dei dati per l'accesso ai file di log.
Il bucket di destinazione non deve avere la registrazione di log degli accessi al server abilitata. I registri possono essere distribuiti a tutti i bucket di cui si è proprietari che si trovano nella stessa regione del bucket di origine, incluso il bucket di origine stesso. Tuttavia, la distribuzione dei log nel bucket di origine causa un ciclo infinito di log e non è consigliata. Tuttavia, per una gestione più semplice dei log, si consiglia di salvare i log di accesso in un bucket diverso. Per ulteriori informazioni, consulta [Come si abilita il recapito dei log?](ServerLogs.md#server-access-logging-overview)
I bucket S3 con S3 Object Lock abilitato non possono essere utilizzati come bucket di destinazione per i log degli accessi al server. Il bucket di destinazione non deve avere una configurazione del periodo di conservazione predefinita.
Il bucket di destinazione non deve avere l'opzione di pagamento a carico del cliente abilitata.

Puoi abilitare o disabilitare la registrazione degli accessi al server utilizzando la console Amazon S3, l'API Amazon S3, AWS Command Line Interface il AWS CLI() o. AWS SDKs 

## Autorizzazioni per la distribuzione dei registri
<a name="grant-log-delivery-permissions-general"></a>

Amazon S3 utilizza uno speciale account di recapito dei registri per scrivere i registri degli accessi nel server. Queste scritture sono soggette alle normali restrizioni del controllo accessi. Per la consegna di log degli accessi, è necessario concedere al principale (`logging.s3.amazonaws.com`) del servizio di registrazione di log l'accesso al bucket di destinazione.

Per concedere le autorizzazioni ad Amazon S3 per la consegna dei log, puoi utilizzare una policy sui bucket o una lista di controllo dell'accesso ai bucket ACLs (), a seconda delle impostazioni S3 Object Ownership del bucket di destinazione. Tuttavia, ti consigliamo di utilizzare una bucket policy invece di. ACLs 

**Impostazione proprietario del bucket applicato per S3 Object Ownership**  
Se il bucket di destinazione utilizza l'impostazione forzata del proprietario del bucket per la proprietà degli oggetti, ACLs sono disabilitati e non influiscono più sulle autorizzazioni. In questo caso, è necessario aggiornare la policy del bucket nel bucket di destinazione per concedere l'accesso al principale del servizio di registrazione di log. Non è possibile aggiornare l'ACL del bucket per concedere l'accesso al gruppo di consegna di log S3. Inoltre, non puoi includere concessioni di destinazione (note anche come *concessioni target*) nella configurazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html). 

Per informazioni sulla migrazione del bucket esistente per la consegna dei log di accesso a ACLs una policy di bucket, consulta. [Concedere l'accesso al gruppo di consegna di log S3 per la registrazione di log degli accessi al server](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs) Per ulteriori informazioni su Object Ownership, consulta [Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md). Quando crei nuovi bucket, ACLs sono disabilitati per impostazione predefinita.

**Concessione dell'accesso utilizzando una policy del bucket**  
Per concedere l'accesso utilizzando la policy del bucket nel bucket di destinazione, aggiorna la policy del bucket per concedere l'autorizzazione `s3:PutObject` al principale del servizio di registrazione di log. Se utilizzi la console di Amazon S3 per abilitare la registrazione di log degli accessi al server, la console aggiorna automaticamente la policy nel bucket di destinazione per concedere tali autorizzazioni al principale del servizio di registrazione di log. Se abiliti la registrazione di log degli accessi al server a livello di programmazione, puoi aggiornare manualmente la policy del bucket per il bucket di destinazione per concedere l'accesso al principale del servizio di registrazione di log. 

Per un esempio di policy del bucket che concede l'accesso al principale del servizio di registrazione di log, consulta [Concedi le autorizzazioni al principale del servizio di registrazione di log utilizzando una policy del bucket](#grant-log-delivery-permissions-bucket-policy).

**Concessione dell'accesso tramite bucket ACLs**  
In alternativa, puoi utilizzare il bucket ACLs per concedere l'accesso per la consegna dei log di accesso. Aggiungi una voce apposita nell'ACL di bucket che conceda autorizzazioni `WRITE` e `READ_ACP` al gruppo di distribuzione di registri S3. Tuttavia, non è consigliabile concedere l'accesso al gruppo di consegna dei log S3 utilizzando il ACLs bucket. Per ulteriori informazioni, consulta [Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md). Per informazioni sulla migrazione del bucket esistente ACLs per la consegna dei log di accesso a una policy bucket, consulta. [Concedere l'accesso al gruppo di consegna di log S3 per la registrazione di log degli accessi al server](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs) Per un esempio di ACL che concede l'accesso al principale del servizio di registrazione di log, consulta [Concedere autorizzazioni al gruppo di distribuzione dei log utilizzando l'ACL bucket](#grant-log-delivery-permissions-acl).

### Concedi le autorizzazioni al principale del servizio di registrazione di log utilizzando una policy del bucket
<a name="grant-log-delivery-permissions-bucket-policy"></a>

Questo esempio di policy del bucket concede autorizzazioni `s3:PutObject` al principale del servizio di registrazione di log (`logging.s3.amazonaws.com`). Per utilizzare questa policy del bucket, sostituisci `user input placeholders` con le tue informazioni. Nella seguente politica, `amzn-s3-demo-destination-bucket` è il bucket di destinazione in cui verranno consegnati i log di accesso al server ed `amzn-s3-demo-source-bucket` è il bucket di origine. `EXAMPLE-LOGGING-PREFIX`è il prefisso di destinazione opzionale (noto anche come *prefisso di destinazione*) che si desidera utilizzare per gli oggetti di registro. `SOURCE-ACCOUNT-ID`è il proprietario del Account AWS bucket di origine. 

**Nota**  
Se nella policy del bucket sono presenti istruzioni `Deny`, assicurati che non impediscano ad Amazon S3 di distribuire i log di accesso.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "S3ServerAccessLogsPolicy",
            "Effect": "Allow",
            "Principal": {
                "Service": "logging.s3.amazonaws.com"
            },
            "Action": [
                "s3:PutObject"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/EXAMPLE-LOGGING-PREFIX*",
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-source-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "SOURCE-ACCOUNT-ID"
                }
            }
        }
    ]
}
```

------

### Concedere autorizzazioni al gruppo di distribuzione dei log utilizzando l'ACL bucket
<a name="grant-log-delivery-permissions-acl"></a>

**Nota**  
Come best practice di sicurezza, Amazon S3 disabilita per impostazione predefinita le liste di controllo degli accessi (ACLs) in tutti i nuovi bucket. Per ulteriori informazioni sulle autorizzazioni ACL nella console di Amazon S3, consulta [Configurazione ACLs](managing-acls.md). 

Sebbene questo approccio non sia consigliato, puoi concedere le autorizzazioni al gruppo di consegna di log utilizzando una ACL di bucket. Tuttavia, se il bucket di destinazione utilizza l'impostazione imposta dal proprietario del bucket per Object Ownership, non puoi impostare bucket o oggetto. ACLs Inoltre, non puoi includere concessioni di destinazione (note anche come *concessioni target*) nella configurazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html). Invece, utilizza una policy del bucket per concedere l'accesso al principale del servizio di registrazione (`logging.s3.amazonaws.com`). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general).

Nelle liste di controllo degli accessi del bucket, il gruppo di consegna di log è rappresentato dall'URL seguente.

```
1. http://acs.amazonaws.com/groups/s3/LogDelivery
```

Per concedere le autorizzazioni `WRITE` e `READ_ACP` (lettura ACL), aggiungi le seguenti concessioni all'ACL di bucket di destinazione:

```
 1. <Grant>
 2.     <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:type="Group">
 3.         <URI>http://acs.amazonaws.com/groups/s3/LogDelivery</URI> 
 4.     </Grantee>
 5.     <Permission>WRITE</Permission>
 6. </Grant>
 7. <Grant>
 8.     <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:type="Group">
 9.         <URI>http://acs.amazonaws.com/groups/s3/LogDelivery</URI> 
10.     </Grantee>
11.     <Permission>READ_ACP</Permission>
12. </Grant>
```

Per esempi sull'aggiunta a livello di programmazione di concessioni ACL, consulta la sezione [Configurazione ACLs](managing-acls.md).

**Importante**  
Quando abiliti la registrazione degli accessi al server Amazon S3 utilizzando AWS CloudFormation su un bucket e la utilizzi ACLs per concedere l'accesso al gruppo di consegna dei log S3, devi anche aggiungere "al tuo modello. `AccessControl": "LogDeliveryWrite"` CloudFormation Questa operazione è importante perché puoi concedere tali autorizzazioni solo creando un ACL per il bucket, ma non puoi creare bucket personalizzati per i bucket in cui sono inseriti. ACLs CloudFormation Puoi usare solo in scatola con. ACLs CloudFormation

## Come abilitare la registrazione degli accessi al server
<a name="enable-server-logging"></a>

Per abilitare la registrazione degli accessi al server utilizzando la console Amazon S3, l'API REST di Amazon S3 AWS CLI e AWS SDKs, utilizza le seguenti procedure.

### Utilizzo della console S3
<a name="server-access-logging"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket per il quale desideri abilitare la registrazione dei log degli accessi al server.

1. Scegliere **Properties (Proprietà)**.

1. Nella sezione **Server access logging (Registrazione degli accessi al server)** scegliere **Edit (Modifica)**.

1. In **Registrazione degli accessi al server**, seleziona **Abilita**. 

1. In **Bucket di destinazione**, specifica un bucket e un prefisso opzionale. Se specifichi un prefisso, ti consigliamo di includere una barra in avanti (`/`) dopo il prefisso per facilitare la ricerca dei log. 
**Nota**  
L'indicazione di un prefisso con una barra (`/`) semplifica l'individuazione degli oggetti del log. Se, ad esempio, specifichi il valore di prefisso `logs/`, la chiave di ogni oggetto del log creato da Amazon S3 è preceduta dal prefisso `logs/`, come segue:  

   ```
   logs/2013-11-01-21-32-16-E568B2907131C0C0
   ```
Se specifichi il valore del prefisso `logs`, l'oggetto del log viene visualizzato come segue:  

   ```
   logs2013-11-01-21-32-16-E568B2907131C0C0
   ```

1. In **Formato della chiave dell'oggetto di log**, esegui una delle seguenti operazioni:
   + Per scegliere il non-date-based partizionamento, scegli **[DestinationPrefix] [YYYY] - [MM] - [DD] - [hh] - [mm] - [ss] - [**]. UniqueString
   + Per scegliere il partizionamento basato sulla data, scegli **[DestinationPrefix] [SourceAccountId]/[SourceRegionSourceBucket]/[YYYY]/[MM]/[DD]/[YYYY] - [MM] - [DD] - [hh] - [mm] - [ss] - [UniqueString]**, quindi scegli **S3 event time** o **Log file delivery time**.

1. Scegli **Save changes** (Salva modifiche).

   Quando abiliti la registrazione di log degli accessi al server in un bucket, la console abilita la registrazione nel bucket di origine e aggiorna la policy del bucket per il bucket di destinazione in modo da concedere autorizzazioni `s3:PutObject` al principale del servizio di registrazione di log (`logging.s3.amazonaws.com`). Per ulteriori informazioni su questa policy del bucket, consulta [Concedi le autorizzazioni al principale del servizio di registrazione di log utilizzando una policy del bucket](#grant-log-delivery-permissions-bucket-policy).

   Puoi visualizzare i log nel bucket di destinazione. Dopo aver abilitato la registrazione degli accessi al server, potrebbero essere necessarie ore prima che i log vengano consegnati al bucket di destinazione. Per ulteriori informazioni su come e quando vengono distribuiti i log, consultare [Come vengono distribuiti i log?](ServerLogs.md#how-logs-delivered).

Per ulteriori informazioni, consulta [Visualizzazione delle proprietà di un bucket per uso generico S3](view-bucket-properties.md).

### Utilizzo della REST API
<a name="enable-logging-rest"></a>

Per abilitare i log, devi inviare una richiesta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html) per aggiungere la configurazione della registrazione di log nel bucket di origine. La richiesta specifica il bucket di destinazione (noto anche come *bucket target*) e, facoltativamente, il prefisso da utilizzare con tutte le chiavi degli oggetti del log. 

L'esempio seguente identifica `amzn-s3-demo-destination-bucket` come bucket di destinazione e *`logs/`* come prefisso. 

```
1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
2.   <LoggingEnabled>
3.     <TargetBucket>amzn-s3-demo-destination-bucket</TargetBucket>
4.     <TargetPrefix>logs/</TargetPrefix>
5.   </LoggingEnabled>
6. </BucketLoggingStatus>
```

L'esempio seguente identifica `amzn-s3-demo-destination-bucket` come bucket di destinazione, *`logs/`* come prefisso e `EventTime` come il formato della chiave dell'oggetto di log. 

```
 1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
 2.   <LoggingEnabled>
 3.     <TargetBucket>amzn-s3-demo-destination-bucket</TargetBucket>
 4.     <TargetPrefix>logs/</TargetPrefix>
 5.     <TargetObjectKeyFormat>
 6.       <PartitionedPrefix>
 7.          <PartitionDateSource>EventTime</PartitionDateSource>
 8.       </PartitionedPrefix>
 9.   </TargetObjectKeyFormat>
10.   </LoggingEnabled>
11. </BucketLoggingStatus>
```

Gli oggetti del registri vengono scritti dall'account di distribuzione di log S3 e sono di proprietà di tale account. Al proprietario del bucket vengono concesse autorizzazioni complete sugli oggetti del log. Puoi usare in modo opzionale le concessioni di destinazione (note anche come *concessioni target*) per concedere le autorizzazioni ad altri utenti in modo che possano accedere ai log. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html). 

**Nota**  
Se il bucket di destinazione utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto, non puoi utilizzare le concessioni di destinazione per assegnare autorizzazioni ad altri utenti. Per concedere autorizzazioni ad altri utenti, puoi aggiornare la policy del bucket nel bucket di destinazione. Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general). 

Per recuperare la configurazione di registrazione di log su un bucket, utilizza l'operazione API [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETlogging.html). 

Per eliminare la configurazione della registrazione di log, devi inviare una richiesta `PutBucketLogging`con un elemento `BucketLoggingStatus` vuoto: 

```
1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
2. </BucketLoggingStatus>
```

Per abilitare la registrazione su un bucket, puoi utilizzare l'API Amazon S3 o le librerie wrapper SDK AWS .

### Usando il AWS SDKs
<a name="enable-logging-sdk"></a>

Gli esempi seguenti abilitano la registrazione di log in un bucket. Devi creare due bucket, uno di origine e uno di destinazione (target). Gli esempi aggiornano prima l'ACL del bucket sul bucket di destinazione. Quindi concedono al gruppo di consegna di log le autorizzazioni necessarie per scrivere i log sul bucket di destinazione e poi abilitano la registrazione di log sul bucket di origine. 

Questi esempi non funzionano sui bucket di destinazione che utilizzano l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto.

Se il bucket di destinazione (destinazione) utilizza l'impostazione imposta dal proprietario del bucket per la proprietà dell'oggetto, non è possibile impostare il bucket o l'oggetto. ACLs Inoltre, non puoi includere le concessioni di destinazione (destinazione) nella tua configurazione. [PutBucketLogging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html) È necessario utilizzare una policy di bucket per concedere l'accesso al principale del servizio di registrazione (`logging.s3.amazonaws.com`). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general).

------
#### [ .NET ]

**SDK per .NET**  
 C'è di più su. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/dotnetv3/S3#code-examples). 

```
    using System;
    using System.IO;
    using System.Threading.Tasks;
    using Amazon.S3;
    using Amazon.S3.Model;
    using Microsoft.Extensions.Configuration;

    /// <summary>
    /// This example shows how to enable logging on an Amazon Simple Storage
    /// Service (Amazon S3) bucket. You need to have two Amazon S3 buckets for
    /// this example. The first is the bucket for which you wish to enable
    /// logging, and the second is the location where you want to store the
    /// logs.
    /// </summary>
    public class ServerAccessLogging
    {
        private static IConfiguration _configuration = null!;

        public static async Task Main()
        {
            LoadConfig();

            string bucketName = _configuration["BucketName"];
            string logBucketName = _configuration["LogBucketName"];
            string logObjectKeyPrefix = _configuration["LogObjectKeyPrefix"];
            string accountId = _configuration["AccountId"];

            // If the AWS Region defined for your default user is different
            // from the Region where your Amazon S3 bucket is located,
            // pass the Region name to the Amazon S3 client object's constructor.
            // For example: RegionEndpoint.USWest2 or RegionEndpoint.USEast2.
            IAmazonS3 client = new AmazonS3Client();

            try
            {
                // Update bucket policy for target bucket to allow delivery of logs to it.
                await SetBucketPolicyToAllowLogDelivery(
                    client,
                    bucketName,
                    logBucketName,
                    logObjectKeyPrefix,
                    accountId);

                // Enable logging on the source bucket.
                await EnableLoggingAsync(
                    client,
                    bucketName,
                    logBucketName,
                    logObjectKeyPrefix);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine($"Error: {e.Message}");
            }
        }

        /// <summary>
        /// This method grants appropriate permissions for logging to the
        /// Amazon S3 bucket where the logs will be stored.
        /// </summary>
        /// <param name="client">The initialized Amazon S3 client which will be used
        /// to apply the bucket policy.</param>
        /// <param name="sourceBucketName">The name of the source bucket.</param>
        /// <param name="logBucketName">The name of the bucket where logging
        /// information will be stored.</param>
        /// <param name="logPrefix">The logging prefix where the logs should be delivered.</param>
        /// <param name="accountId">The account id of the account where the source bucket exists.</param>
        /// <returns>Async task.</returns>
        public static async Task SetBucketPolicyToAllowLogDelivery(
            IAmazonS3 client,
            string sourceBucketName,
            string logBucketName,
            string logPrefix,
            string accountId)
        {
            var resourceArn = @"""arn:aws:s3:::" + logBucketName + "/" + logPrefix + @"*""";

            var newPolicy = @"{
                                ""Statement"":[{
                                ""Sid"": ""S3ServerAccessLogsPolicy"",
                                ""Effect"": ""Allow"",
                                ""Principal"": { ""Service"": ""logging.s3.amazonaws.com"" },
                                ""Action"": [""s3:PutObject""],
                                ""Resource"": [" + resourceArn + @"],
                                ""Condition"": {
                                ""ArnLike"": { ""aws:SourceArn"": ""arn:aws:s3:::" + sourceBucketName + @""" },
                                ""StringEquals"": { ""aws:SourceAccount"": """ + accountId + @""" }
                                        }
                                    }]
                                }";
            Console.WriteLine($"The policy to apply to bucket {logBucketName} to enable logging:");
            Console.WriteLine(newPolicy);

            PutBucketPolicyRequest putRequest = new PutBucketPolicyRequest
            {
                BucketName = logBucketName,
                Policy = newPolicy,
            };
            await client.PutBucketPolicyAsync(putRequest);
            Console.WriteLine("Policy applied.");
        }

        /// <summary>
        /// This method enables logging for an Amazon S3 bucket. Logs will be stored
        /// in the bucket you selected for logging. Selected prefix
        /// will be prepended to each log object.
        /// </summary>
        /// <param name="client">The initialized Amazon S3 client which will be used
        /// to configure and apply logging to the selected Amazon S3 bucket.</param>
        /// <param name="bucketName">The name of the Amazon S3 bucket for which you
        /// wish to enable logging.</param>
        /// <param name="logBucketName">The name of the Amazon S3 bucket where logging
        /// information will be stored.</param>
        /// <param name="logObjectKeyPrefix">The prefix to prepend to each
        /// object key.</param>
        /// <returns>Async task.</returns>
        public static async Task EnableLoggingAsync(
            IAmazonS3 client,
            string bucketName,
            string logBucketName,
            string logObjectKeyPrefix)
        {
            Console.WriteLine($"Enabling logging for bucket {bucketName}.");
            var loggingConfig = new S3BucketLoggingConfig
            {
                TargetBucketName = logBucketName,
                TargetPrefix = logObjectKeyPrefix,
            };

            var putBucketLoggingRequest = new PutBucketLoggingRequest
            {
                BucketName = bucketName,
                LoggingConfig = loggingConfig,
            };
            await client.PutBucketLoggingAsync(putBucketLoggingRequest);
            Console.WriteLine($"Logging enabled.");
        }

        /// <summary>
        /// Loads configuration from settings files.
        /// </summary>
        public static void LoadConfig()
        {
            _configuration = new ConfigurationBuilder()
                .SetBasePath(Directory.GetCurrentDirectory())
                .AddJsonFile("settings.json") // Load settings from .json file.
                .AddJsonFile("settings.local.json", true) // Optionally, load local settings.
                .Build();
        }
    }
```
+  Per i dettagli sull'API, consulta la [PutBucketLogging](https://docs.aws.amazon.com/goto/DotNetSDKV3/s3-2006-03-01/PutBucketLogging)sezione *AWS SDK per .NET API Reference*. 

------
#### [ Java ]

```
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3.S3Client;
import software.amazon.awssdk.services.s3.model.BucketLoggingStatus;
import software.amazon.awssdk.services.s3.model.LoggingEnabled;
import software.amazon.awssdk.services.s3.model.PartitionedPrefix;
import software.amazon.awssdk.services.s3.model.PutBucketLoggingRequest;
import software.amazon.awssdk.services.s3.model.TargetObjectKeyFormat;

// Class to set a bucket policy on a target S3 bucket and enable server access logging on a source S3 bucket.
public class ServerAccessLogging {
    private static S3Client s3Client;

    public static void main(String[] args) {
        String sourceBucketName = "SOURCE-BUCKET";
        String targetBucketName = "TARGET-BUCKET";
        String sourceAccountId = "123456789012";
        String targetPrefix = "logs/";

        // Create S3 Client.
        s3Client = S3Client.builder().
                region(Region.US_EAST_2)
                .build();

        // Set a bucket policy on the target S3 bucket to enable server access logging by granting the
        // logging.s3.amazonaws.com principal permission to use the PutObject operation.
        ServerAccessLogging serverAccessLogging = new ServerAccessLogging();
        serverAccessLogging.setTargetBucketPolicy(sourceAccountId, sourceBucketName, targetBucketName);

        // Enable server access logging on the source S3 bucket.
        serverAccessLogging.enableServerAccessLogging(sourceBucketName, targetBucketName,
                targetPrefix);

    }

    // Function to set a bucket policy on the target S3 bucket to enable server access logging by granting the
    // logging.s3.amazonaws.com principal permission to use the PutObject operation.
    public void setTargetBucketPolicy(String sourceAccountId, String sourceBucketName, String targetBucketName) {
        String policy = "{\n" +
                "    \"Version\": \"2012-10-17\",\n" +
                "    \"Statement\": [\n" +
                "        {\n" +
                "            \"Sid\": \"S3ServerAccessLogsPolicy\",\n" +
                "            \"Effect\": \"Allow\",\n" +
                "            \"Principal\": {\"Service\": \"logging.s3.amazonaws.com\"},\n" +
                "            \"Action\": [\n" +
                "                \"s3:PutObject\"\n" +
                "            ],\n" +
                "            \"Resource\": \"arn:aws:s3:::" + targetBucketName + "/*\",\n" +
                "            \"Condition\": {\n" +
                "                \"ArnLike\": {\n" +
                "                    \"aws:SourceArn\": \"arn:aws:s3:::" + sourceBucketName + "\"\n" +
                "                },\n" +
                "                \"StringEquals\": {\n" +
                "                    \"aws:SourceAccount\": \"" + sourceAccountId + "\"\n" +
                "                }\n" +
                "            }\n" +
                "        }\n" +
                "    ]\n" +
                "}";
        s3Client.putBucketPolicy(b -> b.bucket(targetBucketName).policy(policy));
    }

    // Function to enable server access logging on the source S3 bucket.
    public void enableServerAccessLogging(String sourceBucketName, String targetBucketName,
            String targetPrefix) {
        TargetObjectKeyFormat targetObjectKeyFormat = TargetObjectKeyFormat.builder()
                .partitionedPrefix(PartitionedPrefix.builder().partitionDateSource("EventTime").build())
                .build();
        LoggingEnabled loggingEnabled = LoggingEnabled.builder()
                .targetBucket(targetBucketName)
                .targetPrefix(targetPrefix)
                .targetObjectKeyFormat(targetObjectKeyFormat)
                .build();
        BucketLoggingStatus bucketLoggingStatus = BucketLoggingStatus.builder()
                .loggingEnabled(loggingEnabled)
                .build();
        s3Client.putBucketLogging(PutBucketLoggingRequest.builder()
                .bucket(sourceBucketName)
                .bucketLoggingStatus(bucketLoggingStatus)
                .build());
    }

}
```

------

### Utilizzando il AWS CLI
<a name="enabling-s3-access-logs-for-requests"></a>

Ti consigliamo di creare un bucket di registrazione dedicato in ogni bucket S3 in Regione AWS cui sono presenti bucket S3. Quindi, fare in modo che i log degli accessi Amazon S3 vengano recapitati al bucket S3. Per ulteriori informazioni ed esempi, consulta l'esempio [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-logging.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-logging.html) in *Riferimento ai comandi della AWS CLI *.

Se il bucket di destinazione (destinazione) utilizza l'impostazione imposta dal proprietario del bucket per Object Ownership, non puoi impostare il bucket o l'oggetto. ACLs Inoltre, non puoi includere le concessioni di destinazione (destinazione) nella tua configurazione. [PutBucketLogging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html) È necessario utilizzare una policy di bucket per concedere l'accesso al principale del servizio di registrazione (`logging.s3.amazonaws.com`). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general).

**Example - Abilitare i log degli accessi con cinque bucket in due regioni**  
In questo esempio, sono presenti i cinque bucket seguenti:   
+ `amzn-s3-demo-source-bucket-us-east-1`
+ `amzn-s3-demo-source-bucket1-us-east-1`
+ `amzn-s3-demo-source-bucket2-us-east-1`
+ `amzn-s3-demo-bucket1-us-west-2`
+ `amzn-s3-demo-bucket2-us-west-2`
**Nota**  
Il passaggio finale della procedura seguente fornisce esempi di script bash che è possibile utilizzare per creare i bucket di registrazione di log e abilitare la registrazione di log degli accessi al server su questi bucket. Per utilizzare questi script, devi creare i file `policy.json` e `logging.json`, come descritto nella procedura seguente.

1. Crea due bucket di destinazione per la registrazione di log nelle regioni Stati Uniti occidentali (Oregon) e Stati Uniti orientali (N. Virginia) e assegna loro i nomi elencati di seguito:
   + `amzn-s3-demo-destination-bucket-logs-us-east-1`
   + `amzn-s3-demo-destination-bucket1-logs-us-west-2`

1. Più avanti in questi passaggi, abiliterai la registrazione di log degli accessi al server come segue:
   + `amzn-s3-demo-source-bucket-us-east-1` accede al bucket S3 `amzn-s3-demo-destination-bucket-logs-us-east-1` con prefisso `amzn-s3-demo-source-bucket-us-east-1`
   + `amzn-s3-demo-source-bucket1-us-east-1` accede al bucket S3 `amzn-s3-demo-destination-bucket-logs-us-east-1` con prefisso `amzn-s3-demo-source-bucket1-us-east-1`
   + `amzn-s3-demo-source-bucket2-us-east-1` accede al bucket S3 `amzn-s3-demo-destination-bucket-logs-us-east-1` con prefisso `amzn-s3-demo-source-bucket2-us-east-1`
   + `amzn-s3-demo-bucket1-us-west-2` accede al bucket S3 `amzn-s3-demo-destination-bucket1-logs-us-west-2` con prefisso `amzn-s3-demo-bucket1-us-west-2`
   + `amzn-s3-demo-bucket2-us-west-2` accede al bucket S3 `amzn-s3-demo-destination-bucket1-logs-us-west-2` con prefisso `amzn-s3-demo-bucket2-us-west-2`

1. Per ogni bucket di registrazione di log di destinazione, concedi le autorizzazioni per la consegna di log di accesso al server utilizzando una ACL di bucket *o* una policy del bucket:
   + **Aggiorna la policy del bucket** (consigliato): per concedere autorizzazioni al principale del servizio di registrazione di log, utilizza il comando `put-bucket-policy` seguente. Sostituisci `amzn-s3-demo-destination-bucket-logs` con il nome del tuo bucket di destinazione.

     ```
     1. aws s3api put-bucket-policy --bucket amzn-s3-demo-destination-bucket-logs --policy file://policy.json
     ```

     `Policy.json` è un documento JSON nella cartella corrente che contiene la policy del bucket seguente. Per utilizzare questa policy del bucket, sostituisci `user input placeholders` con le tue informazioni. Nella policy seguente, *`amzn-s3-demo-destination-bucket-logs`* è il bucket di destinazione in cui verranno distribuiti i log degli accessi al server e `amzn-s3-demo-source-bucket` è il bucket di origine. `SOURCE-ACCOUNT-ID` è l' Account AWS proprietario del bucket di origine.

------
#### [ JSON ]

****  

     ```
     {
         "Version":"2012-10-17",		 	 	 
         "Statement": [
             {
                 "Sid": "S3ServerAccessLogsPolicy",
                 "Effect": "Allow",
                 "Principal": {
                     "Service": "logging.s3.amazonaws.com"
                 },
                 "Action": [
                     "s3:PutObject"
                 ],
                 "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket-logs/*",
                 "Condition": {
                     "ArnLike": {
                         "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-source-bucket"
                     },
                     "StringEquals": {
                         "aws:SourceAccount": "SOURCE-ACCOUNT-ID"
                     }
                 }
             }
         ]
     }
     ```

------
   + **Aggiorna l'ACL bucket**: per concedere le autorizzazioni al gruppo di distribuzione dei log S3, utilizza il comando `put-bucket-acl` seguente. Sostituisci *`amzn-s3-demo-destination-bucket-logs`* con il nome del tuo bucket di destinazione (target).

     ```
     1. aws s3api put-bucket-acl --bucket amzn-s3-demo-destination-bucket-logs  --grant-write URI=http://acs.amazonaws.com/groups/s3/LogDelivery --grant-read-acp URI=http://acs.amazonaws.com/groups/s3/LogDelivery 
     ```

1. Quindi, crea un file `logging.json` che contenga la configurazione di registrazione di log (in base a uno dei tre esempi che seguono). Dopo aver creato il file `logging.json`, puoi applicare la configurazione di registrazione di log utilizzando il comando `put-bucket-logging` seguente. Sostituisci *`amzn-s3-demo-destination-bucket-logs`* con il nome del tuo bucket di destinazione (target).

   ```
   1. aws s3api put-bucket-logging --bucket amzn-s3-demo-destination-bucket-logs --bucket-logging-status file://logging.json 
   ```
**Nota**  
Invece di usare questo comando `put-bucket-logging` per applicare la configurazione di registrazione di log su ogni bucket di destinazione, puoi usare uno degli script bash forniti nel passaggio successivo. Per utilizzare questi script, devi creare i file `policy.json` e `logging.json`, come descritto in questa procedura.

   Il file `logging.json` è un documento JSON nella cartella corrente che contiene la configurazione della registrazione di log. Se un bucket di destinazione utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto, la configurazione di registrazione di log non può contenere concessioni di destinazione (target). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general).  
**Example – `logging.json` senza concessioni relative alla destinazione (target)**  

   Il seguente file di esempio `logging.json` contiene concessioni di destinazione (target). Pertanto, puoi applicare questa configurazione a un bucket di destinazione (target) che utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto.

   ```
     {
         "LoggingEnabled": {
             "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
             "TargetPrefix": "amzn-s3-demo-destination-bucket/"
          }
      }
   ```  
**Example – `logging.json` con concessioni relative alla destinazione (target)**  

   Il seguente file di esempio `logging.json` contiene concessioni di destinazione (target).

   Se un bucket di destinazione utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto, non sarà possibile includere concessioni di destinazione (target) nella configurazione [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](#grant-log-delivery-permissions-general).

   ```
     {
         "LoggingEnabled": {
             "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
             "TargetPrefix": "amzn-s3-demo-destination-bucket/",
             "TargetGrants": [
                  {
                     "Grantee": {
                         "Type": "CanonicalUser",
                         "ID": "79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be"
                      },
                     "Permission": "FULL_CONTROL"
                  }
              ]
          }
      }
   ```

**Valori dell’assegnatario**  
È possibile specificare la persona (assegnatario) a cui si assegnano i diritti di accesso (utilizzando gli elementi della richiesta) nei seguenti modi:
   + In base all’ID della persona:

     ```
     {
       "Grantee": {
         "Type": "CanonicalUser",
         "ID": "ID"
       }
     }
     ```
   + In base all’URI:

     ```
     {
       "Grantee": {
         "Type": "Group",
         "URI": "http://acs.amazonaws.com/groups/global/AuthenticatedUsers"
       }
     }
     ```  
**Example – `logging.json` con il formato della chiave dell'oggetto di log impostato sull'ora dell'evento S3**  

   Il file `logging.json` seguente modifica il formato della chiave dell'oggetto di log in Ora evento S3. Per informazioni sull'impostazione del formato della chiave dell'oggetto di log, consulta [Come si abilita il recapito dei log?](ServerLogs.md#server-access-logging-overview).

   ```
     { 
       "LoggingEnabled": {
           "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
           "TargetPrefix": "amzn-s3-demo-destination-bucket/",
           "TargetObjectKeyFormat": { 
               "PartitionedPrefix": { 
                   "PartitionDateSource": "EventTime" 
               }
            }
       }
   }
   ```

1. Utilizza uno dei seguenti script bash per aggiungere la registrazione di log degli accessi per tutti i bucket nel tuo account. Sostituisci *`amzn-s3-demo-destination-bucket-logs`* con il nome del bucket di destinazione (target) e sostituisci `us-west-2` con il nome della regione in cui si trovano i bucket.
**Nota**  
Questo script funziona solo se tutti i bucket si trovano nella stessa regione. Se ci sono bucket in più regioni, è necessario modificare lo script.   
**Example – Concedi l'accesso con le policy del bucket e aggiungi la registrazione per i bucket nel tuo account**  

   ```
     loggingBucket='amzn-s3-demo-destination-bucket-logs'
     region='us-west-2'
     
     
     # Create the logging bucket.
     aws s3 mb s3://$loggingBucket --region $region
     
     aws s3api put-bucket-policy --bucket $loggingBucket --policy file://policy.json
     
     # List the buckets in this account.
     buckets="$(aws s3 ls | awk '{print $3}')"
     
     # Put a bucket logging configuration on each bucket.
     for bucket in $buckets
         do 
           # This if statement excludes the logging bucket.
           if [ "$bucket" == "$loggingBucket" ] ; then
               continue;
           fi
           printf '{
             "LoggingEnabled": {
               "TargetBucket": "%s",
               "TargetPrefix": "%s/"
           }
         }' "$loggingBucket" "$bucket"  > logging.json
         aws s3api put-bucket-logging --bucket $bucket --bucket-logging-status file://logging.json
         echo "$bucket done"
     done
     
     rm logging.json
     
     echo "Complete"
   ```  
**Example — Concedi l'accesso con bucket ACLs e aggiungi la registrazione per i bucket nel tuo account**  

   ```
     loggingBucket='amzn-s3-demo-destination-bucket-logs'
     region='us-west-2'
     
     
     # Create the logging bucket.
     aws s3 mb s3://$loggingBucket --region $region
     
     aws s3api put-bucket-acl --bucket $loggingBucket --grant-write URI=http://acs.amazonaws.com/groups/s3/LogDelivery --grant-read-acp URI=http://acs.amazonaws.com/groups/s3/LogDelivery
     
     # List the buckets in this account.
     buckets="$(aws s3 ls | awk '{print $3}')"
     
     # Put a bucket logging configuration on each bucket.
     for bucket in $buckets
         do 
           # This if statement excludes the logging bucket.
           if [ "$bucket" == "$loggingBucket" ] ; then
               continue;
           fi
           printf '{
             "LoggingEnabled": {
               "TargetBucket": "%s",
               "TargetPrefix": "%s/"
           }
         }' "$loggingBucket" "$bucket"  > logging.json
         aws s3api put-bucket-logging --bucket $bucket --bucket-logging-status file://logging.json
         echo "$bucket done"
     done
     
     rm logging.json
     
     echo "Complete"
   ```

## Verifica della configurazione dei log degli accessi al server
<a name="verify-access-logs"></a>

Dopo aver abilitato la registrazione degli accessi al server, completa la procedura riportata di seguito: 
+ Accedi al bucket di destinazione e verifica che i file di log vengano distribuiti. Una volta impostati i log di accesso, Amazon S3 inizia immediatamente ad acquisire le richieste e a registrarle. Tuttavia, potrebbero essere necessarie alcune ore prima che i log vengano consegnati al bucket di destinazione. Per ulteriori informazioni, consultare [Tempo richiesto per l'applicazione delle modifiche dello stato di registrazione del bucket](ServerLogs.md#BucketLoggingStatusChanges) e [Consegna di log del server sulla base del miglior tentativo](ServerLogs.md#LogDeliveryBestEffort).

  Puoi anche verificare automaticamente la consegna dei log utilizzando i parametri delle richieste di Amazon S3 e configurando gli CloudWatch allarmi Amazon per questi parametri. Per ulteriori informazioni, consulta [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md).
+ Verifica di essere in grado di aprire e leggere il contenuto dei file di log.

Per informazioni sulla risoluzione dei problemi relativi alla registrazione degli accessi al server, consultare [Risoluzione dei problemi di registrazione degli accessi al server](troubleshooting-server-access-logging.md).

# Formato del log di accesso al server Amazon S3
<a name="LogFormat"></a>

La registrazione degli accessi al server fornisce record dettagliati per le richieste che sono effettuate a un bucket Amazon S3. È possibile utilizzare i log degli accessi al server per i seguenti scopi: 
+ Esecuzione di controlli di sicurezza e degli accessi
+ Informazioni sulla base di clienti
+ Informazioni sulla fatturazione Amazon S3

In questa sezione viene descritto il formato e altri dettagli sui file di log di accesso al server Amazon S3.

I file dei log di accesso al server sono composti da una sequenza di record dei log delimitati da una nuova riga. Ogni record di log rappresenta una richiesta ed è composto da campi delimitati da spazio.

Di seguito è riportato un esempio di log composto da cinque record di log.

**Nota**  
Qualsiasi campo può essere impostato su `-` per indicare che i dati sono sconosciuti o non disponibili, oppure che il campo non è applicabile a questa richiesta. 

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 3E57427F3EXAMPLE REST.GET.VERSIONING - "GET /amzn-s3-demo-bucket1?versioning HTTP/1.1" 200 - 113 - 7 - "-" "S3Console/0.4" - s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 arn:aws:s3:us-west-1:123456789012:accesspoint/example-AP Yes us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 891CE47D2EXAMPLE REST.GET.LOGGING_STATUS - "GET /amzn-s3-demo-bucket1?logging HTTP/1.1" 200 - 242 - 11 - "-" "S3Console/0.4" - 9vKBE6vMhrNiWHZmb2L0mXOcqPGzQOI5XLnCtZNPxev+Hf+7tpT6sxDwDty4LHBUOZJG96N1234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - - us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be A1206F460EXAMPLE REST.GET.BUCKETPOLICY - "GET /amzn-s3-demo-bucket1?policy HTTP/1.1" 404 NoSuchBucketPolicy 297 - 38 - "-" "S3Console/0.4" - BNaBsXZQQDbssi6xMBdBU2sLt+Yf5kZDmeBUP35sFoKa3sLLeMC78iwEIWxs99CRUrbS4n11234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - Yes us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:01:00 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 7B4A0FABBEXAMPLE REST.GET.VERSIONING - "GET /amzn-s3-demo-bucket1?versioning HTTP/1.1" 200 - 113 - 33 - "-" "S3Console/0.4" - Ke1bUcazaN1jWuUlPJaxF64cQVpUEhoZKEG/hmy/gijN/I1DeWqDfFvnpybfEseEME/u7ME1234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - - us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:01:57 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be DD6CC733AEXAMPLE REST.PUT.OBJECT s3-dg.pdf "PUT /amzn-s3-demo-bucket1/s3-dg.pdf HTTP/1.1" 200 - - 4406583 41754 28 "-" "S3Console/0.4" - 10S62Zv81kBW7BB6SX4XJ48o6kpcl6LPwEoizZQQxJd5qDSCTLX0TgS37kYUBKQW3+bPdrg1234= SigV4 ECDHE-RSA-AES128-SHA AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - Yes us-east-1
```

Di seguito è riportato un esempio di record di log per l’operazione **Calcola il checksum**:

```
7cd47ef2be amzn-s3-demo-bucket [06/Feb/2019:00:00:38 +0000] - 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be e5042925-b524-4b3b-a869-f3881e78ff3a S3.COMPUTE.OBJECT.CHECKSUM example-object - - - - 1048576 - - - - - bPf7qjG4XwYdPgDQTl72GW/uotRhdPz2UryEyAFLDSRmKrakUkJCYLtAw6fdANcrsUYc1M/kIulXM1u5vZQT5g== - - - - - - - -
```

**Topics**
+ [

## Campi del record di log
](#log-record-fields)
+ [

## Registrazione aggiuntiva per operazioni di copia
](#AdditionalLoggingforCopyOperations)
+ [

## Informazioni sui log di accesso personalizzati
](#LogFormatCustom)
+ [

## Considerazioni in materia di programmazione per il formato esteso dei log di accesso al server
](#LogFormatExtensible)

## Campi del record di log
<a name="log-record-fields"></a>

L'elenco di seguito descrive i campi dei record di log.

**Proprietario del bucket**  
L'ID utente canonico del proprietario del bucket di origine. L'ID utente canonico è un'altra forma di ID. Account AWS Per ulteriori informazioni sull'ID utente canonico, consulta la sezione relativa agli [identificatori Account AWS](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) nella *Riferimenti generali di AWS*. Per informazioni su come trovare l'ID utente canonico per il tuo account, consulta [Ricerca dell'ID utente canonico per l' Account AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId).  
**Esempio di inserimento**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```

**Bucket**  
Il nome del bucket riguardo al quale è stata elaborata la richiesta. Se il sistema riceve una richiesta non corretta e non riesce a determinare il bucket, tale richiesta non apparirà in alcun log di accesso al server.  
**Esempio di inserimento**  

```
amzn-s3-demo-bucket1
```

**Orario**  
L'ora di ricezione della richiesta; queste date e ore sono in formato UTC. Il formato, utilizzando la terminologia `strftime()`, è il seguente: `[%d/%b/%Y:%H:%M:%S %z]`  
**Esempio di inserimento**  

```
[06/Feb/2019:00:00:38 +0000]
```

**IP remoto**  
Indirizzo IP apparente del richiedente. Dei proxy e firewall intermedi potrebbero oscurare l'indirizzo IP effettivo della macchina che effettua la richiesta.  
**Esempio di inserimento**  

```
192.0.2.3
```

**Richiedente**  
L'ID utente canonico del richiedente o `-` per richieste non autenticate. Se il richiedente era un utente IAM, questo campo restituisce il nome utente IAM del richiedente insieme a Account AWS quello a cui appartiene l'utente IAM. Questo identificatore è lo stesso che viene usato per accedere a scopi di controllo.  
**Esempio di inserimento**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```
Se il richiedente utilizza un ruolo assunto, questo campo restituisce il ruolo IAM assunto.  
**Esempio di inserimento**  

```
arn:aws:sts::123456789012:assumed-role/roleName/test-role
```

**ID di richiesta**  
Una stringa generata da Amazon S3 per identificare in maniera univoca ogni richiesta. Per le richieste del processo **Calcola il checksum**, il campo **ID richiesta** visualizza l’ID del processo associato. Per ulteriori informazioni, consulta [Calcolo dei checksum](batch-ops-compute-checksums.md).  
**Esempio di inserimento**  

```
3E57427F33A59F07
```

**Operazione**  
L'operazione elencata qui viene dichiarata come `SOAP.operation`, `REST.HTTP_method.resource_type`, `WEBSITE.HTTP_method.resource_type`, oppure `BATCH.DELETE.OBJECT`, oppure `S3.action.resource_type` per [Ciclo di vita S3 e registrazione](lifecycle-and-other-bucket-config.md#lifecycle-general-considerations-logging). Per le richieste del processo [https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-compute-checksums.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-compute-checksums.html), l’operazione è elencata come `S3.COMPUTE.OBJECT.CHECKSUM`.  
**Esempio di inserimento**  

```
REST.PUT.OBJECT
S3.COMPUTE.OBJECT.CHECKSUM
```

**Chiave**  
La parte chiave (nome dell'oggetto) della richiesta.  
**Esempio di inserimento**  

```
/photos/2019/08/puppy.jpg
```

**Request-URI**  
La parte `Request-URI` del messaggio di richiesta HTTP. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"GET /amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-foo=bar HTTP/1.1"
```

**Stato HTTP**  
Il codice di stato HTTP numerico della risposta.  
**Esempio di inserimento**  

```
200
```

**Codice di errore**  
Le [risposte di errore](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html) di Amazon S3 o `-` se non si è verificato alcun errore.  
**Esempio di inserimento**  

```
NoSuchBucket
```

**Byte inviati**  
Il numero di byte della risposta inviati, a esclusione di overhead di protocollo HTTP, o `-` se uguale a zero.  
**Esempio di inserimento**  

```
2662992
```

**Dimensione oggetto**  
La dimensione totale dell'oggetto in questione.  
**Esempio di inserimento**  

```
3462992
```

**Tempo totale**  
Il numero di millisecondi durante i quali la richiesta è stata in transito dalla prospettiva del server. Questo valore viene misurato dal momento in cui si riceve la richiesta al momento in cui viene inviato l'ultimo byte di risposta. Le misurazioni effettuate dalla prospettiva del cliente potrebbero essere più lunghe in ragione della latenza di rete.  
**Esempio di inserimento**  

```
70
```

**Tempo di rotazione**  
Il numero di millisecondi che sono stati necessari ad Amazon S3 per elaborare la richiesta. Questo valore viene misurato dal momento in cui si riceve l'ultimo byte della richiesta al momento in cui viene inviato il primo byte di risposta.  
**Esempio di inserimento**  

```
10
```

**Referer**  
Il valore dell'intestazione HTTP `Referer`, se presente. Gli utenti-agenti HTTP (ad esempio, i browser) generalmente impostano questa intestazione sull'URL della pagina di collegamento o incorporazione quando viene effettuata una richiesta. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"http://www.example.com/webservices"
```

**User-Agent**  
Il valore dell'intestazione HTTP `User-Agent`. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"curl/7.15.1"
```

**Versione ID**  
L'ID della versione nella richiesta oppure `-` se l'operazione non prevede un parametro `versionId`.  
**Esempio di inserimento**  

```
3HL4kqtJvjVBH40Nrjfkd
```

**ID host**  
`x-amz-id-2` o ID richiesta esteso Amazon S3.   
**Esempio di inserimento**  

```
s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234=
```

**Signature Version**  
La versione della firma, `SigV2` o `SigV4`, utilizzata per autenticare la richiesta o un `-` per richieste non autenticate.  
**Esempio di inserimento**  

```
SigV2
```

**Pacchetti di crittografia**  
La crittografia Transport Layer Security (TLS) negoziata per richieste HTTPS o `-` per HTTP.  
**Esempio di inserimento**  

```
ECDHE-RSA-AES128-GCM-SHA256
```

**Tipo di autenticazione**  
Il tipo di autenticazione della richiesta utilizzato: `AuthHeader` per intestazioni autenticate, `QueryString` per stringa di query (URL prefirmato) o `-` per richieste non autenticate.  
**Esempio di inserimento**  

```
AuthHeader
```

**Intestazione dell'host**  
L'endpoint utilizzato per connettersi ad Amazon S3.  
**Esempio di inserimento**  

```
s3.us-west-2.amazonaws.com
```
Alcune Regioni meno recenti supportano gli endpoint legacy. Potresti vedere questi endpoint nei log o nei log di accesso al server. AWS CloudTrail Per ulteriori informazioni, consulta [Endpoint legacy](VirtualHosting.md#s3-legacy-endpoints). Per un elenco completo degli endpoint e delle regioni Amazon S3, consultare la sezione relativa a [endpoint e quote di Amazon S3](https://docs.aws.amazon.com/general/latest/gr/s3.html) nella *Riferimenti generali di Amazon Web Services*.

**Versione TLS**  
La versione di Transport Layer Security (TLS) negoziata dal client. Il valore è uno dei seguenti: `TLSv1.1`, `TLSv1.2`, `TLSv1.3` o `-` se non è stato utilizzato TLS.  
**Esempio di inserimento**  

```
TLSv1.2
```

**Nome della risorsa Amazon (ARN) del punto di accesso**  
Il nome della risorsa Amazon (ARN) del punto di accesso della richiesta. Se il nome della risorsa Amazon (ARN) del punto di accesso ha un formato non valido oppure non viene utilizzato, il campo conterrà `-`. Per ulteriori informazioni sui punti di accesso, consulta [Utilizzo dei punti di accesso Amazon S3 per bucket per uso generico](using-access-points.md). Per ulteriori informazioni ARNs, consulta [Amazon Resource Name (ARN)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) nella *AWS Reference* Guide.  
**Esempio di inserimento**  

```
arn:aws:s3:us-east-1:123456789012:accesspoint/example-AP
```

**aclRequired**  
Una stringa che indica se la richiesta richiede una lista di controllo degli accessi (ACL) per l'autorizzazione. Se la richiesta richiede una ACL per l'autorizzazione, la stringa è `Yes`. Se non ACLs fosse richiesto, la stringa è`-`. Per ulteriori informazioni su ACLs, vedere[Panoramica delle liste di controllo accessi (ACL)](acl-overview.md). Per ulteriori informazioni sull'utilizzo del `aclRequired` campo per disabilitare ACLs, vedere[Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md).   
**Esempio di inserimento**  

```
Yes
```

**Regione di origine**  
La AWS regione da cui proviene la richiesta. Questo campo mostra un trattino (`-`) quando non è possibile determinare la regione di origine (ad esempio PrivateLink connessioni, connessioni Direct Connect, indirizzi Bring your own IP (BYOIP) o indirizzi non AWS IP) o quando il registro viene generato da operazioni attivate in base a politiche o azioni impostate dal cliente, come ciclo di vita e checksum.  
**Esempio di inserimento**  

```
us-east-1
```

## Registrazione aggiuntiva per operazioni di copia
<a name="AdditionalLoggingforCopyOperations"></a>

Un'operazione di copia implica un `GET` e un `PUT`. Per questa ragione, vengono registrati due report quando si effettua un'operazione di logging. La tabella precedente descrive i campi che si riferiscono alla parte `PUT` dell'operazione. L'elenco di seguito descrive i campi nel record che si riferiscono alla parte `GET` dell'operazione di copia.

**Proprietario del bucket**  
L'ID utente canonico del bucket archivia l'oggetto che viene copiato. L'ID utente canonico è un'altra forma di ID. Account AWS Per ulteriori informazioni sull'ID utente canonico, consulta la sezione relativa agli [identificatori Account AWS](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) nella *Riferimenti generali di AWS*. Per informazioni su come trovare l'ID utente canonico per il tuo account, consulta [Ricerca dell'ID utente canonico per l' Account AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId).  
**Esempio di inserimento**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```

**Bucket**  
Nome del bucket che archivia l'oggetto che viene copiato.  
**Esempio di inserimento**  

```
amzn-s3-demo-bucket1
```

**Orario**  
L'ora di ricezione della richiesta; queste date e ore sono in formato UTC. Il formato, utilizzando la terminologia `strftime()`, è il seguente: `[%d/%B/%Y:%H:%M:%S %z]`  
**Esempio di inserimento**  

```
[06/Feb/2019:00:00:38 +0000]
```

**IP remoto**  
Indirizzo IP apparente del richiedente. Dei proxy e firewall intermedi potrebbero oscurare l'indirizzo IP effettivo della macchina che effettua la richiesta.  
**Esempio di inserimento**  

```
192.0.2.3
```

**Richiedente**  
L'ID utente canonico del richiedente o `-` per richieste non autenticate. Se il richiedente era un utente IAM, questo campo restituirà il nome utente IAM del richiedente insieme a Utente root dell'account AWS quello a cui appartiene l'utente IAM. Questo identificatore è lo stesso che viene usato per accedere a scopi di controllo.  
**Esempio di inserimento**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```
Se il richiedente utilizza un ruolo assunto, questo campo restituisce il ruolo IAM assunto.  
**Esempio di inserimento**  

```
arn:aws:sts::123456789012:assumed-role/roleName/test-role
```

**ID di richiesta**  
Una stringa generata da Amazon S3 per identificare in maniera univoca ogni richiesta. Per le richieste del processo **Calcola il checksum**, il campo **ID richiesta** visualizza l’ID del processo associato. Per ulteriori informazioni, consulta [Calcolo dei checksum](batch-ops-compute-checksums.md).  
**Esempio di inserimento**  

```
3E57427F33A59F07
```

**Operazioni**  
Le operazioni qui elencate vengono dichiarate come `SOAP.operation`, `REST.HTTP_method.resource_type`, `WEBSITE.HTTP_method.resource_type` oppure `BATCH.DELETE.OBJECT`.  
**Esempio di inserimento**  

```
REST.COPY.OBJECT_GET
```

**Chiave**  
La "chiave" (nome oggetto) dell'oggetto che viene copiato o `-` se l'operazione non prevede un parametro chiave.   
**Esempio di inserimento**  

```
/photos/2019/08/puppy.jpg
```

**Request-URI**  
La parte `Request-URI` del messaggio di richiesta HTTP. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"GET /amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-foo=bar"
```

**Stato HTTP**  
Il codice di stato HTTP numerico della porzione `GET` dell'operazione di copia.  
**Esempio di inserimento**  

```
200
```

**Codice di errore**  
Le [risposte di errore](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html) di Amazon S3 della porzione `GET` dell'operazione di copia oppure `-` se non si è verificato alcun errore.  
**Esempio di inserimento**  

```
NoSuchBucket
```

**Byte inviati**  
Numero di byte della risposta inviati, a esclusione di overhead di protocollo HTTP, o `-` se uguale a zero.  
**Esempio di inserimento**  

```
2662992
```

**Dimensione oggetto**  
La dimensione totale dell'oggetto in questione.  
**Esempio di inserimento**  

```
3462992
```

**Tempo totale**  
Il numero di millisecondi durante i quali la richiesta è stata in transito dalla prospettiva del server. Questo valore viene misurato dal momento in cui si riceve la richiesta al momento in cui viene inviato l'ultimo byte di risposta. Le misurazioni effettuate dalla prospettiva del cliente potrebbero essere più lunghe in ragione della latenza di rete.  
**Esempio di inserimento**  

```
70
```

**Tempo di rotazione**  
Il numero di millisecondi che sono stati necessari ad Amazon S3 per elaborare la richiesta. Questo valore viene misurato dal momento in cui si riceve l'ultimo byte della richiesta al momento in cui viene inviato il primo byte di risposta.  
**Esempio di inserimento**  

```
10
```

**Referer**  
Il valore dell'intestazione HTTP `Referer`, se presente. Gli utenti-agenti HTTP (ad esempio, i browser) generalmente impostano questa intestazione sull'URL della pagina di collegamento o incorporazione quando viene effettuata una richiesta. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"http://www.example.com/webservices"
```

**User-Agent**  
Il valore dell'intestazione HTTP `User-Agent`. Questo campo può includere virgolette senza escape tratte dall'input dell'utente.  
**Esempio di inserimento**  

```
"curl/7.15.1"
```

**Versione ID**  
ID versione dell'oggetto che viene copiato oppure `-` se l'intestazione `x-amz-copy-source` non specificava un parametro `versionId` come parte dell'origine della copia.  
**Esempio di inserimento**  

```
3HL4kqtJvjVBH40Nrjfkd
```

**ID host**  
`x-amz-id-2` o ID richiesta esteso Amazon S3.  
**Esempio di inserimento**  

```
s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234=
```

**Signature Version**  
Versione della firma, `SigV2` o `SigV4`, utilizzata per autenticare la richiesta o `-` per richieste non autenticate.  
**Esempio di inserimento**  

```
SigV4
```

**Pacchetti di crittografia**  
La crittografia Transport Layer Security (TLS) negoziata per richieste HTTPS o `-` per HTTP.  
**Esempio di inserimento**  

```
ECDHE-RSA-AES128-GCM-SHA256
```

**Tipo di autenticazione**  
Il tipo di autenticazione della richiesta utilizzato: `AuthHeader` per le intestazioni di autenticazione, `QueryString` per le stringhe di query (prefirmate URLs) o per le richieste non autenticate. `-`  
**Esempio di inserimento**  

```
AuthHeader
```

**Intestazione dell'host**  
L'endpoint utilizzato per connettersi ad Amazon S3.  
**Esempio di inserimento**  

```
s3.us-west-2.amazonaws.com
```
Alcune Regioni meno recenti supportano gli endpoint legacy. Potresti vedere questi endpoint nei log o nei log di accesso al server. AWS CloudTrail Per ulteriori informazioni, consulta [Endpoint legacy](VirtualHosting.md#s3-legacy-endpoints). Per un elenco completo degli endpoint e delle regioni Amazon S3, consultare la sezione relativa a [endpoint e quote di Amazon S3](https://docs.aws.amazon.com/general/latest/gr/s3.html) nella *Riferimenti generali di Amazon Web Services*.

**Versione TLS**  
La versione di Transport Layer Security (TLS) negoziata dal client. Il valore è uno dei seguenti: `TLSv1.1`, `TLSv1.2`, `TLSv1.3` o `-` se non è stato utilizzato TLS.  
**Esempio di inserimento**  

```
TLSv1.2
```

**Nome della risorsa Amazon (ARN) del punto di accesso**  
Il nome della risorsa Amazon (ARN) del punto di accesso della richiesta. Se il nome della risorsa Amazon (ARN) del punto di accesso ha un formato non valido oppure non viene utilizzato, il campo conterrà `-`. Per ulteriori informazioni sui punti di accesso, consulta [Utilizzo dei punti di accesso Amazon S3 per bucket per uso generico](using-access-points.md). Per ulteriori informazioni ARNs, consulta [Amazon Resource Name (ARN)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) nella *AWS Reference* Guide.  
**Esempio di inserimento**  

```
arn:aws:s3:us-east-1:123456789012:accesspoint/example-AP
```

**aclRequired**  
Una stringa che indica se la richiesta richiede una lista di controllo degli accessi (ACL) per l'autorizzazione. Se la richiesta richiede una ACL per l'autorizzazione, la stringa è `Yes`. Se non ACLs fosse richiesto, la stringa è`-`. Per ulteriori informazioni su ACLs, vedere[Panoramica delle liste di controllo accessi (ACL)](acl-overview.md). Per ulteriori informazioni sull'utilizzo del `aclRequired` campo per disabilitare ACLs, vedere[Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md).   
**Esempio di inserimento**  

```
Yes
```

**Regione di origine**  
La AWS regione da cui proviene la richiesta. Questo campo mostra un trattino (`-`) quando non è possibile determinare la regione di origine (ad esempio PrivateLink connessioni, connessioni Direct Connect, indirizzi Bring your own IP (BYOIP) o indirizzi non AWS IP) o quando il registro viene generato da operazioni attivate in base a politiche o azioni impostate dal cliente, come ciclo di vita e checksum.  
**Esempio di inserimento**  

```
us-east-1
```

## Informazioni sui log di accesso personalizzati
<a name="LogFormatCustom"></a>

È possibile includere informazioni personalizzate da memorizzare nel record del log di accesso per una richiesta. A tale scopo, aggiungere un parametro di stringa query personalizzato all'URL per la richiesta. Amazon S3 ignora i parametri di stringa di query che iniziano con `x-`, ma include quelli nel record del log degli accessi per la richiesta, come parte del campo `Request-URI` del record del log. 

Ad esempio, una richiesta `GET` per `"s3.amazonaws.com/amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-user=johndoe"` funziona come la richiesta `"s3.amazonaws.com/amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg"`, ad eccezione del fatto che la stringa `"x-user=johndoe"` è inclusa nel campo `Request-URI` per il record di log associato. Questa funzionalità è disponibile solo nell'interfaccia REST.

## Considerazioni in materia di programmazione per il formato esteso dei log di accesso al server
<a name="LogFormatExtensible"></a>

Occasionalmente è possibile estendere il formato del report del log degli accessi aggiungendo nuovi campi alla fine di ogni linea. Pertanto, è necessario che il codice che analizza i log degli accessi al server sia in grado di gestire i campi che potrebbero non essere riconosciuti. 

# Eliminazione dei file di log Amazon S3
<a name="deleting-log-files-lifecycle"></a>

Un bucket Amazon S3 con la registrazione degli accessi al server abilitata può accumulare nel tempo molti oggetti del log del server. L'applicazione potrebbe necessitare di questi log di accesso per un periodo specifico dopo la creazione e successivamente potrebbe eliminarli. Puoi utilizzare la configurazione del ciclo di vita in Amazon S3 per impostare regole in modo che Amazon S3 accodi automaticamente questi oggetti per l'eliminazione alla fine del loro ciclo di vita. 

È possibile definire una configurazione del ciclo di vita per un sottoinsieme di oggetti nel bucket S3 utilizzando un prefisso condiviso. Se è stato specificato un prefisso nella configurazione della registrazione degli accessi al server, è possibile impostare una regola di configurazione del ciclo di vita per eliminare gli oggetti del log con quel prefisso. 

Supponi, ad esempio, che i tuoi oggetti di log abbiano il prefisso `logs/`. Puoi impostare una regola di configurazione del ciclo di vita per eliminare tutti gli oggetti nel bucket che hanno il prefisso `logs/` dopo un periodo di tempo specificato. 

Per ulteriori informazioni sulla configurazione del ciclo di vita, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md).

Per ulteriori informazioni sulla registrazione di accesso al server, consulta [Registrazione delle richieste con registrazione dell'accesso al server](ServerLogs.md).

# Utilizzo dei log degli accessi al server Amazon S3 per identificare le richieste
<a name="using-s3-access-logs-to-identify-requests"></a>

Puoi identificare le richieste Amazon S3 con i log degli accessi al server Amazon S3. 

**Nota**  
Per identificare le richieste Amazon S3, ti consigliamo di utilizzare eventi AWS CloudTrail relativi ai dati anziché i log di accesso al server Amazon S3. CloudTrail gli eventi relativi ai dati sono più facili da configurare e contengono più informazioni. Per ulteriori informazioni, consulta [Identificazione delle richieste Amazon S3 tramite CloudTrail](cloudtrail-request-identification.md).
A seconda del numero di richieste di accesso ricevute, l'analisi dei log potrebbe richiedere più risorse o tempo rispetto all'utilizzo degli eventi relativi ai CloudTrail dati.

**Topics**
+ [

## Esecuzione di query sui log degli accessi per le richieste tramite Amazon Athena
](#querying-s3-access-logs-for-requests)
+ [

## Identificazione delle richieste di Signature versione 2 tramite i log degli accessi ad Amazon S3
](#using-s3-access-logs-to-identify-sigv2-requests)
+ [

## Identificazione delle richieste di accesso agli oggetti tramite i log degli accessi Amazon S3
](#using-s3-access-logs-to-identify-objects-access)

## Esecuzione di query sui log degli accessi per le richieste tramite Amazon Athena
<a name="querying-s3-access-logs-for-requests"></a>

Puoi identificare le richieste ad Amazon S3 con i log degli accessi ad Amazon S3 utilizzando Amazon Athena. 

Amazon S3 archivia i log degli accessi al server come oggetti in un bucket S3. Spesso è più facile utilizzare uno strumento in grado di analizzare i log in Amazon S3. Athena supporta l'analisi di oggetti S3 e può essere utilizzato per eseguire query sui log degli accessi Amazon S3.

**Example**  
L'esempio seguente mostra come eseguire query sui log degli accessi al server Amazon S3 in Amazon Athena. Sostituisci `user input placeholders` che trovi nei seguenti esempi con le tue informazioni.  
Per specificare una posizione Amazon S3 in una query Athena, devi fornire un URI S3 per il bucket in cui vengono distribuiti i log. Questo URI deve includere il nome e il prefisso del bucket nel seguente formato: `s3://amzn-s3-demo-bucket1-logs/prefix/` 

1. Apri la console Athena all'indirizzo [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home).

1. Nel Query Editor esegui un comando simile al seguente. Sostituisci `s3_access_logs_db` con il nome che desideri assegnare al database. 

   ```
   CREATE DATABASE s3_access_logs_db
   ```
**Nota**  
È consigliabile creare il database nello stesso modo in cui si utilizza il bucket Regione AWS S3. 

1. Nel Query Editor eseguire un comando simile al seguente per creare uno schema di tabella nel database creato nella fase 2. Sostituisci `s3_access_logs_db.mybucket_logs` con il nome che desideri assegnare alla tabella. I valori dei tipi di dati `STRING` e `BIGINT` sono le proprietà del log di accesso. È possibile eseguire query su queste proprietà in Athena. Per `LOCATION`, immettere il percorso del prefisso e il bucket S3 come indicato in precedenza.

------
#### [ Date-based partitioning ]

   ```
   CREATE EXTERNAL TABLE s3_access_logs_db.mybucket_logs( 
    `bucketowner` STRING, 
    `bucket_name` STRING, 
    `requestdatetime` STRING, 
    `remoteip` STRING, 
    `requester` STRING, 
    `requestid` STRING, 
    `operation` STRING, 
    `key` STRING, 
    `request_uri` STRING, 
    `httpstatus` STRING, 
    `errorcode` STRING, 
    `bytessent` BIGINT, 
    `objectsize` BIGINT, 
    `totaltime` STRING, 
    `turnaroundtime` STRING, 
    `referrer` STRING, 
    `useragent` STRING, 
    `versionid` STRING, 
    `hostid` STRING, 
    `sigv` STRING, 
    `ciphersuite` STRING, 
    `authtype` STRING, 
    `endpoint` STRING, 
    `tlsversion` STRING,
    `accesspointarn` STRING,
    `aclrequired` STRING,
    `sourceregion` STRING)
    PARTITIONED BY (
      `timestamp` string)
   ROW FORMAT SERDE 
    'org.apache.hadoop.hive.serde2.RegexSerDe' 
   WITH SERDEPROPERTIES ( 
    'input.regex'='([^ ]*) ([^ ]*) \\[(.*?)\\] ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) (-|[0-9]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) ([^ ]*)(?: ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*))?.*$') 
   STORED AS INPUTFORMAT 
    'org.apache.hadoop.mapred.TextInputFormat' 
   OUTPUTFORMAT 
    'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
   LOCATION
    's3://bucket-name/prefix-name/account-id/region/source-bucket-name/'
    TBLPROPERTIES (
     'projection.enabled'='true', 
     'projection.timestamp.format'='yyyy/MM/dd', 
     'projection.timestamp.interval'='1', 
     'projection.timestamp.interval.unit'='DAYS', 
     'projection.timestamp.range'='2024/01/01,NOW', 
     'projection.timestamp.type'='date', 
     'storage.location.template'='s3://bucket-name/prefix-name/account-id/region/source-bucket-name/${timestamp}')
   ```

------
#### [ Non-date-based partitioning ]

   ```
   CREATE EXTERNAL TABLE `s3_access_logs_db.mybucket_logs`(
     `bucketowner` STRING, 
     `bucket_name` STRING, 
     `requestdatetime` STRING, 
     `remoteip` STRING, 
     `requester` STRING, 
     `requestid` STRING, 
     `operation` STRING, 
     `key` STRING, 
     `request_uri` STRING, 
     `httpstatus` STRING, 
     `errorcode` STRING, 
     `bytessent` BIGINT, 
     `objectsize` BIGINT, 
     `totaltime` STRING, 
     `turnaroundtime` STRING, 
     `referrer` STRING, 
     `useragent` STRING, 
     `versionid` STRING, 
     `hostid` STRING, 
     `sigv` STRING, 
     `ciphersuite` STRING, 
     `authtype` STRING, 
     `endpoint` STRING, 
     `tlsversion` STRING,
     `accesspointarn` STRING,
     `aclrequired` STRING,
     `sourceregion` STRING)
   ROW FORMAT SERDE 
     'org.apache.hadoop.hive.serde2.RegexSerDe' 
   WITH SERDEPROPERTIES ( 
     'input.regex'='([^ ]*) ([^ ]*) \\[(.*?)\\] ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) (-|[0-9]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) ([^ ]*)(?: ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*))?.*$') 
   STORED AS INPUTFORMAT 
     'org.apache.hadoop.mapred.TextInputFormat' 
   OUTPUTFORMAT 
     'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
   LOCATION
     's3://amzn-s3-demo-bucket1-logs/prefix/'
   ```

------

1. Nel riquadro di navigazione, in **Database**, scegliere il database.

1. In **Tables (Tabelle)**, scegliere **Preview table (Anteprima tabella)** accanto al nome della tabella.

   Nel pannello **Results (Risultati)**, dovrebbero essere visualizzati i dati dai log di accesso al server, come `bucketowner`, `bucket`, `requestdatetime` e così via. Questo indica che la tabella Athena è stata creata correttamente. È ora possibile eseguire query sui log degli accessi al server Amazon S3.

**Example - Visualizza chi ha eliminato un oggetto e quando (timestamp, indirizzo IP e utente IAM)**  

```
SELECT requestdatetime, remoteip, requester, key 
FROM s3_access_logs_db.mybucket_logs 
WHERE key = 'images/picture.jpg' AND operation like '%DELETE%';
```

**Example - Visualizza tutte le operazioni eseguite da un utente IAM**  

```
SELECT * 
FROM s3_access_logs_db.mybucket_logs 
WHERE requester='arn:aws:iam::123456789123:user/user_name';
```

**Example - Visualizza tutte le operazioni eseguite su un oggetto in un periodo di tempo specifico**  

```
SELECT *
FROM s3_access_logs_db.mybucket_logs
WHERE Key='prefix/images/picture.jpg' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2017-02-18:07:00:00','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2017-02-18:08:00:00','yyyy-MM-dd:HH:mm:ss');
```

**Example : visualizza la quantità di dati trasferiti da un indirizzo IP specifico in un determinato periodo di tempo**  

```
SELECT coalesce(SUM(bytessent), 0) AS bytessenttotal
FROM s3_access_logs_db.mybucket_logs
WHERE remoteip='192.0.2.1'
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2022-06-01','yyyy-MM-dd')
AND parse_datetime('2022-07-01','yyyy-MM-dd');
```

**Example — Trova IDs la richiesta di errori HTTP 5xx in un periodo di tempo specifico**  

```
SELECT requestdatetime, key, httpstatus, errorcode, requestid, hostid 
FROM s3_access_logs_db.mybucket_logs
WHERE httpstatus like '5%' AND timestamp
BETWEEN '2024/01/29'
AND '2024/01/30'
```

**Nota**  
Per ridurre il periodo di conservazione dei log, puoi creare una configurazione del ciclo di vita S3 per il bucket dei log degli accessi al server. Crea regole di configurazione del ciclo di vita per rimuovere i file di log periodicamente. In questo modo, si riduce la quantità di dati analizzati da Athena per ogni query. Per ulteriori informazioni, consulta [Impostazione di una configurazione del ciclo di vita S3 in un bucket](how-to-set-lifecycle-configuration-intro.md).

## Identificazione delle richieste di Signature versione 2 tramite i log degli accessi ad Amazon S3
<a name="using-s3-access-logs-to-identify-sigv2-requests"></a>

Il supporto di Amazon S3 per Signature Version 2 sta per essere disattivato in quanto obsoleto. Dopo, Amazon S3 non accetterà più le richieste che usano Signature Version 2 e tutte le richieste dovranno usare la firma *Signature Version 4*. Puoi identificare le richieste di accesso a Signature versione 2 utilizzando i log degli accessi ad Amazon S3. 

**Nota**  
Per identificare le richieste Signature versione 2, ti consigliamo di utilizzare gli eventi AWS CloudTrail relativi ai dati anziché i log di accesso al server Amazon S3. CloudTrail gli eventi di dati sono più facili da configurare e contengono più informazioni rispetto ai log di accesso al server. Per ulteriori informazioni, consulta [Identificazione delle richieste Amazon S3 Signature versione 2 mediante CloudTrail](cloudtrail-request-identification.md#cloudtrail-identification-sigv2-requests).

**Example - Visualizza tutti i richiedenti che inviano traffico Signature versione 2**  

```
SELECT requester, sigv, Count(sigv) as sigcount 
FROM s3_access_logs_db.mybucket_logs
GROUP BY requester, sigv;
```

## Identificazione delle richieste di accesso agli oggetti tramite i log degli accessi Amazon S3
<a name="using-s3-access-logs-to-identify-objects-access"></a>

Puoi utilizzare query sui log degli accessi al server Amazon S3 per identificare le richieste di accesso a oggetti Amazon S3, per operazioni come `GET`, `PUT` e `DELETE`, e ottenere ulteriori informazioni su queste richieste.

L'esempio di query Amazon Athena seguente mostra come ottenere tutte le richieste di oggetti `PUT` per Amazon S3 da un log degli accessi al server. 

**Example : visualizza tutti i richiedenti che inviano richieste `PUT` di oggetti in un determinato periodo**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE operation='REST.PUT.OBJECT' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42',yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

L'esempio di query Amazon Athena seguente mostra come ottenere tutte le richieste `GET` di oggetti per Amazon S3 dal log degli accessi al server. 

**Example : visualizza tutti i richiedenti che inviano richieste `GET` di oggetti in un determinato periodo**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE operation='REST.GET.OBJECT' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

L'esempio di query Amazon Athena seguente mostra come ottenere tutte le richieste anonime ai bucket S3 dal log degli accessi al server. 

**Example : visualizza tutti i richiedenti anonimi che effettuano richieste a un bucket in un determinato periodo**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE requester IS NULL 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

La seguente query Amazon Athena mostra come identificare tutte le richieste ai bucket S3 che richiedono una lista di controllo degli accessi (ACL) per l'autorizzazione. È possibile utilizzare queste informazioni per migrare tali autorizzazioni ACL alle policy bucket appropriate e disabilitarle. ACLs Dopo aver creato queste politiche per i bucket, puoi disabilitarle. ACLs Per ulteriori informazioni sulla disabilitazione ACLs, consulta. [Prerequisiti per la disabilitazione ACLs](object-ownership-migrating-acls-prerequisites.md) 

**Example : identifica tutte le richieste che richiedono una ACL per l'autorizzazione**  

```
SELECT bucket_name, requester, key, operation, aclrequired, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE aclrequired = 'Yes' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2022-05-10:00:00:00','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2022-08-10:00:00:00','yyyy-MM-dd:HH:mm:ss')
```

**Nota**  
È possibile modificare l'intervallo di data in base alle esigenze.
Questi esempi di query possono essere utili anche per il monitoraggio della sicurezza. Puoi rivedere i risultati per le chiamate `PutObject` o `GetObject` da indirizzi IP o richiedenti imprevisti o non autorizzati e per l'identificazione di eventuali richieste anonime ai bucket.
La query recupera solo le informazioni a partire dall'orario in cui è stata abilitata la registrazione. 
Se si utilizzano i AWS CloudTrail log, vedere. [Identificazione dell'accesso agli oggetti S3 utilizzando CloudTrail](cloudtrail-request-identification.md#cloudtrail-identification-object-access) 

# Risoluzione dei problemi di registrazione degli accessi al server
<a name="troubleshooting-server-access-logging"></a>

Gli argomenti seguenti possono essere utili per risolvere i problemi che possono verificarsi durante la configurazione della registrazione con Amazon S3.

**Topics**
+ [

## Messaggi di errore comuni durante la configurazione della registrazione
](#common-errors)
+ [

## Risoluzione dei problemi di consegna
](#delivery-failures)

## Messaggi di errore comuni durante la configurazione della registrazione
<a name="common-errors"></a>

I seguenti messaggi di errore comuni possono apparire quando abiliti la registrazione tramite AWS Command Line Interface (AWS CLI) e: AWS SDKs 

Errore: Registrazione multi-posizione S3 non consentita

Se il bucket di destinazione (noto anche come *bucket target*) si trova in una regione diversa da quella del bucket di origine, si verifica l'errore Registrazione multi-posizione S3 non consentita. Per risolvere questo errore, assicuratevi che il bucket di destinazione configurato per ricevere i log di accesso si trovi nello stesso Regione AWS bucket di Account AWS origine.

Errore: Il proprietario del bucket da registrare e quello del bucket di destinazione devono coincidere

Quando si abilita la registrazione degli accessi al server, questo errore si verifica se il bucket di destinazione specificato appartiene a un account diverso. Per risolvere questo errore, assicurati che il bucket di destinazione sia nello stesso Account AWS del bucket di origine.

**Nota**  
Ti consigliamo di scegliere un bucket di destinazione diverso dal bucket di origine. Quando il bucket di origine e il bucket di destinazione coincidono, vengono creati log aggiuntivi per i log scritti nel bucket. Questa situazione può causare l'aumento delle spese di archiviazione. La registrazione di questi log aggiuntivi può rendere difficile la ricerca di log specifici. Tuttavia, per una gestione più semplice dei log, si consiglia di salvare i log degli accessi in un bucket diverso. Per ulteriori informazioni, consulta [Come si abilita il recapito dei log?](ServerLogs.md#server-access-logging-overview).

Errore: Il bucket di destinazione per la registrazione non esiste

Il bucket di destinazione deve esistere prima di impostare la configurazione. Questo errore indica che il bucket di destinazione non esiste o non può essere trovato. Verifica che il nome del bucket sia stato digitato correttamente, quindi riprova.

Errore: Concessioni di destinazione non consentite per i bucket con l'opzione Bucket owner enforced abilitata

Questo errore indica che il bucket di destinazione utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto S3. L'impostazione Proprietario del bucket applicato non supporta le concessioni di destinazione (target). Per ulteriori informazioni, consulta [Autorizzazioni per la distribuzione dei registri](enable-server-access-logging.md#grant-log-delivery-permissions-general).

## Risoluzione dei problemi di consegna
<a name="delivery-failures"></a>

Per evitare problemi di registrazione degli accessi al server, assicurati di seguire queste best practice:
+ **Il gruppo di distribuzione dei log S3 dispone dell'accesso in scrittura al bucket di destinazione**: il gruppo di distribuzione dei log S3 fornisce i log degli accessi al server al bucket di destinazione. Puoi usare una policy del bucket o una lista di controllo degli accessi (ACL) di un bucket per concedere l'accesso in scrittura al bucket di destinazione. Invece di una lista di controllo degli accessi (ACL) consigliamo di utilizzare una policy di bucket. Per ulteriori informazioni su come concedere l'accesso in scrittura al bucket di destinazione, consulta [Autorizzazioni per la distribuzione dei registri](enable-server-access-logging.md#grant-log-delivery-permissions-general).
**Nota**  
Se il bucket di destinazione utilizza l'impostazione Proprietario del bucket applicato per Proprietà dell'oggetto, tieni presente quanto segue:   
ACLs sono disabilitati e non influiscono più sulle autorizzazioni. Ciò significa che non è possibile aggiornare l'ACL del bucket per concedere l'accesso al gruppo di distribuzione dei log S3. Invece, è necessario aggiornare la policy del bucket per il bucket di destinazione per concedere l'accesso al principale del servizio di registrazione. 
Non puoi includere concessioni di destinazione nella configurazione `PutBucketLogging`. 
+ **La policy del bucket per il bucket di destinazione consente l'accesso ai log**: controlla la policy del bucket del bucket di destinazione. Nella policy di bucket cerca tutte le istruzioni contenenti `"Effect": "Deny"`. Verifica quindi che l'istruzione `Deny` non impedisca la scrittura dei log di accesso nel bucket.
+ **S3 Object Lock non è abilitato sul bucket di destinazione**: controlla se per il bucket di destinazione è stata abilitata l'opzione Object Lock. L'opzione Blocco oggetti blocca la consegna del log degli accessi al server. È necessario scegliere un bucket di destinazione in cui non sia abilitata l'opzione Object Lock.
+ **Le chiavi gestite da Amazon S3 (SSE-S3) vengono selezionate se la crittografia predefinita è abilitata sul bucket di destinazione**: puoi usare la crittografia bucket predefinita sul bucket di destinazione solo se utilizzi la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3). La crittografia predefinita lato server con chiavi AWS Key Management Service (AWS KMS) (SSE-KMS) non è supportata per i bucket di destinazione per la registrazione degli accessi al server. Per ulteriori informazioni su come abilitare la crittografia predefinita, consulta [Configurazione della crittografia predefinita](default-bucket-encryption.md).
+ **Nel bucket di destinazione l'opzione Pagamento a carico del richiedente non è abilitata**: non è supportato l'uso di un bucket con pagamento a carico del richiedente come bucket di destinazione per la registrazione degli accessi al server. Per consentire la consegna dei log di accesso ai server, disabilita l'opzione Pagamento a carico del richiedente nel bucket di destinazione.
+ **Rivedi le politiche di controllo del AWS Organizations servizio (SCPs) e le politiche di controllo delle risorse (RCPs)**: quando utilizzi AWS Organizations, controlla le politiche di controllo del servizio e le politiche di controllo delle risorse per assicurarti che l'accesso ad Amazon S3 sia consentito. Queste policy specificano le autorizzazioni massime per i principali e le risorse negli account interessati. Cerca nelle policy tutte le istruzioni che contengono `"Effect": "Deny"` e verificare che le istruzioni `Deny` non impediscano la scrittura dei log degli accessi nel bucket. Per ulteriori informazioni, consulta le [policy di autorizzazione in AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_authorization_policies.html) nella *Guida all'utente AWS Organizations *.
+ **Attendi qualche minuto affinché le modifiche recenti alla configurazione dei log siano effettive**: l'abilitazione della registrazione di accesso ai server per la prima volta o la modifica del bucket di destinazione per i log richiede tempo per essere pienamente effettiva. Potrebbe essere necessaria più di un'ora prima che tutte le richieste vengano registrate e consegnate correttamente. 

  Per verificare eventuali errori di consegna dei log, abilita le metriche delle richieste in Amazon. CloudWatch Se i log non vengono consegnati entro poche ore, cerca la metrica `4xxErrors`, che può indicare gli errori di consegna dei log. Per ulteriori informazioni sull'abilitazione delle metriche delle richieste, consulta [Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket](configure-request-metrics-bucket.md).

# Monitoraggio delle metriche con Amazon CloudWatch
<a name="cloudwatch-monitoring"></a>

 CloudWatch I parametri di Amazon per Amazon S3 possono aiutarti a comprendere e migliorare le prestazioni delle applicazioni che utilizzano Amazon S3. Esistono diversi modi per utilizzarlo CloudWatch con Amazon S3.

**Daily storage metrics for buckets (Parametri di archiviazione giornalieri per i bucket)**  
Monitora lo storage dei bucket utilizzando CloudWatch, che raccoglie ed elabora i dati di storage da Amazon S3 in parametri giornalieri leggibili. Questi parametri di storage per Amazon S3 vengono indicati una volta al giorno e sono disponibili per tutti i clienti senza costi aggiuntivi.

**Request metrics (Parametri di richiesta)**   
Puoi monitorare le richieste di Amazon S3 per identificare rapidamente i problemi operativi e intraprendere le operazioni appropriate. I parametri sono disponibili a intervalli di 1 minuto dopo una determinata latenza di elaborazione. Questi CloudWatch parametri vengono fatturati alla stessa tariffa dei parametri CloudWatch personalizzati di Amazon. Per informazioni sui CloudWatch prezzi, consulta la pagina [ CloudWatch dei prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). Per informazioni su come ottenere questi parametri, consulta [CloudWatch configurazioni delle metriche](metrics-configurations.md).  
Quando sono abilitati, i parametri della richiesta vengono indicati per tutte le operazioni sull'oggetto. Per default, questi parametri da 1 minuto sono disponibili a livello di bucket di Amazon S3. Puoi anche definire un filtro per i parametri usando un prefisso condiviso, un tag oggetto o un punto di accesso:  
+ **Punto di accesso**: i punti di accesso sono endpoint di rete denominati e allegati a bucket che semplificano la gestione degli accessi ai dati su vasta scala per set di dati condivisi in S3. Con il filtro del punto di accesso, puoi ottenere informazioni dettagliate sull'utilizzo del punto di accesso. Per ulteriori informazioni sui punti di accesso, consulta la sezione [Monitoraggio e registrazione degli access point](access-points-monitoring-logging.md).
+ **Prefisso**: sebbene il modello di dati Amazon S3 abbia una struttura orizzontale, puoi applicare una gerarchia utilizzando i prefissi. Un prefisso è simile a un nome di directory che consente di raggruppare oggetti simili in un bucket. La console S3 supporta i prefissi con il concetto delle cartelle. Se si applica un filtro basato sul prefisso, gli oggetti con lo stesso prefisso verranno inclusi nella configurazione del parametro. Per ulteriori informazioni sui prefissi, consulta [Organizzazione degli oggetti utilizzando i prefissi](using-prefixes.md). 
+ **Tag**: puoi aggiungere tag, che sono coppie di nomi chiave-valore, agli oggetti. I tag consentono di trovare e organizzare gli oggetti in modo semplice Puoi inoltre possibile utilizzare i tag come filtro per le configurazioni dei parametri, in modo che nella configurazione vengano inclusi solo gli oggetti con tali tag. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md). 
Per allineare questi parametri a specifiche applicazioni business, flussi di lavoro o organizzazioni interne, puoi applicare un filtro in base a un prefisso condiviso, un tag oggetto o un punto di accesso. 

**Replication metrics (Parametri di replica)**  
Monitorare il numero totale di operazioni API S3 in attesa di replica, la dimensione totale degli oggetti in attesa di replica, il tempo massimo di replica alla destinazione Regione AWS e il numero totale di operazioni che non sono riuscite ad essere replicate. Le regole di replica con il controllo del tempo di replica di S3 (S3 RTC) o le metriche di replica S3 abilitati pubblicheranno le metriche di replica.   
Per ulteriori informazioni, consulta [Monitoraggio della replica con parametri, notifiche di eventi e stati](replication-metrics.md) o [Soddisfazione dei requisiti di conformità con il controllo del tempo di replica di Amazon S3](replication-time-control.md).

**Parametri di Amazon S3 Storage Lens**  
[Puoi pubblicare i parametri di utilizzo e attività di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato di salute operativo nei dashboard. CloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) I parametri di S3 Storage Lens sono disponibili nello spazio dei nomi `AWS/S3/Storage-Lens`. *L'opzione di CloudWatch pubblicazione è disponibile per i dashboard di S3 Storage Lens aggiornati a metriche e consigli avanzati.* Puoi abilitare l'opzione di CloudWatch pubblicazione per una configurazione del dashboard nuova o esistente in S3 Storage Lens.  
Per ulteriori informazioni, consulta [Monitora le metriche di S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md).

Tutte le CloudWatch statistiche vengono conservate per un periodo di 15 mesi in modo da poter accedere alle informazioni storiche e avere una prospettiva migliore sulle prestazioni dell'applicazione o del servizio web. Per ulteriori informazioni su CloudWatch, consulta [What is Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) nella *Amazon CloudWatch User Guide*. Potrebbero essere necessarie alcune configurazioni aggiuntive per i tuoi CloudWatch allarmi, a seconda dei casi d'uso. Ad esempio, puoi utilizzare un'espressione matematica metrica per creare un allarme. *Per ulteriori informazioni, consulta [Use CloudWatch metrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/working_with_metrics.html), [Use metric Math](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html), Using [Amazon CloudWatch alarms](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) e [Create a CloudWatch alarm based on a metric math expression](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) nella Amazon User Guide. CloudWatch *

**Distribuzione dei parametri Best-Effort CloudWatch**  
 CloudWatch le metriche vengono fornite con la massima diligenza possibile. La maggior parte delle richieste per un oggetto Amazon S3 con parametri di richiesta comporta l'invio di un punto dati a. CloudWatch

La completezza e la tempestività dei parametri non è garantita. È possibile che il data point per una richiesta specifica venga restituito con un timestamp successivo a quello del momento effettivo di elaborazione della richiesta. Il data point potrebbe subire un ritardo di un minuto prima di essere disponibile oppure potrebbe non essere consegnato affatto. CloudWatch CloudWatch le metriche delle richieste ti danno un'idea della natura del traffico rispetto al tuo orizzonte in tempo quasi reale. ma non intendono essere un resoconto completo di tutte le richieste.

Dalla natura best-effort di questa funzione deriva che i report disponibili nella [dashboard di gestione dei costi e della fatturazione](https://console.aws.amazon.com/billing/home?#/) potrebbero includere una o più richieste di accesso che non compaiono nelle metriche del bucket.

Per ulteriori informazioni, consulta i seguenti argomenti.

**Topics**
+ [

# Metriche e dimensioni
](metrics-dimensions.md)
+ [

# Accesso alle CloudWatch metriche
](cloudwatch-monitoring-accessing.md)
+ [

# CloudWatch configurazioni delle metriche
](metrics-configurations.md)

# Metriche e dimensioni
<a name="metrics-dimensions"></a>

Le metriche e le dimensioni di storage che Amazon S3 invia ad CloudWatch Amazon sono elencate nelle seguenti tabelle.

**Fornitura dei parametri CloudWatch Best-Effort**  
 CloudWatch le metriche vengono fornite con la massima diligenza possibile. La maggior parte delle richieste per un oggetto Amazon S3 con parametri di richiesta comporta l'invio di un punto dati a. CloudWatch

La completezza e la tempestività dei parametri non è garantita. È possibile che il data point per una richiesta specifica venga restituito con un timestamp successivo a quello del momento effettivo di elaborazione della richiesta. Il data point potrebbe subire un ritardo di un minuto prima di essere disponibile oppure potrebbe non essere consegnato affatto. CloudWatch CloudWatch le metriche delle richieste ti danno un'idea della natura del traffico rispetto al tuo orizzonte in tempo quasi reale. ma non intendono essere un resoconto completo di tutte le richieste.

Dalla natura best-effort di questa funzione deriva che i report disponibili nella [dashboard di gestione dei costi e della fatturazione](https://console.aws.amazon.com/billing/home?#/) potrebbero includere una o più richieste di accesso che non compaiono nelle metriche del bucket.

**Topics**
+ [

## Parametri di storage giornalieri di Amazon S3 per i bucket in CloudWatch
](#s3-cloudwatch-metrics)
+ [

## Parametri delle richieste Amazon S3 in CloudWatch
](#s3-request-cloudwatch-metrics)
+ [

## Parametri di replica S3 in CloudWatch
](#s3-cloudwatch-replication-metrics)
+ [

## Metriche di S3 Storage Lens in CloudWatch
](#storage-lens-metrics-cloudwatch-publish)
+ [

## Metriche della richiesta S3 Object Lambda in CloudWatch
](#olap-cloudwatch-metrics)
+ [

## Dimensioni di Amazon S3 in CloudWatch
](#s3-cloudwatch-dimensions)
+ [

## Dimensioni di replica S3 in CloudWatch
](#s3-replication-dimensions)
+ [

## Dimensioni di S3 Storage Lens in CloudWatch
](#storage-lens-dimensions)
+ [

## Dimensioni della richiesta S3 Object Lambda in CloudWatch
](#olap-dimensions)
+ [

## Metriche di utilizzo di Amazon S3
](#s3-service-quota-metrics)

## Parametri di storage giornalieri di Amazon S3 per i bucket in CloudWatch
<a name="s3-cloudwatch-metrics"></a>

Il namespace `AWS/S3` include i seguenti parametri di storage giornalieri per i bucket.


| Parametro | Description | 
| --- | --- | 
| BucketSizeBytes |  La quantità di dati in byte archiviati in un bucket nelle seguenti classi di archiviazione:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/metrics-dimensions.html) Questo valore è calcolato sommando le dimensioni di tutti gli oggetti e i metadati (come i nomi dei bucket) nel bucket (sia gli oggetti correnti che quelli non correnti), comprese le dimensioni di tutte le parti per tutti i caricamenti multiparte incompleti nel bucket.   La classe di storage S3 Express One Zone è disponibile solo per i bucket di directory.  Filtri di tipo storage validi (consulta la dimensione `StorageType`):  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/metrics-dimensions.html) Unità: byte Statistiche valide: media Per ulteriori informazioni sulle dimensioni di `StorageType`, consulta [Dimensioni di Amazon S3 in CloudWatch](#s3-cloudwatch-dimensions).  | 
| NumberOfObjects |  Il numero totale di oggetti archiviati in un bucket a uso generico per tutte le classi di archiviazione. Questo valore è calcolato contando tutti gli oggetti nel bucket (sia oggetti correnti che non correnti), elimina marcatori e il numero totale di parti dei caricamenti in più parti incompleti nel bucket. Per i bucket di directory con oggetti nella classe di archiviazione S3 Express One Zone, questo valore viene calcolato contando tutti gli oggetti nel bucket, ma non include i caricamenti in più parti incompleti nel bucket. Filtri validi per il tipo di storage: `AllStorageTypes` (vedi la dimensione `StorageType`) Unità: numero Statistiche valide: media  | 

## Parametri delle richieste Amazon S3 in CloudWatch
<a name="s3-request-cloudwatch-metrics"></a>

Il namespace `AWS/S3` include i seguenti parametri di richiesta. Queste metriche includono le richieste non fatturabili (nel caso delle richieste di `GET` da `CopyObject` e Replication).


| Metrica | Descrizione | 
| --- | --- | 
| AllRequests |  Numero totale di richieste HTTP effettuate a un bucket Amazon S3, indipendentemente dal tipo. Se utilizzi la configurazione di una metrica con un filtro, questa metrica restituisce solo le richieste HTTP che soddisfano i requisiti del filtro. Unità: numero Statistiche valide: somma  | 
| GetRequests |  Numero totale di richieste HTTP `GET` effettuate per gli oggetti in un bucket Amazon S3. Non sono incluse le operazioni LIST. Questa metrica viene incrementata per l'origine di ogni richiesta `CopyObject`. Unità: numero Statistiche valide: somma  Richieste paginate orientate all’elenco, come [https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListParts.html](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListParts.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html), e altre, non sono incluse in questa metrica.   | 
| PutRequests |  Numero totale di richieste HTTP `PUT` effettuate per gli oggetti in un bucket Amazon S3. Questa metrica viene incrementata per la destinazione di ogni richiesta `CopyObject`. Unità: numero Statistiche valide: somma  | 
| DeleteRequests |  Numero totale di richieste HTTP `DELETE` effettuate per gli oggetti in un bucket Amazon S3. Questa metrica include anche [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) richieste. Questa metrica mostra il numero di richieste effettuate e non il numero di oggetti eliminati. Unità: numero Statistiche valide: somma  | 
| HeadRequests |  Numero di richieste HTTP `HEAD` effettuate su un bucket Amazon S3. Unità: numero Statistiche valide: somma  | 
| PostRequests |  Numero di richieste HTTP `POST` effettuate su un bucket Amazon S3. Unità: numero Statistiche valide: somma  [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) e [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html) le richieste non sono incluse in questa metrica.    | 
| SelectRequests |  Il numero di richieste Amazon S3 [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html) effettuate per gli oggetti in un bucket Amazon S3.  Unità: numero Statistiche valide: somma  | 
| SelectBytesScanned |  Il numero di byte di dati scansionati con le richieste di Amazon S3 [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html) in un bucket Amazon S3.   Unità: byte  Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| SelectBytesReturned |  Il numero di byte di dati restituiti con le richieste Amazon S3 [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html) in un bucket Amazon S3.   Unità: byte  Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| ListRequests |  Il numero di richieste HTTP che visualizzano l'elenco del contenuto di un bucket. Unità: numero Statistiche valide: somma  | 
| BytesDownloaded |  Il numero di byte scaricati per le richieste effettuate a un bucket Amazon S3, in cui la risposta include un corpo. Unità: byte Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| BytesUploaded |  Numero di byte caricati per le richieste effettuate su un bucket Amazon S3, in cui la richiesta include un corpo. Unità: byte Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| 4xxErrors |  Il numero di richieste con codice di stato di errore client HTTP 4*xx* effettuate a un bucket Amazon S3 con un valore di 0 o 1. La statistica Average (Media) mostra la frequenza degli errori, mentre la statistica Sum (Somma) mostra il conteggio per un tipo specifico di errore, per ogni periodo. Unità: numero Statistiche valide: media (report per richiesta), somma (report per periodo), minimo, massimo, numero di esempi  | 
| 5xxErrors |  Il numero di richieste con codice di stato di errore del server HTTP 5*xx* effettuate su un bucket Amazon S3 con valore 0 o 1. La statistica Average (Media) mostra la frequenza degli errori, mentre la statistica Sum (Somma) mostra il conteggio per un tipo specifico di errore, per ogni periodo. Unità: numero Statistiche valide: media (report per richiesta), somma (report per periodo), minimo, massimo, numero di esempi  | 
| FirstByteLatency |  Per ogni richiesta, il tempo dalla ricezione della richiesta completa da parte di un bucket Amazon S3 all'inizio della restituzione della risposta. Unità: millisecondi Statistiche valide: Average (Media), Sum (Somma), Min (Minimo), Max (Massimo) (come p100), Sample Count (Numero di esempi), qualsiasi percentile tra p0,0 e p100  | 
| TotalRequestLatency |  Per ogni richiesta, il tempo trascorso dalla ricezione del primo byte all'invio dell'ultimo byte a un bucket Amazon S3, Questa metrica include il tempo necessario per ricevere il corpo della richiesta e inviare il corpo della risposta, non incluso in `FirstByteLatency`. Unità: millisecondi Statistiche valide: Average (Media), Sum (Somma), Min (Minimo), Max (Massimo) (come p100), Sample Count (Numero di esempi), qualsiasi percentile tra p0,0 e p100  | 

## Parametri di replica S3 in CloudWatch
<a name="s3-cloudwatch-replication-metrics"></a>

Puoi monitorare l'avanzamento della replica con le metriche di replica S3 tramite il tracciamento dei byte in sospeso, delle operazioni in sospeso e della latenza di replica. Per ulteriori informazioni, consulta [Monitoraggio dell'avanzamento con i parametri di replica](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).

**Nota**  
Puoi abilitare gli allarmi per i tuoi parametri di replica in Amazon. CloudWatch Quando configuri gli allarmi per i parametri di replica, imposta il campo **Missing data treatment (Trattamento dati persi)** su **Treat missing data as ignore (maintain the alarm state) (Ignora i dati mancanti (stesso stato allarme))**.


| Parametro | Description | 
| --- | --- | 
| ReplicationLatency |  Il numero massimo di secondi con cui la destinazione della replica si Regione AWS trova indietro rispetto all'origine Regione AWS per una determinata regola di replica.  Unità: secondi Statistiche valide: Max  | 
| BytesPendingReplication |  Numero totale di byte di oggetti in attesa di replica per una determinata regola di replica. Unità: byte Statistiche valide: Max  | 
| OperationsPendingReplication |  Numero di operazioni in attesa di replica per una determinata regola di replica. Unità: numero Statistiche valide: Max  | 
| OperationsFailedReplication |  Numero di operazioni che non sono state replicate per una determinata regola di replica. Unità: numero  Statistiche valide: Sum (numero totale di operazioni non riuscite), Average (percentuale di errori), Sample Count (numero totale di operazioni di replica)  | 

## Metriche di S3 Storage Lens in CloudWatch
<a name="storage-lens-metrics-cloudwatch-publish"></a>

[Puoi pubblicare i parametri di utilizzo e attività di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato di salute operativo nei dashboard. CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Le metriche di S3 Storage Lens vengono pubblicate nel namespace in. `AWS/S3/Storage-Lens` CloudWatch L'opzione di CloudWatch pubblicazione è disponibile per i dashboard di S3 Storage Lens che sono stati aggiornati a metriche e consigli avanzati.

Per un elenco delle metriche di S3 Storage Lens pubblicate su, consulta. CloudWatch [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md) Per un elenco completo delle dimensioni, consulta [Dimensioni](storage-lens-cloudwatch-metrics-dimensions.md#storage-lens-cloudwatch-dimensions).

## Metriche della richiesta S3 Object Lambda in CloudWatch
<a name="olap-cloudwatch-metrics"></a>

S3 Object Lambda include le seguenti metriche di richiesta.


| Metrica | Description | 
| --- | --- | 
| AllRequests |  Numero totale di richieste HTTP effettuate su un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti. Unità: numero Statistiche valide: somma  | 
| GetRequests |  Numero totale di richieste HTTP `GET` effettuate per gli oggetti utilizzando un punto di accesso Lambda per oggetti. Questa metrica non include le operazioni LIST. Unità: numero Statistiche valide: somma  | 
| BytesUploaded |  Numero totale di byte caricati in un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti, in cui la richiesta include un corpo. Unità: byte Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| PostRequests |  Numero di richieste HTTP `POST` effettuate in un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti. Unità: numero Statistiche valide: somma  | 
| PutRequests |  Numero di richieste HTTP `PUT` di oggetti effettuate in un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti.  Unità: numero  Statistiche valide: somma  | 
| DeleteRequests |  Numero di richieste HTTP `DELETE` di oggetti effettuate in un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti. Questa metrica include [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) richieste. Questa metrica mostra il numero di richieste effettuate e non il numero di oggetti eliminati. Unità: numero Statistiche valide: somma  | 
| BytesDownloaded |  Numero di byte scaricati per le richieste effettuate su un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti, in cui la risposta include un corpo. Unità: byte  Statistiche valide: media (byte per richiesta), somma (byte per periodo), numero di esempi, minimo, massimo (come p100), qualsiasi percentile tra p0,0 e p99,9  | 
| FirstByteLatency |  Per ogni richiesta, il tempo dalla ricezione della richiesta completa da parte di un bucket Amazon S3 mediante il punto di accesso Lambda per oggetti all'inizio della restituzione della risposta. Questa metrica dipende dal tempo di esecuzione della funzione AWS Lambda per trasformare l'oggetto prima che la funzione restituisca i byte al punto di accesso Lambda per oggetti. Unità: millisecondi  Statistiche valide: Average (Media), Sum (Somma), Min (Minimo), Max (Massimo) (come p100), Sample Count (Numero di esempi), qualsiasi percentile tra p0,0 e p100  | 
| TotalRequestLatency |  Per ogni richiesta, il tempo trascorso dalla ricezione del primo byte all'invio dell'ultimo byte a un punto di accesso Lambda per oggetti. Questa metrica include il tempo necessario per ricevere il corpo della richiesta e inviare il corpo della risposta, non incluso in `FirstByteLatency`. Unità: millisecondi Statistiche valide: Average (Media), Sum (Somma), Min (Minimo), Max (Massimo) (come p100), Sample Count (Numero di esempi), qualsiasi percentile tra p0,0 e p100  | 
| HeadRequests |  Numero di richieste HTTP `HEAD` effettuate in un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti. Unità: numero Statistiche valide: somma  | 
| ListRequests |  Numero di richieste HTTP `GET` che visualizzano l'elenco del contenuto di un bucket Amazon S3. Questa metrica include i byte delle operazioni `ListObjects` e `ListObjectsV2`. Unità: numero Statistiche valide: somma  | 
| 4xxErrors |  Il numero di richieste con codice di stato di errore client HTTP 4*xx* effettuate a un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti con un valore di 0 o 1. La statistica Average (Media) mostra la frequenza degli errori, mentre la statistica Sum (Somma) mostra il conteggio per un tipo specifico di errore, per ogni periodo. Unità: numero  Statistiche valide: media (report per richiesta), somma (report per periodo), minimo, massimo, numero di esempi  | 
| 5xxErrors |  Il numero di richieste con codice di stato di errore del server HTTP 5*xx* effettuate a un bucket Amazon S3 utilizzando un punto di accesso Lambda per oggetti con un valore di 0 o 1. La statistica Average (Media) mostra la frequenza degli errori, mentre la statistica Sum (Somma) mostra il conteggio per un tipo specifico di errore, per ogni periodo. Unità: numero  Statistiche valide: media (report per richiesta), somma (report per periodo), minimo, massimo, numero di esempi  | 
| ProxiedRequests |  Numero di richieste HTTP in un punto di accesso Lambda per oggetti che restituiscono la risposta standard dell'API Amazon S3. Tali richieste non hanno una funzione Lambda configurata. Unità: numero Statistiche valide: somma  | 
| InvokedLambda |  Numero di richieste HTTP a un oggetto S3 in cui è stata richiamata una funzione Lambda. Unità: numero Statistiche valide: somma  | 
| LambdaResponseRequests |  Numero totale di richieste `WriteGetObjectResponse` effettuate dalla funzione Lambda. Questa metrica si applica solo alle richieste `GetObject`.  | 
| LambdaResponse4xx |  Il numero di errori HTTP 4*xx* del client che si verificano quando si chiama `WriteGetObjectResponse` da una funzione Lambda. Questo parametro fornisce le stesse informazioni di `4xxErrors`, ma solo per le chiamate `WriteGetObjectResponse`.  | 
| LambdaResponse5xx |  Il numero di errori del server HTTP 5*xx* che si verificano quando si chiama `WriteGetObjectResponse` da una funzione Lambda. Questo parametro fornisce le stesse informazioni di `5xxErrors`, ma solo per le chiamate `WriteGetObjectResponse`.  | 

## Dimensioni di Amazon S3 in CloudWatch
<a name="s3-cloudwatch-dimensions"></a>

Le dimensioni elencate di seguito vengono utilizzate per filtrare i parametri Amazon S3.


|  Dimensione  |  Description  | 
| --- | --- | 
|  BucketName  |  Questa dimensione filtra i dati richiesti solo per il bucket identificato.  | 
|  StorageType  |  Questa dimensione filtra i dati archiviati in un bucket in base ai seguenti tipi di storage:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/metrics-dimensions.html)  | 
| FilterId | Questa dimensione filtra le configurazioni delle metriche specificate per le metriche delle richieste in un bucket. Quando crei una configurazione delle metriche, specifichi un ID filtro (ad esempio, un prefisso, un tag o un punto di accesso). Per ulteriori informazioni, consulta la sezione [Creazione di una configurazione dei parametri](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-configurations.html). | 

## Dimensioni di replica S3 in CloudWatch
<a name="s3-replication-dimensions"></a>

Le seguenti dimensioni vengono utilizzate per filtrare le metriche di S3 Replication.


|  Dimensione  |  Description  | 
| --- | --- | 
|  SourceBucket  |  Il nome del bucket da cui vengono replicati gli oggetti.  | 
|  DestinationBucket  |  Il nome del bucket in cui vengono replicati gli oggetti.  | 
|  RuleId  |  Identificatore univoco della regola che ha attivato l'aggiornamento della metrica di replica.  | 

## Dimensioni di S3 Storage Lens in CloudWatch
<a name="storage-lens-dimensions"></a>

Per un elenco delle dimensioni utilizzate per filtrare le metriche di S3 Storage Lens, consulta CloudWatch. [Dimensioni](storage-lens-cloudwatch-metrics-dimensions.md#storage-lens-cloudwatch-dimensions)

## Dimensioni della richiesta S3 Object Lambda in CloudWatch
<a name="olap-dimensions"></a>

Le dimensioni riportate di seguito vengono utilizzate per filtrare i dati in un punto di accesso Lambda per oggetti.


| Dimensione | Description | 
| --- | --- | 
| AccessPointName |  Nome del punto di accesso a cui vengono effettuate le richieste.  | 
| DataSourceARN |  Origine da cui il punto di accesso Lambda per oggetti sta recuperando i dati. Se la richiesta invoca una funzione Lambda, si riferisce al nome della risorsa Amazon (ARN) Lambda. Altrimenti si riferisce all'ARN del punto di accesso.  | 

## Metriche di utilizzo di Amazon S3
<a name="s3-service-quota-metrics"></a>

Puoi utilizzare le metriche di CloudWatch utilizzo per fornire visibilità sull'utilizzo delle risorse da parte del tuo account. Utilizza queste metriche per visualizzare l'utilizzo corrente del servizio su CloudWatch grafici e dashboard.

I parametri di utilizzo di Amazon S3 corrispondono alle AWS quote di servizio. È possibile configurare gli allarmi che avvisano quando l'uso si avvicina a una quota di servizio. Per ulteriori informazioni sull' CloudWatchintegrazione con le quote di servizio, consulta i [parametri di AWS utilizzo](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Service-Quota-Integration.html) nella *Amazon CloudWatch User* Guide.

Amazon S3 pubblica le seguenti metriche nello spazio dei nomi `AWS/Usage`.


| Metrica | Descrizione | 
| --- | --- | 
| `ResourceCount` |  Il numero delle risorse specificate in esecuzione nell'account. Le risorse sono definite dalle dimensioni associate al parametro.  | 

Le seguenti dimensioni sono utilizzate per affinare le metriche di utilizzo pubblicate da Amazon S3.


| Dimensione | Description | 
| --- | --- | 
|  Service  |  Il nome del AWS servizio che contiene la risorsa. Per le metriche di utilizzo di Amazon S3, il valore di questa dimensione è `S3`.  | 
|  Type  |  Il tipo di entità che viene segnalato. Attualmente, l'unico valore valido per le metriche di utilizzo di Amazon S3 è `Resource`.  | 
|  Resource  |  Il tipo di risorsa in esecuzione. Attualmente, l'unico valore valido per le metriche di utilizzo di Amazon S3 è `GeneralPurposeBuckets`, che restituisce il numero di bucket per uso generico in un Account AWS. I bucket per uso generico consentono di archiviare oggetti in tutte le classi di storage, ad eccezione di S3 Express One Zone.  | 

# Accesso alle CloudWatch metriche
<a name="cloudwatch-monitoring-accessing"></a>

È possibile utilizzare le seguenti procedure per visualizzare le metriche di archiviazione per Amazon S3. Per includere i parametri di Amazon S3, è necessario impostare un timestamp di inizio e uno di fine. Per i parametri relativi a un periodo specifico di 24 ore, impostare il periodo di tempo su 86400 secondi, ovvero il numero di secondi in un giorno. Ricordare anche di impostare le dimensioni `BucketName` e `StorageType`.

## Utilizzando il AWS CLI
<a name="accessing-cw-metrics-cli"></a>

Ad esempio, se desideri utilizzare il per AWS CLI ottenere la media della dimensione di un bucket specifico in byte, puoi usare il seguente comando:

```
aws cloudwatch get-metric-statistics --metric-name BucketSizeBytes --namespace AWS/S3 --start-time 2016-10-19T00:00:00Z --end-time 2016-10-20T00:00:00Z --statistics Average --unit Bytes --region us-west-2 --dimensions Name=BucketName,Value=amzn-s3-demo-bucket Name=StorageType,Value=StandardStorage --period 86400 --output json
```

Questo esempio produce il seguente output.

```
{
    "Datapoints": [
        {
            "Timestamp": "2016-10-19T00:00:00Z", 
            "Average": 1025328.0, 
            "Unit": "Bytes"
        }
    ], 
    "Label": "BucketSizeBytes"
}
```

## Utilizzo della console S3
<a name="accessing-cw-metrics-console"></a>

**Per visualizzare i parametri utilizzando la console Amazon CloudWatch**

1. Apri la CloudWatch console all'indirizzo [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. Nel pannello di navigazione a sinistra scegli **Metrics** (Parametri). 

1. Scegliere il namespace **S3**.

1. (Facoltativo) Per visualizzare un parametro, immettere il nome parametro nella casella di ricerca.

1. (Facoltativo) Per filtrare in base alla **StorageType**dimensione, inserisci il nome della classe di archiviazione nella casella di ricerca.

**Per visualizzare un elenco di metriche valide memorizzate per te Account AWS utilizzando il AWS CLI**
+ Al prompt dei comandi utilizza il comando seguente.

  ```
  1. aws cloudwatch list-metrics --namespace "AWS/S3"
  ```

Per ulteriori informazioni sulle autorizzazioni necessarie per accedere alle CloudWatch dashboard, consulta le [autorizzazioni della CloudWatch dashboard di Amazon](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/dashboard-permissions-update.html) nella *Amazon CloudWatch * User Guide.

# CloudWatch configurazioni delle metriche
<a name="metrics-configurations"></a>

Con Amazon CloudWatch Request Metrics for Amazon S3, puoi ricevere parametri di CloudWatch 1 minuto, CloudWatch impostare allarmi e CloudWatch accedere a dashboard per near-real-time visualizzare le operazioni e le prestazioni del tuo storage Amazon S3. Per le applicazioni che dipendono dallo storage nel cloud, questi parametri consentono di identificare rapidamente i problemi operativi e intraprendere le azioni appropriate. Quando sono abilitati, questi parametri da 1 minuto sono disponibili a livello di bucket Amazon S3 per default.

Se desideri ottenere i parametri di CloudWatch richiesta per gli oggetti in un bucket, devi creare una configurazione dei parametri per il bucket. Per ulteriori informazioni, consulta [Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket](configure-request-metrics-bucket.md). 

Puoi anche definire un filtro per i parametri raccolti usando un prefisso condiviso, tag di oggetto o un punto di accesso. Questo metodo di definizione di un filtro consente di allineare i filtri dei parametri a determinati flussi di lavoro, applicazioni business o organizzazioni interne. Per ulteriori informazioni, consulta [Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso](metrics-configurations-filter.md). Per ulteriori informazioni sui parametri di CloudWatch disponibili e sulle differenze tra parametri di storage e di richiesta, consulta [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md).

Quando si usano le configurazioni dei parametri, tenere presente quanto indicato di seguito:
+ È possibile definire un massimo di 1.000 configurazioni dei parametri per ciascun bucket.
+ È possibile scegliere quali oggetti di un bucket includere nelle configurazioni dei parametri utilizzando i filtri. L'applicazione di un filtro utilizzando un prefisso condiviso, un tag di oggetto o un punto di accesso consente di allineare i filtri dei parametri a determinati flussi di lavoro, applicazioni business o organizzazioni interne. Per richiedere i parametri per l'intero bucket, creare una configurazione di parametro senza filtri.
+ Le configurazioni dei parametri sono necessarie solo per abilitare i parametri di richiesta. I parametri di storage giornalieri a livello di bucket sono sempre attivi e disponibili senza costi aggiuntivi. Attualmente, non è possibile ottenere parametri di storage giornalieri per un sottoinsieme filtrato di oggetti.
+ Ogni configurazione di parametro abilita l'intero insieme di [parametri di richiesta disponibili](metrics-dimensions.md#s3-request-cloudwatch-metrics). I parametri specifici delle operazioni (come ad esempio `PostRequests`) vengono indicati solo in presenza di richieste di quel tipo per il bucket o il filtro.
+ I parametri della richiesta vengono indicati per le operazioni a livello di oggetto. Vengono indicati anche per le operazioni che elencano i contenuti del bucket, come [GET Bucket (List Objects) (Elenca oggetti GET Bucket)](https://docs.aws.amazon.com/AmazonS3/latest/API/v2-RESTBucketGET.html), [GET Bucket Object Versions (Versioni dell'oggetto GET Bucket)](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html) e [List Multipart Uploads (Elenca caricamenti in più parti)](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html), ma non vengono indicati per altre operazioni sui bucket.
+ I parametri di richiesta supportano i filtri in base al prefisso, al tag oggetto o al punto di accesso, diversamente dai parametri di storage.

**CloudWatch Fornitura delle metriche Best-Effort**  
 CloudWatch le metriche vengono fornite con la massima diligenza possibile. La maggior parte delle richieste per un oggetto Amazon S3 con parametri di richiesta comporta l'invio di un punto dati a. CloudWatch

La completezza e la tempestività dei parametri non è garantita. È possibile che il data point per una richiesta specifica venga restituito con un timestamp successivo a quello del momento effettivo di elaborazione della richiesta. Il data point potrebbe subire un ritardo di un minuto prima di essere disponibile oppure potrebbe non essere consegnato affatto. CloudWatch CloudWatch le metriche delle richieste ti danno un'idea della natura del traffico rispetto al tuo orizzonte in tempo quasi reale. ma non intendono essere un resoconto completo di tutte le richieste.

Dalla natura best-effort di questa funzione deriva che i report disponibili nella [dashboard di gestione dei costi e della fatturazione](https://console.aws.amazon.com/billing/home?#/) potrebbero includere una o più richieste di accesso che non compaiono nelle metriche del bucket.

Per ulteriori informazioni sull'utilizzo dei CloudWatch parametri in Amazon S3, consulta i seguenti argomenti.

**Topics**
+ [

# Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket
](configure-request-metrics-bucket.md)
+ [

# Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso
](metrics-configurations-filter.md)
+ [

# Eliminazione di un filtro dei parametri
](delete-request-metrics-filter.md)

# Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket
<a name="configure-request-metrics-bucket"></a>

Quando configuri le metriche di richiesta, puoi creare una configurazione di CloudWatch metriche per tutti gli oggetti nel tuo bucket oppure puoi filtrare per prefisso, tag di oggetto o punto di accesso. Nelle procedure descritte in questo argomento viene illustrato come creare una configurazione per tutti gli oggetti nel bucket. Per creare una configurazione che filtri in base al tag oggetto, al prefisso o al punto di accesso, consulta [Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso](metrics-configurations-filter.md).

Esistono tre tipi di CloudWatch parametri Amazon per Amazon S3: parametri di storage, parametri di richiesta e parametri di replica. I parametri di storage vengono indicati una volta al giorno e sono disponibili per tutti i clienti senza costi aggiuntivi. I parametri di richiesta sono disponibili a intervalli di 1 minuto dopo una determinata latenza per l'elaborazione. I parametri delle richieste vengono fatturati alla tariffa standard. CloudWatch È necessario acconsentire esplicitamente ai parametri di richiesta configurandoli nella console o utilizzando l'API Amazon S3. Le [metriche di replica S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/viewing-replication-metrics.html) forniscono metriche dettagliate per le regole nella configurazione di replica. Con le metriche di replica, è possibile monitorare l' minute-by-minuteavanzamento tenendo traccia dei byte in sospeso, delle operazioni in sospeso, delle operazioni che non hanno avuto esito positivo e della latenza di replica.

Per ulteriori informazioni sui CloudWatch parametri per Amazon S3, consulta. [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md) 

Puoi aggiungere configurazioni dei parametri a un bucket utilizzando la console di Amazon S3, la AWS Command Line Interface (AWS CLI) o REST API di Amazon S3.

## Utilizzo della console S3
<a name="configure-metrics"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket seleziona il nome del bucket contenente gli oggetti di cui desideri ottenere i parametri.

1. Seleziona la scheda **Parametri**.

1. In **Bucket metrics (Parametri bucket)** scegli **View additional charts (Visualizza grafici aggiuntivi)**.

1. Scegli la scheda **Request metrics (Parametri di richiesta)**.

1. Scegli **Create Filter (Crea filtro)**.

1. Nella casella **Filter name (Nome filtro)** immettere il nome del filtro. 

   I nomi possono contenere solo lettere, numeri, punti, trattini e caratteri di sottolineatura. Si consiglia di utilizzare il nome `EntireBucket` per un filtro che si applica a tutti gli oggetti.

1. In **Filter scope** (Ambito del filtro) seleziona **This filter applies to all objects in the bucket** (Questo filtro si applica a tutti gli oggetti del bucket).

   È anche possibile definire un filtro in modo che i parametri vengano acquisiti e indicati solo per un sottoinsieme di oggetti del bucket. Per ulteriori informazioni, consulta [Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso](metrics-configurations-filter.md).

1. Scegli **Salva modifiche**.

1. Nella scheda **Request metrics (Parametri di richiesta)**, in **Filters (Filtri)**, scegliere il filtro appena creato.

   Dopo circa 15 minuti, CloudWatch inizia a tracciare questi parametri di richiesta. Puoi visualizzarli nella scheda **Request metrics (Parametri di richiesta)** . Puoi visualizzare i grafici delle metriche su Amazon CloudWatch S3 o sulla console. I parametri delle richieste vengono fatturati alla tariffa standard. CloudWatch Per ulteriori informazioni, consulta i [ CloudWatch prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). 

## Utilizzo della REST API
<a name="metrics-configuration-api"></a>

È anche possibile aggiungere configurazioni di parametri in modo programmatico con REST API di Amazon S3. Per ulteriori informazioni sull'aggiunta e sull'utilizzo delle configurazioni dei parametri, consulta i seguenti argomenti nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*:
+ [Configurazione del parametro PUT Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [Configurazione del parametro GET Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [Configurazione del parametro LIST Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [Configurazione del parametro DELETE Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

## Utilizzando il AWS CLI
<a name="add-metrics-configurations"></a>

1. Installa e configura il AWS CLI. Per le istruzioni, consulta [Installazione, aggiornamento e disinstallazione della AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-set-up.html) nella *Guida per l'utente di AWS Command Line Interface *.

1. Aprire un terminale.

1. Eseguire il comando riportato di seguito per aggiungere una configurazione di parametro.

   ```
   aws s3api put-bucket-metrics-configuration --endpoint https://s3.us-west-2.amazonaws.com --bucket bucket-name --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id"}'
   ```

# Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso
<a name="metrics-configurations-filter"></a>

Esistono tre tipi di CloudWatch parametri Amazon per Amazon S3: parametri di storage, parametri di richiesta e parametri di replica. I parametri di storage vengono indicati una volta al giorno e sono disponibili per tutti i clienti senza costi aggiuntivi. I parametri di richiesta sono disponibili a intervalli di 1 minuto dopo una determinata latenza per l'elaborazione. I parametri delle richieste vengono fatturati alla tariffa standard. CloudWatch È necessario acconsentire esplicitamente ai parametri di richiesta configurandoli nella console o utilizzando l'API Amazon S3. Le [metriche di replica S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/viewing-replication-metrics.html) forniscono metriche dettagliate per le regole nella configurazione di replica. Con le metriche di replica, è possibile monitorare l' minute-by-minuteavanzamento tenendo traccia dei byte in sospeso, delle operazioni in sospeso, delle operazioni che non hanno avuto esito positivo e della latenza di replica.

Per ulteriori informazioni sui CloudWatch parametri per Amazon S3, consulta. [Monitoraggio delle metriche con Amazon CloudWatch](cloudwatch-monitoring.md) 

Quando configuri le CloudWatch metriche, puoi creare un filtro per tutti gli oggetti nel tuo bucket oppure puoi filtrare la configurazione in gruppi di oggetti correlati all'interno di un singolo bucket. Puoi filtrare gli oggetti in un bucket da includere in una configurazione di parametro in base a uno o più dei tipi di filtro elencati di seguito.
+ **Prefisso del nome della chiave dell'oggetto**: sebbene il modello di dati Amazon S3 abbia una struttura orizzontale, è possibile applicare una gerarchia utilizzando un prefisso. La console di Amazon S3 supporta questi prefissi con il concetto di cartelle. Se si applica un filtro basato sul prefisso, gli oggetti con lo stesso prefisso verranno inclusi nella configurazione del parametro. Per ulteriori informazioni sui prefissi, consulta [Organizzazione degli oggetti utilizzando i prefissi](using-prefixes.md). 
+ **Tag** - È possibile aggiungere tag, che sono coppie di nomi chiave-valore, agli oggetti. I tag consentono di trovare e organizzare gli oggetti in modo semplice È possibile utilizzare i tag anche come filtri per le configurazioni dei parametri. Per ulteriori informazioni sui tag degli oggetti, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md). 
+ **Punto di accesso**: i punti di accesso S3 sono endpoint di rete denominati e allegati a bucket che semplificano la gestione degli accessi ai dati su vasta scala per set di dati condivisi in S3. Quando crei un filtro in base al punto di accesso, Amazon S3 include le richieste al punto di accesso specificato nella configurazione dei parametri. Per ulteriori informazioni, consulta [Monitoraggio e registrazione degli access point](access-points-monitoring-logging.md).
**Nota**  
Quando crei una configurazione di parametri che filtra in base al punto di accesso, devi utilizzare l'Amazon Resource Name (ARN) del punto di accesso e non l'alias del punto di accesso. Assicurati di utilizzare l'ARN del punto di accesso e non l'ARN di un oggetto specifico. Per ulteriori informazioni sul punto ARNs di accesso, consulta. [Utilizzo dei punti di accesso Amazon S3 per bucket per uso generico](using-access-points.md)

Se si specifica un filtro, solo le richieste che agiscono su oggetti singoli possono corrispondere al filtro ed essere incluse nei parametri dichiarati. Richieste come [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) e `ListObjects` non restituiscono alcuna metrica per le configurazioni con filtri.

Per richiedere un'applicazione più complessa di filtri, scegliere due o più elementi. Nella configurazione del parametro verranno inclusi solo gli oggetti con tutti questi elementi. Se non si impostano i filtri, tutti gli oggetti nel bucket vengono inclusi nella configurazione del parametro.

## Utilizzo della console S3
<a name="configure-metrics-filter"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket seleziona il nome del bucket contenente gli oggetti di cui desideri ottenere i parametri.

1. Seleziona la scheda **Parametri**.

1. In **Bucket metrics (Parametri bucket)** scegli **View additional charts (Visualizza grafici aggiuntivi)**.

1. Scegli la scheda **Request metrics (Parametri di richiesta)**.

1. Scegli **Create Filter (Crea filtro)**.

1. Nella casella **Filter name (Nome filtro)** immettere il nome del filtro. 

   I nomi possono contenere solo lettere, numeri, punti, trattini e caratteri di sottolineatura.

1. In **Filter scope** (Ambito del filtro), scegli **Limit the scope of this filter using a prefix, object tags, and an S3 Access Point, or a combination of all three** (Limita l'ambito di questo filtro utilizzando un prefisso, tag oggetto e un punto di accesso S3 o una combinazione dei tre).

1. In **Filter type** (Tipo di filtro), scegli almeno un tipo di filtro: **Prefix** (Prefisso),**Object tags** (Tag oggetto) oppure **Access point** (Punto di accesso).

1. Nella casella **Prefix** (Prefisso) inserisci un prefisso per definire un filtro in base al prefisso e limitare l'ambito del filtro a un singolo percorso.

1. Per definire un filtro in base ai tag oggetto, in **Object tags** (Tag oggetto), scegli **Add tag** (Aggiungi tag), quindi inserisci un tag **Key** (Chiave) e **Value** (Valore).

1. Per definire un filtro in base al punto di accesso, nel campo **S3 Access point** (Punto di accesso S3), inserisci l'ARN del punto di accesso o scegli **Browse S3** (Sfoglia S3) per passare al punto di accesso.
**Importante**  
Non puoi inserire l'alias del punto di accesso. Devi inserire l'ARN del punto di accesso stesso e non l'ARN di un oggetto specifico.

1. Scegli **Save changes** (Salva modifiche).

   Amazon S3 crea un filtro che utilizza il prefisso, i tag o il punto di accesso specificati.

1. Nella scheda **Request metrics (Parametri di richiesta)**, in **Filters (Filtri)**, scegliere il filtro appena creato.

   Hai creato un filtro che limita l'ambito dei parametri di richiesta in base al prefisso, ai tag oggetto o al punto di accesso. Circa 15 minuti dopo aver CloudWatch iniziato a tracciare questi parametri di richiesta, puoi visualizzare i grafici relativi ai parametri sia su Amazon CloudWatch S3 che sulle console. I parametri delle richieste vengono fatturati alla tariffa standard. CloudWatch Per ulteriori informazioni, consulta i [ CloudWatch prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). 

   È anche possibile richiedere i parametri a livello di bucket. Per informazioni, consulta [Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket](configure-request-metrics-bucket.md).

## Utilizzando il AWS CLI
<a name="add-metrics-configurations"></a>

1. Installa e configura il AWS CLI. Per le istruzioni, consulta [Installazione, aggiornamento e disinstallazione della AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-install.html) nella *Guida per l'utente di AWS Command Line Interface *.

1. Aprire un terminale.

1. Esegui uno dei comandi riportati di seguito per aggiungere una configurazione di parametri.  
**Example : per filtrare in base al prefisso**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"Prefix":"prefix1"}} '
   ```  
**Example : per filtrare in base ai tag**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"Tag": {"Key": "string", "Value": "string"}} '
   ```  
**Example : per filtrare in base al punto di accesso**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"AccessPointArn":"arn:aws:s3:Region:account-id:accesspoint/access-point-name"}} '
   ```  
**Example : per filtrare in base al prefisso, ai tag e al punto di accesso**  

   ```
   aws s3api put-bucket-metrics-configuration --endpoint https://s3.Region.amazonaws.com --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '
   {
       "Id": "metrics-config-id",
       "Filter": {
           "And": {
               "Prefix": "string",
               "Tags": [
                   {
                       "Key": "string",
                       "Value": "string"
                   }
               ],
               "AccessPointArn": "arn:aws:s3:Region:account-id:accesspoint/access-point-name"
           }
       }
   }'
   ```

## Utilizzo della REST API
<a name="configure-cw-filter-rest"></a>

È anche possibile aggiungere configurazioni di parametri in modo programmatico con REST API di Amazon S3. Per ulteriori informazioni sull'aggiunta e sull'utilizzo delle configurazioni dei parametri, consulta i seguenti argomenti nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*:
+ [Configurazione del parametro PUT Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [Configurazione del parametro GET Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [Configurazione del parametro LIST Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [Configurazione del parametro DELETE Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

# Eliminazione di un filtro dei parametri
<a name="delete-request-metrics-filter"></a>

Puoi eliminare un filtro Amazon CloudWatch Request Metrics se non ti serve più. Quando elimini un filtro, non ti vengono più addebitati i parametri delle richieste che utilizzano quel *filtro specifico*. Tuttavia, le altre configurazioni di filtro esistenti continueranno a essere addebitate. 

Quando si elimina un filtro, non è più possibile utilizzarlo per i parametri della richiesta. L'eliminazione di un filtro non può essere annullata. 

Per informazioni sulla creazione di un filtro dei parametri delle richieste, consulta i seguenti argomenti:
+ [Creazione di una configurazione CloudWatch delle metriche per tutti gli oggetti nel bucket](configure-request-metrics-bucket.md)
+ [Creazione di una configurazione dei parametri che filtra in base al prefisso, al tag oggetto o al punto di accesso](metrics-configurations-filter.md)

## Utilizzo della console S3
<a name="delete-request-metrics-filter-console"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket per il quale desideri eliminare un filtro delle metriche di richiesta.

1. Seleziona la scheda **Parametri**.

1. In **Bucket metrics (Parametri bucket)** scegli **View additional charts (Visualizza grafici aggiuntivi)**.

1. Scegliere la scheda **Request metrics (Parametri di richiesta)**.

1. Scegliere **Manage filters (Gestisci filtri)**.

1. Scegliere il filtro.
**Importante**  
L'eliminazione di un filtro non può essere annullata.

1. Scegliere **Delete (Elimina)**.

   Amazon S3 elimina il filtro.

## Utilizzo di REST API
<a name="delete-request-metrics-filter-rest"></a>

È anche possibile aggiungere configurazioni di parametri in modo programmatico con REST API di Amazon S3. Per ulteriori informazioni sull'aggiunta e sull'utilizzo delle configurazioni dei parametri, consulta i seguenti argomenti nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*:
+ [Configurazione del parametro PUT Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [Configurazione del parametro GET Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [Configurazione del parametro LIST Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [Configurazione del parametro DELETE Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

# Notifiche di eventi Amazon S3
<a name="EventNotifications"></a>

Puoi utilizzare la funzionalità Notifiche di eventi Amazon S3 per ricevere le notifiche relative a quando si verificano determinati eventi nel bucket S3. Per abilitare le notifiche, aggiungi una configurazione di notifica che identifichi gli eventi che Amazon S3 deve pubblicare. Assicurati inoltre che identifichi le destinazioni a cui Amazon S3 deve inviare le notifiche. Questa configurazione viene archiviata nella risorsa secondaria *notifica* associata a un bucket. Per ulteriori informazioni, consulta [Opzioni di configurazione dei bucket per uso generico](UsingBucket.md#bucket-config-options-intro). Amazon S3 fornisce un'API per la gestione di questa risorsa secondaria. 

**Importante**  
Le notifiche degli eventi di Amazon S3 sono progettate per essere distribuite almeno una volta. Le notifiche di eventi in genere vengono distribuite in pochi secondi, ma a volte può essere necessario un minuto o più. 

## Panoramica delle notifiche eventi di Amazon S3.
<a name="notification-how-to-overview"></a>

Attualmente, Amazon S3 può pubblicare notifiche per i seguenti eventi:
+ Eventi di creazione nuovo oggetto
+ Eventi di rimozione di oggetti
+ Eventi di ripristino di oggetti
+ Un evento di perdita oggetto Reduced Redundancy Storage (RRS)
+ Eventi di replica
+ Eventi di scadenza del ciclo di vita S3
+ Eventi di transizione del ciclo di vita S3
+ Eventi di archiviazione automatica di S3 Intelligent-Tiering
+ Eventi di assegnazione di tag agli oggetti
+ Eventi di ACL PUT di oggetto

Per una descrizione completa dei tipi di evento, consulta [Tipi di eventi supportati per SQS, SNS e Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types). 

Amazon S3 può inviare messaggi di notifica degli eventi alle seguenti destinazioni. Il valore dell'Amazon Resource Name (ARN) di queste destinazioni viene specificato nella configurazione della notifica.
+ Argomenti su Amazon Simple Notification Service (Amazon SNS)
+ Code di Amazon Simple Queue Service (Amazon SQS)
+ AWS Lambda funzione
+ Amazon EventBridge

Per ulteriori informazioni, consulta [Destinazioni eventi supportate](notification-how-to-event-types-and-destinations.md#supported-notification-destinations).

**Nota**  
Le code FIFO (First-In-First-Out) di Amazon Simple Queue Service non sono supportate come destinazione delle notifiche degli eventi di Amazon S3. Per inviare una notifica per un evento Amazon S3 a una coda FIFO di Amazon SQS, puoi utilizzare Amazon. EventBridge Per ulteriori informazioni, consulta [Attivazione di Amazon EventBridge](enable-event-notifications-eventbridge.md).

**avvertimento**  
Se la notifica scrive nello stesso bucket che attiva la notifica, potrebbe causare un loop di esecuzione. Ad esempio, se il bucket attiva una funzione Lambda ogni volta che un oggetto viene caricato e la funzione carica un oggetto nel bucket, allora la funzione indirettamente lo attiva. Per evitare questo, utilizzare due bucket, oppure configurare il trigger in modo che venga applicato solo a un prefisso utilizzato per gli oggetti in entrata.  
*Per ulteriori informazioni e un esempio di utilizzo delle notifiche di Amazon S3 con AWS Lambda, consulta [AWS Lambda Using with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) nella AWS Lambda Developer Guide.* 

Per ulteriori informazioni sul numero di configurazioni di notifica degli eventi che è possibile creare per bucket, consulta [Quote di servizio Amazon S3](https://docs.aws.amazon.com/general/latest/gr/s3.html#limits_s3) in *Riferimenti generali di AWS *.

Per ulteriori informazioni sulle notifiche degli eventi, consulta le sezioni seguenti.

**Topics**
+ [

## Panoramica delle notifiche eventi di Amazon S3.
](#notification-how-to-overview)
+ [

# Tipi di notifiche eventi e destinazioni
](notification-how-to-event-types-and-destinations.md)
+ [

# Utilizzo di Amazon SQS, Amazon SNS e Lambda
](how-to-enable-disable-notification-intro.md)
+ [

# Usando EventBridge
](EventBridge.md)

# Tipi di notifiche eventi e destinazioni
<a name="notification-how-to-event-types-and-destinations"></a>

Amazon S3 supporta diversi tipi di notifiche di eventi e destinazioni in cui è possibile pubblicare le notifiche. Puoi specificare il tipo di evento e la destinazione durante la configurazione delle notifiche degli eventi. È possibile specificare una sola destinazione per ogni notifica di evento. Le notifiche degli eventi di Amazon S3 inviano una voce di evento per ogni messaggio di notifica.

**Topics**
+ [

## Destinazioni eventi supportate
](#supported-notification-destinations)
+ [

## Tipi di eventi supportati per SQS, SNS e Lambda
](#supported-notification-event-types)
+ [

## Tipi di eventi supportati per Amazon EventBridge
](#supported-notification-event-types-eventbridge)
+ [

## Ordinamento degli eventi e duplicazione degli eventi
](#event-ordering-and-duplicate-events)

## Destinazioni eventi supportate
<a name="supported-notification-destinations"></a>

Amazon S3 può inviare messaggi di notifica degli eventi alle seguenti destinazioni.
+ Argomenti su Amazon Simple Notification Service (Amazon SNS)
+ Code di Amazon Simple Queue Service (Amazon SQS)
+ AWS Lambda
+ Amazon EventBridge

Tuttavia, è possibile specificare un solo tipo di destinazione per ogni notifica di evento.

**Nota**  
È necessario concedere ad Amazon S3; le autorizzazioni per pubblicare i messaggi in un argomento Amazon SNS o in una coda Amazon SQS. Devi inoltre concedere ad Amazon S3 l'autorizzazione a richiamare una AWS Lambda funzione per tuo conto. Per istruzioni su come concedere queste autorizzazioni, consulta [Concessione di autorizzazioni per pubblicare messaggi di notifica eventi in una destinazione](grant-destinations-permissions-to-s3.md). 

### Argomento Amazon SNS
<a name="amazon-sns-topic"></a>

Amazon SNS è un servizio di messaggistica push completamente gestito e flessibile. Tramite questo servizio, è possibile inviare messaggi push a dispositivi mobili o servizi distribuiti. Con SNS puoi pubblicare un messaggio e inviarlo una o più volte. Al momento, l'SNS standard è consentito solo come destinazione di notifica di eventi S3, mentre l'SNS FIFO non è consentito.

Amazon SNS coordina e gestisce la consegna o l'invio di messaggi agli endpoint o ai client abbonati. È possibile utilizzare la console Amazon SNS per creare un argomento Amazon SNS a cui inviare le notifiche. 

L'argomento deve essere nello Regione AWS stesso del bucket Amazon S3. Per informazioni sulla creazione di un argomento Amazon SNS, consulta [Nozioni di base](https://docs.aws.amazon.com/sns/latest/dg/sns-getting-started.html) nella *Guida per sviluppatori di Amazon Simple Notification Service* e [Domande frequenti su Amazon SNS](https://aws.amazon.com/sns/faqs/).

Per poter utilizzare l'argomento Amazon SNS creato come destinazione della notifica di eventi, è necessario disporre di quanto segue:
+ L'Amazon Resource Name (ARN) per l'argomento Amazon SNS
+ Un'iscrizione valida a un argomento di Amazon SNS. Con esso, gli iscritti agli argomenti vengono informati quando un messaggio viene pubblicato sul tuo argomento Amazon SNS.

### Coda Amazon SQS
<a name="amazon-sqs-queue"></a>

Amazon SQS offre code ospitate affidabili e scalabili per lo storage dei messaggi mentre transitano tra computer. Tramite Amazon SQS è possibile trasmettere qualsiasi volume di dati senza richiedere la disponibilità costante di altri servizi. È possibile utilizzare la console Amazon SQS per creare una coda Amazon SQS a cui inviare le notifiche. 

La coda Amazon SQS deve trovarsi nella stessa Regione AWS posizione del bucket Amazon S3. Per informazioni sulla creazione di una coda di Amazon SQS, consulta [Cos'è Amazon Simple Queue Service?](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/welcome.html) e [Nozioni di base su Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) nella *Guida per sviluppatori di Amazon Simple Queue Service*. 

Per poter utilizzare la coda Amazon SQS come destinazione della notifica eventi, devi disporre di quanto segue:
+ L'Amazon Resource Name (ARN) per la coda di Amazon SQS

**Nota**  
Le code FIFO (First-In-First-Out) di Amazon Simple Queue Service non sono supportate come destinazione delle notifiche degli eventi di Amazon S3. Per inviare una notifica per un evento Amazon S3 a una coda FIFO di Amazon SQS, puoi utilizzare Amazon. EventBridge Per ulteriori informazioni, consulta [Attivazione di Amazon EventBridge](enable-event-notifications-eventbridge.md).

### funzione Lambda
<a name="lambda-function"></a>

Puoi utilizzarlo AWS Lambda per estendere altri AWS servizi con una logica personalizzata o creare un backend personalizzato che operi su AWS larga scala, con prestazioni e sicurezza. Con Lambda, è possibile creare applicazioni separate e basate su eventi che vengono eseguite solo quando necessario. È inoltre possibile utilizzarlo per dimensionare automaticamente queste applicazioni da poche richieste al giorno a migliaia al secondo. 

Lambda esegue codice personalizzato in risposta agli eventi dei bucket Amazon S3. Il codice personalizzato viene caricato su Lambda e quindi viene creata quella che si chiama funzione Lambda. Quando Amazon S3 rileva un evento di un tipo specifico, può pubblicare l'evento AWS Lambda e richiamare la tua funzione in Lambda. In risposta, Lambda esegue la tua funzione. Un tipo di evento che potrebbe rilevare, ad esempio, è un evento di creazione oggetto.

Puoi usare la AWS Lambda console per creare una funzione Lambda che utilizza l' AWS infrastruttura per eseguire il codice per tuo conto. La funzione Lambda deve trovarsi nella stessa regione del bucket S3. Per impostare la funzione Lambda come destinazione di notifica eventi, è inoltre necessario disporre del nome o dell'ARN di una funzione Lambda.

**avvertimento**  
Se la notifica scrive nello stesso bucket che attiva la notifica, potrebbe causare un loop di esecuzione. Ad esempio, se il bucket attiva una funzione Lambda ogni volta che un oggetto viene caricato e la funzione carica un oggetto nel bucket, allora la funzione indirettamente lo attiva. Per evitare questo, utilizzare due bucket, oppure configurare il trigger in modo che venga applicato solo a un prefisso utilizzato per gli oggetti in entrata.  
*Per ulteriori informazioni e un esempio di utilizzo delle notifiche di Amazon S3 con AWS Lambda, consulta [AWS Lambda Using with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) nella AWS Lambda Developer Guide.* 

### Amazon EventBridge
<a name="eventbridge-dest"></a>

Amazon EventBridge è un bus di eventi senza server, che riceve eventi dai AWS servizi. Puoi impostare regole per abbinare gli eventi e distribuirli ai target, come ad esempio un servizio AWS o un endpoint HTTP. Per ulteriori informazioni, consulta [Cosa c'è EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) nella *Amazon EventBridge User Guide*.

A differenza di altre destinazioni, puoi abilitare o disabilitare gli eventi a cui inviare eventi EventBridge per un bucket. Se abiliti la consegna, tutti gli eventi vengono inviati a EventBridge. Inoltre, puoi utilizzare EventBridge le regole per indirizzare gli eventi verso destinazioni aggiuntive.

## Tipi di eventi supportati per SQS, SNS e Lambda
<a name="supported-notification-event-types"></a>

Amazon S3 pubblica i tipi di eventi riportati di seguito. Questi tipi di eventi devono essere specificati nella configurazione delle notifiche.


|  Tipi di eventi |  Description  | 
| --- | --- | 
|  `s3:TestEvent`  |  Quando una notifica è abilitata, Amazon S3 pubblica una notifica di prova. Questo serve a garantire che l'argomento esista e che il proprietario del bucket abbia l'autorizzazione a pubblicare l'argomento specificato. Se l'attivazione della notifica ha esito negativo, non verrà ricevuta alcuna notifica di prova.  | 
|  `s3:ObjectCreated:*` `s3:ObjectCreated:Put` `s3:ObjectCreated:Post` `s3:ObjectCreated:Copy` `s3:ObjectCreated:CompleteMultipartUpload`  |  Le operazioni API di Amazon S3, come `PUT`, `POST` e `COPY`, possono creare un oggetto. Con questi tipi di eventi, puoi abilitare le notifiche quando un oggetto viene creato tramite un'API specifica. In alternativa, puoi utilizzare il tipo di evento `s3:ObjectCreated:*` per richiedere la notifica indipendentemente dall'API utilizzata per creare un oggetto.  `s3:ObjectCreated:CompleteMultipartUpload` include gli oggetti creati con [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html) per le operazioni di copia.  | 
|  `s3:ObjectRemoved:*` `s3:ObjectRemoved:Delete` `s3:ObjectRemoved:DeleteMarkerCreated`  |  Utilizzando i tipi di evento `ObjectRemoved`, è possibile attivare la notifica quando un oggetto o un gruppo di oggetti viene rimosso da un bucket. È possibile richiedere una notifica quando viene eliminato un oggetto o quando viene eliminato in modo permanente un oggetto con versione utilizzando il tipo di evento `s3:ObjectRemoved:Delete`. In alternativa, è possibile richiedere una notifica quando viene creato un contrassegno di eliminazione per un oggetto con versione utilizzando `s3:ObjectRemoved:DeleteMarkerCreated`. Per istruzioni su come eliminare gli oggetti con versione, consulta [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md). Inoltre, è possibile utilizzare un carattere jolly `s3:ObjectRemoved:*` per richiedere la notifica ogni volta che viene eliminato un oggetto.  Queste notifiche di eventi non provvedono alcun avviso per le eliminazioni automatiche dalle configurazioni del ciclo di vita o dalle operazioni che hanno avuto esito negativo.  | 
|  `s3:ObjectRestore:*` `s3:ObjectRestore:Post` `s3:ObjectRestore:Completed` `s3:ObjectRestore:Delete`  |  Utilizzando i tipi di evento `ObjectRestore`, è possibile ricevere notifiche per l'avvio e il completamento dell'evento durante il ripristino di oggetti dalla classe di storage Recupero flessibile S3 Glacier, dalla classe di storage S3 Glacier Deep Archive, dal livello di accesso all'archiviazione Piano intelligente S3 e dal livello di accesso all'archiviazione Deep Archive Piano intelligente S3. È inoltre possibile ricevere notifiche per la scadenza della copia ripristinata di un oggetto. Il tipo di evento `s3:ObjectRestore:Post` notifica l'avvio del ripristino degli oggetti. Il tipo di evento `s3:ObjectRestore:Completed` notifica il completamento del ripristino. Il tipo di evento `s3:ObjectRestore:Delete` notifica la scadenza della copia temporanea di un oggetto ripristinato.  | 
| s3:ReducedRedundancyLostObject | Puoi ricevere questo evento di notifica quando Amazon S3 rileva che un oggetto della classe di archiviazione RRS è andato perso. | 
|  `s3:Replication:*` `s3:Replication:OperationFailedReplication` `s3:Replication:OperationMissedThreshold` `s3:Replication:OperationReplicatedAfterThreshold` `s3:Replication:OperationNotTracked`  |  Utilizzando i tipi di evento `Replication`, è possibile ricevere notifiche per le configurazioni di replica con metriche di replica S3 o controllo del tempo di replica di S3 (S3 RTC) abilitate. È possibile monitorare l' minute-by-minuteavanzamento degli eventi di replica tenendo traccia dei byte in sospeso, delle operazioni in sospeso e della latenza di replica. Per informazioni sui parametri di replica, consulta [Monitoraggio della replica con parametri, notifiche di eventi e stati](replication-metrics.md). [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/notification-how-to-event-types-and-destinations.html)  | 
|  `s3:LifecycleExpiration:*` `s3:LifecycleExpiration:Delete` `s3:LifecycleExpiration:DeleteMarkerCreated`  |  Utilizzando i tipi di evento `LifecycleExpiration`, è possibile ricevere una notifica quando Amazon S3 elimina un oggetto in base alla configurazione del ciclo di vita S3. Il tipo di evento `s3:LifecycleExpiration:Delete` avvisa quando viene eliminato un oggetto in un bucket senza versione. Notifica inoltre quando una versione dell'oggetto viene eliminata definitivamente da una configurazione del ciclo di vita S3. Il tipo di evento `s3:LifecycleExpiration:DeleteMarkerCreated` notifica quando il ciclo di vita S3 crea un contrassegno di eliminazione quando viene eliminata una versione corrente di un oggetto in un bucket con versione.   | 
| s3:LifecycleTransition | Puoi ricevere questo evento di notifica quando un oggetto viene trasferito a un'altra classe di archiviazione Amazon S3 mediante una configurazione di S3 Lifecycle. | 
| s3:IntelligentTiering | Puoi ricevere questo evento di notifica quando un oggetto all'interno della classe di archiviazione S3 Intelligent-Tiering viene spostato nel livello Archive Access o Deep Archive Access.  | 
|  `s3:ObjectTagging:*` `s3:ObjectTagging:Put` `s3:ObjectTagging:Delete`  |  Utilizzando i tipi di evento `ObjectTagging`, è possibile attivare la notifica quando un tag oggetto viene aggiunto o eliminato da un oggetto. Il tipo di evento `s3:ObjectTagging:Put` notifica quando un tag viene inserito su un oggetto tramite richiesta PUT o quando viene aggiornato un tag esistente. Il tipo di evento `s3:ObjectTagging:Delete` notifica quando un tag viene rimosso da un oggetto. | 
| s3:ObjectAcl:Put | Puoi ricevere questo evento di notifica quando un'ACL viene inserita su un oggetto tramite richiesta PUT o quando viene modificata un'ACL esistente. Un evento non viene generato quando una richiesta non comporta alcuna modifica all'ACL di un oggetto. | 

## Tipi di eventi supportati per Amazon EventBridge
<a name="supported-notification-event-types-eventbridge"></a>

Per un elenco dei tipi di eventi che Amazon S3 invierà ad Amazon EventBridge, consulta. [Usando EventBridge](EventBridge.md)

## Ordinamento degli eventi e duplicazione degli eventi
<a name="event-ordering-and-duplicate-events"></a>

Amazon S3 Event Notifications è progettato per fornire notifiche almeno una volta, ma non è garantito che arrivino nello stesso ordine in cui si sono verificati gli eventi. In rare occasioni, il meccanismo di ripetizione di Amazon S3 potrebbe causare notifiche di eventi S3 duplicate per lo stesso evento oggetto. Per ulteriori informazioni sulla gestione degli eventi duplicati o fuori ordine, consulta la sezione [Gestire l'ordine degli eventi e gli eventi duplicati con le notifiche degli eventi di Amazon S3](https://aws.amazon.com/blogs/storage/manage-event-ordering-and-duplicate-events-with-amazon-s3-event-notifications/) su *AWS Storage Blog*.

# Utilizzo di Amazon SQS, Amazon SNS e Lambda
<a name="how-to-enable-disable-notification-intro"></a>

L'abilitazione delle notifiche è un'operazione a livello di bucket. Le informazioni di configurazione delle notifiche vengono memorizzate nella risorsa secondaria di *notifica* associata a un bucket. Dopo avere creato o modificato la configurazione di notifica del bucket, in genere è necessario attendere 5 minuti affinché le modifiche abbiano effetto. Si verificherà un `s3:TestEvent` quando la notifica viene attivata per la prima volta. Per gestire la configurazione delle notifiche, è possibile utilizzare i metodi indicati di seguito:
+ **Utilizzo della console di Amazon S3** — E' possibile utilizzare l'interfaccia utente della console per impostare una configurazione di notifiche su un bucket senza dover scrivere alcun codice. Per ulteriori informazioni, consulta [Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3](enable-event-notifications.md).
+ **Utilizzo programmatico** di AWS SDKs: internamente, sia la console che la SDKs chiamata all'API REST di Amazon S3 per gestire le sottorisorse di *notifica associate* al bucket. Per esempi di configurazione di notifiche che utilizzano gli SDK di AWS , consulta [Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)](ways-to-add-notification-config-to-bucket.md).
**Nota**  
Puoi effettuare le chiamate a REST API di Amazon S3 anche direttamente dal codice. Tuttavia, ciò può risultare scomodo in quanto richiede la scrittura di codice per autenticare le richieste. 

Indipendentemente dal metodo utilizzato, Amazon S3 archivia la configurazione delle notifiche in formato XML nella risorsa secondaria *notifica* associata a un bucket. Per informazioni sulle risorse secondarie del bucket, consulta la sezione [Opzioni di configurazione dei bucket per uso generico](UsingBucket.md#bucket-config-options-intro).

**Nota**  
Se si verificano più notifiche di eventi falliti a causa di destinazioni eliminate, è possibile che si riceva il messaggio **Impossibile convalidare le seguenti configurazioni di destinazione** quando si cerca di eliminarle. È possibile risolvere il problema nella console S3 eliminando contemporaneamente tutte le notifiche non riuscite.

**Topics**
+ [

# Concessione di autorizzazioni per pubblicare messaggi di notifica eventi in una destinazione
](grant-destinations-permissions-to-s3.md)
+ [

# Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3
](enable-event-notifications.md)
+ [

## Configurazione delle notifiche degli eventi a livello di programmazione
](#event-notification-configuration)
+ [

# Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)
](ways-to-add-notification-config-to-bucket.md)
+ [

# Configurazione delle notifiche di eventi mediante il filtro dei nomi delle chiavi oggetto
](notification-how-to-filtering.md)
+ [

# Struttura del messaggio di evento
](notification-content-structure.md)

# Concessione di autorizzazioni per pubblicare messaggi di notifica eventi in una destinazione
<a name="grant-destinations-permissions-to-s3"></a>

È necessario concedere al principale di Amazon S3 le autorizzazioni necessarie per richiamare l'API pertinente per pubblicare i messaggi in un argomento SNS, una coda SQS o una funzione Lambda. In questo modo Amazon S3 può pubblicare messaggi di notifica di eventi in una destinazione.

Per risolvere i problemi relativi alla pubblicazione dei messaggi di notifica di eventi su una destinazione, consulta [Risoluzione dei problemi relativi alla pubblicazione delle notifiche di eventi di Amazon S3 in un argomento di Servizio di notifica semplice Amazon](https://repost.aws/knowledge-center/sns-not-receiving-s3-event-notifications).

**Topics**
+ [

## Concessione delle autorizzazioni per richiamare una funzione AWS Lambda
](#grant-lambda-invoke-permission-to-s3)
+ [

## Concessione di autorizzazioni per pubblicare messaggi in un argomento SNS o una coda SQS
](#grant-sns-sqs-permission-for-s3)

## Concessione delle autorizzazioni per richiamare una funzione AWS Lambda
<a name="grant-lambda-invoke-permission-to-s3"></a>

Amazon S3 pubblica messaggi di evento AWS Lambda invocando una funzione Lambda e fornendo il messaggio dell'evento come argomento.

Quando si utilizza la console di Amazon S3 per configurare le notifiche eventi in un bucket di Amazon S3 per una funzione Lambda, la console configura le autorizzazioni necessarie sulla funzione Lambda. In questo modo Amazon S3 dispone delle autorizzazioni per richiamare la funzione dal bucket. Per ulteriori informazioni, consulta [Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3](enable-event-notifications.md). 

Puoi anche concedere ad Amazon S3 le autorizzazioni AWS Lambda per richiamare la tua funzione Lambda. Per ulteriori informazioni, consulta [Tutorial: Using AWS Lambda with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3-example.html) nella *AWS Lambda Developer* Guide.

## Concessione di autorizzazioni per pubblicare messaggi in un argomento SNS o una coda SQS
<a name="grant-sns-sqs-permission-for-s3"></a>

Per concedere ad Amazon S3 le autorizzazioni per pubblicare messaggi sull'argomento SNS o sulla coda SQS, allega una policy AWS Identity and Access Management (IAM) all'argomento SNS o alla coda SQS di destinazione. 

Per un esempio di come collegare una policy a un argomento SNS o a una coda SQS, consulta la sezione [Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)](ways-to-add-notification-config-to-bucket.md). Per ulteriori informazioni sulle autorizzazioni, consulta i seguenti argomenti:
+ [Casi di esempio per il controllo degli accessi ad Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/AccessPolicyLanguage_UseCases_Sns.html) nella *Guida per sviluppatori di Amazon Simple Notification Service*
+ [Identity and Access Management in Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/UsingIAM.html) nella *Guida per gli sviluppatori di Amazon Simple Queue Service*

### Policy IAM per un argomento SNS di destinazione
<a name="sns-topic-policy"></a>

Di seguito è riportato un esempio di policy AWS Identity and Access Management (IAM) da allegare all'argomento SNS di destinazione. Per maggiori informazioni su come utilizzare questa policy per configurare un argomento Amazon SNS di destinazione per le notifiche degli eventi, consulta [Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)](ways-to-add-notification-config-to-bucket.md).

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "Example SNS topic policy",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "SNS:Publish"
            ],
            "Resource": "arn:aws:sns:us-east-1:111122223333:example-sns-topic",
            "Condition": {
                "ArnEquals": {
                    "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "bucket-owner-123456789012"
                }
            }
        }
    ]
}
```

------

### Policy IAM per una coda SQS di destinazione
<a name="sqs-queue-policy"></a>

Di seguito è riportato un esempio di policy IAM collegata alla coda SQS di destinazione. Per maggiori informazioni su come utilizzare questa policy per impostare una coda Amazon SQS di destinazione per le notifiche degli eventi, consulta [Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)](ways-to-add-notification-config-to-bucket.md).

Per utilizzare questa politica, devi aggiornare l'ARN della coda Amazon SQS, il nome del bucket e l'ID del proprietario del bucket. Account AWS 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "example-statement-ID",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "SQS:SendMessage"
            ],
            "Resource": "arn:aws:sqs:us-east-1:111122223333:queue-name",
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:*:*:amzn-s3-demo-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "bucket-owner-123456789012"
                }
            }
        }
    ]
}
```

------

Per entrambe le policy IAM di Amazon SNS e Amazon SQS, è possibile specificare la condizione `StringLike` nella policy anziché la condizione `ArnLike`.

Quando si utilizza `ArnLike`, le partizioni, il servizio, l’ID dell’account, il tipo di risorsa e l’ID della risorsa parziale dell’ARN devono corrispondere esattamente all’ARN nel contesto della richiesta. La corrispondenza parziale è consentita solo per la Regione e il percorso della risorsa.

 Quando al posto di `ArnLike` viene utilizzato `StringLike`, la corrispondenza ignora la struttura dell’ARN e consente una corrispondenza parziale, indipendentemente dalla parte sostituita dal carattere jolly. Per ulteriori informazioni, consulta [Elementi delle policy JSON IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html) nella *Guida per l'utente di IAM*.

```
"Condition": {         
  "StringLike": { "aws:SourceArn": "arn:aws:s3:*:*:amzn-s3-demo-bucket" }
  }
```

### AWS KMS politica chiave
<a name="key-policy-sns-sqs"></a>

Se la coda SQS o gli argomenti SNS sono crittografati con una chiave gestita dal cliente AWS Key Management Service (AWS KMS), devi concedere al servizio Amazon S3 l'autorizzazione principale per lavorare con gli argomenti o la coda crittografati. Per concedere al servizio Amazon S3 l'autorizzazione principale, aggiungi l'istruzione seguente alla policy delle chiavi per la chiave gestita dal cliente.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "example-statement-ID",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

*Per ulteriori informazioni sulle politiche AWS KMS chiave, consulta [Using key policy nella AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) Developer Guide.AWS Key Management Service * 

Per ulteriori informazioni sull'utilizzo della crittografia lato server con AWS KMS Amazon SQS e Amazon SNS, consulta quanto segue:
+ [Gestione delle chiavi](https://docs.aws.amazon.com/sns/latest/dg/sns-key-management.html) nella *Guida per sviluppatori di Amazon Simple Notification Service*.
+ [Gestione delle chiavi](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-key-management.html) nella *Guida per sviluppatori di Amazon Simple Queue Service*.
+ [Crittografia dei messaggi pubblicati su Amazon SNS con AWS KMS](https://aws.amazon.com/blogs/compute/encrypting-messages-published-to-amazon-sns-with-aws-kms/) nel *Blog di calcolo di AWS *.

# Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3
<a name="enable-event-notifications"></a>

È possibile abilitare determinati eventi del bucket per uso generico Amazon S3 per inviare un messaggio di notifica a una destinazione ogni volta che si verificano gli eventi. In questa sezione viene descritto come utilizzare la console di Amazon S3 per abilitare le notifiche di evento. Per informazioni su come utilizzare le notifiche di eventi con Amazon S3 REST APIs, consulta. AWS SDKs [Configurazione delle notifiche degli eventi a livello di programmazione](how-to-enable-disable-notification-intro.md#event-notification-configuration) 

**Prerequisiti**: prima di abilitare le notifiche di eventi per il bucket, è necessario impostare uno dei tipi di destinazione e quindi configurare le autorizzazioni. Per ulteriori informazioni, consultare [Destinazioni eventi supportate](notification-how-to-event-types-and-destinations.md#supported-notification-destinations) e [Concessione di autorizzazioni per pubblicare messaggi di notifica eventi in una destinazione](grant-destinations-permissions-to-s3.md).

**Nota**  
Le code FIFO (First-In-First-Out) di Amazon Simple Queue Service non sono supportate come destinazione delle notifiche degli eventi di Amazon S3. Per inviare una notifica per un evento Amazon S3 a una coda FIFO di Amazon SQS, puoi utilizzare Amazon. EventBridge Per ulteriori informazioni, consulta [Attivazione di Amazon EventBridge](enable-event-notifications-eventbridge.md).

**Topics**
+ [

## Attivazione delle notifiche di Amazon SNS, Amazon SQS o Lambda tramite la console di Amazon S3
](#enable-event-notifications-sns-sqs-lam)

## Attivazione delle notifiche di Amazon SNS, Amazon SQS o Lambda tramite la console di Amazon S3
<a name="enable-event-notifications-sns-sqs-lam"></a>

**Per abilitare e configurare le notifiche di evento per un bucket S3**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket per il quale desideri abilitare gli eventi.

1. Scegliere **Properties (Proprietà)**.

1. Passare alla sezione **Event Notifications (Notifiche evento)** e scegliere **Create event notification (Crea notifica evento)**.

1. Nella sezione **General configuration (Configurazione generale)** specificare il nome dell'evento descrittivo per la notifica dell'evento. Facoltativamente, è anche possibile specificare un prefisso e un suffisso per limitare le notifiche agli oggetti con chiavi che terminano con i caratteri specificati.

   1. Immettere una descrizione per **Event name (Nome evento)**.

      Se non specifichi un nome, viene generato e utilizzato un GUID (Globally Unique Identifier). 

   1. (Facoltativo) Per filtrare le notifiche degli eventi in base al prefisso, immettere **Prefix**. 

      Ad esempio, è possibile impostare un filtro prefisso in modo da ricevere notifiche solo quando i file vengono aggiunti a una cartella specifica co, `images/`). 

   1. (Facoltativo) Per filtrare le notifiche degli eventi in base al suffisso, immettere **Suffix**. 

      Per ulteriori informazioni, consulta [Configurazione delle notifiche di eventi mediante il filtro dei nomi delle chiavi oggetto](notification-how-to-filtering.md). 

1. Nella sezione **Tipi di evento**, selezionare uno o più tipi di evento per i quali si desidera ricevere notifiche. 

   Per un elenco dei vari tipi di evento, consulta [Tipi di eventi supportati per SQS, SNS e Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types).

1. Nella sezione **Destination (Destinazione)**, scegliere la destinazione della notifica dell'evento. 
**Nota**  
Prima di poter pubblicare le notifiche di eventi, è necessario concedere al principale di Amazon S3 le autorizzazioni necessarie per richiamare l'API pertinente. In questo modo è possibile pubblicare le notifiche su una funzione Lambda, un argomento SNS o una coda SQS.

   1. Selezionare il tipo di destinazione: **Lambda Function (Funzione Lambda)**, **SNS Topic (Argomento SNS)** o **SQS Queue (Coda SQS)**.

   1. Dopo aver scelto il tipo di destinazione, scegliere una funzione, un argomento o una coda dall'elenco.

   1. In alternativa, se preferisci specificare un Amazon Resource Name (ARN), seleziona **Inserisci ARN** e specifica l'ARN.

   Per ulteriori informazioni, consulta [Destinazioni eventi supportate](notification-how-to-event-types-and-destinations.md#supported-notification-destinations).

1. Seleziona **Salva modifiche** e Amazon S3 invia un messaggio di prova alla destinazione della notifica dell'evento.

## Configurazione delle notifiche degli eventi a livello di programmazione
<a name="event-notification-configuration"></a>

Per impostazione predefinita, le notifiche sono disattivate per tutti i tipi di evento. Pertanto, inizialmente la risorsa secondaria *notifica* archivia una configurazione vuota.

```
<NotificationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</NotificationConfiguration>
```

Per abilitare le notifiche per tipi di eventi specifici, sostituisci il file XML con la configurazione appropriata che identifica i tipi di evento che Amazon S3 deve pubblicare e la destinazione in cui gli eventi devono essere pubblicati. Per ciascuna destinazione, si aggiunge una configurazione XML corrispondente. 

**Per pubblicare messaggi di eventi in una coda SQS**  
Per impostare una coda SQS come destinazione di notifica per uno o più tipi di evento, aggiungi la `QueueConfiguration`.

```
<NotificationConfiguration>
  <QueueConfiguration>
    <Id>optional-id-string</Id>
    <Queue>sqs-queue-arn</Queue>
    <Event>event-type</Event>
    <Event>event-type</Event>
     ...
  </QueueConfiguration>
   ...
</NotificationConfiguration>
```

**Per pubblicare i messaggi di eventi in un argomento SNS**  
Per impostare un argomento SNS come destinazione di notifica per tipi di eventi specifici, aggiungi la `TopicConfiguration`.

```
<NotificationConfiguration>
  <TopicConfiguration>
     <Id>optional-id-string</Id>
     <Topic>sns-topic-arn</Topic>
     <Event>event-type</Event>
     <Event>event-type</Event>
      ...
  </TopicConfiguration>
   ...
</NotificationConfiguration>
```

**Per richiamare la AWS Lambda funzione e fornire un messaggio di evento come argomento**  
Per impostare una funzione Lambda come destinazione di notifica per tipi di eventi specifici, aggiungi la `CloudFunctionConfiguration`.

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>   
     <Id>optional-id-string</Id>   
     <CloudFunction>cloud-function-arn</CloudFunction>        
     <Event>event-type</Event>      
     <Event>event-type</Event>      
      ...  
  </CloudFunctionConfiguration>
   ...
</NotificationConfiguration>
```

**Per rimuovere tutte le notifiche configurate su un bucket**  
Per rimuovere tutte le notifiche configurate in un bucket, salva un elemento `<NotificationConfiguration/>` vuoto nella risorsa secondaria di *notifica*. 

Quando Amazon S3 rileva un evento di tipo specifico, pubblica un messaggio con le informazioni sull'evento. Per ulteriori informazioni, consulta [Struttura del messaggio di evento](notification-content-structure.md). 

Per ulteriori informazioni sulla configurazione delle notifiche di eventi, consulta i seguenti argomenti: 
+ [Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)](ways-to-add-notification-config-to-bucket.md).
+ [Configurazione delle notifiche di eventi mediante il filtro dei nomi delle chiavi oggetto](notification-how-to-filtering.md)

# Spiegazione passo per passo: configurare un bucket per le notifiche (argomento SNS o coda SQS)
<a name="ways-to-add-notification-config-to-bucket"></a>

Puoi ricevere notifiche Amazon S3 utilizzando Amazon Simple Notification Service (Amazon SNS) o Amazon Simple Queue Service (Amazon SQS). Nella spiegazione passo per passo seguente viene aggiunta una configurazione di notifica al bucket utilizzando un argomento Amazon SNS e una coda Amazon SQS.

**Nota**  
Le code FIFO (First-In-First-Out) di Amazon Simple Queue Service non sono supportate come destinazione delle notifiche degli eventi di Amazon S3. Per inviare una notifica per un evento Amazon S3 a una coda FIFO di Amazon SQS, puoi utilizzare Amazon. EventBridge Per ulteriori informazioni, consulta [Attivazione di Amazon EventBridge](enable-event-notifications-eventbridge.md).

**Topics**
+ [

## Riepilogo della spiegazione passo per passo
](#notification-walkthrough-summary)
+ [

## Fase 1: creare una coda Amazon SQS
](#step1-create-sqs-queue-for-notification)
+ [

## Fase 2: creare un argomento Amazon SNS
](#step1-create-sns-topic-for-notification)
+ [

## Fase 3: aggiungere una configurazione delle notifiche al bucket
](#step2-enable-notification)
+ [

## Fase 4: eseguire il test della configurazione
](#notification-walkthrough-1-test)

## Riepilogo della spiegazione passo per passo
<a name="notification-walkthrough-summary"></a>

Questa spiegazione passo per passo aiuta a completare le seguenti operazioni:
+ Pubblicare eventi di tipo `s3:ObjectCreated:*` in una coda Amazon SQS.
+ Pubblicare eventi di tipo `s3:ReducedRedundancyLostObject` in un argomento Amazon SNS.

Per informazioni sulla configurazione delle notifiche, consulta [Utilizzo di Amazon SQS, Amazon SNS e Lambda](how-to-enable-disable-notification-intro.md).

È possibile eseguire tutte queste fasi utilizzando la console, senza scrivere alcun codice. Inoltre, vengono forniti anche esempi di codice utilizzati AWS SDKs per Java e.NET per aiutarti ad aggiungere configurazioni di notifica a livello di codice.

La procedura include le seguenti fasi:

1. Creare una coda Amazon SQS.

   Attraverso la console di Amazon SQS, crea una coda SQS. È possibile accedere a qualsiasi messaggio che Amazon S3 invia alla coda in modo programmatico. Tuttavia, per questa procedura guidata, i messaggi di notifica si verificano nella console. 

   Collega una policy di accesso all'argomento per concedere ad Amazon S3 l'autorizzazione a pubblicare messaggi.

1. Creare un argomento Amazon SNS.

   Utilizzando la console di Amazon SNS, crea un argomento SNS e iscriviti all'argomento. In questo modo, riceverai tutti gli eventi pubblicati. Si specifica l'e-mail come protocollo di comunicazione. Dopo aver creato un argomento, Amazon SNS invia un'e-mail. È necessario utilizzare il collegamento nell'e-mail per confermare la sottoscrizione all'argomento. 

   Collega una policy di accesso all'argomento per concedere ad Amazon S3 l'autorizzazione a pubblicare messaggi. 

1. Aggiungere una configurazione delle notifiche a un bucket. 

## Fase 1: creare una coda Amazon SQS
<a name="step1-create-sqs-queue-for-notification"></a>

Segui le fasi per creare una coda Amazon Simple Queue Service (Amazon SQS) ed effettuarvi la sottoscrizione.

1. Utilizzando la console di Amazon SQS, creare una coda. Per istruzioni, consulta la sezione [Nozioni di base su Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) nella *Guida per gli sviluppatori di Amazon Simple Queue Service*. 

1. Sostituire la policy di accesso allegata alla coda con la policy riportata di seguito.

   1. Nella console di Amazon SQS, nell'elenco **Code**, seleziona il nome della coda.

   1. Nella scheda **Policy di accesso**, seleziona **Modifica**.

   1. Sostituire la policy di accesso allegata alla coda. Fornisci l'ARN di Amazon SQS, il nome del bucket di origine e l'ID dell'account del proprietario del bucket.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Id": "example-ID",
          "Statement": [
              {
                  "Sid": "example-statement-ID",
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "s3.amazonaws.com"
                  },
                  "Action": [
                      "SQS:SendMessage"
                  ],
                  "Resource": "arn:aws:sqs:us-west-2:111122223333:s3-notification-queue",
                  "Condition": {
                      "ArnLike": {
                          "aws:SourceArn": "arn:aws:s3:*:*:awsexamplebucket1"
                      },
                      "StringEquals": {
                          "aws:SourceAccount": "bucket-owner-123456789012"
                      }
                  }
              }
          ]
      }
      ```

------

   1. Scegli **Save** (Salva).

1. (Facoltativo) Se la coda Amazon SQS o l'argomento Amazon SNS è la crittografia lato server abilitata con AWS Key Management Service (AWS KMS), aggiungi la seguente policy alla chiave di crittografia simmetrica associata gestita dal cliente. 

   Devi aggiungere la policy a una chiave gestita dal cliente perché non è possibile modificare la chiave gestita da AWS per Amazon SQS o Amazon SNS. 

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Id": "example-ID",
       "Statement": [
           {
               "Sid": "example-statement-ID",
               "Effect": "Allow",
               "Principal": {
                   "Service": "s3.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "*"
           }
       ]
   }
   ```

------

   Per ulteriori informazioni sull'utilizzo di SSE per Amazon SQS e Amazon SNS AWS KMS con, consulta quanto segue:
   + [Gestione delle chiavi](https://docs.aws.amazon.com/sns/latest/dg/sns-key-management.html) nella *Guida per sviluppatori di Amazon Simple Notification Service*.
   + [Gestione delle chiavi](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-key-management.html) nella *Guida per sviluppatori di Amazon Simple Queue Service*.

1. Prendere nota dell'ARN della coda. 

   La coda SQS creata è un'altra risorsa nel tuo Account AWS. Dispone di un Amazon Resource Name (ARN) univoco. Il presente ARN è necessario nella fase successiva. Il nome ARN presenta il formato seguente:

   ```
   arn:aws:sqs:aws-region:account-id:queue-name
   ```

## Fase 2: creare un argomento Amazon SNS
<a name="step1-create-sns-topic-for-notification"></a>

Completa la procedura per creare e sottoscrivere un argomento Amazon SNS.

1. Utilizzando la console di Amazon SNS, crea un argomento. Per le istruzioni, consulta la sezione [Creazione di un argomento Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/CreateTopic.html) nella *Guida per gli sviluppatori di Amazon Simple Notification Service*. 

1. Effettuare la sottoscrizione all'argomento. Per questo esercizio, utilizzare l'e-mail come protocollo di comunicazione. Per le istruzioni, consulta la sezione [Sottoscrizione a un argomento di Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/sns-create-subscribe-endpoint-to-topic.html) nella *Guida per gli sviluppatori di Amazon Simple Notification Service*. 

   Si riceverà un'e-mail in cui è richiesto di confermare la sottoscrizione all'argomento. Confermare la sottoscrizione. 

1. Sostituire la policy di accesso collegata all'argomento con la policy riportata di seguito. Fornisci l'ARN dell'argomento SNS, il nome del bucket e l'ID dell'account del proprietario del bucket.

1. Prendere nota dell'ARN dell'argomento.

   L'argomento SNS che hai creato è un'altra tua Account AWS risorsa e ha un ARN unico. L'ARN è necessario nella fase successiva. L'ARN ha il formato seguente:

   ```
   arn:aws:sns:aws-region:account-id:topic-name
   ```

## Fase 3: aggiungere una configurazione delle notifiche al bucket
<a name="step2-enable-notification"></a>

Puoi abilitare le notifiche bucket utilizzando la console Amazon S3 o a livello di codice utilizzando. AWS SDKs Scegliere una delle opzioni per configurare le notifiche nel bucket. Questa sezione fornisce esempi di codice che utilizzano AWS SDKs for Java e.NET.

### Opzione A: abilitare le notifiche in un bucket utilizzando la console
<a name="step2-enable-notification-using-console"></a>

Utilizzando la console di Amazon S3, aggiungi una configurazione di notifica che richiede ad Amazon S3 di:
+ Pubblicare gli eventi di tipo **Tutti gli eventi di creazione dell'oggetto** nella coda Amazon SQS.
+ Pubblica gli eventi di tipo **Oggetto perso in RRS** sul tuo argomento Amazon SNS.

Una volta salvata la configurazione delle notifiche, Amazon S3 pubblica un messaggio di testo che viene inviato tramite e-mail. 

Per istruzioni, consulta [Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3](enable-event-notifications.md). 

### Opzione B: abilita le notifiche su un bucket utilizzando AWS SDKs
<a name="step2-enable-notification-using-awssdk-dotnet"></a>

------
#### [ .NET ]

L'esempio di codice C\$1 riportato di seguito include il codice completo che aggiunge una configurazione delle notifiche in un bucket. Occorre aggiornare il codice e fornire il nome del bucket e l'ARN dell'argomento SNS. Per informazioni sulla configurazione e l'esecuzione degli esempi di codice, consulta [Getting Started with the AWS SDK for .NET nella AWS SDK for](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) .NET *Developer Guide*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Collections.Generic;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class EnableNotificationsTest
    {
        private const string bucketName = "*** bucket name ***";
        private const string snsTopic = "*** SNS topic ARN ***";
        private const string sqsQueue = "*** SQS topic ARN ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint bucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 client;

        public static void Main()
        {
            client = new AmazonS3Client(bucketRegion);
            EnableNotificationAsync().Wait();
        }

        static async Task EnableNotificationAsync()
        {
            try
            {
               PutBucketNotificationRequest request = new PutBucketNotificationRequest
                {
                    BucketName = bucketName
                };

                TopicConfiguration c = new TopicConfiguration
                {
                    Events = new List<EventType> { EventType.ObjectCreatedCopy },
                    Topic = snsTopic
                };
                request.TopicConfigurations = new List<TopicConfiguration>();
                request.TopicConfigurations.Add(c);
                request.QueueConfigurations = new List<QueueConfiguration>();
                request.QueueConfigurations.Add(new QueueConfiguration()
                {
                    Events = new List<EventType> { EventType.ObjectCreatedPut },
                    Queue = sqsQueue
                });
                
                PutBucketNotificationResponse response = await client.PutBucketNotificationAsync(request);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' ", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown error encountered on server. Message:'{0}' ", e.Message);
            }
        }
    }
}
```

------
#### [ Java ]

Per esempi di come configurare le notifiche bucket con l' AWS SDK for Java, [consulta Process S3 event notification in Amazon *S3*](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ProcessS3EventNotification_section.html) API Reference.

------

## Fase 4: eseguire il test della configurazione
<a name="notification-walkthrough-1-test"></a>

Ora è possibile testare la configurazione caricando un oggetto nel bucket e verificando la notifica di eventi nella console di Amazon SQS. Per istruzioni, consulta la sezione [Ricezione di un messaggio](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.htmlReceiveMessage.html) nella sezione *"Nozioni di base" della Guida per gli sviluppatori di Amazon Simple Queue Service*. 

# Configurazione delle notifiche di eventi mediante il filtro dei nomi delle chiavi oggetto
<a name="notification-how-to-filtering"></a>

Quando configuri una notifica di eventi di Amazon S3, devi specificare quali tipi di eventi di Amazon S3 supportati fanno sì che Amazon S3 invii la notifica. Se nel bucket S3 si verifica un tipo di evento che non hai specificato, Amazon S3 non invia la notifica.

È possibile configurare le notifiche in modo da essere filtrate in base al prefisso e al suffisso del nome della chiave degli oggetti, Ad esempio, è possibile impostare una configurazione per ricevere una notifica solo quando i file di immagini con l'estensione del nome file "`.jpg`" vengono aggiunti a un bucket. In alternativa, puoi avere una configurazione che invia una notifica a un argomento di Amazon SNS quando un oggetto con il prefisso "`images/`" viene aggiunto al bucket, mentre le notifiche per gli oggetti con un prefisso "`logs/`" nello stesso bucket vengono inviate a una funzione. AWS Lambda 

**Nota**  
Un carattere jolly ("\$1") non può essere utilizzato nei filtri come prefisso o suffisso. Se il prefisso o il suffisso contiene uno spazio, è necessario sostituirlo con il carattere "\$1". Se utilizzi altri caratteri speciali nel valore del prefisso o del suffisso, dovrai immetterli nel [formato con codifica URL (codificato in percentuale)](https://en.wikipedia.org/wiki/Percent-encoding). Per un elenco completo dei caratteri speciali che devono essere convertiti in formato con codifica URL se utilizzati in un prefisso o in un suffisso per le notifiche di eventi, consulta [Caratteri sicuri](object-keys.md#object-key-guidelines-safe-characters).

È possibile impostare configurazioni delle notifiche che utilizzano il filtraggio del nome della chiave oggetto nella console di Amazon S3. Puoi farlo utilizzando Amazon S3 APIs tramite AWS SDKs o direttamente REST APIs . Per informazioni sull'utilizzo dell'interfaccia utente della console per impostare una configurazione di notifica in un bucket, consulta la sezione [Attivazione e configurazione delle notifiche di eventi tramite la console di Amazon S3](enable-event-notifications.md). 

Amazon S3 archivia la configurazione delle notifiche in formato XML nella risorsa secondaria *notification* associata a un bucket, come descritto in [Utilizzo di Amazon SQS, Amazon SNS e Lambda](how-to-enable-disable-notification-intro.md). Si utilizza la struttura XML `Filter` per definire le regole per filtrare le notifiche in base al prefisso o al suffisso del nome della chiave oggetto. Per informazioni sulla struttura XML `Filter`, consulta [notifica PUT Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTnotification.html) nella *Documentazione di riferimento delle API di Amazon Simple Storage Service*. 

Le configurazioni delle notifiche che utilizzano `Filter` non possono definire regole di filtri con prefissi che si sovrappongono, suffissi che si sovrappongono o prefisso e suffisso che si sovrappongono. Nelle sezioni seguenti sono riportati esempi di configurazioni delle notifiche valide con il filtro del nome della chiave dell'oggetto. Contengono anche esempi di configurazioni delle notifiche non valide a causa della sovrapposizione di prefisso/suffisso. 

**Topics**
+ [

## Esempi di configurazioni di notifiche valide con il filtro del nome della chiave dell'oggetto
](#notification-how-to-filtering-example-valid)
+ [

## Esempi di configurazioni di notifiche con sovrapposizione di prefisso/suffisso non valida
](#notification-how-to-filtering-examples-invalid)

## Esempi di configurazioni di notifiche valide con il filtro del nome della chiave dell'oggetto
<a name="notification-how-to-filtering-example-valid"></a>

La configurazione delle notifiche seguente contiene una configurazione della coda che identifica una coda Amazon SQS dove Amazon S3 deve pubblicare gli eventi di tipo `s3:ObjectCreated:Put`. Gli eventi vengono pubblicati ogni volta che un oggetto con prefisso `images/` e suffisso `jpg` viene aggiunto a un bucket tramite richiesta PUT. 

```
<NotificationConfiguration>
  <QueueConfiguration>
      <Id>1</Id>
      <Filter>
          <S3Key>
              <FilterRule>
                  <Name>prefix</Name>
                  <Value>images/</Value>
              </FilterRule>
              <FilterRule>
                  <Name>suffix</Name>
                  <Value>jpg</Value>
              </FilterRule>
          </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:s3notificationqueue</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
</NotificationConfiguration>
```

La configurazione delle notifiche riportata di seguito include diversi prefissi che non si sovrappongono. La configurazione stabilisce che le notifiche delle richieste PUT nella cartella `images/` vanno nella coda A (queue-A) mentre le notifiche delle richieste PUT nella cartella `logs/` vanno nella coda B (queue-B).

```
<NotificationConfiguration>
  <QueueConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images/</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:sqs-queue-A</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
  <QueueConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>logs/</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:sqs-queue-B</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
</NotificationConfiguration>
```

La configurazione delle notifiche riportata di seguito include diversi suffissi che non si sovrappongono. La configurazione definisce che tutte le `.jpg` immagini appena aggiunte al bucket vengono elaborate da cloud-function-A Lambda e tutte le immagini appena `.png` aggiunte vengono elaborate da. cloud-function-B I `.jpg` suffissi `.png` and non si sovrappongono anche se hanno la stessa ultima lettera. I due suffissi si considerano sovrapposti se una determinata stringa può terminare con entrambi. Una stringa non può terminare sia con `.png` che con `.jpg`, pertanto i suffissi nella configurazione di esempio non si sovrappongono. 

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.jpg</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-A</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
  <CloudFunctionConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.png</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-B</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
</NotificationConfiguration>
```

Le configurazioni delle notifiche che utilizzano `Filter` non possono definire regole per filtrare i prefissi che si sovrappongono nello stesso tipo di evento. Possono farlo solo se i prefissi sovrapposti sono utilizzati con suffissi che non si sovrappongono. L'esempio di configurazione seguente mostra in che modo gli oggetti creati con un prefisso comune ma con suffissi che non si sovrappongono possono essere distribuiti in diverse destinazioni.

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images</Value>
                </FilterRule>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.jpg</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-A</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
  <CloudFunctionConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images</Value>
                </FilterRule>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.png</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-B</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
</NotificationConfiguration>
```

## Esempi di configurazioni di notifiche con sovrapposizione di prefisso/suffisso non valida
<a name="notification-how-to-filtering-examples-invalid"></a>

La maggior parte delle configurazioni delle notifiche che utilizzano `Filter` non possono definire regole per filtrare i prefissi che si sovrappongono, i suffissi che si sovrappongono o le combinazioni di prefissi e suffissi che si sovrappongono per gli stessi tipi di eventi. È possibile avere prefissi che si sovrappongono a condizione che non si sovrappongano i suffissi. Per vedere un esempio, consulta [Configurazione delle notifiche di eventi mediante il filtro dei nomi delle chiavi oggetto](#notification-how-to-filtering).

È possibile utilizzare filtri di nomi delle chiavi degli oggetti che si sovrappongono con diversi tipi di eventi. Ad esempio, si potrebbe creare una configurazione delle notifiche che utilizza il prefisso `image/` per il tipo di evento `ObjectCreated:Put` e il prefisso `image/` per il tipo di evento `ObjectRemoved:*`. 

Se cerchi di salvare una configurazione delle notifiche con filtri di nomi non validi che si sovrappongono per gli stessi tipi di eventi, durante l'utilizzo dell'API o della console di Amazon S3, si verifica un errore. Questa sezione mostra esempi di configurazioni delle notifiche non valide a causa della sovrapposizione dei filtri dei nomi. 

Si presuppone che qualsiasi regola di configurazione delle notifiche esistente abbia prefisso e suffisso predefiniti che corrispondano rispettivamente a qualsiasi altro prefisso e suffisso. La configurazione delle notifiche riportata di seguito non è valida poiché include prefissi che si sovrappongono. In particolare, il prefisso root si sovrappone con qualsiasi altro prefisso. Lo stesso vale nel caso in cui in questo esempio si utilizzi un suffisso anziché il prefisso. Il suffisso root si sovrappone a qualsiasi altro suffisso.

```
<NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-notification-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-notification-two</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>prefix</Name>
                     <Value>images</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>             
</NotificationConfiguration>
```

La configurazione delle notifiche riportata di seguito non è valida in quanto include suffissi che si sovrappongono. I due suffissi si considerano sovrapposti se una determinata stringa può terminare con entrambi. Una stringa può terminare con `jpg` e `pg`. Quindi, i suffissi si sovrappongono. Lo stesso vale per i prefissi. Due prefissi sono considerati sovrapposti se una determinata stringa può iniziare con entrambi i prefissi.

```
 <NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-two</Topic>
         <Event>s3:ObjectCreated:Put</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>pg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
</NotificationConfiguration
```

La configurazione delle notifiche riportata di seguito non è valida poiché include prefissi e suffissi che si sovrappongono. 

```
<NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>prefix</Name>
                     <Value>images</Value>
                 </FilterRule>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-two</Topic>
         <Event>s3:ObjectCreated:Put</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
</NotificationConfiguration>
```

# Struttura del messaggio di evento
<a name="notification-content-structure"></a>

Il messaggio di notifica inviato da Amazon S3 per pubblicare un evento è in formato JSON.

Per una panoramica generale e istruzioni sulla configurazione delle notifiche degli eventi, consulta [Notifiche di eventi Amazon S3](EventNotifications.md).

Questo esempio mostra la *versione 2.1 della struttura JSON* di notifica degli eventi. Amazon S3 utilizza le *versioni 2.1*, *2.2* e *2.3* di questa struttura di eventi. Amazon S3 utilizza la versione 2.2 per le notifiche di eventi di replica tra Regioni. Utilizza la versione 2.3 per S3 Lifecycle, S3 Intelligent-Tiering, ACL di oggetti, assegnazione di tag di oggetti e ripristino oggetti per gli eventi di eliminazione. Queste versioni contengono informazioni aggiuntive specifiche per queste operazioni. Le versioni 2.2 e 2.3 sono altrimenti compatibili con la versione 2.1 che Amazon S3 utilizza attualmente per altri tipi di notifiche di eventi.

```
{  
   "Records":[  
      {  
         "eventVersion":"2.1",
         "eventSource":"aws:s3",
         "awsRegion":"us-west-2",
         "eventTime":"The time, in ISO-8601 format (for example, 1970-01-01T00:00:00.000Z) when Amazon S3 finished processing the request",
         "eventName":"The event type",
         "userIdentity":{  
            "principalId":"The unique ID of the IAM resource that caused the event"
         },
         "requestParameters":{  
            "sourceIPAddress":"The IP address where the request came from"
         },
         "responseElements":{  
            "x-amz-request-id":"The Amazon S3 generated request ID",
            "x-amz-id-2":"The Amazon S3 host that processed the request"
         },
         "s3":{  
            "s3SchemaVersion":"1.0",
            "configurationId":"The ID found in the bucket notification configuration",
            "bucket":{  
               "name":"The name of the bucket, for example, amzn-s3-demo-bucket",
               "ownerIdentity":{  
                  "principalId":"The Amazon retail customer ID of the bucket owner"
               },
               "arn":"The bucket Amazon Resource Name (ARN)"
            },
            "object":{  
               "key":"The object key name",
               "size":"The object size in bytes (as a number)",
               "eTag":"The object entity tag (ETag)",
               "versionId":"The object version if the bucket is versioning-enabled; null or not present if the bucket isn't versioning-enabled",
               "sequencer": "A string representation of a hexadecimal value used to determine event sequence; only used with PUT and DELETE requests"
            }
         },
         "glacierEventData": {
            "restoreEventData": {
               "lifecycleRestorationExpiryTime": "The time, in ISO-8601 format (for example, 1970-01-01T00:00:00.000Z), when the temporary copy of the restored object expires",
               "lifecycleRestoreStorageClass": "The source storage class for restored objects"
            }
         }
      }
   ]
}
```

Notare quanto segue sulla struttura dei messaggi di evento:
+ Il valore della chiave `eventVersion` contiene una versione maggiore e minore nel formato `major`.`minor`.

  La versione principale viene incrementata se Amazon S3 apporta una modifica alla struttura dell'evento che non è compatibile con le versioni precedenti. Questo include la rimozione di un campo JSON che è già presente o la modifica del modo in cui i contenuti di un campo vengono rappresentati (ad esempio, un formato di data).

  La versione secondaria viene incrementata se Amazon S3 aggiunge nuovi campi alla struttura dell'evento. Questo può succedere se vengono fornite nuove informazioni per alcuni o tutti gli eventi esistenti. Questo può succedere anche se vengono fornite nuove informazioni solo per i tipi di eventi appena introdotti. Per mantenere la compatibilità con le nuove versioni secondarie della struttura degli eventi, è consigliabile che le applicazioni ignorino i nuovi campi.

  Se vengono introdotti nuovi tipi di eventi ma la struttura dell’evento rimane invariata, la versione dell’evento non cambia.

  Per fare in modo che le applicazioni analizzino correttamente la struttura dell'evento, è consigliabile eseguire un confronto "uguale a" sul numero della versione maggiore. Per garantire che i campi previsti dall'applicazione siano presenti, consigliamo anche di eseguire un confronto greater-than-or-equal -to sulla versione secondaria.
+ Il valore di chiave `eventName` fa riferimento all’elenco dei [tipi di notifiche degli eventi](https://docs.aws.amazon.com/AmazonS3/latest/userguide/notification-how-to-event-types-and-destinations.html) ma non contiene il prefisso `s3:`.
+ Il valore `userIdentity` chiave fa riferimento all'ID univoco della risorsa AWS Identity and Access Management (IAM) (utente, ruolo, gruppo e così via) che ha causato l'evento. Per la definizione di ciascun prefisso di identificazione IAM (ad esempio AIDA, AROA, AGPA) e per informazioni su come ottenere l’identificatore univoco, consulta [Identificatori univoci](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html##identifiers-unique-ids) nella *Guida per l’utente IAM*.
+ Il valore della `responseElements` chiave è utile se si desidera tracciare una richiesta dando seguito a Supporto AWS. Sia `x-amz-request-id` sia `x-amz-id-2` aiutano Amazon S3 a tenere traccia di una singola richiesta. Questi valori corrispondono a quelli che Amazon S3 restituisce nella risposta alla richiesta che avvia gli eventi. Pertanto, è possibile utilizzare questi valori per abbinare l’evento alla richiesta.
+ Il valore di chiave `s3` fornisce informazioni sul bucket e sull’oggetto coinvolto nell’evento. Il valore del nome della chiave dell'oggetto ha la codifica URL. Ad esempio `red flower.jpg` diventa `red+flower.jpg`. Amazon S3 restituisce “`application/x-www-form-urlencoded`” come tipo di contenuto nella risposta.

  Il valore di chiave `ownerIdentity` corrisponde all’ID del cliente di vendita al dettaglio Amazon (Amazon.com) del proprietario del bucket. Questo valore di ID non viene più utilizzato e viene mantenuto solo per motivi di compatibilità con le versioni precedenti. 
+ Il valore di chiave `sequencer` fornisce un modo per stabilire la sequenza degli eventi. Non è garantito che le notifiche di eventi arrivino nello stesso ordine in cui avvengono gli eventi. Tuttavia, notifiche di eventi che creano oggetti (richieste `PUT`) ed eliminano oggetti contengono un `sequencer`. È possibile utilizzare questo valore per determinare l’ordine degli eventi per una specifica chiave dell’oggetto. 

  Se si confrontano le stringhe `sequencer` da due notifiche eventi nella stessa chiave dell'oggetto, la notifica evento con il valore esadecimale `sequencer` più elevato è l'evento che è avvenuto per ultimo. Se si utilizzano notifiche di eventi per mantenere un database o un indice separato degli oggetti Amazon S3, è consigliabile confrontare e archiviare i valori `sequencer` man mano che la notifica di ciascun evento viene elaborata. 

  Tenere presente quanto segue:
  + Il valore di chiave `sequencer` non può essere utilizzato per determinare l’ordine degli eventi su diverse chiavi degli oggetti.
  + Le stringhe `sequencer` possono essere di diversa lunghezza. Quindi, per confrontare questi valori, per prima cosa aggiungi gli zeri al valore più breve e poi esegui un confronto lessicografico.
+ Il valore di chiave `glacierEventData` è visibile solo per gli eventi `s3:ObjectRestore:Completed`. 
+ Il valore di chiave `restoreEventData` contiene attributi correlati alla richiesta di ripristino.
+ Il valore di chiave `replicationEventData` è visibile solo per gli eventi di replica.
+ Il valore di chiave `intelligentTieringEventData` è visibile solo per gli eventi Piano intelligente S3.
+ Il valore di chiave `lifecycleEventData` è visibile solo per gli eventi di transizione del ciclo di vita S3.

## Messaggi di esempio
<a name="notification-content-structure-examples"></a>

Di seguito sono riportati alcuni esempi di messaggi di notifica degli eventi Amazon S3.

**Messaggio di prova Amazon S3**  
Quando configuri una notifica di eventi in un bucket, Amazon S3 invia il messaggio di prova riportato di seguito.

```
1. {  
2.    "Service":"Amazon S3",
3.    "Event":"s3:TestEvent",
4.    "Time":"2014-10-13T15:57:02.089Z",
5.    "Bucket":"amzn-s3-demo-bucket",
6.    "RequestId":"5582815E1AEA5ADF",
7.    "HostId":"8cLeGAmw098X5cv4Zkwcmo8vvZa3eH3eKxsPzbB9wrR+YstdA6Knx4Ip8EXAMPLE"
8. }
```

**Nota**  
Il messaggio `s3:TestEvent` utilizza un formato diverso rispetto alle normali notifiche degli eventi S3. A differenza di altre notifiche degli eventi che utilizzano la struttura dell’array `Records` mostrata in precedenza, l’evento di test utilizza un formato semplificato con campi diretti. Quando si implementa la gestione degli eventi, è necessario assicurarsi che il codice sia in grado di distinguere e gestire correttamente entrambi i formati di messaggio.

**Messaggio di esempio quando un oggetto viene creato utilizzando una richiesta `PUT`**  
Quello che segue è un esempio di un messaggio inviato da Amazon S3 per pubblicare un evento `s3:ObjectCreated:Put`.

```
 1. {  
 2.    "Records":[  
 3.       {  
 4.          "eventVersion":"2.1",
 5.          "eventSource":"aws:s3",
 6.          "awsRegion":"us-west-2",
 7.          "eventTime":"1970-01-01T00:00:00.000Z",
 8.          "eventName":"ObjectCreated:Put",
 9.          "userIdentity":{  
10.             "principalId":"AIDAJDPLRKLG7UEXAMPLE"
11.          },
12.          "requestParameters":{  
13.             "sourceIPAddress":"172.16.0.1"
14.          },
15.          "responseElements":{  
16.             "x-amz-request-id":"C3D13FE58DE4C810",
17.             "x-amz-id-2":"FMyUVURIY8/IgAtTv8xRjskZQpcIZ9KG4V5Wp6S7S/JRWeUWerMUE5JgHvANOjpD"
18.          },
19.          "s3":{  
20.             "s3SchemaVersion":"1.0",
21.             "configurationId":"testConfigRule",
22.             "bucket":{  
23.                "name":"amzn-s3-demo-bucket",
24.                "ownerIdentity":{  
25.                   "principalId":"A3NL1KOZZKExample"
26.                },
27.                "arn":"arn:aws:s3:::amzn-s3-demo-bucket"
28.             },
29.             "object":{  
30.                "key":"HappyFace.jpg",
31.                "size":1024,
32.                "eTag":"d41d8cd98f00b204e9800998ecf8427e",
33.                "versionId":"096fKKXTRTtl3on89fVO.nfljtsv6qko",
34.                "sequencer":"0055AED6DCD90281E5"
35.             }
36.          }
37.       }
38.    ]
39. }
```



# Usando EventBridge
<a name="EventBridge"></a>

Amazon S3 può inviare eventi ad Amazon EventBridge ogni volta che si verificano determinati eventi nel tuo bucket. A differenza di altre destinazioni, non è necessario selezionare i tipi di eventi che si desidera inviare. Dopo averlo EventBridge abilitato, tutti gli eventi seguenti vengono inviati a. EventBridge È possibile utilizzare EventBridge le regole per indirizzare gli eventi verso destinazioni aggiuntive. Di seguito sono elencati gli eventi a cui invia Amazon S3. EventBridge


|  Tipo di evento |  Description  | 
| --- | --- | 
|  *Oggetto creato*  |  Un oggetto è stato creato. Il campo motivo nella struttura dei messaggi di evento indica quale API S3 è stata utilizzata per creare l’oggetto: [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) o [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html).  | 
|  *Oggetto eliminato () DeleteObject* *Oggetto eliminato (scadenza del ciclo di vita)*  |  Un oggetto è stato eliminato. Quando un oggetto viene eliminato utilizzando una chiamata API S3, il campo del motivo è impostato su DeleteObject. Quando un oggetto viene eliminato da una regola di scadenza del ciclo di vita S3, il campo motivo è impostato su Scadenza ciclo di vita. Per ulteriori informazioni, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md). Quando viene eliminato un oggetto senza controllo delle versioni o quando viene eliminato in modo permanente un oggetto con controllo delle versioni, il campo del tipo di eliminazione è impostato su Permanently Deleted. Quando viene creato un indicatore di eliminazione per un oggetto con controllo delle versioni, il campo `deletion-type` è impostato su Delete Marker Created. Per ulteriori informazioni, consulta [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md).  | 
|  *Ripristino oggetti avviato*  |  È stato avviato un ripristino dell’oggetto dalla classe di archiviazione S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive oppure dal livello Accesso archivio o Accesso archivio approfondito di Piano intelligente S3. Per ulteriori informazioni, consulta [Utilizzo di oggetti archiviati](archived-objects.md).  | 
|  *Ripristino oggetti completato*  |  È stato completato un ripristino di oggetti.  | 
|  *Ripristino oggetti scaduto*  |  La copia temporanea di un oggetto ripristinato da S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive è scaduta ed è stata eliminata.  | 
|  *Classe di archiviazione di oggetti modificata*  |  Un oggetto è stato trasferito a una classe di archiviazione diversa. Per ulteriori informazioni, consulta [Trasferimento degli oggetti utilizzando il ciclo di vita Amazon S3](lifecycle-transition-general-considerations.md).  | 
|  *Livello di accesso agli oggetti modificato*  |  Un oggetto è stato trasferito al livello S3 Intelligent-Tiering Archive Access o Deep Archive Access. Per ulteriori informazioni, consulta [Gestione dei costi di storage con il Piano intelligente Amazon S3](intelligent-tiering.md).  | 
|  *Aggiornamento dell'ACL dell'oggetto*  |  La lista di controllo degli accessi (ACL) di un oggetto è stata impostata utilizzando `PutObjectAcl`. Un evento non viene generato quando una richiesta non comporta alcuna modifica all'ACL di un oggetto. Per ulteriori informazioni, consulta [Panoramica delle liste di controllo accessi (ACL)](acl-overview.md).  | 
|  *Aggiunti tag degli oggetti*  |  Un set di tag è stato aggiunto a un oggetto utilizzando `PutObjectTagging`. Per ulteriori informazioni, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md).  | 
|  *Eliminazione di tag degli oggetti*  |  Tutti i tag sono stati rimossi da un oggetto utilizzando `DeleteObjectTagging`. Per ulteriori informazioni, consulta [Classificazione degli oggetti utilizzando i tag](object-tagging.md).  | 

**Nota**  
Per ulteriori informazioni su come i tipi di eventi di Amazon S3 vengono mappati ai tipi di EventBridge eventi, consulta. [EventBridge Mappatura e risoluzione dei problemi di Amazon](ev-mapping-troubleshooting.md)

Puoi utilizzare Amazon S3 Event Notifications con EventBridge per scrivere regole che intraprendano azioni quando si verifica un evento nel tuo bucket. Ad esempio, è possibile scegliere di ricevere una notifica. Per ulteriori informazioni, consulta [Cos'è? EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) nella *Amazon EventBridge User Guide*.

Per ulteriori informazioni sulle azioni e sui tipi di dati con cui puoi interagire utilizzando l' EventBridge API, consulta l'[Amazon EventBridge API Reference](https://docs.aws.amazon.com/eventbridge/latest/APIReference/Welcome.html) nell'*Amazon EventBridge API Reference*.

Per informazioni sui prezzi, consulta la pagina [ EventBridge dei prezzi di Amazon](https://aws.amazon.com/eventbridge/pricing).

**Topics**
+ [

# EventBridge Autorizzazioni Amazon
](ev-permissions.md)
+ [

# Attivazione di Amazon EventBridge
](enable-event-notifications-eventbridge.md)
+ [

# EventBridge struttura dei messaggi di evento
](ev-events.md)
+ [

# EventBridge Mappatura e risoluzione dei problemi di Amazon
](ev-mapping-troubleshooting.md)

# EventBridge Autorizzazioni Amazon
<a name="ev-permissions"></a>

Amazon S3 non richiede autorizzazioni aggiuntive per fornire eventi ad Amazon. EventBridge

# Attivazione di Amazon EventBridge
<a name="enable-event-notifications-eventbridge"></a>

Puoi abilitare Amazon EventBridge utilizzando la console S3, AWS Command Line Interface (AWS CLI) o l'API REST di Amazon S3. 

**Nota**  
Dopo l'attivazione EventBridge, occorrono circa cinque minuti prima che le modifiche abbiano effetto.

## Utilizzo della console S3
<a name="eventbridge-console"></a>

**Per abilitare la consegna EventBridge degli eventi nella console S3.**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket scegli il nome del bucket per il quale desideri abilitare gli eventi.

1. Scegliere **Properties (Proprietà)**.

1. Vai alla sezione **Notifiche eventi** e trova la EventBridge sottosezione **Amazon**. Scegli **Modifica**.

1. In **Invia notifiche ad Amazon EventBridge per tutti gli eventi in questo bucket scegli **Attiva****.

## Usando il AWS CLI
<a name="eventbridge-cli"></a>

L'esempio seguente crea una configurazione di notifica bucket per bucket con *`amzn-s3-demo-bucket1`* Amazon EventBridge abilitato.

```
aws s3api put-bucket-notification-configuration --bucket amzn-s3-demo-bucket1 --notification-configuration='{ "EventBridgeConfiguration": {} }'
```

## Utilizzo della REST API
<a name="eventbridge-api"></a>

Puoi abilitare Amazon EventBridge su un bucket a livello di codice chiamando l'API REST di Amazon S3. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotificationConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotificationConfiguration.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

L'esempio seguente mostra l'XML utilizzato per creare una configurazione di notifica bucket con Amazon EventBridge abilitato.

```
<NotificationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <EventBridgeConfiguration>
  </EventBridgeConfiguration>
</NotificationConfiguration>
```

## Creazione di regole EventBridge
<a name="ev-tutorial"></a>

Una volta abilitato, puoi creare EventBridge regole Amazon per determinate attività. Ad esempio, è possibile inviare notifiche via e-mail quando viene creato un oggetto. Per un tutorial completo, consulta [Tutorial: Inviare una notifica quando viene creato un oggetto Amazon S3](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-s3-object-created-tutorial.html) nella *Amazon EventBridge User* Guide.

# EventBridge struttura dei messaggi di evento
<a name="ev-events"></a>

Il messaggio di notifica inviato da Amazon S3 per pubblicare un evento è in formato JSON. Quando Amazon S3 invia un evento ad Amazon EventBridge, sono presenti i seguenti campi.
+ `version`: attualmente 0 (zero) per tutti gli eventi.
+ `id`: un UUID generato per ogni evento.
+ `detail-type`: il tipo di evento inviato. Per un elenco dei tipi di evento, consulta [Usando EventBridge](EventBridge.md).
+ `source`: identifica il servizio che ha generato l’evento.
+ `account`— L' Account AWS ID a 12 cifre del proprietario del bucket.
+ `time`: l’ora in cui si è verificato l’evento.
+ `region`— Identifica il bucket. Regione AWS 
+ `resources`: un array JSON che contiene il nome della risorsa Amazon (ARN) del bucket.
+ `detail` – Un oggetto JSON contenente informazioni sull'evento. Per ulteriori informazioni su ciò che può essere incluso in questo campo, consulta [Campo dei dettagli del messaggio di evento](#ev-events-detail).

## Esempi di struttura dei messaggi di evento
<a name="ev-events-list"></a>

Di seguito sono riportati alcuni esempi di alcuni messaggi di notifica degli eventi di Amazon S3 che possono essere inviati ad Amazon. EventBridge

### Oggetto creato
<a name="ev-events-object-created"></a>

```
{
  "version": "0",
  "id": "17793124-05d4-b198-2fde-7ededc63b103",
  "detail-type": "Object Created",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "size": 5,
      "etag": "b1946ac92492d2347c6235b4d2611184",
      "version-id": "IYV3p45BT0ac8hjHg1houSdS1a.Mro8e",
      "sequencer": "617f08299329d189"
    },
    "request-id": "N4N7GDK58NMKJ12R",
    "requester": "123456789012",
    "source-ip-address": "1.2.3.4",
    "reason": "PutObject"
  }
}
```

### Oggetto eliminato (utilizzando DeleteObject)
<a name="ev-events-object-deleted"></a>

```
{
  "version": "0",
  "id": "2ee9cc15-d022-99ea-1fb8-1b1bac4850f9",
  "detail-type": "Object Deleted",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "etag": "d41d8cd98f00b204e9800998ecf8427e",
      "version-id": "1QW9g1Z99LUNbvaaYVpW9xDlOLU.qxgF",
      "sequencer": "617f0837b476e463"
    },
    "request-id": "0BH729840619AG5K",
    "requester": "123456789012",
    "source-ip-address": "1.2.3.4",
    "reason": "DeleteObject",
    "deletion-type": "Delete Marker Created"
  }
}
```

### Oggetto eliminato (utilizzando la scadenza del ciclo di vita)
<a name="ev-events-object-deleted-lifecycle"></a>

```
{
  "version": "0",
  "id": "ad1de317-e409-eba2-9552-30113f8d88e3",
  "detail-type": "Object Deleted",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "etag": "d41d8cd98f00b204e9800998ecf8427e",
      "version-id": "mtB0cV.jejK63XkRNceanNMC.qXPWLeK",
      "sequencer": "617b398000000000"
    },
    "request-id": "20EB74C14654DC47",
    "requester": "s3.amazonaws.com",
    "reason": "Lifecycle Expiration",
    "deletion-type": "Delete Marker Created"
  }
}
```

### Ripristino oggetti completato
<a name="ev-events-object-restore-complete"></a>

```
{
  "version": "0",
  "id": "6924de0d-13e2-6bbf-c0c1-b903b753565e",
  "detail-type": "Object Restore Completed",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "size": 5,
      "etag": "b1946ac92492d2347c6235b4d2611184",
      "version-id": "KKsjUC1.6gIjqtvhfg5AdMI0eCePIiT3"
    },
    "request-id": "189F19CB7FB1B6A4",
    "requester": "s3.amazonaws.com",
    "restore-expiry-time": "2021-11-13T00:00:00Z",
    "source-storage-class": "GLACIER"
  }
}
```

## Campo dei dettagli del messaggio di evento
<a name="ev-events-detail"></a>

Il campo dei dettagli contiene un oggetto JSON con informazioni sull'evento. I seguenti campi possono essere presenti nel campo dettagli.
+ `version`: attualmente 0 (zero) per tutti gli eventi.
+ `bucket`: informazioni sul bucket Amazon S3 coinvolto nell’evento.
+ `object`: informazioni sull’oggetto Amazon S3 coinvolto nell’evento.
+ `request-id`: ID della richiesta nella risposta S3.
+ `requester`— Account AWS ID o principale del AWS servizio del richiedente.
+ `source-ip-address`: l’indirizzo IP di origine della richiesta S3. Presente solo per eventi attivati da una richiesta S3.
+ `reason`: per gli eventi **Oggetto creato**, l’API S3 utilizzata per creare l’oggetto: [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) o [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html). Per gli eventi **Oggetto eliminato**, questo campo è impostato su **DeleteObject** quando un oggetto viene eliminato da una chiamata API S3, oppure su **Scadenza del ciclo di vita** quando un oggetto viene eliminato da una regola di scadenza del ciclo di vita S3. Per ulteriori informazioni, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md).
+ `deletion-type`: per gli eventi **Oggetto eliminato**, quando viene eliminato un oggetto senza controllo delle versioni o quando viene eliminato in modo permanente un oggetto con controllo delle versioni, questo campo è impostato su **Eliminato definitivamente**. Quando viene creato un contrassegno di eliminazione per un oggetto con versione, verrà impostato su **Contrassegno di eliminazione creato**. Per ulteriori informazioni, consulta [Eliminazione di versioni di oggetti da un bucket con funzione Controllo delle versioni abilitata](DeletingObjectVersions.md).
**Nota**  
Alcuni attributi degli oggetti (come `etag` e `size`) sono presenti solo quando viene creato un marcatore di cancellazione.
+ `restore-expiry-time`: per gli eventi **Ripristino oggetto completato**, il momento in cui la copia temporanea dell’oggetto viene eliminata da S3. Per ulteriori informazioni, consulta [Utilizzo di oggetti archiviati](archived-objects.md).
+ `source-storage-class`: per gli eventi **Ripristino oggetto avviato** e **Ripristino oggetto completato**, la classe di archiviazione dell’oggetto in fase di ripristino. Per ulteriori informazioni, consulta [Utilizzo di oggetti archiviati](archived-objects.md).
+ `destination-storage-class`: per gli eventi **Classe di archiviazione di oggetti modificata**, la nuova classe di archiviazione dell’oggetto. Per ulteriori informazioni, consulta [Trasferimento degli oggetti utilizzando il ciclo di vita Amazon S3](lifecycle-transition-general-considerations.md).
+ `destination-access-tier`: per gli eventi **Livello di accesso agli oggetti modificato**, il nuovo livello di accesso dell’oggetto. Per ulteriori informazioni, consulta [Gestione dei costi di storage con il Piano intelligente Amazon S3](intelligent-tiering.md).

# EventBridge Mappatura e risoluzione dei problemi di Amazon
<a name="ev-mapping-troubleshooting"></a>

La tabella seguente descrive come i tipi di eventi Amazon S3 vengono mappati ai tipi di eventi Amazon EventBridge .


|  Tipo di evento S3 |  Tipo di EventBridge dettaglio Amazon  | 
| --- | --- | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html)  |  Oggetto creato  | 
|  ObjectRemoved:Delete ObjectRemoved:DeleteMarkerCreated LifecycleExpiration:Delete LifecycleExpiration:DeleteMarkerCreated  |  Oggetto eliminato  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html)  |  Ripristino oggetti avviato  | 
|  ObjectRestore:Completed  |  Ripristino oggetti completato  | 
|  ObjectRestore:Delete  |  Ripristino oggetti scaduto  | 
|  LifecycleTransition  |  Classe di archiviazione di oggetti modificata  | 
|  IntelligentTiering  |  Livello di accesso agli oggetti modificato  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  |  Aggiunti tag degli oggetti  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html)  |  Eliminazione di tag degli oggetti  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html)  |  Aggiornamento dell'ACL dell'oggetto  | 

## EventBridge Risoluzione dei problemi di Amazon
<a name="ev-troubleshooting"></a>

Per informazioni su come risolvere i problemi EventBridge, consulta Troubleshooting [Amazon EventBridge nella Amazon EventBridge ](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-troubleshooting.html) *User Guide*.

# Monitoraggio dell'attività e dell'utilizzo dello storage con Amazon S3 Storage Lens
<a name="storage_lens"></a>

Amazon S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che permette di avere una panoramica completa a livello di organizzazione sull'utilizzo e sull'archiviazione di oggetti. S3 Storage Lens analizza i parametri di archiviazione per fornire raccomandazioni contestuali che puoi usare per ottimizzare i costi di archiviazione e applicare le best practice sulla protezione dei dati. 

Puoi utilizzare i parametri di S3 Storage Lens per generare approfondimenti di riepilogo. Ad esempio, per scoprire la quantità di spazio di archiviazione disponibile in tutta l'organizzazione o quali sono i bucket e i prefissi caratterizzati da una crescita più rapida. Puoi anche utilizzare i parametri di S3 Storage Lens per identificare opportunità di ottimizzazione dei costi, implementare le migliori pratiche di protezione dei dati e gestione degli accessi e migliorare le prestazioni dei carichi di lavoro delle applicazioni. Ad esempio, puoi identificare i bucket che non hanno regole del ciclo di vita S3 configurate per far scadere i caricamenti in più parti incompleti che risalgono a più di 7 giorni. Puoi anche identificare i bucket che non seguono le migliori pratiche di protezione dei dati, come l'utilizzo di S3 Replication o S3 Versioning. 

S3 Storage Lens aggrega i tuoi parametri e mostra le informazioni nella sezione **Account snapshot** (Snapshot dell'account) nella pagina **Buckets** (Bucket) della console di Amazon S3. S3 Storage Lens fornisce anche una dashboard interattiva che puoi utilizzare per visualizzare approfondimenti e tendenze, contrassegnare valori anomali e ricevere consigli per ottimizzare i costi di storage e applicare le migliori pratiche di protezione dei dati. La dashboard offre opzioni drill-down per generare e visualizzare informazioni a livello di organizzazione, account, classe di storage, bucket, prefisso Regione AWS o gruppo Storage Lens. Puoi anche inviare un rapporto giornaliero sulle metriche in formato CSV o in Parquet formato a un bucket S3 generico o esportare le metriche direttamente in un bucket di tabella S3 gestito. AWS

![\[La sezione Snapshot per data nel pannello di controllo di S3 Storage Lens.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/storage-lens-dashboard.png)


## Caratteristiche e parametri di S3 Storage Lens
<a name="storage-lens-dashboards-intro"></a>

In S3 Storage Lens è disponibile un *pannello di controllo interattivo predefinito* che viene aggiornato quotidianamente. S3 Storage Lens preconfigura questo pannello di controllo per visualizzare le informazioni dettagliate di riepilogo e le tendenze per l'intero account e le aggiorna quotidianamente nella console S3. I parametri di questo pannello di controllo vengono riepilogati anche nello snapshot dell'account nella pagina**Buckets** (Bucket). Per ulteriori informazioni, consulta [Pannello di controllo predefinito](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_default_dashboard).

Per creare altre dashboard e definirle in base ai bucket S3 o agli account (per AWS Organizations) Regioni AWS, crei una configurazione del dashboard di S3 Storage Lens. Puoi creare e gestire le configurazioni del dashboard di S3 Storage Lens utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() AWS SDKs o l'API REST di Amazon S3. Quando si crea o si modifica una dashboard S3 Storage Lens, si definisce l'ambito della dashboard e la selezione delle metriche. 

S3 Storage Lens offre metriche di livello gratuito e metriche di livello avanzato, a cui puoi eseguire l'upgrade a un costo aggiuntivo. Con il livello avanzato, puoi accedere a metriche e funzionalità aggiuntive per ottenere informazioni dettagliate sullo storage. Queste funzionalità includono categorie di metriche avanzate, aggregazione di prefissi, consigli contestuali, report estesi sulle metriche dei prefissi e Amazon Publishing. CloudWatch L'aggregazione a livello di prefisso e i suggerimenti contestuali sono disponibili solo nella console di Amazon S3. Per maggiori informazioni sui prezzi di S3 Storage Lens, consulta i [prezzi di Amazon S3](https://aws.amazon.com/s3/pricing).

**Categorie di parametri**  
All'interno dei livelli gratuiti e avanzati, i parametri sono organizzati in categorie in linea con i principali casi d'uso, come l'ottimizzazione dei costi e la protezione dei dati. I parametri gratuiti includono parametri per riepilogo, ottimizzazione dei costi, protezione dei dati, gestione degli accessi, prestazioni ed eventi. Quando esegui l'upgrade al livello avanzato, puoi abilitare l'ottimizzazione avanzata dei costi e le metriche di protezione dei dati. Puoi utilizzare queste metriche avanzate per ridurre ulteriormente i costi di storage S3 e migliorare la tua posizione di protezione dei dati. Puoi anche abilitare i parametri relativi alle attività e quelli relativi ai codici di stato dettagliati per migliorare le prestazioni dei carichi di lavoro delle applicazioni che accedono ai bucket S3. Per ulteriori informazioni sulle categorie di parametri gratuiti e avanzati, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

Puoi valutare la tua archiviazione in base alle best practice S3, ad esempio per analizzare la percentuale di bucket per i quali è abilitata la crittografia o il blocco degli oggetti S3 o la funzionalità S3 di controllo delle versioni. È anche possibile individuare potenziali opportunità di risparmio sui costi. Ad esempio, puoi utilizzare i parametri relativi al conteggio delle regole del ciclo di vita S3 per identificare i bucket senza regole di scadenza o di transizione del ciclo di vita. Puoi anche analizzare l'attività di richiesta per bucket per individuare i bucket in cui gli oggetti possono essere trasferiti a una classe di archiviazione con costi più bassi. Per ulteriori informazioni, consulta [Casi d'uso relativi ai parametri di Amazon S3 Storage Lens](storage-lens-use-cases.md).

**Esportazione delle metriche**

**Rapporto sulle metriche predefinite**  
Il rapporto sulle metriche predefinite di S3 Storage Lens include metriche gratuite e metriche di livello avanzato che coprono l'utilizzo dello storage di oggetti e le tendenze delle attività in tutta l'azienda. Account AWS Il rapporto include l'aggregazione dei prefissi per i prefissi i cui oggetti comprendono almeno l'1% dei dati totali archiviati nel bucket e supporta fino a 10 livelli di profondità dei prefissi. Il report può essere esportato giornalmente in formato CSV o in formato in un bucket S3 generico. Parquet Il rapporto può anche essere inviato a un bucket di tabelle S3 AWS gestito (con nome`aws-s3`), semplificando l'esecuzione di query utilizzando servizi di analisi o strumenti di terze parti. AWS 

Con il report sulle metriche predefinito, puoi identificare opportunità di ottimizzazione dei costi, come i bucket privi delle regole del ciclo di vita di S3 per caricamenti incompleti in più parti e i bucket che non seguono le migliori pratiche di protezione dei dati come S3 Replication o S3 Versioning. Il rapporto sulle metriche predefinite fornisce anche consigli contestuali per ottimizzare i costi di storage e applicare le migliori pratiche di protezione dei dati, senza costi aggiuntivi oltre ai costi di storage standard di S3.

**Rapporto esteso sulle metriche dei prefissi**  
Il report esteso sulle metriche dei prefissi di Storage Lens fornisce analisi complete a livello di prefisso su tutti i dati di storage S3, ampliando la copertura per supportare miliardi di prefissi presenti nel proprio bucket. Questo rapporto fornisce metriche per tutti i prefissi nei bucket, tra cui l'utilizzo dello spazio di archiviazione, i byte trasferiti, il numero di richieste per codice di stato e i parametri di conformità alla protezione dei dati, che puoi esportare quotidianamente in formato CSV o in formato nel bucket S3 per uso generico. Parquet Puoi anche esportare le metriche direttamente nel bucket di tabelle S3 gestito. `aws-s3` AWS

**Nota**  
Il rapporto elabora le metriche per i prefissi fino a 50 livelli di profondità ed esclude le metriche a livello di prefisso per qualsiasi bucket in cui le combinazioni di prefisso e classe di archiviazione superano il doppio del numero di oggetti.

Con il report esteso sulle metriche dei prefissi, puoi identificare opportunità di ottimizzazione delle prestazioni, come tassi di errore elevati, oggetti di piccole dimensioni o modelli di richiesta non ottimali, in miliardi di prefissi presenti nel tuo bucket. A differenza del rapporto sulle metriche predefinito, il rapporto esteso sulle metriche dei prefissi fornisce le metriche relative ai prefissi granulari presenti nel bucket. Ad esempio, è possibile identificare prefissi con un gran numero di oggetti di dimensioni inferiori a 128 KB per isolare rapidamente tali set di dati per la compattazione che migliorerà le prestazioni delle applicazioni. Questo report è disponibile integralmente Regioni AWS come funzionalità opzionale nella configurazione del dashboard di livello avanzato di Storage Lens.

**Pubblicazione delle metriche**

**CloudWatch Pubblicazione su Amazon**  
[Puoi pubblicare i parametri di utilizzo e attività di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato di salute operativo nei dashboard. CloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Puoi anche utilizzare CloudWatch funzionalità, come allarmi e azioni attivate, calcoli metrici e rilevamento delle anomalie, per monitorare e agire in base ai parametri di S3 Storage Lens. Inoltre, le operazioni CloudWatch API consentono alle applicazioni, inclusi i provider di terze parti, di accedere alle metriche di S3 Storage Lens. L'opzione di CloudWatch pubblicazione è disponibile per i dashboard aggiornati al livello avanzato di S3 Storage Lens. Per ulteriori informazioni sul supporto per le metriche di S3 Storage Lens in, consulta. CloudWatch [Monitora le metriche di S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md)

Per ulteriori informazioni sull'utilizzo di S3 Storage Lens, consulta i seguenti argomenti.

**Topics**
+ [

## Caratteristiche e parametri di S3 Storage Lens
](#storage-lens-dashboards-intro)
+ [

# Informazioni su Amazon S3 Storage Lens
](storage_lens_basics_metrics_recommendations.md)
+ [

# Glossario dei parametri di Amazon S3 Storage Lens
](storage_lens_metrics_glossary.md)
+ [

# Impostazione delle autorizzazioni di Amazon S3 Storage Lens
](storage_lens_iam_permissions.md)
+ [

# Utilizzo di Amazon S3 Storage Lens con la console e l'API
](S3LensExamples.md)
+ [

# Visualizzazione dei parametri con Amazon S3 Storage Lens
](storage_lens_view_metrics.md)
+ [

# Utilizzo dei dati di S3 Storage Lens in S3 Tables
](storage-lens-s3-tables.md)
+ [

# Utilizzo di Amazon S3 Storage Lens con AWS Organizations
](storage_lens_with_organizations.md)
+ [

# Operazioni con i gruppi S3 Storage Lens per filtrare e aggregare le metriche
](storage-lens-groups-overview.md)

# Informazioni su Amazon S3 Storage Lens
<a name="storage_lens_basics_metrics_recommendations"></a>

**Importante**  
Amazon S3 ora applica la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3) come livello di base della crittografia per ogni bucket di Amazon S3. A partire dal 5 gennaio 2023, tutti i caricamenti di nuovi oggetti su Amazon S3 vengono crittografati automaticamente senza costi aggiuntivi e senza alcun impatto sulle prestazioni. Lo stato di crittografia automatico per la configurazione di crittografia predefinita del bucket S3 e per il caricamento di nuovi oggetti è disponibile nei CloudTrail log, in S3 Inventory, S3 Storage Lens, nella console Amazon S3 e come intestazione di risposta dell'API Amazon S3 aggiuntiva nella e. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [Domande frequenti sulla crittografia predefinita](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Amazon S3 Storage Lens è una funzionalità di analisi del cloud-storage che può essere utilizzata per ottenere visibilità a livello di organizzazione sull'utilizzo e l'attività dell'object-storage. È possibile utilizzare i parametri di S3 Storage Lens per generare approfondimenti, ad esempio per scoprire la quantità di spazio di archiviazione disponibile nell'intera organizzazione o quali sono i bucket e i prefissi caratterizzati da una crescita più rapida. Puoi anche utilizzare i parametri di S3 Storage Lens per individuare le opportunità di ottimizzazione dei costi, implementare le best practice di protezione e sicurezza dei dati e migliorare le prestazioni dei carichi di lavoro delle applicazioni. Ad esempio, puoi identificare i bucket che non hanno regole del ciclo di vita S3 per far scadere i caricamenti in più parti incompleti che risalgono a più di 7 giorni. Puoi anche individuare i bucket non conformi alle best practice di protezione dei dati, come quelli che usano la replica S3 o il controllo delle versioni S3. S3 Storage Lens analizza i parametri di archiviazione per fornire raccomandazioni contestuali che puoi usare per ottimizzare i costi di archiviazione e applicare le best practice sulla protezione dei dati. 

S3 Storage Lens aggrega i tuoi parametri e mostra le informazioni nella sezione **Account snapshot** (Snapshot dell'account) nella pagina **Buckets** (Bucket) della console di Amazon S3. S3 Storage Lens fornisce anche una dashboard interattiva che puoi utilizzare per visualizzare approfondimenti e tendenze, contrassegnare valori anomali e ricevere consigli per ottimizzare i costi di storage e applicare le migliori pratiche di protezione dei dati. La dashboard offre opzioni drill-down per generare e visualizzare informazioni a livello di organizzazione, account, classe di storage, bucket, prefisso Regione AWS o gruppo Storage Lens. Puoi anche inviare un rapporto giornaliero sulle metriche in formato CSV o in Parquet formato a un bucket S3 generico o esportare le metriche direttamente in un bucket di tabella S3 gestito. AWS Puoi creare e gestire dashboard S3 Storage Lens utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() AWS SDKs o l'API REST di Amazon S3. 

## Concetti e terminologia di S3 Storage Lens
<a name="storage_lens_basics"></a>

Questa sezione contiene la terminologia e i concetti essenziali per comprendere e utilizzare correttamente Amazon S3 Storage Lens.

**Topics**
+ [

### Configurazione del pannello di controllo
](#storage_lens_basics_configuration)
+ [

### Pannello di controllo predefinito
](#storage_lens_basics_default_dashboard)
+ [

### Pannelli di controllo
](#storage_lens_basics_dashboards)
+ [

### Snapshot dell'account
](#storage_lens_basics_account_snapshot)
+ [

### Esportazione dei parametri
](#storage_lens_basics_metrics_export)
+ [

### Destinazioni di esportazione delle metriche
](#storage_lens_basics_metrics_export_destinations)
+ [

### Area geografica d'origine
](#storage_lens_basics_home_region)
+ [

### Periodo di conservazione
](#storage_lens_basics_data_queries)
+ [

### Categorie di parametri
](#storage_lens_basics_metrics_types)
+ [

### Raccomandazioni
](#storage_lens_basics_recommendations)
+ [

### Selezione delle metriche
](#storage_lens_basics_metrics_selection)
+ [

### Delimitatore di prefisso
](#storage_lens_basics_prefix_delimiter)
+ [

### S3 Storage Lens e AWS Organizations
](#storage_lens_basics_organizations)

### Configurazione del pannello di controllo
<a name="storage_lens_basics_configuration"></a>

S3 Storage Lens richiede una configurazione del pannello di controllo contenente le proprietà necessarie per aggregare i parametri per tuo conto per un singolo pannello di controllo o un'esportazione. Quando crei una configurazione, scegli il nome del pannello di controllo e la regione principale, che non puoi modificare successivamente alla creazione del pannello di controllo. Facoltativamente, puoi aggiungere tag e configurare un'esportazione di parametri in formato CSV o Parquet. 

Nella configurazione del pannello di controllo, definisci anche l'ambito del pannello e la selezione dei parametri. L'ambito può includere tutto lo spazio di archiviazione per l'account o le sezioni dell'organizzazione filtrati per regione, bucket e account. Quando configuri la selezione delle metriche, scegli tra metriche di livello gratuito e metriche di livello avanzato, a cui puoi eseguire l'upgrade a un costo aggiuntivo. Con il livello avanzato, puoi accedere a metriche e funzionalità aggiuntive. Queste funzionalità includono categorie di metriche avanzate, aggregazione a livello di prefisso, consigli contestuali e pubblicazione su Amazon. CloudWatch Per maggiori informazioni sui prezzi di S3 Storage Lens, consulta i [prezzi di Amazon S3](https://aws.amazon.com/s3/pricing).

### Pannello di controllo predefinito
<a name="storage_lens_basics_default_dashboard"></a>

La dashboard predefinita di S3 Storage Lens sulla console è denominata. **default-account-dashboard** S3 preconfigura questo pannello di controllo per visualizzare le informazioni dettagliate di riepilogo e le tendenze per l'intero account e le aggiorna quotidianamente nella console S3. Non puoi modificare l'ambito di configurazione della dashboard predefinita, ma puoi aggiornare la selezione delle metriche da metriche di livello gratuito a metriche di livello avanzato. Puoi configurare l'esportazione facoltativa dei parametri o addirittura disabilitare il pannello di controllo. Tuttavia, il pannello di controllo predefinito non può essere eliminato.

**Nota**  
Se disabiliti la dashboard predefinita, non viene più aggiornata. Non riceverai più alcun nuovo parametro giornaliero in S3 Storage Lens, nell'esportazione dei parametri o nello snapshot dell'account nella pagina **Bucket** S3. Se la tua dashboard utilizza metriche avanzate, non ti verrà più addebitato alcun costo. Puoi comunque visualizzare i dati della cronologia nel pannello di controllo fino alla scadenza delle query di dati (14 giorni). Questo periodo è di 15 mesi se hai abilitato le metriche avanzate. Per accedere ai dati della cronologia, puoi riattivare il pannello di controllo entro il periodo di scadenza.

### Pannelli di controllo
<a name="storage_lens_basics_dashboards"></a>

Puoi creare dashboard S3 Storage Lens aggiuntivi e definirli per Regioni AWS bucket S3 o account (per). AWS Organizations Quando crei o modifichi un pannello di controllo di S3 Storage Lens, ne definisci l'ambito e la selezione dei parametri. S3 Storage Lens offre metriche di livello gratuito e metriche di livello avanzato, a cui puoi eseguire l'upgrade a un costo aggiuntivo. Con le metriche avanzate, puoi accedere a metriche e funzionalità aggiuntive per ottenere informazioni dettagliate sullo storage. Questi includono categorie di metriche avanzate, aggregazione a livello di prefisso, consigli contestuali e Amazon Publishing. CloudWatch Per maggiori informazioni sui prezzi di S3 Storage Lens, consulta i [prezzi di Amazon S3](https://aws.amazon.com/s3/pricing).

Puoi anche disabilitare o eliminare i pannelli di controllo. Se disabiliti una dashboard, questa non viene più aggiornata e non riceverai più nuove metriche giornaliere. Puoi comunque visualizzare i dati della cronologia fino al periodo di scadenza di 14 giorni. Se hai abilitato le metriche avanzate per quella dashboard, questo periodo è di 15 mesi. Per accedere ai dati della cronologia, puoi riattivare il pannello di controllo entro il periodo di scadenza. 

Se si elimina la dashboard, si perdono tutte le impostazioni di configurazione della dashboard. Non riceverai più nuovi parametri giornalieri e perderai anche l'accesso ai dati della cronologia associati a tale pannello di controllo. Se desideri accedere ai dati della cronologia di un pannello di controllo eliminato, dovrai creare un altro pannello di controllo con lo stesso nome nella stessa regione di origine.

**Nota**  
S3 Storage Lens può essere utilizzato per creare fino a 50 pannelli di controllo per ogni regione.
I pannelli di controllo a livello di organizzazione possono essere limitati solo a un ambito regionale.

### Snapshot dell'account
<a name="storage_lens_basics_account_snapshot"></a>

Lo **snapshot dell'account** S3 Storage Lens riepiloga i parametri del pannello di controllo predefinito e mostra l'archiviazione totale, il numero di oggetti e la dimensione media degli oggetti nella pagina **Buckets** (Bucket) della console S3. Questo snapshot dell'account consente di accedere rapidamente a informazioni dettagliate sullo spazio di archiviazione senza dover uscire dalla pagina **Buckets** (Bucket). Lo snapshot dell'account fornisce anche l'accesso con un clic al pannello di controllo interattivo di S3 Storage Lens. 

Puoi utilizzare la dashboard per visualizzare approfondimenti e tendenze, contrassegnare valori anomali e ricevere consigli per ottimizzare i costi di storage e applicare le migliori pratiche di protezione dei dati. Nel pannello di controllo sono disponibili opzioni di drill-down per generare informazioni dettagliate a livello di organizzazione, account, bucket, oggetto o prefisso. Puoi anche inviare un'esportazione di parametri una volta al giorno a un bucket S3 in formato CSV o Parquet.

Non è possibile modificare l'ambito del **pannello di controllo dell'account predefinito** perché è collegato allo **snapshot dell'account**. Tuttavia, puoi aggiornare la selezione delle metriche nel tuo account **default-account-dashboard**da metriche gratuite a metriche avanzate a pagamento. Dopo l'aggiornamento, è quindi possibile visualizzare tutte le richieste, i byte caricati e i byte scaricati nello **snapshot dell'account** S3 Storage Lens. 

**Nota**  
In caso di disattivazione del pannello di controllo predefinito, lo **snapshot dell'account** non viene più aggiornata. Per continuare a visualizzare le metriche nello **snapshot dell'account**, puoi riattivare il. **default-account-dashboard**

### Esportazione dei parametri
<a name="storage_lens_basics_metrics_export"></a>

Una esportazione dei parametri di S3 Storage Lens è un file che contiene tutti i parametri identificati nella configurazione di S3 Storage Lens. Queste informazioni vengono generate quotidianamente in formato CSV o in Parquet formato CSV e inviate a un bucket S3 generico. Puoi anche esportare le metriche direttamente nel bucket di tabelle S3 `aws-s3` AWS gestito, semplificando l'esecuzione di query utilizzando servizi di analisi o strumenti di terze parti. AWS Puoi utilizzare l'esportazione dei parametri metriche per ulteriori analisi utilizzando lo strumento per i parametri di tua scelta. Il bucket specificato per l'esportazione delle metriche deve trovarsi nella stessa regione della configurazione di S3 Storage Lens. Puoi generare un'esportazione dei parametri di S3 Storage Lens dalla console S3 modificando la configurazione del pannello di controllo. Puoi anche configurare un'esportazione delle metriche utilizzando e. AWS CLI AWS SDKs

Esistono due tipi di esportazioni metriche disponibili in Storage Lens:
+ Rapporto sulle **metriche predefinite: il rapporto sulle** metriche predefinite di S3 Storage Lens include metriche gratuite e tendenze delle attività in tutto il mondo Account AWS e aggrega le metriche di utilizzo per i principali prefissi.
+ Report **esteso sulle metriche dei prefissi: il rapporto sulle metriche** dei prefissi estesi di Storage Lens fornisce metriche granulari di archiviazione e attività (come l'utilizzo dello spazio di archiviazione, i byte trasferiti e il numero di richieste in base al codice di stato) a livello di prefisso per ogni prefisso del bucket. Questo rapporto è disponibile come funzionalità opzionale in tutti Regioni AWS i casi, tramite il livello di prezzo avanzato nella configurazione del dashboard di Storage Lens. Per informazioni sui prezzi delle funzionalità di S3 Storage Lens, consulta i prezzi di [Amazon S3](https://aws.amazon.com/s3/pricing).

**Nota**  
Storage Lens genera solo parametri per bucket [S3](UsingBucket.md) generici.

### Destinazioni di esportazione delle metriche
<a name="storage_lens_basics_metrics_export_destinations"></a>

Quando si esportano i dati delle metriche di Storage Lens, è possibile scegliere sia un bucket S3 generico che un bucket S3 table come destinazione. I bucket per uso generico offrono un'ampia compatibilità con gli strumenti e le applicazioni esistenti, offrendo flessibilità per elaborare i dati all'interno del tuo account, utilizzando i tuoi servizi di analisi preferiti. Questa opzione supporta i modelli di accesso e le integrazioni standard di S3 per l'analisi dei dati all'interno dei singoli bucket della tua regione. Al contrario, S3 table bucket ti consente di eseguire query immediate su più account e regioni, creare dashboard personalizzate con Amazon Quick e unire i dati con AWS altri servizi o strumenti di terze parti, senza la necessità di un'infrastruttura di elaborazione aggiuntiva. Ad esempio, puoi combinare le metriche di Storage Lens con S3 Metadata per analizzare i modelli di attività degli oggetti in tutta l'organizzazione.

#### Bucket S3 per uso generico
<a name="storage_lens_basics_s3_general_purpose_bucket"></a>

L'esportazione dei parametri di Storage Lens in un bucket S3 per uso generico offre flessibilità e continuità per l'archiviazione dei dati di Storage Lens. È possibile mantenere i flussi di lavoro esistenti e la coerenza operativa continuando a utilizzare l'infrastruttura attuale e i processi di estrazione, trasformazione e caricamento (ETL), gli strumenti di analisi o i flussi di lavoro automatizzati esistenti. I bucket generici funzionano anche con l'intera gamma di AWS servizi e strumenti di terze parti che supportano lo standard S3. APIs Questo ti offre la massima flessibilità nel modo in cui elabori, analizzi o visualizzi le informazioni di Storage Lens. Inoltre, puoi implementare le policy del ciclo di vita di S3 per gestire automaticamente la conservazione dei dati, trasferire le metriche più vecchie a classi di storage a basso costo o eliminarle dopo periodi specifici per ottimizzare i costi. Pertanto, se la continuità operativa e la flessibilità del flusso di lavoro sono le tue priorità per l'implementazione di Storage Lens, prendi in considerazione la scelta di un bucket S3 generico per esportare i dati di Storage Lens. Per ulteriori informazioni sui prezzi dei bucket S3 per uso generico, consulta i prezzi di [Amazon S3](https://aws.amazon.com/s3/pricing).

#### Secchio da tavolo S3
<a name="storage_lens_basics_s3_table_bucket"></a>

Quando si esportano le metriche di Storage Lens in S3 Table Bucket, è possibile analizzare facilmente le metriche relative all'utilizzo dello storage e alle attività senza creare pipeline di dati. Le metriche sono organizzate in tabelle S3 create in un bucket di tabelle S3 AWS gestito per prestazioni di query ottimali, con periodi di conservazione e impostazioni di crittografia personalizzabili `aws-s3` per soddisfare le esigenze di gestione dei dati. Con le tue metriche in S3 Tables, puoi eseguire query su più account e regioni utilizzando strumenti SQL e servizi di AWS analisi (come Amazon Athena, Amazon Quick, Amazon EMR e Amazon Redshift) per creare dashboard personalizzate e generare informazioni più approfondite. Ad esempio, puoi unire le metriche di S3 Storage Lens con S3 Metadata per identificare gli oggetti nei prefissi che non mostrano alcuna attività recente. Tutti i dati archiviati in un bucket di tabelle S3 comportano costi per S3 Tables. Per ulteriori informazioni sui prezzi di S3 Tables, consulta i prezzi di [Amazon S3](https://aws.amazon.com/s3/pricing).

### Area geografica d'origine
<a name="storage_lens_basics_home_region"></a>

La regione principale è la regione Regione AWS in cui sono archiviate tutte le metriche di S3 Storage Lens per una determinata configurazione del dashboard. Quando crei la configurazione del pannello di controllo di S3 Storage Lens, dovrai scegliere una regione di origine. Dopo aver scelto una regione di origine, non puoi più cambiarla. Inoltre, se crei un gruppo Storage Lens, ti consigliamo di scegliere la stessa regione del pannello di controllo di Storage Lens.

**Nota**  
Come regione di origine puoi scegliere una delle seguenti regioni:  
Stati Uniti orientali (Virginia settentrionale) – `us-east-1`
Stati Uniti orientali (Ohio) – `us-east-2`
Stati Uniti occidentali (California settentrionale) – `us-west-1`
Stati Uniti occidentali (Oregon) – `us-west-2`
Asia Pacifico (Mumbai) – `ap-south-1`
Asia Pacifico (Seul) - `ap-northeast-2`
Asia Pacifico (Singapore) – `ap-southeast-1`
Asia Pacifico (Sydney) - `ap-southeast-2`
Asia Pacifico (Tokyo) - `ap-northeast-1`
Canada (Central) – `ca-central-1`
Cina (Pechino): `cn-north-1`
Cina (Ningxia): `cn-northwest-1`
Europe (Francoforte) – `eu-central-1`
Europa (Irlanda) – `eu-west-1`
Europe (Londra) – `eu-west-2`
Europe (Paris) – `eu-west-3`
Europe (Stockholm) – `eu-north-1`
Sud America (San Paolo) – `sa-east-1`

### Periodo di conservazione
<a name="storage_lens_basics_data_queries"></a>

I parametri di S3 Storage Lens vengono conservati in modo da poter vedere le tendenze cronologiche e confrontare le differenze in termini di archiviazione e attività nel tempo. I parametri di Amazon S3 Storage Lens per le query possono essere utilizzate in modo da poter vedere le tendenze cronologiche e confrontare le differenze nell'utilizzo e nell'attività di archiviazione nel tempo. 

Tutti i parametri S3 Storage Lens sono conservati per un periodo di 15 mesi. Tuttavia, i parametri sono disponibili solo per le query per una durata specifica, che dipende dalla [selezione dei parametri](#storage_lens_basics_metrics_selection). Questa durata non può essere modificata. Sono disponibili parametri gratuiti per query per un periodo di 14 giorni, mentre quelli avanzati per query per 15 mesi.

### Categorie di parametri
<a name="storage_lens_basics_metrics_types"></a>

All'interno dei livelli gratuiti e avanzati, i parametri di S3 Storage Lens sono organizzati in categorie in linea con i principali casi d'uso, come l'ottimizzazione dei costi e la protezione dei dati. I parametri gratuiti includono parametri per riepilogo, ottimizzazione dei costi, protezione dei dati, gestione degli accessi, prestazioni ed eventi. Quando esegui l'upgrade a metriche avanzate, puoi abilitare ulteriori metriche di ottimizzazione dei costi e protezione dei dati che puoi utilizzare per ridurre ulteriormente i costi di storage S3 e garantire la protezione dei dati. Puoi anche abilitare i parametri delle attività e i parametri dei codici di stato dettagliati che puoi utilizzare per migliorare le prestazioni dei flussi di lavoro delle applicazioni.

L'elenco seguente mostra tutte le categorie di parametri gratuiti e avanzati. Per un elenco completo delle singole metriche incluse in ogni categoria, consulta. [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md)

**Parametri di riepilogo**  
I parametri di riepilogo forniscono informazioni generali sull'archiviazione S3, inclusi i byte totali di archiviazione e il conteggio degli oggetti. 

**Metriche di ottimizzazione dei costi**  
Le metriche di ottimizzazione dei costi forniscono informazioni utili per gestire e ottimizzare i costi di storage. Ad esempio, puoi identificare i bucket con caricamenti in più parti incompleti che risalgono a più di 7 giorni fa.

Con metriche avanzate, puoi abilitare metriche avanzate di ottimizzazione dei costi. Questi parametri includono i parametri relativi al conteggio delle regole del ciclo di vita S3 che puoi utilizzare per ottenere i conteggi delle regole del ciclo di vita S3 per ogni bucket. 

**Parametri per la protezione dei dati**  
Le metriche di protezione dei dati forniscono informazioni dettagliate sulle funzionalità di protezione dei dati, come la crittografia e il controllo delle versioni di S3. Puoi utilizzare queste metriche per identificare i bucket che non seguono le migliori pratiche di protezione dei dati. Ad esempio, è possibile identificare i bucket che non utilizzano la crittografia predefinita con AWS Key Management Service chiavi (SSE-KMS) o S3 Versioning.

Con metriche avanzate, puoi abilitare metriche avanzate di protezione dei dati. Questi parametri includono i parametri relativi al conteggio delle regole di replica per bucket.

**Accedete alle metriche di gestione**  
Le metriche di gestione degli accessi forniscono informazioni sulla proprietà degli oggetti S3. Puoi utilizzare questi parametri per visualizzare le impostazioni di Object Ownership usate dai tuoi bucket.

**Parametri degli eventi**  
I parametri degli eventi forniscono approfondimenti relativi alla funzionalità S3 di notifica eventi. Con i parametri degli eventi, puoi vedere in quali bucket è configurata la funzionalità S3 di notifica eventi.

**Metriche delle prestazioni**  
I parametri relativi alle prestazioni forniscono informazioni su Accelerazione del trasferimento Amazon S3 (Amazon S3TA). Con i parametri relativi alle prestazioni, puoi vedere in quali bucket è abilitata la funzionalità di accelerazione del trasferimento.

**Parametri delle attività (avanzati)**  
Se aggiorni la dashboard al **livello Advanced**, puoi abilitare le metriche di attività. Le metriche di attività forniscono dettagli su come viene richiesto lo spazio di archiviazione (ad esempio, tutte le richieste, le richieste Get, le richieste Put), i byte caricati o scaricati e gli errori.

Le metriche di attività a livello di prefisso possono aiutarti a determinare quali prefissi vengono utilizzati di rado, in modo da poter [passare a una classe di archiviazione ottimale utilizzando S3 Lifecycle](lifecycle-transition-general-considerations.md).

**Parametri dei codici di stato dettagliati (avanzati)**  
Se aggiorni la dashboard al **livello Advanced**, puoi abilitare metriche dettagliate del codice di stato. I parametri relativi ai codici di stato dettagliati forniscono informazioni sui codici di stato HTTP, come 403 Accesso negato e 503 Servizio non disponibile, che puoi utilizzare per risolvere problemi di accesso o prestazioni. Ad esempio, puoi esaminare il parametro **403 Forbidden error count** (Conteggio errori 403 Accesso negato) per identificare i carichi di lavoro che accedono ai bucket senza le autorizzazioni corrette applicate.

Utilizzando i parametri relativi ai codici di stato dettagliati a livello di prefisso puoi comprendere meglio le occorrenze del codice di stato HTTP per prefisso. Ad esempio, le metriche del conteggio degli errori 503 consentono di identificare i prefissi che ricevono richieste di limitazione (della larghezza di banda della rete) durante l'importazione dei dati.

**Advanced cost optimization metrics (Parametri avanzati ottimizzazione costi)**  
Le metriche avanzate di ottimizzazione dei costi forniscono informazioni dettagliate sulle configurazioni di gestione del ciclo di vita di S3 per aiutarti a ottimizzare i costi di storage attraverso transizioni ed eliminazioni automatizzate dei dati. Queste metriche tengono traccia del numero di regole del ciclo di vita configurate in diversi tipi di regole del ciclo di vita. È possibile utilizzare queste metriche per garantire una copertura completa delle regole del ciclo di vita in tutti i periodi e identificare opportunità per implementare strategie aggiuntive di ottimizzazione dei costi attraverso la gestione automatizzata dei dati.

**Advanced data protection metrics (Parametri avanzati protezione dati)**  
Le metriche avanzate di protezione dei dati consentono di proteggere i dati fornendo informazioni sul numero di regole di replica, sull'utilizzo della crittografia SSE-KMS e sulle vulnerabilità di sicurezza come le richieste di firma e TLS non supportate. (**Nota:** le metriche del conteggio delle regole di replica non sono disponibili per i prefissi.)

Questa visibilità consente di garantire la corretta ridondanza dei dati, convalidare la conformità alla crittografia, identificare i rischi per la sicurezza derivanti da protocolli obsoleti, risolvere i problemi di configurazione della replica e mantenere solide strategie di protezione dei dati a livello di organizzazione, account e bucket.

**Metriche prestazionali avanzate**  
Le metriche prestazionali avanzate rivelano il modo in cui le applicazioni interagiscono con i dati in S3 e possono aiutare a identificare opportunità per ottimizzare le prestazioni delle applicazioni, ad esempio I/O modelli inefficienti, accesso tra regioni e numero unico di accessi agli oggetti. Le metriche prestazionali avanzate di Storage Lens eliminano la necessità di costosi strumenti di monitoraggio personalizzati e consentono ai clienti di implementare le best practice di S3 in modo più efficace, in particolare a vantaggio delle applicazioni sensibili alle prestazioni come il machine learning, l'analisi dei dati e altri carichi di lavoro di elaborazione ad alte prestazioni.

### Raccomandazioni
<a name="storage_lens_basics_recommendations"></a>

S3 Storage Lens fornisce raccomandazioni automatizzate per ottimizzare lo storage. Le raccomandazioni vengono posizionate contestualmente insieme ai parametri pertinenti nel pannello di controllo di S3 Storage Lens. I dati della cronologia non sono idonei per le raccomandazioni in quanto le raccomandazioni sono rilevanti per quanto sta accadendo nel periodo più recente. I suggerimenti appaiono solo quando sono rilevanti.

Le raccomandazioni di S3 Storage Lens sono disponibili nelle seguenti forme:
+ **Suggerimenti**

  I suggerimenti ti avvisano delle tendenze all'interno dello storage e delle attività che potrebbero indicare un'opportunità di ottimizzazione dei costi di storage o una best practice per la protezione dei dati. Per maggiori dettagli sulle regioni, i bucket o i prefissi specifici, consulta gli argomenti riportati nella *Guida per l'utente di Amazon S3* e nel pannello di controllo di S3 Storage Lens.
+ **Callout**

  I callout sono raccomandazioni che avvisano l'utente riguardo ad anomalie interessanti in termini di archiviazione nell'arco di un periodo che potrebbero richiedere una maggiore attenzione o monitoraggio.
  + **Callout anomalie**

    S3 Storage Lens fornisce callout per i parametri che sono valori anomali, in base alla recente tendenza di 30 giorni. L'anomalia viene calcolata utilizzando un punteggio standard, noto anche come *z-score*. Per ottenere questo punteggio, il parametro del giorno corrente viene sottratto dalla media dei valori del parametro degli ultimi 30 giorni. Il valore del parametro del giorno corrente viene quindi diviso per la deviazione standard di tale parametro negli ultimi 30 giorni. Il punteggio risultante è solitamente compreso tra -3 e \$13. Questo numero rappresenta il numero di deviazioni standard che il parametro del giorno corrente rappresenta dalla media. 

    S3 Storage Lens considera i parametri con un punteggio >2 o <-2 come valori anomali perché sono superiori o inferiori al 95% dei dati normalmente distribuiti. 
  + **Callout delle modifiche significative**

    Il callout delle modifiche significative si applica ai parametri che dovrebbero cambiare meno frequentemente. Pertanto, è impostato su una sensibilità maggiore rispetto al calcolo dei valori anomali, che in genere è dell'ordine del \$1/- 20% rispetto al giorno, alla settimana o al mese precedente.

    **Risoluzione dei callout relativi ad archiviazione e utilizzo**: se ricevi un callout di modifica significativa, non si tratta necessariamente di un problema. Tale call-out potrebbe essere il risultato di una modifica dell'archiviazione prevista. Ad esempio, è possibile che di recente sia stato aggiunto un numero elevato di nuovi oggetti, eliminato un numero elevato di oggetti o apportate modifiche pianificate. 

    Se nel pannello di controllo viene visualizzato un callout di modifica significativa, prendine nota e determina se può essere spiegata dalle circostanze recenti. In caso contrario, utilizza il pannello di controllo di S3 Storage Lens per espandere ulteriori dettagli per comprendere le regioni, i bucket o i prefissi specifici che determinano la fluttuazione.
+ **Promemoria**

  I promemoria forniscono informazioni dettagliate sul funzionamento di Amazon S3. Possono aiutarti a saperne di più sulle modalità di utilizzo delle funzionalità S3 per ridurre i costi di storage o applicare best practice per la protezione dei dati.

### Selezione delle metriche
<a name="storage_lens_basics_metrics_selection"></a>

*S3 Storage Lens offre due selezioni di metriche tra cui scegliere per la dashboard e l'esportazione: *livello gratuito e livello avanzato*.*
+ **Piano gratuito**

  S3 Storage Lens offre parametri gratuiti per tutti i pannelli di controllo e le configurazioni. I parametri gratuiti contengono dati rilevanti per l'archiviazione, come il numero di bucket e gli oggetti nel tuo account. Le metriche gratuite includono anche metriche basate sui casi d'uso (ad esempio, ottimizzazione dei costi e metriche di protezione dei dati) che puoi utilizzare per verificare se lo storage è configurato secondo le best practice di S3. Tutte le metriche del livello gratuito vengono raccolte giornalmente e possono essere esportate in un bucket S3 generico (CSV o formato) o Parquet in un bucket da tabella S3 (solo formato). Parquet I dati sono disponibili per le query per 14 giorni nella console Amazon S3. Per ulteriori informazioni sui parametri disponibili con i parametri gratuiti, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).
+ **Livello avanzato**

  S3 Storage Lens offre metriche gratuite per tutte le dashboard e le configurazioni con la possibilità di passare a metriche avanzate. Si applicano costi aggiuntivi. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing).

  Le metriche di livello avanzato includono tutte le metriche delle metriche gratuite insieme a metriche aggiuntive, come metriche avanzate per la protezione dei dati e l'ottimizzazione dei costi, le metriche delle attività e le metriche dettagliate del codice di stato. Le metriche di livello avanzato forniscono anche consigli per aiutarti a ottimizzare lo storage. Le raccomandazioni vengono posizionate contestualmente insieme ai parametri pertinenti nel pannello di controllo.

  Il livello Advanced include le seguenti funzionalità:
  + **Categorie di metriche avanzate**: genera metriche aggiuntive. Per un elenco completo delle categorie di parametri avanzati, consulta [Categorie di parametri](#storage_lens_basics_metrics_types). Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).
  + **Amazon CloudWatch publishing**[: pubblica i parametri di S3 Storage Lens per CloudWatch creare una visione unificata dello stato operativo nei dashboard. CloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Puoi anche utilizzare le operazioni e le funzionalità delle CloudWatch API, come allarmi e azioni attivate, calcoli metrici e rilevamento delle anomalie, per monitorare e agire in base ai parametri di S3 Storage Lens. Per ulteriori informazioni, consulta [Monitora le metriche di S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md).
  + Report sulle **metriche predefinite: il rapporto sulle** metriche predefinite di S3 Storage Lens include metriche gratuite e funzionalità di aggregazione dei prefissi per i principali prefissi per l'utilizzo dello storage di oggetti e le tendenze delle attività in tutto il mondo. Account AWS Con il rapporto sulle metriche predefinite, puoi identificare le opportunità di ottimizzazione dei costi senza costi aggiuntivi oltre ai costi di storage standard di S3.
  + Report **esteso sulle metriche dei prefissi: il rapporto sulle** metriche dei prefissi estese di Storage Lens fornisce un'analisi completa a livello di prefisso su tutti i dati di storage S3, ampliando la copertura per supportare fino a miliardi di prefissi per bucket.
  + **Aggregazione di metriche aggiuntive**
    + **Aggregazione di prefisso**: raccoglie i parametri a livello di [prefisso](using-prefixes.md). Questa impostazione specifica i prefissi aggregati come parte del rapporto sulle metriche predefinite, visualizzato nella dashboard di Storage Lens. Tieni presente che i parametri applicabili a livello di prefisso sono disponibili con l'**Aggregazione di prefisso**, ad eccezione delle impostazioni a livello di bucket e dei parametri relativi al conteggio delle regole. Le metriche a livello di prefisso non si applicano ai prefissi espansi in cui le metriche vengono esportate e su cui non vengono pubblicate. CloudWatch
    + **Aggregazione dei gruppi Storage Lens**: raccoglie i parametri a livello di gruppo Storage Lens. Dopo aver abilitato le metriche di livello avanzato e l'aggregazione dei gruppi di Storage Lens, puoi specificare quali gruppi di Storage Lens includere o escludere dalla dashboard di Storage Lens. Devi specificare almeno un gruppo Storage Lens. I gruppi Storage Lens specificati devono inoltre risiedere nella regione di origine designata nell'account del pannello di controllo. Le metriche a livello di gruppo di Storage Lens non vengono pubblicate su. CloudWatch

  Tutti i parametri avanzati vengono raccolti quotidianamente. I dati sono disponibili per l'interrogazione per un massimo di 15 mesi nella console Amazon S3. Per ulteriori informazioni sui parametri di archiviazione aggregati da S3 Storage Lens, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

### Delimitatore di prefisso
<a name="storage_lens_basics_prefix_delimiter"></a>

I delimitatori di prefisso determinano il modo in cui Storage Lens conta la profondità del prefisso, separando i livelli gerarchici all'interno delle chiavi degli oggetti. È possibile specificare un solo carattere per indicare ogni livello all'interno dei prefissi. Se il delimitatore del prefisso non è definito, Amazon S3 utilizza "" `/` come delimitatore predefinito.

**Nota**  
Quando aggiorni la configurazione del pannello di controllo di Storage Lens tramite API, il *delimitatore e il delimitatore* di *prefisso aggiornato devono essere definiti allo stesso modo, altrimenti* riceverai un errore. Il delimitatore si applica solo alle metriche a livello di prefisso che vengono esportate nel rapporto sulle metriche predefinito. Il delimitatore di prefisso si applica a tutti i prefissi esportati nel rapporto esteso sulle metriche dei prefissi.

### S3 Storage Lens e AWS Organizations
<a name="storage_lens_basics_organizations"></a>

AWS Organizations è uno strumento Servizio AWS che ti aiuta ad aggregare tutte le tue organizzazioni Account AWS in un'unica gerarchia. Amazon S3 Storage Lens funziona AWS Organizations per fornire una visione unica dello storage di oggetti e delle attività sullo storage Amazon S3.

Per ulteriori informazioni, consulta [Utilizzo di Amazon S3 Storage Lens con AWS OrganizationsAbilitazione dell'accesso attendibile per S3 Storage Lens](storage_lens_with_organizations.md).
+ **Accesso attendibile**

  Utilizzando l'account di gestione dell'organizzazione, devi abilitare l'accesso attendibile per S3 Storage Lens per aggregare i parametri di archiviazione e i dati di utilizzo per tutti gli account membri dell'organizzazione. Puoi quindi creare pannelli di controllo o esportazioni per l'organizzazione utilizzando l'account di gestione o assegnando l'accesso da amministratore delegato ad altri account dell'organizzazione. 

  Puoi disabilitare l'accesso attendibile per S3 Storage Lens in qualsiasi momento, evitando che S3 Storage Lens aggreghi i parametri per la tua organizzazione.
+ **Amministratore delegato**

  Puoi creare dashboard e parametri per S3 Storage Lens per la tua organizzazione utilizzando il tuo account di AWS Organizations gestione o concedendo all'*amministratore delegato* l'accesso ad altri account dell'organizzazione. Puoi annullare la registrazione degli amministratori delegati in qualsiasi momento. Questa azione interrompe automaticamente tutti i pannelli di controllo a livello di organizzazione creati dall'amministratore delegato dall'aggregazione di nuovi parametri di archiviazione.

Per maggiori informazioni, consulta [Amazon S3 Storage Lens e AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/services-that-can-integrate-s3lens.html) nella *Guida per l'utente di AWS Organizations *.

#### Ruoli collegati ai servizi per Amazon S3 Storage Lens
<a name="storage_lens_basics_service_linked_role"></a>

Oltre all'accesso AWS Organizations affidabile, Amazon S3 Storage Lens utilizza ruoli collegati ai servizi AWS Identity and Access Management (IAM). Un ruolo collegato ai servizi è un tipo unico di ruolo IAM collegato direttamente a S3 Storage Lens. I ruoli collegati ai servizi sono predefiniti da S3 Storage Lens e includono tutte le autorizzazioni necessarie per raccogliere i parametri di archiviazione e attività giornalieri dagli account membri dell'organizzazione. 

Per ulteriori informazioni, consulta [Utilizzo dei ruoli collegati ai servizi per Amazon S3 Storage Lens](using-service-linked-roles.md).

# Glossario dei parametri di Amazon S3 Storage Lens
<a name="storage_lens_metrics_glossary"></a>

Il glossario dei parametri di Amazon S3 Storage Lens fornisce un elenco completo di parametri gratuiti e avanzati per S3 Storage Lens.

S3 Storage Lens offre parametri gratuiti per tutti i pannelli di controllo e le configurazioni con la possibilità di eseguire l'aggiornamento ai parametri avanzati. 
+ I **parametri gratuiti** contengono dati rilevanti per l'utilizzo dell'archiviazione, come il numero di bucket e gli oggetti nel tuo account. I parametri gratuiti includono anche parametri basati sui casi d'uso, come quelli relativi all'ottimizzazione dei costi e alla protezione dei dati. Tutti i parametri gratuiti vengono raccolti quotidianamente e i dati sono disponibili per le query per un massimo di 14 giorni. 
+ Le **metriche avanzate** includono tutte le metriche delle metriche gratuite insieme a metriche aggiuntive, come prestazioni avanzate, protezione avanzata dei dati e metriche avanzate di ottimizzazione dei costi. I parametri avanzati includono anche categorie di parametri aggiuntive, come i parametri di attività e i parametri dettagliati relativi al codice di stato. I dati dei parametri avanzati sono disponibili per le query per 15 mesi. 

  Per l’uso di S3 Storage Lens con le raccomandazioni e i parametri avanzati sono previsti costi aggiuntivi. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). Per ulteriori informazioni sui parametri avanzati e sulle funzioni di suggerimento, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).
**Nota**  
Per i gruppi Storage Lens sono disponibili solo i parametri di archiviazione del piano gratuito. I parametri di livello avanzato non sono disponibili a livello di gruppo Storage Lens.

**Nomi dei parametri**  
Nella colonna **Nome parametro** nella tabella seguente è riportato il nome di ogni parametro S3 Storage Lens nella console S3. La colonna **CloudWatch and export** fornisce il nome di ogni metrica in Amazon CloudWatch e il file di esportazione dei parametri che puoi configurare nella dashboard di S3 Storage Lens. 

**Formule dei parametri derivati**  
Le metriche derivate non sono disponibili per l'esportazione delle metriche e l'opzione di pubblicazione. CloudWatch Puoi tuttavia usare le formula dei parametri riportate nella colonna **Formule dei parametri derivati** per calcolarli.

**Interpretazione dei simboli dei prefissi per multipli di unità delle metriche di Amazon S3 Storage Lens (K, M, G e così via)**  
I multipli di unità di parametri di S3 Storage Lens sono scritti con simboli di prefisso. Questi simboli di prefisso sono rappresentati tramite i simboli del Sistema di unità internazionale (SI) standardizzati dall'International Bureau of Weights and Measures (BIPM). Vengono inoltre utilizzati nel codice unificato per le unità di misura (UCUM). Per ulteriori informazioni, consulta [Elenco dei simboli dei prefissi SI](https://www.bipm.org/en/measurement-units/si-prefixes). 

**Nota**  
L'unità di misura per i byte di archiviazione S3 è espressa in gigabyte binari (GB), dove 1 GB è pari a 230 byte, 1 TB a 240 byte e 1 PB a 250 byte. Questa unità di misura è nota anche come gibibyte (GiB), come definito dalla Commissione elettrotecnica internazionale (IEC).
Quando un oggetto raggiunge la fine del suo ciclo di vita in base alla relativa configurazione, Amazon S3 lo aggiunge alla coda degli oggetti da eliminare e lo rimuove in modo asincrono. Deve pertanto esistere un ritardo tra la data di scadenza dell'oggetto e la data in cui Amazon S3 rimuove tale oggetto. S3 Storage Lens non include i parametri per gli oggetti scaduti e non ancora rimossi. Per ulteriori informazioni sulle operazioni di scadenza nel ciclo di vita S3, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md).
Amazon S3 archivia i metadati (chiave dell'oggetto, timestamp, ecc.) per ogni oggetto, il che richiede uno spazio di archiviazione minimo anche per file di dati da 0 KB. Questo è il motivo per cui gli oggetti da 0 KB vengono visualizzati nell'intervallo di dimensioni (0KB-128 KB) in S3 Storage Lens.
S3 Storage Lens offre il miglior monitoraggio dei trasferimenti di dati tra regioni, concentrandosi principalmente sulle richieste provenienti da risorse gestite dal cliente come le istanze EC2. Le richieste effettuate tramite o alcune richieste interne alla regione non sono classificate AWS PrivateLink .

 La tabella seguente mostra il glossario delle metriche di S3 Storage Lens. 


| Nome parametro | CloudWatch ed esporta | Description | Livello1 | Categoria2 | Derivato | Formula parametro derivato | Gruppi Storage Lens | 
| --- | --- | --- | --- | --- | --- | --- | --- | 
| Archiviazione totale | StorageBytes | Archiviazione totale, inclusi i caricamenti incompleti in più parti, i metadati degli oggetti e i marker di eliminazione | Gratuito | Riepilogo | N | - | Y | 
| Object count (Conteggio oggetti) | ObjectCount | Numero totale di oggetti | Gratuito | Riepilogo | N | - | Y | 
| Dimensione media degli oggetti | - | Dimensione media degli oggetti | Gratuito | Riepilogo | Y | somma () /somma () StorageBytes ObjectCount | Y | 
| Active buckets (Bucket attivi) | - | Numero di bucket con spazio di archiviazione > 0 byte | Gratuito | Riepilogo | Y | - | Y | 
| Bucket | - | Numero di bucket | Gratuito | Riepilogo | Y | - | Y | 
| Account | - | Numero di account il cui spazio di archiviazione rientra nell'ambito | Gratuito | Riepilogo | Y | - | Y | 
| Current version bytes (Byte versione corrente) | CurrentVersionStorageBytes | Numero di byte che rappresentano la versione corrente di un oggetto | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % current version bytes (% byte versione corrente) | - | Percentuale di byte nell'ambito che rappresentano le versioni correnti degli oggetti | Gratuito | Ottimizzazione dei costi | Y | somma (CurrentVersionStorageBytes) /somma () StorageBytes | Y | 
| Conteggio oggetti versione corrente | CurrentVersionObjectCount | Numero di oggetti della versione corrente | Gratuito | Protezione dei dati | N | - | Y | 
| % current version objects (% oggetti versione corrente) | - | Percentuale di oggetti inclusi nell'ambito che corrispondono alla versione corrente | Gratuito | Ottimizzazione dei costi | Y | somma (CurrentVersionObjectCount) /somma () ObjectCount | Y | 
| Byte di versione non correnti | NonCurrentVersionStorageBytes | Numero di byte di versione non corrente | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % noncurrent version bytes (% byte versione non corrente) | - | Percentuale di byte nell'ambito che sono versioni non correnti | Gratuito | Ottimizzazione dei costi | Y | somma (NonCurrentVersionStorageBytes) /somma () StorageBytes | Y | 
| Conteggio di oggetti versione non corrente | NonCurrentVersionObjectCount | Numero di versioni non correnti dell'oggetto | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % noncurrent version objects (% oggetti versione non corrente) | - | Percentuale di oggetti inclusi nell'ambito che sono una versione non corrente | Gratuito | Ottimizzazione dei costi | Y | somma (NonCurrentVersionObjectCount) /somma () ObjectCount | Y | 
| Delete marker bytes (Byte contrassegni di eliminazione) | DeleteMarkerStorageBytes | Numero di byte compresi nell'ambito che sono marcatori di eliminazione | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % delete marker bytes (% byte contrassegni di eliminazione) | - | Percentuale di byte nell'ambito che sono marcatori di eliminazione | Gratuito | Ottimizzazione dei costi | Y | somma (DeleteMarkerStorageBytes) /somma () StorageBytes | Y | 
| Conteggio oggetti contrassegno di eliminazione | DeleteMarkerObjectCount | Numero di oggetti con un marker di cancellazione | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % delete marker objects (% oggetti contrassegni di eliminazione) | - | Percentuale di oggetti inclusi nell'ambito con un marker di eliminazione | Gratuito | Ottimizzazione dei costi | Y | somma (DeleteMarkerObjectCount) /somma () ObjectCount | Y | 
| Byte con caricamento in più parti incompleto | IncompleteMultipartUploadStorageBytes | Byte totali nell'ambito dei caricamenti incompleti in più parti | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % incomplete multipart upload bytes (% byte caricamenti in più parti incompleti) | - | Percentuale di byte inclusi nell'ambito che sono il risultato di caricamenti incompleti in più parti | Gratuito | Ottimizzazione dei costi | Y | somma (IncompleteMultipartUploadStorageBytes) /somma () StorageBytes | Y | 
| Conteggio di oggetti con caricamento in più parti incompleto | IncompleteMultipartUploadObjectCount | Numero di oggetti inclusi nell'ambito che sono caricamenti incompleti in più parti | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % incomplete multipart upload objects (% oggetti caricamenti in più parti incompleti) | - | Percentuale di oggetti inclusi nell'ambito che sono caricamenti incompleti in più parti | Gratuito | Ottimizzazione dei costi | Y | somma (IncompleteMultipartUploadObjectCount) /somma () ObjectCount | Y | 
| Incomplete multipart upload storage bytes greater than 7 days old (Byte archiviazione caricamenti in più parti incompleti risalenti a più di 7 giorni) | 7 giorni incompleti MPUStorage BytesOlderThan | Byte totali nell'ambito dei caricamenti incompleti in più parti risalenti a più di 7 giorni fa | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % incomplete multipart upload storage bytes greater than 7 days old (% byte archiviazione caricamenti in più parti incompleti risalenti a più di 7 giorni) | - | Percentuale di byte per caricamenti incompleti in più parti risalenti a più di 7 giorni fa | Gratuito | Ottimizzazione dei costi | Y | sum (MPUStorageBytesOlderThan7 giorni incompleti) /sum () StorageBytes | Y | 
| Incomplete multipart upload object count greater than 7 days old (Conteggio oggetti caricamenti in più parti incompleti risalenti a più di 7 giorni) | 7 giorni incompleti MPUObject CountOlderThan | Numero di oggetti incompleti caricati in più parti risalenti a più di 7 giorni fa | Gratuito | Ottimizzazione dei costi | N | - | Y | 
| % incomplete multipart upload object count greater than 7 days old (% conteggio oggetti caricamenti in più parti incompleti risalenti a più di 7 giorni) | - | Percentuale di oggetti incompleti caricati in più parti risalenti a più di 7 giorni fa | Gratuito | Ottimizzazione dei costi | Y | sum (MPUObjectCountOlderThan7 giorni incompleti) /sum () ObjectCount | Y | 
| Transition lifecycle rule count (Conteggio regole ciclo di vita transizione) | TransitionLifecycleRuleCount | Numero di regole del ciclo di vita per la transizione degli oggetti a un'altra classe di storage | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average transition lifecycle rules per bucket (Media regole ciclo di vita transizioni per bucket) | - | Numero medio di regole del ciclo di vita per la transizione degli oggetti a un'altra classe di storage | Avanzata | Ottimizzazione dei costi | Y | somma (TransitionLifecycleRuleCount) /somma () DistinctNumberOfBuckets | N | 
| Expiration lifecycle rule count (Conteggio regole ciclo di vita scadenza) | ExpirationLifecycleRuleCount | Numero di regole del ciclo di vita per far scadere gli oggetti | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average expiration lifecycle rules per bucket (Media regole ciclo di vita scadenza per bucket) | - | Numero medio di regole del ciclo di vita per cui scadere gli oggetti | Avanzata | Ottimizzazione dei costi | Y | sum (ExpirationLifecycleRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Noncurrent version transition lifecycle rule count (Conteggio regole ciclo di vita transizione versioni non correnti) | NoncurrentVersionTransitionLifecycleRuleCount | Numero di regole del ciclo di vita per la transizione delle versioni non correnti degli oggetti a un'altra classe di storage | Avanzata | Ottimizzazione dei costi | N |  | N | 
| Average noncurrent version transition lifecycle rules per bucket (Media regole ciclo di vita transizioni versioni non correnti per bucket) | - | Numero medio di regole del ciclo di vita per la transizione delle versioni non correnti degli oggetti a un'altra classe di storage | Avanzata | Ottimizzazione dei costi | Y | somma (NoncurrentVersionTransitionLifecycleRuleCount) /somma () DistinctNumberOfBuckets  | N | 
| Noncurrent version expiration lifecycle rule count (Conteggio regole ciclo di vita scadenza versioni non correnti) | NoncurrentVersionExpirationLifecycleRuleCount | Numero di regole del ciclo di vita a cui far scadere le versioni non correnti degli oggetti | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average noncurrent version expiration lifecycle rules per bucket (Media regole ciclo di vita scadenza versioni non correnti per bucket) | - | Numero medio di regole del ciclo di vita per cui scadere le versioni non correnti degli oggetti | Avanzata | Ottimizzazione dei costi | Y | somma () /somma () NoncurrentVersionExpirationLifecycleRuleCount DistinctNumberOfBuckets  | N | 
| Abort incomplete multipart upload lifecycle rule count (Conteggio regole ciclo di vita interruzione caricamenti in più parti incompleti) | AbortIncompleteMPULifecycleRuleCount | Numero di regole del ciclo di vita per eliminare i caricamenti multiparte incompleti | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average abort incomplete multipart upload lifecycle rules per bucket (Media interruzioni regole ciclo di vita caricamenti in più parti incompleti per bucket) | - | Numero medio di regole del ciclo di vita per eliminare i caricamenti multiparte incompleti | Avanzata | Ottimizzazione dei costi | Y | somma () /somma () AbortIncomplete MPULifecycle RuleCount DistinctNumberOfBuckets | N | 
| Expired object delete marker lifecycle rule count (Conteggio regole ciclo di vita contrassegni di eliminazione oggetti scaduti) | ExpiredObjectDeleteMarkerLifecycleRuleCount | Numero di regole del ciclo di vita per rimuovere i marker di eliminazione degli oggetti scaduti | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average expired object delete marker lifecycle rules per bucket (Media regole ciclo di vita contrassegni di eliminazione oggetti scaduti per bucket) | - | Numero medio di regole del ciclo di vita per rimuovere i marker di eliminazione degli oggetti scaduti | Avanzata | Ottimizzazione dei costi | Y | somma () /somma () ExpiredObjectDeleteMarkerLifecycleRuleCount DistinctNumberOfBuckets  | N | 
| Total lifecycle rule count (Conteggio totale regole ciclo di vita) | TotalLifecycleRuleCount | Numero di regole del ciclo di vita | Avanzata | Ottimizzazione dei costi | N | - | N | 
| Average lifecycle rule count per bucket (Media conteggio regole ciclo di vita per bucket) | - | Numero medio di regole del ciclo di vita | Avanzata | Ottimizzazione dei costi | Y | somma (TotalLifecycleRuleCount) /somma () DistinctNumberOfBuckets | N | 
| Encrypted bytes (Byte crittografati) | EncryptedStorageBytes | Numero di byte crittografati | Gratuito | Protezione dei dati | N | - | Y | 
| % encrypted bytes (% byte crittografati) | - | Percentuale di byte totali crittografati | Gratuito | Protezione dei dati | Y | sum (EncryptedObjectCount) /sum () StorageBytes | Y | 
| Encrypted object count (Conteggio oggetti crittografati) | EncryptedObjectCount | Numero di oggetti crittografati | Gratuito | Protezione dei dati | N | - | Y | 
| % encrypted objects (% oggetti crittografati) | - | Percentuale di oggetti crittografati | Gratuito | Protezione dei dati | Y | somma (EncryptedStorageBytes) /somma () ObjectCount | Y | 
| Unencrypted bytes (Byte non crittografati) | UnencryptedStorageBytes | Numero di byte non crittografati | Gratuito | Protezione dei dati | Y | somma (StorageBytes) - somma () EncryptedStorageBytes | Y | 
| % unencrypted bytes (% byte non crittografati) | - | Percentuale di byte non crittografati | Gratuito | Protezione dei dati | Y | sum (UnencryptedStorageBytes) /sum () StorageBytes | Y | 
| Unencrypted object count (Conteggio oggetti non crittografati) | UnencryptedObjectCount | Numero di oggetti non crittografati | Gratuito | Protezione dei dati | Y | somma (ObjectCount) - somma () EncryptedObjectCount | Y | 
| % unencrypted objects (% oggetti non crittografati) | - | Percentuale di oggetti non crittografati | Gratuito | Protezione dei dati | Y | somma (UnencryptedObjectCount) /somma () ObjectCount | Y | 
| Replicated storage bytes source (Origine byte di archiviazione replicati) | ReplicatedStorageBytesSource | Numero di byte replicati dal bucket di origine | Gratuito | Protezione dei dati | N | - | Y | 
| % replicated bytes source (% origine byte replicati) | - | Percentuale di byte totali replicati dal bucket di origine | Gratuito | Protezione dei dati | Y | somma (ReplicatedStorageBytesSource) /somma () StorageBytes | Y | 
| Replicated object count source (Origine conteggio oggetti replicati) | ReplicatedObjectCountSource | Numero di oggetti replicati dal bucket di origine | Gratuito | Protezione dei dati | N | - | Y | 
| % replicated objects source (% origine oggetti replicati) | - | Percentuale di oggetti totali replicati dal bucket di origine | Gratuito | Protezione dei dati | Y | somma (ReplicatedStorageObjectCount) /somma () ObjectCount | Y | 
| Destinazione dei byte di archiviazione replicati | ReplicatedStorageBytes | Numero di byte replicati nel bucket di destinazione | Gratuito | Protezione dei dati | N | - | N | 
| % replicated bytes destination (% destinazione byte replicati) | - | Percentuale di byte totali replicati nel bucket di destinazione | Gratuito | Protezione dei dati | Y | somma (ReplicatedStorageBytes) /somma () StorageBytes | Y | 
| Replicated object count destination (Destinazione conteggio oggetti replicati) | ReplicatedObjectCount | Numero di oggetti replicati nel bucket di destinazione | Gratuito | Protezione dei dati | N | - | Y | 
| % replicated objects destination (% destinazione oggetti replicati) | - | Percentuale di oggetti totali replicati nel bucket di destinazione | Gratuito | Protezione dei dati | Y | somma (ReplicatedObjectCount) /somma () ObjectCount | Y | 
| Object Lock bytes (Byte blocco oggetti) | ObjectLockEnabledStorageBytes | Numero di byte di archiviazione abilitati per Object Lock | Gratuito | Protezione dei dati | N | sum (UnencryptedStorageBytes) /sum (ObjectLockEnabledStorageCount) -sum () ObjectLockEnabledStorageBytes | Y | 
| % Object Lock bytes (% byte blocco oggetti) | - | Percentuale di byte di archiviazione abilitati a Object Lock | Gratuito | Protezione dei dati | Y | somma (ObjectLockEnabledStorageBytes) /somma () StorageBytes | Y | 
| Object Lock object count (Conteggio oggetti con blocco oggetti) | ObjectLockEnabledObjectCount | Numero di oggetti Object Lock | Gratuito | Protezione dei dati | N | - | Y | 
| % Object Lock objects (% oggetti blocco oggetti) | - | Percentuale del totale di oggetti con Object Lock abilitato | Gratuito | Protezione dei dati | Y |  somma (ObjectLockEnabledObjectCount) /somma () ObjectCount | Y | 
| Versioning-enabled bucket count (Conteggio bucket con controllo delle versioni abilitato) | VersioningEnabledBucketCount | Numero di bucket con S3 Versioning abilitato | Gratuito | Protezione dei dati | N | - | N | 
| % versioning-enabled buckets (% bucket con controllo delle versioni abilitato) | - | Percentuale di bucket con S3 Versioning abilitato | Gratuito | Protezione dei dati | Y | somma (VersioningEnabledBucketCount) /somma () DistinctNumberOfBuckets | N | 
| MFA delete-enabled bucket count (Conteggio bucket con eliminazione MFA abilitata) | MFADeleteEnabledBucketCount | Numero di bucket con l'eliminazione MFA (autenticazione a più fattori) abilitata | Gratuito | Protezione dei dati | N | - | N | 
| % MFA delete-enabled bucket count (% conteggio bucket con eliminazione MFA abilitata) | - | Percentuale di bucket con l'eliminazione MFA (autenticazione a più fattori) abilitata | Gratuito | Protezione dei dati | Y | somma (MFADeleteEnabledBucketCount) /somma () DistinctNumberOfBuckets | N | 
| Conteggio bucket con SSE-KMS abilitata | SSEKMSEnabledBucketCount | Numero di bucket che utilizzano la crittografia lato server con AWS Key Management Service chiavi (SSE-KMS) per la crittografia predefinita dei bucket | Gratuito | Protezione dei dati | N | - | N | 
| % SSE-KMS enabled buckets (% bucket con SSE-KMS abilitata) | - | Percentuale di bucket che utilizzano SSE-KMS per la crittografia predefinita dei bucket | Gratuito | Protezione dei dati | Y | somma () /somma () SSEKMSEnabled BucketCount DistinctNumberOfBuckets | N | 
| All unsupported signature requests (Tutte le richieste di firma non supportate) | AllUnsupportedSignatureRequests | Numero totale di richieste che utilizzano versioni di firma non supportate AWS  | Avanzata | Protezione dei dati | N | - | N | 
| % all unsupported signature requests (% tutte le richieste di firma non supportate) | - | Percentuale di richieste che utilizzano versioni di firma non supportate AWS  | Avanzata | Protezione dei dati | Y | somma (AllUnsupportedSignatureRequests) /somma () AllRequests | N | 
| All unsupported TLS requests (Tutte le richieste TLS non supportate) | AllUnsupportedTLSRequests | Numero totale di richieste che utilizzano versioni di Transport Layer Security (TLS) non supportate | Avanzata | Protezione dei dati | N | - | N | 
| % all unsupported TLS requests (% tutte le richieste TLS non supportate) | - | Percentuale di richieste che utilizzano versioni TLS non supportate | Avanzata | Protezione dei dati | Y | somma (AllUnsupportedTLSRequests) /somma () AllRequests | N | 
| All SSE-KMS requests (Tutte le richieste SSE-KMS) | Tutto SSEKMSRequests | Numero totale di richieste che specificano SSE-KMS | Avanzata | Protezione dei dati | N | - | N | 
| % all SSE-KMS requests (% tutte le richieste SSE-KMS) | - | Percentuale di richieste che specificano SSE-KMS | Avanzata | Protezione dei dati | Y | sum (Tutti) /sum (SSEKMSRequests) AllRequests | N | 
| Same-Region Replication rule count (Conteggio regole di replica stessa regione) | SameRegionReplicationRuleCount | Numero di regole di replica per Same-Region Replication (SRR) | Avanzata | Protezione dei dati | N | - | N | 
| Average Same-Region Replication rules per bucket (Media regole di replica nella stessa regione per bucket) | - | Numero medio di regole di replica per SRR | Avanzata | Protezione dei dati | Y | sum (SameRegionReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Cross-Region Replication rule count (Conteggio regole di replica tra regioni) | CrossRegionReplicationRuleCount | Numero di regole di replica per la replica tra regioni (CRR) | Avanzata | Protezione dei dati | N | - | N | 
| Average Cross-Region Replication rules per bucket (Media regole di replica tra regioni per bucket) | - | Numero medio di regole di replica per CRR | Avanzata | Protezione dei dati | Y | sum (CrossRegionReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Same-account replication rule count (Conteggio regole di replica stesso account) | SameAccountReplicationRuleCount | Numero di regole di replica per la replica all'interno dello stesso account | Avanzata | Protezione dei dati | N | - | N | 
| Average same-account replication rules per bucket (Media regole di replica stesso account per bucket) | - | Numero medio di regole di replica per la replica all'interno dello stesso account | Avanzata | Protezione dei dati | Y | sum (SameAccountReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Cross-account replication rule count (Conteggio regole di replica tra account) | CrossAccountReplicationRuleCount | Numero di regole di replica per la replica tra account | Avanzata | Protezione dei dati | N | - | N | 
| Average cross-account replication rules per bucket (Media regole di replica tra account per bucket) | - | Numero medio di regole di replica per la replica tra account | Avanzata | Protezione dei dati | Y | sum (CrossAccountReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Invalid destination replication rule count (Conteggio regole di replica di destinazione non valida) | InvalidDestinationReplicationRuleCount | Numero di regole di replica con una destinazione di replica non valida | Avanzata | Protezione dei dati | N | - | N | 
| Average invalid destination replication rules per bucket (Media regole di replica destinazione non valida per bucket) | - | Numero medio di regole di replica con una destinazione di replica non valida | Avanzata | Protezione dei dati | Y | somma (InvalidReplicationRuleCount) /somma () DistinctNumberOfBuckets | N | 
| Total replication rule count (Conteggio totale regole di replica) | - | Total replication rule count (Conteggio totale regole di replica) | Avanzata | Protezione dei dati | Y | - | N | 
| Average replication rule count per bucket (Media conteggio regole di replica per bucket) | - | Numero totale medio di regole di replica | Avanzata | Protezione dei dati | Y | sum (tutte le metriche di conteggio delle regole di replica) /sum () DistinctNumberOfBuckets | N | 
| Object Ownership bucket owner enforced bucket count (Numero di bucket con Object Ownership impostata su Bucket owner enforced [Applicata da proprietario bucket]) | ObjectOwnershipBucketOwnerEnforcedBucketCount | Numero di bucket con liste di controllo degli accessi (ACLs) disabilitate utilizzando l'impostazione imposta dal proprietario del bucket per Object Ownership | Gratuito | Gestione degli accessi | N | - | N | 
| % Object Ownership bucket owner enforced buckets (Bucket con % Object Ownership applicata da proprietario bucket) | - | Percentuale di bucket ACLs disabilitati utilizzando l'impostazione imposta dal proprietario del bucket per Object Ownership | Gratuito | Gestione degli accessi | Y | somma (ObjectOwnershipBucketOwnerEnforcedBucketCount) /somma () DistinctNumberOfBuckets  | N | 
| Object Ownership bucket owner preferred bucket count (Numero di bucket con Object Ownership impostata su Bucket Owner Preferred [Preferita da proprietario bucket]) | ObjectOwnershipBucketOwnerPreferredBucketCount | Numero di bucket che utilizzano l'impostazione preferita del proprietario del bucket per Object Ownership | Gratuito | Gestione degli accessi | N | - | N | 
| % Object Ownership bucket owner preferred buckets (Bucket con % Object Ownership preferita da proprietario bucket) | - | Percentuale di bucket che utilizzano l'impostazione preferita del proprietario del bucket per Object Ownership | Gratuito | Gestione degli accessi | Y | somma (ObjectOwnershipBucketOwnerPreferredBucketCount) /somma () DistinctNumberOfBuckets  | N | 
| Object Ownership object writer bucket count (Conteggio bucket object writer Object Ownership) | ObjectOwnershipObjectWriterBucketCount | Numero di bucket che utilizzano l'impostazione dell'object writer per Object Ownership | Gratuito | Gestione degli accessi | N | - | N | 
| % Object Ownership object writer buckets (% bucket object writer Object Ownership) | - | Percentuale di bucket che utilizzano l'impostazione dell'object writer per Object Ownership | Gratuito | Gestione degli accessi | Y | somma (ObjectOwnershipObjectWriterBucketCount) /somma () DistinctNumberOfBuckets | N | 
| Transfer Acceleration enabled bucket count (Numero di bucket con Transfer Acceleration abilitata) | TransferAccelerationEnabledBucketCount | Numero di bucket con Transfer Acceleration abilitata | Gratuito | Performance | N | - | N | 
| % Transfer Acceleration enabled buckets (% bucket con Transfer Acceleration abilitata) | - | Percentuale di bucket con Transfer Acceleration abilitata | Gratuito | Performance | Y | somma (TransferAccelerationEnabledBucketCount) /somma () DistinctNumberOfBuckets | N | 
| Event Notification enabled bucket count (Conteggio di bucket con alla notifica eventi abilitata) | EventNotificationEnabledBucketCount | Numero di bucket con le notifiche degli eventi abilitate | Gratuito | Eventi | N |  | N | 
| % Event Notification enabled buckets (% bucket con notifica eventi abilitata) | - | Percentuale di bucket in cui sono abilitate le notifiche degli eventi | Gratuito | Eventi | Y | somma (EventNotificationEnabledBucketCount) /somma () DistinctNumberOfBuckets | N | 
| Tutte le richieste | AllRequests |  Numero totale di richieste effettuate   | Avanzata | Attività | N | - | N | 
| Richieste GET | GetRequests |  Numero totale di `GET` richieste effettuate  | Avanzata | Attività | N | - | N | 
| Put requests (Richieste PUT) | PutRequests |  Numero totale di `PUT` richieste effettuate  | Avanzata | Attività | N | - | N | 
| Head requests (Richieste HEAD) | HeadRequests | Numero di HEAD richieste effettuate | Avanzata | Attività | N | - | N | 
| Delete requests (Richieste DELETE) | DeleteRequests | Numero di DELETE richieste effettuate | Avanzata | Attività | N | - | N | 
| Richieste LIST | ListRequests | Numero di LIST richieste effettuate | Avanzata | Attività | N | - | N | 
| Post requests (Richieste POST) | PostRequests | Numero di POST richieste effettuate | Avanzata | Attività | N | - | N | 
| Select requests (Richieste Select) | SelectRequests | Numero di richieste S3 Select | Avanzata | Attività | N | - | N | 
| Select scanned bytes (Byte Select scansionati) | SelectScannedBytes | Numero di byte S3 Select scansionati | Avanzata | Attività | N | - | N | 
| Select returned bytes (Byte Select restituiti) | SelectReturnedBytes | Numero di byte S3 Select restituiti | Avanzata | Attività | N | - | N | 
| Byte scaricati | BytesDownloaded | Numero di byte scaricati | Avanzata | Attività | N | - | N | 
| % retrieval rate (% tasso di recupero) | - | Percentuale di byte scaricati | Avanzata | Attività | Y | somma (BytesDownloaded) /somma () StorageBytes | N | 
| Byte caricati | BytesUploaded | Numero di byte caricati | Avanzata | Attività | N | - | N | 
| % ingest ratio (% rapporto di acquisizione) | - | Percentuale di byte caricati | Avanzata | Attività | Y | somma (BytesUploaded) /somma () StorageBytes | N | 
| 4xx errors (Errori 4xx) | 4xxErrors | Numero di codici di stato HTTP 4xx | Avanzata | Attività | N | - | N | 
| 5xx errors (Errori 5xx) | 5xxErrors | Numero di codici di stato HTTP 5xx | Avanzata | Attività | N | - | N | 
| Total errors (Totale errori) | - | Somma di tutti gli errori 4xx e 5xx | Avanzata | Attività | Y | sum(4xxErrors) \$1 sum(5xxErrors) | N | 
| % error rate (% tasso di errore) | - |  Numero totale di errori 4xx e 5xx come percentuale del totale delle richieste  | Avanzata | Attività | Y | somma (TotalErrors) /somma () TotalRequests | N | 
| 200 OK status count (Conteggio dello stato 200 OK) | Conteggio 200 OKStatus | Numero di 200 codici di stato OK | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 200 OK status (% stato 200 OK) | - |  Numero totale di 200 codici di stato OK come percentuale delle richieste totali  | Avanzata | Codice di stato dettagliato | Y | somma (200 OKStatus Count) /sum (AllRequests) | N | 
| 206 Partial Content status count (Conteggio stato 206 contenuto parziale) | 206 PartialContentStatusCount | Numero di 206 codici di stato del contenuto parziale | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 206 Partial Content status (% stato 206 contenuto parziale) | - | Numero di 206 codici di stato del contenuto parziale come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (206PartialContentStatusCount) /somma () AllRequests | N | 
| 400 Bad Request error count (Conteggio errori 400 Richiesta non valida) |  400 BadRequestErrorCount  | Numero di 400 codici di stato Bad Request | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 400 Bad Request errors (% errori 400 Richiesta non valida) | - | Numero di 400 codici di stato Bad Request come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (400BadRequestErrorCount) /somma () AllRequests | N | 
| 403 Forbidden error count (Conteggio errori 403 Accesso negato) |  403 ForbiddenErrorCount  | Numero di 403 codici di stato proibiti | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 403 Forbidden errors (% errori 403 Accesso negato) | - | Numero di 403 codici di stato proibiti come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (403ForbiddenErrorCount) /somma () AllRequests | N | 
| 404 Not Found error count (Conteggio errori 404 Non trovato) | 404 NotFoundErrorCount | Numero di codici di stato 404 Not Found | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 404 Not Found errors (% errori 404 Non trovato) | - | Numero di codici di stato 404 Not Found come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (404NotFoundErrorCount) /somma () AllRequests | N | 
| 500 Internal Server Error count (Conteggio errori 500 Errore interno del server) | 500 InternalServerErrorCount | Numero di 500 codici di stato di errore interno del server | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 500 Internal Server Errors (% errori 500 Errore interno del server) | - | Numero di 500 codici di stato di errore interno del server come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (500InternalServerErrorCount) /somma () AllRequests | N | 
| 503 Service Unavailable error count (Conteggio errori 503 Servizio non disponibile) | 503 ServiceUnavailableErrorCount | Numero di codici di stato 503 «Servizio non disponibile» | Avanzata | Codice di stato dettagliato | N | - | N | 
| % 503 Service Unavailable errors (% errori 503 Servizio non disponibile) | - | Numero di 503 codici di stato «Servizio non disponibile» come percentuale delle richieste totali | Avanzata | Codice di stato dettagliato | Y | somma (503ServiceUnavailableErrorCount) /somma () AllRequests | N | 

1Tutti i parametri di archiviazione del piano gratuito non sono disponibili a livello di gruppo Storage Lens. I parametri di livello avanzato non sono disponibili a livello di gruppo Storage Lens.

2 I parametri relativi al conteggio delle regole e quelli relativi alle impostazioni dei bucket non sono disponibili a livello di prefisso.

La tabella seguente mostra le metriche delle prestazioni disponibili in S3 Storage Lens e la loro disponibilità in: CloudWatch


| **Nome della metrica** | **CloudWatch ed esporta** | **Descrizione** | **Livello** | **Categoria** | **Derivato** | **Formula metrica derivata** | **Gruppi Storage Lens** | 
| --- | --- | --- | --- | --- | --- | --- | --- | 
| Latenza media del primo byte | AverageFirstByteLatency | Tempo medio per richiesta tra il momento in cui un bucket Amazon S3 riceve una richiesta completa e il momento in cui inizia a restituire la risposta, misurato nelle ultime 24 ore | Avanzata | Performance | N | - | N | 
| Latenza totale media delle richieste | AverageTotalRequestLatency | Tempo medio trascorso per richiesta tra il primo byte ricevuto e l'ultimo byte inviato a un bucket Amazon S3, misurato nelle ultime 24 ore | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste pari a 0 KB | Leggi 0 conteggio\$1 KBRequest | Numero di GetObject richieste con dimensioni di dati di 0 KB, incluse richieste basate su intervalli e richieste di oggetti interi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste da 0 KB a 128 KB | Leggi 0 conteggio\$1 KBTo128 KBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 0 KB e fino a 128 KB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 128 KB e 256 KB | Conteggio lettura128\$1 KBTo256 KBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 128 KB e fino a 256 KB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 256 KB e 512 KB | Numero di letturi\$1 256 KBTo512 KBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 256 KB e fino a 512 KB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 512 KB e 1 MB | Numero di letture: 512\$1 KBTo1 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 512 KB e fino a 1 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste da 1 MB a 2 MB | Leggi 1 conto\$1 MBTo2 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 1 MB e fino a 2 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 2 MB e 4 MB | Conteggio Read2\$1 MBTo4 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 2 MB e fino a 4 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 4 MB e 8 MB | Read 4 Count\$1 MBTo8 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 4 MB e fino a 8 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 8 MB e 16 MB | Leggi 8 Count\$1 MBTo16 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 8 MB e fino a 16 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 16 MB e 32 MB | Numero di letturi\$1 MBTo32 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 16 MB e fino a 32 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 32 MB e 64 MB | Numero di letture da 32\$1 MBTo64 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 32 MB e fino a 64 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 64 MB e 128 MB | Conteggio lettura\$1 MBTo128 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 64 MB e fino a 128 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 128 MB e 256 MB | Numero di letture: 128\$1 MBTo256 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 128 MB e fino a 256 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 256 MB e 512 MB | Numero di letturi\$1 256 MBTo512 MBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 256 MB e fino a 512 MB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste compreso tra 512 MB e 1 GB | Numero di letture: 512\$1 MBTo1 GBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 512 MB e fino a 1 GB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste da 1 GB a 2 GB | Leggi 1 conto\$1 GBTo2 GBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 1 GB e fino a 2 GB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste da 2 GB a 4 GB | Read2Count\$1 GBTo4 GBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 2 GB e fino a 4 GB, incluse richieste basate su intervalli e richieste di oggetti completi | Avanzata | Performance | N | - | N | 
| Leggi il numero di richieste di oltre 4 GB | ReadLargerThan4 conteggio\$1 GBRequest | Numero di GetObject richieste con dimensioni di dati superiori a 4 GB, incluse richieste basate su intervalli e richieste di oggetti interi | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste pari a 0 KB | Scrivi 0 conteggio\$1 KBRequest | Numero di PutObject e CreateMultipartUpload richieste con UploadPart dimensioni dei dati di 0 KB | Avanzata | Performance | N | - | N | 
| Scrivi il numero di richieste da 0 KB a 128 KB | Scrivi 0 conteggio\$1 KBTo128 KBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 0 KB e fino a 128 KB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 128 KB e 256 KB | Scrivi 128 conteggio\$1 KBTo256 KBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 KB e fino a 256 KB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 256 KB e 512 KB | Scrivi 256 conteggio\$1 KBTo512 KBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 256 KB e fino a 512 KB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi da 512 KB a 1 MB di numero di richieste | Scrivi 512 Count\$1 KBTo1 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 512 KB e fino a 1 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 1 MB e 2 MB | Scrivi 1 conto\$1 MBTo2 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 1 MB e fino a 2 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 2 MB e 4 MB | Write2 Count\$1 MBTo4 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 2 MB e fino a 4 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 4 MB e 8 MB | Scrivi 4 Count\$1 MBTo8 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 4 MB e fino a 8 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 8 MB e 16 MB | Scrivi 8 Count\$1 MBTo16 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 8 MB e fino a 16 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 16 MB e 32 MB | Scrivi 16 Count\$1 MBTo32 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 16 MB e fino a 32 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 32 MB e 64 MB | Write32 Count\$1 MBTo64 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 32 MB e fino a 64 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 64 MB e 128 MB | Conteggio Write64\$1 MBTo128 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 64 MB e fino a 128 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 128 MB e 256 MB | Scrivi 128 conteggio\$1 MBTo256 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 MB e fino a 256 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 256 MB e 512 MB | Scrivi 256 conteggio\$1 MBTo512 MBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 256 MB e fino a 512 MB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 512 MB e 1 GB | Scrivi 512 Count\$1 MBTo1 GBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 512 MB e fino a 1 GB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 1 GB e 2 GB | Scrivi 1 conteggio\$1 GBTo2 GBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 1 GB e fino a 2 GB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste compreso tra 2 GB e 4 GB | Write2 Count\$1 GBTo4 GBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 2 GB e fino a 4 GB UploadPart | Avanzata | Performance | N | - | N | 
| Scrivi un numero di richieste superiore a 4 GB | WriteLargerThan4 Conteggio\$1 GBRequest | Numero di PutObject e CreateMultipartUpload richieste con dimensioni di dati superiori a 4 GB UploadPart | Avanzata | Performance | N | - | N | 
| Numero di oggetti pari a 0 KB | Oggetto 0 KBCount | Numero di oggetti con dimensioni pari a 0 KB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 0 KB e 128 KB | Oggetto 0 KBTo128 KBCount | Numero di oggetti con dimensioni superiori a 0 KB e inferiori a 128 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 128 KB e 256 KB | Oggetto 128 KBTo256 KBCount | Numero di oggetti con dimensioni superiori a 128 KB e inferiori a 256 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 256 KB e 512 KB | Oggetto 256 KBTo512 KBCount | Numero di oggetti con dimensioni superiori a 256 KB e inferiori a 512 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 512 KB e 1 MB | Oggetto 512 KBTo1 MBCount | Numero di oggetti con dimensioni superiori a 512 KB e inferiori a 1 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 1 MB e 2 MB | Oggetto 1 MBTo2 MBCount | Numero di oggetti con dimensioni superiori a 1 MB e inferiori a 2 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marcatori di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 2 MB e 4 MB | Oggetto 2 MBTo4 MBCount | Numero di oggetti con dimensioni superiori a 2 MB e inferiori a 4 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 4 MB e 8 MB | Oggetto 4 MBTo8 MBCount | Numero di oggetti con dimensioni superiori a 4 MB e inferiori a 8 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 8 MB e 16 MB | Oggetto 8 MBTo16 MBCount | Numero di oggetti con dimensioni superiori a 8 MB e inferiori a 16 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 16 MB e 32 MB | Oggetto 16 MBTo32 MBCount | Numero di oggetti con dimensioni superiori a 16 MB e inferiori a 32 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 32 MB e 64 MB | Oggetto 32 MBTo64 MBCount | Numero di oggetti con dimensioni superiori a 32 MB e inferiori a 64 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 64 MB e 128 MB | Oggetto 64 MBTo128 MBCount | Numero di oggetti con dimensioni superiori a 64 MB e inferiori a 128 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 128 MB e 256 MB | Oggetto 128 MBTo256 MBCount | Numero di oggetti con dimensioni superiori a 128 MB e inferiori a 256 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 256 MB e 512 MB | Oggetto 256 MBTo512 MBCount | Numero di oggetti con dimensioni superiori a 256 MB e inferiori a 512 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti compreso tra 512 MB e 1 GB | Oggetto 512 MBTo1 GBCount | Numero di oggetti con dimensioni superiori a 512 MB e inferiori a 1 GB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | Avanzata | Performance | N | - | N | 
| Oggetto: conteggio compreso tra 1 GB e 2 GB | Oggetto 1 GBTo2 GBCount | Numero di oggetti con dimensioni superiori a 1 GB e inferiori a 2 GB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marcatori di eliminazione | Avanzata | Performance | N | - | N | 
| Oggetto: conteggio compreso tra 2 GB e 4 GB | Oggetto 2 GBTo4 GBCount | Numero di oggetti con dimensioni superiori a 2 GB e inferiori a 4 GB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marcatori di eliminazione | Avanzata | Performance | N | - | N | 
| Numero di oggetti pari o superiore a 4 GB | ObjectLargerThan4GBCount | Numero di oggetti con dimensioni superiori a 4 GB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marcatori di eliminazione | Avanzata | Performance | N | - | N | 
| Conteggio degli errori Put 503 simultanei | ConcurrentPut503 ErrorCount | Numero di 503 errori generati a causa di scritture simultanee sullo stesso oggetto | Avanzata | Performance | N | - | N | 
| % di errori Put 503 simultanei | - | Percentuale di 503 errori generati a causa di scritture simultanee sullo stesso oggetto | Avanzata | Performance | Y | 100 \$1 503 Errori/ ConcurrentPut AllRequests | N | 
| Numero di richieste tra regioni | CrossRegionRequestCount | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket | Avanzata | Performance | N | - | N | 
| % di richieste interregionali | - | Percentuale di richieste provenienti da un cliente in una regione diversa dalla regione di origine di bucket | Avanzata | Performance | Y | 100 \$1/ CrossRegionRequestCount AllRequests | N | 
| Byte trasferiti tra regioni | CrossRegionTransferredBytes | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket | Avanzata | Performance | N | - | N | 
| % di byte trasferiti tra regioni | - | Percentuale di byte trasferiti provenienti da chiamate in una regione diversa, la regione di origine del bucket | Avanzata | Performance | Y | 100 \$1 CrossRegionBytes /(\$1) BytesDownloaded BytesUploaded | N | 
| Interregione senza numero di richieste di replica | CrossRegionWithoutReplicationRequestCount | Numero di richieste che provengono da un client in una regione diversa dalla regione principale del bucket, escluse le richieste di replica tra regioni | Avanzata | Performance | N | - | N | 
| % Interregione senza richieste di replica | - | Percentuale di richieste provenienti da un client in una regione diversa dalla regione di origine del bucket, escluse le richieste di replica tra regioni | Avanzata | Performance | Y | 100 \$1/ CrossRegionRequestWithoutReplicationCount AllRequests | N | 
| Byte trasferiti tra regioni senza replica | CrossRegionWithoutReplicationTransferredBytes | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket, esclusi i byte di replica tra regioni | Avanzata | Performance | N | - | N | 
| % di byte trasferiti tra regioni senza replica | - | Numero di richieste che provengono da una regione diversa dalla regione di origine del bucket, escluse le richieste di replica tra regioni | Avanzata | Performance | Y | 100 \$1 CrossRegionBytesWithoutReplication /(\$1) BytesDownloaded BytesUploaded | N | 
| Numero di richieste all'interno della regione | InRegionRequestCount | Numero di richieste che provengono da un client nella stessa regione della regione di origine del bucket | Avanzata | Performance | N | - | N | 
| % di richieste interne alla regione | - | Percentuale di richieste provenienti da un cliente nella stessa regione della regione di origine del bucket | Avanzata | Performance | Y | 100 \$1/ InRegionRequestCount AllRequests | N | 
| Byte trasferiti all'interno della regione | InRegionTransferredBytes | Numero di byte trasferiti dalle chiamate dalla stessa regione della regione principale del bucket | Avanzata | Performance | N | - | N | 
| % di byte trasferiti all'interno della regione | - | Percentuale di byte trasferiti provenienti da chiamate dalla stessa regione della regione di origine del bucket | Avanzata | Performance | Y | 100 \$1 InRegionBytes /(\$1) BytesDownloaded BytesUploaded | N | 
| Gli oggetti unici a cui si accede contano quotidianamente | UniqueObjectsAccessedDailyCount | Numero di oggetti a cui è stato effettuato l'accesso almeno una volta nelle ultime 24 ore | Avanzata | Performance | N | - | N | 
| % Gli oggetti unici a cui si accede contano giornalmente | - | Percentuale di oggetti a cui è stato effettuato l'accesso almeno una volta nelle ultime 24 ore | Avanzata | Performance | Y | 100 \$1/ UniqueObjectsAccessedDailyCount ObjectCount | N | 

# Impostazione delle autorizzazioni di Amazon S3 Storage Lens
<a name="storage_lens_iam_permissions"></a>

Amazon S3 Storage Lens richiede nuove autorizzazioni in AWS Identity and Access Management (IAM) per autorizzare l'accesso alle azioni di S3 Storage Lens. Per concedere queste autorizzazioni, puoi utilizzare una policy IAM basata sull'identità. Per farlo, collega la policy a utenti, gruppi o ruoli IAM ai quali desideri concedere tali autorizzazioni. Le autorizzazioni possono riguardare, ad esempio, l'abilitazione o la disabilitazione di S3 Storage Lens, l'accesso a qualsiasi pannello di controllo o la configurazione di S3 Storage Lens. 

L'utente o il ruolo IAM deve appartenere all'account del creatore o del titolare del pannello di controllo o della configurazione, a meno che non si verifichino entrambe le condizioni seguenti: 
+ Il tuo account è membro di. AWS Organizations
+ Ti è stata concessa l'autorizzazione per creare pannelli di controllo a livello di organizzazione dal tuo account di gestione in qualità di amministratore delegato.



**Nota**  
Non puoi utilizzare le credenziali utente root del tuo account per visualizzare i pannelli di controllo di Amazon S3 Storage Lens. Per accedere ai pannelli di controllo di S3 Storage Lens, è necessario concedere le autorizzazioni IAM necessarie a un utente IAM nuovo o esistente. Quindi, accedi con le credenziali utente per accedere ai pannelli di controllo di S3 Storage Lens. Per ulteriori informazioni, consulta [Best Practice di sicurezza in IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) nella *Guida per l'utente di IAM*. 
L'utilizzo di S3 Storage Lens nella console di Amazon S3 può richiedere più autorizzazioni. Ad esempio, per modificare un pannello di controllo nella console, sono necessarie le seguenti autorizzazioni:  
`s3:ListStorageLensConfigurations`
`s3:GetStorageLensConfiguration`
`s3:PutStorageLensConfiguration`

**Topics**
+ [

## Impostazione delle autorizzazioni dell'account per utilizzare S3 Storage Lens
](#storage_lens_iam_permissions_account)
+ [

## Impostazione delle autorizzazioni dell'account per utilizzare i gruppi S3 Storage Lens
](#storage_lens_groups_permissions)
+ [

## Impostazione delle autorizzazioni per utilizzare S3 Storage Lens con AWS Organizations
](#storage_lens_iam_permissions_organizations)

## Impostazione delle autorizzazioni dell'account per utilizzare S3 Storage Lens
<a name="storage_lens_iam_permissions_account"></a>

Per creare e gestire i pannelli di controllo di S3 Storage Lens e le configurazioni dei pannelli di controllo di Storage Lens, devi disporre delle seguenti autorizzazioni, a seconda delle azioni che desideri eseguire: 

 La tabella seguente mostra le autorizzazioni IAM relative ad Amazon S3 Storage Lens. 


| Azione | Autorizzazioni IAM | 
| --- | --- | 
| Creare o aggiornare un pannello di controllo di S3 Storage Lens nella console di Amazon S3. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:GetStorageLensConfigurationTagging` `s3:PutStorageLensConfiguration` `s3:PutStorageLensConfigurationTagging`  | 
| Ottenere i tag di un pannello di controllo di S3 Storage Lens nella console di Amazon S3. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfigurationTagging`  | 
| Visualizzare un pannello di controllo di S3 Storage Lens nella console di Amazon S3. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:GetStorageLensDashboard`  | 
| Eliminare un pannello di controllo di S3 Storage Lens nella console di Amazon S3. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:DeleteStorageLensConfiguration`  | 
| Crea o aggiorna una configurazione di S3 Storage Lens utilizzando AWS CLI o un AWS SDK. |  `s3:PutStorageLensConfiguration` `s3:PutStorageLensConfigurationTagging`  | 
| Ottieni i tag di una configurazione di S3 Storage Lens utilizzando AWS CLI o un SDK. AWS  |  `s3:GetStorageLensConfigurationTagging`  | 
| Visualizza una configurazione di S3 Storage Lens utilizzando AWS CLI o un SDK. AWS  |  `s3:GetStorageLensConfiguration`  | 
| Elimina una configurazione di S3 Storage Lens utilizzando o SDK. AWS CLI AWS  |  `s3:DeleteStorageLensConfiguration`  | 

**Nota**  
Puoi utilizzare i tag delle risorse in una policy IAM per gestire le autorizzazioni.
Un ruolo o un utente IAM con queste autorizzazioni può visualizzare i parametri dai bucket e dai prefissi in cui potrebbero non disporre dell'autorizzazione diretta per leggere o elencare oggetti.
Per i pannelli di controllo di S3 Storage Lens con parametri a livello di prefisso abilitati, se un percorso di prefisso selezionato corrisponde a una chiave di oggetto, il pannello di controllo potrebbe visualizzare la chiave di oggetto come un altro prefisso.
Per le esportazioni dei parametri, archiviati in un bucket dell'account, le autorizzazioni vengono concesse mediante l'autorizzazione `s3:GetObject` esistente nella policy IAM. Analogamente, per un' AWS Organizations entità, l'account di gestione dell'organizzazione o gli account di amministratore delegato possono utilizzare le policy IAM per gestire le autorizzazioni di accesso per dashboard e configurazioni a livello di organizzazione.

## Impostazione delle autorizzazioni dell'account per utilizzare i gruppi S3 Storage Lens
<a name="storage_lens_groups_permissions"></a>

Puoi utilizzare i gruppi S3 Storage Lens per comprendere la distribuzione dell'archiviazione all'interno dei bucket in base al prefisso, al suffisso, al tag dell'oggetto, alla dimensione dell'oggetto o all'età dell'oggetto. Per visualizzare i parametri aggregati, collega i gruppi Storage Lens al pannello di controllo.

Per utilizzare i gruppi Storage Lens, sono necessarie autorizzazioni specifiche. Per ulteriori informazioni, consulta [Autorizzazioni gruppi Storage Lens](storage-lens-groups.md#storage-lens-group-permissions). 



## Impostazione delle autorizzazioni per utilizzare S3 Storage Lens con AWS Organizations
<a name="storage_lens_iam_permissions_organizations"></a>

Puoi usare Amazon S3 Storage Lens per raccogliere parametri di storage e dati di utilizzo per tutti gli account che fanno parte della tua gerarchia. AWS Organizations La tabella seguente mostra le azioni e le autorizzazioni relative all'uso di S3 Storage Lens con le organizzazioni.


| Azione | Autorizzazioni IAM | 
| --- | --- | 
| Abilitare l'accesso attendibile per S3 Storage Lens per la tua organizzazione. |  `organizations:EnableAWSServiceAccess`  | 
| Disabilitare l'accesso attendibile per S3 Storage Lens per la tua organizzazione. |  `organizations:DisableAWSServiceAccess`  | 
| Registrare un amministratore delegato per creare pannelli di controllo o configurazioni S3 Storage Lens per l'organizzazione. |  `organizations:RegisterDelegatedAdministrator`  | 
| Annullare la registrazione di un amministratore delegato in modo che non possa più creare pannelli di controllo o configurazioni di S3 Storage Lens per l'organizzazione. |  `organizations:DeregisterDelegatedAdministrator`  | 
|  Autorizzazioni aggiuntive per creare configurazioni S3 Storage Lens a livello di organizzazione.  |  `organizations:DescribeOrganization` `organizations:ListAccounts` `organizations:ListAWSServiceAccessForOrganization` `organizations:ListDelegatedAdministrators` `iam:CreateServiceLinkedRole`  | 

# Utilizzo di Amazon S3 Storage Lens con la console e l'API
<a name="S3LensExamples"></a>

Amazon S3 Storage Lens è una funzionalità di analisi dell'archiviazione su cloud che puoi utilizzare per avere una panoramica completa a livello di organizzazione sull'utilizzo e sulle attività relative all'archiviazione di oggetti. È possibile utilizzare i parametri di S3 Storage Lens per generare approfondimenti, ad esempio per scoprire la quantità di spazio di archiviazione disponibile nell'intera organizzazione o quali sono i bucket e i prefissi caratterizzati da una crescita più rapida. Puoi anche utilizzare i parametri di S3 Storage Lens per individuare le opportunità di ottimizzazione dei costi, implementare le best practice di protezione e sicurezza dei dati e migliorare le prestazioni dei carichi di lavoro delle applicazioni. Ad esempio, puoi identificare i bucket che non hanno regole del ciclo di vita S3 per far scadere i caricamenti in più parti incompleti che risalgono a più di 7 giorni. Puoi anche individuare i bucket non conformi alle best practice di protezione dei dati, come quelli che usano la replica S3 o il controllo delle versioni S3. S3 Storage Lens analizza i parametri di archiviazione per fornire raccomandazioni contestuali che puoi usare per ottimizzare i costi di archiviazione e applicare le best practice sulla protezione dei dati. 

S3 Storage Lens aggrega i tuoi parametri e mostra le informazioni nella sezione **Account snapshot** (Snapshot dell'account) nella pagina **Buckets** (Bucket) della console di Amazon S3. S3 Storage Lens fornisce anche una dashboard interattiva che puoi utilizzare per visualizzare approfondimenti e tendenze, contrassegnare valori anomali e ricevere consigli per ottimizzare i costi di storage e applicare le migliori pratiche di protezione dei dati. La dashboard offre opzioni drill-down per generare e visualizzare informazioni a livello di organizzazione, account, classe di storage, bucket, prefisso Regione AWS o gruppo Storage Lens. Puoi anche inviare un rapporto giornaliero sulle metriche in formato CSV o in Parquet formato a un bucket S3 generico o esportare le metriche direttamente in un bucket di tabella S3 gestito. AWS

**Nota**  
[Storage Lens aggrega solo le metriche per i bucket S3 per uso generico.](UsingBucket.md)

Questa sezione contiene esempi di creazione, aggiornamento e visualizzazione delle configurazioni S3 Storage Lens e l'esecuzione di operazioni correlate alla funzione. Se utilizzi S3 Storage Lens con AWS Organizations, questi esempi coprono anche questi casi d'uso. Negli esempi, sostituisci tutti i valori segnaposto.

**Topics**
+ [

# Creare una dashboard di Amazon S3 Storage Lens
](storage_lens_creating_dashboard.md)
+ [

# Aggiornare la dashboard di Amazon S3 Storage Lens
](storage_lens_editing.md)
+ [

# Disattivare la dashboard di Amazon S3 Storage Lens
](storage_lens_disabling.md)
+ [

# Eliminare la dashboard di Amazon S3 Storage Lens
](storage_lens_deleting.md)
+ [

# Elenco delle dashboard di Amazon S3 Storage Lens
](storage_lens_list_dashboard.md)
+ [

# Visualizzare i dettagli della configurazione della dashboard di Amazon S3 Storage Lens
](storage_lens_viewing.md)
+ [

# Gestione dei tag AWS delle risorse con S3 Storage Lens
](storage-lens-groups-manage-tags-dashboard.md)
+ [

# File helper per l'utilizzo di Amazon S3 Storage Lens
](S3LensHelperFilesCLI.md)

# Creare una dashboard di Amazon S3 Storage Lens
<a name="storage_lens_creating_dashboard"></a>

Puoi creare dashboard personalizzati aggiuntivi di S3 Storage Lens che possono essere adattati alla tua organizzazione o a gruppi specifici AWS Organizations Regioni AWS o all'interno di un account. 

**Nota**  
Affinché la visualizzazione di qualsiasi aggiornamento alla configurazione del pannello di controllo sia accurata, possono essere necessarie fino a 48 ore.

## Utilizzo della console S3
<a name="storage_lens_console_creating"></a>

Attieniti alla procedura seguente per creare un pannello di controllo Amazon S3 Storage Lens sulla console Amazon S3.

**Passaggio 1: configura le impostazioni generali**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, scegli il nome del file attualmente visualizzato Regione AWS. Quindi, scegli la Regione a cui passare. 

1. Nel pannello di navigazione a sinistra, in **S3 Storage Lens** scegli **Pannelli di controllo**.

1. Seleziona **Crea pannello di controllo**.

1. Nella sezione **Generale** della pagina **Pannello di controllo** completa le seguenti operazioni:

   1. Visualizzare la **Regione di origine** della dashboard. La regione principale è la regione Regione AWS in cui sono archiviate la configurazione e le metriche di questa dashboard di Storage Lens.

   1. Specifica il nome di un pannello di controllo. 

      I nomi del pannello di controllo devono contenere meno di 65 caratteri e non possono contenere caratteri speciali o spazi. 
**Nota**  
Il nome del pannello di controllo dopo la creazione non potrà più essere modificato.

   1. Scegli **Abilitato** per visualizzare le metriche giornaliere aggiornate nella dashboard.

   1. (Facoltativo) Puoi scegliere di aggiungere **tag** alla tua dashboard. I tag possono essere utilizzati per gestire le autorizzazioni per il pannello di controllo e tenere traccia dei costi per S3 Storage Lens. Per ulteriori informazioni, consulta [Controllare l'accesso alle AWS risorse utilizzando i tag](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html) nella *IAM User Guide* e [Using AWS-generated tags](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/aws-tags.html) nella *AWS Billing User Guide*.
**Nota**  
Puoi aggiungere fino a 50 tag alla configurazione del pannello di controllo.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Fase 2: Definire l'ambito del dashboard**

1. Nella sezione **Ambito della dashboard**, scegli le regioni e i bucket che desideri che S3 Storage Lens includa o escluda nella dashboard.

1. Scegli i bucket nelle regioni selezionate che desideri siano inclusi o esclusi da S3 Storage Lens. Puoi includere o escludere i bucket, ma non puoi eseguire entrambe le operazioni. Questa opzione non è disponibile quando crei dashboard a livello di organizzazione.
**Nota**  
Puoi anche includere o escludere Regioni e bucket. Questa opzione è limitata alle Regioni solo se si creano dashboard a livello di organizzazione tra gli account membri dell'organizzazione. 
Puoi scegliere fino a 50 bucket da includere o escludere.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 3: scegli il livello Storage Lens**

1. Nella sezione **Storage Lens tier**, scegli il livello di funzionalità che desideri aggregare per questa dashboard.

   1. **Per includere metriche gratuite aggregate a livello di bucket e disponibili per le query per 14 giorni, scegli il livello gratuito.**

   1. **Per abilitare le metriche avanzate, scegli il livello Avanzato.** Queste opzioni includono l'aggregazione di gruppi di prefissi o Storage Lens, la CloudWatch pubblicazione su Amazon, il report esteso sui prefissi e consigli contestuali. I dati sono disponibili per le query per 15 mesi. I parametri e i suggerimenti avanzati hanno un costo aggiuntivo. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

      Per ulteriori informazioni su parametri avanzati e parametri gratuiti, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. In **Categorie di metriche avanzate**, seleziona la categoria di metriche che desideri abilitare:
   + **Parametri delle attività**
   + **Detailed status code metrics** (Parametri dettagliati codice di stato)
   + **Metriche di ottimizzazione dei costi**
   + **Metriche di protezione dei dati**
   + **Metriche delle prestazioni**

   Per vedere in anteprima quali metriche sono incluse in ogni categoria, utilizza il pulsante con la freccia a discesa sotto l'elenco delle caselle di controllo delle categorie di metriche. Per ulteriori informazioni sulle categorie di parametri, consulta [Categorie di parametri](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

1. Scegliete o specificate un **delimitatore di prefisso** per distinguere i livelli all'interno di ciascun prefisso. Questo valore viene utilizzato per identificare ogni livello di prefisso. Il valore predefinito in Amazon S3 è il carattere "`/`", ma la struttura di storage potrebbe utilizzare altri caratteri delimitatori.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 4: (Facoltativo) Scegli l'aggregazione delle metriche**

1. In **Aggregazione di metriche aggiuntive, scegli quali metriche vuoi aggregare**:
   + Aggregazione di prefisso
   + Aggregazione dei gruppi Storage Lens

1. **Se hai abilitato l'**aggregazione dei prefissi**, specifica la **soglia minima del prefisso per la dashboard e la profondità del prefisso**.** Quindi, scegli **Avanti** per salvare e procedere.
**Nota**  
L'impostazione della **profondità del prefisso** determina il numero di livelli gerarchici che deep S3 Storage Lens analizzerà i prefissi degli oggetti, con un limite massimo di 10 livelli. La **soglia del prefisso** specifica la percentuale minima di spazio di archiviazione totale che un prefisso deve rappresentare prima di essere incluso nelle metriche di Storage Lens.

1. Se hai abilitato l'**aggregazione dei gruppi di Storage Lens**, scegli una delle seguenti opzioni:
   + **Includi i gruppi Storage Lens**
   + **Escludi i gruppi Storage Lens**

1. Quando includi i gruppi Storage Lens nella tua aggregazione, puoi **includere tutti i gruppi Storage Lens nella tua regione d'origine** o specificare i gruppi Storage Lens da includere.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 5: (Facoltativo) Scegli le impostazioni di esportazione e pubblicazione delle metriche**

1. In **Pubblicazione di metriche**, scegli la **CloudWatchpubblicazione** se desideri accedere alle metriche di Storage Lens nella dashboard. CloudWatch
**Nota**  
Le metriche a livello di prefisso non sono disponibili in. CloudWatch

1. In **Esportazione delle metriche**, scegli i dati del dashboard di Storage Lens che desideri esportare ogni giorno:
   + **Rapporto sulle metriche predefinite**
   + **Rapporto esteso sulle metriche dei prefissi**

1. (Facoltativo) Se hai scelto Rapporto sulle **metriche predefinite, nelle impostazioni del rapporto sulle** **metriche predefinite, scegli il tipo** di bucket. Puoi esportare il report in un bucket Amazon S3 generico o in un bucket da tabella S3 AWS gestito. **In base al tipo di bucket selezionato, aggiorna le **impostazioni di destinazione del bucket per uso generico o le opzioni di destinazione del bucket Table**.**
**Nota**  
Il **rapporto sulle metriche predefinite** include solo i prefissi entro la soglia e la profondità impostate nelle impostazioni di aggregazione dei prefissi.  
Se scegli di specificare una chiave di crittografia, devi scegliere una chiave (SSE-KMS) o una AWS KMS chiave gestita Amazon S3 (SSE-S3). Se la policy del bucket di destinazione richiede la crittografia, devi fornire una chiave di crittografia per l'esportazione delle metriche. Senza la chiave di crittografia, l'esportazione verso S3 non riesce. Per ulteriori informazioni, consulta [Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche](storage_lens_encrypt_permissions.md).

1. (Facoltativo) Se hai scelto il rapporto sulle metriche dei **prefissi espansi, nelle impostazioni del rapporto sulle metriche** dei **prefissi espansi, scegli il tipo di bucket**. Puoi esportare il report in un bucket Amazon S3 generico o in un bucket da tabella S3 di sola lettura. **In base al tipo di bucket selezionato, aggiorna le impostazioni di destinazione del bucket per **uso generico o le impostazioni di destinazione del bucket Table.****
**Nota**  
Il **rapporto sulle metriche dei prefissi espansi** include tutti i prefissi fino alla profondità del prefisso 50 in tutti i bucket selezionati specificati nell'ambito del dashboard.  
Se scegli di specificare una chiave di crittografia, devi scegliere una chiave (SSE-KMS) o una AWS KMS chiave gestita Amazon S3 (SSE-S3). Se la policy del bucket di destinazione richiede la crittografia, devi fornire una chiave di crittografia per l'esportazione delle metriche. Senza la chiave di crittografia, l'esportazione verso S3 non riesce. Per ulteriori informazioni, consulta [Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche](storage_lens_encrypt_permissions.md).

1. Scegli **Avanti** per salvare le modifiche e procedere.

1. Controlla tutto nella pagina **Rivedi e crea**. Se non ci sono ulteriori modifiche, scegli **Avanti** per salvare le modifiche e creare la dashboard.

**Passaggio 6: rivedi la configurazione della dashboard e crea la dashboard**

1. Nella sezione **Generale**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Ambito della dashboard**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Storage Lens tier**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Aggregazione delle metriche**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Esportazione delle metriche**, rivedi le impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Dopo aver esaminato e confermato tutte le impostazioni di configurazione della dashboard, scegli **Invia** per creare la dashboard.

Dopo aver creato con successo la nuova dashboard di Storage Lens, puoi visualizzarla elencata nella pagina Storage Lens **Dashboard**.

## Usando il AWS CLI
<a name="S3PutStorageLensConfigurationTagsCLI"></a>

**Example**  
Il seguente esempio di comando crea una configurazione di Amazon S3 Storage Lens con tag. Per utilizzare questi esempi, sostituisci `user input placeholders` con le tue informazioni.  

```
aws s3control put-storage-lens-configuration --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json --tags=file://./tags.json
```

**Example**  
Il seguente esempio di comando crea una configurazione di Amazon S3 Storage Lens senza tag. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control put-storage-lens-configuration --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json
```

## Utilizzo dell' AWS SDK for Java
<a name="S3CreateandUpdateStorageLensConfigurationJava"></a>

**Example - Creare e aggiornare la configurazione di Amazon S3 Storage Lens**  
L'esempio seguente crea e aggiorna una configurazione di Amazon S3 Storage Lens in SDK per Java:  

```
package aws.example.s3control;

import software.amazon.awssdk.awscore.exception.AwsServiceException;
import software.amazon.awssdk.core.exception.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.AccountLevel;
import software.amazon.awssdk.services.s3control.model.ActivityMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedCostOptimizationMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedDataProtectionMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedPerformanceMetrics;
import software.amazon.awssdk.services.s3control.model.BucketLevel;
import software.amazon.awssdk.services.s3control.model.CloudWatchMetrics;
import software.amazon.awssdk.services.s3control.model.DetailedStatusCodesMetrics;
import software.amazon.awssdk.services.s3control.model.Format;
import software.amazon.awssdk.services.s3control.model.Include;
import software.amazon.awssdk.services.s3control.model.OutputSchemaVersion;
import software.amazon.awssdk.services.s3control.model.PrefixLevel;
import software.amazon.awssdk.services.s3control.model.PrefixLevelStorageMetrics;
import software.amazon.awssdk.services.s3control.model.PutStorageLensConfigurationRequest;
import software.amazon.awssdk.services.s3control.model.S3BucketDestination;
import software.amazon.awssdk.services.s3control.model.SSES3;
import software.amazon.awssdk.services.s3control.model.SelectionCriteria;
import software.amazon.awssdk.services.s3control.model.StorageLensAwsOrg;
import software.amazon.awssdk.services.s3control.model.StorageLensConfiguration;
import software.amazon.awssdk.services.s3control.model.StorageLensDataExport;
import software.amazon.awssdk.services.s3control.model.StorageLensDataExportEncryption;
import software.amazon.awssdk.services.s3control.model.StorageLensExpandedPrefixesDataExport;
import software.amazon.awssdk.services.s3control.model.StorageLensTableDestination;
import software.amazon.awssdk.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

public class CreateAndUpdateDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        String exportAccountId = "Destination Account ID";
        String exportBucketArn = "arn:aws:s3:::destBucketName"; // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration.
        String awsOrgARN = "arn:aws:organizations::123456789012:organization/o-abcdefgh";
        Format exportFormat = Format.CSV;

        try {
            SelectionCriteria selectionCriteria = SelectionCriteria.builder()
                    .delimiter("/")
                    .maxDepth(5)
                    .minStorageBytesPercentage(10.0)
                    .build();

            PrefixLevelStorageMetrics prefixStorageMetrics = PrefixLevelStorageMetrics.builder()
                    .isEnabled(true)
                    .selectionCriteria(selectionCriteria)
                    .build();

            BucketLevel bucketLevel = BucketLevel.builder()
                    .activityMetrics(ActivityMetrics.builder().isEnabled(true).build())
                    .advancedCostOptimizationMetrics(AdvancedCostOptimizationMetrics.builder().isEnabled(true).build())
                    .advancedDataProtectionMetrics(AdvancedDataProtectionMetrics.builder().isEnabled(true).build())
                    .advancedPerformanceMetrics(AdvancedPerformanceMetrics.builder().isEnabled(true).build())
                    .detailedStatusCodesMetrics(DetailedStatusCodesMetrics.builder().isEnabled(true).build())
                    .prefixLevel(PrefixLevel.builder().storageMetrics(prefixStorageMetrics).build())
                    .build();

            AccountLevel accountLevel = AccountLevel.builder()
                    .activityMetrics(ActivityMetrics.builder().isEnabled(true).build())
                    .advancedCostOptimizationMetrics(AdvancedCostOptimizationMetrics.builder().isEnabled(true).build())
                    .advancedPerformanceMetrics(AdvancedPerformanceMetrics.builder().isEnabled(true).build())
                    .advancedDataProtectionMetrics(AdvancedDataProtectionMetrics.builder().isEnabled(true).build())
                    .detailedStatusCodesMetrics(DetailedStatusCodesMetrics.builder().isEnabled(true).build())
                    .bucketLevel(bucketLevel)
                    .build();

            Include include = Include.builder()
                    .buckets(Arrays.asList("arn:aws:s3:::bucketName"))
                    .regions(Arrays.asList("us-west-2"))
                    .build();

            StorageLensDataExportEncryption exportEncryption = StorageLensDataExportEncryption.builder()
                    .sses3(SSES3.builder().build())
                    .build();

            S3BucketDestination s3BucketDestination = S3BucketDestination.builder()
                    .accountId(exportAccountId)
                    .arn(exportBucketArn)
                    .encryption(exportEncryption)
                    .format(exportFormat)
                    .outputSchemaVersion(OutputSchemaVersion.V_1)
                    .prefix("Prefix")
                    .build();

            StorageLensTableDestination s3TablesDestination = StorageLensTableDestination.builder()
                    .encryption(exportEncryption)
                    .isEnabled(true)
                    .build();

            CloudWatchMetrics cloudWatchMetrics = CloudWatchMetrics.builder()
                    .isEnabled(true)
                    .build();

            StorageLensDataExport dataExport = StorageLensDataExport.builder()
                    .cloudWatchMetrics(cloudWatchMetrics)
                    .s3BucketDestination(s3BucketDestination)
                    .storageLensTableDestination(s3TablesDestination)
                    .build();

            StorageLensAwsOrg awsOrg = StorageLensAwsOrg.builder()
                    .arn(awsOrgARN)
                    .build();

            StorageLensExpandedPrefixesDataExport expandedPrefixesDataExport = StorageLensExpandedPrefixesDataExport.builder()
                    .s3BucketDestination(s3BucketDestination)
                    .storageLensTableDestination(s3TablesDestination)
                    .build();

            StorageLensConfiguration configuration = StorageLensConfiguration.builder()
                    .id(configurationId)
                    .accountLevel(accountLevel)
                    .include(include)
                    .dataExport(dataExport)
                    .awsOrg(awsOrg)
                    .expandedPrefixesDataExport(expandedPrefixesDataExport)
                    .prefixDelimiter("/")
                    .isEnabled(true)
                    .build();

            List<StorageLensTag> tags = Arrays.asList(
                    StorageLensTag.builder().key("key-1").value("value-1").build(),
                    StorageLensTag.builder().key("key-2").value("value-2").build()
            );

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();

            s3ControlClient.putStorageLensConfiguration(PutStorageLensConfigurationRequest.builder()
                    .accountId(sourceAccountId)
                    .configId(configurationId)
                    .storageLensConfiguration(configuration)
                    .tags(tags)
                    .build()
            );

        } catch (AwsServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Per accedere ai gruppi di S3 Storage Lens o ai prefissi espansi, devi aggiornare la dashboard per utilizzare il livello avanzato. Si applicano costi aggiuntivi. Per ulteriori informazioni sui livelli gratuito e avanzato, consulta[Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection). Per ulteriori informazioni sui gruppi S3 Storage Lens, consulta [Operazioni con i gruppi S3 Storage Lens per filtrare e aggregare le metriche](storage-lens-groups-overview.md). 

# Aggiornare la dashboard di Amazon S3 Storage Lens
<a name="storage_lens_editing"></a>

 La dashboard predefinita di Amazon S3 Storage Lens è `default-account-dashboard`. Questo pannello di controllo è preconfigurato da Amazon S3 per aiutarti a visualizzare informazioni dettagliate di riepilogo e tendenze per i parametri avanzati e gratuiti aggregati dell'intero account nella console. Non puoi modificare l'ambito di configurazione del pannello di controllo predefinito, ma puoi aggiornare la selezione dei parametri dai parametri gratuiti ai suggerimenti e ai parametri avanzati a pagamento, configurare l'esportazione facoltativa dei parametri o addirittura disabilitare il pannello di controllo predefinito. La dashboard predefinita non può essere eliminata, ma solo disattivata. Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_console_deleting.md).

## Utilizzo della console S3
<a name="storage_lens_console_editing"></a>

Attieniti alla procedura seguente per aggiornare un pannello di controllo Amazon S3 Storage Lens sulla console Amazon S3.

**Passaggio 1: aggiorna la dashboard e configura le impostazioni generali**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens, Dashboards** (Storage Lens, Pannelli di controllo).

1. Scegli la dashboard che desideri modificare.

1. Scegli **Visualizza configurazione del pannello di controllo**.

1. Scegli **Modifica**. Ora puoi rivedere la configurazione della dashboard, passo dopo passo. Per apportare modifiche a uno qualsiasi dei passaggi, puoi fare clic direttamente sul passaggio utilizzando la barra di navigazione a sinistra. Per istruzioni su come aggiornare questi passaggi,
**Nota**  
Non è possibile modificare quanto segue:  
Il nome del pannello di controllo
La regione di origine

1. Nella pagina **Dashboard**, nella sezione **Generale**, puoi apportare modifiche a quanto segue:
   + Scegli **Abilitato** o **Disabilitato** per aggiornare se ricevi o meno le metriche giornaliere nella dashboard.
   + (Facoltativo) Puoi scegliere di aggiungere **tag** alla tua dashboard. I tag possono essere utilizzati per gestire le autorizzazioni per il pannello di controllo e tenere traccia dei costi per S3 Storage Lens. Per ulteriori informazioni, consulta [Controllare l'accesso alle AWS risorse utilizzando i tag](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html) nella *IAM User Guide* e [Using AWS-generated tags](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/aws-tags.html) nella *AWS Billing User Guide*.
**Nota**  
Puoi aggiungere fino a 50 tag alla configurazione del pannello di controllo.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 2: aggiorna l'ambito del dashboard**

1. Nella sezione **Ambito della dashboard**, aggiorna le regioni e i bucket che desideri che S3 Storage Lens includa o escluda nella dashboard.
**Nota**  
Puoi anche includere o escludere Regioni e bucket. Questa opzione è limitata alle Regioni solo se si creano dashboard a livello di organizzazione tra gli account membri dell'organizzazione. 
Puoi scegliere fino a 50 bucket da includere o escludere.

1. Scegli i bucket nelle regioni selezionate che desideri siano inclusi o esclusi da S3 Storage Lens. Puoi includere o escludere i bucket, ma non puoi eseguire entrambe le operazioni. Questa opzione non è disponibile quando crei dashboard a livello di organizzazione.
**Nota**  
Puoi anche includere o escludere Regioni e bucket. Questa opzione è limitata alle Regioni solo se si creano dashboard a livello di organizzazione tra gli account membri dell'organizzazione.
Puoi scegliere fino a 50 bucket da includere o escludere.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 3: Aggiorna il livello Storage Lens Configura la selezione delle metriche**

1. Nella sezione di **selezione delle metriche** del **livello di Storage Lens**, aggiorna il livello di metriche che desideri aggregare per questa dashboard.
**Nota**  
Se stai effettuando l'aggiornamento dal **livello Gratuito al livello** **Avanzato**, dovrai aggiornare le impostazioni di aggregazione delle **Metriche**. Per aggiornare le **impostazioni di aggregazione delle metriche**, consulta **Passaggio 4: Aggiornamento** dell'aggregazione delle metriche.
**Se stai aggiornando il livello Storage Lens dal livello **Advanced al livello** **Free**, non dovrai aggiornare alcuna impostazione di aggregazione di Metrics.** La funzionalità di **aggregazione delle metriche** si applica solo alle categorie di metriche di **livello Advanced**.

1. **Per includere metriche gratuite aggregate a livello di bucket e disponibili per le query per 14 giorni, scegli il livello gratuito.**

1. **Per abilitare le metriche avanzate, scegli il livello Avanzato.** Queste opzioni includono l'aggregazione dei prefissi, la CloudWatch pubblicazione su Amazon e i consigli contestuali. I dati sono disponibili per le query per 15 mesi. I parametri e i suggerimenti avanzati hanno un costo aggiuntivo. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

   Per ulteriori informazioni su parametri avanzati e parametri gratuiti, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. In **Categorie di metriche avanzate**, scegli la categoria di metriche che desideri abilitare:
   + **Parametri delle attività**
   + **Detailed status code metrics** (Parametri dettagliati codice di stato)
   + **Metriche di ottimizzazione dei costi**
   + **Metriche di protezione dei dati**
   + **Metriche delle prestazioni**

   Per vedere in anteprima quali metriche sono incluse in ogni categoria, utilizza il pulsante con la freccia a discesa sotto l'elenco delle caselle di controllo delle categorie di metriche. Per ulteriori informazioni sulle categorie di parametri, consulta [Categorie di parametri](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

1. Scegliete o specificate un **delimitatore di prefisso** per distinguere i livelli all'interno di ciascun prefisso. Questo valore viene utilizzato per identificare ogni livello di prefisso. Il valore predefinito in Amazon S3 è il carattere "`/`", ma la struttura di storage potrebbe utilizzare altri caratteri delimitatori.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 4: (Facoltativo) Aggiorna l'aggregazione delle metriche**

1. In **Aggregazione di metriche aggiuntive**, aggiorna le metriche che desideri aggregare scegliendo una delle seguenti opzioni:
   + Aggregazione di prefisso
   + Aggregazione dei gruppi Storage Lens

1. **Se hai abilitato l'**aggregazione dei prefissi**, specifica la **soglia minima del prefisso per la dashboard e la profondità del prefisso**.** Quindi, scegli **Avanti** per salvare e procedere.

1. Se hai abilitato l'**aggregazione dei gruppi Storage Lens**, scegli una delle seguenti opzioni:
   + **Includi i gruppi Storage Lens**
   + **Escludi i gruppi Storage Lens**

1. Quando includi i gruppi Storage Lens nella tua aggregazione, puoi **includere tutti i gruppi Storage Lens nella tua regione d'origine** o specificare i gruppi Storage Lens da includere.

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 5: (Facoltativo) Aggiorna le impostazioni di esportazione e pubblicazione delle metriche**

1. In **Pubblicazione di metriche**, scegli la **CloudWatchpubblicazione** se desideri accedere alle metriche di Storage Lens nella dashboard. CloudWatch
**Nota**  
Le metriche a livello di prefisso non sono disponibili in. CloudWatch

1. In **Esportazione delle metriche**, scegli i dati del dashboard di Storage Lens che desideri esportare ogni giorno:
   + **Rapporto sulle metriche predefinite**
   + **Rapporto esteso sulle metriche dei prefissi**

1. (Facoltativo) Se hai scelto Rapporto sulle **metriche predefinite, nelle impostazioni del rapporto sulle** **metriche predefinite, scegli il tipo** di bucket. Puoi esportare il report in un bucket S3 generico o in un bucket da tabella S3 di sola lettura. **In base al tipo di bucket selezionato, aggiorna le impostazioni di destinazione del bucket per **uso generico o le opzioni delle impostazioni di destinazione del bucket** per tabelle.**
**Nota**  
Il **rapporto sulle metriche predefinite** include solo i prefissi entro la soglia e la profondità impostate nelle impostazioni di aggregazione dei prefissi. Se l'aggregazione dei prefissi non è già configurata, la soglia include fino ai 100 prefissi più grandi per dimensione.
Se scegli di specificare una chiave di crittografia, devi scegliere una chiave (SSE-KMS) o una AWS KMS chiave gestita Amazon S3 (SSE-S3). Se la policy del bucket di destinazione richiede la crittografia, devi fornire una chiave di crittografia per l'esportazione delle metriche. Senza la chiave di crittografia, l'esportazione verso S3 non riesce. Per ulteriori informazioni, consulta [Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche](storage_lens_encrypt_permissions.md).

1. Scegli **Avanti** per salvare le modifiche e procedere.

1. (Facoltativo) Se hai scelto il rapporto **sulle metriche dei prefissi espansi, nelle impostazioni del rapporto sulle metriche** dei **prefissi espansi, scegli il tipo di bucket**. Puoi esportare il report in un bucket S3 generico o in un bucket da tabella S3 di sola lettura. **In base al tipo di bucket selezionato, aggiorna le impostazioni di destinazione del bucket per **uso generico o le impostazioni di destinazione del bucket** per tabelle.**
**Nota**  
Il **rapporto sulle metriche dei prefissi espansi** include i prefissi in tutti i bucket specificati nell'ambito del dashboard.
Se scegli di specificare una chiave di crittografia, devi scegliere una chiave (SSE-KMS) o una AWS KMS chiave gestita Amazon S3 (SSE-S3). Se la policy del bucket di destinazione richiede la crittografia, devi fornire una chiave di crittografia per l'esportazione delle metriche. Senza la chiave di crittografia, l'esportazione verso S3 non riesce. Per ulteriori informazioni, consulta [Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche](storage_lens_encrypt_permissions.md).

1. Scegli **Avanti** per salvare le modifiche e procedere.

**Passaggio 6: rivedi e aggiorna la configurazione della dashboard**

1. Nella sezione **Generale**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Ambito della dashboard**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Storage Lens tier**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Aggregazione delle metriche**, rivedi le tue impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Nella sezione **Esportazione delle metriche**, rivedi le impostazioni. Scegli **Modifica** per apportare eventuali modifiche.

1. Dopo aver esaminato e confermato tutte le impostazioni di configurazione della dashboard, scegli **Invia** per aggiornare la dashboard.

Dopo aver aggiornato con successo la nuova dashboard di Storage Lens, puoi visualizzare la configurazione aggiornata della dashboard elencata nella pagina Storage Lens **Dashboard**.

## Utilizzando il AWS CLI
<a name="S3PutStorageLensConfigurationTagsCLI"></a>

**Example**  
Il seguente esempio di comando aggiorna la configurazione della dashboard di Amazon S3 Storage Lens. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control put-storage-lens-configuration --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json --tags=file://./tags.json
```

## Utilizzo dell' AWS SDK for Java
<a name="S3UpdateStorageLensConfigurationAdvancedJava"></a>

**Example - Aggiornare la configurazione di Amazon S3 Storage Lens con metriche e raccomandazioni avanzate**  
Gli esempi seguenti mostrano come aggiornare la configurazione predefinita di S3 Storage Lens con metriche e raccomandazioni avanzate in SDK per Java:  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.ActivityMetrics;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.Format;
import com.amazonaws.services.s3control.model.Include;
import com.amazonaws.services.s3control.model.OutputSchemaVersion;
import com.amazonaws.services.s3control.model.PrefixLevel;
import com.amazonaws.services.s3control.model.PrefixLevelStorageMetrics;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.S3BucketDestination;
import com.amazonaws.services.s3control.model.SSES3;
import com.amazonaws.services.s3control.model.SelectionCriteria;
import com.amazonaws.services.s3control.model.StorageLensAwsOrg;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensDataExport;
import com.amazonaws.services.s3control.model.StorageLensDataExportEncryption;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class UpdateDefaultConfigWithPaidFeatures {

    public static void main(String[] args) {
        String configurationId = "default-account-dashboard"; // This configuration ID cannot be modified.
        String sourceAccountId = "111122223333";

        try {
            SelectionCriteria selectionCriteria = new SelectionCriteria()
                    .withDelimiter("/")
                    .withMaxDepth(5)
                    .withMinStorageBytesPercentage(10.0);
            PrefixLevelStorageMetrics prefixStorageMetrics = new PrefixLevelStorageMetrics()
                    .withIsEnabled(true)
                    .withSelectionCriteria(selectionCriteria);
            BucketLevel bucketLevel = new BucketLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withPrefixLevel(new PrefixLevel().withStorageMetrics(prefixStorageMetrics));
            AccountLevel accountLevel = new AccountLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withBucketLevel(bucketLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );

        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Per accedere ai gruppi di S3 Storage Lens o ai prefissi espansi, devi aggiornare la dashboard per utilizzare il livello avanzato. Si applicano costi aggiuntivi. Per ulteriori informazioni sui livelli gratuito e avanzato, consulta[Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection). Per ulteriori informazioni sui gruppi S3 Storage Lens, consulta [Operazioni con i gruppi S3 Storage Lens per filtrare e aggregare le metriche](storage-lens-groups-overview.md). 

# Disattivare la dashboard di Amazon S3 Storage Lens
<a name="storage_lens_disabling"></a>

È possibile disattivare una dashboard Amazon S3 Storage Lens dalla console Amazon S3. La disabilitazione di una dashboard ne impedisce la generazione di metriche in futuro. Un pannello di controllo disabilitato conserva ancora le informazioni di configurazione, in modo che possano essere facilmente richiamate in caso di riattivazione. Un pannello di controllo disabilitato conserva i dati della cronologia fino a quando non sarà più disponibile per le query.

# Utilizzo della console S3
<a name="storage_lens_console_disabling"></a>

Procedere come segue per disattivare una dashboard Amazon S3 Storage Lens sulla console Amazon S3.

**Per disabilitare una dashboard Amazon S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Pannello di controllo** seleziona il pannello di controllo che desideri disabilitare, quindi seleziona **Disabilita** nella parte superiore dell'elenco.

1. Nella pagina visualizzata, conferma che desideri realmente disabilitare il pannello di controllo specificando il nome del pannello di controllo nel campo di testo, quindi seleziona **Conferma**.

# Eliminare la dashboard di Amazon S3 Storage Lens
<a name="storage_lens_deleting"></a>

Non puoi eliminare il pannello di controllo predefinito. Tuttavia, è possibile effettuarne la disabilitazione. Prima di eliminare un pannello di controllo che hai creato in precedenza, considera quanto segue:
+ In alternativa all'eliminazione di un pannello di controllo, puoi *disabilitarlo* in modo che sia disponibile per una riattivazione in futuro. Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_console_disabling.md).
+ L'eliminazione del pannello di controllo comporta l'eliminazione di tutte le impostazioni di configurazione ad esso associate.
+ I dati delle metriche della cronologia non saranno più disponibili. Questi dati storici sono ancora conservati per 15 mesi. Se desideri accedere nuovamente a questi dati, dovrai creare un pannello di controllo con lo stesso nome nella stessa regione di origine di quella eliminata. 

# Utilizzo della console S3
<a name="storage_lens_console_deleting"></a>

È possibile eliminare una dashboard Amazon S3 Storage Lens dalla console Amazon S3. Tuttavia, l'eliminazione di una dashboard ne impedisce la generazione di metriche in futuro.

**Eliminazione di un pannello di controllo di Amazon S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Pannello di controllo** seleziona il pannello di controllo che desideri eliminare, quindi seleziona **Elimina** nella parte superiore dell'elenco.

1. Nella pagina **Elimina pannelli di controllo** conferma di voler realmente eliminare il pannello di controllo specificandone il nome nel campo di testo. Quindi scegli **Conferma**. 

# Utilizzando il AWS CLI
<a name="storage_lens_cli_deleting"></a>

**Example**  
 L'esempio seguente elimina una configurazione di S3 Storage Lens. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control delete-storage-lens-configuration --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id
```

## Utilizzo dell' AWS SDK for Java
<a name="S3DeleteStorageLensConfigurationJava"></a>

**Example - Eliminazione di una configurazione della dashboard Amazon S3 Storage Lens**  
L'esempio seguente mostra come eliminare una configurazione di S3 Storage Lens utilizzando SDK per Java:  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationRequest;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class DeleteDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.deleteStorageLensConfiguration(new DeleteStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Elenco delle dashboard di Amazon S3 Storage Lens
<a name="storage_lens_list_dashboard"></a>

 

# Utilizzo della console S3
<a name="storage_lens_console_listing"></a>

**Per elencare le dashboard di S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli **Dashboard**. Ora puoi visualizzare i dashboard nel tuo. Account AWS

## Utilizzando il AWS CLI
<a name="S3ListStorageLensConfigurationsCLI"></a>

**Example**  
Il comando di esempio seguente elenca i dashboard di S3 Storage Lens presenti nel tuo. Account AWS Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control list-storage-lens-configurations --account-id=222222222222 --region=us-east-1 --next-token=abcdefghij1234
```

**Example**  
L'esempio seguente elenca le configurazioni di S3 Storage Lens senza un token successivo. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control list-storage-lens-configurations --account-id=222222222222 --region=us-east-1
```

## Utilizzo dell' AWS SDK for Java
<a name="S3ListStorageLensConfigurationsJava"></a>

**Example - Elenco delle configurazioni della dashboard S3 Storage Lens**  
Gli esempi seguenti mostrano come elencare le configurazioni di S3 Storage Lens in SDK per Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate. a ogni descrizione di esempio.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.ListStorageLensConfigurationEntry;
import com.amazonaws.services.s3control.model.ListStorageLensConfigurationsRequest;

import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class ListDashboard {

    public static void main(String[] args) {
        String sourceAccountId = "111122223333";
        String nextToken = "nextToken";

        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final List<ListStorageLensConfigurationEntry> configurations =
                    s3ControlClient.listStorageLensConfigurations(new ListStorageLensConfigurationsRequest()
                            .withAccountId(sourceAccountId)
                            .withNextToken(nextToken)
                    ).getStorageLensConfigurationList();

            System.out.println(configurations.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Visualizzare i dettagli della configurazione della dashboard di Amazon S3 Storage Lens
<a name="storage_lens_viewing"></a>

Puoi visualizzare un pannello di controllo di Amazon S3 Storage Lens dalla console Amazon S3 e dall'SDK for AWS CLI Java.

# Utilizzo della console S3
<a name="storage_lens_console_viewing"></a>

**Per visualizzare i dettagli della configurazione della dashboard di S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli **Dashboard**.

1. Dall'elenco **Dashboard**, fare clic sulla dashboard che si desidera visualizzare. È ora possibile visualizzare i dettagli della dashboard di Storage Lens.

## Utilizzando il AWS CLI
<a name="S3ListStorageLensConfigurationsCLI"></a>

**Example**  
L'esempio seguente recupera una configurazione di S3 Storage Lens in modo da poterne visualizzare i dettagli. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control get-storage-lens-configuration --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1
```

## Utilizzo dell' AWS SDK for Java
<a name="S3GetStorageLensConfigurationJava"></a>

**Example - Recuperare e visualizzare una configurazione S3 Storage Lens**  
L'esempio seguente mostra come recuperare la configurazione di un S3 Storage Lens in SDK for Java, in modo da poterne visualizzare i dettagli. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationResult;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class GetDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final StorageLensConfiguration configuration =
                    s3ControlClient.getStorageLensConfiguration(new GetStorageLensConfigurationRequest()
                            .withAccountId(sourceAccountId)
                            .withConfigId(configurationId)
                    ).getStorageLensConfiguration();

            System.out.println(configuration.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Gestione dei tag AWS delle risorse con S3 Storage Lens
<a name="storage-lens-groups-manage-tags-dashboard"></a>

Ogni dashboard di Amazon S3 Storage Lens viene conteggiata come una AWS risorsa con il proprio Amazon Resource Name (ARN). Pertanto, quando configuri la dashboard di Storage Lens, puoi facoltativamente aggiungere tag di AWS risorsa alla dashboard. È possibile aggiungere fino a 50 tag per ogni dashboard di Storage Lens. Per creare una dashboard Storage Lens con tag, è necessario disporre delle seguenti [Autorizzazioni S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_iam_permissions.html):
+ `s3:ListStorageLensConfigurations`
+ `s3:GetStorageLensConfiguration`
+ `s3:GetStorageLensConfigurationTagging`
+ `s3:PutStorageLensConfiguration`
+ ` s3:PutStorageLensConfigurationTagging`

È possibile utilizzare i tag AWS delle risorse per classificare le risorse in base al reparto, alla linea di attività o al progetto. Questa funzione è utile quando si dispone di numerose risorse dello stesso tipo. Applicando i tag, è possibile identificare rapidamente una specifica dashboard S3 Storage Lens in base ai tag assegnati. È possibile utilizzare i tag anche per monitorare e allocare i costi.

Inoltre, quando aggiungi un tag di AWS risorsa alla dashboard di Storage Lens, attivi il [controllo degli accessi basato sugli attributi (ABAC](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html)). ABAC è una strategia di autorizzazione che definisce le autorizzazioni in base ad attributi come i tag. Puoi anche utilizzare condizioni che specificano i tag delle risorse nelle tue policy IAM per [controllare](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources) l'accesso alle risorse. AWS 

Puoi modificare chiavi e valori di tag e rimuovere tag da una risorsa in qualsiasi momento. Inoltre, tieni presente le limitazioni seguenti:
+ I valori e le chiavi dei tag rispettano la distinzione tra maiuscole e minuscole.
+ Se aggiungi un tag con la stessa chiave di un tag esistente su quella risorsa, il nuovo valore sovrascrive il vecchio valore.
+ Se elimini una risorsa, verranno eliminati anche tutti i tag a essa associati. 
+ Non includere dati privati o sensibili nei tag delle AWS risorse.
+ I tag di sistema (con chiavi di tag che iniziano con `aws:`) non sono supportati.
+ La lunghezza di ogni chiave di tag non può superare i 128 caratteri. La lunghezza di ogni valore di tag non può superare i 256 caratteri.

Gli esempi seguenti mostrano come utilizzare i tag AWS delle risorse con la dashboard di Storage Lens.

**Topics**
+ [

# Aggiungere i tag AWS delle risorse a un pannello di controllo di Storage Lens
](storage-lens-add-tags.md)
+ [

# Recupera i tag AWS delle risorse per una dashboard di Storage Lens
](storage-lens-get-tags.md)
+ [

# Aggiornamento dei tag della dashboard di Storage Lens
](storage-lens-update-tags.md)
+ [

# Eliminazione dei tag AWS delle risorse da un pannello di controllo di S3 Storage Lens
](storage-lens-dashboard-delete-tags.md)

# Aggiungere i tag AWS delle risorse a un pannello di controllo di Storage Lens
<a name="storage-lens-add-tags"></a>

Gli esempi seguenti mostrano come aggiungere tag di AWS risorsa a una dashboard di S3 Storage Lens. Puoi aggiungere tag di risorsa utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-add-tags-console"></a>

**Per aggiungere tag di AWS risorsa a un pannello di controllo di Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione sinistro, spostarsi su **Storage Lens** nel pannello di navigazione sinistro.

1. Scegli **Dashboard**.

1. Scegli il pulsante di opzione per la dashboard Storage Lens che si desidera aggiornare. Quindi scegli **Edit** (Modifica).

1. In **Generale**, scegli **Aggiungi tag**.

1. Nella pagina **Aggiungi tag**, aggiungere la nuova coppia chiave-valore.
**Nota**  
Aggiungendo un tag la cui chiave è la stessa di un tag esistente viene sovrascritto il valore del tag precedente.

1. (Facoltativo) Per aggiungere più di un nuovo tag, scegliete nuovamente **Aggiungi tag** e aggiungi nuove voci. Puoi aggiungere fino a 50 tag di AWS risorsa alla dashboard di Storage Lens.

1. (Facoltativo) Se desideri rimuovere un tag appena aggiunto, scegli **Rimuovi** accanto al tag che desideri eliminare.

1. Scegli **Save changes** (Salva modifiche).

## Utilizzando il AWS CLI
<a name="storage-lens-add-tags-cli"></a>

**Example**  
Il seguente esempio di comando aggiunge tag a una configurazione della dashboard S3 Storage Lens. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control put-storage-lens-configuration-tagging --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id --tags=file://./tags.json
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-add-tags-sdk-java"></a>

L'esempio seguente aggiunge tag a una configurazione di Amazon S3 Storage Lens in SDK per Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

**Example - Aggiungere tag a una configurazione di S3 Storage Lens**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class PutDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfigurationTagging(new PutStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Recupera i tag AWS delle risorse per una dashboard di Storage Lens
<a name="storage-lens-get-tags"></a>

Gli esempi seguenti mostrano come recuperare i tag AWS delle risorse per una dashboard di S3 Storage Lens. Puoi ottenere i tag delle risorse utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

# Utilizzo della console S3
<a name="storage-lens-get-tags-console"></a>

**Per recuperare i tag delle AWS risorse per un pannello di controllo di Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli **Dashboard**.

1. Scegli il pulsante di opzione per la configurazione della dashboard Storage Lens che si desidera visualizzare. Quindi, scegli **Visualizza configurazione dashboard**.

1. In **Tag**, esaminare i tag associati alla dashboard.

1. (Facoltativo) Se si desidera aggiungere un nuovo tag, scegli **Modifica**. Quindi scegli **Aggiungi tag**. Nella pagina **Aggiungi tag**, aggiungere la nuova coppia chiave-valore.
**Nota**  
Aggiungendo un tag la cui chiave è la stessa di un tag esistente viene sovrascritto il valore del tag precedente.

1. (Facoltativo) Se desideri rimuovere un tag appena aggiunto, scegli **Rimuovi** accanto al tag che desideri eliminare.

1. Scegli **Save changes** (Salva modifiche).

## Utilizzando il AWS CLI
<a name="storage-lens-get-tags-cli"></a>

**Example**  
Il seguente esempio di comando recupera i tag per una configurazione della dashboard S3 Storage Lens. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control get-storage-lens-configuration-tagging --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id --tags=file://./tags.json
```

## Utilizzo dell' AWS SDK for Java
<a name="S3GetStorageLensConfigurationTaggingJava"></a>

**Example - Ottenere i tag per una configurazione della dashboard S3 Storage Lens**  
L'esempio seguente mostra come recuperare i tag per una configurazione della dashboard S3 Storage Lens in SDK per Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class GetDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final List<StorageLensTag> s3Tags = s3ControlClient
                    .getStorageLensConfigurationTagging(new GetStorageLensConfigurationTaggingRequest()
                            .withAccountId(sourceAccountId)
                            .withConfigId(configurationId)
                    ).getTags();

            System.out.println(s3Tags.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Aggiornamento dei tag della dashboard di Storage Lens
<a name="storage-lens-update-tags"></a>

Gli esempi seguenti mostrano come aggiornare i tag del dashboard di Storage Lens utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-dashboard-update-tags-console"></a>

**Per aggiornare un tag di AWS risorsa per un pannello di controllo di Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli **Dashboard**.

1. Scegli il pulsante di opzione per la configurazione della dashboard Storage Lens che si desidera visualizzare. Quindi, scegli **Visualizza configurazione dashboard**.

1. In **Tag**, esaminare i tag associati alla dashboard.

1. (Facoltativo) Se si desidera aggiungere un nuovo tag, scegli **Modifica**. Quindi scegli **Aggiungi tag**. Nella pagina **Aggiungi tag**, aggiungere la nuova coppia chiave-valore.
**Nota**  
Aggiungendo un tag la cui chiave è la stessa di un tag esistente viene sovrascritto il valore del tag precedente.

1. (Facoltativo) Se desideri rimuovere un tag appena aggiunto, scegli **Rimuovi** accanto al tag che desideri eliminare.

1. Scegli **Save changes** (Salva modifiche).

## Utilizzando il AWS CLI
<a name="storage-lens-dashboard-update-tags-cli"></a>

**Example**  
Il seguente esempio di comando aggiunge o sostituisce i tag in una configurazione esistente della dashboard Amazon S3 Storage Lens. Per utilizzare questi esempi, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws s3control put-storage-lens-configuration-tagging --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --config-id=your-configuration-id
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-dashboard-update-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente aggiorna i tag AWS delle risorse su un dashboard di Storage Lens esistente. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

**Example - Aggiornare i tag su una configurazione della dashboard Storage Lens esistente**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class PutDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfigurationTagging(new PutStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Eliminazione dei tag AWS delle risorse da un pannello di controllo di S3 Storage Lens
<a name="storage-lens-dashboard-delete-tags"></a>

Gli esempi seguenti mostrano come eliminare i tag AWS delle risorse da una dashboard di Storage Lens esistente. Puoi eliminare i tag utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-groups-delete-tags-console"></a>

**Per eliminare i tag AWS delle risorse da una dashboard di Storage Lens esistente**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli **Dashboard**.

1. Scegli il pulsante di opzione per la configurazione della dashboard Storage Lens che si desidera visualizzare. Quindi, scegli **Visualizza configurazione dashboard**.

1. In **Tag**, esaminare i tag associati alla dashboard.

1. Scegli **Rimuovi** accanto al tag che si desidera rimuovere.

1. Scegli **Save changes** (Salva modifiche).

## Utilizzando il AWS CLI
<a name="storage-lens-dashboard-delete-tags-cli"></a>

Il AWS CLI comando seguente elimina i tag AWS delle risorse da un dashboard di Storage Lens esistente. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

**Example**  

```
aws s3control delete-storage-lens-configuration-tagging --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-dashboard-delete-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente elimina un tag di AWS risorsa dalla dashboard di Storage Lens utilizzando l'Amazon Resource Name (ARN) specificato nell'account. `111122223333` Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

**Example - Eliminazione dei tag per una configurazione della dashboard S3 Storage Lens**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationTaggingRequest;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class DeleteDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.deleteStorageLensConfigurationTagging(new DeleteStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# File helper per l'utilizzo di Amazon S3 Storage Lens
<a name="S3LensHelperFilesCLI"></a>

Utilizza i seguenti file JSON e i suoi input chiave per i tuoi esempi.

## Esempio di configurazione di S3 Storage Lens in JSON
<a name="S3LensHelperFilesSampleConfigurationCLI"></a>

**Example `config.json`**  
Il file `config.json` contiene i dettagli relativi alla configurazione di *parametri e suggerimenti avanzati* a livello di organizzazioni S3 Storage Lens. Per utilizzare il seguente esempio, sostituisci `user input placeholders` con le tue informazioni.  
Per i suggerimenti e i parametri avanzati verranno applicati costi aggiuntivi. Per ulteriori informazioni, consulta [Parametri e suggerimenti avanzati](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html#storage_lens_basics_metrics_selection).

```
{
  "Id": "SampleS3StorageLensConfiguration", //Use this property to identify your S3 Storage Lens configuration.
  "AwsOrg": { //Use this property when enabling S3 Storage Lens for AWS Organizations.
    "Arn": "arn:aws:organizations::123456789012:organization/o-abcdefgh"
  },
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "DetailedStatusCodesMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
        "IsEnabled":true
      },
      "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
      },
      "AdvancedCostOptimizationMetrics": {
        "IsEnabled":true
      },
      "DetailedStatusCodesMetrics": {
        "IsEnabled":true
      },
      "PrefixLevel":{
        "StorageMetrics":{
          "IsEnabled":true,
          "SelectionCriteria":{
            "MaxDepth":5,
            "MinStorageBytesPercentage":1.25,
            "Delimiter":"/"
          }
        }
      }
    }
  },
  "Exclude": { //Replace with "Include" if you prefer to include Regions.
    "Regions": [
      "eu-west-1"
    ],
    "Buckets": [ //This attribute is not supported for AWS Organizations-level configurations.
      "arn:aws:s3:::amzn-s3-demo-source-bucket"
    ]
  },
  "IsEnabled": true, //Whether the configuration is enabled
  "DataExport": { //Details about the metrics export
    "S3BucketDestination": {
      "OutputSchemaVersion": "V_1",
      "Format": "CSV", //You can add "Parquet" if you prefer.
      "AccountId": "111122223333",
      "Arn": "arn:aws:s3:::
amzn-s3-demo-destination-bucket", // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration. 
      "Prefix": "prefix-for-your-export-destination",
      "Encryption": {
        "SSES3": {}
      }
    },
    "CloudWatchMetrics": {
      "IsEnabled": true
    }
  }
}
```

## Esempio di configurazione di S3 Storage Lens con gruppi Storage Lens in JSON
<a name="StorageLensGroupsHelperFilesCLI"></a>

**Example `config.json`**  

Il file `config.json` contiene i dettagli da applicare alla configurazione di Storage Lens quando si usano i gruppi Storage Lens. Per usare questo esempio, sostituisci `user input placeholders` con le tue informazioni.

Per collegare tutti i gruppi Storage Lens al pannello di controllo, aggiorna la configurazione di Storage Lens con la seguente sintassi:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
    "StorageLensGroupLevel": {},
  "IsEnabled": true
}
```

Per includere solo due gruppi di Storage Lens nella configurazione del dashboard di Storage Lens (*slg-1*e*slg-2*), utilizza la seguente sintassi:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
   "StorageLensGroupLevel": {
        "SelectionCriteria": {
            "Include": [
                "arn:aws:s3:us-east-1:111122223333:storage-lens-group/slg-1",
                "arn:aws:s3:us-east-1:444455556666:storage-lens-group/slg-2"
            ]
    },
  "IsEnabled": true
}
```

Per escludere solo alcuni gruppi Storage Lens dalla configurazione del pannello di controllo, utilizza la seguente sintassi:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
   "StorageLensGroupLevel": {
        "SelectionCriteria": {
            "Exclude": [
                "arn:aws:s3:us-east-1:111122223333:storage-lens-group/slg-1",
                "arn:aws:s3:us-east-1:444455556666:storage-lens-group/slg-2"
            ]
    },
  "IsEnabled": true
}
```

## File JSON con tag per configurazione di esempio di S3 Storage Lens
<a name="S3LensHelperFilesSampleConfigurationTagsCLI"></a>

**Example `tags.json`**  
Il file `tags.json` contiene i tag da applicare alla configurazione di S3 Storage Lens. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
[
    {
        "Key": "key1",
        "Value": "value1"
    },
    {
        "Key": "key2",
        "Value": "value2"
    }
]
```

## Esempio di configurazione delle autorizzazioni IAM di S3 Storage Lens
<a name="S3LensHelperFilesSampleConfigurationIAMPermissionsCLI"></a>

**Example `permissions.json`: nome del pannello di controllo specifico**  
Questa policy di esempio mostra il file `permissions.json` IAM di S3 Storage Lens con un nome specificato per il pannello di controllo. Sostituisci *`value1`*, `us-east-1`, `your-dashboard-name` e `example-account-id` con il tuo valore.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetStorageLensConfiguration",
                "s3:DeleteStorageLensConfiguration",
                "s3:PutStorageLensConfiguration"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/key1": "value1"
                }
            },
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens/your-dashboard-name"
        }
    ]
}
```

**Example `permissions.json`: nessun nome del pannello di controllo specifico**  
Questa policy di esempio mostra il file `permissions.json` IAM di S3 Storage Lens senza un nome specificato per il pannello di controllo. Sostituisci *`value1`*, `us-east-1` e `example-account-id` con il tuo valore.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetStorageLensConfiguration",
                "s3:DeleteStorageLensConfiguration",
                "s3:PutStorageLensConfiguration"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/key1": "value1"
                }
            },
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens/*"
        }
    ]
}
```

# Visualizzazione dei parametri con Amazon S3 Storage Lens
<a name="storage_lens_view_metrics"></a>

S3 Storage Lens aggrega i tuoi parametri e mostra le informazioni nella sezione **Account snapshot** (Snapshot dell'account) nella pagina **Buckets** (Bucket) della console Amazon S3. S3 Storage Lens offre anche una dashboard interattiva che puoi utilizzare per visualizzare approfondimenti e tendenze, contrassegnare valori anomali e ricevere consigli per ottimizzare i costi di archiviazione e applicare le migliori pratiche di protezione dei dati. La dashboard offre opzioni drill-down per generare e visualizzare informazioni a livello di organizzazione, account, classe di storage, bucket, prefisso Regione AWS o gruppo Storage Lens. Puoi anche inviare un rapporto giornaliero sulle metriche in formato CSV o in Parquet formato a un bucket S3 generico o esportare le metriche direttamente in un bucket di tabella S3 gestito. AWS

Per impostazione predefinita, tutti pannelli di controllo sono configurati con parametri gratuiti, che includono i parametri che puoi utilizzare per comprendere l'utilizzo e l'attività dell'archiviazione S3, ottimizzare i costi di archiviazione e implementare le best practice per la protezione dei dati e la gestione degli accessi. I parametri gratuiti vengono aggregate fino al livello del bucket. Con i parametri gratuiti, i dati sono disponibili per le query per un massimo di 14 giorni.

I parametri avanzati e i suggerimenti includono le seguenti funzionalità aggiuntive che puoi utilizzare per ottenere ulteriori informazioni sull'utilizzo e sulle attività a livello di archiviazione, nonché le best practice per ottimizzarlo:
+ Suggerimenti contestuali (disponibili solo nel pannello di controllo)
+ Parametri avanzati (inclusi i parametri delle attività aggregati per bucket)
+ Aggregazione di prefisso
+ Aggregazione dei gruppi Storage Lens
+ Aggregazione dei gruppi Storage Lens
+  CloudWatch Pubblicazione su Amazon

I dati dei parametri avanzati sono disponibili per le query per 15 mesi. Per l’uso di S3 Storage Lens con i parametri avanzati sono previsti costi aggiuntivi. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing). Per ulteriori informazioni su parametri gratuiti e avanzati, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

**Topics**
+ [

# Visualizzazione dei parametri di S3 Storage Lens nei pannelli di controllo
](storage_lens_view_metrics_dashboard.md)
+ [

# Visualizzazione dei parametri di Amazon S3 Storage Lens utilizzando una esportazione di dati
](storage_lens_view_metrics_export.md)
+ [

# Monitora le metriche di S3 Storage Lens in CloudWatch
](storage_lens_view_metrics_cloudwatch.md)
+ [

# Casi d'uso relativi ai parametri di Amazon S3 Storage Lens
](storage-lens-use-cases.md)

# Visualizzazione dei parametri di S3 Storage Lens nei pannelli di controllo
<a name="storage_lens_view_metrics_dashboard"></a>

Nella console di Amazon S3, S3 Storage Lens fornisce un pannello di controllo interattivo predefinito con il quale è possibile visualizzare approfondimenti e tendenze relative ai dati. È possibile utilizzare il pannello di controllo per visualizzare informazioni dettagliate e tendenze, contrassegnare le anomalie e ricevere suggerimenti per ottimizzare i costi di archiviazione e applicare best practice per la protezione dei dati. Nel pannello di controllo sono disponibili opzioni di drill-down per generare e visualizzare approfondimenti a livello di account, bucket, Regione AWS, prefisso o gruppo Storage Lens. Se hai abilitato l'utilizzo di S3 Storage Lens AWS Organizations, puoi anche generare informazioni a livello di organizzazione (come i dati per tutti gli account che fanno parte della tua AWS Organizations gerarchia). Il pannello di controllo viene sempre caricato per la data più recente per la quale sono disponibili i parametri.

La dashboard predefinita di S3 Storage Lens sulla console è denominata. **default-account-dashboard** Amazon S3 preconfigura questo pannello di controllo per visualizzare gli approfondimenti di riepilogo e le tendenze per l'intero account e le aggiorna quotidianamente nella console S3. Non è possibile modificare l'ambito di configurazione del pannello di controllo predefinito, ma è possibile aggiornare la selezione dei parametri, dai parametri gratuiti alle raccomandazioni e ai parametri avanzati a pagamento. I parametri avanzati e i suggerimenti ti consentono di accedere a parametri e funzionalità aggiuntive. Queste funzionalità includono categorie di metriche avanzate, aggregazione a livello di prefisso, consigli contestuali e pubblicazione su Amazon. CloudWatch 

Puoi disabilitare il pannello di controllo predefinito, ma non puoi eliminarlo. In caso di disattivazione del pannello di controllo predefinito, non viene più aggiornato. Non riceverai più alcun nuovo parametro giornaliero in S3 Storage Lens o nella sezione **Snapshot dell'account** nella pagina **Buckets**. Puoi comunque visualizzare i dati della cronologia nel pannello di controllo predefinito fino alla scadenza delle query di dati (14 giorni). Questo periodo è di 15 mesi se hai abilitato i parametri avanzati e i suggerimenti. Per accedere a questi dati, puoi riabilitare il pannello di controllo predefinito entro il periodo di scadenza.

Puoi creare dashboard S3 Storage Lens aggiuntivi e definirli per bucket S3 o account. Regioni AWS Puoi anche definire l'ambito delle dashboard in base all'organizzazione se hai abilitato l'utilizzo di Storage Lens. AWS Organizations Quando crei o modifichi un pannello di controllo di S3 Storage Lens, ne definisci l'ambito e la selezione dei parametri. 

 

Puoi disabilitare o eliminare eventuali pannelli di controllo aggiuntivi creati. 
+ Se disattivi un pannello di controllo, questo non sarà più aggiornato e non riceverai più nuovi parametri giornalieri. Puoi comunque visualizzare i dati della cronologia per i parametri gratuiti fino al periodo di scadenza di 14 giorni. Se hai abilitato i parametri avanzati e i suggerimenti per il pannello di controllo, questo periodo è di 15 mesi. Per accedere a questi dati, puoi riabilitare il pannello di controllo entro il periodo di scadenza. 
+ Se si elimina la dashboard, si perdono tutte le impostazioni di configurazione della dashboard. Non riceverai più nuovi parametri giornalieri e perderai anche l'accesso ai dati della cronologia associati a tale pannello di controllo. Se desideri accedere ai dati della cronologia di un pannello di controllo eliminato, dovrai creare un altro pannello di controllo con lo stesso nome nella stessa regione di origine.

**Topics**
+ [

## Visualizzazione di un pannello di controllo di Amazon S3 Storage Lens
](#storage_lens_console_viewing)
+ [

## Informazioni sul pannello di controllo di S3 Storage Lens
](#storage_lens_console_viewing_dashboard)

## Visualizzazione di un pannello di controllo di Amazon S3 Storage Lens
<a name="storage_lens_console_viewing"></a>

La seguente procedura descrive come visualizzare un pannello di controllo di S3 Storage Lens nella console S3. Per le procedure dettagliate basate sui casi d'uso che mostrano come utilizzare il pannello di controllo per ottimizzare i costi di archiviazione, implementare le best practice e migliorare le prestazioni delle applicazioni che accedono ai bucket S3, consulta [Casi d'uso relativi ai parametri di Amazon S3 Storage Lens](storage-lens-use-cases.md).

**Nota**  
Non puoi utilizzare le credenziali utente root del tuo account per visualizzare i pannelli di controllo di Amazon S3 Storage Lens. Per accedere ai dashboard di S3 Storage Lens, devi concedere le autorizzazioni AWS Identity and Access Management (IAM) richieste a un utente IAM nuovo o esistente. Quindi, accedi con le credenziali utente per accedere ai pannelli di controllo di S3 Storage Lens. Per ulteriori informazioni, consulta [Impostazione delle autorizzazioni di Amazon S3 Storage Lens](storage_lens_iam_permissions.md) e [Best Practice di sicurezza in IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) nella *Guida per l'utente di IAM*.

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

   Il pannello di controllo si apre in S3 Storage Lens. La sezione **Snapshot for *date*** (Snapshot per [data]) mostra l'ultima data in cui S3 Storage Lens ha raccolto i parametri. Il pannello di controllo viene sempre caricato alla data più recente per la quale sono disponibili i parametri.

1. (Facoltativo) Per modificare la data del pannello di controllo di S3 Storage Lens, nel selettore della data in alto a destra, scegli una nuova data.

1. (Facoltativo) Per applicare filtri temporanei per limitare ulteriormente l'ambito dei dati del pannello di controllo, procedi come segue:

   1. Espandi la sezione **Filtri**.

   1. Per filtrare per account, classi di archiviazione Regioni AWS, bucket, prefissi o gruppi di Storage Lens specifici, scegli le opzioni in base alle quali filtrare.
**Nota**  
Il filtro **Prefissi** e il filtro **Gruppi Storage Lens** non possono essere applicati contemporaneamente.

   1. Per aggiornare un filtro, scegli **Apply** (Applica).

   1. Per rimuovere un filtro, fai clic sulla **X** accanto al filtro.

1. In qualsiasi sezione del pannello di controllo di S3 Storage Lens, per visualizzare i dati relativi a un parametro specifico, in **Metric** (Parametro), scegli il nome del parametro.

1. In qualsiasi grafico o visualizzazione della dashboard S3 Storage Lens, puoi approfondire i livelli di aggregazione utilizzando le schede **Account**, **Regioni AWS**, **Classi di archiviazione**, **Bucket**, **Prefissi** o **Gruppi Storage Lens**. Per vedere un esempio, consulta [Scoperta dei bucket Amazon S3 freddi](storage-lens-optimize-storage.md#uncover-cold-buckets).

## Informazioni sul pannello di controllo di S3 Storage Lens
<a name="storage_lens_console_viewing_dashboard"></a>

Il pannello di controllo di S3 Storage Lens è costituito da una scheda **Overview** (Panoramica) principale e da un massimo di cinque schede aggiuntive che rappresentano ogni livello di aggregazione:
+ **Account**
+ **Regioni AWS**
+ **Classi di archiviazione**
+ **Bucket**
+ **Prefissi**
+ **Gruppi Storage Lens**

Nella scheda **Overview** (Panoramica), i dati del pannello di controllo vengono aggregati in tre diverse sezioni: **Snapshot for *date*** (Snapshot per [data]), **Trends and distributions** (Tendenze e distribuzioni) e **Top N overview** (Panoramica primi N). 

Per ulteriori informazioni sul pannello di controllo di S3 Storage Lens, consulta le sezioni seguenti.

### Istantanea
<a name="storage-lens-snapshot"></a>

La sezione **Snapshot for *date*** (Snapshot per [data]) mostra i parametri di riepilogo aggregati da S3 Storage Lens per la data selezionata. Questi parametri di riepilogo includono i seguenti parametri:
+ **Archiviazione totale**: la quantità di archiviazione totale utilizzata in byte.
+ **Conteggio oggetti**: il numero totale di oggetti nel tuo Account AWS.
+ **Dimensione media oggetto**: dimensione media dell'oggetto.
+ **Bucket attivi**: numero totale di bucket attivi in uso nel tuo account con archiviazione >0 byte.
+ **Account**: numero di account la cui archiviazione è compresa nell'ambito. Questo valore è **1** a meno che tu non stia utilizzando AWS Organizations e S3 Storage Lens disponga di un accesso affidabile con un ruolo valido collegato al servizio. Per ulteriori informazioni, consulta [Utilizzo dei ruoli collegati ai servizi per Amazon S3 Storage Lens](using-service-linked-roles.md). 
+ **Bucket**: il numero totale di bucket nel tuo account.

**Dati del parametro**  
Per ogni parametro visualizzato nello snapshot, puoi visualizzare i seguenti dati:
+ **Nome parametro**: nome del parametro.
+ **Categoria parametro**: categoria in cui è incluso il parametro.
+ **Totale per *data***: conteggio totale per la data selezionata.
+ **% variazione**: variazione percentuale rispetto alla data dell'ultimo snapshot.
+ **Tendenza a 30 giorni**: linea di tendenza che mostra le variazioni del parametro in un periodo di 30 giorni.
+ **Raccomandazione**: suggerimento contestuale basato sui dati forniti nello snapshot. I suggerimenti sono disponibili con i parametri avanzati e i suggerimenti. Per ulteriori informazioni, consulta [Raccomandazioni](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_recommendations).

**Categorie di parametri**  
Facoltativamente, puoi aggiornare la sezione **Snapshot for *date*** (Snapshot per [data]) del pannello di controllo per visualizzare i parametri di altre categorie. Se desideri visualizzare i dati snapshot per altri parametri, puoi scegliere altri valori in **Metrics categories** (Categorie parametri):
+ **Ottimizzazione dei costi** 
+ **Protezione dei dati**
+ **Attività** (disponibile con i parametri avanzati)
+ **Gestione degli accessi**
+ **Prestazioni**
+ **Eventi**

La sezione **Snapshot for *date*** (Snapshot per [data]) mostra solo una selezione di parametri per ogni categoria. Per visualizzare tutti i parametri di una categoria specifica, scegli il parametro desiderato nelle sezioni **Trends and distributions** (Tendenze e distribuzioni) o **Top N overview** (Panoramica primi N). Per ulteriori informazioni sulle categorie di parametri, consulta [Categorie di parametri](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Per un elenco completo dei parametri di S3 Storage Lens, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

### Trends and distributions (Tendenze e distribuzione)
<a name="storage-lens-trends"></a>

La seconda sezione della scheda **Overview** (Panoramica) è **Trends and distributions** (Tendenze e distribuzione). Nella sezione **Trends and distributions** (Tendenze e distribuzioni), puoi scegliere due parametri da confrontare in un intervallo di date definito. La sezione **Trends and distributions** (Tendenze e distribuzioni) mostra la relazione tra due parametri nel tempo. In questa sezione sono vsualizzati i grafici che puoi utilizzare per visualizzare le distribuzioni **Storage class** (Classe di archiviazione) e **Region** (Regione) tra le due tendenze che stai monitorando. Facoltativamente, puoi eseguire il drill-down su un punto dati in uno dei grafici per un'analisi più approfondita.

 Per una procedura dettagliata che utilizza la sezione **Trends and distributions** (Tendenze e distribuzioni), consulta [Identifica i bucket che non utilizzano la crittografia lato server con la crittografia predefinita (SSE-KMS) AWS KMS](storage-lens-data-protection.md#storage-lens-sse-kms).

### Panoramica Top N
<a name="storage-lens-top-n"></a>

La terza sezione del pannello di controllo di S3 Storage Lens è **Panoramica Top N** (ordinata in ordine crescente o decrescente). Questa sezione mostra le metriche selezionate in base al numero principale di account, bucket Regioni AWS, prefissi o gruppi di Storage Lens. Se hai abilitato l'utilizzo di S3 Storage Lens AWS Organizations, puoi anche visualizzare le metriche selezionate in tutta l'organizzazione.

Per una procedura dettagliata che utilizza la sezione **Top N overview** (Panoramica primi N), consulta [Identificare i bucket S3 più grandi](storage-lens-optimize-storage.md#identify-largest-s3-buckets).

### Drill-down e analisi per opzioni
<a name="storage-lens-drill-down"></a>

Per fornire un'esperienza fluida nell'esecuzione delle analisi, il pannello di controllo di S3 Storage Lens offre un menu delle azioni, che viene visualizzato quando si sceglie un valore del grafico. Per utilizzare questo menu, seleziona un qualsiasi valore del grafico e scegli tra le due opzioni disponibili nella casella:
+ L'azione **Drill down** (Drill-down) applica il valore selezionato come filtro in tutte le schede del pannello di controllo. Puoi quindi eseguire il drill-down in tale valore per un'analisi più approfondita.
+ L'azione **Analizza per** consente di accedere alla scheda **Dimensione** selezionata e di applicare tale valore come filtro. Queste schede includono **Account**, **Regioni AWS**, **Classi di archiviazione**, **Bucket**, **Prefissi** (per pannelli di controllo con **Parametri avanzati** e **Aggregazione prefissi** abilitati) e **Gruppi Storage Lens** (per i pannelli di controllo con **Parametri avanzati** e **Aggregazione dei gruppi Storage Lens** abilitati). **Analizza per** ti permette di vedere i dati nel contesto della nuova dimensione per un'analisi più approfondita.

Le azioni **Drill down** e **Analizza per** potrebbero essere disabilitate se il risultato dovesse produrre valori illogici o nessun valore. Entrambe le azioni **Drill down** e **Analizza per** determinano l'applicazione di filtri oltre a qualsiasi altro filtro esistente in tutte le schede del pannello di controllo. È inoltre possibile rimuovere filtri in base alle esigenze.

### Schede
<a name="storage-lens-dimension-tabs"></a>

Le schede a livello di dimensione forniscono una vista dettagliata di tutti i valori all'interno di una determinata dimensione. Ad esempio, la scheda **Regioni AWS** mostra i parametri per tutte le Regioni AWS, mentre la scheda **Bucket** mostra i parametri per tutti i bucket. Ogni scheda dimensione contiene un layout identico costituito da quattro sezioni:
+ Un grafico delle tendenze che mostra i primi *N* elementi all'interno della dimensione negli ultimi 30 giorni per il parametro selezionato. Per impostazione predefinita, questo grafico visualizza i primi 10 elementi, ma è possibile ridurli ad almeno 3 elementi o aumentarli fino a 50 elementi.
+ Un istogramma mostra un grafico a barre verticali per la data e il parametro selezionati. Se è presente un numero molto elevato di elementi da visualizzare in questo grafico, potrebbe essere necessario scorrerlo orizzontalmente.
+ Un diagramma di analisi a bolle che riporta tutti gli elementi che rientrano in quella dimensione. Questo grafico rappresenta il primo parametro sull'asse x e il secondo parametro sull'asse y. Il terzo parametro è rappresentato dalla dimensione della bolla. 
+ Una visualizzazione a griglia dei parametri che contiene ogni elemento della dimensione elencata nelle righe. Le colonne rappresentano ogni parametro disponibile, disposti in schede delle categorie di parametri per facilitare la navigazione. 

# Visualizzazione dei parametri di Amazon S3 Storage Lens utilizzando una esportazione di dati
<a name="storage_lens_view_metrics_export"></a>

I parametri di Amazon S3 Storage Lens vengono generati giornalmente in file di esportazione dei parametri in formato CSV o in Apache Parquet formato CSV e inseriti in un bucket S3 generico nel tuo account. Da lì, puoi inserire le metriche esportate negli strumenti di analisi di tua scelta, come Amazon Quick e Amazon Athena, dove puoi analizzare l'utilizzo dello storage e le tendenze delle attività. Puoi anche inviare esportazioni giornaliere di metriche a un bucket di tabelle S3 AWS gestito per eseguire query immediate, utilizzando servizi di analisi o strumenti di terze parti. AWS 

**Topics**
+ [

# Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche
](storage_lens_encrypt_permissions.md)
+ [

# Cos'è un manifest di esportazione di S3 Storage Lens?
](storage_lens_whatis_metrics_export_manifest.md)
+ [

# Comprendere gli schemi di esportazione di Amazon S3 Storage Lens
](storage_lens_understanding_metrics_export_schema.md)

# Utilizzo di an AWS KMS key per crittografare le esportazioni delle metriche
<a name="storage_lens_encrypt_permissions"></a>

Per concedere ad Amazon S3 Storage Lens l'autorizzazione alla crittografia delle esportazioni dei parametri mediante una chiave gestita dal cliente, devi utilizzare una policy di chiave. Per aggiornare la policy di chiave in modo da poter utilizzare una chiave KMS per crittografare le esportazioni dei parametri di S3 Storage Lens, segui la seguente procedura. 

**Per concedere le autorizzazioni di S3 Storage Lens per eseguire la crittografia dei dati utilizzando la chiave KMS**

1. Accedi a Console di gestione AWS utilizzando la chiave gestita dal cliente Account AWS che possiede.

1. Apri la AWS KMS console in [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms).

1. Per modificare il Regione AWS, usa il **selettore della regione nell'angolo** in alto a destra della pagina.

1. Nel riquadro di navigazione, scegli **Chiavi gestite dal cliente**. 

1. In **Chiavi gestite dal cliente**, scegli la chiave che desideri utilizzare per crittografare le esportazioni delle metriche. AWS KMS keys sono specifici della regione e devono trovarsi nella stessa regione del bucket S3 di destinazione di esportazione delle metriche.

1. In **Policy chiave**, seleziona **Passa alla visualizzazione della policy**. 

1. Per aggiornare la policy chiave, seleziona **Modifica**. 

1. In **Modifica policy della chiave**, aggiungi la policy chiave seguente alla policy chiave esistente. Per utilizzare questa policy, sostituisci ` user input placeholders ` con le tue informazioni.

   ```
   {
       "Sid": "Allow Amazon S3 Storage Lens use of the KMS key",
        "Effect": "Allow",
       "Principal": {
           "Service": "storage-lens.s3.amazonaws.com"
       },
       "Action": [
           "kms:GenerateDataKey"
       ],
       "Resource": "*",
       "Condition": {
          "StringEquals": {
              "aws:SourceArn": "arn:aws:s3:us-east-1:        source-account-id:storage-lens/your-dashboard-name",
              "aws:SourceAccount": "source-account-id"
           }
        }
   }
   ```

1. Scegli **Save changes** (Salva modifiche). 

Per ulteriori informazioni sulla creazione di chiavi gestite dal cliente e sull'utilizzo delle policy delle chiavi, consulta i seguenti argomenti nella *Guida per Developer di AWS Key Management Service *: 
+  [Crea una chiave KMS](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) 
+  [Politiche chiave in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) 

Puoi anche utilizzare la AWS KMS `PUT` key policy API operation ([https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html)) per copiare la policy chiave nelle chiavi gestite dai clienti che desideri utilizzare per crittografare le esportazioni delle metriche utilizzando l'API REST AWS CLI, e. SDKs

# Cos'è un manifest di esportazione di S3 Storage Lens?
<a name="storage_lens_whatis_metrics_export_manifest"></a>

Le esportazioni giornaliere delle metriche di S3 Storage Lens in bucket generici possono essere suddivise in più file a causa della grande quantità di dati aggregati. Il file manifest `manifest.json` descrive dove si trovano i file di esportazione dei parametri quel giorno. Ogni volta che viene consegnata una nuova esportazione, questa è accompagnata da un nuovo manifesto. Ogni manifest contenuto nel file `manifest.json` fornisce i metadati e altre informazioni di base riguardanti un inventario. 

Le informazioni sul manifest includono le seguenti proprietà:
+  `sourceAccountId`: l'ID account del proprietario della configurazione.
+  `configId`: un identificativo univoco per il pannello di controllo.
+  `destinationBucket`: il nome della risorsa Amazon (ARN) del bucket di destinazione in cui viene inserita l'esportazione delle metriche.
+  `reportVersion`: la versione dell'esportazione.
+  `reportDate`: la data del report.
+  `reportFormat`: il formato del report.
+  `reportSchema`: lo schema del report.
+  `reportFiles`: l'elenco reale dei file di report di esportazione presenti nel bucket di destinazione.

Esempio di percorso di destinazione del manifesto:

```
user-defined-prefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/manifests/dt=2025-03-18/manifest.json
```

L'esempio seguente mostra un `manifest.json` file per un rapporto sulle metriche predefinite di Storage Lens in formato CSV:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-07-15",  
   "reportFormat": "CSV",  
   "reportSchema": "version_number,configuration_id,report_date,aws_account_number,aws_region,storage_class,record_type,record_value,bucket_name,metric_name,metric_value",  
   "reportFiles": [  
        {  
            "key": "DestinationPrefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-07-15/12345678-1234-1234-1234-123456789012.csv",  
            "size": 1603959,  
            "md5Checksum": "2177e775870def72b8d84febe1ad3574"  
        }  
   ]  
}
```

L'esempio seguente mostra un `manifest.json` file per un rapporto sulle metriche dei prefissi espansi di Storage Lens in formato CSV:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",   
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "CSV",  
   "reportSchema": "version_number,configuration_id,report_date,aws_account_number,aws_region,storage_class,record_type,record_value,bucket_name,metric_name,metric_value",  
   "reportFiles": [  
        {  
            "key": "DestinationPrefix/StorageLensExpandedPrefixes/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/EXAMPLE1234-56ab-78cd-90ef-EXAMPLE11111.csv",  
            "size": 1603959,  
            "md5Checksum": "2177e775870def72b8d84febe1ad3574"  
        }  
      ]  
}
```

L'esempio seguente mostra un `manifest.json` file per un rapporto sulle metriche predefinite di Storage Lens in Parquet formato:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "Parquet",  
   "reportSchema": "message s3.storage.lens { required string version_number; required string configuration_id; required string report_date; required string aws_account_number; required string aws_region; required string storage_class; required string record_type; required string record_value; required string bucket_name; required string metric_name; required long metric_value; }",  
   "reportFiles": [  
      {  
         "key": "DestinationPrefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/bd23de7c-b46a-4cf4-bcc5-b21aac5be0f5.par",  
         "size": 14714,  
         "md5Checksum": "b5c741ee0251cd99b90b3e8eff50b944"  
      }  
   ]  
}
```

L'esempio seguente mostra un `manifest.json` file per un rapporto sulle metriche dei prefissi espansi di Storage Lens Parquet in formato -formattato:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "Parquet",  
   "reportSchema": "message s3.storage.lens { required string version_number; required string configuration_id; required string report_date; required string aws_account_number; required string aws_region; required string storage_class; required string record_type; required string record_value; required string bucket_name; required string metric_name; required long metric_value; }",  
   "reportFiles": [  
      {  
         "key": "DestinationPrefix/StorageLensExpandedPrefixes/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/bd23de7c-b46a-4cf4-bcc5-b21aac5be0f5.par",  
         "size": 14714,  
         "md5Checksum": "b5c741ee0251cd99b90b3e8eff50b944"  
      }  
   ]  
}
```

Puoi configurare l'esportazione delle metriche in modo che venga generata come parte della configurazione del dashboard nella console Amazon S3 o utilizzando l'API REST di Amazon S3 e. AWS CLI SDKs

# Comprendere gli schemi di esportazione di Amazon S3 Storage Lens
<a name="storage_lens_understanding_metrics_export_schema"></a>

Gli schemi di esportazione di S3 Storage Lens variano a seconda della destinazione di esportazione. Scegliete lo schema appropriato a seconda che stiate esportando in bucket S3 generici o tabelle S3.

**Topics**
+ [

## Schema di esportazione per bucket S3 per uso generico
](#storage_lens_general_purpose_bucket_schema)
+ [

## Schemi di esportazione per tabelle S3
](#storage_lens_s3_tables_schema)

## Schema di esportazione per bucket S3 per uso generico
<a name="storage_lens_general_purpose_bucket_schema"></a>

La tabella seguente contiene lo schema dell'esportazione delle metriche di S3 Storage Lens durante l'esportazione in bucket S3 per uso generico.


| Nome attributo  | Tipo di dati | Nome colonna | Descrizione | 
| --- | --- | --- | --- | 
|  VersionNumber  | Stringa |  version\$1number  | La versione dei parametri di S3 Storage Lens in uso. | 
|  ConfigurationId  | Stringa |  configuration\$1id  |  configuration\$1id della configurazione di S3 Storage Lens. | 
|  ReportDate  | Stringa  |  report\$1date  | Data in cui sono stati tracciati i parametri. | 
|  AwsAccountNumber  |  Stringa  |  aws\$1account\$1number  |  Account AWS Il tuo numero. | 
|  AwsRegion  |  Stringa  |  aws\$1region  | La metrica Regione AWS per cui vengono tracciate le metriche. | 
|  StorageClass  |  Stringa  |  storage\$1class  | La classe di storage del bucket in questione. | 
|  RecordType  |  ENUM  |  record\$1type  |  Il tipo di artefatto che viene segnalato (ACCOUNT, BUCKET o). PREFIX  | 
|  RecordValue  |  Stringa  |  record\$1value  | Il valore dell'artefatto RecordType.  Il `record_value` è codificato in formato URL.   | 
|  BucketName  |  Stringa  |  bucket\$1name  | Il nome del bucket che viene riportato. | 
|  MetricName  |  Stringa  |  metric\$1name  | Il nome del parametro che viene riportato. | 
|  MetricValue  |  Lungo  |  metric\$1value  | Il valore del parametro che viene riportato. | 

### Esempio di esportazione dei parametri di S3 Storage Lens
<a name="storage_lens_sample_metrics_export"></a>

Di seguito è riportato un esempio di esportazione dei parametri di S3 Storage Lens basata su questo schema. 

**Nota**  
Per identificare i parametri per i gruppi Storage Lens, cerca il valore `STORAGE_LENS_GROUP_BUCKET` o `STORAGE_LENS_GROUP_ACCOUNT` nella colonna `record_type`. La colonna `record_value` mostra il nome della risorsa Amazon (ARN) per il gruppo Storage Lens, ad esempio, `arn:aws:s3:us-east-1:123456789012:storage-lens-group/slg-1`. 

![\[Un esempio di file di esportazione delle metriche di S3 Storage Lens.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/sample_storage_lens_export.png)


Di seguito è riportato un esempio di esportazione dei parametri di S3 Storage Lens con i dati dei gruppi di Storage Lens.

![\[Un esempio di file di esportazione delle metriche S3 Storage Lens con i dati dei gruppi Storage Lens.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/StorageLensGroups_metricsexport.png)


## Schemi di esportazione per tabelle S3
<a name="storage_lens_s3_tables_schema"></a>

Quando si esportano le metriche di S3 Storage Lens in tabelle S3, i dati sono organizzati in tre schemi di tabelle separati: metriche di storage, metriche delle proprietà dei bucket e metriche delle attività.

**Topics**
+ [

### Schema della tabella delle metriche di archiviazione
](#storage_lens_s3_tables_storage_metrics)
+ [

### Schema della tabella delle metriche delle proprietà Bucket
](#storage_lens_s3_tables_bucket_property_metrics)
+ [

### Schema della tabella delle metriche delle attività
](#storage_lens_s3_tables_activity_metrics)

### Schema della tabella delle metriche di archiviazione
<a name="storage_lens_s3_tables_storage_metrics"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, related a che livello di aggregazione dei dati. Valori: ACCOUNT, BUCKET, PREFIX, LENS GROUP.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  object\$1count  | Long | Numero di oggetti memorizzati per l'elemento di riferimento corrente | 
|  storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  current\$1version\$1object\$1count  | Long | Numero di oggetti della versione corrente archiviati per l'elemento di riferimento corrente | 
|  current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte della versione corrente archiviati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1object\$1count  | Long | Numero di oggetti marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte del marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  encrypted\$1object\$1count  | Long | Numero di oggetti crittografati archiviati per l'elemento di riferimento corrente | 
|  encrypted\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | Long | Numero di oggetti di caricamento incompleti in più parti più vecchi di 7 giorni archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati da più di 7 giorni per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1count  | Long | Numero di oggetti di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1object\$1count  | Long | Numero di oggetti della versione non corrente memorizzati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di versione non corrente archiviati per l'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1object\$1count  | Long | Numero di oggetti memorizzati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  replicated\$1object\$1count  | Long | Numero di oggetti replicati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte replicati per l'elemento di riferimento corrente | 
|  replicated\$1object\$1source\$1count  | Long | Numero di oggetti replicati come origine archiviati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1source\$1bytes  | DECIMALE (38,0) | Numero di byte replicati come origine per l'elemento di riferimento corrente | 
|  sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  object\$10kb\$1count  | Long | Numero di oggetti con dimensioni pari a 0 KB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$10kb\$1to\$1128kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 0 KB e inferiori a 128 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1128kb\$1to\$1256kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 128 KB e inferiori a 256 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1256kb\$1to\$1512kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 256 KB e inferiori a 512 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1512kb\$1to\$11mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 512 KB e inferiori a 1 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$11mb\$1to\$12mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 1 MB e inferiori a 2 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12mb\$1to\$14mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 2 MB e inferiori a 4 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$14mb\$1to\$18mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 4 MB e inferiori a 8 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$18mb\$1to\$116mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 8 MB e inferiori a 16 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$116mb\$1to\$132mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 16 MB e inferiori a 32 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$132mb\$1to\$164mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 32 MB e inferiori a 64 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$164mb\$1to\$1128mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 64 MB e inferiori a 128 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$1128mb\$1to\$1256mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 128 MB e inferiori a 256 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1256mb\$1to\$1512mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 256 MB e inferiori a 512 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1512mb\$1to\$11gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 512 MB e inferiori a 1 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$11gb\$1to\$12gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 1 GB e inferiori a 2 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12gb\$1to\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 2 GB e inferiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1larger\$1than\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 

### Schema della tabella delle metriche delle proprietà Bucket
<a name="storage_lens_s3_tables_bucket_property_metrics"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori: ACCOUNT, BUCKET, PREFIX, LENS GROUP.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso. | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  bucket\$1name  | stringa | Nome bucket | 
|  versioning\$1enabled\$1bucket\$1count  | Long | Numero di bucket con controllo delle versioni abilitato per l'elemento di riferimento corrente | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | Long | Numero di bucket con eliminazione MFA abilitata per l'elemento di riferimento corrente | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | Long | Numero di bucket con KMS abilitato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership applicato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership preferito per l'elemento di riferimento corrente | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | Long | Numero di bucket con Object Ownership Object Writer per l'elemento di riferimento corrente | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | Long | Numero di bucket con accelerazione di trasferimento abilitata per l'elemento di riferimento corrente | 
|  event\$1notification\$1enabled\$1bucket\$1count  | Long | Numero di bucket con notifica degli eventi abilitata per l'elemento di riferimento corrente | 
|  transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita della transizione per l'elemento di riferimento corrente | 
|  expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di transizione delle versioni non correnti per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza delle versioni non correnti per l'elemento di riferimento corrente | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di caricamento multiparte incomplete per l'elemento di riferimento corrente | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita dei marker di eliminazione degli oggetti in scadenza per l'elemento di riferimento corrente | 
|  same\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica nella stessa area per l'elemento di riferimento corrente | 
|  cross\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica interregionale per l'elemento di riferimento corrente | 
|  same\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica dello stesso account per l'elemento di riferimento corrente | 
|  cross\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica tra account per l'elemento di riferimento corrente | 
|  invalid\$1destination\$1replication\$1rule\$1count  | Long | Numero di bucket con replica di destinazione non valida per l'elemento di riferimento corrente | 

### Schema della tabella delle metriche delle attività
<a name="storage_lens_s3_tables_activity_metrics"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori:ACCOUNT,BUCKET,PREFIX.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  all\$1request\$1count  | Long | Numero di \$1tutte\$1 richieste per l'elemento di riferimento corrente | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | Long | Numero di richieste crittografate KMS per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1sig\$1request\$1count  | Long | Numero di richieste sig non supportate per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1tls\$1request\$1count  | Long | Numero di richieste TLS non supportate per l'elemento di riferimento corrente | 
|  bad\$1request\$1error\$1400\$1count  | Long | Numero di 400 errori di richiesta errata per l'elemento di riferimento corrente | 
|  delete\$1request\$1count  | Long | Numero di richieste di eliminazione per l'elemento di riferimento corrente | 
|  downloaded\$1bytes  | decimale (0,0) | Numero di byte scaricati per l'elemento di riferimento corrente | 
|  error\$14xx\$1count  | Long | Numero di errori 4xx per l'elemento di riferimento corrente | 
|  error\$15xx\$1count  | Long | Numero di 5xx errori per l'elemento di riferimento corrente | 
|  forbidden\$1error\$1403\$1count  | Long | Numero di 403 errori non consentiti per l'elemento di riferimento corrente | 
|  get\$1request\$1count  | Long | Numero di richieste get per l'elemento di riferimento corrente | 
|  head\$1request\$1count  | Long | Numero di richieste head per l'elemento di riferimento corrente | 
|  internal\$1server\$1error\$1500\$1count  | Long | Numero di 500 errori interni del server per l'elemento di riferimento corrente | 
|  list\$1request\$1count  | Long | Numero di richieste di elenco per l'elemento di riferimento corrente | 
|  not\$1found\$1error\$1404\$1count  | Long | Numero di 404 errori non trovati per l'elemento di riferimento corrente | 
|  ok\$1status\$1200\$1count  | Long | Numero di 200 richieste OK per l'elemento di riferimento corrente | 
|  partial\$1content\$1status\$1206\$1count  | Long | Numero di 206 richieste di contenuto parziali per l'elemento di riferimento corrente | 
|  post\$1request\$1count  | Long | Numero di richieste di post per l'elemento di riferimento corrente | 
|  put\$1request\$1count  | Long | Numero di richieste put per l'elemento di riferimento corrente | 
|  select\$1request\$1count  | Long | Numero di richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1returned\$1bytes  | decimale (0,0) | Numero di byte restituiti dalle richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1scanned\$1bytes  | decimale (0,0) | Numero di byte scansionati dalle richieste di selezione per l'elemento di riferimento corrente | 
|  service\$1unavailable\$1error\$1503\$1count  | Long | Numero di 503 errori di servizio non disponibili per l'elemento di riferimento corrente | 
|  uploaded\$1bytes  | decimale (0,0) | Numero di byte caricati per l'elemento di riferimento corrente | 
|  average\$1first\$1byte\$1latency  | Long | Tempo medio per richiesta tra il momento in cui un bucket S3 riceve una richiesta completa e il momento in cui inizia a restituire la risposta, misurato nelle ultime 24 ore | 
|  average\$1total\$1request\$1latency  | Long | Tempo medio trascorso per richiesta tra il primo byte ricevuto e l'ultimo byte inviato a un bucket S3, misurato nelle ultime 24 ore | 
|  read\$10kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati pari a 0 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 0 KB e fino a 128 KB, incluse sia le richieste basate su intervalli che le richieste di oggetti interi | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 KB e fino a 256 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 KB e fino a 512 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 KB e fino a 1 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 MB e fino a 2 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 MB e fino a 4 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 MB e fino a 8 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 8 MB e fino a 16 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 16 MB e fino a 32 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 32 MB e fino a 64 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 64 MB e fino a 128 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 MB e fino a 256 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 MB e fino a 512 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 MB e fino a 1 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 GB e fino a 2 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 GB e fino a 4 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 GB, incluse richieste basate su intervalli e richieste di oggetti interi | 
|  write\$10kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con UploadPart dimensioni dei dati pari a 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 0 KB e fino a 128 KB UploadPart | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 KB e fino a 256 KB UploadPart | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 KB e fino a 512 KB UploadPart | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 KB e fino a 1 MB UploadPart | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 MB e fino a 2 MB UploadPart | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 MB e fino a 4 MB UploadPart | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 MB e fino a 8 MB UploadPart | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 8 MB e fino a 16 MB UploadPart | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 16 MB e fino a 32 MB UploadPart | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 32 MB e fino a 64 MB UploadPart | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 64 MB e fino a 128 MB UploadPart | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 MB e fino a 256 MB UploadPart | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 MB e fino a 512 MB UploadPart | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 MB e fino a 1 GB UploadPart | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 GB e fino a 2 GB UploadPart | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 GB e fino a 4 GB UploadPart | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 GB UploadPart | 
|  concurrent\$1put\$1503\$1error\$1count  | Long | Numero di 503 errori generati a causa di scritture simultanee sullo stesso oggetto | 
|  cross\$1region\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket | 
|  cross\$1region\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket, escluse le richieste di replica tra regioni | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket, esclusi i byte di replica tra regioni | 
|  inregion\$1request\$1count  | Long | Numero di richieste che provengono da un client nella stessa regione della regione di origine del bucket | 
|  inregion\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti dalle chiamate dalla stessa regione della regione principale del bucket | 
|  unique\$1objects\$1accessed\$1daily\$1count  | Long | Numero di oggetti a cui è stato effettuato l'accesso almeno una volta nelle ultime 24 ore | 

# Monitora le metriche di S3 Storage Lens in CloudWatch
<a name="storage_lens_view_metrics_cloudwatch"></a>

[Puoi pubblicare i parametri di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato operativo nei dashboard. CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Puoi anche utilizzare CloudWatch funzionalità, come allarmi e azioni attivate, calcoli metrici e rilevamento delle anomalie, per monitorare e agire in base ai parametri di S3 Storage Lens. Inoltre, le operazioni CloudWatch API consentono alle applicazioni, inclusi i provider di terze parti, di accedere alle metriche di S3 Storage Lens. Per ulteriori informazioni sulle CloudWatch funzionalità, consulta la [Amazon CloudWatch User Guide](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

Puoi abilitare l'opzione di CloudWatch pubblicazione per configurazioni di dashboard nuove o esistenti utilizzando la console Amazon S3, l'API REST di Amazon S3 e. AWS CLI AWS SDKs I pannelli di controllo aggiornati alle metriche e ai consigli avanzati di S3 Storage Lens possono utilizzare l'opzione di pubblicazione. CloudWatch Per i prezzi relativi all'opzione Advanced metrics and recommendations (Parametri e suggerimenti avanzati), consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). Non sono previsti costi aggiuntivi per la pubblicazione CloudWatch delle metriche; tuttavia, si applicano altri CloudWatch costi, come dashboard, allarmi e chiamate API. Per ulteriori informazioni, consulta i [ CloudWatchprezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). 

Le metriche di S3 Storage Lens sono pubblicate CloudWatch nell'account che possiede la configurazione S3 Storage Lens. Dopo aver abilitato l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate, puoi accedere alle metriche a livello di account e di bucket in base all'ID di configurazione, all'account, al bucket (solo per le metriche a livello di bucket), alla regione e alla classe di archiviazione in. CloudWatch Le CloudWatch metriche a livello di prefisso non sono disponibili in.

**Nota**  
Le metriche di S3 Storage Lens sono metriche giornaliere e vengono pubblicate una volta al giorno. CloudWatch Quando esegui una query sulle metriche di S3 Storage Lens in CloudWatch, il periodo per la query deve essere di 1 giorno (86400 secondi). Dopo che i parametri giornalieri di S3 Storage Lens vengono visualizzati nella dashboard di S3 Storage Lens nella console Amazon S3, possono essere necessarie alcune ore prima che questi stessi parametri vengano visualizzati. CloudWatch Quando abiliti l'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens per la prima volta, possono essere necessarie fino a 24 ore prima che le metriche vengano pubblicate. CloudWatch 

Dopo aver abilitato l'opzione di CloudWatch pubblicazione, puoi utilizzare le seguenti CloudWatch funzionalità per monitorare e analizzare i dati di S3 Storage Lens: LensStorage 
+ [Dashboard](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-dashboards): utilizza i CloudWatch dashboard per creare dashboard S3 Storage Lens personalizzati. Condividi la CloudWatch dashboard con persone che non hanno accesso diretto alla tua organizzazione, con più team Account AWS, con le parti interessate e con persone esterne alla tua organizzazione. 
+ [Allarmi e operazioni attivate](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-alarms) – Configura gli allarmi che controllano i parametri e si attivano quando viene violata una soglia. Ad esempio, è possibile configurare un allarme che invia una notifica di Amazon SNS quando il valore del parametro **Incomplete Multipart Upload Bytes** (Byte caricamenti in più parti incompleti) supera 1 GB per tre giorni consecutivi. 
+ [Rilevamento di anomalie](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-alarms) – Abilita il rilevamento delle anomalie per analizzare continuamente i parametri, determinare le normali linee di base e le anomalie superficiali. Puoi creare allarmi di rilevamento delle anomalie basati sul valore previsto di un parametro. Ad esempio, è possibile monitorare le anomalie del parametro **Object Lock Enabled Bytes** (Byte con blocco oggetti abilitato) per rilevare una rimozione non autorizzata delle impostazioni di Object Lock.
+ [Matematica dei parametri](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-metric-math) – permette di eseguire query di più parametri S3 Storage Lens e di utilizzare espressioni matematiche per creare nuove serie temporali in base a tali parametri. Ad esempio, è possibile creare un nuovo parametro per ottenere la dimensione media dell'oggetto dividendo `StorageBytes` per `ObjectCount`.

Per ulteriori informazioni sull'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens, consulta i seguenti argomenti.

**Topics**
+ [

# Dimensioni e parametri di S3 Storage Lens
](storage-lens-cloudwatch-metrics-dimensions.md)
+ [

# Abilitazione della CloudWatch pubblicazione per S3 Storage Lens
](storage-lens-cloudwatch-enable-publish-option.md)
+ [

# Utilizzo delle metriche di S3 Storage Lens in CloudWatch
](storage-lens-cloudwatch-monitoring-cloudwatch.md)

# Dimensioni e parametri di S3 Storage Lens
<a name="storage-lens-cloudwatch-metrics-dimensions"></a>

Per inviare le metriche di S3 Storage Lens a CloudWatch, devi abilitare l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate di S3 Storage Lens. Dopo aver abilitato le metriche avanzate, puoi utilizzare le [CloudWatchdashboard](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) per monitorare le metriche di S3 Storage Lens insieme ad altre metriche delle applicazioni e creare una visione unificata dello stato operativo. Puoi utilizzare le dimensioni per filtrare le metriche di S3 Storage Lens per organizzazione, account, bucket, classe CloudWatch di archiviazione, regione e ID di configurazione delle metriche.

Le metriche di S3 Storage Lens sono pubblicate CloudWatch nell'account che possiede la configurazione S3 Storage Lens. Dopo aver abilitato l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate, puoi accedere alle metriche a livello di account e di bucket in base all'ID di configurazione, all'account, al bucket (solo per le metriche a livello di bucket), alla regione e alla classe di archiviazione in. CloudWatch Le CloudWatch metriche a livello di prefisso non sono disponibili in.

**Nota**  
Le metriche di S3 Storage Lens sono metriche giornaliere e vengono pubblicate una volta al giorno. CloudWatch Quando esegui una query sulle metriche di S3 Storage Lens in CloudWatch, il periodo per la query deve essere di 1 giorno (86400 secondi). Dopo che i parametri giornalieri di S3 Storage Lens vengono visualizzati nella dashboard di S3 Storage Lens nella console Amazon S3, possono essere necessarie alcune ore prima che questi stessi parametri vengano visualizzati. CloudWatch Quando abiliti l'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens per la prima volta, possono essere necessarie fino a 24 ore prima che le metriche vengano pubblicate. CloudWatch 

Per ulteriori informazioni sulle metriche e le dimensioni di S3 Storage Lens in CloudWatch, consulta i seguenti argomenti.

**Topics**
+ [

## Metriche
](#storage-lens-cloudwatch-metrics)
+ [

## Dimensioni
](#storage-lens-cloudwatch-dimensions)

## Metriche
<a name="storage-lens-cloudwatch-metrics"></a>

Le metriche di S3 Storage Lens sono disponibili come metriche all'interno. CloudWatch I parametri di S3 Storage Lens sono pubblicati nello spazio dei nomi `AWS/S3/Storage-Lens`. Questo spazio dei nomi è solo per i parametri di S3 Storage Lens. I parametri bucket, richiesta e replica di Amazon S3 vengono pubblicati nello spazio dei nomi `AWS/S3`. 

Le metriche di S3 Storage Lens sono pubblicate CloudWatch nell'account che possiede la configurazione S3 Storage Lens. Dopo aver abilitato l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate, puoi accedere alle metriche a livello di account e di bucket in base all'ID di configurazione, all'account, al bucket (solo per le metriche a livello di bucket), alla regione e alla classe di archiviazione in. CloudWatch Le CloudWatch metriche a livello di prefisso non sono disponibili in.

In S3 Storage Lens, i parametri vengono aggregati e memorizzati solo nella Regione di origine designata. Le metriche di S3 Storage Lens vengono pubblicate anche CloudWatch nella home Region specificata nella configurazione di S3 Storage Lens. 

Per un elenco completo delle metriche di S3 Storage Lens, incluso un elenco delle metriche disponibili in, consulta. CloudWatch [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md)

**Nota**  
La statistica valida per le metriche di S3 Storage Lens è Average. CloudWatch Per ulteriori informazioni sulle statistiche in CloudWatch, consulta [le definizioni delle CloudWatch statistiche](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Statistics-definitions.html) nella *Amazon CloudWatch User Guide*.

### Granularità delle metriche di S3 Storage Lens in CloudWatch
<a name="storage-lens-cloudwatch-metrics-granularity"></a>

S3 Storage Lens offre parametri sulla granularità dell'organizzazione, dell'account, del bucket e del prefisso. S3 Storage Lens pubblica i parametri di organizzazione, account e S3 Storage Lens a livello di bucket su. CloudWatch Le metriche di S3 Storage Lens a livello di prefisso non sono disponibili in. CloudWatch

Per ulteriori informazioni sulla granularità delle metriche di S3 Storage Lens disponibili in, consulta il seguente elenco: CloudWatch
+ **Organizzazione** – Parametri aggregati tra gli account membri della tua organizzazione. S3 Storage Lens pubblica le metriche relative agli account dei membri nell'account di gestione. CloudWatch 
  + **Organizzazione e account** – Parametri per gli account membri della tua organizzazione. 
  + **Organizzazione e account** – Parametri per i bucket Amazon S3 buckets negli account membri della tua organizzazione.
+ **Account** (Livello non di organizzazione): – Parametri aggregati tra i bucket del tuo account. 
+ **Bucket** (Livello non organizzativo) – Parametri di un bucket specifico. Nel CloudWatch, S3 Storage Lens pubblica queste metriche su chi ha creato la Account AWS configurazione di S3 Storage Lens. S3 Storage Lens pubblica questi parametri solo per configurazioni non organizzative.

## Dimensioni
<a name="storage-lens-cloudwatch-dimensions"></a>

Quando S3 Storage Lens invia dati a CloudWatch, le dimensioni vengono allegate a ciascuna metrica. Le dimensioni sono categorie che descrivono le caratteristiche dei parametri. Puoi utilizzare le dimensioni per filtrare i risultati restituiti. CloudWatch 

Ad esempio, tutte le metriche di S3 Storage Lens CloudWatch hanno la `configuration_id` dimensione. È possibile utilizzare questa dimensione per distinguere tra i parametri associati con una configurazione specifica di S3 Storage Lens. L'`organization_id` identifica i parametri a livello organizzativo. Per ulteriori informazioni sulle dimensioni in CloudWatch, consulta [Dimensioni nella Guida](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html#Dimension) per l'*CloudWatch utente*. 

Sono disponibili diverse dimensioni per i parametri S3 Storage Lens a seconda della granularità dei parametri. Ad esempio, puoi utilizzare la `organization_id` dimensione per filtrare le metriche a livello di organizzazione in base all'ID. AWS Organizations Tuttavia, non è possibile utilizzare questa dimensione per parametri a livello di bucket e account. Per ulteriori informazioni, consulta [Filtraggio dei parametri utilizzando le dimensioni](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-dimensions).

Per vedere quali dimensioni sono disponibili per la configurazione di S3 Storage Lens, vedi la tabella seguente.


|  **Dimensione**  |  **Descrizione**  |  **Bucket**  | **Account** |  **Organizzazione**  |  **Organizzazione e bucket**  |  **Organizzazione e account**  | 
| --- | --- | --- | --- | --- | --- | --- | 
| configuration\$1id |  Nome del pannello di controllo per la configurazione di S3 Storage Lens riportato nei parametri  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| metrics\$1version |  Versione dei parametri di S3 Storage Lens in uso. La versione dei parametri ha un valore fisso di `1.0`.  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| organization\$1id |  L' AWS Organizations ID per le metriche  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| aws\$1account\$1number | Il Account AWS che è associato alle metriche | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| aws\$1region | Il Regione AWS per le metriche | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| bucket\$1name |  Nome del bucket S3 riportato nei parametri  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-no.png)  | 
| storage\$1class |  Classe di archiviazione per il bucket riportato nei parametri  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| record\$1type |  Granularità dei parametri: ORGANIZZAZIONE, ACCOUNT, BUCKET  | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png) BUCKET | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png) ACCOUNT | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png) BUCKET | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png) ACCOUNT | ![\[Yes\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/icon-yes.png)ORGANIZZAZIONE | 

# Abilitazione della CloudWatch pubblicazione per S3 Storage Lens
<a name="storage-lens-cloudwatch-enable-publish-option"></a>

[Puoi pubblicare i parametri di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato operativo nei dashboard. CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Puoi anche utilizzare CloudWatch funzionalità, come allarmi e azioni attivate, calcoli metrici e rilevamento delle anomalie, per monitorare e agire in base ai parametri di S3 Storage Lens. Inoltre, le operazioni CloudWatch API consentono alle applicazioni, inclusi i provider di terze parti, di accedere alle metriche di S3 Storage Lens. Per ulteriori informazioni sulle CloudWatch funzionalità, consulta la [Amazon CloudWatch User Guide](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

Le metriche di S3 Storage Lens sono pubblicate CloudWatch nell'account che possiede la configurazione S3 Storage Lens. Dopo aver abilitato l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate, puoi accedere alle metriche a livello di account e di bucket in base all'ID di configurazione, all'account, al bucket (solo per le metriche a livello di bucket), alla regione e alla classe di archiviazione in. CloudWatch Le CloudWatch metriche a livello di prefisso non sono disponibili in.

Puoi abilitare CloudWatch il supporto per configurazioni di dashboard nuove o esistenti utilizzando la console S3, Amazon S3 APIs REST AWS CLI e. AWS SDKs L'opzione di CloudWatch pubblicazione è disponibile per i dashboard aggiornati ai parametri e ai consigli avanzati di S3 Storage Lens. Per i prezzi relativi all'opzione Advanced metrics and recommendations (Parametri e suggerimenti avanzati), consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). Non sono previsti costi aggiuntivi per la pubblicazione CloudWatch delle metriche; tuttavia, si applicano altri CloudWatch costi, come dashboard, allarmi e chiamate API.

Per abilitare l'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens, consulta i seguenti argomenti.

**Nota**  
Le metriche di S3 Storage Lens sono metriche giornaliere e vengono pubblicate una volta al giorno. CloudWatch Quando esegui una query sulle metriche di S3 Storage Lens in CloudWatch, il periodo per la query deve essere di 1 giorno (86400 secondi). Dopo che i parametri giornalieri di S3 Storage Lens vengono visualizzati nella dashboard di S3 Storage Lens nella console Amazon S3, possono essere necessarie alcune ore prima che questi stessi parametri vengano visualizzati. CloudWatch Quando abiliti l'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens per la prima volta, possono essere necessarie fino a 24 ore prima che le metriche vengano pubblicate. CloudWatch   
Attualmente, le metriche di S3 Storage Lens non possono essere utilizzate attraverso gli stream. CloudWatch 

## Utilizzo della console S3
<a name="storage-lens-cloudwatch-enable-publish-console"></a>

Quando viene aggiornato un pannello di controllo S3 Storage Lens, non è possibile modificare il nome del pannello di controllo o la regione di origine. Non è inoltre possibile cambiare l'ambito del pannello di controllo predefinito, che viene inserito nell'ambito dell'intera archiviazione dell'account.

**Per aggiornare una dashboard di S3 Storage Lens per abilitare la pubblicazione CloudWatch**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **S3 Storage Lens**, **Dashboards**.(Pannelli di controllo).

1. Scegli il pannello di controllo che desideri modificare, quindi seleziona **Edit (Modifica).**

1. Sotto **Metrics selection (Selezione dei parametri)**, scegli **Advanced metrics and recommendations (Raccomandazioni e parametri avanzati)**.

   Le raccomandazioni e i parametri avanzati sono dispobibili a un costo aggiuntivo. Le metriche e i consigli avanzati includono un periodo di 15 mesi per le query sui dati, i parametri di utilizzo aggregati a livello di prefisso, i parametri di attività aggregati per bucket, l'opzione di CloudWatch pubblicazione e i consigli contestuali che consentono di ottimizzare i costi di archiviazione e applicare le migliori pratiche di protezione dei dati. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

1. **In **Seleziona** le funzionalità avanzate di metriche e consigli, seleziona Pubblicazione. CloudWatch**
**Importante**  
Se la configurazione abilita l'aggregazione dei prefissi per le metriche di utilizzo, le metriche a livello di prefisso non verranno pubblicate su. CloudWatch Vengono pubblicate solo le metriche di S3 Storage Lens a livello di bucket, account e organizzazione su. CloudWatch

1. Scegli **Save changes** (Salva modifiche).

**Per creare una nuova dashboard S3 Storage Lens che abiliti il supporto CloudWatch**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo). 

1. Seleziona **Crea pannello di controllo**. 

1. In **General** (Generale), definire le opzioni di configurazione seguenti:

   1. In **Dashborard name** (Nome pannello di controllo), inserisci il nome del pannello di controllo.

      I nomi del pannello di controllo devono contenere meno di 65 caratteri e non possono contenere caratteri speciali o spazi. Il nome del pannello di controllo dopo la creazione non potrà più essere modificato.

   1. Seleziona la **Regione di origine** del tuo pannello di controllo.

      I parametri per tutte le Regioni incluse nell'ambito di questo pannello di controllo vengono archiviati centralmente in questa Regione di origine designata. Nel CloudWatch, i parametri di S3 Storage Lens sono disponibili anche nella regione d'origine. Non è possibile modificare la regione di origine dopo aver creato il pannello di controllo.

1. (Facoltativo) Per aggiungere un tag, scegliere **Add new tag (Aggiungi nuovo tag)** e immettere la **chiave** e il **valore** del tag.
**Nota**  
Puoi aggiungere fino a 50 tag alla configurazione del pannello di controllo.

1. Definisci l'ambito della tua configurazione:

   1. Se stai creando una configurazione a livello di organizzazione, scegli gli account da includere nella configurazione: **Include all accounts in your configuration** (Includi tutti gli account nella configurazione) o **Limit the scope to your signed-in account** (Limita l'ambito al tuo account con accesso).
**Nota**  
Quando si crea una configurazione a livello di organizzazione che include tutti gli account, è possibile includere o escludere solo regioni e non bucket.

   1. Seleziona le regioni e i bucket da includere in o escludere dalla configurazione del pannello di controllo eseguendo le seguenti operazioni:
      + Per includere tutte le Regioni, seleziona **Include Regions and buckets (Includi Regioni e bucket)**.
      + Per includere Regioni specifiche, spunta **Include all regions (Includi tutte le Regioni)**. Sotto **Choose regions to include (Scegli le Regioni da includere)**, scegli le Regioni che desideri siano incluse nel pannello di controllo di S3 Storage Lens.
      + Per includere bucket specifici, spunta **Include all buckets (Includi tutti i bucket)**. Sotto **Choose buckets to include (Scegli i bucket da includere)**, scegli i bucket che desideri siano inclusi da S3 Storage Lens nel pannello di controllo. 
**Nota**  
Puoi scegliere fino a 50 bucket.

1. In **Metrics selection** (Selezione dei parametri), scegli **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati).

   Per ulteriori informazioni sui prezzi avanzati e parametri avanzati, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). 

1. In **Advanced metrics and recommendations features** (Parametri avanzati e funzioni di suggerimento), seleziona le opzioni da abilitare:
   + **Advanced metrics** (Parametri avanzati) 
   + **CloudWatch pubblicazione**
**Importante**  
Se abiliti l'aggregazione dei prefissi per la configurazione di S3 Storage Lens, le metriche a livello di prefisso non verranno pubblicate su. CloudWatch Vengono pubblicate solo le metriche di S3 Storage Lens a livello di bucket, account e organizzazione. CloudWatch
   + **Aggregazione di prefisso**
**Nota**  
Per ulteriori informazioni sui parametri avanzati e sulle funzioni di suggerimento, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Se hai abilitato **Advanced metrics** (Parametri avanzati), in **Advanced metrics categories** (Categorie parametri avanzati) seleziona le categorie che desideri visualizzare nel pannello di controllo di S3 Storage Lens:
   + **Parametri delle attività**
   + **Detailed status code metrics** (Parametri dettagliati codice di stato)
   + **Advanced cost optimization metrics** (Parametri avanzati ottimizzazione costi)
   + **Advanced data protection metrics** (Parametri avanzati protezione dati)

   Per ulteriori informazioni sulle categorie di parametri, consulta [Categorie di parametri](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

1. (Facoltativo) Configura l'esportazione dei parametri.

   Per ulteriori informazioni su come configurare l'esportazione dei parametri, consulta la sezione [Utilizzo della console S3](storage_lens_creating_dashboard.md#storage_lens_console_creating).

1. Seleziona **Crea pannello di controllo**.

## Utilizzando il AWS CLI
<a name="storage-lens-cloudwatch-enable-publish-cli"></a>

L' AWS CLI esempio seguente abilita l'opzione di CloudWatch pubblicazione utilizzando una configurazione di metriche e consigli avanzati a livello di organizzazione di S3 Storage Lens. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json

config.json
{
  "Id": "SampleS3StorageLensConfiguration",
  "AwsOrg": {
    "Arn": "arn:aws:organizations::123456789012:organization/o-abcdefgh"
  },
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "DetailedStatusCodesMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
        "IsEnabled":true
      },
      "AdvancedCostOptimizationMetrics": {
        "IsEnabled":true
      },
      "DetailedStatusCodesMetrics": {
        "IsEnabled":true
      },
      "PrefixLevel":{
        "StorageMetrics":{
          "IsEnabled":true,
          "SelectionCriteria":{
            "MaxDepth":5,
            "MinStorageBytesPercentage":1.25,
            "Delimiter":"/"
          }
        }
      }
    }
  },
  "Exclude": {
    "Regions": [
      "eu-west-1"
    ],
    "Buckets": [
      "arn:aws:s3:::amzn-s3-demo-source-bucket "
    ]
  },
  "IsEnabled": true,
  "DataExport": {
    "S3BucketDestination": {
      "OutputSchemaVersion": "V_1",
      "Format": "CSV",
      "AccountId": "111122223333",
      "Arn": "arn:aws:s3:::amzn-s3-demo-destination-bucket",
      "Prefix": "prefix-for-your-export-destination",
      "Encryption": {
        "SSES3": {}
      }
    },
    "CloudWatchMetrics": {
      "IsEnabled": true
    }
  }
}
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-cloudwatch-enable-publish-sdk"></a>

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.ActivityMetrics;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.CloudWatchMetrics;
import com.amazonaws.services.s3control.model.Format;
import com.amazonaws.services.s3control.model.Include;
import com.amazonaws.services.s3control.model.OutputSchemaVersion;
import com.amazonaws.services.s3control.model.PrefixLevel;
import com.amazonaws.services.s3control.model.PrefixLevelStorageMetrics;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.S3BucketDestination;
import com.amazonaws.services.s3control.model.SSES3;
import com.amazonaws.services.s3control.model.SelectionCriteria;
import com.amazonaws.services.s3control.model.StorageLensAwsOrg;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensDataExport;
import com.amazonaws.services.s3control.model.StorageLensDataExportEncryption;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateAndUpdateDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "Source Account ID";
        String exportAccountId = "Destination Account ID";
        String exportBucketArn = "arn:aws:s3:::amzn-s3-demo-destination-bucket"; // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration.
        String awsOrgARN = "arn:aws:organizations::123456789012:organization/o-abcdefgh";
        Format exportFormat = Format.CSV;

        try {
            SelectionCriteria selectionCriteria = new SelectionCriteria()
                    .withDelimiter("/")
                    .withMaxDepth(5)
                    .withMinStorageBytesPercentage(10.0);
            PrefixLevelStorageMetrics prefixStorageMetrics = new PrefixLevelStorageMetrics()
                    .withIsEnabled(true)
                    .withSelectionCriteria(selectionCriteria);
            BucketLevel bucketLevel = new BucketLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withAdvancedCostOptimizationMetrics(new AdvancedCostOptimizationMetrics().withIsEnabled(true))
                    .withAdvancedDataProtectionMetrics(new AdvancedDataProtectionMetrics().withIsEnabled(true))
                    .withDetailedStatusCodesMetrics(new DetailedStatusCodesMetrics().withIsEnabled(true))
                    .withPrefixLevel(new PrefixLevel().withStorageMetrics(prefixStorageMetrics));
            AccountLevel accountLevel = new AccountLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withAdvancedCostOptimizationMetrics(new AdvancedCostOptimizationMetrics().withIsEnabled(true))
                    .withAdvancedDataProtectionMetrics(new AdvancedDataProtectionMetrics().withIsEnabled(true))
                    .withDetailedStatusCodesMetrics(new DetailedStatusCodesMetrics().withIsEnabled(true))
                    .withBucketLevel(bucketLevel);

            Include include = new Include()
                    .withBuckets(Arrays.asList("arn:aws:s3:::amzn-s3-demo-bucket"))
                    .withRegions(Arrays.asList("us-west-2"));

            StorageLensDataExportEncryption exportEncryption = new StorageLensDataExportEncryption()
                    .withSSES3(new SSES3());
            S3BucketDestination s3BucketDestination = new S3BucketDestination()
                    .withAccountId(exportAccountId)
                    .withArn(exportBucketArn)
                    .withEncryption(exportEncryption)
                    .withFormat(exportFormat)
                    .withOutputSchemaVersion(OutputSchemaVersion.V_1)
                    .withPrefix("Prefix");
            CloudWatchMetrics cloudWatchMetrics = new CloudWatchMetrics()
                    .withIsEnabled(true);
            StorageLensDataExport dataExport = new StorageLensDataExport()
                    .withCloudWatchMetrics(cloudWatchMetrics)
                    .withS3BucketDestination(s3BucketDestination);

            StorageLensAwsOrg awsOrg = new StorageLensAwsOrg()
                    .withArn(awsOrgARN);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withInclude(include)
                    .withDataExport(dataExport)
                    .withAwsOrg(awsOrg)
                    .withIsEnabled(true);

            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

## Utilizzo della REST API
<a name="storage-lens-cloudwatch-enable-publish-api"></a>

Per abilitare l'opzione di CloudWatch pubblicazione utilizzando l'API REST di Amazon S3, puoi utilizzare. [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutStorageLensConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutStorageLensConfiguration.html)

**Fasi successive**  
Dopo aver abilitato l'opzione di CloudWatch pubblicazione, puoi accedere ai parametri di S3 Storage Lens in. CloudWatch Puoi anche sfruttare CloudWatch le funzionalità per monitorare e analizzare i dati di S3 Storage Lens in. CloudWatch Per ulteriori informazioni, consulta i seguenti argomenti:
+ [Dimensioni e parametri di S3 Storage Lens](storage-lens-cloudwatch-metrics-dimensions.md)
+ [Utilizzo delle metriche di S3 Storage Lens in CloudWatch](storage-lens-cloudwatch-monitoring-cloudwatch.md)

# Utilizzo delle metriche di S3 Storage Lens in CloudWatch
<a name="storage-lens-cloudwatch-monitoring-cloudwatch"></a>

[Puoi pubblicare i parametri di S3 Storage Lens su Amazon CloudWatch per creare una visione unificata dello stato operativo nei dashboard. CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) Puoi anche utilizzare CloudWatch funzionalità, come allarmi e azioni attivate, calcoli metrici e rilevamento delle anomalie, per monitorare e agire in base ai parametri di S3 Storage Lens. Inoltre, le operazioni CloudWatch API consentono alle applicazioni, inclusi i provider di terze parti, di accedere alle metriche di S3 Storage Lens. Per ulteriori informazioni sulle CloudWatch funzionalità, consulta la [Amazon CloudWatch User Guide](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

Puoi abilitare l'opzione di CloudWatch pubblicazione per configurazioni di dashboard nuove o esistenti utilizzando la console Amazon S3, Amazon S3 REST e. APIs AWS CLI AWS SDKs L'opzione di CloudWatch pubblicazione è disponibile per i dashboard aggiornati ai parametri e ai consigli avanzati di S3 Storage Lens. Per i prezzi relativi all'opzione Advanced metrics and recommendations (Parametri e suggerimenti avanzati), consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/). Non sono previsti costi aggiuntivi per la pubblicazione CloudWatch delle metriche; tuttavia, si applicano altri CloudWatch costi, come dashboard, allarmi e chiamate API. Per ulteriori informazioni, consulta i [ CloudWatch prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). 

Le metriche di S3 Storage Lens sono pubblicate CloudWatch nell'account che possiede la configurazione S3 Storage Lens. Dopo aver abilitato l'opzione di CloudWatch pubblicazione all'interno delle metriche avanzate, puoi accedere alle metriche a livello di account e di bucket in base all'ID di configurazione, all'account, al bucket (solo per le metriche a livello di bucket), alla regione e alla classe di archiviazione in. CloudWatch Le CloudWatch metriche a livello di prefisso non sono disponibili in.

**Nota**  
Le metriche di S3 Storage Lens sono metriche giornaliere e vengono pubblicate una volta al giorno. CloudWatch Quando esegui una query sulle metriche di S3 Storage Lens in CloudWatch, il periodo per la query deve essere di 1 giorno (86400 secondi). Dopo che i parametri giornalieri di S3 Storage Lens vengono visualizzati nella dashboard di S3 Storage Lens nella console Amazon S3, possono essere necessarie alcune ore prima che questi stessi parametri vengano visualizzati. CloudWatch Quando abiliti l'opzione di CloudWatch pubblicazione per le metriche di S3 Storage Lens per la prima volta, possono essere necessarie fino a 24 ore prima che le metriche vengano pubblicate. CloudWatch   
Attualmente, le metriche di S3 Storage Lens non possono essere utilizzate attraverso gli stream. CloudWatch 

Per ulteriori informazioni sull'utilizzo delle metriche di S3 Storage Lens in CloudWatch, consulta i seguenti argomenti.

**Topics**
+ [

## Lavorare con i dashboard CloudWatch
](#storage-lens-cloudwatch-monitoring-cloudwatch-dashboards)
+ [

## Impostazione di allarmi, attivazione di azioni e utilizzo del rilevamento delle anomalie
](#storage-lens-cloudwatch-monitoring-cloudwatch-alarms)
+ [

## Filtraggio dei parametri utilizzando le dimensioni
](#storage-lens-cloudwatch-monitoring-cloudwatch-dimensions)
+ [

## Calcolo di nuovi parametri con matematica dei parametri
](#storage-lens-cloudwatch-monitoring-cloudwatch-metric-math)
+ [

## Utilizzo delle espressioni di ricerca nei grafici
](#storage-lens-cloudwatch-monitoring-cloudwatch-search-expressions)

## Lavorare con i dashboard CloudWatch
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-dashboards"></a>

Puoi utilizzare i CloudWatch dashboard per monitorare le metriche di S3 Storage Lens insieme ad altre metriche delle applicazioni e creare una visione unificata dello stato operativo. I dashboard sono home page personalizzabili della CloudWatch console che puoi utilizzare per monitorare le risorse in un'unica visualizzazione. 

CloudWatch dispone di un ampio controllo delle autorizzazioni che non supporta la limitazione dell'accesso a un set specifico di metriche o dimensioni. Gli utenti del tuo account o della tua organizzazione che hanno accesso a CloudWatch avranno accesso alle metriche per tutte le configurazioni di S3 Storage Lens in cui è abilitata l'opzione di supporto. CloudWatch Non è possibile gestire autorizzazioni per pannelli di controllo specifici come è possibile in S3 Storage Lens. Per ulteriori informazioni sulle CloudWatch autorizzazioni, consulta [Gestire le autorizzazioni di accesso alle tue CloudWatch risorse](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/iam-access-control-overview-cw.html) nella *Amazon CloudWatch User Guide*.

*Per ulteriori informazioni sull'uso delle CloudWatch dashboard e sulla configurazione delle autorizzazioni, consulta Using [Amazon CloudWatch dashboard e [Sharing CloudWatch dashboard](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch-dashboard-sharing.html)](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) nella Amazon User Guide. CloudWatch *

## Impostazione di allarmi, attivazione di azioni e utilizzo del rilevamento delle anomalie
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-alarms"></a>

Puoi configurare CloudWatch allarmi che controllano le metriche di S3 Storage Lens CloudWatch e agire quando viene superata una soglia. Ad esempio, è possibile configurare un allarme che invia una notifica di Amazon SNS quando il valore del parametro **Incomplete Multipart Upload Bytes** (Byte caricamenti in più parti incompleti) supera 1 GB per tre giorni consecutivi.

È inoltre possibile abilitare il rilevamento delle anomalie per analizzare continuamente i parametri di S3 Storage Lens, determinare le normali linee di base e le anomalie superficiali. Puoi creare allarmi di rilevamento delle anomalie basati sul valore previsto di un parametro. Ad esempio, è possibile monitorare le anomalie del parametro **Object Lock Enabled Bytes** (Byte con blocco oggetti abilitato) per rilevare una rimozione non autorizzata delle impostazioni di Blocco oggetti.

Per ulteriori informazioni ed esempi, consulta [Using Amazon CloudWatch alarms](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) e [Creazione di un allarme da una metrica su un grafico](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create_alarm_metric_graph.html) nella *Amazon CloudWatch User* Guide.

## Filtraggio dei parametri utilizzando le dimensioni
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-dimensions"></a>

Puoi utilizzare le dimensioni per filtrare i parametri di S3 Storage Lens nella console. CloudWatch Ad esempio, è possibile filtrare per `configuration_id`, `aws_account_number`, `aws_region`, `bucket_name` e altri.

S3 Storage Lens supporta più configurazioni di pannello di controllo per account. Ciò significa che diverse configurazioni possono includere lo stesso bucket. Quando queste metriche vengono pubblicate su CloudWatch, il bucket conterrà metriche duplicate all'interno. CloudWatch Per visualizzare le metriche solo per una configurazione specifica di S3 Storage Lens in CloudWatch, puoi utilizzare la dimensione. `configuration_id` Quando si filtra per `configuration_id`, vengono visualizzati solo i parametri associati alla configurazione identificata.

Per ulteriori informazioni sul filtraggio in base all'ID di configurazione, consulta [Searching for available metrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/finding_metrics_with_cloudwatch.html) nella *Amazon CloudWatch User Guide*.

## Calcolo di nuovi parametri con matematica dei parametri
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-metric-math"></a>

La matematica dei parametri permette di eseguire query di più parametri S3 Storage Lens e di utilizzare espressioni matematiche per creare nuove serie temporali in base a tali parametri. Ad esempio, è possibile creare un nuovo parametro per oggetti non crittografati sottraendo oggetti crittografati dal Conteggio oggetti. È inoltre possibile creare un parametro per ottenere la dimensione media dell'oggetto dividendo `StorageBytes` per `ObjectCount`, o i byte numerici a cui si accede in un giorno dividendo `BytesDownloaded` per `StorageBytes`.

Per ulteriori informazioni, consulta [Using metric Math](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html) nella *Amazon CloudWatch User Guide*.

## Utilizzo delle espressioni di ricerca nei grafici
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-search-expressions"></a>

Con i parametri di S3 Storage Lens, puoi creare un'espressione di ricerca. Ad esempio, puoi creare un'espressione di ricerca per tutte le metriche denominate **IncompleteMultipartUploadStorageBytes**e aggiungerle `SUM` all'espressione. Con questa espressione di ricerca, è possibile visualizzare il valore del parametro Incomplete Multipart Upload Bytes (Byte caricamenti in più parti incompleti) per tutte le dimensioni dell'archiviazione in un unico parametro.

Questo esempio mostra la sintassi da utilizzare per creare un'espressione di ricerca per tutte le metriche denominate. **IncompleteMultipartUploadStorageBytes**

```
SUM(SEARCH('{AWS/S3/Storage-Lens,aws_account_number,aws_region,configuration_id,metrics_version,record_type,storage_class} MetricName="IncompleteMultipartUploadStorageBytes"', 'Average',86400))
```

Per ulteriori informazioni su questa sintassi, consulta la [sintassi delle espressioni di CloudWatch ricerca](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/search-expression-syntax.html) nella *Amazon CloudWatch User Guide*. Per creare un CloudWatch grafico con un'espressione di ricerca, consulta [Creazione di un CloudWatch grafico con un'espressione di ricerca](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create-search-expression.html) nella *Amazon CloudWatch User Guide*.

# Casi d'uso relativi ai parametri di Amazon S3 Storage Lens
<a name="storage-lens-use-cases"></a>

Puoi utilizzare il pannello di controllo di Amazon S3 Storage Lens per visualizzare informazioni dettagliate e tendenze, contrassegnare le anomalie e ricevere suggerimenti. I parametri di S3 Storage Lens sono organizzati in categorie conformi ai principali casi di utilizzo. Puoi utilizzare questi parametri per effettuare le seguenti operazioni: 
+ Individuare le opportunità di ottimizzazione dei costi
+ Applicare le best practice per la protezione dei dati
+ Applica le best practice per la gestione degli accessi
+ Migliorare le prestazioni dei carichi di lavoro delle applicazioni

Ad esempio, con i parametri relativi alla ottimizzazione dei costi, è possibile individuare le opportunità di riduzione dei costi di archiviazione di Amazon S3. Puoi individuare i bucket con caricamenti in più parti che risalgono a più di 7 giorni o i bucket che accumulano versioni non correnti.

Allo stesso modo, puoi utilizzare i parametri relativi alla protezione dei dati per individuare i bucket non conformi alle best practice di protezione dei dati all'interno dell'organizzazione. Ad esempio, puoi identificare i bucket che non utilizzano AWS Key Management Service chiavi (SSE-KMS) per la crittografia predefinita o che non hanno S3 Versioning abilitato. 

Con le metriche di gestione degli accessi di S3 Storage Lens, puoi identificare le impostazioni dei bucket per S3 Object Ownership in modo da poter migrare le autorizzazioni della lista di controllo degli accessi (ACL) alle policy dei bucket e disabilitarle. ACLs

Se hai abilitato l'opzione [Advanced metrics (Parametri avanzati) di S3 Storage Lens](storage_lens_basics_metrics_recommendations.md), puoi utilizzare i parametri dei codici di stato dettagliati per ottenere i numeri delle richieste riuscite o non riuscite per la risoluzione dei problemi relativi ad accessi e prestazioni. 

Con i parametri avanzati, puoi anche accedere a parametri aggiuntivi relativi all'ottimizzazione dei costi e alla protezione dei dati che puoi utilizzare per individuare le opportunità per ridurre ulteriormente i costi complessivi dell'archiviazione S3 e allinearti meglio alle best practice per la protezione dei dati. Ad esempio, i parametri avanzati relativi all'ottimizzazione dei costi includono i conteggi delle regole del ciclo di vita che puoi utilizzare per identificare i bucket senza regole del ciclo di vita per far scadere i caricamenti in più parti incompleti che risalgono a più di 7 giorni. I parametri avanzati relativi alla protezione dei dati includono il conteggio delle regole di replica.

Per ulteriori informazioni sulle categorie di parametri, consulta [Categorie di parametri](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Per un elenco completo dei parametri di S3 Storage Lens, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

**Topics**
+ [

# Utilizzo di Amazon S3 Storage Lens per ottimizzare i costi di archiviazione
](storage-lens-optimize-storage.md)
+ [

# Utilizzo di S3 Storage Lens per proteggere i tuoi dati
](storage-lens-data-protection.md)
+ [

# Utilizzo di S3 Storage Lens per controllare le impostazioni di Object Ownership
](storage-lens-access-management.md)
+ [

# Utilizzo dei parametri di S3 Storage Lens per migliorare le prestazioni
](storage-lens-detailed-status-code.md)

# Utilizzo di Amazon S3 Storage Lens per ottimizzare i costi di archiviazione
<a name="storage-lens-optimize-storage"></a>

Puoi utilizzare i parametri di ottimizzazione dei costi di S3 Storage Lens per ridurre il costo complessivo dell'archiviazione S3. I parametri di ottimizzazione dei costi possono aiutarti a confermare di aver configurato Amazon S3 in modo conveniente e in modo conforme alle best practice. Ad esempio, è possibile individuare le seguenti opportunità di ottimizzazione dei costi: 
+ Bucket con caricamenti in più parti incompleti più vecchi di 7 giorni
+ Bucket che accumulano numerose versioni non correnti
+ Bucket che non hanno regole del ciclo di vita per l'interruzione dei caricamenti in più parti incompleti
+ Bucket che non dispongono di regole del ciclo di vita per far scadere gli oggetti delle versioni non correnti
+ Bucket che non dispongono di regole del ciclo di vita per trasferire gli oggetti a una classe di archiviazione diversa

È quindi possibile utilizzare questi dati per aggiungere ulteriori regole del ciclo di vita ai bucket. 

Di seguito sono riportati esempi che mostrano come utilizzare i parametri di ottimizzazione dei costi nel pannello di controllo di S3 Storage Lens per ottimizzare i costi di archiviazione.

**Topics**
+ [

## Identificare i bucket S3 più grandi
](#identify-largest-s3-buckets)
+ [

## Scoperta dei bucket Amazon S3 freddi
](#uncover-cold-buckets)
+ [

## Individuazione di caricamenti in più parti incompleti
](#locate-incomplete-mpu)
+ [

## Riduzione del numero di versioni non correnti conservate
](#reduce-noncurrent-versions-retained)
+ [

## Identificare i bucket senza regole del ciclo di vita ed esaminare i conteggi delle regole del ciclo di vita
](#identify-missing-lifecycle-rules)

## Identificare i bucket S3 più grandi
<a name="identify-largest-s3-buckets"></a>

L'archiviazione degli oggetti nei bucket S3 è a pagamento. La tariffa che ti viene addebitata dipende dalle dimensioni degli oggetti, dalla durata di archiviazione degli oggetti e dalle relative classi di archiviazione. Con S3 Storage Lens, ottieni una vista centralizzata di tutti i bucket nel tuo account. Per visualizzare tutti i bucket in tutti gli account della tua organizzazione, puoi configurare una dashboard S3 Storage Lens a livello. AWS Organizations Da questa vista del pannello di controllo è possibile identificare i bucket più grandi.

### Fase 1: identificare i bucket più grandi
<a name="optimize-storage-identify-largest-buckets"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

   Quando il pannello di controllo si apre, puoi vedere l'ultima data in cui S3 Storage Lens ha raccolto i parametri. Il pannello di controllo viene sempre caricato alla data più recente per la quale sono disponibili i parametri.

1. Per visualizzare una classifica dei bucket più grandi in base al parametro **Total storage** (Archiviazione totale) per un intervallo di date selezionato, scorri verso il basso fino alla sezione **Top N overview for *date*** (Panoramica primi N per [data]).

   È possibile modificare l'ordinamento per mostrare i bucket più piccoli. Puoi anche modificare la selezione in **Metric** (Parametro) per classificare i tuoi bucket in base a uno qualsiasi dei parametri disponibili. La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati.
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Per informazioni più dettagliate sui bucket, scorri fino alla parte superiore della pagina, quindi scegli la scheda **Bucket**. 

   Nella scheda **Bucket** è possibile visualizzare dettagli quali il tasso di crescita recente, la dimensione media dell'oggetto, i prefissi più grandi e il numero di oggetti.

### Fase 2: accedere ai bucket e analizzare
<a name="optimize-storage-investigate"></a>

Per i bucket S3 più grandi, è quindi possibile passare a ciascun bucket all'interno della console S3 per analizzare i relativi oggetti e il carico di lavoro associato o per identificarne i proprietari interni. Puoi contattare i proprietari del bucket per scoprire se questa crescita è prevista o se necessita di ulteriore monitoraggio e controllo.

## Scoperta dei bucket Amazon S3 freddi
<a name="uncover-cold-buckets"></a>

Se hai l’opzione [Parametri avanzati di S3 Storage Lens](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection)abilitata, puoi utilizzare i [parametri delle attività](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types) per capire quanto sono freddi i tuoi bucket S3. Un bucket "freddo" è un bucket il cui spazio di archiviazione non è più utilizzato o è utilizzato molto raramente. Questa mancanza di attività indica in genere che gli oggetti del bucket non vengono utilizzati frequentemente. 

Parametri di attività, quali **Richieste GET** e **Byte di download**, indicano la frequenza di accesso ai tuoi bucket ogni giorno. Per comprendere la coerenza del modello di accesso e individuare i bucket a cui non si accede più, è possibile seguire l'andamento di questi dati per diversi mesi. Il parametro **Tasso di recupero**, che viene calcolato come **Byte di download/Spazio di archiviazione totale**, indica la proporzione di spazio di archiviazione in un bucket a cui si accede quotidianamente.

**Nota**  
I byte di download vengono duplicati nei casi in cui lo stesso oggetto venga scaricato più volte durante il giorno.

**Prerequisito**  
Per visualizzare i parametri relativi alle attività nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Activity metrics** (Parametri attività). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

### Fase 1: identificare i bucket attivi
<a name="storage-lens-identify-active-buckets"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Seleziona la scheda **Bucket** e scorri verso il basso fino alla sezione grafici **Bubble analysis by buckets for *date*** (Analisi a bolle per bucket per [data]).

   Nella sezione **Grafico a bolle per bucket per *data***, è possibile tracciare i bucket su più dimensioni utilizzando tre metriche per rappresentare l’**asse X**, l’**asse Y** e la **dimensione** della bolla. 

1. Per trovare i bucket freddi, per l’**asse X**, l’**asse Y** e la **dimensione**, scegli i parametri **Storage totale**, **% frequenza recupero** e **Dimensione media dell’oggetto**.

1. Nella sezione **Bubble analysis by buckets for *date*** (Analisi a bolle per bucket per [data]), individua tutti i bucket con frequenze di recupero pari a zero (o vicino a zero) e una dimensione di archiviazione relativa maggiore e quindi scegli la bolla che rappresenta il bucket. 

   Apparirà un riquadro con le scelte per visualizzare informazioni dettagliate più granulari. Esegui una delle seguenti operazioni:

   1. Per aggiornare la scheda **Bucket** in modo da visualizzare i parametri solo per il bucket selezionato, scegli **Drill down** (Esegui drill-down), quindi scegli **Apply** (Applica). 

   1. **Per aggregare i dati a livello di bucket in base all'account Regione AWS, alla classe di archiviazione o al bucket, scegli **Analizza per** e poi scegli Dimension.** Ad esempio, per eseguire l'aggregazione per classe di archiviazione, scegli **Storage class** (Classe di archiviazione) in **Dimension** (Dimensione).

   Per trovare i bucket che si sono raffreddati, esegui un'analisi delle bolle utilizzando i parametri **Archiviazione totale**, **% tasso di recupero** e **Dimensione media degli oggetti**. Cerca tutti i bucket con tasso di recupero pari a zero (o vicino a zero) e una dimensione di archiviazione relativa maggiore. 

   La scheda **Bucket** del pannello di controllo viene aggiornata con i dati per l'aggregazione o il filtro selezionato. Se hai effettuato l'aggregazione per classe di archiviazione o un'altra dimensione, la nuova scheda, ad esempio la scheda **Storage class** (Classe di archiviazione), si apre nel pannello di controllo. 

### Fase 2: analizzare i bucket freddi
<a name="storage-lens-investigate-buckets"></a>

Da qui è possibile identificare i proprietari del bucket freddi nel tuo account o nella tua organizzazione e scoprire se lo spazio di archiviazione è ancora necessario. È quindi possibile ottimizzare i costi impostando le [configurazioni della scadenza del ciclo di vita](object-lifecycle-mgmt.md) per i bucket o archiviando i dati in una delle [classi di archiviazione Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html). 

Per evitare il problema dei bucket freddi, è possibile [eseguire una transizione automatica dei dati utilizzando le configurazioni del ciclo di vita S3](lifecycle-configuration-examples.md) per i tuoi bucket oppure puoi abilitare l'[archiviazione automatica con Piano intelligente Amazon S3](archived-objects.md).

È inoltre possibile utilizzare la fase 1 per identificare i bucket "caldi". Quindi, puoi assicurarti che questi bucket utilizzino la [classe di archiviazione S3](storage-class-intro.md) corretta per garantire che soddisfino le loro richieste nel modo più efficace in termini di prestazioni e costi.

## Individuazione di caricamenti in più parti incompleti
<a name="locate-incomplete-mpu"></a>

Puoi utilizzare caricamenti in più parti per caricare oggetti di grandi dimensioni (fino a 50 TB) come set di componenti per migliorare la velocità di trasmissione e ripristinare più rapidamente i problemi di rete. Nei casi in cui il processo di caricamento in più parti non venga portato a termine, le parti incomplete rimangono nel bucket (in uno stato inutilizzabile). Queste parti incomplete comportano costi di archiviazione fino al termine del processo di caricamento o fino alla rimozione delle parti incomplete. Per ulteriori informazioni, consulta [Caricamento e copia di oggetti utilizzando il caricamento multiparte in Amazon S3](mpuoverview.md).

Con S3 Storage Lens, puoi identificare il numero di byte di un caricamento in più parti incompleto nel tuo account o nell'intera organizzazione, compresi i caricamenti in più parti incompleti che risalgono a più di 7 giorni. Per un elenco completo dei parametri relativi ai caricamenti in più parti incompleti, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md). 

Come best practice, consigliamo di configurare le regole del ciclo di vita per far scadere i caricamenti in più parti incompleti più vecchi di un determinato numero di giorni. Quando crei la regola del ciclo di vita per far scadere i caricamenti in più parti incompleti, consigliamo il valore di 7 giorni come buon punto di partenza. 

### Fase 1: esaminare le tendenze generali relative ai caricamenti incompleti in più parti
<a name="locate-incomplete-mpu-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Nella sezione **Snapshot for *date*** (Snapshot per [data]), in **Metrics categories** (Categorie parametri), scegli **Cost optimization** (Ottimizzazione costi).

   La sezione **Snapshot for *date*** (Snapshot per [data]) viene aggiornata per visualizzare i parametri **Cost optimization** (Ottimizzazione costi), che includono **Incomplete multipart upload bytes greater than 7 days old** (Byte caricamenti in più parti incompleti risalenti a più di 7 giorni). 

   In tutti i grafici del pannello di controllo di S3 Storage Lens, puoi vedere i parametri relativi ai caricamenti in più parti incompleti. Puoi utilizzare questi parametri per valutare ulteriormente l'impatto dei byte dei caricamenti in più parti incompleti nell'archiviazione, incluso il loro contributo alle tendenze generali di crescita. Puoi anche eseguire il drill-down sui livelli di aggregazione in dettaglio utilizzando le schede **Account**, **Regione AWS**, **Bucket** o **Classe di archiviazione** per un’analisi più approfondita dei dati. Per vedere un esempio, consulta [Scoperta dei bucket Amazon S3 freddi](#uncover-cold-buckets).

### Fase 2: identificare i bucket con i byte di caricamento in più parti più incompleti, ma che non dispongono di regole del ciclo di vita per interrompere i caricamenti in più parti incompleti
<a name="locate-incomplete-mpu-step2"></a>

**Prerequisito**  
Per visualizzare il parametro **Abort incomplete multipart upload lifecycle rule count** (Conteggio regole ciclo di vita interruzione caricamenti in più parti incompleti) nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Advanced cost optimization metrics** (Parametri avanzati ottimizzazione costi). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Per identificare i bucket specifici che accumulano caricamenti in più parti incompleti risalenti a più di 7 giorni, vai alla sezione **Top N overview for *date*** (Panoramica primi N per [data]). 

   Per impostazione predefinita, la sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra i parametri per i primi 3 bucket. È possibile aumentare o diminuire il numero di bucket nel campo **Top N** (Primi N). La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati. 
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. In **Metric** (Parametro), scegli **Incomplete multipart upload bytes greater than 7 days old** (Byte caricamenti in più parti incompleti risalenti a più di 7 giorni) nella categoria **Cost optimization** (Ottimizzazione costi).

   Nella sezione **Top *number* buckets** (Primi [numero] bucket), puoi visualizzare i bucket con i byte di archiviazione per caricamenti in più parti incompleti che risalgono a più di 7 giorni.

1. Per visualizzare i parametri più dettagliati a livello di bucket per i caricamenti in più parti incompleti, scorri fino alla parte superiore della pagina, quindi scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), seleziona **Cost optimization** (Ottimizzazione dei costi). Quindi deseleziona **Summary** (Riepilogo).

   L'elenco **Buckets** (Bucket) viene aggiornato per visualizzare tutti i parametri di **ottimizzazione dei costi** disponibili per i bucket visualizzati. 

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri relativi all'ottimizzazione dei costi, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri per l'ottimizzazione dei costi e lascia selezionati solo i parametri **Incomplete multipart upload bytes greater than 7 days old** (Byte caricamenti in più parti incompleti risalenti a più di 7 giorni) e **Abort incomplete multipart upload lifecycle rule count** (Conteggio regole ciclo di vita interruzione caricamenti in più parti incompleti). 

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

   L'elenco **Buckets** (Bucket) viene aggiornato con i parametri a livello di bucket per i conteggi dei caricamenti in più parti incompleti e per le regole del ciclo di vita. Puoi utilizzare questi dati per identificare i bucket con i byte di caricamenti in più parti più incompleti che risalgono a più di 7 giorni e che non presentano regole del ciclo di vita per interrompere i caricamenti in più parti incompleti. Quindi, puoi passare a questi bucket nella console S3 e aggiungere regole del ciclo di vita per eliminare i caricamenti in più parti incompleti abbandonati.

### Fase 3: aggiungere una regola del ciclo di vita per eliminare i caricamenti in più parti incompleti dopo 7 giorni
<a name="locate-incomplete-mpu-step3"></a>

Per gestire automaticamente i caricamenti in più parti incompleti, è possibile utilizzare la console S3 per creare una configurazione del ciclo di vita per far scadere byte di caricamenti in più parti incompleti da un bucket dopo un determinato numero di giorni. Per ulteriori informazioni, consulta [Configurazione del ciclo di vita del bucket per l'eliminazione dei caricamenti in più parti incompleti](mpu-abort-incomplete-mpu-lifecycle-config.md).

## Riduzione del numero di versioni non correnti conservate
<a name="reduce-noncurrent-versions-retained"></a>

Se attivata, la funzionalità S3 di controllo delle versioni conserva più versioni dello stesso oggetto; tali versioni possono essere utilizzate per recuperare rapidamente i dati nel caso in cui un oggetto venga eliminato o sovrascritto accidentalmente. Se hai abilitato funzionalità S3 di controllo delle versioni senza configurare le regole del ciclo di vita per la transizione o la scadenza delle versioni non correnti, può accumularsi un gran numero di versioni precedenti non correnti, con ripercussioni sui costi di archiviazione. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md).

### Fase 1: identificare i bucket con il maggior numero di versioni di oggetti non correnti
<a name="reduce-noncurrent-versions-retained-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Nella sezione **Snapshot for *date*** (Snapshot per [data]), in **Metric categories** (Categorie parametri), scegli **Cost optimization** (Ottimizzazione costi).

   La sezione **Snapshot for *date*** (Snapshot per [data]) viene aggiornata per visualizzare i parametri **Cost optimization** (Ottimizzazione costi), che includono il parametro **% noncurrent version bytes** (% byte versioni non correnti). Il parametro **% noncurrent version bytes** (% byte versioni non correnti) rappresenta la proporzione dei byte di archiviazione totali attribuita alle versioni non correnti nell'ambito del pannello di controllo e per la data selezionata.
**Nota**  
Se il valore del parametro **% noncurrent version bytes** (% byte versioni non correnti) è maggiore del 10% dell'archiviazione a livello di account, ciò può indicare che stai archiviando troppe versioni di oggetti.

1. Per identificare i bucket specifici che accumulano un numero elevato di versioni non correnti:

   1. Scorri verso il basso fino alla sezione **Top N overview for *date*** (Panoramica primi N per [data]). In **Top N** (Primi N), inserisci il numero di bucket per i quali desideri visualizzare i dati. 

   1. In **Metric** (Parametro), scegli **% noncurrent version bytes** (% byte versioni non correnti).

      In **Top *number* buckets** (Primi [numero] bucket), puoi visualizzare i bucket (per il numero specificato) con il valore più alto del parametro **% noncurrent version bytes** (% byte versioni non correnti). La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati. 
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

   1. Per visualizzare i parametri più dettagliati a livello di bucket per le versioni di oggetti non correnti, scorri fino alla parte superiore della pagina, quindi scegli la scheda **Bucket**.

      In qualsiasi grafico o visualizzazione della dashboard S3 Storage Lens, puoi approfondire i livelli di aggregazione utilizzando le schede **Account**, **Regione AWS**, **Classe di archiviazione** o **Bucket**. Per vedere un esempio, consulta [Scoperta dei bucket Amazon S3 freddi](#uncover-cold-buckets).

   1. Nella sezione **Buckets** (Bucket), in **Metric categories** (Categorie parametri), seleziona **Cost optimization** (Ottimizzazione dei costi). Quindi seleziona **Summary** (Riepilogo). 

      A questo punto puoi visualizzare il parametro **% noncurrent version bytes** (% byte versioni non correnti), insieme ad altri parametri relativi alle versioni non correnti.

### Fase 2: identificare i bucket privi di regole del ciclo di vita di transizione e scadenza per la gestione delle versioni non correnti
<a name="reduce-noncurrent-versions-retained-step2"></a>

**Prerequisito**  
Per visualizzare i parametri **Noncurrent version transition lifecycle rule count** (Conteggio regole ciclo di vita transizioni versione non corrente) e **Noncurrent version expiration lifecycle rule count** (Conteggio regole ciclo di vita scadenza versione non corrente) nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Advanced cost optimization metrics** (Parametri avanzati ottimizzazione costi). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Nel pannello di controllo di Storage Lens, scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), seleziona **Cost optimization** (Ottimizzazione dei costi). Quindi deseleziona **Summary** (Riepilogo).

   L'elenco **Buckets** (Bucket) viene aggiornato per visualizzare tutti i parametri di **ottimizzazione dei costi** disponibili per i bucket visualizzati. 

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri relativi all'ottimizzazione dei costi, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri di ottimizzazione dei costi finché non rimangono selezionati solo i seguenti parametri:
   + **% noncurrent version bytes** (% byte versioni non correnti)
   + **Noncurrent version transition lifecycle rule count** (Conteggio regole ciclo di vita transizione versioni non correnti)
   + **Noncurrent version expiration lifecycle rule count** (Conteggio regole ciclo di vita scadenza versioni non correnti)

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

   L'elenco **Buckets** (Bucket) viene aggiornato con i parametri relativi ai byte di versioni non correnti e ai conteggi delle regole del ciclo di vita delle versioni non correnti. È possibile utilizzare questi dati per identificare i bucket che hanno un'alta percentuale di byte di versioni non correnti, ma sono privi di regole del ciclo di vita di transizione e scadenza. Quindi, puoi accedere a questi bucket nella console S3 e aggiungervi regole del ciclo di vita.

### Fase 3: aggiungere regole del ciclo di vita per eseguire la transizione o la scadenza delle versioni degli oggetti non correnti
<a name="reduce-noncurrent-versions-retained-step3"></a>

Dopo aver determinato quali bucket richiedono ulteriori indagini, puoi passare ai bucket all'interno della console S3 e aggiungere una regola del ciclo di vita per far scadere le versioni non correnti dopo un numero specificato di giorni. In alternativa, per ridurre i costi pur mantenendo le versioni non correnti, puoi configurare una regola del ciclo di vita per trasferire le versioni non correnti a una delle classi di storage. Amazon Glacier Per ulteriori informazioni, consulta [Specifica di una regola del ciclo di vita per un bucket che supporta la funzionalità Controllo delle versioni](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex6). 

## Identificare i bucket senza regole del ciclo di vita ed esaminare i conteggi delle regole del ciclo di vita
<a name="identify-missing-lifecycle-rules"></a>

S3 Storage Lens fornisce parametri relativi al numero di regole del ciclo di vita S3 che puoi utilizzare per identificare i bucket senza regole del ciclo di vita. Per trovare i bucket senza regole del ciclo di vita, puoi utilizzare il parametro **Total buckets without lifecycle rules** (Totale bucket senza regole ciclo di vita). Un bucket senza una configurazione S3 del ciclo di vita potrebbe disporre di un'archiviazione non più necessaria o che può essere trasferita a una classe di archiviazione a basso costo. Puoi anche utilizzare i parametri relativi al conteggio delle regole del ciclo di vita per identificare i bucket senza tipi specifici di regole del ciclo di vita, come le regole di scadenza o di transizione.

**Prerequisito**  
Per visualizzare i parametri relativi ai conteggi delle regole ciclo di vita e il parametro **Total buckets without lifecycle rules** (Totale bucket senza regole ciclo di vita) nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Advanced cost optimization metrics** (Parametri avanzati ottimizzazione costi). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

### Fase 1: identificare i bucket senza regole del ciclo di vita
<a name="identify-missing-lifecycle-rules-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Per identificare i bucket specifici senza regole del ciclo di vita, scorri verso il basso fino alla sezione **Top N overview for *date*** (Panoramica primi N per [data]).

   Per impostazione predefinita, la sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra i parametri per i primi 3 bucket. Nel campo **Top N** (Primi N) è possibile aumentare il numero di bucket. La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati. 
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. In **Metric** (Parametro), scegli **Total buckets without lifecycle rules** (Totale bucket senza regole ciclo di vita) nella categoria **Cost optimization** (Ottimizzazione costi).

1. Esamina i seguenti dati per il parametro **Total buckets without lifecycle rules** (Totale bucket senza regole ciclo di vita):
   + **Top *number* accounts** (Primi [numero] account): visualizza gli account con il maggior numero di bucket senza regole del ciclo di vita.
   + **Top *number* Regions** (Prime [numero] regioni): visualizza un'analisi dettagliata dei bucket senza regole del ciclo di vita per regione.
   + **Top *number* buckets** (Primi [numero] bucket]: visualizza i bucket senza regole del ciclo di vita. 

   In qualsiasi grafico o visualizzazione della dashboard S3 Storage Lens, puoi approfondire i livelli di aggregazione utilizzando le schede **Account**, **Regione AWS**, **Classe di archiviazione** o **Bucket**. Per vedere un esempio, consulta [Scoperta dei bucket Amazon S3 freddi](#uncover-cold-buckets).

   Dopo aver identificato i bucket senza regole del ciclo di vita, puoi anche esaminare i conteggi specifici delle regole del ciclo di vita per i tuoi bucket. 

### Fase 2: rivedere i conteggi delle regole del ciclo di vita per i bucket
<a name="identify-missing-lifecycle-rules-step2"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboard**, scegli la dashboard da visualizzare.

1. Nel pannello di controllo di S3 Storage Lens, scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), seleziona **Cost optimization** (Ottimizzazione dei costi). Quindi deseleziona **Summary** (Riepilogo).

   L'elenco **Buckets** (Bucket) viene aggiornato per visualizzare tutti i parametri di **ottimizzazione dei costi** disponibili per i bucket visualizzati. 

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri relativi all'ottimizzazione dei costi, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri di ottimizzazione dei costi finché non rimangono selezionati solo i seguenti parametri:
   + **Transition lifecycle rule count** (Conteggio regole ciclo di vita transizione)
   + **Expiration lifecycle rule count** (Conteggio regole ciclo di vita scadenza)
   + **Noncurrent version transition lifecycle rule count** (Conteggio regole ciclo di vita transizione versioni non correnti)
   + **Noncurrent version expiration lifecycle rule count** (Conteggio regole ciclo di vita scadenza versioni non correnti)
   + **Abort incomplete multipart upload lifecycle rule count** (Conteggio regole ciclo di vita interruzione caricamenti in più parti incompleti)
   + **Total lifecycle rule count** (Conteggio totale regole ciclo di vita)

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

   L'elenco **Buckets** (Bucket) viene aggiornato con i parametri relativi al conteggio delle regole del ciclo di vita per i bucket. È possibile utilizzare questi dati per identificare i bucket senza regole del ciclo di vita o i bucket a cui mancano tipi specifici di regole del ciclo di vita, ad esempio regole di scadenza o di transizione. Quindi, puoi accedere a questi bucket nella console S3 e aggiungervi regole del ciclo di vita.

### Fase 3: aggiungere regole del ciclo di vita
<a name="identify-missing-lifecycle-rules-step3"></a>

Dopo aver identificato i bucket privi di regole del ciclo di vita, puoi aggiungere tali regole. Per ulteriori informazioni, consultare [Impostazione di una configurazione del ciclo di vita S3 in un bucket](how-to-set-lifecycle-configuration-intro.md) e [Esempi di configurazioni del ciclo di vita S3](lifecycle-configuration-examples.md).

# Utilizzo di S3 Storage Lens per proteggere i tuoi dati
<a name="storage-lens-data-protection"></a>

Puoi utilizzare i parametri per la protezione dei dati di Amazon S3 Storage Lens per identificare i bucket in cui non sono state applicate le best practice per la protezione dei dati. Puoi utilizzare questi parametri per definire e applicare impostazioni standard in linea con le best practice per proteggere i dati nei bucket del tuo account o della tua organizzazione. Ad esempio, puoi utilizzare i parametri di protezione dei dati per identificare i bucket che non utilizzano chiavi AWS Key Management Service (AWS KMS) (SSE-KMS) per la crittografia predefinita o le richieste che utilizzano Signature Version 2 (SigV2). AWS 

I seguenti casi d'uso forniscono strategie per l'utilizzo del pannello di controllo di S3 Storage Lens al fine di identificare i valori anomali e applicare le best practice per la protezione dei dati tra i bucket S3.

**Topics**
+ [

## Identifica i bucket che non utilizzano la crittografia lato server con la crittografia predefinita (SSE-KMS) AWS KMS
](#storage-lens-sse-kms)
+ [

## Identificare i bucket con il controllo delle versioni S3 abilitato
](#storage-lens-data-protection-versioning)
+ [

## Identifica le richieste che utilizzano AWS Signature Version 2 (SigV2)
](#storage-lens-data-protection-sigv)
+ [

## Conteggiare il numero totale di regole di replica per ogni bucket
](#storage-lens-data-protection-replication-rule)
+ [

## Identificare la percentuale di byte con blocco degli oggetti
](#storage-lens-data-protection-object-lock)

## Identifica i bucket che non utilizzano la crittografia lato server con la crittografia predefinita (SSE-KMS) AWS KMS
<a name="storage-lens-sse-kms"></a>

La crittografia predefinita di Amazon S3 consente di impostare il comportamento di crittografia predefinito di un bucket S3. Per ulteriori informazioni, consulta [Impostazione del comportamento predefinito della crittografia lato server per i bucket Amazon S3](bucket-encryption.md).

Puoi utilizzare le metriche relative al **numero di bucket abilitati per SSE-KMS e alla percentuale di bucket abilitati** **per SSE-KMS per identificare i bucket che utilizzano la crittografia lato server con chiavi (SSE-KMS)** per la crittografia predefinita. AWS KMS S3 Storage Lens fornisce anche parametri per byte non crittografati, oggetti non crittografati, byte crittografati e oggetti crittografati. Per un elenco completo di parametri, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md). 

È possibile analizzare i parametri di crittografia SSE-KMS nel contesto dei parametri di crittografia generali per identificare i bucket che non utilizzano SSE-KMS. Se desideri utilizzare SSE-KMS per tutti i bucket del tuo account o della tua organizzazione, puoi quindi aggiornare le impostazioni di crittografia predefinite per questi bucket in modo che utilizzino SSE-KMS. Oltre a SSE-KMS, puoi usare la crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3) o chiavi fornite dal cliente (SSE-C). Per ulteriori informazioni, consulta [Protezione dei dati con la crittografia](UsingEncryption.md). 

### Fase 1: identificare i bucket che usano SSE-KMS per la crittografia predefinita
<a name="storage-lens-sse-kms-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nella sezione **Trends and distributions** (Tendenze e distribuzioni), scegli **% SSE-KMS enabled bucket count** (% conteggio bucket abilitati per SSE-KMS) per il parametro principale e **% encrypted bytes** (% byte crittografati) per il parametro secondario.

   Il grafico **Trend for *date*** (Tendenza per [data]) viene aggiornato per visualizzare le tendenze per SSE-KMS e byte crittografati. 

1. Per visualizzare informazioni più granulari a livello di bucket per SSE-KMS:

   1. Scegli un punto sul grafico. Apparirà un riquadro con le scelte per visualizzare informazioni dettagliate più granulari.

   1. Scegli la dimensione **Buckets** (Bucket). Quindi, scegliere **Apply (Applica)**.

1. Nel grafico **Distribution by buckets for *date*** (Distribuzione per bucket per [data]), scegli il parametro **SSE-KMS enabled bucket count** (Conteggio bucket abilitati per SSE-KMS). 

1. Ora puoi vedere quali bucket hanno SSE-KMS abilitato e quali no.

### Fase 2: aggiornare le impostazioni predefinite di crittografia dei bucket
<a name="storage-lens-sse-kms-step2"></a>

Dopo aver determinato quali bucket utilizzano SSE-KMS nel contesto del parametro **% encrypted bytes** (% byte crittografati), puoi identificare i bucket che non utilizzano SSE-KMS. Facoltativamente, puoi quindi accedere a questi bucket mediante la console S3 e aggiornare le loro impostazioni di crittografia predefinite affinché utilizzino SSE-KMS o SSE-S3. Per ulteriori informazioni, consulta [Configurazione della crittografia predefinita](default-bucket-encryption.md).

## Identificare i bucket con il controllo delle versioni S3 abilitato
<a name="storage-lens-data-protection-versioning"></a>

Se attivata, la funzionalità Controllo versioni S3 conserva più versioni dello stesso oggetto che possono essere utilizzate per recuperare rapidamente i dati nel caso in cui un oggetto venga eliminato o sovrascritto accidentalmente. Puoi utilizzare il parametro **Versioning-enabled bucket count** (Conteggio bucket con controllo versioni abilitato) per vedere quali bucket utilizzano la funzionalità S3 di controllo delle versioni. Quindi, puoi usare la console S3 per abilitare la funzionalità S3 di controllo delle versioni per altri bucket.

### Fase 1: identificare i bucket con il controllo delle versioni S3 abilitato
<a name="storage-lens-data-protection-versioning-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione, scegli **Storage Lens**, **Pannelli di controllo**.

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nella sezione **Trends and distributions** (Tendenze e distribuzioni), scegli **Versioning-enabled bucket count** (Conteggio bucket con controllo versioni abilitato) per il parametro principale e **Buckets** (Bucket) per il parametro secondario.

   Il grafico **Trend for *date*** (Tendenza per [data]) viene aggiornato con le tendenze per i bucket con la funzionalità S3 di controllo delle versioni abilitata. Subito sotto la riga delle tendenze, puoi vedere le sottosezioni **Storage class distribution** (Distribuzione classi di archiviazione) e **Region distribution** (Distribuzione regionale).

1. Per visualizzare informazioni dettagliate più granulari per tutti i bucket visualizzati nel grafico **Trend for *date*** (Tendenza per [data]) in modo da poter eseguire un'analisi più approfondita, procedi come segue:

   1. Scegli un punto sul grafico. Apparirà un riquadro con le scelte per visualizzare informazioni dettagliate più granulari.

   1. Scegli una dimensione da applicare ai tuoi dati per un'analisi più approfondita: **Account**, **Regione AWS**, **Storage class** (Classe di archiviazione) o **Bucket**. Quindi, scegliere **Apply (Applica)**.

1. Nella sezione **Grafico a bolle per bucket per *data***, scegli le metriche **Conteggio bucket con funzione Versioni multiple abilitata**, **Bucket** e **Bucket attivi**.

   La sezione **Bubble analysis by buckets for *date*** (Analisi a bolle per bucket per [data]) viene aggiornata per visualizzare i dati relativi ai parametri selezionati. Puoi utilizzare questi dati per vedere quali bucket hanno la funzionalità S3 di controllo delle versioni abilitata nel contesto del numero totale di bucket. Nella sezione **Grafico a bolle per bucket per *data***, è possibile tracciare i bucket su più dimensioni utilizzando tre metriche per rappresentare l’**asse X**, l’**asse Y** e la **dimensione** della bolla. 

### Fase 2: abilitare il controllo delle versioni S3
<a name="storage-lens-data-protection-versioning-step2"></a>

Dopo aver identificato i bucket in cui è abilitata la funzionalità S3 del controllo delle versioni, puoi identificare i bucket in cui il controllo delle versioni S3 non è mai stato abilitato o il cui controllo delle versioni è sospeso. Facoltativamente, puoi quindi abilitare il controllo delle versioni per questi bucket nella console S3. Per ulteriori informazioni, consulta [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md).

## Identifica le richieste che utilizzano AWS Signature Version 2 (SigV2)
<a name="storage-lens-data-protection-sigv"></a>

Puoi utilizzare la metrica **Tutte le richieste di firma non supportate per identificare le richieste** che utilizzano AWS Signature Version 2 (SigV2). Questi dati possono aiutarti a identificare applicazioni specifiche che utilizzano SigV2. È quindi possibile migrare queste applicazioni alla versione 4 di AWS Signature (SigV4). 

SigV4 è il metodo di firma consigliato per tutte le nuove applicazioni S3. SIGv4 offre una maggiore sicurezza ed è supportato in tutti. Regioni AWS Per ulteriori informazioni, consulta la sezione relativa all'[agggiornamento di Amazon S3 e all'estensione e alla modifica del periodo di obsolescenza di SigV2](https://aws.amazon.com/blogs/aws/amazon-s3-update-sigv2-deprecation-period-extended-modified/).

**Prerequisito**  
Per visualizzare **tutte le richieste di firma non supportate** nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Advanced data protection metrics** (Parametri avanzati protezione dati). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

### Fase 1: Esamina le tendenze di firma di SigV2 per regione e Account AWS bucket
<a name="storage-lens-data-protection-sigv-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Per identificare bucket, account e regioni specifici con richieste che utilizzano SigV2:

   1. Nella sezione **Top N overview for *date*** (Panoramica primi N per [data]), in **Top N** (Primi N), inserisci il numero di bucket per i quali desideri visualizzare i dati. 

   1. In **Metric** (Parametro), scegli **All unsupported signature requests** (Tutte le richieste di firma non supportate) nella categoria **Data protection** (Protezione dati).

      La **panoramica Top N per gli aggiornamenti delle *date* per** visualizzare i dati per le richieste SigV2 per account e bucket Regione AWS. La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati. 
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

### Fase 2: identificare i bucket a cui le applicazioni accedono tramite richieste SigV2
<a name="storage-lens-data-protection-sigv-step2"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nel pannello di controllo di Storage Lens, scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), scegli **Data protection** (Protezione dati). Quindi deseleziona **Summary** (Riepilogo).

   L'elenco **Buckets** (Bucket) viene aggiornato per visualizzare tutti i parametri di **protezione dei dati** disponibili per i bucket visualizzati. 

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri specifici di protezione dei dati, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri di protezione dei dati finché non rimangono selezionati solo i seguenti parametri:
   + **All unsupported signature requests** (Tutte le richieste di firma non supportate)
   + **% all unsupported signature requests** (% tutte le richieste di firma non supportate)

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

   L'elenco **Buckets** (Bucket) viene aggiornato con i parametri a livello di bucket per le richieste SigV2. È possibile utilizzare questi dati per identificare bucket specifici con richieste SigV2. Quindi, puoi utilizzare queste informazioni per eseguire la migrazione delle tue applicazioni a SigV4. Per ulteriori informazioni, consulta [Authenticating Requests (AWS Signature Version 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) nel riferimento all'*API di Amazon Simple Storage Service*.

## Conteggiare il numero totale di regole di replica per ogni bucket
<a name="storage-lens-data-protection-replication-rule"></a>

La replica S3 consente di eseguire la copia asincrona e automatica di oggetti tra bucket Amazon S3. I bucket configurati per la replica di oggetti possono essere di proprietà dello stesso Account AWS o di account diversi. Per ulteriori informazioni, consulta [Replica di oggetti all'interno e tra le Regioni](replication.md). 

Puoi utilizzare i parametri relativi al conteggio delle regole di replica di S3 Storage Lens per ottenere informazioni dettagliate per bucket sui bucket configurati per la replica. Queste informazioni includono le regole di replica all'interno di e tra bucket e regioni.

**Prerequisito**  
Per visualizzare i parametri relativi al conteggio delle regole di replica nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Advanced data protection metrics** (Parametri avanzati protezione dati). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

### Fase 1: contare il numero totale di regole di replica per ogni bucket
<a name="storage-lens-data-protection-replication-rule-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nel pannello di controllo di Storage Lens, scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), scegli **Data protection** (Protezione dati). Quindi deseleziona **Summary** (Riepilogo).

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri relativi al conteggio delle regole di replica, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona tutti i parametri di protezione dei dati finché non rimangono selezionati solo i parametri relativi al conteggio delle regole di replica:
   + **Same-Region Replication rule count** (Conteggio regole di replica stessa regione)
   + **Cross-Region Replication rule count** (Conteggio regole di replica tra regioni)
   + **Same-account replication rule count** (Conteggio regole di replica stesso account)
   + **Cross-account replication rule count** (Conteggio regole di replica tra account)
   + **Total replication rule count** (Conteggio totale regole di replica)

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

### Fase 2: aggiungere regole di replica
<a name="storage-lens-data-protection-replication-rule-step2"></a>

Dopo aver creato il conteggio delle regole di replica per bucket, facoltativamente è possibile creare altre regole di replica. Per ulteriori informazioni, consulta [Esempi di configurazione della replica in tempo reale](replication-example-walkthroughs.md).

## Identificare la percentuale di byte con blocco degli oggetti
<a name="storage-lens-data-protection-object-lock"></a>

Con S3 Object Lock, puoi archiviare oggetti utilizzando un modello *write-once-read-many (WORM*). Puoi usare il blocco degli oggetti per impedire che gli oggetti vengano eliminati o sovrascritti per un periodo di tempo fisso o indefinito. Puoi abilitare il blocco degli oggetti solo quando crei un bucket e abiliti anche la funzionalità S3 di controllo delle versioni. Tuttavia, puoi modificare il periodo di conservazione per le versioni dei singoli oggetti o applicare il blocco a fini legali per i bucket in cui è abilitato il blocco degli oggetti. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).

Puoi utilizzare i parametri di blocco degli oggetti in S3 Storage Lens per visualizzare il parametro **% Object Lock in bytes** (% blocco oggetti in byte) per il tuo account o la tua organizzazione. Puoi utilizzare queste informazioni per identificare i bucket non conformi alle best practice di protezione dei dati nel tuo account o nella tua organizzazione. 

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nella sezione **Snapshot**, in **Metrics categories** (Categorie parametri), scegli **Data protection** (Protezione dati).

   La sezione **Snapshot** viene aggiornata per visualizzare i parametri di protezione dei dati, incluso il parametro **% Object Lock in bytes** (% blocco oggetti in byte). Puoi vedere la percentuale complessiva di byte con blocco degli oggetti per il tuo account o la tua organizzazione. 

1. Per visualizzare il valore del parametro **% Object Lock bytes** (% blocco oggetti in byte) per bucket, scorri verso il basso fino alla sezione **Top N overview** (Panoramica primi N).

   Per ottenere dati a livello di oggetto per il blocco degli oggetti, puoi anche utilizzare i parametri **Object Lock object count** (Conteggio oggetti con blocco oggetti) e **% Object Lock objects** (% oggetti con blocco oggetti). 

1. In **Metric** (Parametro), scegli **% Object Lock bytes** (% blocco oggetti in byte) nella categoria **Data protection** (Protezione dati).

   Per impostazione predefinita, la sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra i parametri per i primi 3 bucket. Nel campo **Top N** (Primi N) è possibile aumentare il numero di bucket. La sezione **Top N overview for *date*** (Panoramica primi N per [data]) mostra anche la variazione percentuale rispetto al giorno o alla settimana precedente e un grafico sparkline per visualizzare la tendenza. Questa tendenza è valida per 14 giorni per i parametri gratuiti e per 30 giorni per i parametri e i suggerimenti avanzati. 
**Nota**  
Con i parametri avanzati e i suggerimenti di S3 Storage Lens, i parametri sono disponibili per le query per 15 mesi. Per ulteriori informazioni, consulta [Selezione delle metriche](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Controlla i seguenti dati per il parametro **% Object Lock bytes** (% blocco oggetti in byte):
   + **Top *number* accounts** (Primi [numero] account): verifica quali account hanno il valore più alto e il valore più basso per il parametro **% Object Lock bytes** (% blocco oggetti in byte).
   + **Top *number* Regions** (Prime [numero] regioni): visualizza un'analisi dettagliata dei valori del parametro **% Object Lock bytes** (% blocco oggetti in byte) per regione.
   + **Top *number* buckets** (Primi [numero] bucket): verifica quali bucket hanno il valore più alto e il valore più basso per il parametro **% Object Lock bytes** (% blocco oggetti in byte).

# Utilizzo di S3 Storage Lens per controllare le impostazioni di Object Ownership
<a name="storage-lens-access-management"></a>

Amazon S3 Object Ownership è un'impostazione a livello di bucket S3 che puoi utilizzare per disabilitare gli elenchi di controllo degli accessi (ACLs) e controllare la proprietà degli oggetti nel tuo bucket. Se imposti Object Ownership su bucket owner enforced, puoi disabilitare gli [elenchi di controllo degli accessi (ACLs)](acl-overview.md) e assumere la proprietà di ogni oggetto nel bucket. Questo approccio semplifica la gestione degli accessi per i dati archiviati in Amazon S3. 

Per impostazione predefinita, quando un altro Account AWS carica un oggetto nel tuo bucket S3, quell'account (lo scrittore dell'oggetto) possiede l'oggetto, ha accesso ad esso e può concedere ad altri utenti l'accesso ad esso tramite. ACLs È possibile utilizzare Object Ownership per modificare questo comportamento di default. 

La maggior parte dei casi d'uso moderni in Amazon S3 non richiede più l'uso di. ACLs Pertanto, si consiglia di disabilitarlo ACLs, tranne nei casi in cui è necessario controllare l'accesso per ogni oggetto singolarmente. Impostando Object Ownership su bucket owner enforce, puoi disabilitare ACLs e fare affidamento sulle politiche per il controllo degli accessi. Per ulteriori informazioni, consulta [Controllo della proprietà degli oggetti e disattivazione ACLs del bucket](about-object-ownership.md).

Con le metriche di gestione degli accessi di S3 Storage Lens, puoi identificare i bucket che non sono stati disabilitati. ACLs Dopo aver identificato questi bucket, puoi migrare le autorizzazioni ACL alle policy e disabilitarle per questi bucket. ACLs 

**Topics**
+ [

## Fase 1: identificare le tendenze generali per le impostazioni di Object Ownership
](#storage-lens-access-management-step1)
+ [

## Fase 2: identificare le tendenze a livello di bucket per le impostazioni di Object Ownership
](#storage-lens-access-management-step2)
+ [

## Fase 3: Aggiorna l'impostazione Object Ownership impostando la disattivazione del bucket owner ACLs
](#storage-lens-access-management-step3)

## Fase 1: identificare le tendenze generali per le impostazioni di Object Ownership
<a name="storage-lens-access-management-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nella sezione **Snapshot for *date*** (Snapshot per [data]), in **Metrics categories** (Categorie parametri), scegli **Access management** (Gestione accessi).

   La sezione **Snapshot for *date*** (Snapshot per [data]) viene aggiornata in modo da visualizzare il parametro **% Object Ownership bucket owner enforced** (% Object Ownership applicata da proprietario bucket). Puoi visualizzare la percentuale complessiva di bucket nel tuo account o organizzazione che utilizzano l'impostazione imposta dal proprietario del bucket per disabilitare Object Ownership. ACLs

## Fase 2: identificare le tendenze a livello di bucket per le impostazioni di Object Ownership
<a name="storage-lens-access-management-step2"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Per visualizzare parametri più dettagliati a livello di bucket, scegli la scheda **Bucket**.

1. Nella sezione **Distribution by buckets for *date*** (Distribuzione per bucket per [data]), scegli il parametro **% Object Ownership bucket owner enforced** (% Object Ownership applicata da proprietario bucket).

   Il grafico viene aggiornato per mostrare una ripartizione per bucket per il parametro **% Object Ownership bucket owner enforced** (% Object Ownership applicata da proprietario bucket). Puoi vedere quali bucket utilizzano l'impostazione imposta dal proprietario del bucket per disabilitare Object Ownership. ACLs

1. Per visualizzare le impostazioni per Bucket owner enforced (Applicata da proprietario bucket) nel contesto, scorri verso il basso fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), seleziona **Access management** (Gestione accessi). Quindi deseleziona **Summary** (Riepilogo).

   Nell'elenco **Buckets** (Bucket) sono visualizzati i dati di tutte e tre le impostazioni di Object Ownership: Bucket owner enforced (Proprietario del bucket imposto), Bucket Owner Preferred (Proprietario preferito del bucket) e Object Writer.

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare i parametri metriche solo per una specifica impostazione di Object Ownership, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Cancella i parametri che non desideri visualizzare.

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

## Fase 3: Aggiorna l'impostazione Object Ownership impostando la disattivazione del bucket owner ACLs
<a name="storage-lens-access-management-step3"></a>

Dopo aver identificato i bucket che utilizzano l'impostazione Object Writer e Bucket Owner Preferred (Preferita da proprietario bucket) per Object Ownership, puoi eseguire la migrazione delle autorizzazioni ACL alle policy di bucket. Una volta terminata la migrazione delle autorizzazioni ACL, puoi aggiornare le impostazioni di proprietà dell'oggetto in modo che il proprietario del bucket venga applicato per disattivarle. ACLs Per ulteriori informazioni, consulta [Prerequisiti per la disabilitazione ACLs](object-ownership-migrating-acls-prerequisites.md).

# Utilizzo dei parametri di S3 Storage Lens per migliorare le prestazioni
<a name="storage-lens-detailed-status-code"></a>

Se hai abilitato l'opzione [Advanced metrics (Parametri avanzati) di S3 Storage Lens](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection), puoi utilizzare i parametri dei codici di stato dettagliati per ottenere i numeri delle richieste riuscite o non riuscite. È possibile utilizzare queste informazioni per risolvere i problemi relativi ad accesso e prestazioni. I parametri dei codici di stato dettagliati mostrano i conteggi dei codici di stato HTTP, come 403 Forbidden (403 Accesso negato) e 503 Service Unavailable (503 Servizio non disponibile). Puoi esaminare le tendenze generali relative ai parametri dei codici di stato dettagliati a livello di bucket S3, account e organizzazioni. Puoi quindi eseguire il drill-down dei parametri a livello di bucket per identificare i carichi di lavoro che attualmente accedono a questi bucket e causano errori. 

Ad esempio, puoi esaminare il parametro **403 Forbidden error count** (Conteggio errori 403 Accesso negato) per identificare i carichi di lavoro che accedono ai bucket senza le autorizzazioni corrette applicate. Dopo aver identificato questi carichi di lavoro, puoi eseguire un'analisi approfondita all'esterno di S3 Storage Lens per risolvere gli errori 403 Forbidden (403 Accesso negato).

Questo esempio mostra come eseguire un'analisi delle tendenze per l'errore 403 Forbidden (403 Accesso negato) utilizzando i parametri **403 Forbidden error count** (Conteggio errori 403 Accesso negato) e **% 403 Forbidden errors** (% errori 403 Accesso negato). Puoi utilizzare questi parametri per identificare i carichi di lavoro che accedono ai bucket senza le autorizzazioni corrette applicate. Puoi eseguire un'analisi delle tendenze simile per qualsiasi altro **parametro dei codici di stato dettagliati**. Per ulteriori informazioni, consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md).

**Prerequisito**  
Per visualizzare il parametro **Detailed status code metrics** (Parametri codice di stato dettagliato) nel pannello di controllo di S3 Storage Lens, devi abilitare l'opzione S3 Storage Lens **Advanced metrics and recommendations** (Parametri e suggerimenti avanzati) e quindi selezionare **Detailed status code metrics** (Parametri codice di stato dettagliato). Per ulteriori informazioni, consulta [Utilizzo della console S3](storage_lens_editing.md#storage_lens_console_editing).

**Topics**
+ [

## Fase 1: eseguire un'analisi delle tendenze per un singolo codice di stato HTTP
](#storage-lens-detailed-status-code-step1)
+ [

## Fase 2: analizzare il conteggio degli errori per bucket
](#storage-lens-detailed-status-code-step2)
+ [

## Fase 3: correggere gli errori
](#storage-lens-detailed-status-code-step3)

## Fase 1: eseguire un'analisi delle tendenze per un singolo codice di stato HTTP
<a name="storage-lens-detailed-status-code-step1"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nella sezione **Tendenze e distribuzioni**, in **Parametro primario**, scegli **Conteggio errori 403 Forbidden** nella categoria **Codici di stato dettagliati**. In **Secondary metric** (Parametro secondario), scegli **% 403 Forbidden errors** (% errori 403 Accesso negato).

1. Scorri verso il basso fino alla sezione **Top N overview for *date*** (Panoramica primi N per [data]). In **Parametri**, scegli **Conteggio errori 403 Forbidden** o **% errori 403 Forbidden** nella categoria **Codici di stato dettagliati**.

   La sezione **Top N overview for *date*** si aggiorna per mostrare i primi 403 conteggi di errori proibiti suddivisi per account e Regione AWS bucket. 

## Fase 2: analizzare il conteggio degli errori per bucket
<a name="storage-lens-detailed-status-code-step2"></a>

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, **Dashboards** (Pannelli di controllo).

1. Nell'elenco **Dashboards** (Pannelli di controllo), scegli il pannello di controllo che desideri visualizzare.

1. Nel pannello di controllo di Storage Lens, scegli la scheda **Bucket**.

1. Scorri fino alla sezione **Buckets** (Bucket). In **Metrics categories** (Categorie parametri), seleziona il parametro **Detailed status code** (Codice di stato dettagliato). Quindi deseleziona **Summary** (Riepilogo).

   L'elenco **Buckets** (Bucket) viene aggiornato per visualizzare tutti i parametri dei codici di stato dettagliati disponibili. È possibile utilizzare queste informazioni per individuare i bucket con una elevata percentuale di codici di stato HTTP specifici e i codici di stato comuni tra bucket. 

1. Per filtrare l'elenco **Buckets** (Bucket) in modo da visualizzare solo i parametri relativi a codici di stato dettagliati specifici, scegli l'icona delle preferenze (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/preferences.png)).

1. Deseleziona i parametri dei codici di stato dettagliati che non desideri visualizzare nell'elenco **Buckets** (Bucket).

1. (Facoltativo) In **Page size** (Dimensioni pagina), scegli il numero di bucket da visualizzare nell'elenco.

1. Scegli **Confirm** (Conferma).

   L'elenco **Buckets** (Bucket) mostra i parametri relativi al conteggio degli errori per il numero di bucket specificato. È possibile utilizzare queste informazioni per identificare bucket specifici che presentano molti errori e per risolvere gli errori per bucket.

## Fase 3: correggere gli errori
<a name="storage-lens-detailed-status-code-step3"></a>

 Dopo aver identificato i bucket con una percentuale elevata di codici di stato HTTP specifici, è possibile risolvere questi errori. Per ulteriori informazioni, consulta gli argomenti seguenti:
+ [Perché ricevo un errore 403 Forbidden (403 Accesso negato) quando tento di caricare file in Amazon S3?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-403-forbidden-error/)
+ [Perché ricevo un errore 403 Forbidden (403 Accesso negato) quando tento di modificare una policy di bucket in Amazon S3?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-access-denied-bucket-policy/)
+ [Come posso correggere gli errori 403 Forbidden (403 Accesso negato) nel mio bucket Amazon S3 in cui tutte le risorse provengono dallo stesso Account AWS?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-troubleshoot-403-resource-same-account/)
+ [Come posso risolvere un errore HTTP 500 o 503 in Amazon S3?](https://aws.amazon.com/premiumsupport/knowledge-center/http-5xx-errors-s3/)

# Utilizzo dei dati di S3 Storage Lens in S3 Tables
<a name="storage-lens-s3-tables"></a>

Amazon S3 Storage Lens può esportare analisi e approfondimenti di storage su S3 Tables, consentendoti di interrogare i parametri di Storage Lens utilizzando SQL con servizi di AWS analisi come Amazon Athena, Amazon EMR, SageMaker Amazon Studio SMStudio () e altri strumenti di analisi. AWS Quando configuri S3 Storage Lens per l'esportazione in S3 Tables, le tue metriche vengono automaticamente archiviate in tabelle Apache Iceberg di sola lettura nel bucket di tabelle gestito. AWS`aws-s3`

Questa integrazione fornisce l'accesso strutturato ai dati per interrogare i parametri di Storage Lens utilizzando SQL standard, l'integrazione dell'analisi con AWS i servizi di analisi, funzionalità di analisi storica e l'ottimizzazione dei costi senza costi aggiuntivi per l'esportazione su tabelle S3 gestite. AWS

**Topics**
+ [

# Esportazione delle metriche di S3 Storage Lens in S3 Tables
](storage-lens-s3-tables-export.md)
+ [

# Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables
](storage-lens-s3-tables-naming.md)
+ [

# Comprensione degli schemi delle tabelle di S3 Storage Lens
](storage-lens-s3-tables-schemas.md)
+ [

# Autorizzazioni per le tabelle S3 Storage Lens
](storage-lens-s3-tables-permissions.md)
+ [

# Interrogazione dei dati di S3 Storage Lens con strumenti di analisi
](storage-lens-s3-tables-querying.md)
+ [

# Utilizzo degli assistenti AI con le tabelle S3 Storage Lens
](storage-lens-s3-tables-ai-tools.md)

# Esportazione delle metriche di S3 Storage Lens in S3 Tables
<a name="storage-lens-s3-tables-export"></a>

Puoi configurare Amazon S3 Storage Lens per esportare analisi e approfondimenti di storage su S3 Tables. Quando abiliti l'esportazione di tabelle S3, le tue metriche vengono automaticamente archiviate in tabelle Apache Iceberg di sola lettura nel bucket di `aws-s3` tabelle AWS gestito, rendendole interrogabili tramite SQL con servizi di analisi come AWS Amazon Athena, Amazon Redshift e Amazon EMR.

**Nota**  
Non sono previsti costi aggiuntivi per l'esportazione dei parametri di S3 Storage Lens in tabelle S3 gestite. AWS Si applicano le tariffe standard per l'archiviazione delle tabelle, la gestione delle tabelle e le richieste sulle tabelle. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing). 

## Abilita l'esportazione delle tabelle S3 utilizzando la console
<a name="storage-lens-s3-tables-export-console"></a>

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) 

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, quindi scegli **Storage Lens Dashboards**. 

1. Nell'elenco delle **dashboard di Storage Lens**, scegli la dashboard che desideri modificare.

1. Scegli **Modifica**. 

1. Nella pagina **Dashboard**, vai alla sezione **Esportazione e pubblicazione delle metriche**.

1. Per abilitare il **rapporto Table Export for Default Metrics**, seleziona **Table bucket nel tipo Bucket**.

1. Per abilitare il **rapporto Table Export for Expanded sulle metriche dei prefissi**, seleziona **Table** bucket nel tipo Bucket.

1. **Controlla la configurazione del pannello di controllo e fai clic su Invia.** 

**Nota**  
Dopo aver abilitato l'esportazione delle tabelle S3, possono essere necessarie fino a 48 ore prima che i primi dati siano disponibili nelle tabelle.

**Nota**  
Non sono previsti costi aggiuntivi per l'esportazione dei parametri di S3 Storage Lens in tabelle S3 gestite. AWS Si applicano le tariffe standard per l'archiviazione delle tabelle, la gestione delle tabelle, le richieste sulle tabelle e il monitoraggio. Puoi abilitare o disabilitare l'esportazione su S3 Tables utilizzando la console Amazon S3, l'API Amazon S3, o. AWS CLI AWS SDKs

**Nota**  
Per impostazione predefinita, i record nelle tabelle S3 non scadono. Per ridurre al minimo i costi di archiviazione per le tabelle, puoi abilitare e configurare la scadenza dei record per le tabelle. Con questa opzione, Amazon S3 rimuove automaticamente i record da una tabella quando i record scadono. Vedi: [Scadenza dei record per le tabelle](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-record-expiration.html). 

## Abilita l'esportazione delle tabelle S3 utilizzando il AWS CLI
<a name="storage-lens-s3-tables-export-cli"></a>

**Nota**  
Prima di eseguire i seguenti comandi, assicurati di disporre di una versione CLI aggiornata. Vedi [Installazione o aggiornamento alla versione più recente di AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). 

L'esempio seguente abilita l'esportazione delle tabelle S3 per una configurazione di S3 Storage Lens «Default metrics report» utilizzando il. AWS CLI Per utilizzare questo esempio, sostituisci *user input placeholders* con le informazioni appropriate.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --storage-lens-configuration '{
   "Id":"your-configuration-id",
   "AccountLevel":{
      "ActivityMetrics":{
        "IsEnabled":true
      },
      "BucketLevel":{
         "ActivityMetrics":{
            "IsEnabled":true
         }
      }
   },
   "DataExport":{
      "S3BucketDestination":{
         "OutputSchemaVersion":"V_1",
         "Format":"CSV",
         "AccountId":"555555555555",
         "Arn":"arn:aws:s3:::my-export-bucket",
         "Prefix":"storage-lens-exports/"
      },
      "StorageLensTableDestination":{
         "IsEnabled":true
      }
   },
   "IsEnabled":true
}'
```

## Abilita l'esportazione delle tabelle S3 utilizzando il AWS SDKs
<a name="storage-lens-s3-tables-export-sdk"></a>

L'esempio seguente abilita l'esportazione di tabelle S3 per una configurazione di S3 Storage Lens «Default metrics report» utilizzando l' AWS SDK for Python (Boto3). Per utilizzare questo esempio, sostituisci *user input placeholders* con le informazioni appropriate.

```
import boto3

s3control = boto3.client('s3control')

response = s3control.put_storage_lens_configuration( AccountId='555555555555', ConfigId='your-configuration-id', StorageLensConfiguration={
        'Id': 'your-configuration-id',
        'AccountLevel': {
            'ActivityMetrics': {
              'IsEnabled': True
            },
            'BucketLevel': {
                'ActivityMetrics': {
                    'IsEnabled': True
                }
            }
        },
        'DataExport': {
            'S3BucketDestination': {
                'OutputSchemaVersion': 'V_1',
                'Format': 'CSV',
                'AccountId': '555555555555',
                'Arn': 'arn:aws:s3:::my-export-bucket',
                'Prefix': 'storage-lens-exports/'
            },
            'StorageLensTableDestination': {
                'IsEnabled': True
            }
        },
        'IsEnabled': True
    }
)
```

[Per ulteriori informazioni sull'utilizzo di, consulta and tools. AWS SDKs AWS SDKs ](https://aws.amazon.com/developer/tools/) 

## Fasi successive
<a name="storage-lens-s3-tables-export-next-steps"></a>

Dopo aver abilitato l'esportazione delle tabelle S3, puoi:
+ Ulteriori informazioni su [Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables](storage-lens-s3-tables-naming.md) 
+ Ulteriori informazioni su [Comprensione degli schemi delle tabelle di S3 Storage Lens](storage-lens-s3-tables-schemas.md) 

# Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables
<a name="storage-lens-s3-tables-naming"></a>

Quando esporti le metriche di S3 Storage Lens in S3 Tables, le tabelle vengono organizzate utilizzando le convenzioni del catalogo Apache Iceberg con modelli di denominazione specifici per garantire compatibilità e organizzazione.

## Struttura della posizione delle tabelle
<a name="storage-lens-s3-tables-naming-location"></a>

La posizione completa della tabella segue questo schema:

```
s3tablescatalog/aws-s3/<namespace>/<table-name>
```

### Nome del bucket della tabella
<a name="storage-lens-s3-tables-naming-bucket"></a>

 **Secchio da tavolo:** `aws-s3` 

L'esportazione di S3 Storage Lens utilizza il `aws-s3` table bucket, che è il bucket designato per AWS le tabelle di sistema relative a S3.

### Nome del catalogo
<a name="storage-lens-s3-tables-naming-catalog"></a>

 **Catalogo:** `s3tablescatalog/aws-s3` 

Le tabelle S3 Storage Lens sono archiviate nel catalogo S3 perché Storage Lens fornisce informazioni su tre tipi di risorse S3:
+ Metriche di archiviazione
+ Proprietà dei bucket
+ Metriche di utilizzo delle API

## Convenzione di denominazione dei namespace
<a name="storage-lens-s3-tables-naming-namespace"></a>

I namespace organizzano le tabelle all'interno del catalogo. Per S3 Storage Lens, lo spazio dei nomi deriva dall'ID di configurazione di Storage Lens.

### Formato dello spazio dei nomi standard
<a name="storage-lens-s3-tables-naming-namespace-standard"></a>

Per la configurazione di Storage Lens IDs senza punti (): `.` 

```
lens_<configuration-id>_exp
```

 **Esempio:** se l'ID di configurazione è`my-lens-config`, lo spazio dei nomi sarà:

```
lens_my-lens-config_exp
```

### Formato dello spazio dei nomi con gestione di punti o lettere maiuscole
<a name="storage-lens-s3-tables-naming-namespace-dots"></a>

La configurazione di Storage Lens IDs può contenere punti (`.`) o lettere maiuscole (`A-Z`), ma i namespace di S3 Tables supportano solo lettere minuscole, numeri, trattini () e caratteri di sottolineatura (). `-` `_` Quando l'ID di configurazione contiene punti, questi vengono convertiti in trattini, le lettere maiuscole vengono convertite in lettere minuscole e viene aggiunto un suffisso hash per renderle uniche:

```
lens_<configuration-id-with-dots-or-uppercase-replaced>_exp_<7-char-hash>
```

 **Esempio:** se l'ID di configurazione è, lo spazio dei nomi sarà: `my.LENS.config`

```
lens_my-lens-config_exp_a1b2c3d
```

Dove `a1b2c3d` sono i primi 7 caratteri dell'hash SHA-1 dell'ID di configurazione originale.

## Esempi completi
<a name="storage-lens-s3-tables-naming-examples"></a>

Per una configurazione Storage Lens con ID`production-metrics`: 
+  **Secchio da tavolo:** `aws-s3` 
+  **Catalogo:** `s3tablescatalog/aws-s3` 
+  **Spazio dei nomi:** `lens_production-metrics_exp` 
+  **Percorso completo:** `s3tablescatalog/aws-s3/lens_production-metrics_exp/<table-name>` 

Per una configurazione Storage Lens con ID`prod.us.east.metrics`: 
+  **Secchio da tavolo:** `aws-s3` 
+  **Catalogo:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_prod-us-east-metrics_exp_f8e9a1b` (con hash)
+  **Percorso completo:** `s3tablescatalog/aws-s3/lens_prod-us-east-metrics_exp_f8e9a1b/<table-name>` 

## Tipo di tabella
<a name="storage-lens-s3-tables-naming-types"></a>

La tabella seguente mostra i diversi tipi di tabelle create per le esportazioni di S3 Storage Lens:


| Catalogo | Namespace | Nome della tabella S3 | Description | 
| --- | --- | --- | --- | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metrice\$1storage\$1predefinite | Questa tabella contiene i parametri di archiviazione per la configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metrice\$1attività\$1predefinite | Questa tabella contiene le metriche di attività per la configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | estessi\$1prefissi\$1storage\$1metrics | Questa tabella contiene i parametri di archiviazione per tutti i prefissi nella configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metriche di attività con prefissi\$1espansi | Questa tabella contiene le metriche di attività per tutti i prefissi nella configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | bucket\$1property\$1metrics | Questa tabella contiene le metriche delle proprietà dei bucket per tutti i bucket nella configurazione di Storage Lens. | 

## Fasi successive
<a name="storage-lens-s3-tables-naming-next-steps"></a>
+ Ulteriori informazioni su [Comprensione degli schemi delle tabelle di S3 Storage Lens](storage-lens-s3-tables-schemas.md) 
+ Ulteriori informazioni su [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md) 

# Comprensione degli schemi delle tabelle di S3 Storage Lens
<a name="storage-lens-s3-tables-schemas"></a>

Quando si esportano le metriche di S3 Storage Lens in tabelle S3, i dati sono organizzati in tre schemi di tabelle separati: metriche di storage, metriche delle proprietà dei bucket e metriche delle attività.

## Schema della tabella delle metriche di archiviazione
<a name="storage-lens-s3-tables-schemas-storage"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, related a che livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  object\$1count  | Long | Numero di oggetti memorizzati per l'elemento di riferimento corrente | 
|  storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  current\$1version\$1object\$1count  | Long | Numero di oggetti della versione corrente archiviati per l'elemento di riferimento corrente | 
|  current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte della versione corrente archiviati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1object\$1count  | Long | Numero di oggetti marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte del marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  encrypted\$1object\$1count  | Long | Numero di oggetti crittografati archiviati per l'elemento di riferimento corrente | 
|  encrypted\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | Long | Numero di oggetti di caricamento incompleti in più parti più vecchi di 7 giorni archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati da più di 7 giorni per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1count  | Long | Numero di oggetti di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1object\$1count  | Long | Numero di oggetti della versione non corrente memorizzati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di versione non corrente archiviati per l'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1object\$1count  | Long | Numero di oggetti memorizzati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  replicated\$1object\$1count  | Long | Numero di oggetti replicati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte replicati per l'elemento di riferimento corrente | 
|  replicated\$1object\$1source\$1count  | Long | Numero di oggetti replicati come origine archiviati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1source\$1bytes  | DECIMALE (38,0) | Numero di byte replicati come origine per l'elemento di riferimento corrente | 
|  sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  object\$10kb\$1count  | Long | Numero di oggetti con dimensioni pari a 0 KB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$10kb\$1to\$1128kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 0 KB e inferiori a 128 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1128kb\$1to\$1256kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 128 KB e inferiori a 256 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1256kb\$1to\$1512kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 256 KB e inferiori a 512 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1512kb\$1to\$11mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 512 KB e inferiori a 1 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$11mb\$1to\$12mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 1 MB e inferiori a 2 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12mb\$1to\$14mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 2 MB e inferiori a 4 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$14mb\$1to\$18mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 4 MB e inferiori a 8 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$18mb\$1to\$116mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 8 MB e inferiori a 16 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$116mb\$1to\$132mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 16 MB e inferiori a 32 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$132mb\$1to\$164mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 32 MB e inferiori a 64 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$164mb\$1to\$1128mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 64 MB e inferiori a 128 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$1128mb\$1to\$1256mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 128 MB e inferiori a 256 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1256mb\$1to\$1512mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 256 MB e inferiori a 512 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1512mb\$1to\$11gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 512 MB e inferiori a 1 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$11gb\$1to\$12gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 1 GB e inferiori a 2 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12gb\$1to\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 2 GB e inferiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1larger\$1than\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 

## Schema della tabella delle metriche delle proprietà Bucket
<a name="storage-lens-s3-tables-schemas-bucket-property"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso. | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  bucket\$1name  | stringa | Nome bucket | 
|  versioning\$1enabled\$1bucket\$1count  | Long | Numero di bucket con controllo delle versioni abilitato per l'elemento di riferimento corrente | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | Long | Numero di bucket con eliminazione MFA abilitata per l'elemento di riferimento corrente | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | Long | Numero di bucket con KMS abilitato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership applicato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership preferito per l'elemento di riferimento corrente | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | Long | Numero di bucket con Object Ownership Object Writer per l'elemento di riferimento corrente | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | Long | Numero di bucket con accelerazione di trasferimento abilitata per l'elemento di riferimento corrente | 
|  event\$1notification\$1enabled\$1bucket\$1count  | Long | Numero di bucket con notifica degli eventi abilitata per l'elemento di riferimento corrente | 
|  transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita della transizione per l'elemento di riferimento corrente | 
|  expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di transizione delle versioni non correnti per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza delle versioni non correnti per l'elemento di riferimento corrente | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di caricamento multiparte incomplete per l'elemento di riferimento corrente | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita dei marker di eliminazione degli oggetti in scadenza per l'elemento di riferimento corrente | 
|  same\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica nella stessa area per l'elemento di riferimento corrente | 
|  cross\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica interregionale per l'elemento di riferimento corrente | 
|  same\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica dello stesso account per l'elemento di riferimento corrente | 
|  cross\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica tra account per l'elemento di riferimento corrente | 
|  invalid\$1destination\$1replication\$1rule\$1count  | Long | Numero di bucket con replica di destinazione non valida per l'elemento di riferimento corrente | 

## Schema della tabella delle metriche delle attività
<a name="storage-lens-s3-tables-schemas-activity"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  all\$1request\$1count  | Long | Numero di \$1tutte\$1 richieste per l'elemento di riferimento corrente | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | Long | Numero di richieste crittografate KMS per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1sig\$1request\$1count  | Long | Numero di richieste sig non supportate per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1tls\$1request\$1count  | Long | Numero di richieste TLS non supportate per l'elemento di riferimento corrente | 
|  bad\$1request\$1error\$1400\$1count  | Long | Numero di 400 errori di richiesta errata per l'elemento di riferimento corrente | 
|  delete\$1request\$1count  | Long | Numero di richieste di eliminazione per l'elemento di riferimento corrente | 
|  downloaded\$1bytes  | decimale (0,0) | Numero di byte scaricati per l'elemento di riferimento corrente | 
|  error\$14xx\$1count  | Long | Numero di errori 4xx per l'elemento di riferimento corrente | 
|  error\$15xx\$1count  | Long | Numero di 5xx errori per l'elemento di riferimento corrente | 
|  forbidden\$1error\$1403\$1count  | Long | Numero di 403 errori non consentiti per l'elemento di riferimento corrente | 
|  get\$1request\$1count  | Long | Numero di richieste get per l'elemento di riferimento corrente | 
|  head\$1request\$1count  | Long | Numero di richieste head per l'elemento di riferimento corrente | 
|  internal\$1server\$1error\$1500\$1count  | Long | Numero di 500 errori interni del server per l'elemento di riferimento corrente | 
|  list\$1request\$1count  | Long | Numero di richieste di elenco per l'elemento di riferimento corrente | 
|  not\$1found\$1error\$1404\$1count  | Long | Numero di 404 errori non trovati per l'elemento di riferimento corrente | 
|  ok\$1status\$1200\$1count  | Long | Numero di 200 richieste OK per l'elemento di riferimento corrente | 
|  partial\$1content\$1status\$1206\$1count  | Long | Numero di 206 richieste di contenuto parziali per l'elemento di riferimento corrente | 
|  post\$1request\$1count  | Long | Numero di richieste di post per l'elemento di riferimento corrente | 
|  put\$1request\$1count  | Long | Numero di richieste put per l'elemento di riferimento corrente | 
|  select\$1request\$1count  | Long | Numero di richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1returned\$1bytes  | decimale (0,0) | Numero di byte restituiti dalle richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1scanned\$1bytes  | decimale (0,0) | Numero di byte scansionati dalle richieste di selezione per l'elemento di riferimento corrente | 
|  service\$1unavailable\$1error\$1503\$1count  | Long | Numero di 503 errori di servizio non disponibili per l'elemento di riferimento corrente | 
|  uploaded\$1bytes  | decimale (0,0) | Numero di byte caricati per l'elemento di riferimento corrente | 
|  average\$1first\$1byte\$1latency  | Long | Tempo medio per richiesta tra il momento in cui un bucket S3 riceve una richiesta completa e il momento in cui inizia a restituire la risposta, misurato nelle ultime 24 ore | 
|  average\$1total\$1request\$1latency  | Long | Tempo medio trascorso per richiesta tra il primo byte ricevuto e l'ultimo byte inviato a un bucket S3, misurato nelle ultime 24 ore | 
|  read\$10kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati pari a 0 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 0 KB e fino a 128 KB, incluse sia le richieste basate su intervalli che le richieste di oggetti interi | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 KB e fino a 256 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 KB e fino a 512 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 KB e fino a 1 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 MB e fino a 2 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 MB e fino a 4 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 MB e fino a 8 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 8 MB e fino a 16 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 16 MB e fino a 32 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 32 MB e fino a 64 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 64 MB e fino a 128 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 MB e fino a 256 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 MB e fino a 512 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 MB e fino a 1 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 GB e fino a 2 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 GB e fino a 4 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 GB, incluse richieste basate su intervalli e richieste di oggetti interi | 
|  write\$10kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con UploadPart dimensioni dei dati pari a 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 0 KB e fino a 128 KB UploadPart | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 KB e fino a 256 KB UploadPart | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 KB e fino a 512 KB UploadPart | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 KB e fino a 1 MB UploadPart | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 MB e fino a 2 MB UploadPart | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 MB e fino a 4 MB UploadPart | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 MB e fino a 8 MB UploadPart | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 8 MB e fino a 16 MB UploadPart | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 16 MB e fino a 32 MB UploadPart | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 32 MB e fino a 64 MB UploadPart | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 64 MB e fino a 128 MB UploadPart | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 MB e fino a 256 MB UploadPart | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 MB e fino a 512 MB UploadPart | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 MB e fino a 1 GB UploadPart | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 GB e fino a 2 GB UploadPart | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 GB e fino a 4 GB UploadPart | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 GB UploadPart | 
|  concurrent\$1put\$1503\$1error\$1count  | Long | Numero di 503 errori generati a causa di scritture simultanee sullo stesso oggetto | 
|  cross\$1region\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket | 
|  cross\$1region\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket, escluse le richieste di replica tra regioni | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket, esclusi i byte di replica tra regioni | 
|  inregion\$1request\$1count  | Long | Numero di richieste che provengono da un client nella stessa regione della regione di origine del bucket | 
|  inregion\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti dalle chiamate dalla stessa regione della regione principale del bucket | 
|  unique\$1objects\$1accessed\$1daily\$1count  | Long | Numero di oggetti a cui è stato effettuato l'accesso almeno una volta nelle ultime 24 ore | 

## Fasi successive
<a name="storage-lens-s3-tables-schemas-next-steps"></a>
+ Ulteriori informazioni su [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md) 
+ Avvia [Interrogazione dei dati di S3 Storage Lens con strumenti di analisi](storage-lens-s3-tables-querying.md) 
+ Consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md) le definizioni dettagliate delle metriche

# Autorizzazioni per le tabelle S3 Storage Lens
<a name="storage-lens-s3-tables-permissions"></a>

Per lavorare con i dati di S3 Storage Lens esportati in S3 Tables, sono necessarie le autorizzazioni appropriate (IAM). AWS Identity and Access Management Questo argomento tratta le autorizzazioni necessarie per l'esportazione delle metriche e la gestione della crittografia.

## Autorizzazioni per l'esportazione delle metriche nelle tabelle S3
<a name="storage-lens-s3-tables-permissions-export"></a>

Per creare e utilizzare tabelle e bucket da tavolo S3 Storage Lens, devi disporre di determinate autorizzazioni. `s3tables` Come minimo, per configurare S3 Storage Lens su S3 Tables, devi disporre delle seguenti autorizzazioni: `s3tables`
+  `s3tables:CreateTableBucket`— Questa autorizzazione consente di creare un AWS bucket di tabelle gestito. Tutte le metriche di S3 Storage Lens presenti nel tuo account sono archiviate in un unico AWS table bucket gestito denominato. `aws-s3` 
+  `s3tables:PutTableBucketPolicy`— S3 Storage Lens utilizza questa autorizzazione per impostare una policy table bucket che consenta `systemtables.s3.amazonaws.com` l'accesso al bucket in modo da poter fornire i log.

**Importante**  
Se rimuovi le autorizzazioni per il responsabile del servizio`systemtables.s3.amazonaws.com`, S3 Storage Lens non sarà in grado di aggiornare le tabelle S3 con i dati in base alla tua configurazione. Ti consigliamo di aggiungere altre politiche di controllo degli accessi oltre alla politica già fornita, invece di modificare la politica predefinita che viene aggiunta quando viene configurato il table bucket.

**Nota**  
Viene creata una tabella S3 separata per ogni tipo di esportazione delle metriche per ogni configurazione di Storage Lens. Se nella regione sono presenti più configurazioni di Storage Lens, vengono create tabelle separate per configurazioni aggiuntive. Ad esempio, sono disponibili tre tipi di tabelle per il tuo table bucket S3.

## Autorizzazioni per le tabelle crittografate KMS AWS
<a name="storage-lens-s3-tables-permissions-kms"></a>

Per impostazione predefinita, tutti i dati nelle tabelle S3, incluse le metriche di S3 Storage Lens, sono crittografati con la crittografia SSE-S3. Puoi scegliere di crittografare il rapporto sulle metriche di Storage Lens con chiavi (SSE-KMS). AWS KMS Se scegli di crittografare i report metrici di S3 Storage Lens con chiavi KMS, devi disporre di autorizzazioni aggiuntive.

1. L'utente o il ruolo IAM necessita delle seguenti autorizzazioni. Puoi concedere queste autorizzazioni utilizzando la console IAM all'indirizzo. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
   +  `kms:DescribeKey`sulla AWS KMS chiave utilizzata

1. Per quanto riguarda la politica chiave della AWS KMS chiave, sono necessarie le seguenti autorizzazioni. [Puoi concedere queste autorizzazioni utilizzando la AWS KMS console in /kms. https://console.aws.amazon.com](https://console.aws.amazon.com/kms) Per utilizzare questa policy, sostituisci ` user input placeholders ` con le tue informazioni.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "EnableSystemTablesKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "systemtables.s3.amazonaws.com"
               },
               "Action": [
                   "kms:DescribeKey",
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringEquals": {
                       "aws:SourceAccount": "111122223333"
                   }
               }
           },
           {
               "Sid": "EnableKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "maintenance.s3tables.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringLike": {
                       "kms:EncryptionContext:aws:s3:arn": "<table-bucket-arn>/*"
                   }
               }
           }
       ]
   }
   ```

## Ruolo collegato al servizio per S3 Storage Lens
<a name="storage-lens-s3-tables-permissions-slr"></a>

S3 Storage Lens utilizza un ruolo collegato al servizio per scrivere metriche su S3 Tables. Questo ruolo viene creato automaticamente quando abiliti l'esportazione di S3 Tables per la prima volta nel tuo account. Il ruolo collegato al servizio dispone delle seguenti autorizzazioni:
+  `s3tables:CreateTable`- Per creare tabelle nel table bucket `aws-s3`
+  `s3tables:PutTableData`- Per scrivere dati metrici nelle tabelle
+  `s3tables:GetTable`- Per recuperare i metadati delle tabelle

Non è necessario creare o gestire manualmente questo ruolo collegato al servizio. Per ulteriori informazioni sui ruoli collegati al servizio, consulta [Utilizzo dei ruoli collegati al servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/using-service-linked-roles.html) nella *Guida per l'utente IAM*. 

## Le migliori pratiche per le autorizzazioni
<a name="storage-lens-s3-tables-permissions-best-practices"></a>

Segui queste best practice per configurare le autorizzazioni per le tabelle di S3 Storage Lens:
+  **Usa il privilegio minimo**: concedi solo le autorizzazioni necessarie per attività specifiche. Ad esempio, se gli utenti devono solo interrogare i dati, non concedere le autorizzazioni per modificare le configurazioni di Storage Lens.
+  **Usa i ruoli IAM**: utilizza i ruoli IAM anziché le chiavi di accesso a lungo termine per applicazioni e servizi che accedono alle tabelle di S3 Storage Lens.
+  **Abilita AWS CloudTrail: abilita** CloudTrail la registrazione per monitorare l'accesso alle tabelle di S3 Storage Lens e tenere traccia delle modifiche alle autorizzazioni.
+  **Usa politiche basate sulle risorse: quando possibile, utilizza politiche basate sulle** risorse per controllare l'accesso a tabelle o namespace specifici.
+  **Rivedi regolarmente le autorizzazioni**: esamina e verifica periodicamente le politiche IAM e le autorizzazioni di Lake Formation per assicurarti che seguano il principio del privilegio minimo.

## Risoluzione dei problemi relativi alle autorizzazioni
<a name="storage-lens-s3-tables-permissions-troubleshooting"></a>

### Accesso negato quando si abilita l'esportazione di S3 Tables
<a name="storage-lens-s3-tables-permissions-troubleshooting-export"></a>

 **Problema:** ricevi un errore di «accesso negato» quando provi ad abilitare l'esportazione di S3 Tables.

 **Soluzione:** verifica che il tuo utente o ruolo IAM disponga dell'`s3:PutStorageLensConfiguration`autorizzazione e delle autorizzazioni S3 Tables necessarie.

### Accesso negato durante l'interrogazione delle tabelle
<a name="storage-lens-s3-tables-permissions-troubleshooting-query"></a>

 **Problema:** ricevi un errore di «accesso negato» quando esegui una query sulle tabelle S3 Storage Lens in Amazon Athena.

 **Soluzione: verifica che:**
+ L'integrazione di Analytics è abilitata nel `aws-s3` table bucket
+ Le autorizzazioni di Lake Formation sono configurate correttamente
+ Il tuo utente o ruolo IAM dispone delle autorizzazioni Amazon Athena necessarie

### Errori di crittografia KMS
<a name="storage-lens-s3-tables-permissions-troubleshooting-kms"></a>

 **Problema:** si ricevono errori relativi a KMS quando si accede alle tabelle crittografate.

 **Soluzione: verifica che:**
+ La tua policy IAM include le autorizzazioni KMS richieste
+ La policy chiave KMS concede le autorizzazioni al responsabile del servizio S3 Storage Lens
+ La chiave KMS si trova nella stessa regione della configurazione di Storage Lens

## Fasi successive
<a name="storage-lens-s3-tables-permissions-next-steps"></a>
+ Ulteriori informazioni su [Impostazione delle autorizzazioni di Amazon S3 Storage Lens](storage_lens_iam_permissions.md) 
+ Ulteriori informazioni su [Interrogazione dei dati di S3 Storage Lens con strumenti di analisi](storage-lens-s3-tables-querying.md) 
+ Ulteriori informazioni su [Utilizzo degli assistenti AI con le tabelle S3 Storage Lens](storage-lens-s3-tables-ai-tools.md) 

# Interrogazione dei dati di S3 Storage Lens con strumenti di analisi
<a name="storage-lens-s3-tables-querying"></a>

Prima di poter interrogare i dati di S3 Storage Lens esportati in S3 Tables utilizzando servizi di AWS analisi come Amazon Athena o Amazon EMR, devi abilitare l'integrazione dell'analisi nel bucket di tabelle AWS`aws-s3` gestito e configurare le autorizzazioni. AWS Lake Formation 

**Importante**  
Abilitare l'integrazione dell'analisi nel bucket di tabelle «aws-s3" è un passaggio obbligatorio che spesso viene omesso. Senza questa configurazione, non sarai in grado di interrogare le tabelle di S3 Storage Lens utilizzando i servizi di analisi. AWS 

## Prerequisiti
<a name="storage-lens-s3-tables-querying-prerequisites"></a>

Prima di iniziare, assicurati di avere:
+ Una configurazione S3 Storage Lens con esportazione di tabelle S3 abilitata. Per ulteriori informazioni, consulta [Esportazione delle metriche di S3 Storage Lens in S3 Tables](storage-lens-s3-tables-export.md).
+ Accesso ad Amazon Athena o a un altro servizio di analisi.
+ Dopo aver abilitato l'esportazione, sono state attese 24-48 ore prima che i primi dati fossero disponibili.

## Panoramica dell’integrazione
<a name="storage-lens-s3-tables-querying-integration-overview"></a>

Per informazioni dettagliate sull'integrazione delle tabelle S3 con i servizi di AWS analisi, inclusi i prerequisiti, la configurazione dei ruoli IAM e step-by-step le procedure, consulta Integrazione delle tabelle [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) con i servizi di analisi. AWS 

Dopo aver abilitato l'esportazione di S3 Tables e configurato l'integrazione delle analisi, puoi interrogare i dati di S3 Storage Lens utilizzando servizi di AWS analisi come Amazon Athena, Amazon Redshift e Amazon EMR. Ciò consente di eseguire analisi personalizzate, creare dashboard e ricavare informazioni dai dati di storage utilizzando SQL standard.

## Interrogazioni con Amazon Athena
<a name="storage-lens-s3-tables-querying-athena"></a>

Amazon Athena è un servizio di query interattivo senza server che semplifica l'analisi dei dati utilizzando SQL standard. Usa i seguenti passaggi per interrogare i dati di S3 Storage Lens in Athena.

**Nota**  
In tutti gli esempi di query, sostituiscili `lens_my-config_exp` con lo spazio dei nomi di configurazione di Storage Lens effettivo. Per ulteriori informazioni sulla denominazione dei namespace, vedere. [Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables](storage-lens-s3-tables-naming.md)

### Esempio: interroga i principali consumatori di storage
<a name="storage-lens-s3-tables-querying-athena-top-consumers"></a>

La seguente query identifica i primi 10 bucket in base al consumo di storage:

```
SELECT 
    bucket_name,
    storage_class,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb,
    SUM(object_count) AS objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name, storage_class
ORDER BY storage_gb DESC
LIMIT 10
```

### Esempio: analizza la crescita dello storage nel tempo
<a name="storage-lens-s3-tables-querying-athena-growth"></a>

La seguente query analizza la crescita dello storage negli ultimi 30 giorni:

```
SELECT 
    CAST(report_time AS date) AS report_date,
    SUM(storage_bytes) / POWER(1024, 3) AS total_storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '30' day
    AND record_type = 'ACCOUNT'
GROUP BY CAST(report_time AS date)
ORDER BY report_date DESC;
```

### Esempio: identifica i caricamenti multiparte incompleti
<a name="storage-lens-s3-tables-querying-athena-mpu"></a>

La seguente query trova i bucket con caricamenti multiparte incompleti risalenti a più di 7 giorni fa:

```
SELECT 
    bucket_name,
    SUM(incomplete_mpu_storage_older_than_7_days_bytes) / POWER(1024, 3) AS wasted_storage_gb,
    SUM(incomplete_mpu_object_older_than_7_days_count) AS wasted_objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND incomplete_mpu_storage_older_than_7_days_bytes > 0
GROUP BY bucket_name
ORDER BY wasted_storage_gb DESC;
```

### Esempio: trova candidati per i cold data
<a name="storage-lens-s3-tables-querying-athena-cold-data"></a>

La seguente query identifica i prefissi senza attività negli ultimi 100 giorni che vengono archiviati in livelli di archiviazione a caldo:

```
WITH recent_activity AS (
    SELECT DISTINCT 
        bucket_name,
        record_value AS prefix_path
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_activity_metrics"
    WHERE report_time >= current_date - interval '100' day
        AND record_type = 'PREFIX'
        AND all_request_count > 0
)
SELECT 
    s.bucket_name,
    s.record_value AS prefix_path,
    s.storage_class,
    SUM(s.storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics" s
LEFT JOIN recent_activity r 
    ON s.bucket_name = r.bucket_name 
    AND s.record_value = r.prefix_path
WHERE s.report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics"
)
    AND s.record_type = 'PREFIX'
    AND s.storage_class IN ('STANDARD', 'REDUCED_REDUNDANCY')
    AND s.storage_bytes > 1073741824  -- > 1GB
    AND r.prefix_path IS NULL  -- No recent activity
GROUP BY s.bucket_name, s.record_value, s.storage_class
ORDER BY storage_gb DESC
LIMIT 20;
```

### Esempio: analisi dei modelli di richiesta
<a name="storage-lens-s3-tables-querying-athena-requests"></a>

La seguente query analizza i modelli di richiesta per comprendere la frequenza di accesso:

```
SELECT 
    bucket_name,
    SUM(all_request_count) AS total_requests,
    SUM(get_request_count) AS get_requests,
    SUM(put_request_count) AS put_requests,
    ROUND(100.0 * SUM(get_request_count) / NULLIF(SUM(all_request_count), 0), 2) AS get_percentage,
    SUM(downloaded_bytes) / POWER(1024, 3) AS downloaded_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_activity_metrics"
WHERE report_time >= current_date - interval '7' day
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name
HAVING SUM(all_request_count) > 0
ORDER BY total_requests DESC
LIMIT 10;
```

## Interrogazione con Apache Spark su Amazon EMR
<a name="storage-lens-s3-tables-querying-emr"></a>

Amazon EMR fornisce un framework Hadoop gestito che semplifica l'elaborazione di grandi quantità di dati utilizzando Apache Spark. Puoi usare il connettore Iceberg per leggere direttamente le tabelle di S3 Storage Lens.

### Leggi le tabelle S3 con Spark
<a name="storage-lens-s3-tables-querying-emr-spark"></a>

Usa il seguente codice Python per leggere i dati di S3 Storage Lens con Spark:

```
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("S3StorageLensAnalysis") \
    .config("spark.sql.catalog.s3tablescatalog", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.s3tablescatalog.catalog-impl", "org.apache.iceberg.aws.glue.GlueCatalog") \
    .getOrCreate()

# Read S3 Storage Lens data
df = spark.read \
    .format("iceberg") \
    .load("s3tablescatalog/aws-s3.lens_my-config_exp.default_storage_metrics")

# Analyze data
df.filter("record_type = 'BUCKET'") \
    .groupBy("bucket_name", "storage_class") \
    .sum("storage_bytes") \
    .orderBy("sum(storage_bytes)", ascending=False) \
    .show(10)
```

## Best practice per l'ottimizzazione delle query
<a name="storage-lens-s3-tables-querying-optimization"></a>

Segui queste best practice per ottimizzare le prestazioni delle query e ridurre i costi:
+  **Filtra per report\$1time**: includi sempre filtri di data per ridurre la quantità di dati scansionati. Ciò è particolarmente importante per le tabelle con lunghi periodi di conservazione.

  ```
  WHERE report_time >= current_date - interval '7' day
  ```
+  **Usa i filtri record\$1type**: specifica il livello di aggregazione appropriato (ACCOUNT, BUCKET, PREFIX) per interrogare solo i dati necessari.

  ```
  WHERE record_type = 'BUCKET'
  ```
+  **Includi clausole LIMIT: utilizza** LIMIT per le query esplorative per controllare la dimensione dei risultati e ridurre i costi delle query.

  ```
  LIMIT 100
  ```
+  **Filtra i record vuoti**: utilizza le condizioni per escludere i record vuoti o con valore zero.

  ```
  WHERE storage_bytes > 0
  ```
+  **Usa i dati più recenti**: quando analizzi lo stato corrente, filtra in base al report\$1time più recente per evitare la scansione dei dati storici.

  ```
  WHERE report_time = (SELECT MAX(report_time) FROM table_name)
  ```

### Esempio di modello di interrogazione ottimizzato
<a name="storage-lens-s3-tables-querying-optimization-example"></a>

La seguente query illustra le migliori pratiche per l'ottimizzazione:

```
SELECT 
    bucket_name,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '7' day  -- Date filter
    AND record_type = 'BUCKET'                         -- Record type filter
    AND storage_bytes > 0                              -- Non-empty filter
    AND bucket_name != ''                              -- Non-empty filter
GROUP BY bucket_name
ORDER BY storage_gb DESC
LIMIT 100;                                             -- Result limit
```

## Risoluzione dei problemi
<a name="storage-lens-s3-tables-querying-troubleshooting"></a>

### La query non restituisce risultati
<a name="storage-lens-s3-tables-querying-troubleshooting-no-results"></a>

 **Problema:** la query viene completata correttamente ma non restituisce risultati.

 **Soluzione:**: 
+ Verifica che i dati siano disponibili controllando l'ultimo report\$1time:

  ```
  SELECT MAX(report_time) AS latest_data
  FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics";
  ```
+ Assicurati di utilizzare il nome del namespace corretto. Usa `SHOW TABLES IN `lens_my-config_exp`;` per elencare le tabelle disponibili.
+ Attendi 24-48 ore dopo aver abilitato l'esportazione delle tabelle S3 affinché i primi dati siano disponibili.

### Errori di accesso negato
<a name="storage-lens-s3-tables-querying-troubleshooting-access"></a>

 **Problema:** ricevi errori di accesso negato durante l'esecuzione delle query.

 **Soluzione:** verifica che AWS Lake Formation le autorizzazioni siano configurate correttamente. Per ulteriori informazioni, consulta [Integrazione delle tabelle Amazon S3 AWS con](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) i servizi di analisi. 

## Fasi successive
<a name="storage-lens-s3-tables-querying-next-steps"></a>
+ Ulteriori informazioni su [Utilizzo degli assistenti AI con le tabelle S3 Storage Lens](storage-lens-s3-tables-ai-tools.md)
+ Consulta le definizioni delle [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md) metriche
+ Esplora [Casi d'uso relativi ai parametri di Amazon S3 Storage Lens](storage-lens-use-cases.md) per ulteriori idee di analisi
+ Scopri [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) per l'interrogazione senza server

# Utilizzo degli assistenti AI con le tabelle S3 Storage Lens
<a name="storage-lens-s3-tables-ai-tools"></a>

Puoi utilizzare gli assistenti AI e gli strumenti di intelligenza artificiale conversazionale per interagire con i dati di S3 Storage Lens esportati su S3 Tables utilizzando il linguaggio naturale. Sfruttando il Model Context Protocol (MCP) e il server MCP per le tabelle Amazon S3, puoi interrogare, analizzare e ottenere informazioni dai tuoi dati di storage senza scrivere query SQL.

## Panoramica di
<a name="storage-lens-s3-tables-ai-tools-overview"></a>

Il Model Context Protocol (MCP) è un modo standardizzato per le applicazioni di intelligenza artificiale di accedere e utilizzare le informazioni contestuali. Il server MCP per Amazon S3 Tables fornisce strumenti che consentono agli assistenti AI di interagire con i dati di S3 Tables utilizzando interfacce in linguaggio naturale. Ciò democratizza l'accesso ai dati e consente alle persone con diversi livelli di competenza tecnica di lavorare con le metriche di S3 Storage Lens.

Con il server MCP per S3 Tables, puoi usare il linguaggio naturale per:
+ Elenca i bucket, i namespace e le tabelle S3
+ Interroga i parametri di S3 Storage Lens e ottieni informazioni dettagliate
+ Analizza le tendenze e i modelli di storage
+ Identifica le opportunità di ottimizzazione dei costi
+ Genera report e visualizzazioni

## Assistenti AI supportati
<a name="storage-lens-s3-tables-ai-tools-supported"></a>

Il server MCP per S3 Tables funziona con vari assistenti AI che supportano il Model Context Protocol, tra cui:
+ **Kiro**: un assistente di codifica AI con supporto MCP integrato
+ **Amazon Q Developer**: AWS l'assistente per sviluppatori basato sull'intelligenza artificiale
+ **Cline**: un assistente di codifica AI con integrazione MCP
+ **Claude Desktop - L'applicazione desktop** di Anthropic con supporto MCP
+ **Cursor** - Un editor di codice basato sull'intelligenza artificiale

**Importante**  
Le query e i consigli SQL generati dall'intelligenza artificiale devono essere esaminati e convalidati prima dell'uso. Verifica che le query siano appropriate per la struttura dei dati, il caso d'uso e i requisiti prestazionali. Verifica sempre le raccomandazioni in un ambiente non di produzione prima di implementarle in produzione.

## Configurazione di Kiro con i tavoli S3 Storage Lens
<a name="storage-lens-s3-tables-ai-tools-kiro-setup"></a>

Kiro è un assistente di codifica AI che fornisce una perfetta integrazione con S3 Tables tramite il server MCP. Kiro può aiutarti a installare e configurare il server MCP direttamente tramite la sua interfaccia, semplificando il processo di configurazione.

[Per ulteriori informazioni su Kiro, consulta Kiro AI.](https://kiro.ai/)

### Prerequisiti
<a name="storage-lens-s3-tables-ai-tools-kiro-prerequisites"></a>

Prima di iniziare, assicurati di avere:
+ Kiro installato sul tuo sistema. [Scaricalo da https://kiro.ai/](https://kiro.ai/)
+ AWS CLI configurato con le credenziali appropriate
+ Una configurazione S3 Storage Lens con esportazione di tabelle S3 abilitata
+ Autorizzazioni per interrogare le tabelle S3. Per ulteriori informazioni, consulta [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md).

### Fase 1: Installare il server MCP di S3 Tables
<a name="storage-lens-s3-tables-ai-tools-kiro-step1"></a>

È possibile installare il server MCP S3 Tables in due modi:

**Opzione 1: utilizzo della gestione del server MCP integrata di Kiro**  
Kiro può aiutarti a scoprire e installare i server MCP direttamente tramite la sua interfaccia:

1. Apri Kiro

1. Accedi all'interfaccia di gestione del server MCP (in genere tramite le impostazioni o la palette di comandi)

1. Cerca «S3 Tables» o «awslabs.s3-» tables-mcp-server

1. Segui le istruzioni di Kiro per installare e configurare il server

**Opzione 2: installazione manuale tramite uvx**  
In alternativa, puoi installare manualmente il server MCP usando un `uvx` gestore di pacchetti Python:

```
uvx awslabs.s3-tables-mcp-server@latest
```

Per ulteriori informazioni sull'installazione del server MCP, consultate la documentazione del server MCP di [AWS S3 Tables](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server).

### Fase 2: Configurare le impostazioni di Kiro MCP
<a name="storage-lens-s3-tables-ai-tools-kiro-step2"></a>

Crea o aggiorna il tuo file di configurazione Kiro MCP all'indirizzo `~/.kiro/settings/mcp.json` con il seguente contenuto:

```
{
  "mcpServers": {
    "awslabs.s3-tables-mcp-server": {
      "command": "uvx",
      "args": ["awslabs.s3-tables-mcp-server@latest"],
      "env": {
        "AWS_PROFILE": "your-aws-profile",
        "AWS_REGION": "us-east-1"
      }
    }
  }
}
```

`your-aws-profile`Sostituiscilo con il nome AWS CLI del tuo profilo e `us-east-1` con la tua AWS regione.

### Fase 3: Verifica la configurazione
<a name="storage-lens-s3-tables-ai-tools-kiro-step3"></a>

Dopo aver configurato il server MCP, riavvia Kiro e verifica che gli strumenti S3 Tables siano disponibili. Puoi controllare i server MCP disponibili nelle impostazioni di Kiro o chiedendo a Kiro di elencare gli strumenti disponibili.

## Esempi di casi d'uso con assistenti AI
<a name="storage-lens-s3-tables-ai-tools-examples"></a>

Gli esempi seguenti mostrano come utilizzare i prompt in linguaggio naturale con gli assistenti AI per interagire con i dati di S3 Storage Lens.

### Esempio 1: interroga i principali consumatori di storage
<a name="storage-lens-s3-tables-ai-tools-examples-consumers"></a>

**Richiesta:** «Mostrami i 10 bucket principali per consumo di storage in base ai dati del mio S3 Storage Lens».

L'assistente AI utilizzerà il server MCP per interrogare le tabelle di S3 Storage Lens e restituire i risultati, inclusi i nomi dei bucket, le classi di archiviazione e gli importi di storage.

### Esempio 2: analizza la crescita dello storage
<a name="storage-lens-s3-tables-ai-tools-examples-growth"></a>

**Richiesta:** «Analizza la crescita dello storage negli ultimi 30 giorni e mostrami la tendenza».

L'assistente AI interrogherà la tabella delle metriche di archiviazione, calcolerà i totali di archiviazione giornalieri e presenterà il trend di crescita.

### Esempio 3: Identifica le opportunità di ottimizzazione dei costi
<a name="storage-lens-s3-tables-ai-tools-examples-optimization"></a>

**Richiesta:** «Trova i bucket con caricamenti incompleti in più parti risalenti a più di 7 giorni fa e che sprecano spazio di archiviazione».

L'assistente AI interrogherà la tabella delle metriche di archiviazione per individuare caricamenti incompleti in più parti e fornirà un elenco di bucket con potenziali risparmi sui costi.

### Esempio 4: trova candidati candidati per i cold data
<a name="storage-lens-s3-tables-ai-tools-examples-cold-data"></a>

**Richiesta:** «Identifica i prefissi senza attività negli ultimi 100 giorni che vengono archiviati in livelli di archiviazione a caldo».

L'assistente AI analizzerà le metriche di archiviazione e di attività per identificare i dati che potrebbero essere spostati su livelli di archiviazione più freddi per ottimizzare i costi.

### Esempio 5: generazione di report sullo storage
<a name="storage-lens-s3-tables-ai-tools-examples-reports"></a>

**Richiesta:** «Crea un rapporto riepilogativo del mio storage S3 che mostri lo storage totale, il numero di oggetti e i modelli di richiesta per l'ultima settimana».

L'assistente AI interrogherà più tabelle, aggregherà i dati e genererà un report completo.

## Le migliori pratiche per l'utilizzo degli assistenti AI
<a name="storage-lens-s3-tables-ai-tools-best-practices"></a>

Segui queste best practice quando utilizzi gli assistenti AI con i dati di S3 Storage Lens:
+ **Sii specifico nelle istruzioni**: fornisci istruzioni chiare e specifiche sui dati che desideri analizzare e sugli approfondimenti che stai cercando.
+ **Verifica le query generate dall'intelligenza artificiale**: esamina e convalida sempre le query e i consigli SQL generati dall'assistente AI prima di eseguirle o agire. Gli assistenti AI possono occasionalmente produrre domande o consigli errati che devono essere verificati rispetto al caso d'uso e ai dati specifici.
+ **Usa le autorizzazioni appropriate**: assicurati che le credenziali IAM utilizzate dall'assistente AI dispongano solo delle autorizzazioni necessarie. Per l'analisi di sola lettura, concedi solo le autorizzazioni SELECT.
+ **Monitora l'utilizzo**: monitora le query eseguite dagli assistenti AI utilizzando AWS CloudTrail per mantenere gli audit trail.
+ **Inizia con domande semplici: inizia con domande** semplici per capire come l'assistente AI interpreta le tue istruzioni, quindi passa ad analisi più complesse.

## Registrazione e tracciabilità
<a name="storage-lens-s3-tables-ai-tools-logging"></a>

Quando si utilizza il server MCP S3 Tables con assistenti AI, sono disponibili diversi modi per controllare le operazioni:
+ **Registri locali**: il server MCP registra le richieste e le risposte localmente. È possibile specificare una directory di registro utilizzando l'`--log-dir`opzione di configurazione.
+ **AWS CloudTrail**- Tutte le operazioni di S3 Tables tramite il server MCP utilizzate PyIceberg avranno `awslabs/mcp/s3-tables-mcp-server/<version>` come stringa dell'agente utente. Puoi filtrare CloudTrail i log tramite questo agente utente per tracciare le azioni eseguite dagli assistenti AI.
+ **Cronologia degli assistenti** AI: gli assistenti AI come Kiro e Cline conservano registri cronologici che registrano le richieste in linguaggio naturale, le risposte LLM e le istruzioni fornite al server MCP.

## Considerazioni relative alla sicurezza
<a name="storage-lens-s3-tables-ai-tools-security"></a>

Quando utilizzi gli assistenti AI con i dati di S3 Storage Lens, segui queste best practice di sicurezza:
+ **Usa l'accesso con privilegi minimi**: concedi agli assistenti AI solo le autorizzazioni minime richieste per le loro attività.
+ **Abilita MFA**: utilizza l'autenticazione a più fattori per AWS gli account a cui accedono gli assistenti AI.
+ **Rivedi regolarmente le autorizzazioni**: verifica periodicamente le autorizzazioni concesse agli assistenti AI e revoca gli accessi non necessari.
+ **Usa credenziali separate**: valuta la possibilità di utilizzare AWS credenziali separate per l'accesso all'assistente AI per facilitare il monitoraggio e il controllo.
+ **Evita di condividere dati sensibili**: fai attenzione a non condividere informazioni sensibili nelle istruzioni agli assistenti AI, specialmente quando utilizzi servizi di intelligenza artificiale basati su cloud.

## Risoluzione dei problemi
<a name="storage-lens-s3-tables-ai-tools-troubleshooting"></a>

### L'assistente AI non può connettersi a S3 Tables
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-connection"></a>

**Problema:** l'assistente AI segnala che non riesce a connettersi a S3 Tables o che il server MCP non risponde.

**Soluzione:**:
+ Verifica che il server MCP sia installato correttamente utilizzando `uvx awslabs.s3-tables-mcp-server@latest --version`
+ Verifica che le tue AWS credenziali siano configurate correttamente
+ Assicurati che il file di configurazione MCP abbia il AWS profilo e la regione corretti

### Errori di accesso negato
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-access"></a>

**Problema:** l'assistente AI riceve errori di accesso negato quando interroga le tabelle di S3 Storage Lens.

**Soluzione:**:
+ Verifica che l'integrazione dell'analisi sia abilitata nel `aws-s3` table bucket
+ Verifica che i permessi di Lake Formation siano configurati correttamente
+ Assicurati che le AWS credenziali dispongano delle autorizzazioni IAM necessarie

### Risultati errati o imprevisti
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-results"></a>

**Problema:** l'assistente AI restituisce risultati errati o imprevisti.

**Soluzione:**:
+ Esamina la query SQL generata dall'assistente AI
+ Verifica di utilizzare il nome dello spazio dei nomi corretto per la configurazione di Storage Lens
+ Verifica che i dati siano disponibili interrogando la versione più recente di report\$1time
+ Perfeziona il prompt per essere più specifico su ciò che desideri analizzare

## Risorse aggiuntive
<a name="storage-lens-s3-tables-ai-tools-resources"></a>

Per ulteriori informazioni sull'utilizzo degli assistenti AI con S3 Tables, consulta le seguenti risorse:
+ [Kiro AI](https://kiro.ai/) - Assistente di codifica AI con supporto MCP integrato
+ [Implementazione dell'intelligenza artificiale conversazionale per le tabelle S3 utilizzando il Model Context Protocol](https://aws.amazon.com/blogs/storage/implementing-conversational-ai-for-s3-tables-using-model-context-protocol-mcp/) (MCP) - Storage Blog AWS 
+ [AWS Documentazione del server MCP di S3 Tables](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server)
+ [Specifiche del Model Context Protocol](https://modelcontextprotocol.io/)

# Utilizzo di Amazon S3 Storage Lens con AWS Organizations
<a name="storage_lens_with_organizations"></a>

Amazon S3 Storage Lens è una funzionalità di analisi del cloud-storage che può essere utilizzata per ottenere visibilità a livello di organizzazione sull'utilizzo e l'attività dell'object-storage. È possibile utilizzare i parametri di S3 Storage Lens per generare approfondimenti, ad esempio per scoprire la quantità di spazio di archiviazione disponibile nell'intera organizzazione o quali sono i bucket e i prefissi caratterizzati da una crescita più rapida. Puoi anche usare Amazon S3 Storage Lens per raccogliere parametri di storage e dati di utilizzo per tutti gli elementi Account AWS che fanno parte della tua gerarchia. AWS Organizations A tale scopo, devi utilizzare AWS Organizations e abilitare l'accesso affidabile di S3 Storage Lens utilizzando il tuo account di gestione. AWS Organizations 

Dopo aver abilitato l'accesso protetto, aggiungere l'accesso amministratore delegato agli account dell'organizzazione. Gli account di amministratore delegato vengono utilizzati per creare configurazioni e dashboard S3 Storage Lens che raccolgono le metriche di archiviazione e i dati degli utenti a livello di organizzazione. Per maggiori informazioni sull'abilitazione dell'accesso attendibile, consulta [Amazon S3 Storage Lens e AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/services-that-can-integrate-s3lens.html) nella *Guida per l'utente AWS Organizations *.

**Topics**
+ [

# Abilitazione dell'accesso attendibile per S3 Storage Lens
](storage_lens_with_organizations_enabling_trusted_access.md)
+ [

# Disabilitazione dell'accesso attendibile per S3 Storage Lens
](storage_lens_with_organizations_disabling_trusted_access.md)
+ [

# Registrazione di un amministratore delegato per S3 Storage Lens
](storage_lens_with_organizations_registering_delegated_admins.md)
+ [

# Annullamento della registrazione di un amministratore delegato per S3 Storage Lens
](storage_lens_with_organizations_deregistering_delegated_admins.md)

# Abilitazione dell'accesso attendibile per S3 Storage Lens
<a name="storage_lens_with_organizations_enabling_trusted_access"></a>

Abilitando l'accesso affidabile, consenti ad Amazon S3 Storage Lens di accedere alla tua AWS Organizations gerarchia, appartenenza e struttura tramite AWS Organizations operazioni API. S3 Storage Lens diventa in questo modo un servizio attendibile per l'intera struttura dell'organizzazione.

Ogni volta che viene creata una configurazione del pannello di controllo, S3 Storage Lens crea ruoli collegati ai servizi nella gestione o negli account dell'amministratore delegato. Il ruolo collegato al servizio concede a S3 Storage Lens l'autorizzazione a eseguire le seguenti azioni: 
+ Descrivere le organizzazioni
+ Elencare gli account
+ Verifica un elenco di Servizio AWS accessi per le organizzazioni
+ Ottenere amministratori delegati per le organizzazioni



S3 Storage Lens può quindi garantire l'accesso alla raccolta delle metriche multi-account per gli account dell'organizzazione. Per ulteriori informazioni, consulta la sezione [Utilizzo dei ruoli collegati ai servizi per Amazon S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-service-linked-roles.html). 

Dopo aver abilitato l'accesso attendibile, potrai assegnare l'accesso da amministratore delegato agli account dell'organizzazione. Quando un account è contrassegnato come amministratore delegato per un servizio, l'account riceve l'autorizzazione ad accedere a tutte le operazioni API dell'organizzazione in sola lettura. Ciò fornisce visibilità di tipo amministratore delegato ai membri e alle strutture dell'organizzazione in modo che possano creare pannelli di controllo di S3 Storage Lens.

**Nota**  
L'accesso attendibile può essere abilitato solo dall'[account di gestione](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html).
 Solo l'account di gestione e gli amministratori delegati possono creare pannelli di controllo o configurazioni di S3 Storage Lens per l'organizzazione.

# Utilizzo della console S3
<a name="storage_lens_console_organizations_enabling_trusted_access"></a>

**Per consentire a S3 Storage Lens di avere un accesso affidabile AWS Organizations**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli le **impostazioni di AWS Organizations **. Viene visualizzata la pagina **AWS Organizations access for Storage Lens**.

1. In **AWS Organizations Accesso attendibile**, scegli **Modifica**.

   Viene visualizzata la pagina di **accesso a AWS Organizations **.

1. Scegli **Abilita** per abilitare l'accesso protetto per la dashboard di S3 Storage Lens.

1. Scegli **Save changes** (Salva modifiche).

# Utilizzando il AWS CLI
<a name="OrganizationsEnableTrustedAccessS3LensCLI"></a>

**Example**  
L'esempio seguente mostra come abilitare l'accesso AWS Organizations affidabile per S3 Storage Lens in AWS CLI.  

```
aws organizations enable-aws-service-access --service-principal storage-lens.s3.amazonaws.com
```

# Utilizzo dell' AWS SDK for Java
<a name="OrganizationsEnableTrustedAccessS3LensJava"></a>

**Example — Abilita l'accesso AWS Organizations affidabile per S3 Storage Lens utilizzando SDK for Java**  
L'esempio seguente mostra come abilitare l'accesso attendibile per S3 Storage Lens in SDK per Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.EnableAWSServiceAccessRequest;

public class EnableOrganizationsTrustedAccess {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.enableAWSServiceAccess(new EnableAWSServiceAccessRequest()
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Disabilitazione dell'accesso attendibile per S3 Storage Lens
<a name="storage_lens_with_organizations_disabling_trusted_access"></a>

La rimozione di un account come amministratore delegato o la disabilitazione dell'accesso attendibile limita le metriche della dashboard S3 Storage Lens del proprietario dell'account al solo livello di account. Ogni titolare di account potrà quindi usufruire dei vantaggi di S3 Storage Lens solo nell'ambito limitato del proprio account, e non dell'intera organizzazione.

Quando si disabilita l'accesso attendibile in S3 Storage Lens, le dashboard che richiedono l'accesso attendibile non vengono più aggiornate. Anche le dashboard organizzative create non vengono più aggiornate. Invece, è possibile interrogare solo i [dati storici per la dashboard S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html#storage_lens_basics_data_queries), finché i dati sono ancora disponibili.

**Nota**  
Inoltre, la disabilitazione dell'accesso attendibile per S3 Storage Lens impedisce automaticamente a tutti i pannelli di controllo a livello di organizzazione di raccogliere e aggregare i parametri di storage. Questo perché S3 Storage Lens non ha più accesso fidato agli account dell'organizzazione.
Gli account di gestione e di amministratore delegato possono ancora consultare i dati storici di tutte le dashboard disattivate. Possono anche interrogare questi dati storici quando sono ancora disponibili. 

# Utilizzo della console S3
<a name="storage_lens_console_organizations_disabling_trusted_access"></a>

**Per disabilitare l'accesso attendibile per S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1. Scegli le **impostazioni di AWS Organizations **. Viene visualizzata la pagina **AWS Organizations access for Storage Lens**.

1. In **AWS Organizations Accesso attendibile**, scegli **Modifica**.

   Viene visualizzata la pagina di **accesso a AWS Organizations **.

1. Scegli **Disabilita** per disabilitare l'accesso attendibile per la dashboard S3 Storage Lens.

1. Scegli **Save changes** (Salva modifiche).

# Utilizzando il AWS CLI
<a name="OrganizationsDisableTrustedAccessS3LensCLI"></a>

**Example**  
L'esempio seguente disabilita l'accesso attendibile per S3 Storage Lens utilizzando AWS CLI.  

```
aws organizations disable-aws-service-access --service-principal storage-lens.s3.amazonaws.com
```

# Utilizzo dell' AWS SDK for Java
<a name="OrganizationsDisableTrustedAccessS3LensJava"></a>

**Example — Disabilita l'accesso AWS Organizations affidabile per S3 Storage Lens**  
L'esempio seguente mostra come disabilitare l'accesso AWS Organizations affidabile per S3 Storage Lens in SDK for Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.DisableAWSServiceAccessRequest;

public class DisableOrganizationsTrustedAccess {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            // Make sure to remove any existing delegated administrator for S3 Storage Lens 
            // before disabling access; otherwise, the request will fail.
            organizationsClient.disableAWSServiceAccess(new DisableAWSServiceAccessRequest()
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Registrazione di un amministratore delegato per S3 Storage Lens
<a name="storage_lens_with_organizations_registering_delegated_admins"></a>

È possibile creare pannelli di controllo a livello di organizzazione utilizzando l'account di gestione dell'organizzazione o un account come amministratore delegato. Gli account amministratore delegati consentono ad altri account oltre all'account di gestione di creare pannelli di controllo a livello di organizzazione. Solo l’account di gestione di un'organizzazione può registrare e annullare la registrazione di altri account come amministratori delegati per l'organizzazione.

[Dopo aver abilitato l'accesso affidabile, puoi registrare l'accesso degli amministratori delegati agli account dell'organizzazione utilizzando l'API AWS Organizations REST o SDKs dall'account di gestione. AWS CLI](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html) (Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/organizations/latest/APIReference/API_RegisterDelegatedAdministrator.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_RegisterDelegatedAdministrator.html) in *AWS Organizations API Reference*) Quando un account viene registrato come amministratore delegato, l'account riceve l'autorizzazione ad accedere a tutte le operazioni API di sola lettura AWS Organizations . Ciò fornisce visibilità ai membri e alle strutture dell'organizzazione in modo che possano creare pannelli di controllo di S3 Storage Lens per conto dell'utente.

**Nota**  
Prima di poter designare un amministratore delegato utilizzando l'API AWS Organizations REST, oppure AWS CLI SDKs, è necessario chiamare l'operazione. [https://docs.aws.amazon.com/organizations/latest/APIReference/API_EnableAWSServiceAccess.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_EnableAWSServiceAccess.html)

# Utilizzo della console S3
<a name="storage_lens_console_organizations_registering_delegated_admins"></a>

**Per registrare gli amministratori delegati per S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1.  Scegli le **impostazioni di AWS Organizations **.

1. In **Amministratori delegati**, scegli **Registra account**.

1. Aggiungi un Account AWS ID per registrare l'account come amministratore delegato. L'amministratore delegato è in grado di creare dashboard a livello di organizzazione per tutti gli account e gli archivi dell'organizzazione.

1. Scegli **Registra account**.

# Utilizzando il AWS CLI
<a name="OrganizationsRegisterDelegatedAdministratorS3LensCLI"></a>

**Example**  
L'esempio seguente mostra come registrare gli amministratori delegati delle organizzazioni per S3 Storage Lens tramite AWS CLI. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
aws organizations register-delegated-administrator --service-principal storage-lens.s3.amazonaws.com --account-id 111122223333
```

# Utilizzo dell' AWS SDK for Java
<a name="OrganizationsRegisterDelegatedAdministratorS3LensJava"></a>

**Example - Registrare gli amministratori delegati delle organizzazioni per S3 Storage Lens**  
L'esempio seguente mostra come registrare gli amministratori AWS Organizations delegati per S3 Storage Lens in SDK for Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.RegisterDelegatedAdministratorRequest;

public class RegisterOrganizationsDelegatedAdministrator {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            String delegatedAdminAccountId = "111122223333"; // Account Id for the delegated administrator.
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.registerDelegatedAdministrator(new RegisterDelegatedAdministratorRequest()
                .withAccountId(delegatedAdminAccountId)
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Annullamento della registrazione di un amministratore delegato per S3 Storage Lens
<a name="storage_lens_with_organizations_deregistering_delegated_admins"></a>

Dopo aver abilitato l'accesso attendibile, è possibile anche annullare la registrazione dell'accesso dell'amministratore delegato agli account dell'organizzazione. Gli account di amministratore delegato consentono ad altri account, oltre a quello [di gestione](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html), di creare dashboard a livello di organizzazione. Solo l'account di gestione di un'organizzazione può annullare la registrazione degli account come amministratori delegati per l'organizzazione.

È possibile annullare la registrazione di un amministratore delegato utilizzando l'API REST o gli AWS Organizations Console di gestione AWS SDK dall'account di gestione AWS CLI. AWS Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/organizations/latest/APIReference/API_DeregisterDelegatedAdministrator.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_DeregisterDelegatedAdministrator.html) nella *documentazione di riferimento dell’API AWS Organizations *.

Quando viene annullata la registrazione di un account come amministratore delegato, tale account perde l'accesso a quanto segue:
+ Tutte le operazioni AWS Organizations API di sola lettura che forniscono visibilità ai membri e alle strutture dell'organizzazione.
+ Tutte le dashboard a livello di organizzazione create dall'amministratore delegato. Questa azione interrompe automaticamente tutti i pannelli di controllo a livello di organizzazione creati dall'amministratore delegato dall'aggregazione di nuovi parametri di archiviazione.
**Nota**  
L'amministratore delegato con registrazione annullata sarà ancora in grado di consultare i dati storici delle dashboard disabilitate che ha creato, se i dati sono ancora disponibili per l'esecuzione di query.

# Utilizzo della console S3
<a name="storage_lens_console_organizations_deregistering_delegated_admins"></a>

**Per cancellare gli amministratori delegati per S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, spostarsi su **Storage Lens**.

1.  Scegli le **impostazioni di AWS Organizations **.

1. In **Amministratori delegati**, scegli l'account che si desidera cancellare.

1. Scegli **De-registrazione dell'account**. L'account cancellato non è più un amministratore delegato e non è più in grado di creare dashboard a livello di organizzazione per tutti gli account e gli archivi dell'organizzazione.

1. Scegli **Registra account**.

# Utilizzando il AWS CLI
<a name="OrganizationsDeregisterDelegatedAdministratorS3LensCLI"></a>

**Example**  
L'esempio seguente mostra come annullare la registrazione degli amministratori delegati delle organizzazioni per S3 Storage Lens tramite AWS CLI. Per utilizzare questo esempio, sostituisci `111122223333` con il tuo ID Account AWS .  

```
aws organizations deregister-delegated-administrator --service-principal storage-lens.s3.amazonaws.com --account-id 111122223333
```

# Utilizzo dell' AWS SDK for Java
<a name="OrganizationsDeregisterDelegatedAdministratorS3LensJava"></a>

**Example - Cancellare gli amministratori delegati delle organizzazioni per S3 Storage Lens**  
L'esempio seguente mostra come annullare la registrazione degli amministratori delegati delle organizzazioni per S3 Storage Lens utilizzando SDK per Java. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.DeregisterDelegatedAdministratorRequest;

public class DeregisterOrganizationsDelegatedAdministrator {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            String delegatedAdminAccountId = "111122223333"; // Account Id for the delegated administrator.
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.deregisterDelegatedAdministrator(new DeregisterDelegatedAdministratorRequest()
                .withAccountId(delegatedAdminAccountId)
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Operazioni con i gruppi S3 Storage Lens per filtrare e aggregare le metriche
<a name="storage-lens-groups-overview"></a>

Un gruppo Amazon S3 Storage Lens aggrega i parametri utilizzando filtri personalizzati basati sui metadati degli oggetti. I gruppi Storage Lens ti aiutano ad approfondire le caratteristiche dei tuoi dati, come la distribuzione degli oggetti per età, i tipi di file più comuni e altro ancora. Ad esempio, puoi filtrare le metriche per tag di oggetto per identificare i set di dati in più rapida crescita o visualizzare lo storage in base alla dimensione e all'età degli oggetti per definire la tua strategia di archiviazione dello storage. Di conseguenza, i gruppi Amazon S3 Storage Lens ti aiutano a comprendere e ottimizzare meglio la tua archiviazione S3.

Con i gruppi Storage Lens, puoi analizzare e filtrare i parametri di S3 Storage Lens utilizzando metadati degli oggetti come prefissi, suffissi, [tag degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html), dimensioni o età degli oggetti. Puoi anche applicare una combinazione di questi filtri. Dopo aver collegato il gruppo Storage Lens al pannello di controllo di S3 Storage Lens, puoi visualizzare i parametri S3 Storage Lens aggregati in base ai gruppi Amazon S3 Storage Lens direttamente nel pannello di controllo.

Ad esempio, è anche possibile filtrare i parametri per dimensione degli oggetti o fasce di età per determinare quale parte dell'archiviazione è costituita da oggetti di piccole dimensioni. Quindi puoi utilizzare queste informazioni con S3 Intelligent-Tiering o S3 Lifecycle per trasferire piccoli oggetti in classi di archiviazione diverse per ottimizzare costi e archiviazione.

**Topics**
+ [

# Funzionamento dei gruppi S3 Storage Lens
](storage-lens-groups.md)
+ [

# Utilizzo dei gruppi Storage Lens
](storage-lens-group-tasks.md)

# Funzionamento dei gruppi S3 Storage Lens
<a name="storage-lens-groups"></a>

I gruppi Storage Lens consentono di aggregare i parametri utilizzando filtri personalizzati basati sui metadati degli oggetti. Quando si definisce un filtro personalizzato, è possibile utilizzare prefissi, suffissi, tag degli oggetti, dimensioni degli oggetti, età degli oggetti o una combinazione di questi filtri personalizzati. Durante la creazione del gruppo Storage Lens, puoi anche includere un singolo filtro o più condizioni di filtro. Per specificare più condizioni di filtro, utilizza gli operatori logici `And` oppure `Or`.

Quando crei e configuri un gruppo Storage Lens, questo opera da filtro personalizzato nel pannello di controllo al quale colleghi il gruppo. Nel pannello di controllo, puoi quindi utilizzare il filtro di gruppo Storage Lens per ottenere parametri di archiviazione basati sul filtro personalizzato che hai definito nel gruppo. 

Per visualizzare i dati del gruppo Storage Lens nel pannello di controllo S3 Storage Lens, devi creare il gruppo e poi collegarlo al pannello di controllo. Dopo aver collegato il gruppo Storage Lens al pannello di controllo Storage Lens, quest'ultimo raccoglierà i parametri di utilizzo dell'archiviazione entro 48 ore. Potrai visualizzare questi dati nel pannello di controllo Storage Lens oppure esportarli tramite un'esportazione dei parametri. Se dimentichi di collegare un gruppo Storage Lens a una pannello di controllo, i dati del gruppo Storage Lens non verranno acquisiti e quindi neppure visualizzati.

**Nota**  
Quando crei un gruppo S3 Storage Lens, stai creando una AWS risorsa. Pertanto, ogni gruppo Storage Lens ha il proprio nome della risorsa Amazon (ARN), che puoi specificare quando [lo colleghi o lo escludi da un pannello di controllo S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html). 
Se il tuo gruppo Storage Lens non è collegato a un pannello di controllo, non dovrai sostenere costi aggiuntivi per la creazione di un gruppo Storage Lens.
S3 Storage Lens aggrega i parametri di utilizzo di un oggetto in tutti i gruppi Storage Lens corrispondenti. Pertanto, se un oggetto soddisfa le condizioni di filtro per due o più gruppi Storage Lens, i conteggi relativi all'utilizzo dell'archiviazione saranno visualizzati come ripetuti per lo stesso oggetto.

Puoi creare un gruppo Storage Lens a livello di account in una regione di residenza specificata (dall'elenco di quelli supportati Regioni AWS). Quindi, puoi collegare il tuo gruppo Storage Lens a più pannelli di controllo Storage Lens, purché tali pannelli si trovino nello stesso Account AWS e nella stessa regione. È possibile creare fino a 50 gruppi Storage Lens con la stessa regione di origine in ogni Account AWS.

Puoi creare e gestire gruppi di S3 Storage Lens utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() o l'API AWS SDKs REST di Amazon S3.

**Topics**
+ [

## Visualizzazione dei parametri aggregati del gruppo Storage Lens
](#storage-lens-group-aggregation)
+ [

## Autorizzazioni gruppi Storage Lens
](#storage-lens-group-permissions)
+ [

## Configurazione dei gruppi Storage Lens
](#storage-lens-groups-configuration)
+ [

## AWS tag di risorse
](#storage-lens-group-resource-tags)
+ [

## Esportazione dei parametri dei gruppi Storage Lens
](#storage-lens-groups-metrics-export)

## Visualizzazione dei parametri aggregati del gruppo Storage Lens
<a name="storage-lens-group-aggregation"></a>

È possibile visualizzare i parametri aggregati per i gruppi Storage Lens collegando i gruppi a un pannello di controllo. I gruppi Storage Lens che desideri collegare devono risiedere nella regione di origine designata nell'account del pannello di controllo. 

Per collegare un gruppo Storage Lens a un pannello di controllo, è necessario specificare il gruppo nella sezione **Aggregazione dei gruppi Storage Lens** della configurazione del pannello di controllo. Se hai più gruppi Storage Lens, puoi filtrare i risultati in **Aggregazione dei gruppi Storage Lens** per includere o escludere solo i gruppi che desideri. Per ulteriori informazioni su come collegare gruppi ai pannelli di controllo, consulta [Collegare o rimuovere gruppi S3 Storage Lens a o da un pannello di controllo](storage-lens-groups-dashboard-console.md). 

Dopo aver collegato i gruppi, i dati di aggregazione dei gruppi di Storage Lens ulteriori saranno visibili nel pannello di controllo entro 48 ore. 

**Nota**  
Per visualizzare i parametri aggregati relativi al tuo gruppo Storage Lens, devi collegare il gruppo a pannello di controllo S3 Storage Lens.

## Autorizzazioni gruppi Storage Lens
<a name="storage-lens-group-permissions"></a>

I gruppi Storage Lens richiedono determinate autorizzazioni in AWS Identity and Access Management (IAM) per autorizzare l'accesso alle azioni di gruppo di S3 Storage Lens. Per concedere queste autorizzazioni, puoi utilizzare una policy IAM basata sull'identità. Ti basterà collegare la policy agli utenti, ai gruppi o ai ruoli IAM ai quali devi concedere le autorizzazioni. Tali autorizzazioni possono includere la possibilità di creare o eliminare gruppi Storage Lens, visualizzarne le configurazioni o gestirne i tag.

L'utente o il ruolo IAM a cui concedi le autorizzazioni deve appartenere all'account che ha creato o possiede il gruppo Storage Lens.

Per utilizzare i gruppi Storage Lens e visualizzare i parametri dei gruppi Storage Lens, devi prima disporre delle autorizzazioni appropriate per utilizzare S3 Storage Lens. Per ulteriori informazioni, consulta [Impostazione delle autorizzazioni di Amazon S3 Storage Lens](storage_lens_iam_permissions.md).

Per creare e gestire gruppi S3 Storage Lens, devi disporre delle seguenti autorizzazioni IAM, a seconda delle azioni che desideri eseguire:


| Azione | autorizzazioni IAM | 
| --- | --- | 
|  Creare un nuovo gruppo Storage Lens  |  `s3:CreateStorageLensGroup`  | 
|  Creare un nuovo gruppo Storage Lens con tag  |  `s3:CreateStorageLensGroup`, `s3:TagResource`  | 
|  Aggiornare un gruppo Storage Lens esistente  |  `s3:UpdateStorageLensGroup`  | 
|  Restituire i dettagli di una configurazione del gruppo Storage Lens  |  `s3:GetStorageLensGroup`  | 
|  Elencare tutti i gruppi Storage Lens nella tua regione di origine  |  `s3:ListStorageLensGroups`  | 
|  Eliminare un gruppo Storage Lens  |  `s3:DeleteStorageLensGroup`  | 
|  Elencare i tag aggiunti al tuo gruppo Storage Lens  |  `s3:ListTagsForResource`  | 
|  Aggiungere o aggiornare un tag di gruppo Storage Lens per un gruppo Storage Lens esistente  |  `s3:TagResource`  | 
|  Eliminare un tag da un gruppo Storage Lens  |  `s3:UntagResource`  | 

Ecco un esempio di come configurare la policy IAM nell'account che crea il gruppo Storage Lens. Per utilizzare questa policy, sostituisci `us-east-1` con la regione di origine in cui si trova il gruppo Storage Lens. Sostituisci `111122223333` con l'ID del tuo Account AWS e sostituisci `example-storage-lens-group` con il nome del gruppo Storage Lens. Per applicare queste autorizzazioni a tutti i gruppi Storage Lens, sostituisci `example-storage-lens-group` con `*`.

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "EXAMPLE-Statement-ID",
            "Effect": "Allow",
            "Action": [
                "s3:CreateStorageLensGroup",
                "s3:UpdateStorageLensGroup",
                "s3:GetStorageLensGroup",
                "s3:ListStorageLensGroups",
                "s3:DeleteStorageLensGroup,
                "s3:TagResource",
                "s3:UntagResource",
                "s3:ListTagsForResource"
                ],
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens-group/example-storage-lens-group"
        }
    ]
}
```

Per ulteriori informazioni sull'utilizzo di S3 Storage Lens, consulta [Impostazione delle autorizzazioni di Amazon S3 Storage Lens](storage_lens_iam_permissions.md). Per informazioni sul linguaggio delle policy IAM, consulta [Policy e autorizzazioni in Amazon S3](access-policy-language-overview.md).

## Configurazione dei gruppi Storage Lens
<a name="storage-lens-groups-configuration"></a>

### Nome dei gruppi S3 Storage Lens
<a name="storage-lens-group-name"></a>

Ti consigliamo di assegnare ai gruppi Storage Lens nomi che ne indichino lo scopo, in modo da poter determinare facilmente quali gruppi collegare ai pannelli di controllo. Per [collegare un gruppo Storage Lens a un pannello di controllo](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html), è necessario specificare il gruppo nella sezione **Aggregazione dei gruppi Storage Lens** della configurazione del pannello di controllo. 

I nomi dei gruppi Storage Lens devono essere univoci all'interno dell'account. Non devono superare i 64 caratteri e possono contenere solo lettere (a-z, A-Z), numeri (0-9), trattini (`-`) o trattini bassi (`_`).

### Regione d'origine
<a name="storage-lens-group-home-region"></a>

La regione di origine è la regione Regione AWS in cui viene creato e gestito il gruppo Storage Lens. Il gruppo Storage Lens viene creato nella stessa regione di origine del pannello di controllo Amazon S3 Storage Lens. Anche la configurazione e i parametri del gruppo Storage Lens vengono archiviati in questa regione. È possibile creare fino a 50 gruppi Storage Lens nella stessa regione di origine.

 Dopo aver creato il gruppo Storage Lens, non sarà possibile modificarne la regione.

### Scope
<a name="storage-lens-group-scope"></a>

Affinché possano essere inclusi nel gruppo Storage Lens, gli oggetti devono rientrare nell'ambito del pannello di controllo Amazon S3 Storage Lens. L'ambito del pannello di controllo Storage Lens è determinato dai bucket che includi nell'**ambito del pannello di controllo** della configurazione del pannello di controllo di S3 Storage Lens.

Puoi utilizzare diversi filtri relativi agli oggetti per definire l'ambito del gruppo Storage Lens. Per visualizzare questi parametri del gruppo Storage Lens nel pannello di controllo di S3 Storage Lens, gli oggetti devono corrispondere ai filtri che includi nei gruppi Storage Lens. Ad esempio, supponiamo che il gruppo Storage Lens includa oggetti con il prefisso `marketing` e il suffisso `.png`, ma che nessun oggetto soddisfi tali criteri. In questo caso, i parametri per questo gruppo Storage Lens non verranno generati nell'esportazione giornaliera dei parametri e nessun parametro per questo gruppo sarà visibile nel pannello di controllo.

### Filtri
<a name="storage-lens-group-filters"></a>

Puoi utilizzare i seguenti filtri in un gruppo S3 Storage Lens:
+ **Prefissi**: specifica il [prefisso](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) degli oggetti inclusi, ovvero una stringa di caratteri all'inizio del nome della chiave dell'oggetto. Ad esempio, il valore `images` per il filtro **Prefissi** include oggetti con uno dei seguenti prefissi: `images/`, `images-marketing`e `images/production`. La lunghezza massima di un prefisso è 1.024 byte.
+ **Suffissi**: specifica il suffisso degli oggetti inclusi (ad esempio, `.png`, `.jpeg` o `.csv`). La lunghezza massima di un suffisso è 1.024 byte.
+ **Tag degli oggetti**: specifica l'elenco dei [tag degli oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html) che desideri filtrare. Una chiave di tag non può superare i 128 caratteri Unicode e il valore di un tag non può superare i 256 caratteri Unicode. Si noti che se il campo del valore del tag dell'oggetto è lasciato vuoto, S3 Storage Lens groups abbina l'oggetto solo ad altri oggetti che hanno anch'essi valori di tag vuoti.
+ **Età**: specifica l'intervallo di età degli oggetti inclusi, che viene espressa in giorni. Sono supportati solo i numeri interi.
+ **Dimensioni**: specifica l'intervallo di dimensioni degli oggetti inclusi, che viene espresso in byte. Sono supportati solo i numeri interi. Il valore massimo consentito è 50 TB.

### Tag degli oggetti del gruppo Storage Lens
<a name="storage-lens-group-object-tags"></a>

È possibile [creare un gruppo Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-create.html) che includa fino a 10 filtri per tag di oggetti. L'esempio seguente include due coppie chiave-valore di tag di oggetto che operano da filtri per un gruppo Storage Lens denominato `Marketing-Department`. Per utilizzare questo esempio, sostituisci `Marketing-Department` con il nome del gruppo e sostituisci `object-tag-key-1`, `object-tag-value-1` e così via con le coppie chiave-valore del tag dell'oggetto che desideri filtrare.

```
{
    "Name": "Marketing-Department",
    "Filter": {
     "MatchAnyTag":[
                {
                    "Key": "object-tag-key-1",
                    "Value": "object-tag-value-1"
                },
                {
                    "Key": "object-tag-key-2",
                    "Value": "object-tag-value-2"
                }
            ]
    }
}
```

### Operatori logici (`And` o `Or`)
<a name="storage-lens-group-logical-operators"></a>

Per includere più condizioni di filtro nel gruppo Storage Lens, è possibile utilizzare operatori logici (`And` o `Or`). Nell'esempio seguente, il gruppo Storage Lens denominato `Marketing-Department` ha un operatore `And` che contiene i filtri `Prefix`, `ObjectAge` e `ObjectSize`. Poiché viene utilizzato un operatore `And`, solo gli oggetti che soddisfano **tutte** queste condizioni di filtro verranno inclusi nell'ambito del gruppo Storage Lens. 

Per utilizzare questo esempio, sostituisci `user input placeholders` con i valori in base ai quali desideri filtrare.

```
{
    "Name": "Marketing-Department",
    "Filter": {
        "And": {
            "MatchAnyPrefix": [
                "prefix-1",
                "prefix-2",
                "prefix-3/sub-prefix-1" 
            ],
             "MatchObjectAge": {
                "DaysGreaterThan": 10,
                "DaysLessThan": 60
            },
            "MatchObjectSize": {
                "BytesGreaterThan": 10,
                "BytesLessThan": 60 
            }
        }
    }
}
```

**Nota**  
Se desideri includere oggetti che soddisfano una **qualsiasi** delle condizioni di filtro, sostituisci l'operatore logico `And` con l'operatore logico `Or` in questo esempio.

## AWS tag di risorse
<a name="storage-lens-group-resource-tags"></a>

Ogni gruppo S3 Storage Lens viene conteggiato come una AWS risorsa con il proprio Amazon Resource Name (ARN). Pertanto, quando configuri il gruppo Storage Lens, puoi aggiungere facoltativamente tag delle risorse AWS al gruppo. È possibile aggiungere fino a 50 tag per ogni gruppo Storage Lens. Per creare un gruppo Storage Lens con tag, devi disporre delle autorizzazioni `s3:CreateStorageLensGroup` e `s3:TagResource`.

Puoi utilizzare i tag AWS delle risorse per classificare le risorse in base al reparto, alla linea di attività o al progetto. Ciò è utile quando si dispone di numerose risorse dello stesso tipo. Applicando i tag, è possibile individuare rapidamente un gruppo Storage Lens in base ai tag che hai assegnato loro. È possibile utilizzare i tag anche per monitorare e allocare i costi.

Inoltre, quando si aggiunge un tag di AWS risorsa al gruppo Storage Lens, si attiva il [controllo degli accessi basato sugli attributi (ABAC](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html)). L'ABAC è una strategia di autorizzazione che definisce le autorizzazioni in base agli attributi, in questo caso ai tag. Puoi anche utilizzare condizioni che specificano i tag delle risorse nelle tue policy IAM per [controllare](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources) l'accesso alle risorse. AWS 

Puoi modificare chiavi e valori di tag e rimuovere tag da una risorsa in qualsiasi momento. Inoltre, tieni presente le limitazioni seguenti:
+ I valori e le chiavi dei tag rispettano la distinzione tra maiuscole e minuscole.
+ Se aggiungi un tag con la stessa chiave di un tag esistente su quella risorsa, il nuovo valore sovrascrive il vecchio valore.
+ Se elimini una risorsa, verranno eliminati anche tutti i tag a essa associati. 
+ Non includere dati privati o sensibili nei tag delle AWS risorse.
+ I tag di sistema (con chiavi di tag che iniziano con `aws:`) non sono supportati.
+ La lunghezza di ogni chiave di tag non può superare i 128 caratteri. La lunghezza di ogni valore di tag non può superare i 256 caratteri.

## Esportazione dei parametri dei gruppi Storage Lens
<a name="storage-lens-groups-metrics-export"></a>

I parametri del gruppo S3 Storage Lens sono inclusi nell'esportazione [parametri di Amazon S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_understanding_metrics_export_schema.html) per il pannello di controllo a cui è collegato il gruppo Storage Lens. Per informazioni generali sulla funzionalità di esportazione dei parametri di Storage Lens, consulta [Visualizzazione dei parametri di Amazon S3 Storage Lens utilizzando una esportazione di dati](storage_lens_view_metrics_export.md).

L'esportazione dei parametri dei gruppi Storage Lens include tutti i parametri di S3 Storage Lens che rientrano nell'ambito del pannello di controllo che hai collegato al gruppo Storage Lens. L'esportazione include anche dati aggiuntivi relativi ai parametri per i gruppi Storage Lens.

Una volta creato il gruppo Storage Lens, l'esportazione dei parametri viene inviata quotidianamente al bucket che hai selezionato al momento di configurare l'esportazione dei parametri per il pannello di controllo a cui è collegato il gruppo. Per ricevere la prima esportazione dei parametri possono essere necessarie fino a 48 ore. 

Per generare i parametri dell'esportazione quotidiana, gli oggetti devono corrispondere ai filtri che includi nei gruppi Storage Lens. Se nessun oggetto corrisponde ai filtri che hai incluso nel gruppo Storage Lens, non verrà generato alcun parametro. Tuttavia, se un oggetto corrisponde a due o più gruppi Storage Lens, l'oggetto viene elencato separatamente per ogni gruppo nell'esportazione dei parametri.

Per identificare i parametri per i gruppi Storage Lens cerca uno dei seguenti valori nella colonna `record_type` dell'esportazione dei parametri per il pannello di controllo:
+ `STORAGE_LENS_GROUP_BUCKET`
+ `STORAGE_LENS_GROUP_ACCOUNT`

La colonna `record_value` mostra l'ARN della risorsa per il gruppo Storage Lens (ad esempio, `arn:aws:s3:us-east-1:111122223333:storage-lens-group/Marketing-Department`).

# Utilizzo dei gruppi Storage Lens
<a name="storage-lens-group-tasks"></a>

I gruppi Amazon S3 Storage Lens aggregano i parametri utilizzando filtri personalizzati basati sui metadati degli oggetti. È possibile analizzare e filtrare i parametri di S3 Storage Lens utilizzando prefissi, suffissi, tag degli oggetti, dimensioni o età degli oggetti. Con i gruppi Amazon S3 Storage Lens puoi anche classificare l'utilizzo all'interno di e tra bucket Amazon S3. Di conseguenza, sarai in grado di comprendere e ottimizzare meglio la tua archiviazione S3.

Per iniziare a visualizzare i dati per un gruppo Storage Lens, devi prima [collegare il gruppo Storage Lens a un pannello di controllo di S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html#storage-lens-groups-attach-dashboard-console). Se devi gestire i gruppi di Storage Lens nel pannello di controllo, puoi modificare la configurazione del pannello di controllo. Per verificare quali gruppi Storage Lens sono presenti nel tuo account, elencali. Per verificare quali gruppi Storage Lens sono collegati al pannello di controllo, puoi controllare in qualsiasi momento la scheda **Gruppi Storage Lens** nel pannello di controllo. Accedi ai dettagli di un gruppo Storage Lens esistente per rivedere o aggiornare il suo ambito. È inoltre possibile eliminare definitivamente un gruppo Storage Lens.

Per gestire le autorizzazioni, puoi creare e aggiungere tag di AWS risorsa definiti dall'utente ai gruppi di Storage Lens. È possibile utilizzare i tag AWS delle risorse per classificare le risorse in base al reparto, alla linea di attività o al progetto. Ciò è utile quando si dispone di numerose risorse dello stesso tipo. Applicando i tag, è possibile individuare rapidamente un gruppo Storage Lens in base ai tag che hai assegnato loro. 

Inoltre, quando si aggiunge un tag di AWS risorsa al gruppo Storage Lens, si attiva il [controllo degli accessi basato sugli attributi (ABAC](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html)). L'ABAC è una strategia di autorizzazione che definisce le autorizzazioni in base agli attributi, in questo caso ai tag. Puoi anche utilizzare condizioni che specificano i tag delle risorse nelle tue policy IAM per [controllare](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources) l'accesso alle risorse. AWS 

**Topics**
+ [

# Creazione di un gruppo Storage Lens
](storage-lens-groups-create.md)
+ [

# Collegare o rimuovere gruppi S3 Storage Lens a o da un pannello di controllo
](storage-lens-groups-dashboard-console.md)
+ [

# Visualizzazione dei dati dei gruppi Storage Lens
](storage-lens-groups-visualize.md)
+ [

# Aggiornamento di un gruppo Storage Lens
](storage-lens-groups-update.md)
+ [

# Gestione dei tag AWS delle risorse con i gruppi Storage Lens
](storage-lens-groups-manage-tags.md)
+ [

# Elenco di tutti i gruppi Storage Lens
](storage-lens-groups-list.md)
+ [

# Visualizzazione dei dettagli del gruppo Storage Lens
](storage-lens-groups-view.md)
+ [

# Eliminazione di un gruppo Storage Lens
](storage-lens-groups-delete.md)

# Creazione di un gruppo Storage Lens
<a name="storage-lens-groups-create"></a>

Gli esempi seguenti mostrano come creare un gruppo Amazon S3 Storage Lens utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() e. AWS SDK per Java

## Utilizzo della console S3
<a name="create-storage-lens-group-console"></a>

**Per creare un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione in alto nella pagina, scegli il nome della Regione AWS attualmente visualizzata. Quindi, scegli la Regione a cui passare. 

1. Nel riquadro di navigazione sinistro, scegli **Gruppi Storage Lens**.

1. Scegli **Crea gruppo Storage Lens**.

1. In **Generale**, visualizza la **Regione di provenienza** e inserisci il **nome del gruppo Storage Lens**.

1. In **Ambito**, scegli il filtro da applicare al gruppo Storage Lens. Per applicare più filtri, seleziona i filtri, quindi scegli l'operatore logico **AND** oppure **OR**.
   + Per il filtro **Prefissi**, scegli **Prefissi** e inserisci una stringa di prefisso. Per aggiungere più prefissi, scegli **Aggiungi prefisso**. Per rimuovere un prefisso, scegli **Rimuovi** accanto al prefisso che desideri eliminare.
   + Per il filtro **Tag di oggetti**, scegli **Tag di oggetti** e inserisci la coppia chiave-valore per l'oggetto. Quindi scegli **Aggiungi tag**. Per rimuovere un tag, scegli **Rimuovi** accanto al tag che desideri eliminare.
   + Per il filtro **Suffissi**, scegli **Suffissi.** e inserisci una stringa di suffisso. Per aggiungere più suffissi, scegli **Aggiungi suffisso**. Per rimuovere un suffisso, scegli **Rimuovi** accanto al suffisso che desideri eliminare.
   + Per il filtro **Età**, specifica l'intervallo di età dell'oggetto in giorni. Scegli **Specifica l'età minima dell'oggetto** e inserisci l'età minima dell'oggetto. Poi scegli **Specifica l'età massima dell'oggetto** e inserisci l'età massima dell'oggetto.
   + Per il filtro **Dimensione**, specifica l'intervallo di dimensioni dell'oggetto e l'unità di misura. Scegli **Specifica la dimensione minima dell'oggetto** e inserisci la dimensione minima dell'oggetto. Poi scegli **Specifica la dimensione massima dell'oggetto** e inserisci la dimensione dell'oggetto.

1. **(Facoltativo) Per i tag AWS delle risorse, aggiungi la coppia chiave-valore, quindi scegli Aggiungi tag.**

1. Scegli **Crea gruppo Storage Lens**.

## Usando il AWS CLI
<a name="create-storage-lens-group-cli"></a>

Il AWS CLI comando di esempio seguente crea un gruppo Storage Lens. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control create-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json
```

Il AWS CLI comando di esempio seguente crea un gruppo Storage Lens con due tag di AWS risorsa. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control create-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json \
--tags Key=k1,Value=v1 Key=k2,Value=v2
```

Per esempi di configurazione JSON, consulta [Configurazione dei gruppi Storage Lens](storage-lens-groups.md#storage-lens-groups-configuration).

## Utilizzo dell' AWS SDK for Java
<a name="create-storage-lens-group-sdk-java"></a>

L' AWS SDK per Java esempio seguente crea un gruppo Storage Lens. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

**Example – Creare un gruppo Storage Lens con un solo filtro**  
Nel seguente esempio viene creato un gruppo Storage Lens denominato `Marketing-Department`. Questo gruppo dispone di un filtro relativo all'età degli oggetti che specifica una fascia di età compresa tra `30` e `90` giorni. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
package aws.example.s3control;
 
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectAge;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
 
public class CreateStorageLensGroupWithObjectAge {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";
        
        try {
            StorageLensGroupFilter objectAgeFilter = StorageLensGroupFilter.builder()
                    .matchObjectAge(MatchObjectAge.builder()
                            .daysGreaterThan(30)
                            .daysLessThan(90)
                            .build())
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(objectAgeFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example – Creare un gruppo Storage Lens con un operatore `AND` che include più filtri**  
Nel seguente esempio viene creato un gruppo Storage Lens denominato `Marketing-Department`. Per questo gruppo viene utilizzato l'operatore `AND` per indicare che gli oggetti devono soddisfare **tutte** le condizioni del filtro. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.   

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectAge;
import software.amazon.awssdk.services.s3control.model.MatchObjectSize;
import software.amazon.awssdk.services.s3control.model.S3Tag;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupAndOperator;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;


public class CreateStorageLensGroupWithAndFilter {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create object tags.
            S3Tag tag1 = S3Tag.builder()
                    .key("object-tag-key-1")
                    .value("object-tag-value-1")
                    .build();
            S3Tag tag2 = S3Tag.builder()
                    .key("object-tag-key-2")
                    .value("object-tag-value-2")
                    .build();

            StorageLensGroupAndOperator andOperator = StorageLensGroupAndOperator.builder()
                    .matchAnyPrefix("prefix-1", "prefix-2", "prefix-3/sub-prefix-1")
                    .matchAnySuffix(".png", ".gif", ".jpg")
                    .matchAnyTag(tag1, tag2)
                    .matchObjectAge(MatchObjectAge.builder()
                            .daysGreaterThan(30)
                            .daysLessThan(90).build())
                    .matchObjectSize(MatchObjectSize.builder()
                            .bytesGreaterThan(1000L)
                            .bytesLessThan(6000L).build())
                    .build();

            StorageLensGroupFilter andFilter = StorageLensGroupFilter.builder()
                    .and(andOperator)
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(andFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example – Creare un gruppo Storage Lens con un operatore `OR` che include più filtri**  
Nel seguente esempio viene creato un gruppo Storage Lens denominato `Marketing-Department`. Per questo gruppo viene utilizzato un operatore `OR` per applicare un filtro di prefisso (`prefix-1`, `prefix-2`, `prefix3/sub-prefix-1`) o un filtro per le dimensioni degli oggetti con un intervallo di dimensioni compreso tra `1000` e `6000` byte. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectSize;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupOrOperator;

public class CreateStorageLensGroupWithOrFilter {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            StorageLensGroupOrOperator orOperator = StorageLensGroupOrOperator.builder()
                    .matchAnyPrefix("prefix-1", "prefix-2", "prefix-3/sub-prefix-1")
                    .matchObjectSize(MatchObjectSize.builder()
                            .bytesGreaterThan(1000L)
                            .bytesLessThan(6000L)
                            .build())
                    .build();

            StorageLensGroupFilter orFilter = StorageLensGroupFilter.builder()
                    .or(orOperator)
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(orFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example — Crea un gruppo Storage Lens con un solo filtro e due tag di AWS risorsa**  
Nel seguente esempio viene creato un gruppo Storage Lens denominato `Marketing-Department` e dotato di un filtro di suffisso. Questo esempio aggiunge anche due tag di AWS risorsa al gruppo Storage Lens. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.Tag;

public class CreateStorageLensGroupWithResourceTags {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create AWS resource tags.
            Tag resourceTag1 = Tag.builder()
                    .key("resource-tag-key-1")
                    .value("resource-tag-value-1")
                    .build();
            Tag resourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-value-2")
                    .build();

            StorageLensGroupFilter suffixFilter = StorageLensGroupFilter.builder()
                    .matchAnySuffix(".png", ".gif", ".jpg")
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(suffixFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .tags(resourceTag1, resourceTag2)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Per esempi di configurazione JSON, consulta [Configurazione dei gruppi Storage Lens](storage-lens-groups.md#storage-lens-groups-configuration).

# Collegare o rimuovere gruppi S3 Storage Lens a o da un pannello di controllo
<a name="storage-lens-groups-dashboard-console"></a>

Dopo aver effettuato l'upgrade al livello avanzato di Amazon S3 Storage Lens, puoi collegare [un gruppo Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-overview.html) al pannello di controllo. Se hai diversi gruppi Storage Lens, puoi includere o escludere i gruppi desiderati. 

I gruppi Storage Lens devono risiedere nella regione di origine designata nell'account del pannello di controllo. Dopo aver collegato un gruppo Storage Lens al pannello di controllo, riceverai i dati aggiuntivi relativi all'aggregazione dei gruppi Storage Lens nel documento di esportazione dei parametri entro 48 ore.

**Nota**  
Se desideri vedere le metriche aggregate per il gruppo Storage Lens, devi collegare quest'ultimo al tuo pannello di controllo Storage Lens. Per esempi di file di configurazione JSON del gruppo Storage Lens, consulta [Esempio di configurazione di S3 Storage Lens con gruppi Storage Lens in JSON](S3LensHelperFilesCLI.md#StorageLensGroupsHelperFilesCLI). 

## Utilizzo della console S3
<a name="storage-lens-groups-attach-dashboard-console"></a>

**Per collegare un gruppo Storage Lens a un pannello di controllo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, in **Storage Lens** scegli **Pannelli di controllo**.

1. Scegli il pulsante di opzione per il pannello di controllo Storage Lens a cui desideri collegare un gruppo Storage Lens.

1. Scegli **Modifica**.

1. Sotto **Metrics selection (Selezione dei parametri)**, scegli **Advanced metrics and recommendations (Raccomandazioni e parametri avanzati)**.

1. Seleziona **Aggregazione dei gruppi Storage Lens**.
**Nota**  
I **parametri avanzati** sono selezionati per impostazione predefinita. Tuttavia, è anche possibile deselezionare questa impostazione, poiché non è necessaria per aggregare i dati dei gruppi di Storage Lens.

1. Scorri verso il basso fino ad **Aggregazione del gruppo Storage Lens** e specifica il gruppo o i gruppi Storage Lens che desideri includere o escludere nell'aggregazione dei dati. È possibile utilizzare una qualsiasi delle seguenti opzioni di filtro:
   + Se desideri includere determinati gruppi di Storage Lens, scegli **Includi gruppi Storage Lens**. In **Gruppi Storage Lens da includere**, seleziona i tuoi gruppi Storage Lens.
   + Se desideri includere tutti i gruppi Storage Lens, seleziona **Includi tutti i gruppi Storage Lens nella regione di origine di questo account**.
   + Se desideri escludere determinati gruppi Storage Lens, scegli **Escludi gruppi Storage Lens**. In **Gruppi Storage Lens da escludere**, seleziona i gruppi Storage Lens che desideri escludere.

1. Scegli **Save changes** (Salva modifiche). Se hai configurato correttamente i gruppi Storage Lens, vedrai i dati di aggregazione aggiuntivi dei gruppi Storage Lens nel tuo pannello di controllo entro 48 ore.

**Per rimuovere un gruppo Storage Lens da un pannello di controllo S3 Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, in **Storage Lens** scegli **Pannelli di controllo**.

1. Scegli il pulsante di opzione per il pannello di controllo Storage Lens dal quale desideri rimuovere un gruppo Storage Lens.

1. Scegli **Visualizza configurazione del pannello di controllo**.

1. Scegli **Modifica**.

1. Scorri verso il basso fino alla sezione **Selezione di parametri**.

1. In **Aggregazione dei gruppi Storage Lens**, scegli la **X** accanto al gruppo Storage Lens che desideri rimuovere. Al termine di questa operazione il gruppo Storage Lens viene rimosso.

   Se nel pannello di controllo hai incluso tutti i gruppi Storage Lens, deseleziona la casella accanto a **Includi tutti i gruppi Storage Lens nella regione di origine di questo account**. 

1. Scegli **Save changes** (Salva modifiche).
**Nota**  
Sono necessarie fino a 48 ore prima che il pannello di controllo rifletta gli aggiornamenti di configurazione.

## Utilizzo dell' AWS SDK for Java
<a name="StorageLensGroupsConfigurationJava"></a>

**Example - Collegare tutti i gruppi Storage Lens a una dashboard**  
Il seguente esempio di SDK for Java collega tutti i gruppi Storage Lens dell'*111122223333*account alla *DashBoardConfigurationId* dashboard:  

```
package aws.example.s3control;


import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWithStorageLensGroups {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel();

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example - Collegare due gruppi Storage Lens a una dashboard**  
L' AWS SDK per Java esempio seguente collega due gruppi Storage Lens (*StorageLensGroupName1*e*StorageLensGroupName2*) alla dashboard. *ExampleDashboardConfigurationId*  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;
import com.amazonaws.services.s3control.model.StorageLensGroupLevelSelectionCriteria;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWith2StorageLensGroups {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String storageLensGroupName1 = "StorageLensGroupName1";
        String storageLensGroupName2 = "StorageLensGroupName2";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevelSelectionCriteria selectionCriteria = new StorageLensGroupLevelSelectionCriteria()
                    .withInclude(
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName1,
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName2);

            System.out.println(selectionCriteria);
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel()
                    .withSelectionCriteria(selectionCriteria);

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example - Collegare tutti i gruppi Storage Lens con le esclusioni**  
Il seguente esempio di SDK for Java collega tutti i gruppi Storage Lens alla dashboard, esclusi *ExampleDashboardConfigurationId* i due specificati *StorageLensGroupName1* (*StorageLensGroupName2*e):  

```
package aws.example.s3control;


import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;
import com.amazonaws.services.s3control.model.StorageLensGroupLevelSelectionCriteria;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWith2StorageLensGroupsExcluded {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String storageLensGroupName1 = "StorageLensGroupName1";
        String storageLensGroupName2 = "StorageLensGroupName2";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevelSelectionCriteria selectionCriteria = new StorageLensGroupLevelSelectionCriteria()
                    .withInclude(
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName1,
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName2);

            System.out.println(selectionCriteria);
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel()
                    .withSelectionCriteria(selectionCriteria);

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Visualizzazione dei dati dei gruppi Storage Lens
<a name="storage-lens-groups-visualize"></a>

Puoi visualizzare i dati dei gruppi Storage Lens [collegando il gruppo al pannello di controllo di Amazon S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html#storage-lens-groups-attach-dashboard-console). Dopo aver incluso il gruppo Storage Lens nell'aggregazione dei gruppi Storage Lens nella configurazione del pannello di controllo, possono essere necessarie fino a 48 ore prima che i dati del gruppo Storage Lens vengano visualizzati nel pannello di controllo.

Una volta aggiornata la configurazione del pannello di controllo, tutti i gruppi Storage Lens appena collegati vengono visualizzati nell'elenco delle risorse disponibili nella scheda **Gruppi Storage Lens**. È inoltre possibile analizzare ulteriormente l'utilizzo dell'archiviazione nella scheda **Panoramica** suddividendo in base ad altre dimensioni. Ad esempio, puoi scegliere uno degli elementi elencati nelle **prime 3** categorie e scegliere **Analizza per** per suddividere i dati in base a un'altra dimensione. Non è possibile applicare la stessa dimensione del filtro stesso.

**Nota**  
Non è possibile applicare un filtro del gruppo Storage Lens insieme a un filtro con prefisso o viceversa. Inoltre, non è possibile analizzare ulteriormente un gruppo Storage Lens utilizzando un filtro con prefisso.

Puoi utilizzare la scheda **Gruppo Storage Lens** nel pannello di controllo di Amazon S3 Storage Lens per personalizzare la visualizzazione dei dati per i gruppi di Storage Lens collegati al pannello di controllo. Puoi visualizzare i dati di tutti gruppi Storage Lens collegati al pannello di controllo o solo di alcuni.

Quando visualizzi i dati del gruppo Storage Lens nel pannello di controllo di S3 Storage Lens, tieni presente quanto segue:
+ S3 Storage Lens aggrega i parametri di utilizzo di un oggetto in tutti i gruppi Storage Lens corrispondenti. Pertanto, se un oggetto soddisfa le condizioni di filtro per due o più gruppi Storage Lens, i conteggi relativi all'utilizzo dell'archiviazione saranno visualizzati come ripetuti per lo stesso oggetto.
+ Gli oggetti devono corrispondere ai filtri che includi nei gruppi Storage Lens. Se nessun oggetto corrisponde ai filtri che includi nel gruppo Storage Lens, non verrà generato alcun parametro. Per determinare se ci sono oggetti non assegnati, controlla il numero totale di oggetti nel pannello di controllo a livello di account e di bucket.

# Aggiornamento di un gruppo Storage Lens
<a name="storage-lens-groups-update"></a>

I seguenti esempi illustrano come aggiornare un gruppo Amazon S3 Storage Lens. Puoi aggiornare un gruppo Storage Lens utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="update-storage-lens-group-console"></a>

**Per aggiornare un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il gruppo Storage Lens che desideri aggiornare.

1. In **Ambito**, scegli **Modifica**.

1. Nella pagina **Ambito**, scegli il filtro da applicare al gruppo Storage Lens. Per applicare più filtri, seleziona i filtri, quindi scegli l'operatore logico **AND** oppure **OR**.
   + Per il filtro **Prefissi**, seleziona **Prefissi** e inserisci una stringa di prefisso. Per aggiungere più prefissi, scegli **Aggiungi prefisso**. Per rimuovere un prefisso, scegli **Rimuovi** accanto al prefisso che desideri eliminare.
   + Per il filtro **Tag di oggetti**, inserisci la coppia chiave-valore per l'oggetto. Quindi scegli **Aggiungi tag**. Per rimuovere un tag, scegli **Rimuovi** accanto al tag che desideri eliminare.
   + Per il filtro **Suffissi**, seleziona **Suffissi.** e inserisci una stringa di suffisso. Per aggiungere più suffissi, scegli **Aggiungi suffisso**. Per rimuovere un suffisso, scegli **Rimuovi** accanto al suffisso che desideri eliminare.
   + Per il filtro **Età**, specifica l'intervallo di età dell'oggetto in giorni. Scegli **Specifica l'età minima dell'oggetto** e inserisci l'età minima dell'oggetto. In **Specifica l'età massima dell'oggetto** inserisci l'età massima dell'oggetto.
   + Per il filtro **Dimensione**, specifica l'intervallo di dimensioni dell'oggetto e l'unità di misura. Scegli **Specifica la dimensione minima dell'oggetto** e inserisci la dimensione minima dell'oggetto. In **Specifica la dimensione massima dell'oggetto** inserisci la dimensione dell'oggetto.

1. Scegli **Save changes** (Salva modifiche). Viene visualizzata la pagina dei dettagli del gruppo Storage Lens. 

1. (Facoltativo) Se desideri aggiungere un nuovo tag di AWS risorsa, scorri fino alla sezione dei **tag AWS delle risorse**, quindi scegli **Aggiungi tag**. Viene visualizzata la pagina **Aggiungi tag**. 

   Aggiungi la nuova coppia chiave-valore, quindi scegli **Salva modifiche**. Viene visualizzata la pagina dei dettagli del gruppo Storage Lens.

1. (Facoltativo) Se desideri rimuovere un tag di AWS risorsa esistente, scorri fino alla sezione dei **tag AWS delle risorse** e seleziona il tag delle risorse. Quindi, scegli **Elimina**. Viene visualizzata la finestra di dialogo **Elimina i tag AWS **. 

   Scegli nuovamente **Elimina** per eliminare definitivamente il tag delle risorse AWS .
**Nota**  
Dopo aver eliminato definitivamente un tag di AWS risorsa, non può essere ripristinato.

## Utilizzando il AWS CLI
<a name="update-storage-lens-group-cli"></a>

Il comando di AWS CLI esempio seguente restituisce i dettagli di configurazione per un gruppo Storage Lens denominato`marketing-department`. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.



```
aws s3control get-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

L' AWS CLI esempio seguente aggiorna un gruppo Storage Lens. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni. 

```
aws s3control update-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json
```

Per esempi di configurazione JSON, consulta [Configurazione dei gruppi Storage Lens](storage-lens-groups.md#storage-lens-groups-configuration).

## Utilizzo dell' AWS SDK for Java
<a name="update-storage-lens-group-sdk-java"></a>

L' AWS SDK per Java esempio seguente restituisce i dettagli di configurazione per il gruppo `Marketing-Department` Storage Lens in account`111122223333`. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupResponse;

public class GetStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            GetStorageLensGroupRequest getRequest = GetStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            GetStorageLensGroupResponse response = s3ControlClient.getStorageLensGroup(getRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Nell'esempio seguente viene aggiornato il gruppo Storage Lens `Marketing-Department` nell'account `111122223333`. In questo esempio l'ambito del pannello di controllo viene aggiornato per includere oggetti che corrispondano a uno dei seguenti suffissi: `.png`, `.gif`, `.jpg` o `.jpeg`. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.UpdateStorageLensGroupRequest;

public class UpdateStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create updated filter.
            StorageLensGroupFilter suffixFilter = StorageLensGroupFilter.builder()
                    .matchAnySuffix(".png", ".gif", ".jpg", ".jpeg")
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(suffixFilter)
                    .build();

            UpdateStorageLensGroupRequest updateStorageLensGroupRequest = UpdateStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId)
                    .build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.updateStorageLensGroup(updateStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Per esempi di configurazione JSON, consulta [Configurazione dei gruppi Storage Lens](storage-lens-groups.md#storage-lens-groups-configuration).

# Gestione dei tag AWS delle risorse con i gruppi Storage Lens
<a name="storage-lens-groups-manage-tags"></a>

Ogni gruppo di Amazon S3 Storage Lens viene conteggiato come una AWS risorsa con il proprio Amazon Resource Name (ARN). Pertanto, quando configuri il gruppo Storage Lens, puoi aggiungere facoltativamente tag delle risorse AWS al gruppo. È possibile aggiungere fino a 50 tag per ogni gruppo Storage Lens. Per creare un gruppo Storage Lens con tag, devi disporre delle autorizzazioni `s3:CreateStorageLensGroup` e `s3:TagResource`.

Puoi utilizzare i tag AWS delle risorse per classificare le risorse in base al reparto, alla linea di business o al progetto. Ciò è utile quando si dispone di numerose risorse dello stesso tipo. Applicando i tag, è possibile individuare rapidamente un gruppo Storage Lens in base ai tag che hai assegnato loro. È possibile utilizzare i tag anche per monitorare e allocare i costi.

Inoltre, quando si aggiunge un tag di AWS risorsa al gruppo Storage Lens, si attiva il [controllo degli accessi basato sugli attributi (ABAC](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html)). L'ABAC è una strategia di autorizzazione che definisce le autorizzazioni in base agli attributi, in questo caso ai tag. Puoi anche utilizzare condizioni che specificano i tag delle risorse nelle tue policy IAM per [controllare](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources) l'accesso alle risorse. AWS 

Puoi modificare chiavi e valori di tag e rimuovere tag da una risorsa in qualsiasi momento. Inoltre, tieni presente le limitazioni seguenti:
+ I valori e le chiavi dei tag rispettano la distinzione tra maiuscole e minuscole.
+ Se aggiungi un tag con la stessa chiave di un tag esistente su quella risorsa, il nuovo valore sovrascrive il vecchio valore.
+ Se elimini una risorsa, verranno eliminati anche tutti i tag a essa associati. 
+ Non includere dati privati o sensibili nei tag delle AWS risorse.
+ I tag di sistema (con chiavi di tag che iniziano con `aws:`) non sono supportati.
+ La lunghezza di ogni chiave di tag non può superare i 128 caratteri. La lunghezza di ogni valore di tag non può superare i 256 caratteri.

Gli esempi seguenti mostrano come utilizzare i tag AWS delle risorse con i gruppi Storage Lens.

**Topics**
+ [

# Aggiungere un tag di AWS risorsa a un gruppo Storage Lens
](storage-lens-groups-add-tags.md)
+ [

# Aggiornamento dei valori dei tag di un gruppo Storage Lens
](storage-lens-groups-update-tags.md)
+ [

# Eliminazione di un tag di AWS risorsa da un gruppo Storage Lens
](storage-lens-groups-delete-tags.md)
+ [

# Elenco dei tag dei gruppi Storage Lens
](storage-lens-groups-list-tags.md)

# Aggiungere un tag di AWS risorsa a un gruppo Storage Lens
<a name="storage-lens-groups-add-tags"></a>

Gli esempi seguenti mostrano come aggiungere tag di AWS risorsa a un gruppo di obiettivi di storage Amazon S3. Puoi aggiungere tag di risorsa utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-groups-add-tags-console"></a>

**Per aggiungere un tag di AWS risorsa a un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il gruppo Storage Lens che desideri aggiornare.

1. In **Tag delle risorse AWS ** seleziona **Aggiungi tag**.

1. Nella pagina **Aggiungi tag**, aggiungi la nuova coppia chiave-valore.
**Nota**  
Aggiungendo un tag la cui chiave è la stessa di un tag esistente viene sovrascritto il valore del tag precedente.

1. (Facoltativo) Per aggiungere più di un nuovo tag, scegliete nuovamente **Aggiungi tag** e aggiungi nuove voci. Puoi aggiungere fino a 50 tag di AWS risorsa al tuo gruppo Storage Lens.

1. (Facoltativo) Se desideri rimuovere un tag appena aggiunto, scegli **Rimuovi** accanto al tag che desideri eliminare.

1. Scegli **Save changes** (Salva modifiche).

## Utilizzando il AWS CLI
<a name="storage-lens-groups-add-tags-cli"></a>

Il AWS CLI comando di esempio seguente aggiunge due tag di risorsa a un gruppo Storage Lens esistente denominato`marketing-department`. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control tag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1 --tags Key=k1,Value=v1 Key=k2,Value=v2
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-groups-add-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente aggiunge due tag di AWS risorsa a un gruppo Storage Lens esistente. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.Tag;
import software.amazon.awssdk.services.s3control.model.TagResourceRequest;

public class TagResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            Tag resourceTag1 = Tag.builder()
                .key("resource-tag-key-1")
                .value("resource-tag-value-1")
                .build();
            Tag resourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-value-2")
                    .build();
            TagResourceRequest tagResourceRequest = TagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tags(resourceTag1, resourceTag2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.tagResource(tagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Aggiornamento dei valori dei tag di un gruppo Storage Lens
<a name="storage-lens-groups-update-tags"></a>

Gli esempi seguenti mostrano come aggiornare i valori dei tag di gruppo Storage Lens utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-groups-update-tags-console"></a>

**Per aggiornare un tag di AWS risorsa per un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il gruppo Storage Lens che desideri aggiornare.

1. In **Tag delle risorse AWS **, seleziona il tag che desideri aggiornare.

1. Aggiungi il nuovo valore del tag, utilizzando la stessa chiave della coppia chiave-valore che desideri aggiornare. Seleziona l'icona del segno di spunta per aggiornare il valore del tag.
**Nota**  
Aggiungendo un tag la cui chiave è la stessa di un tag esistente viene sovrascritto il valore del tag precedente.

1. (Facoltativo) Se desideri aggiungere nuovi tag, scegli **Aggiungi tag** per aggiungere nuove voci. Viene visualizzata la pagina **Aggiungi tag**. 

   Puoi aggiungere fino a 50 tag di AWS risorsa per il tuo gruppo Storage Lens. Una volta finito di aggiungere i tag, scegli **Salva modifiche**.

1. (Facoltativo) Se desideri rimuovere un tag appena aggiunto, scegli **Rimuovi** accanto al tag che desideri eliminare. Una volta finito di rimuovere i tag, scegli **Salva modifiche**. 

## Utilizzando il AWS CLI
<a name="storage-lens-groups-update-tags-cli"></a>

Il AWS CLI comando di esempio seguente aggiorna due valori di tag per il gruppo Storage Lens denominato`marketing-department`. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control tag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1 --tags Key=k1,Value=v3 Key=k2,Value=v4
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-groups-update-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente aggiorna due valori di tag di gruppo di Storage Lens. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.Tag;
import software.amazon.awssdk.services.s3control.model.TagResourceRequest;

public class UpdateTagsForResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            Tag updatedResourceTag1 = Tag.builder()
                .key("resource-tag-key-1")
                .value("resource-tag-updated-value-1")
                .build();
            Tag updatedResourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-updated-value-2")
                    .build();
            TagResourceRequest tagResourceRequest = TagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tags(updatedResourceTag1, updatedResourceTag2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.tagResource(tagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Eliminazione di un tag di AWS risorsa da un gruppo Storage Lens
<a name="storage-lens-groups-delete-tags"></a>

Gli esempi seguenti mostrano come eliminare un tag di AWS risorsa da un gruppo Storage Lens. Puoi eliminare i tag utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-groups-delete-tags-console"></a>

**Per eliminare un tag di AWS risorsa da un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il gruppo Storage Lens che desideri aggiornare.

1. In **Tag delle risorse AWS **, seleziona la coppia chiave-valore che desideri eliminare.

1. Scegli **Elimina**. Viene visualizzata la finestra di dialogo **Elimina i tag delle risorse AWS **.
**Nota**  
Se si utilizzano tag per controllare l'accesso, effettuare questa operazione può influire sulle risorse correlate. Una volta eliminato definitivamente, non è possibile ripristinare un tag.

1. Scegli **Elimina** per eliminare la coppia chiave-valore in modo permanente.

## Utilizzando il AWS CLI
<a name="storage-lens-groups-delete-tags-cli"></a>

Il AWS CLI comando seguente elimina due tag di AWS risorsa da un gruppo Storage Lens esistente: Per utilizzare questo comando di esempio, sostituiscili `user input placeholders` con le tue informazioni.

```
aws s3control untag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/Marketing-Department \
--region us-east-1 --tag-keys k1 k2
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-groups-delete-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente elimina due tag di AWS risorsa dal gruppo Storage Lens Amazon Resource Name (ARN) specificato nell'account. `111122223333` Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.UntagResourceRequest;

public class UntagResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            String tagKey1 = "resource-tag-key-1";
            String tagKey2 = "resource-tag-key-2";
            UntagResourceRequest untagResourceRequest = UntagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tagKeys(tagKey1, tagKey2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.untagResource(untagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Elenco dei tag dei gruppi Storage Lens
<a name="storage-lens-groups-list-tags"></a>

Gli esempi seguenti mostrano come elencare i tag di AWS risorsa associati a un gruppo Storage Lens. Puoi elencare i tag utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-groups-list-tags-console"></a>

**Per esaminare l'elenco e i valori dei tag per un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel pannello di navigazione a sinistra, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il gruppo Storage Lens di tuo interesse.

1. Scorri verso il basso fino alla sezione **Tag delle risorse AWS **. Tutti i tag di AWS risorsa definiti dall'utente che vengono aggiunti al gruppo Storage Lens sono elencati insieme ai relativi valori dei tag.

## Utilizzando il AWS CLI
<a name="storage-lens-group-list-tags-cli"></a>

Il comando di AWS CLI esempio seguente elenca tutti i valori dei tag di gruppo Storage Lens per il gruppo Storage Lens denominato`marketing-department`. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control list-tags-for-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-group-list-tags-sdk-java"></a>

L' AWS SDK per Java esempio seguente elenca i valori dei tag del gruppo Storage Lens per il gruppo Storage Lens Amazon Resource Name (ARN) specificato. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.ListTagsForResourceRequest;
import software.amazon.awssdk.services.s3control.model.ListTagsForResourceResponse;

public class ListTagsForResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            ListTagsForResourceRequest listTagsForResourceRequest = ListTagsForResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            ListTagsForResourceResponse response = s3ControlClient.listTagsForResource(listTagsForResourceRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Elenco di tutti i gruppi Storage Lens
<a name="storage-lens-groups-list"></a>

Negli esempi seguenti viene illustrato come elencare tutti i gruppi Amazon S3 Storage Lens in un Account AWS e una regione di origine. Questi esempi mostrano come elencare tutti i gruppi di Storage Lens utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="storage-lens-group-list-console"></a>

**Per elencare tutti i gruppi Storage Lens in un account e in una regione di origine**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, viene visualizzato l'elenco dei gruppi Storage Lens presenti nell'account.

## Utilizzando il AWS CLI
<a name="storage-lens-groups-list-cli"></a>

L' AWS CLI esempio seguente elenca tutti i gruppi Storage Lens del tuo account. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control list-storage-lens-groups --account-id 111122223333 \
--region us-east-1
```

## Utilizzo dell' AWS SDK for Java
<a name="storage-lens-groups-list-sdk-java"></a>

L' AWS SDK per Java esempio seguente elenca i gruppi Storage Lens per account`111122223333`. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.ListStorageLensGroupsRequest;
import software.amazon.awssdk.services.s3control.model.ListStorageLensGroupsResponse;

public class ListStorageLensGroups {
    public static void main(String[] args) {
        String accountId = "111122223333";

        try {
            ListStorageLensGroupsRequest listStorageLensGroupsRequest = ListStorageLensGroupsRequest.builder()
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            ListStorageLensGroupsResponse response = s3ControlClient.listStorageLensGroups(listStorageLensGroupsRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Visualizzazione dei dettagli del gruppo Storage Lens
<a name="storage-lens-groups-view"></a>

I seguenti esempi illustrano come visualizzare i dettagli di un gruppo Amazon S3 Storage Lens. Puoi visualizzare questi dettagli utilizzando la console Amazon S3, AWS Command Line Interface (AWS CLI) e. AWS SDK per Java

## Utilizzo della console S3
<a name="view-storage-lens-group-console"></a>



**Per visualizzare i dettagli di configurazione del gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il pulsante di opzione accanto al gruppo Storage Lens di tuo interesse.

1. Seleziona **Visualizza dettagli**. Ora puoi rivedere i dettagli del tuo gruppo Storage Lens.

## Utilizzando il AWS CLI
<a name="view-storage-lens-group-cli"></a>

L' AWS CLI esempio seguente restituisce i dettagli di configurazione per un gruppo Storage Lens. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control get-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

## Utilizzo dell' AWS SDK for Java
<a name="view-storage-lens-group-sdk-java"></a>

L' AWS SDK per Java esempio seguente restituisce i dettagli di configurazione per il gruppo Storage Lens denominato `Marketing-Department` in account`111122223333`. Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupResponse;

public class GetStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            GetStorageLensGroupRequest getRequest = GetStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            GetStorageLensGroupResponse response = s3ControlClient.getStorageLensGroup(getRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Eliminazione di un gruppo Storage Lens
<a name="storage-lens-groups-delete"></a>

Gli esempi seguenti mostrano come eliminare un gruppo Amazon S3 Storage Lens utilizzando la console Amazon S3 AWS Command Line Interface ,AWS CLI() e. AWS SDK per Java

## Utilizzo della console S3
<a name="delete-storage-lens-group-console"></a>

**Per eliminare un gruppo Storage Lens**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Gruppi Storage Lens**.

1. In **Gruppi Storage Lens**, scegli il pulsante di opzione accanto al gruppo Storage Lens che desideri eliminare.

1. Scegli **Elimina**. Viene visualizzata la finestra di dialogo **Elimina gruppo Storage Lens**.

1. Scegli nuovamente **Elimina** per rimuovere definitivamente il gruppo Storage Lens.
**Nota**  
Uno volta eliminato, non è più possibile ripristinare un gruppo Storage Lens.

## Utilizzando il AWS CLI
<a name="delete-storage-lens-group-cli"></a>

L' AWS CLI esempio seguente elimina il gruppo Storage Lens denominato`marketing-department`. Per utilizzare questo comando di esempio, sostituisci `user input placeholders` con le tue informazioni.

```
aws s3control delete-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

## Utilizzo dell' AWS SDK for Java
<a name="delete-storage-lens-group-sdk-java"></a>

L' AWS SDK per Java esempio seguente elimina il gruppo Storage Lens denominato `Marketing-Department` in account. `111122223333` Per utilizzare questo esempio, sostituisci `user input placeholders` con le informazioni appropriate.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.DeleteStorageLensGroupRequest;

public class DeleteStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            DeleteStorageLensGroupRequest deleteStorageLensGroupRequest = DeleteStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.deleteStorageLensGroup(deleteStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Catalogazione e analisi dei dati con Inventario S3
<a name="storage-inventory"></a>

Puoi usare Inventario Amazon S3 per gestire lo storage. Ad esempio, puoi utilizzarlo per effettuare l'audit e creare report sullo stato di replica e crittografia degli oggetti per attività, conformità ed esigenze normative. Inventario Amazon S3 può anche semplificare e accelerare flussi di lavoro aziendali e processi con Big Data, fornendo un'alternativa pianificata all'operazione API sincrona `List` in Amazon S3. Inventario Amazon S3 non utilizza le operazioni API `List` per l'audit degli oggetti e non influisce sulla velocità di richiesta del bucket.

Inventario Amazon S3 fornisce file di output con valori separati da virgole (CSV), [Apache Optimized Row Columnar (ORC)](https://orc.apache.org/) o [https://parquet.apache.org/](https://parquet.apache.org/) che elencano gli oggetti e i metadati corrispondenti con frequenza giornaliera o settimanale per un bucket S3 o oggetto con un prefisso condiviso, ovvero oggetti che hanno nomi che iniziano con una stringa comune. Se si imposta un inventario settimanale, un report viene generato ogni domenica (fuso orario UTC) dopo il report iniziale. Per informazioni sui prezzi di Amazon S3 Inventory, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing/).

È possibile configurare diversi elenchi di inventario per un bucket. Quando si configura un elenco di inventario, è possibile specificare quanto segue: 
+ Quali metadati degli oggetti includere nell'inventario
+ Se elencare tutte le versioni degli oggetti o solo le versioni correnti
+ Dove archiviare l'output del file dell'elenco di inventario
+ Se generare l'inventario su base giornaliera o settimanale
+ Se crittografare il file dell'elenco di inventario

Puoi eseguire query su Inventario Amazon S3 con query SQL standard utilizzando [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html), [Amazon Redshift Spectrum ](https://docs.aws.amazon.com/redshift/latest/dg/c-getting-started-using-spectrum.html) e altri strumenti, come [https://prestodb.io/](https://prestodb.io/), [https://hive.apache.org/](https://hive.apache.org/) e [https://databricks.com/spark/about/](https://databricks.com/spark/about/). Per ulteriori informazioni sull'uso di Athena per effettuare query sui file di inventario, consulta [Esecuzione di query sull'inventario Amazon S3 con Amazon Athena](storage-inventory-athena-query.md). 

**Nota**  
Amazon S3 potrebbe impiegare fino a 48 ore per fornire il primo report di inventario.

**Nota**  
Dopo aver eliminato una configurazione di inventario, Amazon S3 potrebbe comunque fornire un report di inventario aggiuntivo durante un breve periodo di transizione mentre il sistema elabora l'eliminazione.

## Bucket di origine e di destinazione
<a name="storage-inventory-buckets"></a>

Il bucket per il quale l'inventario elenca gli oggetti è chiamato *bucket di origine*. Il bucket nel quale viene archiviato il file dell'elenco di inventario è denominato *bucket di destinazione*. 

**Bucket di origine**

L'inventario elenca gli oggetti che sono archiviati nel bucket di origine. È possibile ottenere un elenco di inventario per un intero bucket o filtrarlo in base al prefisso del nome della chiave dell'oggetto.

Il bucket di origine:
+ Contiene gli oggetti elencati nell'inventario
+ Contiene la configurazione per l'inventario

**Bucket di destinazione**

I file dell'elenco di Amazon S3 Inventory vengono scritti nel bucket di destinazione. Per raggruppare tutti i file di elenco dell'inventario in un percorso comune del bucket di destinazione, puoi specificare un prefisso di destinazione nella configurazione dell'inventario.

Il bucket di destinazione:
+ Contiene gli elenchi dei file dell'inventario. 
+ Contiene i file manifesto che elencano tutti i file dell'inventario che sono archiviati nel bucket di destinazione. Per ulteriori informazioni, consulta [Manifest inventario](storage-inventory-location.md#storage-inventory-location-manifest).
+ Deve avere una policy del bucket per concedere ad Amazon S3 le autorizzazioni necessarie per verificare la proprietà del bucket e per scrivere file nel bucket. 
+ Deve essere nello stesso del Regione AWS bucket di origine.
+ Può coincidere con il bucket di origine.
+ Può essere di proprietà di un account Account AWS diverso da quello che possiede il bucket di origine.

## Elenco di Amazon S3 Inventory
<a name="storage-inventory-contents"></a>

Un file dell'elenco di inventario contiene un elenco degli oggetti presenti nel bucket di origine e i metadata per ogni oggetto. Un file dell'elenco di inventario viene archiviato nel bucket di destinazione con uno dei seguenti formati:
+ Come un file CSV compresso con GZIP
+ Come un file in formato ORC (optimized row columnar) Apache compresso con ZLIB
+ Come un file Apache Parquet compresso con Snappy

**Nota**  
Non è garantito che gli oggetti nei report di Inventario Amazon S3 siano ordinati in qualsiasi ordine.

Un file di elenco di inventario contiene l’elenco degli oggetti presenti nel bucket di origine e i metadata per ogni oggetto elencato. Questi campi predefiniti sono sempre inclusi:
+ **Bucket Name (Nome bucket)**: nome del bucket cui è destinato l'inventario.
+ **ETag**— Il tag di entità (ETag) è un hash dell'oggetto. ETag Riflette le modifiche solo al contenuto di un oggetto, non ai suoi metadati. ETag Può essere un MD5 riassunto dei dati dell'oggetto. a seconda di come l'oggetto è stato creato e crittografato. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).
+ **Nome chiave**: il nome della chiave dell'oggetto (o chiave) che identifica in modo univoco l'oggetto nel bucket. Se si utilizza il formato di file CSV, il nome della chiave è codificato in formato URL e dovrà essere decodificato prima di poterlo utilizzare.
+ **Data dell'ultima modifica**: la più recente tra la data di creazione dell'oggetto o la data dell'ultima modifica.
+ **Dimensione**: la dimensione dell'oggetto in byte, esclusa la dimensione dei caricamenti incompleti in più parti, dei metadati degli oggetti e dei contrassegni di eliminazione.
+ **Classe di archiviazione**: la classe di archiviazione utilizzata per archiviare l'oggetto. impostato su `STANDARD`, `REDUCED_REDUNDANCY`, `STANDARD_IA`, `ONEZONE_IA`, `INTELLIGENT_TIERING`, `GLACIER`, `DEEP_ARCHIVE`, `OUTPOSTS`, `GLACIER_IR` o `SNOW`. Per ulteriori informazioni, consulta [Comprensione e gestione delle classi di storage Amazon S3](storage-class-intro.md).
**Nota**  
Inventario S3 non supporta S3 Express One Zone.

È possibile scegliere di includere nel report i seguenti campi di metadati aggiuntivi:
+ **Algoritmo di checksum**: indica l'algoritmo usato per creare il checksum dell'oggetto. Per ulteriori informazioni, consulta [Utilizzo di algoritmi di checksum supportati](checking-object-integrity-upload.md#using-additional-checksums).
+ **Stato della crittografia: lo stato** della crittografia lato server, a seconda del tipo di chiave di crittografia utilizzata: crittografia lato server con chiavi gestite Amazon S3 (SSE-S3), crittografia lato server con () chiavi (SSE-KMS), crittografia lato server a due livelli con chiavi AWS Key Management Service (DSSE-KMS AWS KMS) o crittografia lato server con chiavi fornite dal cliente (SSE-C). AWS KMS Impostata su `SSE-S3`, `SSE-KMS`, `DSSE-KMS`, `SSE-C` o `NOT-SSE`. Uno stato di `NOT-SSE` indica che l'oggetto non è crittografato con crittografia lato server. Per ulteriori informazioni, consulta [Protezione dei dati con la crittografia](UsingEncryption.md).
+ **Livello di accesso S3 Intelligent-Tiering**: livello di accesso (frequente o raro) dell'oggetto se archiviato nella classe di archiviazione S3 Intelligent-Tiering. Impostata su `FREQUENT`, `INFREQUENT`, `ARCHIVE_INSTANT_ACCESS`, `ARCHIVE` o `DEEP_ARCHIVE`. Per ulteriori informazioni, consulta [Classe di storage per ottimizzare automaticamente i dati con modelli di accesso variabili o sconosciuti](storage-class-intro.md#sc-dynamic-data-access).
+ **Data di fine conservazione del blocco oggetti S3**: data fino alla quale l'oggetto bloccato non può essere eliminato. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).
+ **Modalità di conservazione del blocco oggetti S3**: impostata su `Governance` o `Compliance` per gli oggetti bloccati. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).
+ **Stato legale blocco oggetti S3**: impostato su `On` se è stato applicato un blocco di carattere legale a un oggetto, altrimenti su un oggetto. Altrimenti il valore è impostato su `Off`. Per ulteriori informazioni, consulta [Blocco di oggetti con Object Lock](object-lock.md).
+ **ID versione**: l'ID versione dell'oggetto. Quando viene attivata la funzione Controllo delle versioni in un bucket, Amazon S3 assegna un numero di versione agli oggetti aggiunti al bucket. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md). (Questo campo non è incluso se l'elenco è configurato unicamente per la versione corrente degli oggetti).
+ **IsLatest**— Imposta `True` se l'oggetto è la versione corrente dell'oggetto. (Questo campo non è incluso se l'elenco è configurato unicamente per la versione corrente degli oggetti).
+ **Contrassegno di eliminazione**: impostato su `True` se l'oggetto è un contrassegno di eliminazione. Per ulteriori informazioni, consulta [Conservazione di più versioni degli oggetti con Controllo delle versioni S3](Versioning.md). (Questo campo viene aggiunto automaticamente al report se questo è stato configurato per comprendere tutte le versioni degli oggetti).
+ **Multipart upload flag (Contrassegno di caricamento in più parti)**: impostato su `True` se l'oggetto è stato caricato come caricamento in più parti. Per ulteriori informazioni, consulta [Caricamento e copia di oggetti utilizzando il caricamento multiparte in Amazon S3](mpuoverview.md).
+ **Proprietario dell'oggetto** - L'ID utente canonico del proprietario dell'oggetto. Per ulteriori informazioni, consulta [Trova l'ID utente canonico per il tuo AWS account](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) nella Guida di *riferimento per la gestione degli AWS account*.
+ **Stato della replica**: impostare su `PENDING`, `COMPLETED`, `FAILED` oppure`REPLICA`. Per ulteriori informazioni, consulta [Ottenimento delle informazioni sullo stato della replica](replication-status.md).
+ **Stato delle chiavi bucket S3**: impostare su `ENABLED` o `DISABLED`. Indica se l'oggetto utilizza la chiave bucket S3 per SSE-KMS. Per ulteriori informazioni, consulta [Utilizzo di chiavi bucket Amazon S3](bucket-key.md).
+ **Elenco di controllo dell'accesso agli oggetti**: una lista di controllo degli accessi (ACL) per ogni oggetto che definisce a quali Account AWS o gruppi è concesso l'accesso a tale oggetto e il tipo di accesso concesso. Il campo ACL oggetto è definito in formato JSON. Un report di S3 Inventory include ACLs gli oggetti associati agli oggetti nel bucket di origine, anche quando ACLs sono disabilitati per il bucket. Per ulteriori informazioni, consultare [Utilizzo del campo ACL oggetto](objectacl.md) e [Panoramica delle liste di controllo accessi (ACL)](acl-overview.md).
**Nota**  
Il campo ACL oggetto è definito in formato JSON. Un report di inventario visualizza il valore per il campo ACL oggetto come stringa con codifica base64.  
Ad esempio, si supponga di avere il seguente campo ACL oggetto in formato JSON:  

  ```
  {
          "version": "2022-11-10",
          "status": "AVAILABLE",
          "grants": [{
              "canonicalId": "example-canonical-user-ID",
              "type": "CanonicalUser",
              "permission": "READ"
          }]
  }
  ```
Il campo ACL oggetto è codificato e visualizzato come la seguente stringa con codifica base64:  

  ```
  eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3siY2Fub25pY2FsSWQiOiJleGFtcGxlLWNhbm9uaWNhbC11c2VyLUlEIiwidHlwZSI6IkNhbm9uaWNhbFVzZXIiLCJwZXJtaXNzaW9uIjoiUkVBRCJ9XX0=
  ```
Per ottenere il valore decodificato in JSON per il campo ACL oggetto, puoi eseguire una query su questo campo in Amazon Athena. Per ulteriori esempi di query, consulta [Esecuzione di query sull'inventario Amazon S3 con Amazon Athena](storage-inventory-athena-query.md).
+ **Data di scadenza del ciclo** di vita: imposta il timestamp di scadenza del ciclo di vita dell'oggetto. Questo campo verrà compilato solo se l'oggetto deve scadere in base a una regola del ciclo di vita applicabile. In altri casi, il campo sarà vuoto. Agli oggetti con stato di `FAILED` replica non verrà inserita una data di scadenza, poiché S3 Lifecycle impedisce le azioni di scadenza e transizione su questi oggetti fino al completamento della replica. Per ulteriori informazioni, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md).

**Nota**  
Quando un oggetto raggiunge la fine del suo ciclo di vita in base alla relativa configurazione, Amazon S3 lo aggiunge alla coda degli oggetti da eliminare e lo rimuove in modo asincrono. Deve pertanto esistere un ritardo tra la data di scadenza dell'oggetto e la data in cui Amazon S3 rimuove tale oggetto. Il report di inventario include gli oggetti scaduti ma non ancora rimossi. Per ulteriori informazioni sulle operazioni di scadenza nel ciclo di vita S3, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md).

Di seguito è riportato un esempio di report di inventario con campi di metadati aggiuntivi, composto da quattro record.

```
amzn-s3-demo-bucket1    example-object-1    EXAMPLEDC8l.XJCENlF7LePaNIIvs001    TRUE        1500    2024-08-15T15:28:26.0004    EXAMPLE21e1518b92f3d92773570f600    STANDARD    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7000
amzn-s3-demo-bucket1    example-object-2    EXAMPLEDC8l.XJCENlF7LePaNIIvs002    TRUE        200    2024-08-21T15:28:26.000Z    EXAMPLE21e1518b92f3d92773570f601    INTELLIGENT_TIERING    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off    INFREQUENT    ENABLED    SHA-256    eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7001
amzn-s3-demo-bucket1    example-object-3    EXAMPLEDC8l.XJCENlF7LePaNIIvs003    TRUE        12500    2023-01-15T15:28:30.000Z    EXAMPLE21e1518b92f3d92773570f602    STANDARD    FALSE    REPLICA    SSE-KMS    2025-01-25T15:28:26.000Z    GOVERNANCE    On        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7002
amzn-s3-demo-bucket1    example-object-4    EXAMPLEDC8l.XJCENlF7LePaNIIvs004    TRUE        100    2021-02-15T15:28:27.000Z    EXAMPLE21e1518b92f3d92773570f603    STANDARD    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7003
```

Consigliamo di creare una policy del ciclo di vita che elimini i vecchi elenchi di inventario. Per ulteriori informazioni, consulta [Gestione del ciclo di vita degli oggetti](object-lifecycle-mgmt.md).

L'autorizzazione `s3:PutInventoryConfiguration` consente all'utente di selezionare tutti i campi di metadati elencati in precedenza per ogni oggetto durante la configurazione di un elenco inventario e di specificare il bucket di destinazione in cui archiviare l'inventario. Un utente con accesso in lettura agli oggetti nel bucket di destinazione può accedere a tutti i campi di metadati degli oggetti disponibili nell'elenco inventario. Per limitare l'accesso a un report di inventario, consulta [Concedere autorizzazioni per S3 Inventory e S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

### Consistenza dell'inventario
<a name="storage-inventory-contents-consistency"></a>

In ogni elenco di inventario potrebbero non comparire tutti gli oggetti. L'elenco inventario fornisce l'eventuale consistenza delle richieste `PUT` (sia di nuovi oggetti che di sovrascritture) e delle richieste `DELETE`. Ogni elenco di inventario per un bucket è una snapshot degli elementi del bucket. Questi elenchi sono alla fine coerenti (ovvero, un elenco potrebbe non includere oggetti aggiunti o eliminati di recente). 

Per convalidare lo stato di un oggetto prima di agire sull'oggetto stesso, consigliamo di effettuare una richiesta REST API `HeadObject` per recuperare i metadati dell'oggetto o controllare le proprietà dell'oggetto nella console di Amazon S3. Puoi anche controllare i metadati degli oggetti con o con gli SDK. AWS CLI AWS Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).

Per ulteriori informazioni sull'utilizzo di Amazon S3 Inventory, consulta gli argomenti riportati di seguito.

**Topics**
+ [

## Bucket di origine e di destinazione
](#storage-inventory-buckets)
+ [

## Elenco di Amazon S3 Inventory
](#storage-inventory-contents)
+ [

# Configurazione di Amazon S3 Inventory
](configure-inventory.md)
+ [

# Individuazione dell'elenco inventario
](storage-inventory-location.md)
+ [

# Impostazione delle notifiche di eventi Amazon S3 per il completamento dell'inventario
](storage-inventory-notification.md)
+ [

# Esecuzione di query sull'inventario Amazon S3 con Amazon Athena
](storage-inventory-athena-query.md)
+ [

# Convertire stringhe di ID versione vuote nei report Inventario Amazon S3 in stringhe nulle
](inventory-configure-bops.md)
+ [

# Utilizzo del campo ACL oggetto
](objectacl.md)

# Configurazione di Amazon S3 Inventory
<a name="configure-inventory"></a>

Amazon S3 Inventory fornisce un elenco di tipo file flat contenente oggetti e metadati in base a una pianificazione definita. Puoi utilizzare S3 Inventory come alternativa pianificata all'operazione API sincrona `List` di Amazon S3. S3 Inventory fornisce file di output con valori separati da virgole (CSV), in [Apacheformato ORC (Optimized Row Columnar)](https://orc.apache.org/) o in formato [https://parquet.apache.org/](https://parquet.apache.org/) che elencano gli oggetti e i metadati corrispondenti. 

Puoi configurare S3 Inventory per creare elenchi di inventario su base giornaliera o settimanale per un bucket S3 o per oggetti che condividono un prefisso (oggetti con nomi che iniziano con la stessa stringa). Per ulteriori informazioni, consulta [Catalogazione e analisi dei dati con Inventario S3](storage-inventory.md).

In questa sezione viene descritto come configurare un inventario inserendo le informazioni sui bucket di origine e destinazione dell'inventario.

**Topics**
+ [

## Panoramica di
](#storage-inventory-setting-up)
+ [

## Creazione di una policy di bucket di destinazione
](#configure-inventory-destination-bucket-policy)
+ [

## Concessione ad Amazon S3 dell'autorizzazione per l'utilizzo della chiave gestita dal cliente per la crittografia
](#configure-inventory-kms-key-policy)
+ [

## Configurazione dell'inventario utilizzando la console S3
](#configure-inventory-console)
+ [

## Utilizzo di REST API per utilizzare Inventario S3
](#rest-api-inventory)

## Panoramica di
<a name="storage-inventory-setting-up"></a>

Amazon S3 Inventory semplifica la gestione dell'archiviazione tramite la creazione di elenchi di oggetti in un bucket S3 in base a una pianificazione definita. È possibile configurare diversi elenchi di inventario per un bucket. Gli elenchi di inventario sono pubblicati su file CSV, ORC o Parquet in un bucket di destinazione. 

Il modo più semplice per configurare un inventario è utilizzare la console Amazon S3, ma puoi anche utilizzare l'API REST di Amazon S3 AWS Command Line Interface ,AWS CLI() o. AWS SDKs La console effettua la prima fase della seguente procedura: l'aggiunta di una policy di bucket al bucket di destinazione.

**Per configurare un Amazon S3 Inventory per un bucket S3**

1. **Aggiungere una policy di bucket per il bucket di destinazione.**

   È necessario creare una policy del bucket sul bucket di destinazione che conceda le autorizzazioni ad Amazon S3 per scrivere oggetti nel bucket nella posizione definita. Per un esempio di policy, consulta [Concedere autorizzazioni per S3 Inventory e S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1). 

1. **Configurare un inventario per elencare gli oggetti in un bucket di origine e pubblicare l'elenco su un bucket di destinazione.**

   Quando si configura un elenco di inventario per un bucket di origine, viene specificato il bucket di destinazione dove si intende archiviare l'elenco, indicando se si vuole generare l'elenco giornalmente o settimanalmente. Si può anche configurare se elencare tutte le versioni dell'oggetto o solo quelle correnti e quali metadati dell'oggetto includere. 

   Alcuni campi dei metadati degli oggetti nelle configurazioni dei report dell'Inventario S3 sono opzionali, cioè sono disponibili per impostazione predefinita, ma possono essere limitati quando si concede a un utente l'autorizzazione `s3:PutInventoryConfiguration`. È possibile controllare se gli utenti possono includere questi campi di metadati opzionali nei loro report utilizzando la chiave di condizione `s3:InventoryAccessibleOptionalFields`.

   Per ulteriori informazioni sui campi di metadati opzionali disponibili in Inventario S3, consulta la sezione [https://docs.aws.amazon.com//AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html#API_PutBucketInventoryConfiguration_RequestBody](https://docs.aws.amazon.com//AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html#API_PutBucketInventoryConfiguration_RequestBody) in *Riferimento API di Amazon Simple Storage Service*. Per ulteriori informazioni sulla limitazione dell'accesso a determinati campi di metadati opzionali in una configurazione dell'inventario, consulta [Controllo della creazione della configurazione dei report di Inventario S3](example-bucket-policies.md#example-bucket-policies-s3-inventory-2).

   Puoi specificare che il file della lista di inventario sia crittografato utilizzando la crittografia lato server con una chiave gestita Amazon S3 (SSE-S3) o AWS Key Management Service una () chiave gestita dal cliente AWS KMS(SSE-KMS). 
**Nota**  
Il Chiave gestita da AWS (`aws/s3`) non è supportato per la crittografia SSE-KMS con S3 Inventory. 

   Per ulteriori informazioni su SSE-S3 e SSE-KMS, consulta [Protezione dei dati con la crittografia lato server](serv-side-encryption.md). Se si intende utilizzare la crittografia SSE-KMS, consulta la Fase 3.
   + Per informazioni su come utilizzare la console per configurare un elenco inventario, consulta [Configurazione dell'inventario utilizzando la console S3](#configure-inventory-console).
   + Per utilizzare l'API Amazon S3 per configurare un elenco di inventario, utilizza l'operazione API [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html)REST o l'equivalente da o. AWS CLI AWS SDKs 

1. **Per crittografare il file dell'elenco di inventario con SSE-KMS, concedi a Simple Storage Service (Amazon S3) l'autorizzazione per l'utilizzo della AWS KMS key.**

   Puoi configurare la crittografia per il file dell'elenco di inventario utilizzando la console Amazon S3, l'API REST AWS CLI di Amazon S3 oppure. AWS SDKs Indipendentemente dalla soluzione scelta, devi concedere ad Amazon S3 l'autorizzazione per l'utilizzo della chiave gestita dal cliente per crittografare il file di inventario. Per [fornire ad Amazon S3 l’autorizzazione, modifica la policy della chiave gestita dal cliente](https://docs.aws.amazon.com/AmazonS3/latest/userguide/configure-inventory.html#configure-inventory-kms-key-policy) che desideri utilizzare per crittografare il file di inventario. Assicurati di aver fornito l’ARN della chiave KMS nella configurazione di Inventario S3 o nelle impostazioni di crittografia del bucket di destinazione. Se non è stato specificato l’ARN della chiave KMS e vengono utilizzate le impostazioni di crittografia predefinite, non potrai accedere al report di Inventario S3.

   Il bucket di destinazione in cui è archiviato il file dell'elenco di inventario può essere di proprietà di un Account AWS  diverso rispetto all'account che possiede il bucket di origine. Se si utilizza la crittografia SSE-KMS per le operazioni multi-account di Inventario Amazon S3, si consiglia di utilizzare un ARN della chiave KMS completamente qualificato quando si configura Inventario S3. Per ulteriori informazioni, consulta [Utilizzo della crittografia SSE-KMS per operazioni multi-account](bucket-encryption.md#bucket-encryption-update-bucket-policy) e [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ServerSideEncryptionByDefault.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ServerSideEncryptionByDefault.html) nella *Documentazione di riferimento delle API Amazon Simple Storage Service*.
**Nota**  
Se non riesci ad accedere al report di Inventario S3, utilizza l’API [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html) e verifica se nel bucket di destinazione è abilitata la crittografia SSE-KMS predefinita. Se non è stato specificato l’ARN della chiave KMS e vengono utilizzate le impostazioni di crittografia predefinite, non potrai accedere al report di Inventario S3. Per accedere nuovamente ai report di Inventario S3, fornisci l’ARN di una chiave KMS nella configurazione di Inventario S3 o nelle impostazioni di crittografia del bucket di destinazione.

## Creazione di una policy di bucket di destinazione
<a name="configure-inventory-destination-bucket-policy"></a>

Se crei la configurazione dell'inventario tramite la console Amazon S3, Amazon S3 crea automaticamente una policy di bucket sul bucket di destinazione che concede ad Amazon S3 l'autorizzazione di scrittura. Tuttavia, se crei la configurazione dell'inventario tramite o l' AWS CLI API REST di Amazon S3, devi aggiungere manualmente una policy del bucket sul bucket di destinazione. AWS SDKs La policy del bucket di destinazione di Inventario S3 consente ad Amazon S3 di scrivere i dati per i report di inventario nel bucket. 

Di seguito è riportato un esempio di policy dei bucket. 

------
#### [ JSON ]

****  

```
{  
      "Version":"2012-10-17",		 	 	 
      "Statement": [
        {
            "Sid": "InventoryExamplePolicy",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": "s3:PutObject",
            "Resource": [
                "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET/*"
            ],
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:::DOC-EXAMPLE-SOURCE-BUCKET"
                },
                "StringEquals": {
                    "aws:SourceAccount": "source-123456789012",
                    "s3:x-amz-acl": "bucket-owner-full-control"
                }
            }
        }
    ]
}
```

------

Per ulteriori informazioni, consulta [Concedere autorizzazioni per S3 Inventory e S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

Se si verifica un errore quando si tenta di creare la policy del bucket, vengono fornite le istruzioni su come correggerlo. Ad esempio, se scegli un bucket di destinazione in un altro Account AWS e non disponi delle autorizzazioni per leggere e scrivere nella policy del bucket, visualizzerai un messaggio di errore.

In questo caso, il proprietario del bucket di destinazione deve aggiungere la policy del bucket al bucket di destinazione. Se la policy non viene aggiunta al bucket di destinazione, non si otterrà alcun report di inventario, in quanto Amazon S3 non dispone dell'autorizzazione di scrittura per il bucket di destinazione. Se il bucket di origine è di proprietà di un account diverso da quello dell'utente attuale, l'ID account corretto del proprietario del bucket di origine verrà sostituito nella policy.

**Nota**  
Assicurati che non siano state aggiunte istruzioni di rifiuto alla policy del bucket di destinazione che impediscano la consegna dei report di inventario in questo bucket. Per ulteriori informazioni, consulta [Perché non riesco a generare un report di Inventario Amazon S3?](https://repost.aws/knowledge-center/s3-inventory-report)

## Concessione ad Amazon S3 dell'autorizzazione per l'utilizzo della chiave gestita dal cliente per la crittografia
<a name="configure-inventory-kms-key-policy"></a>

Per concedere ad Amazon S3 l'autorizzazione a utilizzare la tua chiave gestita dal cliente AWS Key Management Service (AWS KMS) per la crittografia lato server, devi utilizzare una policy di chiave. Per aggiornare la policy della chiave in modo da poter utilizzare la chiave gestita dal cliente, completa la procedura seguente.

**Per concedere ad Amazon S3 le autorizzazioni per la crittografia utilizzando la chiave gestita dal cliente**

1. Utilizzando la Account AWS chiave proprietaria della chiave gestita dal cliente, accedi a. Console di gestione AWS

1. Apri la AWS KMS console in [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms).

1. Per modificare il Regione AWS, usa il selettore della regione nell'angolo in alto a destra della pagina.

1. Nel riquadro di navigazione, scegli **Chiavi gestite dal cliente**.

1. In **Chiavi gestite dal cliente**, scegli la chiave gestita dal cliente che desideri utilizzare per crittografare i file inventario.

1. Nella sezione **Policy della chiave**, scegli **Passa alla visualizzazione della policy**.

1. Per aggiornare la policy chiave, seleziona **Modifica**.

1. Nella pagina **Modifica policy delle chiavi**, aggiungi le seguenti righe alla policy della chiave esistente. Per `source-account-id` e `amzn-s3-demo-source-bucket`, fornisci i valori appropriati per il tuo caso d'uso.

   ```
   {
       "Sid": "Allow Amazon S3 use of the customer managed key",
       "Effect": "Allow",
       "Principal": {
           "Service": "s3.amazonaws.com"
       },
       "Action": [
           "kms:GenerateDataKey"
       ],
       "Resource": "*",
       "Condition":{
         "StringEquals":{
            "aws:SourceAccount":"source-account-id"
        },
         "ArnLike":{
           "aws:SourceARN": "arn:aws:s3:::amzn-s3-demo-source-bucket"
        }
      }
   }
   ```

1. Scegli **Save changes** (Salva modifiche).

Per ulteriori informazioni sulla creazione di chiavi gestite dal cliente e sull'utilizzo delle policy delle chiavi, consulta i seguenti collegamenti nella *Guida per Developer di AWS Key Management Service *:
+ [Gestione delle chiavi](https://docs.aws.amazon.com/kms/latest/developerguide/getting-started.html)
+ [Politiche chiave in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html)

**Nota**  
Assicurati che non siano state aggiunte istruzioni di rifiuto alla policy del bucket di destinazione che impediscano la consegna dei report di inventario in questo bucket. Per ulteriori informazioni, consulta [Perché non riesco a generare un report di Inventario Amazon S3?](https://repost.aws/knowledge-center/s3-inventory-report)

## Configurazione dell'inventario utilizzando la console S3
<a name="configure-inventory-console"></a>

Segui queste istruzioni per configurare l'inventario utilizzando la console S3.
**Nota**  
La consegna del primo report di inventario Amazon S3 può richiedere fino a 48 ore.

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Nell’elenco dei bucket seleziona il nome del bucket per cui desideri configurare Inventario Amazon S3.

1. Scegliere la scheda **Management** (Gestione),

1. In **Configurazioni inventario** seleziona **Crea configurazione inventario**.

1. Specifica un nome in **Nome della configurazione dell'inventario**.

1. Per **Ambito dell'inventario**, esegui le operazioni descritte di seguito.
   + Immetti un prefisso facoltativo.
   + Scegli quali versioni dell'oggetto includere, **Solo versioni correnti** o **Includi tutte le versioni**.

1. In **Dettagli report** scegli la posizione dell'account Account AWS in cui desideri salvare i report: **Questo account** o **Un account diverso**.

1. In **Destinazione**, scegli il bucket di destinazione in cui desideri salvare i report di inventario.

   Il bucket di destinazione deve trovarsi nello Regione AWS stesso bucket per il quale stai configurando l'inventario. Il bucket di destinazione può trovarsi in un diverso Account AWS. Quando specifichi il bucket di destinazione, puoi anche includere un prefisso opzionale per raggruppare insiemi i report di inventario. 

   Nel campo **Bucket di destinazione** viene visualizzata l'istruzione **Autorizzazione del bucket di destinazione** che viene aggiunta alla policy del bucket di destinazione per consentire ad Amazon S3 di inserire i dati in tale bucket. Per ulteriori informazioni, consulta [Creazione di una policy di bucket di destinazione](#configure-inventory-destination-bucket-policy).

1. In **Frequenza**, seleziona la frequenza con cui verrà generato il report: **Giornaliero** o **Settimanale**.

1. Per **Formato di output**, scegli uno dei seguenti formati per il report:
   + **CSV**: se prevedi di utilizzare questo report di inventario con Operazioni in batch S3 o se desideri analizzare questo report in un altro strumento, come Microsoft Excel, scegli **CSV**.
   + **Apache ORC**
   + **Apache Parquet**

1. In **Stato** seleziona **Abilita** o **Disabilita**.

1. Per configurare la crittografia lato server, in **Crittografia dei report di inventario**, segui la procedura riportata sotto:

   1. In **Crittografia lato server**, scegli **Non specificare una chiave di crittografia** o **Specifica una chiave di crittografia** per crittografare i dati.
      + Per conservare le impostazioni relative ai bucket per la crittografia predefinita degli oggetti lato server durante l'archiviazione in Amazon S3, scegli **Non specificare una chiave di crittografia**. Finché nella destinazione del bucket sono abilitate le chiavi bucket S3, l'operazione di copia applica la chiave bucket S3 al bucket di destinazione.
**Nota**  
Se la policy del bucket per la destinazione specificata richiede la crittografia degli oggetti prima di archiviarli in Amazon S3, è necessario scegli **Specifica una chiave di crittografia**. In caso contrario, la copia degli oggetti nella destinazione avrà esito negativo.
      + Per crittografare gli oggetti prima di archiviarli in Amazon S3, scegli **Specifica una chiave di crittografia**.

   1. Se si sceglie **Specificare una chiave di crittografia**, in **Tipo di crittografia**si deve scegli la **chiave gestita da Amazon S3 (SSE-S3)** o la **chiave AWS Key Management Service (SSE-KMS)**.

      Per crittografare gli oggetti, SSE-S3 utilizza una delle cifrature di blocco più complesse, lo standard di crittografia avanzata a 256 bit (AES-256). SSE-KMS garantisce un maggiore controllo sulla chiave. Per ulteriori informazioni su SSE-S3, consulta [Uso della crittografia lato server con chiavi gestite da Amazon S3 (SSE-S3)](UsingServerSideEncryption.md). Per ulteriori informazioni su SSE-KMS, consulta [Utilizzo della crittografia lato server con chiavi (SSE-KMS) AWS KMS](UsingKMSEncryption.md).
**Nota**  
Per crittografare il file elenco inventario con SSE-KMS, devi impostare Amazon S3 in modo che possa utilizzare la chiave gestita dal cliente. Per le istruzioni, consulta la sezione [Concedere ad Amazon S3 l'autorizzazione delle chiavi KMS per la crittografia](#configure-inventory-kms-key-policy).

   1. Se hai scelto **AWS Key Management Service la chiave (SSE-KMS)**, sotto **AWS KMS key**, puoi specificare la tua AWS KMS chiave tramite una delle seguenti opzioni.
**Nota**  
Se il bucket di destinazione che memorizza il file dell'elenco di inventario è di proprietà di un altro Account AWS, assicurati di utilizzare una chiave KMS ARN completa per specificare la tua chiave KMS.
      + Per scegliere da un elenco di chiavi KMS disponibili, scegli tra le **tue AWS KMS chiavi e scegli una chiave KMS con crittografia simmetrica dall'**elenco delle chiavi disponibili. Assicurati che la chiave KMS sia nella stessa Regione del bucket. 
**Nota**  
Nell'elenco vengono visualizzate sia la chiave Chiave gestita da AWS (`aws/s3`) che quella gestita dal cliente. Tuttavia, il Chiave gestita da AWS (`aws/s3`) non è supportato per la crittografia SSE-KMS con S3 Inventory. 
      + Per inserire l'ARN della chiave KMS, **scegli Inserisci la AWS KMS chiave ARN** e inserisci l'ARN della chiave KMS nel campo visualizzato.
      + **Per creare una nuova chiave gestita dal cliente nella AWS KMS console, scegli Crea una chiave KMS.**

1. Per **Campi di metadati aggiuntivi**, seleziona una o più delle seguenti opzioni per aggiungere il report di inventario:
   + **Dimensione**: la dimensione dell'oggetto in byte, esclusa la dimensione dei caricamenti incompleti in più parti, dei metadati degli oggetti e dei contrassegni di eliminazione.
   + **Data dell'ultima modifica**: la più recente tra la data di creazione dell'oggetto o la data dell'ultima modifica.
   +  **Caricamento in più parti**: specifica che l'oggetto è stato caricato in più parti. Per ulteriori informazioni, consulta [Caricamento e copia di oggetti utilizzando il caricamento multiparte in Amazon S3](mpuoverview.md).
   + **Stato di replica**: lo stato di replica dell'oggetto. Per ulteriori informazioni, consulta [Ottenimento delle informazioni sullo stato della replica](replication-status.md).
   + **Stato crittografia**: il tipo di crittografia lato server utilizzata per crittografare l'oggetto. Per ulteriori informazioni, consulta [Protezione dei dati con la crittografia lato server](serv-side-encryption.md).
   + **Stato della chiave del bucket**: indica se una chiave a livello di bucket generata da AWS KMS si applica all'oggetto. Per ulteriori informazioni, consulta [Riduzione del costo di SSE-KMS con le chiavi bucket Amazon S3](bucket-key.md).
   + **Elenco di controllo dell'accesso agli oggetti**: una lista di controllo degli accessi (ACL) per ogni oggetto che definisce a quali Account AWS o gruppi è concesso l'accesso a questo oggetto e il tipo di accesso concesso. Per ulteriori informazioni su questo campo, consulta [Utilizzo del campo ACL oggetto](objectacl.md). Per ulteriori informazioni su ACLs, vedere[Panoramica delle liste di controllo accessi (ACL)](acl-overview.md). 
   + **Proprietario dell'oggetto**: il proprietario dell'oggetto.
   + **Classe di archiviazione**: la classe di archiviazione utilizzata per archiviare l'oggetto. 
   + **Intelligent-Tiering: livello di accesso**: indica il livello di accesso (frequente o raro) dell'oggetto se è stato archiviato nella classe di archiviazione S3 Intelligent-Tiering. Per ulteriori informazioni, consulta [Classe di storage per ottimizzare automaticamente i dati con modelli di accesso variabili o sconosciuti](storage-class-intro.md#sc-dynamic-data-access).
   + **ETag**— Il tag entity (ETag) è un hash dell'oggetto. ETag Riflette le modifiche solo al contenuto di un oggetto, non ai suoi metadati. ETag Potrebbe essere o meno un MD5 riassunto dei dati dell'oggetto. a seconda di come l'oggetto è stato creato e crittografato. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html) in *Amazon Simple Storage Service API Reference* (Guida di riferimento per l'API di Amazon Simple Storage Service).
   + **Algoritmo di checksum**: indica l'algoritmo usato per creare il checksum dell'oggetto. Per ulteriori informazioni, consulta [Utilizzo di algoritmi di checksum supportati](checking-object-integrity-upload.md#using-additional-checksums).
   + **Tutte le configurazioni di blocco degli oggetti**: lo stato di blocco dell'oggetto, incluse le seguenti impostazioni: 
     + **Blocco degli oggetti: modalità di conservazione**: il livello di protezione applicato all'oggetto, *Governance* o *Conformità*.
     + **Blocco degli oggetti: mantenere fino alla data**: data fino alla quale l'oggetto bloccato non può essere eliminato.
     + **Blocco degli oggetti: status della conservazione di carattere legale**: lo stato di conservazione ai fini legali dell'oggetto bloccato. 

     Per ulteriori informazioni sul blocco degli oggetti S3, consulta [Come funziona il blocco oggetti S3](object-lock.md#object-lock-overview).
   + **Data di scadenza del ciclo** di vita: il timestamp di scadenza del ciclo di vita degli oggetti nel rapporto di inventario. Questo campo verrà compilato solo se l'oggetto deve scadere in base a una regola del ciclo di vita applicabile. In altri casi, il campo sarà vuoto. Per ulteriori informazioni, consulta [Oggetti in scadenza](lifecycle-expire-general-considerations.md).

   Per ulteriori informazioni sul contenuto di un report di inventario, consulta [Elenco di Amazon S3 Inventory](storage-inventory.md#storage-inventory-contents). 

   Per ulteriori informazioni sulla limitazione dell'accesso a determinati campi di metadati opzionali in una configurazione dell'inventario, consulta [Controllo della creazione della configurazione dei report di Inventario S3](example-bucket-policies.md#example-bucket-policies-s3-inventory-2).

1. Scegli **Create** (Crea).

## Utilizzo di REST API per utilizzare Inventario S3
<a name="rest-api-inventory"></a>

Di seguito sono riportate le operazioni REST che è possibile utilizzare per lavorare con Inventario Amazon S3.
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketDELETEInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketDELETEInventoryConfiguration.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETInventoryConfig.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketListInventoryConfigs.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketListInventoryConfigs.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html) 

# Individuazione dell'elenco inventario
<a name="storage-inventory-location"></a>

Quando viene pubblicato un elenco di inventario, i file manifest vengono pubblicati nel seguente percorso del bucket di destinazione.

```
destination-prefix/amzn-s3-demo-source-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.json
 destination-prefix/amzn-s3-demo-source-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.checksum
 destination-prefix/amzn-s3-demo-source-bucket/config-ID/hive/dt=YYYY-MM-DD-HH-MM/symlink.txt
```
+ `destination-prefix` è il prefisso del nome della chiave dell'oggetto specificato facoltativamente nella configurazione dell'inventario. Puoi utilizzare questo prefisso per raggruppare tutti i file dell'elenco di inventario in un percorso comune all'interno del bucket di destinazione.
+ `amzn-s3-demo-source-bucket` è il bucket di origine per l'elenco inventario. Il nome del bucket di origine viene aggiunto per evitare conflitti quando più report di inventario provenienti da bucket di origine diversi vengono inviati allo stesso bucket di destinazione.
+ `config-ID` viene aggiunto per evitare conflitti con più report di inventario provenienti dallo stesso bucket di origine inviati allo stesso bucket di destinazione. `config-ID` proviene dalla configurazione del report di inventario ed è il nome del report definito durante la configurazione.
+ `YYYY-MM-DDTHH-MMZ` è il timestamp composto dall'ora di inizio e dalla data in cui la generazione del report di inventario comincia la scansione del bucket; ad esempio, `2016-11-06T21-32Z`.
+ `manifest.json` è il file manifest. 
+ `manifest.checksum`è l' MD5 hash del contenuto del `manifest.json` file. 
+ `symlink.txt` è il file manifesto compatibile con  Apache Hive. 

Gli elenchi di inventario vengono pubblicati giornalmente o settimanalmente nel seguente percorso del bucket di destinazione.

```
destination-prefix/amzn-s3-demo-source-bucket/config-ID/data/example-file-name.csv.gz
...
destination-prefix/amzn-s3-demo-source-bucket/config-ID/data/example-file-name-1.csv.gz
```
+ `destination-prefix` è il prefisso del nome della chiave dell'oggetto specificato facoltativamente nella configurazione dell'inventario. Puoi utilizzare questo prefisso per raggruppare tutti i file dell'elenco di inventario in un percorso comune nel bucket di destinazione.
+ `amzn-s3-demo-source-bucket` è il bucket di origine per l'elenco inventario. Il nome del bucket di origine viene aggiunto per evitare conflitti quando più report di inventario provenienti da bucket di origine diversi vengono inviati allo stesso bucket di destinazione.
+ `example-file-name``.csv.gz` è uno dei file CSV di inventario. I nomi di inventario ORC terminano con l'estensione del nome di file `.orc`, mentre i nomi di inventario Parquet terminano con l'estensione del nome di file `.parquet`.

## Manifest inventario
<a name="storage-inventory-location-manifest"></a>

Nei file manifest `manifest.json` e `symlink.txt` viene descritto dove sono posizionati i file di inventario. Ogni volta che viene distribuito un nuovo elenco di inventario, quest'ultimo è accompagnato da un nuovo set di file manifest. Questi file potrebbero sovrascriversi l'un l'altro. Nei bucket con il controllo delle versioni abilitato, Amazon S3 crea nuove versioni dei file manifesto. 

Ogni manifesto contenuto nel file `manifest.json` fornisce i metadata e altre informazioni di base riguardanti un inventario. Queste informazioni comprendono:
+ Il nome del bucket di origine
+ Il nome del bucket di destinazione
+ La versione dell'inventario
+ La creazione del timestamp in formato data epoca (Unix epoch) che è composto dall'ora di inizio e dalla data in cui il processo di generazione del report di inventario comincia la scansione del bucket
+ Il formato e lo schema dei file di inventario
+ Un elenco dei file di inventario che si trovano nel bucket di destinazione

Ogni volta che un `manifest.json` file viene scritto, è accompagnato da un `manifest.checksum` file che è l' MD5 hash del contenuto del `manifest.json` file.

**Example Manifest inventario in un file `manifest.json`**  
Negli esempi seguenti viene illustrato un manifesto inventario in un file `manifest.json` per gli inventari in formato CSV, ORC e Parquet.  
Di seguito viene riportato un esempio di un manifest in un file `manifest.json` per un inventario in formato CSV.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-inventory-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "CSV",
    "fileSchema": "Bucket, Key, VersionId, IsLatest, IsDeleteMarker, Size, LastModifiedDate, ETag, StorageClass, IsMultipartUploaded, ReplicationStatus, EncryptionStatus, ObjectLockRetainUntilDate, ObjectLockMode, ObjectLockLegalHoldStatus, IntelligentTieringAccessTier, BucketKeyStatus, ChecksumAlgorithm, ObjectAccessControlList, ObjectOwner",
    "files": [
        {
            "key": "Inventory/amzn-s3-demo-source-bucket/2016-11-06T21-32Z/files/939c6d46-85a9-4ba8-87bd-9db705a579ce.csv.gz",
            "size": 2147483647,
            "MD5checksum": "f11166069f1990abeb9c97ace9cdfabc"
        }
    ]
}
```
Di seguito viene riportato un esempio di un manifest in un file `manifest.json` per un inventario in formato ORC.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "ORC",
    "fileSchema": "struct<bucket:string,key:string,version_id:string,is_latest:boolean,is_delete_marker:boolean,size:bigint,last_modified_date:timestamp,e_tag:string,storage_class:string,is_multipart_uploaded:boolean,replication_status:string,encryption_status:string,object_lock_retain_until_date:timestamp,object_lock_mode:string,object_lock_legal_hold_status:string,intelligent_tiering_access_tier:string,bucket_key_status:string,checksum_algorithm:string,object_access_control_list:string,object_owner:string>",
    "files": [
        {
            "key": "inventory/amzn-s3-demo-source-bucket/data/d794c570-95bb-4271-9128-26023c8b4900.orc",
            "size": 56291,
            "MD5checksum": "5925f4e78e1695c2d020b9f6eexample"
        }
    ]
}
```
Di seguito viene riportato un esempio di un manifest in un file `manifest.json` per un inventario in formato Parquet.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "Parquet",
    "fileSchema": "message s3.inventory { required binary bucket (UTF8); required binary key (UTF8); optional binary version_id (UTF8); optional boolean is_latest; optional boolean is_delete_marker; optional int64 size; optional int64 last_modified_date (TIMESTAMP_MILLIS); optional binary e_tag (UTF8); optional binary storage_class (UTF8); optional boolean is_multipart_uploaded; optional binary replication_status (UTF8); optional binary encryption_status (UTF8); optional int64 object_lock_retain_until_date (TIMESTAMP_MILLIS); optional binary object_lock_mode (UTF8); optional binary object_lock_legal_hold_status (UTF8); optional binary intelligent_tiering_access_tier (UTF8); optional binary bucket_key_status (UTF8); optional binary checksum_algorithm (UTF8); optional binary object_access_control_list (UTF8); optional binary object_owner (UTF8);}",
    "files": [
        {
           "key": "inventory/amzn-s3-demo-source-bucket/data/d754c470-85bb-4255-9218-47023c8b4910.parquet",
            "size": 56291,
            "MD5checksum": "5825f2e18e1695c2d030b9f6eexample"
        }
    ]
}
```
Il file `symlink.txt` è un file manifesto compatibile con Apache Hive che consente a Hive di scoprire automaticamente i file di inventario e i relativi file di dati. Il manifest compatibile con Hive funziona con i servizi compatibili con Hive Athena e Amazon Redshift Spectrum. Funziona anche con applicazioni compatibili con Hive, incluse [https://prestodb.io/](https://prestodb.io/), [https://hive.apache.org/](https://hive.apache.org/), [https://databricks.com/spark/about/](https://databricks.com/spark/about/) e molte altre.  
Il file manifesto compatibile con `symlink.txt` Apache Hive attualmente non può essere utilizzato con  AWS Glue.  
La lettura del file `symlink.txt` con [https://hive.apache.org/](https://hive.apache.org/) e [https://databricks.com/spark/about/](https://databricks.com/spark/about/) non è supportata per i file di inventario in formato ORC e Parquet. 

# Impostazione delle notifiche di eventi Amazon S3 per il completamento dell'inventario
<a name="storage-inventory-notification"></a>

Puoi configurare una notifica di eventi Amazon S3 per ricevere una notifica quando viene creato il file checksum manifest, che indica che è stato aggiunto un elenco di inventario al bucket di destinazione. Il manifesto è un up-to-date elenco di tutti gli elenchi di inventario presenti nella posizione di destinazione.

Amazon S3 può pubblicare eventi in un argomento Amazon Simple Notification Service (Amazon SNS), una coda Amazon Simple Queue Service (Amazon SQS) o una funzione AWS Lambda . Per ulteriori informazioni, consulta [Notifiche di eventi Amazon S3](EventNotifications.md).

La seguente configurazione di notifica definisce che tutti i file `manifest.checksum` recentemente aggiunti al bucket di destinazione sono elaborati da AWS Lambda `cloud-function-list-write`.

```
<NotificationConfiguration>
  <QueueConfiguration>
      <Id>1</Id>
      <Filter>
          <S3Key>
              <FilterRule>
                  <Name>prefix</Name>
                  <Value>destination-prefix/source-bucket</Value>
              </FilterRule>
              <FilterRule>
                  <Name>suffix</Name>
                  <Value>checksum</Value>
              </FilterRule>
          </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:222233334444:cloud-function-list-write</CloudFunction>
     <Event>s3:ObjectCreated:*</Event>
  </QueueConfiguration>
  </NotificationConfiguration>
```

Per ulteriori informazioni, consulta [Using AWS Lambda with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) nella *AWS Lambda Developer* Guide.

# Esecuzione di query sull'inventario Amazon S3 con Amazon Athena
<a name="storage-inventory-athena-query"></a>

Puoi eseguire una query sui file di Inventario Amazon S3 con query SQL standard utilizzando Amazon Athena in tutte le regioni in cui Athena è disponibile. Per verificare Regione AWS la disponibilità, consulta la [Regione AWS Tabella.](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 

Athena può eseguire query sui file di Inventario Amazon S3 in formato [ORC (optimized row columnar) Apache](https://orc.apache.org/), [https://parquet.apache.org/](https://parquet.apache.org/) o in formato CSV. Quando si utilizza Athena per eseguire query sui file dell'inventario, è consigliabile utilizzare file di inventario in formato ORC o Parquet. I formati ORC e Parquet consentono di eseguire query più rapidamente e a costi inferiori. ORC e Parquet sono formati di file a colonne autodescrittivi orientati ai tipi progettati per [http://hadoop.apache.org/](http://hadoop.apache.org/). Il formato colonnare permette al lettore di leggere, decomprimere ed elaborare solo le colonne necessarie per la query in corso. L'ORC e Parquet i formati per Amazon S3 Inventory sono disponibili in tutti. Regioni AWS

**Come utilizzare Athena per eseguire query sui file di Inventario Amazon S3**

1. Creare una tabella Athena. Per informazioni sulla creazione di una tabella, consultare [Creazione di tabelle in Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/creating-tables.html) nella *Guida per l'utente di Amazon Athena*.

1. Crea la query utilizzando uno dei seguenti modelli di query di esempio, a seconda che esegui la query su un report di inventario in formato ORC, Parquet o CSV. 
   + Quando utilizzi Athena per eseguire query su un report di inventario in formato ORC, utilizza la seguente query di esempio come un modello.

     La seguente query di esempio comprende tutti i campi opzionali in un report di inventario in formato ORC. 

     Per utilizzare questa query di esempio, effettua le seguenti operazioni: 
     + Sostituisci `your_table_name` con il nome della tabella Athena creata.
     + Rimuovi gli eventuali campi opzionali che non hai scelto per l'inventario in modo che la query corrisponda ai campi scelti.
     + Sostituisci il nome del bucket e la posizione dell'inventario seguenti (l'ID configurazione) come appropriato in base alla configurazione.

       `s3://amzn-s3-demo-bucket/config-ID/hive/`
     + Sostituisci la data `2022-01-01-00-00` in `projection.dt.range` con il primo giorno dell'intervallo di tempo entro il quale esegui la partizione dei dati in Athena. Per ulteriori informazioni, consulta [Partizionamento dei dati in Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html).

     ```
     CREATE EXTERNAL TABLE your_table_name (
              bucket string,
              key string,
              version_id string,
              is_latest boolean,
              is_delete_marker boolean,
              size bigint,
              last_modified_date timestamp,
              e_tag string,
              storage_class string,
              is_multipart_uploaded boolean,
              replication_status string,
              encryption_status string,
              object_lock_retain_until_date bigint,
              object_lock_mode string,
              object_lock_legal_hold_status string,
              intelligent_tiering_access_tier string,
              bucket_key_status string,
              checksum_algorithm string,
              object_access_control_list string,
              object_owner string,
              lifecycle_expiration_date timestamp
     ) PARTITIONED BY (
             dt string
     )
     ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
       STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
       OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat'
       LOCATION 's3://amzn-s3-demo-bucket/config-ID/hive/'
       TBLPROPERTIES (
         "projection.enabled" = "true",
         "projection.dt.type" = "date",
         "projection.dt.format" = "yyyy-MM-dd-HH-mm",
         "projection.dt.range" = "2022-01-01-00-00,NOW",
         "projection.dt.interval" = "1",
         "projection.dt.interval.unit" = "HOURS"
       );
     ```
   + Quando utilizzi Athena per eseguire query su un report di inventario in formato Parquet, utilizza la seguente query di esempio come un report in formato OCR. Tuttavia, usa quanto segue Parquet SerDe al posto dell'ORC SerDe nella dichiarazione. `ROW FORMAT SERDE`

     ```
     ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'
     ```
   + Quando utilizzi Athena per eseguire query su un report di inventario in formato CSV, utilizza la seguente query di esempio come un modello.

     La seguente query di esempio comprende tutti i campi opzionali in un report di inventario in formato CSV. 

     Per utilizzare questa query di esempio, effettua le seguenti operazioni: 
     + Sostituisci `your_table_name` con il nome della tabella Athena creata.
     + Rimuovi gli eventuali campi opzionali che non hai scelto per l'inventario in modo che la query corrisponda ai campi scelti.
     + Sostituisci il nome del bucket e la posizione dell'inventario seguenti (l'ID configurazione) come appropriato in base alla configurazione. 

       `s3://amzn-s3-demo-bucket/config-ID/hive/`
     + Sostituisci la data `2022-01-01-00-00` in `projection.dt.range` con il primo giorno dell'intervallo di tempo entro il quale esegui la partizione dei dati in Athena. Per ulteriori informazioni, consulta [Partizionamento dei dati in Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html).

     ```
     CREATE EXTERNAL TABLE your_table_name (
              bucket string,
              key string,
              version_id string,
              is_latest boolean,
              is_delete_marker boolean,
              size string,
              last_modified_date string,
              e_tag string,
              storage_class string,
              is_multipart_uploaded boolean,
              replication_status string,
              encryption_status string,
              object_lock_retain_until_date string,
              object_lock_mode string,
              object_lock_legal_hold_status string,
              intelligent_tiering_access_tier string,
              bucket_key_status string,
              checksum_algorithm string,
              object_access_control_list string,
              object_owner string,
              lifecycle_expiration_date string
     ) PARTITIONED BY (
             dt string
     )
     ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
       STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
       OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat'
       LOCATION 's3://amzn-s3-demo-bucket/config-ID/hive/'
       TBLPROPERTIES (
         "projection.enabled" = "true",
         "projection.dt.type" = "date",
         "projection.dt.format" = "yyyy-MM-dd-HH-mm",
         "projection.dt.range" = "2022-01-01-00-00,NOW",
         "projection.dt.interval" = "1",
         "projection.dt.interval.unit" = "HOURS"
       );
     ```

1. Ora puoi eseguire diverse query sull'inventario, come illustrato negli esempi seguenti. Sostituisci ogni `user input placeholder` con le tue informazioni.

   ```
   # Get a list of the latest inventory report dates available.
   SELECT DISTINCT dt FROM your_table_name ORDER BY 1 DESC limit 10;
             
   # Get the encryption status for a provided report date.
   SELECT encryption_status, count(*) FROM your_table_name WHERE dt = 'YYYY-MM-DD-HH-MM' GROUP BY encryption_status;
             
   # Get the encryption status for inventory report dates in the provided range.
   SELECT dt, encryption_status, count(*) FROM your_table_name 
   WHERE dt > 'YYYY-MM-DD-HH-MM' AND dt < 'YYYY-MM-DD-HH-MM' GROUP BY dt, encryption_status;
   ```

   Quando configuri S3 Inventory per aggiungere il campo Elenco di controllo di accesso dell'oggetto (ACL) a un report di inventario, il report visualizza il valore per il campo ACL oggetto come una stringa con codifica base64. Per ottenere il valore decodificato in JSON per il campo ACL oggetto, puoi eseguire una query su questo campo utilizzando Athena. Fare riferimento agli esempi di query riportati di seguito. Per ulteriori informazioni sul campo ACL oggetto, consulta [Utilizzo del campo ACL oggetto](objectacl.md).

   ```
   # Get the S3 keys that have Object ACL grants with public access.
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'uri') = 'http://acs.amazonaws.com/groups/global/AllUsers'
   ```

   ```
   # Get the S3 keys that have Object ACL grantees in addition to the object owner.
   WITH grants AS 
       (SELECT key,
       from_utf8(from_base64(object_access_control_list)) AS object_access_control_list,
            object_owner,
            CAST(json_extract(from_utf8(from_base64(object_access_control_list)),
            '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))) AS grants_array
       FROM your_table_name)
   SELECT key,
          grant,
          objectowner
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE cardinality(grants_array) > 1 AND element_at(grant, 'canonicalId') != object_owner;
   ```

   ```
   # Get the S3 keys with READ permission that is granted in the Object ACL. 
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'permission') = 'READ';
   ```

   ```
   # Get the S3 keys that have Object ACL grants to a specific canonical user ID.
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'canonicalId') = 'user-canonical-id';
   ```

   ```
   # Get the number of grantees on the Object ACL.
   SELECT key,
          object_access_control_list,
          json_array_length(json_extract(object_access_control_list,'$.grants')) AS grants_count
   FROM your_table_name;
   ```

Per ulteriori informazioni sull'utilizzo di Athena, consulta la [Guida per l'utente di Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/).

# Convertire stringhe di ID versione vuote nei report Inventario Amazon S3 in stringhe nulle
<a name="inventory-configure-bops"></a>

**Nota**  
**La procedura seguente si applica solo ai report di Amazon S3 Inventory che includono tutte le versioni e solo se i report "tutte le versioni" vengono utilizzati come manifest per S3 Batch Operations su bucket che hanno il Controllo versioni S3 abilitato.** Inoltre, non è necessario convertire stringhe per i report di inventario S3 che specificano solo la versione corrente.

Puoi utilizzare i report di S3 Inventory come manifest per S3 Batch Operations. Tuttavia, quando Controllo versioni S3 è abilitato su un bucket, i report di S3 Inventory che includono tutte le versioni contrassegnano gli oggetti con versione nulla con stringhe vuote nel campo ID versione. Quando un rapporto di inventario include tutte le versioni dell'oggetto IDs, Batch Operations riconosce le `null` stringhe come versione IDs, ma non le stringhe vuote. 

Quando un processo di S3 Batch Operations utilizza come manifest un report "tutte le versioni" di S3 Inventory, non riuscirà a portare a termine tutte le attività sugli oggetti con una stringa vuota nel campo ID versione. Per convertire stringhe vuote nel campo ID versione del report S3 Inventory in stringhe `null` per Batch Operations, attenersi alla procedura seguente.

**Aggiorna un report di Amazon S3 Inventory da utilizzare con Batch Operations**

1. Accedi Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Vai al report di Inventario S3. Il report dell'inventario si trova nel bucket di destinazione specificato durante la configurazione del report dell'inventario. Per ulteriori informazioni sull'individuazione dei report di inventario, consulta [Individuazione dell'elenco inventario](storage-inventory-location.md).

   1. Scegliere il nome del bucket di destinazione.

   1. Scegliere la cartella . La cartella prende il nome dal bucket della fonte d'origine.

   1. Scegli la cartella che prende il nome dalla configurazione di inventario.

   1. Seleziona la casella di spunta accanto alla cartella denominata **hive**. Nella parte superiore della pagina, scegli **Copia URI S3** per copiare l'URI S3 per la cartella.

1. Apri la console Amazon Athena all'indirizzo. [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home) 

1. Nell'editor di query, scegli **Impostazioni**, quindi seleziona **Gestisci**. Alla pagina **Gestisci impostazioni** per **Posizione del risultato della query**, scegli un bucket S3 in cui archiviare i risultati della query.

1. Nell'editor di query, creare una tabella Athena per conservare i dati nel report di inventario utilizzando il seguente comando. Sostituisci `table_name` con un nome a scelta e nella clausola `LOCATION`, inserisci l'URI S3 copiato in precedenza. Quindi scegli **Esegui** per eseguire la query.

   ```
   CREATE EXTERNAL TABLE table_name(bucket string, key string, version_id string) PARTITIONED BY (dt string)ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat' OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat' LOCATION 'Copied S3 URI';
   ```

1. Per cancellare l'editor di query, scegli **Cancella**. Quindi, caricare il report di inventario nella tabella utilizzando il comando seguente. Sostituisci il codice `table_name` con quello che hai scelto nella fase precedente. Quindi scegli **Esegui** per eseguire la query.

   ```
   MSCK REPAIR TABLE table_name;
   ```

1. Per cancellare l'editor di query, scegli **Cancella**. Esegui la seguente `SELECT` query per recuperare tutte le voci nel rapporto di inventario originale e sostituire qualsiasi versione vuota IDs con `null` stringhe. Sostituisci il codice `table_name` con quello che hai scelto in precedenza e sostituisci `YYYY-MM-DD-HH-MM` nella clausola `WHERE` con la data del report di inventario su cui eseguire questo strumento. Quindi scegli **Esegui** per eseguire la query.

   ```
   SELECT bucket as Bucket, key as Key, CASE WHEN version_id = '' THEN 'null' ELSE version_id END as VersionId FROM table_name WHERE dt = 'YYYY-MM-DD-HH-MM';
   ```

1. Torna alla console Amazon S3 ([https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)) e vai al bucket S3 che hai scelto per la **posizione del risultato della** query in precedenza. All'interno, è presente una serie di cartelle che terminano con la data.

   Ad esempio, dovresti vedere qualcosa come **s3:**////Unsaved/2021/10/07/. **amzn-s3-demo-bucket** *query-result-location* Dovrebbe essere possibile visualizzare i file `.csv` contenenti i risultati della query `SELECT` che hai eseguito. 

   Scegli il file CSV con la data di modifica più recente. Scarica questo file sul tuo computer locale per il passaggio successivo.

1. Il file CSV generato contiene una riga di intestazione. Per utilizzare questo file CSV come input per un processo S3 Batch Operations, è necessario rimuovere la riga di intestazione, poiché Batch Operations non supporta le righe di intestazione nei manifest CSV. 

   Per rimuovere la riga di intestazione, è possibile eseguire uno dei seguenti comandi sul file. Sostituisci *`file.csv`* con il nome del tuo file CSV. 

   **Per macchine macOS e Linux**, eseguire il comando `tail` in una finestra Terminal. 

   ```
   tail -n +2 file.csv > tmp.csv && mv tmp.csv file.csv 
   ```

   **Per le macchine Windows, esegui il seguente script in una finestra di Windows**. PowerShell Sostituire `File-location` con il percorso al file e `file.csv` con il nome del file.

   ```
   $ins = New-Object System.IO.StreamReader File-location\file.csv
   $outs = New-Object System.IO.StreamWriter File-location\temp.csv
   try {
       $skip = 0
       while ( !$ins.EndOfStream ) {
           $line = $ins.ReadLine();
           if ( $skip -ne 0 ) {
               $outs.WriteLine($line);
           } else {
               $skip = 1
           }
       }
   } finally {
       $outs.Close();
       $ins.Close();
   }
   Move-Item File-location\temp.csv File-location\file.csv -Force
   ```

1. Dopo aver rimosso la riga di intestazione dal file CSV, è possibile utilizzarla come manifest in un processo di S3 Batch Operations. Carica il file CSV in un bucket S3 o in una posizione a tua scelta, quindi crea un processo Batch Operations utilizzando il file CSV come manifest.

   Per ulteriori informazioni sulla creazione di un processo di Batch Operations, consulta [Creazione di un processo di operazioni in batch S3](batch-ops-create-job.md).

# Utilizzo del campo ACL oggetto
<a name="objectacl"></a>

Un report Inventario Amazon S3 contiene un elenco degli oggetti presenti nel bucket di origine S3 e i metadata per ogni oggetto. Il campo Elenco di controllo di accesso dell'oggetto (ACL) è un campo di metadati disponibile in Inventario Amazon S3. In particolare, il campo ACL oggetto contiene la lista di controllo degli accessi (ACL) per ciascun oggetto. L'ACL di un oggetto definisce a quali Account AWS o a quali gruppi è concesso l'accesso a questo oggetto e il tipo di accesso concesso. Per ulteriori informazioni, consultare [Panoramica delle liste di controllo accessi (ACL)](acl-overview.md) e [Elenco di Amazon S3 Inventory](storage-inventory.md#storage-inventory-contents). 

 Il campo ACL oggetto nei report di Inventario Amazon S3 è definito in formato JSON. I dati JSON includono i seguenti campi: 
+ `version`: la versione del formato del campo ACL oggetto nei report di inventario. È in formato data `yyyy-mm-dd`. 
+ `status`: i valori possibili sono `AVAILABLE` o `UNAVAILABLE` per indicare se un ACL oggetto ACL è disponibile per un oggetto. Quando lo stato dell'ACL oggetto è `UNAVAILABLE`, il valore del campo Proprietario dell'oggetto nel report di inventario è anche `UNAVAILABLE`.
+ `grants`: coppie autorizzate dall'assegnatario che elencano lo stato di autorizzazione di ciascun assegnatario che viene concesso dall'ACL oggetto. I valori disponibili per un assegnatario sono `CanonicalUser` e `Group`. Per ulteriori informazioni sugli assegnatari, consulta [Assegnatari nelle liste di controllo degli accessi](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#specifying-grantee).

  Per un assegnatario con il tipo `Group`, una coppia autorizzata dall'assegnatario include i seguenti attributi:
  + `uri`: un gruppo Amazon S3 predefinito.
  + `permission`: le autorizzazioni ACL che vengono concesse sull'oggetto. Per ulteriori informazioni, consulta [Autorizzazioni ACL su un oggetto](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#permissions).
  + `type`: il tipo`Group`, che denota che l'assegnatario è un gruppo.

  Per un assegnatario con il tipo `CanonicalUser`, una coppia autorizzata dall’assegnatario include i seguenti attributi:
  + `canonicalId`: una forma offuscata dell'ID  Account AWS . L'ID utente canonico di an Account AWS è specifico di quell'account. È possibile recuperare l'ID utente canonico. Per ulteriori informazioni, consulta [Trovare l’ID utente canonico per il proprio Account AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) nella *Guida di riferimento per la gestione degli account AWS *.
  + `permission`: le autorizzazioni ACL che vengono concesse sull'oggetto. Per ulteriori informazioni, consulta [Autorizzazioni ACL su un oggetto](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#permissions).
  + `type`— Il tipo`CanonicalUser`, che indica che il beneficiario è un. Account AWS

L'esempio seguente mostra i possibili valori per il campo ACL oggetto in formato JSON: 

```
{
    "version": "2022-11-10",
    "status": "AVAILABLE",
    "grants": [{
        "uri": "http://acs.amazonaws.com/groups/global/AllUsers",
        "permission": "READ",
        "type": "Group"
    }, {
        "canonicalId": "example-canonical-id",
        "permission": "FULL_CONTROL",
        "type": "CanonicalUser"
    }]
}
```

**Nota**  
Il campo ACL oggetto è definito in formato JSON. Un report di inventario visualizza il valore per il campo ACL oggetto come stringa con codifica base64.  
Ad esempio, si supponga di avere il seguente campo ACL oggetto in formato JSON:  

```
{
        "version": "2022-11-10",
        "status": "AVAILABLE",
        "grants": [{
            "canonicalId": "example-canonical-user-ID",
            "type": "CanonicalUser",
            "permission": "READ"
        }]
}
```
Il campo ACL oggetto è codificato e visualizzato come la seguente stringa con codifica base64:  

```
eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3siY2Fub25pY2FsSWQiOiJleGFtcGxlLWNhbm9uaWNhbC11c2VyLUlEIiwidHlwZSI6IkNhbm9uaWNhbFVzZXIiLCJwZXJtaXNzaW9uIjoiUkVBRCJ9XX0=
```
Per ottenere il valore decodificato in JSON per il campo ACL oggetto, puoi eseguire una query su questo campo in Amazon Athena. Per ulteriori esempi di query, consulta [Esecuzione di query sull'inventario Amazon S3 con Amazon Athena](storage-inventory-athena-query.md).