

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Lavorare con i file Amazon S3
<a name="s3-files"></a>

## Che cos'è S3 Files?
<a name="s3-files-what-is"></a>

S3 Files è un file system condiviso che collega qualsiasi risorsa di AWS elaborazione direttamente con i tuoi dati in Amazon S3. Fornisce un accesso rapido e diretto a tutti i dati S3 sotto forma di file con semantica completa del file system e prestazioni a bassa latenza, senza che i dati escano mai da S3. Ogni applicazione, agente e team basato su file può accedere e utilizzare i dati S3 come file system utilizzando gli strumenti da cui già dipende. Costruito utilizzando Amazon EFS, S3 Files offre le prestazioni e la semplicità di un file system con la scalabilità, la durabilità e l'economicità di S3. Puoi leggere, scrivere e organizzare i dati utilizzando operazioni su file e directory, mentre S3 Files gestisce la sincronizzazione delle modifiche tra il bucket e il file system.

## Come funziona S3 Files?
<a name="s3-files-how-it-works"></a>

Quando crei un file system S3 collegato al tuo bucket S3 o a un prefisso al suo interno e lo monti su una risorsa di calcolo come un'istanza EC2 o una funzione Lambda, S3 Files presenta innanzitutto una vista attraversabile degli oggetti del bucket come file. Mentre navighi tra le directory e apri i file, i metadati e i contenuti associati vengono inseriti nello storage ad alte prestazioni del file system. Quando leggi i file, S3 Files carica il contenuto dei file sullo storage ad alte prestazioni su richiesta senza duplicare l'intero set di dati. Quando scrivi dati, le tue scritture vengono trasferite nello storage ad alte prestazioni e vengono nuovamente sincronizzate nel tuo bucket S3. S3 Files traduce in modo intelligente le operazioni del file system in richieste S3 efficienti per tuo conto. Molte operazioni di lettura aggirano completamente il file system e i dati vengono forniti direttamente da S3.

Puoi configurare la soglia di dimensione del file per ciò che viene caricato sullo storage ad alte prestazioni (impostazione predefinita 128 KB), poiché le latenze sono più importanti per i file di piccole dimensioni. I dati che non soddisfano questa soglia vengono letti direttamente da S3. Per letture di almeno 128 KB su dati che sono già stati sincronizzati con S3, S3 Files trasmette lo streaming direttamente da S3 anche se i dati risiedono nello storage ad alte prestazioni, poiché S3 è ottimizzato per un throughput elevato mentre il livello di archiviazione ad alte prestazioni del file system è ottimizzato per l'accesso a file di piccole dimensioni a bassa latenza. I dati modificati di recente che non sono ancora stati sincronizzati con S3 vengono sempre forniti dal file system. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).

I dati che non sono stati letti all'interno di una finestra configurabile (da 1 a 365 giorni, impostazione predefinita 30) scadono automaticamente dallo storage ad alte prestazioni. I tuoi dati autorevoli rimangono sempre in S3 e la sincronizzazione in background mantiene il file system e il bucket coerenti in entrambe le direzioni. Per ulteriori informazioni, consulta [Comprendere come funziona la sincronizzazione](s3-files-synchronization.md).

I servizi di elaborazione supportati per montare i file system S3 sono Amazon EC2 AWS Lambda, Amazon EKS e Amazon ECS. Per ulteriori informazioni, consulta [Montaggio dei bucket S3 su risorse di elaborazione](s3-files-attach-compute.md).

![\[Diagramma che mostra il flusso di dati tra un bucket S3, un file system S3 e le risorse di calcolo.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/S3Files_Compute_dataflow.png)


## Sei il primo utente di S3 Files?
<a name="s3-files-first-time"></a>

Se sei un utente alle prime armi di S3 Files, crea il tuo primo file system S3 utilizzando la console S3 o la CLI AWS seguendo il. [Tutorial: Guida introduttiva a S3 Files](s3-files-getting-started.md)

## Concetti chiave
<a name="s3-files-key-concepts"></a>

I seguenti termini vengono utilizzati nella documentazione di S3 Files:

**File system**  
Un file system condiviso collegato al tuo bucket S3.

**Storage ad alte prestazioni**  
Il livello di storage a bassa latenza all'interno del file system in cui risiedono i dati e i metadati dei file utilizzati attivamente. S3 Files gestisce automaticamente questo spazio di archiviazione, copiando i dati su di esso quando accedi ai file e rimuovendo i dati che non sono stati letti entro una finestra di scadenza configurabile. Paghi una tariffa di archiviazione per i dati che risiedono nello storage ad alte prestazioni.

**Sincronizzazione**  
Il processo mediante il quale S3 Files mantiene il set di dati di lavoro attivo e le modifiche coerenti tra il file system e il bucket S3. Importazione di copie dei dati dal bucket S3 sul file system. Esportazione delle copie delle modifiche apportate tramite il file system nel bucket S3. S3 Files esegue la sincronizzazione automaticamente in entrambe le direzioni.

**Monta il bersaglio**  
Una destinazione di montaggio fornisce l'accesso di rete al file system all'interno di una singola zona di disponibilità nel VPC. È necessaria almeno una destinazione di montaggio per accedere al file system dalle risorse di elaborazione ed è possibile creare al massimo una destinazione di montaggio per zona di disponibilità.

**Access point**  
I punti di accesso sono punti di accesso specifici dell'applicazione a un file system che semplificano la gestione dell'accesso ai dati su larga scala per set di dati condivisi. È possibile utilizzare i punti di accesso per applicare le identità e le autorizzazioni degli utenti per tutte le richieste di file system effettuate tramite il punto di accesso. Quando si crea un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente un punto di accesso per il file system.

## Funzionalità
<a name="s3-files-performance-storage"></a>

**Prestazioni elevate senza replica completa dei dati**  
S3 Files offre un accesso ai file a bassa latenza copiando solo il workset attivo sullo storage ad alte prestazioni del file system, non l'intero set di dati. I file di piccole dimensioni a cui si accede di frequente vengono serviti dallo storage ad alte prestazioni con latenze inferiori al millisecondo o a una singola cifra. Le letture di grandi dimensioni vengono trasmesse in streaming direttamente da S3 fino a terabyte al secondo di throughput aggregato. Ciò significa che ottieni prestazioni del file system per carichi di lavoro interattivi e velocità effettiva S3 per carichi di lavoro in streaming, senza pagare per archiviare o importare dati che non utilizzi o che non traggono vantaggio dalla bassa latenza. Per ulteriori informazioni, consulta [Specifiche prestazionali](s3-files-performance.md).

**Routing di lettura intelligente**  
S3 Files indirizza automaticamente le richieste di lettura al livello di storage (file system S3 o bucket S3) più adatto a loro, mantenendo al contempo la semantica completa del file system, tra cui coerenza, blocco e autorizzazioni POSIX. Le letture casuali di piccole dimensioni dei file utilizzati attivamente vengono eseguite dallo storage ad alte prestazioni per una bassa latenza. Le letture sequenziali di grandi dimensioni e le letture di dati non presenti nel file system vengono eseguite direttamente dal bucket S3 per un throughput elevato, senza costi per i dati del file system.

**Sincronizzazione automatica**  
S3 Files mantiene automaticamente il file system e il bucket S3 coerenti in entrambe le direzioni. Le modifiche apportate tramite il file system vengono copiate nuovamente nel bucket S3 e le modifiche apportate direttamente al bucket S3 si riflettono nella visualizzazione del file system. Puoi personalizzare il comportamento di sincronizzazione, compresi quali dati vengono importati e per quanto tempo rimangono nel file system. Per ulteriori informazioni, consulta [Comprendere come funziona la sincronizzazione](s3-files-synchronization.md).

**Prestazioni scalabili**  
S3 Files ridimensiona automaticamente la velocità effettiva e gli IOPS in base all'attività del carico di lavoro. Non è necessario fornire o gestire la capacità prestazionale e paghi solo per ciò che utilizzi.

**Durabilità a livello regionale**  
I dati scritti nel livello di storage ad alte prestazioni hanno la stessa durabilità di Amazon S3. Archivia i dati in modo ridondante in più zone di disponibilità geograficamente separate all'interno della stessa AWS regione, garantendo durabilità e disponibilità elevate per i dati.

**Encryption** (Crittografia)  
S3 Files crittografa tutti i dati in transito utilizzando TLS e tutti i dati inattivi utilizzando le chiavi KMS. AWS È possibile utilizzare chiavi AWS di proprietà (impostazione predefinita) o chiavi gestite dal cliente. Per ulteriori informazioni, consulta [Encryption (Crittografia)](s3-files-encryption.md).

**Semantica del file system**  
S3 Files supporta i protocolli NFS versione 4.2 e 4.1. Fornisce file-system-access semantica, come la coerenza read-after-write dei dati, il blocco dei file e le autorizzazioni POSIX.

## Come vi vengono fatturati i file S3?
<a name="s3-files-billing"></a>

Paghi una tariffa di storage per la frazione di dati attivi che risiede nello storage ad alte prestazioni e paghi i costi di accesso al file system per la lettura e la scrittura sullo storage ad alte prestazioni del file system. Per letture di almeno 128 KB su dati già sincronizzati con S3, S3 Files trasmette direttamente da S3 anche se i dati risiedono nello storage ad alte prestazioni, poiché S3 è ottimizzato per un throughput elevato mentre il livello di archiviazione ad alte prestazioni del file system è ottimizzato per l'accesso a file di piccole dimensioni a bassa latenza. Queste letture comportano solo il costo della richiesta S3 GET standard senza costi di accesso al file system. I costi di accesso al file system si applicano alle operazioni di sincronizzazione: l'importazione dei dati nel file system comporta costi di scrittura, mentre l'esportazione delle modifiche in S3 comporta costi di lettura. Per ulteriori informazioni, consulta [Come vengono misurati i file S3](s3-files-metering.md). [Per i prezzi correnti, consulta la pagina dei prezzi di S3 Files.](https://aws.amazon.com/s3/pricing/)

**Topics**
+ [

## Che cos'è S3 Files?
](#s3-files-what-is)
+ [

## Come funziona S3 Files?
](#s3-files-how-it-works)
+ [

## Sei il primo utente di S3 Files?
](#s3-files-first-time)
+ [

## Concetti chiave
](#s3-files-key-concepts)
+ [

## Funzionalità
](#s3-files-performance-storage)
+ [

## Come vi vengono fatturati i file S3?
](#s3-files-billing)
+ [

# Prerequisiti per i file S3
](s3-files-prereq-policies.md)
+ [

# Tutorial: Guida introduttiva a S3 Files
](s3-files-getting-started.md)
+ [

# Montaggio dei bucket S3 su risorse di elaborazione
](s3-files-attach-compute.md)
+ [

# Creazione e gestione delle risorse S3 Files
](s3-files-resources.md)
+ [

# Comprendere come funziona la sincronizzazione
](s3-files-synchronization.md)
+ [

# Monitoraggio e controllo dei file S3
](s3-files-monitoring-logging.md)
+ [

# Specifiche prestazionali
](s3-files-performance.md)
+ [

# Sicurezza per i file S3
](s3-files-security.md)
+ [

# Come vengono misurati i file S3
](s3-files-metering.md)
+ [

# Le migliori pratiche per i file S3
](s3-files-best-practices.md)
+ [

# Funzionalità, limiti e quote non supportati
](s3-files-quotas.md)
+ [

# Risoluzione dei problemi relativi ai file S3
](s3-files-troubleshooting.md)

# Prerequisiti per i file S3
<a name="s3-files-prereq-policies"></a>

Prima di iniziare a utilizzare S3 Files, assicurati di aver completato i seguenti prerequisiti.

## AWS configurazione dell'account e del calcolo
<a name="s3-files-prereq-account-setup"></a>
+ Hai un AWS account.
+ Disponi di una risorsa di elaborazione e di un bucket S3 generico nella AWS regione desiderata in cui desideri creare il file system. Per ulteriori informazioni, consulta [Creazione di un bucket per uso generico](create-bucket-overview.md).
+ Il tuo bucket S3 ha il controllo delle versioni abilitato. S3 Files richiede S3 Versioning per sincronizzare le modifiche tra il file system e il bucket S3. Per ulteriori informazioni, consulta [Abilitazione della funzione Controllo delle versioni sui bucket](manage-versioning-examples.md).
+ Il bucket S3 deve utilizzare uno dei seguenti tipi di crittografia: crittografia lato server con chiavi gestite Amazon S3 (SSE-S3) o crittografia lato server con AWS chiavi Key Management Service (KMS) (SSE-KMS).AWS 

## Client S3 Files
<a name="s3-files-prereq-client"></a>

Per utilizzare S3 Files con Amazon EC2, devi installare il `amazon-efs-utils` client, una raccolta condivisa open source di strumenti per Amazon EFS e Amazon S3 Files. Per lavorare con S3 Files, è necessaria `amazon-efs-utils` la versione 3.0.0 o successiva. Il client include un programma di supporto per il montaggio che semplifica il montaggio dei file system S3 e abilita Amazon CloudWatch Metrics per il monitoraggio dello stato di montaggio del file system.

### Fase 1: Installare il client
<a name="s3-files-prereq-client-install"></a>
+ Accedi al terminale per la tua istanza Amazon EC2 tramite Secure Shell (SSH) e accedi con il nome utente appropriato. Per ulteriori informazioni, consulta [Connect to your EC2 nella Amazon](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect-to-linux-instance.html) *Elastic Compute Cloud User* Guide.
+ Se usi Amazon Linux, procedi come segue per installare efs-utils dai repository di Amazon:

  ```
  sudo yum -y install amazon-efs-utils
  ```
+ Se usi altre distribuzioni Linux supportate, puoi fare quanto segue:

  ```
  curl https://amazon-efs-utils.aws.com/efs-utils-installer.sh | sudo sh -s -- --install
  ```
+ Per altre distribuzioni Linux, vedi [Su altre distribuzioni Linux nel file README](https://github.com/aws/efs-utils/?tab=readme-ov-file#on-other-linux-distributions) su. amazon-efs-utils GitHub

### Passaggio 2: installa botocore
<a name="s3-files-prereq-client-botocore"></a>

Il `amazon-efs-utils` client utilizza botocore per interagire con altri servizi. AWS Ad esempio, devi installare botocore per utilizzare Amazon per CloudWatch monitorare il tuo file system. Per istruzioni sull'installazione e l'aggiornamento di botocore, consulta [Installazione](https://github.com/aws/efs-utils#install-botocore) di botocore nel README su. amazon-efs-utils GitHub

### Abilitazione della modalità FIPS per i file S3
<a name="s3-files-prereq-client-fips"></a>

Se è necessario rispettare gli standard federali di elaborazione delle informazioni (FIPS), è necessario abilitare la modalità FIPS nel client. L'attivazione della modalità FIPS comporta la modifica del `s3files-utils.conf` file sul sistema operativo.

Segui questi passaggi per abilitare la modalità FIPS nel client per S3 Files:

1. Utilizzando un editor di testo a scelta, aprire il file `/etc/amazon/efs/s3files-utils.conf`.

1. Trova la riga contenente il testo seguente:

   ```
   fips_mode_enabled = false
   ```

1. Cambia il testo nel modo seguente:

   ```
   fips_mode_enabled = true
   ```

1. Salvare le modifiche.

## Ruoli IAM e policy
<a name="s3-files-prereq-iam"></a>

Per utilizzare S3 Files, devi configurare i ruoli IAM e le policy associate per due scopi:
+ Accedere al bucket dal file system
+ Collegamento del file system alle risorse di calcolo AWS 

### Ruolo IAM per l'accesso al bucket dal file system
<a name="s3-files-prereq-iam-creation-role"></a>

Quando crei un file system S3, devi specificare un ruolo IAM da cui S3 Files presume di leggere e scrivere nel tuo bucket S3. Questo ruolo consente a S3 Files di sincronizzare le modifiche tra il file system e il bucket S3. Il ruolo concede anche le autorizzazioni per gestire le EventBridge regole Amazon utilizzate da S3 Files per rilevare le modifiche nel bucket S3 e attivare la sincronizzazione. È inoltre necessario assicurarsi che le policy relative ai bucket del bucket di origine non impediscano l'accesso alla risorsa di elaborazione.

**Nota**  
Quando crei un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente questo ruolo IAM con le autorizzazioni richieste.

Questo ruolo IAM richiede quanto segue:
+ Una politica in linea come segue:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "S3BucketPermissions",
              "Effect": "Allow",
              "Action": [
                  "s3:ListBucket",
                  "s3:ListBucketVersions"
              ],
              "Resource": "arn:aws:s3:::bucket",
              "Condition": {
                  "StringEquals": {
                      "aws:ResourceAccount": "accountId"
                  }
              }
          },
          {
              "Sid": "S3ObjectPermissions",
              "Effect": "Allow",
              "Action": [
                  "s3:AbortMultipartUpload",
                  "s3:DeleteObject*",
                  "s3:GetObject*",
                  "s3:List*",
                  "s3:PutObject*"
              ],
              "Resource": "arn:aws:s3:::bucket/*",
              "Condition": {
                  "StringEquals": {
                      "aws:ResourceAccount": "accountId"
                  }
              }
          },
          {
              "Sid": "UseKmsKeyWithS3Files",
              "Effect": "Allow",
              "Action": [
                  "kms:GenerateDataKey",
                  "kms:Encrypt",
                  "kms:Decrypt",
                  "kms:ReEncryptFrom",
                  "kms:ReEncryptTo"
              ],
              "Condition": {
                  "StringLike": {
                      "kms:ViaService": "s3.region.amazonaws.com",
                      "kms:EncryptionContext:aws:s3:arn": [
                          "arn:aws:s3:::bucket",
                          "arn:aws:s3:::bucket/*"
                      ]
                  }
              },
              "Resource": "arn:aws:kms:region:accountId:*"
          },
          {
              "Sid": "EventBridgeManage",
              "Effect": "Allow",
              "Action": [
                  "events:DeleteRule",
                  "events:DisableRule",
                  "events:EnableRule",
                  "events:PutRule",
                  "events:PutTargets",
                  "events:RemoveTargets"
              ],
              "Condition": {
                  "StringEquals": {
                      "events:ManagedBy": "elasticfilesystem.amazonaws.com"
                  }
              },
              "Resource": [
                  "arn:aws:events:*:*:rule/DO-NOT-DELETE-S3-Files*"
              ]
          },
          {
              "Sid": "EventBridgeRead",
              "Effect": "Allow",
              "Action": [
                  "events:DescribeRule",
                  "events:ListRuleNamesByTarget",
                  "events:ListRules",
                  "events:ListTargetsByRule"
              ],
              "Resource": [
                  "arn:aws:events:*:*:rule/*"
              ]
          }
      ]
  }
  ```

  Sostituisci i valori segnaposto con i tuoi valori.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/s3-files-prereq-policies.html)
+ Una politica di fiducia che consente a S3 Files di assumere il ruolo IAM. Aggiungi la seguente policy di fiducia al ruolo IAM per consentire al servizio S3 Files di assumerlo. Sostituisci *accountId* e *region* con i tuoi valori.

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "AllowS3FilesAssumeRole",
              "Effect": "Allow",
              "Principal": {
                  "Service": "elasticfilesystem.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                      "aws:SourceAccount": "accountId"
                  },
                  "ArnLike": {
                      "aws:SourceArn": "arn:aws:s3files:region:accountId:file-system/*"
                  }
              }
          }
      ]
  }
  ```

### Ruolo IAM per collegare il file system alle risorse di AWS calcolo
<a name="s3-files-prereq-iam-compute-role"></a>

Le risorse di elaborazione su cui monti un file system S3 devono avere un ruolo IAM associato (ad esempio, un profilo di istanza EC2) con policy che consentano alla risorsa di elaborazione di interagire con il tuo file system S3 e il tuo bucket S3 di origine. È inoltre necessario assicurarsi che le policy relative ai bucket del bucket di origine non impediscano l'accesso dalla risorsa di elaborazione.

Aggiungi le seguenti due policy al ruolo IAM associato alla tua risorsa di elaborazione:
+ **Autorizzazioni per la risorsa di calcolo a connettersi e interagire con i file system S3**

  Il ruolo IAM deve includere le autorizzazioni per consentire al mount helper di connettersi e interagire con i file system S3. Puoi allegare una policy AWS gestita, ad esempio una policy `AmazonS3FilesClientFullAccess` gestita, se desideri concedere alla risorsa di calcolo l'accesso completo in lettura e scrittura al tuo file system S3 o l'accesso in sola lettura. `AmazonS3FilesClientReadOnlyAccess` Puoi anche allegare la policy `AmazonElasticFileSystemUtils` gestita se desideri abilitare il CloudWatch monitoraggio di Amazon. Per ulteriori informazioni e un elenco completo delle politiche gestite disponibili per i file S3, consulta [le politiche AWS gestite per Amazon S3](s3-files-security-iam-awsmanpol.md) Files. Puoi anche fornire queste autorizzazioni aggiungendo autorizzazioni IAM individuali come `s3files:ClientMount` o `s3files:ClientWrite` (non richiesto per le connessioni di sola lettura) al ruolo IAM della tua risorsa di calcolo.
+ **Una policy in linea che garantisce alla risorsa di calcolo l'accesso in lettura agli oggetti S3**

  Aggiungi la seguente policy in linea al ruolo IAM. Questa policy concede alle risorse di calcolo le autorizzazioni per leggere direttamente gli oggetti dal bucket S3 collegato nello stesso account per ottimizzare le prestazioni di lettura. Sostituiscilo *bucket* con il nome del bucket S3 o il nome del bucket con prefisso.

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "S3ObjectReadAccess",
              "Effect": "Allow",
              "Action": [
                  "s3:GetObject",
                  "s3:GetObjectVersion"
              ],
              "Resource": "arn:aws:s3:::bucket/*"
          },
          {
              "Sid": "S3BucketListAccess",
              "Effect": "Allow",
              "Action": "s3:ListBucket",
              "Resource": "arn:aws:s3:::bucket"
          }
      ]
  }
  ```

## Gruppi di sicurezza
<a name="s3-files-prereq-security-groups"></a>

Una volta creati il file system e gli obiettivi di montaggio, è necessario configurare i gruppi di sicurezza giusti per iniziare a utilizzare il file system. I gruppi di sicurezza sia sulla risorsa di elaborazione che sulla destinazione di montaggio devono consentire il traffico richiesto, come mostrato nella tabella seguente:


| Gruppo di sicurezza | Tipo di regola | Protocollo | Porta | Sorgente/destinazione | 
| --- | --- | --- | --- | --- | 
| Istanza EC2 | In uscita | TCP | 2049 | Monta il gruppo di sicurezza di destinazione | 
| Destinazione di montaggio | In entrata | TCP | 2049 | Gruppo di sicurezza dell'istanza EC2 | 

# Tutorial: Guida introduttiva a S3 Files
<a name="s3-files-getting-started"></a>

In questo tutorial, crei un file system S3 e lo monti su un'istanza EC2. Quindi testerai le operazioni di base sui file. Puoi usare la console S3 o la AWS CLI per iniziare con S3 Files.

## Guida introduttiva a S3 Files utilizzando la console AWS
<a name="s3-files-getting-started-console"></a>

Il flusso di lavoro S3 Files sulla console S3 prevede i seguenti passaggi:
+ Crea il tuo file system S3
+ Installa il file system sulla tua istanza EC2 ed esegui le operazioni del file system

### Prerequisiti
<a name="s3-files-getting-started-console-prereqs"></a>

Prima di iniziare, assicurati di disporre di quanto segue:
+ Hai completato il[AWS configurazione dell'account e del calcolo](s3-files-prereq-policies.md#s3-files-prereq-account-setup).
+ Sei configurato con Amazon EC2 e hai dimestichezza con il lancio di istanze EC2. Per ulteriori informazioni, consulta [Nozioni di base su Amazon VPC](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) nella *Guida per l'utente di Amazon EC2*. Per questo tutorial, usa il VPC predefinito per la tua istanza EC2.
+ Ne hai [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role) collegato uno alla tua istanza EC2 in modo che possa interagire con il tuo file system S3 e il tuo bucket S3.

### Passaggio 1: crea il tuo file system S3
<a name="s3-files-getting-started-console-step1"></a>
+ Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)
+ Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione in cui si trovano l'istanza EC2 e il bucket S3.
+ Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.
+ Seleziona il bucket per il quale desideri creare un file system.
+ Scegli la scheda **File system**.
+ Scegliere **Create file system (Crea file system)**.
+ Controlla e conferma il tuo VPC. Per questo tutorial, usa il tuo VPC predefinito.
+ Scegli **Create** (Crea).

Quando si crea un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel VPC predefinito e un punto di accesso per il file system. Ciò può richiedere alcuni minuti. Il file system sarà disponibile per la fase successiva una volta create tutte le risorse.

### Passaggio 2: installa il file system sulla tua istanza EC2
<a name="s3-files-getting-started-console-step2"></a>
+ Nella pagina **Panoramica** del file system, scegli **Allega sotto Allega** **a un'istanza EC2**. Si aprirà una nuova pagina per montare il file system su un'istanza EC2.
+ Seleziona l'istanza EC2 desiderata dal menu a discesa Istanze EC2 **disponibili**.
+ Inserisci un percorso sulla tua istanza EC2 in cui desideri montare il file system. Ad esempio, `/mnt/s3files/`.
+ Assicurati di aver configurato l'indirizzo giusto [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups) sulla tua istanza EC2 e il target di montaggio per consentire il flusso del traffico richiesto.
+ Assicurati di avere il ruolo IAM giusto con le autorizzazioni richieste allegate alla tua istanza EC2 in modo che possa interagire con il tuo file system S3 e il tuo bucket S3. Per ulteriori informazioni, consulta [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role). Per questo tutorial, puoi considerare di concedere al client l'accesso completo aggiungendo la policy gestita al ruolo IAM dell'istanza `AmazonS3FilesClientFullAccess` EC2.
+ Segui le istruzioni di allegamento visualizzate sulla pagina per aprire CloudShell, montare il file system ed eseguire le operazioni di base del file system.

## Guida introduttiva ai file S3 utilizzando la CLI AWS
<a name="s3-files-getting-started-cli"></a>

Il flusso di lavoro S3 Files su AWS CLI prevede i seguenti passaggi:

1. Creare il file system .

1. Crea obiettivi di montaggio per il tuo file system.

1. Installa il file system sulla tua istanza EC2 utilizzando un target di montaggio.

1. Verifica le operazioni sui file, come elencare una directory, scrivere testo su un file, leggere un file e copiare un file. Quindi verifica che le modifiche si riflettano nel tuo bucket S3.

### Prerequisiti
<a name="s3-files-getting-started-cli-prereqs"></a>

Prima di iniziare, assicurati di avere quanto segue:
+ Hai installato e configurato la AWS CLI. Per ulteriori informazioni, consulta [Installing or updating to the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html).
+ Sono stati completati tutti i prerequisiti descritti in. [Prerequisiti per i file S3](s3-files-prereq-policies.md)
+ Sei configurato con Amazon EC2 e hai dimestichezza con il lancio di istanze EC2. Hai bisogno di un AWS account, un utente con accesso amministrativo, una key pair e un gruppo di sicurezza. Per ulteriori informazioni, consulta [Nozioni di base su Amazon VPC](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) nella *Guida per l'utente di Amazon EC2*.

### Passaggio 1: crea il tuo file system S3
<a name="s3-files-getting-started-cli-step1"></a>

[Connect alla tua istanza EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html). Esegui il `create-file-system` comando per creare un file system.

```
aws s3files create-file-system --region aws-region --bucket bucket-arn --role-arn iam-role
```

Sostituisci quanto segue con i valori desiderati:
+ *aws-region*: La AWS regione del tuo bucket. Ad esempio, `us-east-1`.
+ *bucket-arn*: L'ARN del tuo bucket S3.
+ *iam-role*: ARN del ruolo IAM che S3 Files assume per leggere e scrivere nel bucket S3. Assicurati di aver aggiunto le autorizzazioni corrette a questo ruolo IAM. Per ulteriori informazioni, consulta [Ruolo IAM per l'accesso al bucket dal file system](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role).

Dopo aver creato correttamente il file system, S3 Files restituisce la descrizione del file system come JSON. Annota l'ID del file system per il passaggio successivo.

### Fase 2: Creare obiettivi di montaggio
<a name="s3-files-getting-started-cli-step2"></a>

Una destinazione di montaggio fornisce l'accesso di rete al file system nel VPC all'interno di una singola zona di disponibilità. È necessario un target di montaggio per accedere al file system dalle risorse di calcolo. È possibile creare al massimo un target di montaggio per zona di disponibilità. Ti consigliamo di creare un target di montaggio in ogni zona di disponibilità in cui operi.

Esegui il `create-mount-target` comando seguente per creare una destinazione di montaggio per il tuo file system. Devi assicurarti che *subnet-id* si trovi nello stesso VPC dell'istanza EC2. È necessario creare il mount target nella stessa zona di disponibilità dell'istanza EC2.

```
aws s3files create-mount-target --region aws-region --file-system-id file-system-id --subnet-id subnet-id
```

*file-system-id*Ecco l'ID del file system che hai ricevuto nella risposta al `create-file-system` comando. La creazione degli obiettivi di montaggio può richiedere fino a circa 5 minuti.

### Passaggio 3: installa il file system sulla tua istanza EC2
<a name="s3-files-getting-started-cli-step3"></a>

Prima di montare il file system, assicurati di aver configurato la giusta [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups) risorsa di elaborazione e il target di montaggio per consentire il flusso del traffico richiesto. Per maggiori dettagli sui gruppi di sicurezza, consulta la guida per l'[utente di VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html).

Esegui i seguenti comandi per montare il tuo file system:
+ Crea una directory `/mnt/s3files` che utilizzerai come punto di montaggio del file system usando il seguente comando:

  ```
  sudo mkdir /mnt/s3files
  ```
+ Installa il file system:

  ```
  sudo mount -t s3files file-system-id:/ /mnt/s3files
  ```

Se non disponi dell'ID del file system, puoi trovarlo eseguendo quanto segue:

```
aws s3files get-file-system --region aws-region --file-system-id file-system-id
```

### Passaggio 4: Verifica le operazioni sui file
<a name="s3-files-getting-started-cli-step4"></a>

Verificate le operazioni di base sui file sul file system montato come segue:
+ Passate alla directory che avete montato:

  ```
  cd /mnt/s3files
  ```
+ Puoi elencare il contenuto della tua directory per verificare che il contenuto del tuo bucket o prefisso sorgente sia stato importato. La sincronizzazione avviene in genere in pochi secondi, ma può richiedere più tempo, specialmente per il primo file. Se il bucket è vuoto, anche il comando seguente restituirà un risultato vuoto.

  ```
  ls
  ```
+ Puoi anche testare altre operazioni sui file:
  + Crea un file:

    ```
    echo "Hello, S3 Files!" > test.txt
    ```
  + Leggi il file:

    ```
    cat test.txt
    ```
  + Crea una cartella:

    ```
    mkdir test-directory
    ```
  + Copia il file nella directory:

    ```
    cp /mnt/s3files/test.txt /mnt/s3files/test-directory/
    ```

Puoi quindi andare al tuo bucket S3 e verificare che la directory si `test-directory` rifletta nel tuo bucket. Tieni presente che potrebbe essere necessario circa 1 minuto per sincronizzare le modifiche nel bucket S3.

# Montaggio dei bucket S3 su risorse di elaborazione
<a name="s3-files-attach-compute"></a>

Puoi montare un file system S3 su risorse di calcolo per accedere ai tuoi dati S3 come file. La tua risorsa di elaborazione deve essere eseguita nello stesso Amazon Virtual Private Cloud (Amazon VPC) del file system S3. Tutte le risorse di elaborazione comunicano con il file system tramite target di montaggio sulla porta NFS 2049.

S3 Files supporta i seguenti ambienti di calcolo:
+ [Istanze Amazon Elastic Compute Cloud (Amazon EC2)](s3-files-mounting.md)
+ [AWS Lambda funzioni](s3-files-mounting-lambda.md)
+ [Cluster Amazon Elastic Kubernetes Service (Amazon EKS)](s3-files-mounting-eks.md)
+ [Cluster Amazon Elastic Container Service (Amazon ECS)](s3-files-mounting-ecs.md)

# Montaggio di file system S3 su Amazon EC2
<a name="s3-files-mounting"></a>

Per montare i file system S3 su un'istanza EC2, devi usare l'helper di montaggio di S3 Files. L'helper di montaggio ti aiuta a montare i tuoi file system S3 su istanze EC2 che eseguono le distribuzioni supportate. Durante il montaggio di un file system, il mount helper definisce un nuovo tipo di file system di rete, chiamato`s3files`, che è completamente compatibile con il comando standard di Linux. `mount` Il mount helper supporta anche il montaggio automatico di un file system S3 al momento dell'avvio dell'istanza utilizzando le voci nel file di `/etc/fstab` configurazione sulle istanze Linux EC2. Il mount helper fa parte della raccolta di strumenti open source che viene installata quando si installa il client S3 Files (). amazon-efs-utils

![\[Diagramma che mostra il flusso di dati tra un bucket S3, un file system S3 e un'istanza Amazon EC2.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/S3Files_EC2_dataflow.png)


## Prerequisiti per il montaggio su istanze EC2
<a name="s3-files-mounting-prereqs"></a>
+ Hai un file system S3 con almeno una destinazione di montaggio disponibile.
+ L'istanza EC2 si trova nella stessa zona di disponibilità della destinazione di montaggio che utilizzerai per montare il file system.
+ Un profilo di istanza IAM è collegato all'istanza EC2 con le autorizzazioni richieste per i file S3. Per informazioni dettagliate, vedi [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ Hai configurato il necessario. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)
+ È necessario installare il pacchetto amazon-efs-utils nell'istanza EC2. Per ulteriori informazioni, consulta [Client S3 Files](s3-files-prereq-policies.md#s3-files-prereq-client).

## Come funziona il mount helper?
<a name="s3-files-mounting-how-it-works"></a>

Quando si esegue un comando mount, il mount helper esegue le seguenti azioni:
+ Recupera le credenziali IAM dal profilo dell'istanza EC2.
+ Inizializza il processo efs-proxy per stabilire una connessione crittografata con TLS al mount target.
+ Avvia il processo di amazon-efs-mount-watchdog supervisione, che monitora lo stato dei montaggi TLS. Questo processo viene avviato automaticamente la prima volta che viene montato un file system S3.
+ Monta il file system nel punto di montaggio specificato.

L'helper di montaggio utilizza TLS versione 1.2 per comunicare con il file system. L'utilizzo di TLS richiede dei certificati e questi certificati sono firmati da un'autorità di certificazione di Amazon. Per ulteriori informazioni sul funzionamento della crittografia, consultare [Sicurezza per i file S3](s3-files-security.md).

Il mount helper utilizza le seguenti opzioni di montaggio ottimizzate per i file S3:


| Opzione | Valore | Description | 
| --- | --- | --- | 
| nfsvers | 4.2 | Versione del protocollo NFS. | 
| rsize | 1048576 | Imposta il numero massimo di byte di dati che il client NFS può ricevere per ogni richiesta READ di rete su 1048576 (1 MB), il numero massimo disponibile, per evitare una riduzione delle prestazioni. | 
| wsize | 1048576 | Imposta il numero massimo di byte di dati che il client NFS può inviare per ogni richiesta di scrittura di rete su 1048576 (1 MB), il numero più grande disponibile, per evitare una riduzione delle prestazioni. | 
| hard | — | Imposta il comportamento di ripristino del client NFS dopo il timeout di una richiesta NFS, in modo che le richieste NFS vengano ritentate all'infinito fino alla risposta del server, per garantire l'integrità dei dati. | 
| timeo | 600 | Imposta il valore di timeout utilizzato dal client NFS per attendere una risposta prima di ritentare una richiesta NFS a 600 secondi di decisione (60 secondi) per evitare una riduzione delle prestazioni. | 
| retrans | 2 | Imposta a 2 il numero di volte in cui il client NFS ritenta una richiesta prima di tentare ulteriori azioni di ripristino. | 
| noresvport | — | Indica al client NFS di utilizzare una nuova porta sorgente TCP non privilegiata quando viene ristabilita una connessione di rete. L'utilizzo noresvport aiuta a garantire la disponibilità ininterrotta del file system dopo una riconnessione o un evento di ripristino della rete. | 

Inoltre, il mount helper utilizza automaticamente le opzioni di montaggio `tls` e `iam` montaggio durante il montaggio di un file system S3, poiché S3 Files richiede queste opzioni per stabilire una connessione. Questo perché S3 Files monta sempre un file system utilizzando la crittografia TLS e l'autenticazione IAM e queste non possono essere disabilitate.

## Come montare il file system S3 su un'istanza EC2?
<a name="s3-files-mounting-steps"></a>
+ Connettiti alla tua istanza EC2 tramite Secure Shell (SSH) o EC2 Instance Connect sulla console EC2. Per ulteriori informazioni, consulta [Connect to your EC2 istance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html).
+ Crea una directory `/mnt/s3files` che utilizzerai come punto di montaggio del file system usando il seguente comando:

  ```
  sudo mkdir /mnt/s3files
  ```
+ Monta il tuo file system S3:

  ```
  FS="{YOUR_FILE_SYSTEM_ID}"
  sudo mount -t s3files $FS:/ /mnt/s3files
  ```
+ Conferma che il file system sia montato.

  ```
  df -h /mnt/s3files
  ```

  Noterai una risposta simile alla seguente:

  ```
  Filesystem      Size  Used Avail Use% Mounted on
  {s3files-dns}    8.0E  129M  8.0E   1% {path/to/mount}
  ```

  È inoltre possibile verificare il montaggio del file system e controllare le opzioni di montaggio elencando il contenuto del punto di montaggio locale. Se il montaggio ha esito positivo, questo comando mostra i dettagli di montaggio, incluse le opzioni di montaggio, per la directory specifica.

  ```
  findmnt -T /mnt/s3files
  ```

Per informazioni dettagliate sui comandi di montaggio, [GitHubconsulta la documentazione](https://github.com/aws/efs-utils/blob/master/README.md#mountefs).

Ora puoi leggere e scrivere oggetti S3 come file sul tuo percorso di montaggio locale usando le operazioni standard del file system. Se hai oggetti nel tuo bucket S3, puoi visualizzarli come file usando i seguenti comandi.

```
ls /mnt/s3files
```

[Puoi monitorare lo storage del file system, le prestazioni, le connessioni client e gli errori di sincronizzazione utilizzando le metriche. CloudWatch](s3-files-monitoring-cloudwatch.md)

## Come montare il file system S3 su un'istanza EC2 utilizzando i punti di accesso
<a name="s3-files-mounting-access-points-inline"></a>

Quando monti un file system utilizzando un punto di accesso, il comando mount include l'opzione `access-point-id` mount.

```
sudo mount -t s3files -o accesspoint=access-point-id file-system-id /mnt/s3files
```

dove:
+ *access-point-id*è l'ID del punto di accesso.
+ *file-system-id*è l'ID del file system S3.

## Montaggio automatico dei file system S3 all'avvio dell'istanza EC2
<a name="s3-files-mounting-auto"></a>

Puoi configurare l'istanza EC2 per montare automaticamente un file system S3 all'avvio o al riavvio dell'istanza aggiornando il file. `/etc/fstab` Il `/etc/fstab` file contiene informazioni sui file system e viene utilizzato dal sistema operativo per determinare quali file system montare all'avvio.

**avvertimento**  
In caso di montaggio automatico del file system, utilizzare l'opzione `_netdev`, usata per identificare i file system di rete. Se `_netdev` è mancante, l'istanza EC2 potrebbe smettere di rispondere. Questo risultato è dovuto al fatto che i file system di rete devono essere inizializzati dopo che l'istanza di calcolo ha avviato la sua interfaccia di rete. Per ulteriori informazioni, vedere Il [montaggio automatico non riesce e l'istanza non risponde](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/builtInFS-fstab-issues.html).

Puoi utilizzare il mount helper per configurare un'istanza Amazon EC2 per montare automaticamente un file system S3 all'avvio dell'istanza:
+ Aggiorna il `/etc/fstab` file EC2 con una voce per il file system S3.
+ Collega un file system S3 quando crei una nuova istanza EC2 utilizzando la procedura guidata di avvio dell'istanza EC2.

### Aggiornamento del file /etc/fstab
<a name="s3-files-mounting-auto-fstab"></a>

Esegui i seguenti passaggi per aggiornarlo `/etc/fstab` su un'istanza EC2 Linux in modo che l'istanza utilizzi il mount helper per rimontare automaticamente un file system S3 al riavvio dell'istanza.
+ [Connect alla tua istanza EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html).
+ Apri il `/etc/fstab` file in un editor e aggiungi la seguente riga al file:

  ```
  file-system-id:/ mount-directory s3files _netdev 0 0
  ```

  Dove:
  + *file-system-id*è l'ID del file system S3 (ad esempio,`fs-0123456789abcdef0`).
  + *mount-directory*è la directory dei punti di montaggio sull'istanza EC2 (ad esempio,`/mnt/s3files`).
  + `_netdev`specifica che il file system è un file system di rete, assicurando che l'istanza attenda la disponibilità della rete prima di tentare il montaggio.
+ Salva il file e chiudi l’editor.
+ Prova la voce fstab montando tutti i file system in fstab:

  ```
  sudo mount -a
  ```
+ Verifica che il file system sia montato:

  ```
  findmnt -T mount-directory
  ```

**Utilizzo dell'opzione nofail**

Consigliamo di aggiungere l'`nofail`opzione alla voce fstab negli ambienti di produzione. Questa opzione consente all'istanza di avviarsi anche se il file system non riesce a montarlo:

```
file-system-id:/ mount-directory s3files _netdev,nofail 0 0
```

**Montaggio automatico con un punto di accesso**

Per il montaggio automatico utilizzando un punto di accesso S3 Files, includi l'`accesspoint`opzione:

```
file-system-id:/ mount-directory s3files _netdev,accesspoint=access-point-id 0 0
```

**Montaggio automatico con una sottodirectory**

Per montare automaticamente una sottodirectory specifica del file system, specificate il percorso:

```
file-system-id:/path/to/directory mount-directory s3files _netdev 0 0
```

### Utilizzo della procedura guidata di avvio dell'istanza EC2
<a name="s3-files-mounting-auto-wizard"></a>
+ Apri la console Amazon EC2 all'indirizzo [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/).
+ Scegliere **Launch Instance (Avvia istanza)**.
+ Segui questa documentazione per avviare un'istanza EC2 utilizzando la procedura guidata di avvio dell'istanza nella console. AWS Prima di fare clic su **Launch Instance**, configura la rete e aggiungi il file system S3 come mostrato nei passaggi seguenti.
+ Assicurati di selezionare una sottorete nelle impostazioni di **rete**.
+ Seleziona il gruppo di sicurezza predefinito per assicurarti che l'istanza EC2 possa accedere al tuo file system S3. Non è possibile accedere all'istanza EC2 tramite Secure Shell (SSH) utilizzando questo gruppo di sicurezza. Per l'accesso tramite SSH, successivamente è possibile modificare la sicurezza predefinita e aggiungere una regola per consentire SSH o un nuovo gruppo di sicurezza che consenta SSH. Puoi utilizzare le seguenti impostazioni:
  + Tipo: SSH
  + Protocollo: TCP
  + Intervallo porte: 22
  + Origine: Qualsiasi 0.0.0.0/0
+ Nella sezione **Archiviazione**, fai clic su **File system** e scegli **S3** Files.
+ Nel menu a discesa del file system, vedrai i tuoi file system nella zona di disponibilità in base alla sottorete selezionata in precedenza nelle impostazioni di rete. Scegli il file system S3 che desideri montare. Se non disponi di alcun file system, fai clic su crea un nuovo file system per crearne uno nuovo.
+ Inserisci un percorso di montaggio locale sull'istanza EC2 in cui desideri montare il file system (ad esempio,`/mnt/s3files`).
+ Verrà generato un comando per montare il file system e aggiungerlo a fstab. Puoi scegliere di aggiungere il comando ai dati utente o eseguirlo manualmente sull'istanza EC2 dopo l'avvio. L'istanza EC2 verrà quindi configurata per montare il file system S3 all'avvio e ogni volta che viene riavviato.
+ Scegliere **Launch Instance (Avvia istanza)**.

## Montaggio di file system S3 da un altro VPC
<a name="s3-files-mounting-cross-vpc"></a>

Quando utilizzi una connessione peering VPC o un gateway di transito per connettere i VPC, le istanze Amazon EC2 che si trovano in un VPC possono accedere ai file system S3 in un altro VPC.

Un gateway di transito è un hub di transito di rete che puoi utilizzare per interconnettere le tue reti e quelle locali. VPCs Per ulteriori informazioni sull'utilizzo di VPC Transit Gateway, consulta l'argomento relativo alle [nozioni di base su Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/tgw-getting-started.html) nella *Guida di Amazon VPC Transit Gateway*. Una connessione peering VPC è una connessione di rete tra due. VPCs Questo tipo di connessione consente di instradare il traffico tra di essi utilizzando indirizzi privati del protocollo Internet versione 4 (IPv4) o del protocollo Internet versione 6 (IPv6). Puoi utilizzare il peering VPC per connetterti VPCs all'interno della stessa AWS regione o tra regioni. AWS Per ulteriori informazioni sul peering VPC, consulta Cos'[è il peering VPC](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html)? nella Guida per l'*utente di Amazon VPC*.

Quando si monta un file system da un altro VPC, è necessario risolvere la destinazione di montaggio manualmente. È necessario utilizzare l'indirizzo IP delle destinazioni di montaggio nella zona di disponibilità corrispondente come segue e sostituire *mount-target-ip-address**file-system-id*, e *mount-directory* con i propri valori.

```
sudo mount -t s3files -o mounttargetip=mount-target-ip-address file-system-id mount-directory
```

Per garantire un'elevata disponibilità del file system, si consiglia di utilizzare sempre un indirizzo IP di destinazione di montaggio che si trovi nella stessa zona di disponibilità del client NFS.

In alternativa, puoi utilizzare Amazon Route 53 come servizio DNS. In Route 53, puoi risolvere gli indirizzi IP di destinazione del mount da un altro VPC creando una zona ospitata privata e un set di record di risorse. Per ulteriori informazioni su come eseguire questa operazione, consulta [Working with private hosted zones](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zones-private.html) nella *Amazon Route 53 Developer Guide*.

Per maggiori dettagli sul montaggio da un altro VPC, visita il. [GitHub ReadMe](https://github.com/aws/efs-utils/blob/master/README.md)

## Montaggio di file system S3 da una regione diversa AWS
<a name="s3-files-mounting-cross-region"></a>

Se stai montando il file system S3 da un altro VPC che si trova in una regione AWS diversa dal file system, dovrai modificare `s3files-utils.conf` il file. In `/etc/amazon/efs/s3files-utils.conf` individua le righe seguenti:

```
#region = us-east-1
```

Decommenta la riga e sostituisci il valore per l'ID della regione in cui si trova il file system, se non è in us-east-1.

Quindi, è necessario specificare l'IP di destinazione del mount nel comando mount dopo aver modificato la regione nella configurazione:

```
sudo mount -t s3files -o mounttargetip=mount-target-ip-address file-system-id mount-directory
```

## Smontaggio del file system S3
<a name="s3-files-mounting-unmount"></a>

Per smontare un file system S3 connesso a un'istanza EC2 che esegue Linux, usa il comando seguente: `umount`

```
umount mount-directory
```

È consigliabile non specificare nessun'altra opzione di `umount`. Evitare di impostare qualsiasi altra opzione di `umount` differente da quelle di default. Puoi verificare che il tuo file system S3 sia stato smontato eseguendo il comando. `findmnt` Se lo smontaggio ha avuto successo, il `findmnt` comando nella directory di montaggio non produrrà alcun risultato.

# Montaggio dei file system S3 sulle funzioni AWS Lambda
<a name="s3-files-mounting-lambda"></a>

Sebbene AWS Lambda le funzioni forniscano uno storage locale temporaneo disponibile durante l'esecuzione, molti carichi di lavoro serverless, come l'inferenza dell'apprendimento automatico, l'elaborazione dei dati e la gestione dei contenuti, richiedono l'accesso a set di dati di riferimento di grandi dimensioni, file condivisi o archiviazione persistente. Collegando un file system S3 alla funzione Lambda, è possibile condividere facilmente i dati tra chiamate di funzioni, leggere file di dati di riferimento di grandi dimensioni e scrivere l'output delle funzioni in un archivio persistente e condiviso, il tutto tramite un percorso di montaggio locale.

![\[Diagramma che mostra il flusso di dati tra un bucket S3, un file system S3 e una funzione. AWS Lambda\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/S3Files_Lambda_dataflow.png)


## Prerequisiti
<a name="s3-files-mounting-lambda-prereqs"></a>

Prima di montare un file system S3 su una funzione Lambda, assicurati di avere quanto segue:
+ **File system, destinazioni di montaggio e punto di accesso**: devono essere disponibili il file system S3, almeno una destinazione di montaggio e un punto di accesso. Se si crea un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel VPC predefinito e un punto di accesso (UID/GID 1000/1000 `/Lambda` e come ambito del punto di accesso) per il file system.
+ Funzione **Lambda: una funzione** Lambda con un ruolo di esecuzione che ha accesso al montaggio del file system. *Vedi [Ruolo di esecuzione e autorizzazioni utente nella Guida](https://docs.aws.amazon.com/lambda/latest/dg/configuration-filesystem-s3files.html#configuration-filesystem-s3files-permissions) per l'AWS Lambda utente.*
+ **VPC**: la funzione Lambda deve trovarsi nello stesso VPC del target di montaggio. Le sottoreti assegnate alla funzione Lambda devono trovarsi nella zona di disponibilità con una destinazione di montaggio.
+ Hai configurato il necessario. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)

## Come montare il file system S3 su una funzione Lambda
<a name="s3-files-mounting-lambda-steps"></a>
+ Sulla console S3, scegli **File system nel riquadro di** navigazione a sinistra.
+ Seleziona il file system che desideri montare sulla tua funzione Lambda.
+ Nella scheda **Panoramica**, scegli **Allega sotto Allega** **a una funzione Lambda**.
+ Seleziona una funzione Lambda disponibile dal menu a discesa. L'elenco disponibile mostra solo le funzioni all'interno dello stesso VPC e delle stesse sottoreti in cui è presente un target di montaggio.
+ Specificate il percorso di montaggio locale.
+ Se disponi di più punti di accesso, seleziona un punto di accesso.
+ Fate clic su **Allega**. Il file system verrà ora collegato la prossima volta che richiamerai la funzione Lambda.

Per ulteriori dettagli, consulta [Configurazione dell'accesso ai file Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/configuration-filesystem-s3files.html) con. AWS Lambda

Puoi monitorare lo storage del file system, le prestazioni, le connessioni client e gli errori di sincronizzazione utilizzando [Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

# Montaggio di file system S3 su Amazon EKS
<a name="s3-files-mounting-eks"></a>

Puoi collegare un file system S3 a un cluster Amazon EKS utilizzando il driver Amazon EFS Container Storage Interface (CSI), che supporta sia il provisioning dinamico che il provisioning statico. Ciò comporta l'installazione di efs-csi-driver, che è il driver CSI per Amazon EFS e S3 Files.

![\[Diagramma che mostra il flusso di dati tra un bucket S3, un file system S3 e un cluster Amazon EKS.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/S3Files_EKS_dataflow.png)


## Prerequisiti
<a name="s3-files-mounting-eks-prereqs"></a>

Prima di montare un file system S3 su un cluster EKS, assicurati di disporre di quanto segue:
+ Avete un file system S3 con almeno una destinazione di montaggio disponibile.
+ Hai configurato il necessario. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)
+ Il cluster EKS deve trovarsi nello stesso VPC del target di montaggio.
+ Il driver CSI di Amazon EFS necessita delle autorizzazioni AWS Identity and Access Management (IAM) per connettersi e interagire con i file system S3. Per informazioni dettagliate, vedi [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ AWS suggerisce di utilizzare EKS Pod Identities. Per ulteriori informazioni, consulta [Panoramica sulla configurazione delle identità EKS Pod](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html).
+ Per informazioni sui ruoli IAM per gli account di servizio e sulla configurazione di un provider IAM OpenID Connect (OIDC) per il cluster, consulta [Creare un provider IAM OIDC](https://docs.aws.amazon.com/eks/latest/userguide/enable-iam-roles-for-service-accounts.html) per il cluster.
+ Lo strumento a riga di comando `kubectl` è installato sul dispositivo o AWS CloudShell. La versione può essere uguale oppure immediatamente precedente o successiva alla versione di Kubernetes del cluster. Ad esempio, se la versione del cluster è 1.29, puoi utilizzare la `kubectl` versione 1.28, 1.29 o 1.30 con essa. Per installare o aggiornare`kubectl`, vedi [Configurare kubectl e eksctl](https://docs.aws.amazon.com/eks/latest/userguide/install-kubectl.html).

## Come montare il file system S3 su un cluster EKS
<a name="s3-files-mounting-eks-steps"></a>

Il driver CSI per Amazon EFS richiede le autorizzazioni IAM per interagire con il file system. Crea un ruolo IAM e allega ad esso la policy `AmazonS3FilesCSIDriverPolicy` gestita. Aggiungi il driver CSI EFS al tuo cluster EKS e specifica il ruolo IAM per consentire al driver CSI di accedere AWS APIs al file system. È possibile utilizzare la console di AWS gestione o l' AWS API. Per i dettagli, consulta [Uso dello storage del file system S3 con Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/s3files-csi.html).

Puoi anche utilizzare i file system S3 con AWS Batch su Amazon EKS. Per allegare il volume del file system S3 al tuo job AWS Batch on Amazon EKS, puoi utilizzare i pod Amazon EKS con dichiarazione di volume persistente. Per maggiori dettagli, consulta la [persistentVolumeClaim](https://docs.aws.amazon.com/batch/latest/APIReference/API_EksVolume.html#Batch-Type-EksVolume-persistentVolumeClaim)sezione delle pagine [Register Job Definitions](https://docs.aws.amazon.com/batch/latest/APIReference/API_RegisterJobDefinition.html) e [EKS Persistent Volume Claim](https://docs.aws.amazon.com/batch/latest/APIReference/API_EksPersistentVolumeClaim.html) della *AWS Batch API Reference Guide*.

Puoi monitorare lo storage del file system, le prestazioni, le connessioni client e gli errori di sincronizzazione utilizzando [Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

# Montaggio di file system S3 su Amazon ECS
<a name="s3-files-mounting-ecs"></a>

Puoi allegare un file system S3 a una definizione di attività Amazon ECS e quindi distribuire l'attività per accedere ai dati S3 dai tuoi contenitori.

![\[Diagramma che mostra il flusso di dati tra un bucket S3, un file system S3 e un'attività Amazon ECS.\]](http://docs.aws.amazon.com/it_it/AmazonS3/latest/userguide/images/S3Files_ECS_dataflow.png)


In Amazon ECS, il supporto del volume S3 Files è disponibile per AWS Fargate ed ECS Managed Instances at General Availability. I volumi S3 Files non sono supportati nel tipo di avvio di Amazon EC2. Se configuri un volume S3 Files in una definizione di attività e tenti di eseguirlo sul tipo di avvio EC2, l'operazione avrà esito negativo.

## Prerequisiti
<a name="s3-files-mounting-ecs-prereqs"></a>

Prima di collegare un file system S3 a un'attività ECS, assicurati di disporre di quanto segue:
+ Hai un file system S3 con almeno una destinazione di montaggio nello stato disponibile.
+ L'attività ECS deve trovarsi nello stesso VPC del target di montaggio.
+ Aggiungi le autorizzazioni al ruolo IAM dell'attività ECS per accedere ai file system S3. Per informazioni dettagliate, vedi [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ Hai configurato il necessario. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)

## Come montare il file system S3 su un'attività ECS
<a name="s3-files-mounting-ecs-steps"></a>
+ Sulla console S3, scegli **File system nel riquadro di** navigazione a sinistra.
+ Seleziona il file system che desideri montare.
+ Nella scheda **Panoramica**, scegli **Allega sotto Allega** **a un'attività ECS.**
+ Seleziona la definizione dell'attività ECS desiderata dal menu a discesa.
+ Specificate il percorso di montaggio locale.
+ Facoltativamente, è possibile specificare un punto di accesso, una directory principale e una porta di crittografia di transito.
+ Una volta inserito il file system nella definizione dell'attività, è possibile avviare un'attività utilizzando questa definizione di attività nei seguenti modi:
  + È possibile distribuire l'attività come esecuzione autonoma, una tantum. Per i dettagli, consulta [Running an application as a Amazon ECS task](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/standalone-task-create.html) nella *Amazon ECS Developer Guide.*
  + Puoi anche distribuire la definizione dell'attività come servizio. Per i dettagli, consulta [Visualizza la cronologia dei servizi utilizzando le distribuzioni dei servizi Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-deployment.html) nella *Amazon ECS* Developer Guide.

Per i dettagli, consulta [Utilizzo dello storage del file system S3 con Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/s3files-volumes.html).

Puoi monitorare lo storage del file system, le prestazioni, le connessioni client e gli errori di sincronizzazione utilizzando [Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

# Creazione e gestione delle risorse S3 Files
<a name="s3-files-resources"></a>

Questa pagina descrive come creare, configurare e gestire le risorse di S3 Files. Per gestire le tue risorse utilizzando la AWS CLI, consulta il riferimento all'API [S3 Files](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations_Amazon_S3_Files.html).

**File system**  
Un file system condiviso collegato al tuo bucket S3. Memorizza una frazione dei dati S3 utilizzati attivamente come file e directory in modo che le applicazioni e gli utenti possano beneficiare di prestazioni a bassa latenza. È possibile accedere ai dati utilizzando le operazioni standard del file system, tra cui la lettura, la scrittura e il blocco dei file.  
+ [Creazione di file system](s3-files-file-systems-creating.md)
+ [Eliminazione dei file system](s3-files-file-systems-deleting.md)

**Monta i bersagli**  
Una destinazione di montaggio fornisce l'accesso di rete al file system all'interno di una singola zona di disponibilità nel VPC. È necessaria almeno una destinazione di montaggio per accedere al file system dalle risorse di elaborazione ed è possibile creare al massimo una destinazione di montaggio per zona di disponibilità. Ti consigliamo di creare una destinazione di montaggio in ogni zona di disponibilità in cui operi in modo che le risorse di elaborazione abbiano sempre un percorso di rete locale verso il file system, migliorando sia la disponibilità che la latenza. Quando crei un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel tuo VPC predefinito.  
+ [Creazione di destinazioni di montaggio](s3-files-mount-targets-creating.md)
+ [Gestione dei target di montaggio](s3-files-mount-targets-managing.md)
+ [Eliminazione degli obiettivi di montaggio](s3-files-mount-targets-deleting.md)

**Politiche del file system**  
Una politica del file system è una politica delle risorse IAM opzionale che puoi creare per il tuo file system S3 per controllare l'accesso del client NFS al file system.  
+ [Creazione di policy del file system](s3-files-file-system-policies-creating.md)
+ [Eliminazione delle politiche del file system](s3-files-file-system-policies-deleting.md)

**Punti di accesso**  
I punti di accesso sono punti di accesso specifici dell'applicazione a un file system che semplificano la gestione dell'accesso ai dati su larga scala per set di dati condivisi. È possibile utilizzare i punti di accesso per applicare le identità e le autorizzazioni degli utenti per tutte le richieste di file system effettuate tramite il punto di accesso. Inoltre, i punti di accesso possono limitare i client ad accedere solo ai dati all'interno di una directory principale specificata e delle relative sottodirectory. Quando si crea un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente un punto di accesso per il file system.  
Un file system può avere un massimo di 10.000 punti di accesso, a meno che non si richieda un aumento. Per ulteriori informazioni, consulta [Funzionalità, limiti e quote non supportati](s3-files-quotas.md).  
+ [Creazione di punti di accesso per un file system S3](s3-files-access-points-creating.md)
+ [Eliminazione dei punti di accesso per un file system S3](s3-files-access-points-deleting.md)

**Tag**  
I tag sono coppie chiave-valore che definisci e associ alle risorse di S3 Files per aiutarti a organizzarle, identificarle e gestirle.  
+ [Taggare le risorse dei file S3](s3-files-tagging.md)

**Topics**
+ [

# Creazione di file system
](s3-files-file-systems-creating.md)
+ [

# Eliminazione dei file system
](s3-files-file-systems-deleting.md)
+ [

# Creazione di destinazioni di montaggio
](s3-files-mount-targets-creating.md)
+ [

# Gestione dei target di montaggio
](s3-files-mount-targets-managing.md)
+ [

# Eliminazione degli obiettivi di montaggio
](s3-files-mount-targets-deleting.md)
+ [

# Creazione di policy del file system
](s3-files-file-system-policies-creating.md)
+ [

# Eliminazione delle politiche del file system
](s3-files-file-system-policies-deleting.md)
+ [

# Creazione di punti di accesso per un file system S3
](s3-files-access-points-creating.md)
+ [

# Eliminazione dei punti di accesso per un file system S3
](s3-files-access-points-deleting.md)
+ [

# Taggare le risorse dei file S3
](s3-files-tagging.md)

# Creazione di file system
<a name="s3-files-file-systems-creating"></a>

Puoi creare file system utilizzando la AWS console, l'interfaccia a riga di AWS comando (AWS CLI) o l'API Amazon S3 per qualsiasi bucket S3 per uso generico esistente o nuovo. Per informazioni sulla creazione di un nuovo bucket, consulta. [Creazione di un bucket per uso generico](create-bucket-overview.md)

## Autorizzazioni IAM richieste per la creazione di file system
<a name="s3-files-file-systems-creating-permissions"></a>

Quando crei un file system S3, devi specificare un ruolo IAM che S3 Files assume per leggere e scrivere nel tuo bucket S3. Questo ruolo consente a S3 Files di sincronizzare le modifiche tra il file system e il bucket S3. Quando crei un file system utilizzando la AWS console, S3 Files crea automaticamente questo ruolo IAM con le autorizzazioni richieste. Se utilizzi la AWS CLI o l'API S3, vedi. [Ruolo IAM per l'accesso al bucket dal file system](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role)

Per ulteriori informazioni sulla gestione delle autorizzazioni per le operazioni API, consulta [Come funziona S3 Files con IAM](s3-files-security-iam.md).

## Stato di un file system
<a name="s3-files-file-systems-creating-status"></a>

Un file system può avere uno dei valori di stato descritti nella tabella seguente che è possibile ottenere utilizzando il `get-file-system` comando.


| Stato del file system | Description | 
| --- | --- | 
| DISPONIBILE | Il file system è integro, raggiungibile e disponibile per l'uso. | 
| CREAZIONE IN CORSO | S3 Files sta creando il nuovo file system. | 
| ELIMINAZIONE IN CORSO | S3 Files sta eliminando il file system in risposta a una richiesta di eliminazione avviata dall'utente. | 
| ELIMINATO | S3 Files ha eliminato il file system in risposta a una richiesta di eliminazione avviata dall'utente. | 
| ERRORE | Il file system si trova in uno stato di errore ed è irreversibile. Per accedere ai dati del file system, ripristina un backup del file system non riuscito su un nuovo file system. Controlla il StatusMessage campo per informazioni sull'errore. | 

**Nota**  
S3 Files restituisce un errore quando si tenta di creare un file system con un prefisso con un numero elevato di oggetti. Questo errore ti avvisa che operazioni ricorsive di ridenominazione o spostamento di grandi dimensioni possono influire sulle prestazioni del file system e aumentare i costi delle richieste S3, poiché ogni file richiede richieste di copia ed eliminazione separate nel bucket S3. Se desideri comunque creare un file system con ambito a quel prefisso, puoi aggiungere il parametro. `--AcceptBucketWarning`

## Utilizzo della console S3
<a name="s3-files-file-systems-creating-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per creare un file system per S3 Files.
+ Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)
+ Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione desiderata.
+ Nel pannello di navigazione a sinistra, scegli **File system**.
+ Seleziona **Crea file system**.
+ Nella pagina di creazione, scegli il bucket o il prefisso S3 da cui creare il file system. Puoi inserire direttamente l'URI S3 (ad esempio,`s3://bucket-name/prefix`) o scegliere **Browse S3** per accedere e selezionare il bucket o il prefisso.
+ Seleziona un VPC per il tuo file system. S3 Files seleziona automaticamente il tuo VPC predefinito. Questo è il VPC in cui le risorse di elaborazione si connettono al file system. Per utilizzare un VPC diverso, scegline uno dal menu a discesa.
+ Seleziona **Crea** e attendi che diventi lo stato del tuo file system. `Available`

**Impostazioni predefinite nella console AWS di gestione**

S3 Files creerà il tuo file system con la seguente configurazione:
+ **Crittografia**: S3 Files imposta la configurazione di crittografia dal bucket S3 di origine e la applica ai dati inattivi nel file system.
+ **Ruolo IAM**: S3 Files crea un nuovo ruolo IAM che si assume per gestire la sincronizzazione dei dati tra il file system e il bucket.
+ **Monta destinazioni**: S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel VPC scelto.
+ **Punto di accesso**: S3 Files crea un punto di accesso per il file system.

## Utilizzando il AWS CLI
<a name="s3-files-file-systems-creating-cli"></a>

Quando utilizzi la AWS CLI, crei queste risorse in ordine. Prima di tutto si crea il file system. Quindi, è possibile creare destinazioni di montaggio ed eventuali tag opzionali aggiuntivi per il file system utilizzando i comandi AWS CLI corrispondenti.

Il comando di `create-file-system` esempio seguente mostra come utilizzare la AWS CLI per creare un file system per i file S3.

```
aws s3files create-file-system --region aws-region --bucket s3-bucket-arn --client-token idempotency-token --role-arn iam-role
```

Sostituisci quanto segue con i valori desiderati:
+ *aws-region*: La AWS regione del tuo bucket. Ad esempio, `us-east-1`.
+ *bucket-arn*: L'ARN del tuo bucket S3.
+ *idempotency-token*: Un token di idempotenza. Questo è facoltativo.
+ *iam-role*: ARN del ruolo IAM che S3 Files assume per leggere e scrivere nel bucket S3. Assicurati di aver aggiunto le autorizzazioni corrette a questo ruolo IAM. Per ulteriori informazioni, consulta [Ruolo IAM per l'accesso al bucket dal file system](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role).

Dopo aver creato correttamente il file system, S3 Files restituisce la descrizione del file system come JSON.

# Eliminazione dei file system
<a name="s3-files-file-systems-deleting"></a>

Quando si elimina un file system, il file system, i relativi dati e la relativa configurazione vengono rimossi in modo permanente. Assicurati che nessuna applicazione stia utilizzando attivamente il file system prima dell'eliminazione per evitare interruzioni del servizio. Prima dell'eliminazione, è necessario eliminare prima tutte le destinazioni di montaggio e i punti di accesso associati al file system. Per ulteriori informazioni, consultare [Eliminazione degli obiettivi di montaggio](s3-files-mount-targets-deleting.md) e [Eliminazione dei punti di accesso per un file system S3](s3-files-access-points-deleting.md).

Quando elimini un file system, S3 Files verifica se tutte le modifiche nel file system sono state sincronizzate con il bucket S3 collegato. Se ci sono modifiche che non sono ancora state sincronizzate, S3 Files restituisce un errore e l'eliminazione non procede. Ciò garantisce che tutti i dati vengano archiviati in modo sicuro nel bucket S3 prima dell'eliminazione del file system. Se desideri procedere con l'eliminazione e accettare che eventuali modifiche non sincronizzate vadano perse, puoi riprovare la richiesta di eliminazione con l'opzione «eliminazione forzata». Nella AWS CLI, aggiungi il `--ForceDelete` flag alla tua chiamata API di eliminazione. Sulla AWS console, scegli il pulsante **Force** nel messaggio di errore che appare quando elimini un file system mentre sono presenti modifiche non sincronizzate.

## Utilizzo della console S3
<a name="s3-files-file-systems-deleting-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per eliminare un file system per S3 Files.
+ Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)
+ Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione del file system che desideri eliminare.
+ Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.
+ Scegliete un bucket generico a cui è collegato il file system.
+ Seleziona la scheda **File system** e seleziona il file system che desideri eliminare.
+ Scegli **Elimina**.
+ Nella finestra di conferma, digitate`confirm`.

## Usando il AWS CLI
<a name="s3-files-file-systems-deleting-cli"></a>

Il comando di `delete-file-system` esempio seguente mostra come utilizzare la AWS CLI per eliminare un file system per i file S3.

```
aws s3files delete-file-system --file-system-id file-system-id
```

# Creazione di destinazioni di montaggio
<a name="s3-files-mount-targets-creating"></a>

È necessaria una destinazione di montaggio per accedere al file system dalle risorse di elaborazione ed è possibile creare al massimo una destinazione di montaggio per zona di disponibilità. Ti consigliamo di creare un target di montaggio per ogni zona di disponibilità in cui operi. Quando crei un file system utilizzando la console S3, S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel tuo VPC predefinito.

È possibile creare destinazioni di montaggio per il file system in un VPC alla volta. Se desideri modificare il VPC per le tue destinazioni di montaggio, devi prima eliminare tutte le destinazioni di montaggio esistenti per il file system e quindi creare una destinazione di montaggio in un nuovo VPC. Se la VPC dispone di più sottoreti in una zona di disponibilità, è possibile creare un target di montaggio in una sola di tali sottoreti. Tutte le istanze EC2 nella zona di disponibilità possono condividere il singolo target di montaggio.

## Utilizzo della console S3
<a name="s3-files-mount-targets-creating-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per creare una destinazione di montaggio per i file S3.

1. Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione del file system per cui desideri creare un target di montaggio.

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Scegliete un bucket generico a cui è collegato il file system.

1. Seleziona la scheda **File system** e seleziona il file system desiderato.

1. Seleziona la scheda **Mount targets** e seleziona **Crea target di montaggio**.

1. Nella pagina Crea destinazione di montaggio, verrà selezionato automaticamente il tuo VPC predefinito. Scegli la zona di disponibilità e l'ID di sottorete. Il VPC, la zona di disponibilità e l'ID di sottorete non possono essere modificati dopo la creazione del target di montaggio.
**Nota**  
Il tipo di indirizzo IP deve corrispondere al tipo IP della sottorete. Inoltre, il tipo di indirizzo IP ha la precedenza sull'attributo di indirizzo IP della sottorete. Ad esempio, se il tipo di indirizzo IP è IPv4 -only e l'attributo di IPv6 indirizzamento è abilitato per la sottorete, le interfacce di rete create nella sottorete ricevono un IPv4 indirizzo dall'intervallo della sottorete. Per ulteriori informazioni, consulta la sezione [Modifica dell'attributo di assegnazione degli indirizzi IP della sottorete](https://docs.aws.amazon.com/vpc/latest/userguide/modify-subnets.html).

1. Se conosci l'indirizzo IP in cui desideri posizionare la destinazione di montaggio, inseriscilo nella casella dell'indirizzo IP corrispondente al tipo di indirizzo IP. Se non specifichi un valore, S3 Files seleziona un indirizzo IP inutilizzato dalla sottorete specificata.

1. Scegliete i gruppi di sicurezza da associare alla destinazione di montaggio. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)Consulta i prerequisiti per comprendere le configurazioni dei gruppi di sicurezza necessarie per iniziare a utilizzare il file system.

1. Scegli **Crea destinazione di montaggio**.

## Usando il AWS CLI
<a name="s3-files-mount-targets-creating-cli"></a>

Il comando di `create-mount-target` esempio seguente mostra come utilizzare la AWS CLI per creare una destinazione di montaggio per i file S3.

```
aws s3files create-mount-target --region aws-region --file-system-id file-system-id --subnet-id subnet-id
```

La creazione dei target di montaggio può richiedere fino a \$15 minuti.

# Gestione dei target di montaggio
<a name="s3-files-mount-targets-managing"></a>

È possibile aggiungere o rimuovere gruppi di sicurezza associati a una destinazione di montaggio. I gruppi di sicurezza definiscono le possibilità di accesso in entrata e in uscita. Quando si modificano i gruppi di sicurezza associati a un target di montaggio, è necessario assicurarsi di autorizzare l'accesso in entrata e in uscita. In questo modo si consente alla risorsa di elaborazione di comunicare con il file system. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)Consulta i prerequisiti per comprendere le configurazioni dei gruppi di sicurezza necessarie per iniziare a utilizzare il file system.

## Utilizzo della console S3
<a name="s3-files-mount-targets-managing-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per aggiungere o rimuovere gruppi di sicurezza per un target di montaggio in S3 Files.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione desiderata in cui esiste il tuo target di montaggio.

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Scegliete un bucket generico a cui è collegato il file system.

1. Seleziona la scheda **File system** e seleziona il file system desiderato.

1. Seleziona la scheda **Mount targets** e seleziona la destinazione di montaggio che desideri modificare.

1. Scegli **Modifica**. Vedrai i dettagli del tuo target di montaggio.

1. Aggiungi o rimuovi gruppi di sicurezza dal menu a discesa dei gruppi di sicurezza.

1. Scegli **Save** (Salva).

## Usando il AWS CLI
<a name="s3-files-mount-targets-managing-cli"></a>

Il seguente comando di `update-mount-target` esempio mostra come utilizzare la AWS CLI per aggiungere o rimuovere gruppi di sicurezza per una destinazione di montaggio in S3 Files.

```
aws s3files update-mount-target --region aws-region --mount-target-id mount-target-id --security-groups security-group-ids-separated-by-space
```

# Eliminazione degli obiettivi di montaggio
<a name="s3-files-mount-targets-deleting"></a>

Quando si elimina una destinazione di montaggio, l'operazione interrompe in modo forzato qualsiasi mount del file system, con il rischio di interrompere le risorse di calcolo e le applicazioni che utilizzano tali mount. Per evitare il malfunzionamento delle applicazioni, arresta le applicazioni e disinstalla il file system prima di eliminare il target di montaggio.

È possibile eliminare le destinazioni di montaggio per un file system utilizzando la Console di AWS gestione, la AWS CLI o a livello di codice utilizzando. AWS SDKs

## Utilizzo della console S3
<a name="s3-files-mount-targets-deleting-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per eliminare una destinazione di montaggio per i file S3.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione del target di montaggio che desideri eliminare.

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Scegliete un bucket generico a cui è collegato il file system.

1. Seleziona la scheda **File system** e seleziona il file system desiderato.

1. Seleziona la scheda **Mount targets** e seleziona il mount target che desideri eliminare.

1. Scegli **Elimina**.

1. Nella finestra di conferma, digita **confirm** e scegli **Elimina**.

## Usando il AWS CLI
<a name="s3-files-mount-targets-deleting-cli"></a>

Il comando di `delete-mount-target` esempio seguente mostra come utilizzare la AWS CLI per eliminare una destinazione di montaggio per i file S3.

```
aws s3files delete-mount-target --region aws-region --mount-target-id mount-target-id
```

# Creazione di policy del file system
<a name="s3-files-file-system-policies-creating"></a>

È possibile utilizzare le politiche del file system per concedere o negare le autorizzazioni ai client NFS per eseguire operazioni come il montaggio, la scrittura e l'accesso root sui file system. Un file system ha una politica del file system vuota (predefinita) o esattamente una politica esplicita. È possibile aggiornare la politica del file system in qualsiasi momento dopo la creazione del file system utilizzando la console di AWS gestione, la AWS CLI o AWS l'SDK.

Puoi aggiornare una policy del file system utilizzando la console Amazon S3, la AWS CLI, a livello di codice o direttamente l'API S3 AWS SDKs Files. L'entrata in vigore di queste modifiche alle policy può richiedere diversi minuti. Le policy del file system S3 hanno un limite di 20.000 caratteri. Per ulteriori informazioni sull'utilizzo di una policy del file system S3, sulle azioni supportate, sulle chiavi di condizione supportate ed esempi, consulta. [Come funziona S3 Files con IAM](s3-files-security-iam.md)

## Utilizzo della console S3
<a name="s3-files-file-system-policies-creating-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per creare una politica del file system per S3 Files.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione in cui esiste il tuo file system.

1. Nel pannello di navigazione a sinistra, scegli **File system**.

1. Scegli il file system desiderato.

1. Seleziona la scheda **Autorizzazioni** e seleziona **Modifica**.

1. È possibile utilizzare l'editor delle politiche per aggiungere la propria politica del file system.

1. Dopo aver completato la modifica della policy, scegli **Salva**.

## Utilizzando il AWS CLI
<a name="s3-files-file-system-policies-creating-cli"></a>

Il comando di `put-file-system-policy` esempio seguente mostra come utilizzare la AWS CLI per creare una politica del file system per i file S3. La seguente policy del file system concede solo autorizzazioni `ClientMount` (di sola lettura) al ruolo IAM. `ReadOnly` Sostituisci l'ID dell' AWS account di esempio *111122223333* con l'ID del tuo account. AWS 

```
aws s3files put-file-system-policy --file-system-id file-system-id --policy '{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/ReadOnly"
            },
            "Action": [
                "s3files:ClientMount"
            ]
        }
    ]
}'
```

# Eliminazione delle politiche del file system
<a name="s3-files-file-system-policies-deleting"></a>

Puoi eliminare una policy del file system utilizzando la console Amazon S3 e la CLI AWS .

## Utilizzo della console S3
<a name="s3-files-file-system-policies-deleting-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per eliminare una politica del file system per S3 Files.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione in cui esiste il tuo file system.

1. Nel pannello di navigazione a sinistra, scegli **File system**.

1. Scegli il tuo file system.

1. Seleziona la scheda **Autorizzazioni** e seleziona **Elimina**.

1. Nella finestra di conferma, digita **confirm** e scegli **Elimina**.

## Utilizzando il AWS CLI
<a name="s3-files-file-system-policies-deleting-cli"></a>

Il comando di `delete-file-system-policy` esempio seguente mostra come utilizzare la AWS CLI per eliminare una politica del file system per i file S3.

```
aws s3files delete-file-system-policy --file-system-id file-system-id
```

# Creazione di punti di accesso per un file system S3
<a name="s3-files-access-points-creating"></a>

I punti di accesso sono punti di accesso specifici dell'applicazione a un file system che semplificano la gestione dell'accesso ai dati su larga scala per set di dati condivisi. È possibile utilizzare i punti di accesso per applicare le identità e le autorizzazioni degli utenti per tutte le richieste di file system effettuate tramite il punto di accesso. Inoltre, i punti di accesso possono limitare i client ad accedere solo ai dati all'interno di una directory principale specificata e delle relative sottodirectory. Quando si crea un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente un punto di accesso per il file system.

Un file system può avere un massimo di 10.000 punti di accesso, a meno che non si richieda un aumento. Per ulteriori informazioni, consulta [Funzionalità, limiti e quote non supportati](s3-files-quotas.md). Puoi creare punti di accesso utilizzando la console S3, la AWS CLI o l'SDK. AWS 

I punti di accesso per un file system S3 non possono essere modificati dopo la creazione. Se desideri effettuare aggiornamenti, devi eliminare il punto di accesso esistente e crearne uno nuovo.

## Utilizzo della console S3
<a name="s3-files-access-points-creating-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per creare un punto di accesso per un file system S3.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione del file system per cui desideri creare un punto di accesso.

1. Nel pannello di navigazione a sinistra, scegli **File system**.

1. Scegli il file system desiderato.

1. Seleziona la scheda **Punti di accesso** e seleziona **Crea punto di accesso**.

1. Nella pagina Crea, inserisci un **nome** per il punto di accesso.

1. (Facoltativo) Specificate il percorso della directory principale per il punto di accesso. I client che utilizzano questo punto di accesso saranno limitati a questa directory e alle relative sottodirectory. Per impostazione predefinita, S3 Files presuppone che la directory principale del punto di accesso sia la directory principale del file system.

1. (Facoltativo) Nel pannello **utente POSIX**, è possibile specificare l'identità POSIX completa da utilizzare per applicare le informazioni su utenti e gruppi per tutte le operazioni sui file da parte dei client che utilizzano il punto di accesso.
   + **ID utente** - Immetti l'ID utente POSIX numerico dell'utente.
   + **ID gruppo** - Immetti l'ID numerico del gruppo POSIX dell'utente.
   + **Gruppo secondario IDs**: immettere un elenco opzionale separato da virgole di gruppi secondari. IDs

1. (Facoltativo) Per **le autorizzazioni di creazione della directory principale**, puoi specificare le autorizzazioni da utilizzare quando S3 Files crea il percorso della directory principale, se specificato e la directory principale non esiste già.
**Nota**  
Se non specificate alcuna proprietà e autorizzazione della directory principale e la directory principale non esiste già, S3 Files non creerà la directory principale. Qualsiasi tentativo di montare il file system utilizzando il punto di accesso avrà esito negativo.
   + **ID utente proprietario**: immetti l'ID utente POSIX numerico da utilizzare come proprietario della directory radice.
   + **ID gruppo proprietario**: immetti l'ID gruppo POSIX numerico da utilizzare come gruppo proprietario della directory radice.
   + **Permessi**: immetti la modalità Unix della directory. Una configurazione comune è 755. Assicurati che il bit di esecuzione sia impostato per l'utente del punto di accesso in modo che sia in grado di eseguire il montaggio.

1. (Facoltativo) In **Tag**, puoi scegliere di aggiungere tag al tuo punto di accesso.

1. Scegli **Crea punto di accesso**.

## Usando il AWS CLI
<a name="s3-files-access-points-creating-cli"></a>

Il comando di `create-access-point` esempio seguente mostra come utilizzare la AWS CLI per creare un punto di accesso per un file system S3.

```
aws s3files create-access-point --file-system-id file-system-id --root-directory root-directory --posix-user posix-user
```

Esempio:

```
aws s3files create-access-point --file-system-id fs-abcdef0123456789a --client-token 010102020-3 \
  --root-directory "Path=/s3files/mobileapp/east,CreationInfo={OwnerUid=0,OwnerGid=11,Permissions=775}" \
  --posix-user "Uid=22,Gid=4" \
  --tags Key=Name,Value=east-users
```

**Nota**  
Se più richieste di creazione di punti di accesso sullo stesso file system vengono inviate in rapida successione e il file system si avvicina al limite dei punti di accesso, è possibile che si verifichi una risposta limitata per queste richieste. Ciò serve a garantire che il file system non superi la quota dei punti di accesso.

# Eliminazione dei punti di accesso per un file system S3
<a name="s3-files-access-points-deleting"></a>

Quando si elimina un punto di accesso, assicurarsi che nessuna applicazione lo stia utilizzando attivamente prima dell'eliminazione per evitare interruzioni del servizio. Una volta eliminato, il punto di accesso e la relativa configurazione vengono rimossi definitivamente.

## Utilizzo della console S3
<a name="s3-files-access-points-deleting-console"></a>

Questa sezione spiega come utilizzare la console Amazon S3 per eliminare un punto di accesso per i file S3.

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione del file system in cui è presente il punto di accesso che desideri eliminare.

1. Nel riquadro di navigazione sinistro, scegli **Bucket per uso generico**.

1. Scegliete un bucket generico a cui è collegato il file system.

1. Seleziona la scheda **File system** e seleziona il file system che desideri utilizzare.

1. Seleziona la scheda **Punti di accesso** e seleziona il punto di accesso che desideri eliminare.

1. Scegli **Elimina**.

1. Nella finestra di conferma, digita **confirm** e scegli **Elimina**.

## Usando il AWS CLI
<a name="s3-files-access-points-deleting-cli"></a>

Il comando di `delete-access-point` esempio seguente mostra come utilizzare la AWS CLI per eliminare un punto di accesso per i file S3.

```
aws s3files delete-access-point --access-point-id access-point-id
```

# Taggare le risorse dei file S3
<a name="s3-files-tagging"></a>

Per aiutarti a gestire le tue risorse S3 Files, puoi assegnare i tuoi metadati a ciascuna risorsa sotto forma di tag. Con i tag, puoi classificare AWS le tue risorse in diversi modi, ad esempio per scopo, proprietario o ambiente. Questa categorizzazione è utile quando si hanno molte risorse dello stesso tipo, in quanto è possibile identificare rapidamente una risorsa specifica in base ai tag che le sono stati assegnati. Puoi taggare le risorse del file system S3 e dei punti di accesso che già esistono nel tuo account. Questo argomento descrive i tag e mostra come crearli.

## Limitazioni applicate ai tag
<a name="s3-files-tagging-restrictions"></a>

Si applicano le seguenti limitazioni di base ai tag:
+ Numero massimo di tag per risorsa: 50
+ Per ciascuna risorsa, ogni chiave del tag deve essere univoca e ogni chiave del tag può avere un solo valore.
+ Lunghezza massima della chiave: 128 caratteri Unicode in formato UTF-8
+ La lunghezza massima del valore è 256 caratteri Unicode in formato UTF-8
+ I caratteri consentiti sono: lettere, numeri e spazi rappresentabili in UTF-8 e i seguenti caratteri:. `+ - = . _ : / @`
+ Per le chiavi e i valori dei tag viene fatta la distinzione tra maiuscole e minuscole.
+ Il `aws:` prefisso è riservato all'uso. AWS Se il tag ha una chiave di tag con questo prefisso, non puoi modificare o eliminare la chiave o il valore de tag. I tag con il prefisso `aws:` non vengono conteggiati per il limite del numero di tag per risorsa.

Non puoi aggiornare o eliminare una risorsa solo sulla base dei relativi tag. Devi specificare il relativo identificatore. Ad esempio, per eliminare i file system etichettati con una chiave di tag chiamata`DeleteMe`, è necessario utilizzare l'`DeleteFileSystem`azione con gli identificatori di risorsa del file system, ad esempio l'ID del file system.

Quando tagghi risorse pubbliche o condivise, i tag che assegni sono disponibili solo per il tuo AWS account. Nessun altro AWS account avrà accesso a quei tag. Per il controllo dell'accesso basato su tag alle risorse condivise, ogni AWS account deve assegnare il proprio set di tag per controllare l'accesso alla risorsa.

## Utilizzo della console S3
<a name="s3-files-tagging-console"></a>

Puoi utilizzare la console S3 Files per gestire i tag sulle tue risorse.
+ Apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)
+ Nella barra di navigazione nella parte superiore della pagina, verifica di trovarti nella AWS regione desiderata.
+ Nel pannello di navigazione a sinistra, scegli **File system**.
+ È possibile specificare i tag per una risorsa al momento della creazione della risorsa, ad esempio un file system S3 o un punto di accesso. In alternativa, puoi aggiungere, modificare o eliminare i tag dopo la creazione accedendo alle proprietà della risorsa.

## Usando il AWS CLI
<a name="s3-files-tagging-cli"></a>

Se utilizzi l'API S3 Files, la AWS CLI o AWS un SDK, puoi utilizzare `TagResource` l'azione API S3 Files per applicare tag alle risorse esistenti. Inoltre, alcune azioni di creazione di risorse consentono di specificare i tag per una risorsa al momento della creazione della risorsa, ad esempio quando si crea un file system.

I comandi AWS CLI per la gestione dei tag e le azioni API S3 Files equivalenti sono elencati nella tabella seguente.


| Comando CLI | Description | Operazione API equivalente | 
| --- | --- | --- | 
| tag-resource | Aggiungere nuovi tag o aggiornare i tag esistenti | TagResource | 
| list-tags-for-resource | Recuperare i tag esistenti | ListTagsForResource | 
| untag-resource | Eliminare i tag esistenti | UntagResource | 

# Comprendere come funziona la sincronizzazione
<a name="s3-files-synchronization"></a>

S3 Files mantiene il file system e il bucket S3 collegato sincronizzati automaticamente. I dati che utilizzi attivamente vengono copiati nel file system, quindi puoi leggere e scrivere file utilizzando le operazioni standard di Linux sui file a bassa latenza. S3 Files richiede che S3 Versioning sia abilitato sul bucket S3 collegato. Quando modifichi i file sul file system, S3 Files copia le modifiche nel bucket S3 come nuove versioni degli oggetti corrispondenti, assicurandosi che le vecchie versioni vengano preservate. Quando altre applicazioni aggiungono, modificano o eliminano oggetti nel bucket S3, S3 Files riflette automaticamente tali modifiche nel file system. [Quando si verifica un conflitto dovuto a modifiche simultanee agli stessi dati sia nel file system che nel bucket S3, S3 Files considera il bucket S3 come fonte di verità in caso di conflitti.](#s3-files-sync-source-of-truth)

Per ottimizzare i costi di archiviazione, S3 Files rimuove dal file system i dati non utilizzati di recente. I dati rimangono archiviati in modo duraturo nel bucket S3 collegato e vengono recuperati nel file system al successivo accesso.

## Il bucket S3 è accessibile tramite il file system
<a name="s3-files-sync-bucket-accessible"></a>

Dopo aver creato un file system S3, puoi [montare i bucket S3 su risorse di elaborazione e iniziare subito ad accedere ai dati del bucket](s3-files-attach-compute.md) S3. Per impostazione predefinita, quando accedi per la prima volta a una directory elencandone il contenuto o aprendo un file al suo interno, S3 Files importa i metadati per tutti i file in quella directory, insieme ai dati per i file di dimensioni inferiori alla soglia di importazione (impostazione predefinita 128 KB) dal bucket S3. Il primo accesso a una directory potrebbe avere una latenza maggiore, ma le letture e le scritture successive sono notevolmente più veloci. Importando i metadati in anticipo, S3 Files consente di sfogliare il contenuto delle directory, visualizzare le dimensioni dei file e controllare le autorizzazioni a bassa latenza.

Ad esempio, supponiamo che il bucket S3 contenga un prefisso con 1.000 oggetti. `data/images/` Alla prima esecuzione`ls /mnt/s3files/data/images/`, S3 Files importa i metadati per tutti i 1.000 file e copia in modo asincrono i dati per i file al di sotto della soglia di importazione nel file system. Questo elenco iniziale può richiedere alcuni secondi, ma i comandi successivi, come o `cat` su singoli file in quella directory `ls -la``stat`, vengono restituiti a bassa latenza.

Per i file di dimensioni superiori alla soglia di importazione, S3 Files importa solo i metadati, mentre i dati non vengono copiati nel file system e vengono invece letti direttamente dal bucket S3 quando vi si accede. Puoi modificare questa soglia per adattarla meglio al tuo carico di lavoro. Ad esempio, puoi aumentarla per importare in anticipo più dati per carichi di lavoro che accedono ripetutamente agli stessi file e traggono vantaggio da letture a bassa latenza. Per i carichi di lavoro che trasmettono dati in modo sequenziale, una soglia più bassa può essere più conveniente, poiché il vantaggio in termini di latenza derivante dall'importazione anticipata dei dati è meno significativo quando i dati vengono letti in sequenza in blocchi di grandi dimensioni anziché in piccole letture casuali. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).

## Le modifiche al file system si riflettono automaticamente nel bucket S3
<a name="s3-files-sync-changes-to-bucket"></a>

Quando crei, modifichi o elimini file nel file system, S3 Files copia automaticamente tali modifiche nel tuo bucket S3. I nuovi file diventano nuovi oggetti S3, le modifiche ai file esistenti diventano nuove versioni degli oggetti e i file eliminati diventano marcatori di eliminazione S3.

Le autorizzazioni POSIX impostate su file e directory tramite il file system, come proprietario (UID), gruppo (GID) e bit di autorizzazione, vengono archiviate come metadati degli oggetti S3 definiti dall'utente sugli oggetti S3 corrispondenti. Quando modifichi le autorizzazioni utilizzando o `chmod``chown`, S3 Files esporta tali modifiche nel tuo `chgrp` bucket S3 insieme a qualsiasi modifica ai dati. Quando S3 Files importa oggetti dal bucket S3, legge questi metadati e applica le autorizzazioni POSIX corrispondenti sul file system. Agli oggetti che non dispongono di metadati di autorizzazione POSIX vengono assegnate autorizzazioni predefinite.

Quando modifichi un file nel file system, S3 Files attende fino a 60 secondi, aggregando tutte le modifiche successive al file in quel lasso di tempo, prima di copiarlo nel tuo bucket S3. Ciò significa che le scritture successive rapide sullo stesso file vengono acquisite in una singola richiesta S3 PUT anziché generare una nuova versione dell'oggetto per ogni singola modifica, riducendo i costi delle richieste S3 e i costi di archiviazione. Se continui a modificare il file dopo che S3 Files ha copiato le modifiche nel bucket S3, copierà le modifiche successive secondo necessità.

Ad esempio, se un'applicazione apre un file di registro e lo aggiunge 50 volte nell'arco di 30 secondi, S3 Files raggruppa tutti i 50 allegati in un'unica richiesta PUT S3. Se l'applicazione continua a scrivere dopo la prima sincronizzazione, S3 Files copia le modifiche aggiuntive in una sincronizzazione successiva.

## Le modifiche nel bucket S3 vengono visualizzate automaticamente nel file system
<a name="s3-files-sync-changes-from-bucket"></a>

S3 Files monitora le modifiche nel bucket S3 utilizzando le notifiche degli eventi S3. Quando un'altra applicazione che funziona con l'API S3 aggiunge, modifica o elimina oggetti nel bucket S3, S3 Files riflette automaticamente tali modifiche nel file system per i file i cui dati sono attualmente archiviati nello storage ad alte prestazioni del file system. I file i cui dati sono scaduti dal file system non vengono aggiornati fino al successivo accesso, a quel punto S3 Files recupera l'ultima versione dal bucket S3.

## Comprendere l'impatto delle operazioni di ridenominazione e spostamento
<a name="s3-files-sync-rename-move"></a>

Amazon S3 utilizza una struttura di storage piatta in cui gli oggetti sono identificati dai loro nomi chiave. Sebbene S3 Files ti consenta di organizzare i dati in directory, S3 non ha un concetto nativo di directory. Ciò che appare come una directory nel file system è un prefisso comune condiviso dalle chiavi degli oggetti all'interno del bucket S3. Inoltre, gli oggetti S3 sono immutabili e non supportano le ridenominazioni atomiche. Di conseguenza, quando rinomini o sposti un file, S3 Files deve scrivere i dati su un nuovo oggetto con la chiave aggiornata ed eliminare l'originale. Quando rinomini o sposti una directory, S3 Files deve ripetere questo processo per ogni oggetto che condivide quel prefisso. Pertanto, quando rinomini o sposti una directory contenente decine di milioni di file, i costi delle richieste S3 e il tempo di sincronizzazione aumentano in modo significativo.

S3 Files restituisce un errore quando si tenta di creare un file system con un prefisso con più di 125 milioni di oggetti. Questo errore ti avvisa che operazioni di ridenominazione o spostamento ricorsive di grandi dimensioni possono influire sulle prestazioni del file system, poiché ogni file richiede richieste di scrittura ed eliminazione separate nel bucket S3. Se desideri comunque creare un file system con ambito a quel prefisso, puoi aggiungere il parametro. `--AcceptBucketWarning`

Poiché S3 Files rinomina gli oggetti singolarmente nel bucket S3, entrambe le directory saranno visibili sul bucket S3 fino al completamento della ridenominazione. Gli oggetti scritti dopo la ridenominazione della directory ma prima che la ridenominazione sia completamente sincronizzata non verranno spostati. Per semplificare il lavoro di riorganizzazione dei dati, si consiglia di non creare nuovi oggetti tramite il bucket S3 durante la ridenominazione di una directory corrispondente.

Ad esempio, se esegui`mv /mnt/s3files/projects/alpha /mnt/s3files/projects/beta`, la ridenominazione viene completata istantaneamente sul file system. Nel bucket S3, S3 Files inizia a copiare ed eliminare ogni oggetto nella sua nuova chiave all'interno del bucket S3 (sostituendo il prefisso con) e a eliminare l'originale. `projects/alpha/` `projects/beta/` Durante questo processo, il bucket S3 contiene temporaneamente oggetti in entrambi e. `projects/alpha/` `projects/beta/` Una volta che tutti gli oggetti sono stati spostati, ne rimane solo `projects/beta/` uno.

## I dati non utilizzati vengono eliminati dal file system per ottimizzare l'archiviazione
<a name="s3-files-sync-expiration"></a>

S3 Files ottimizza i costi di archiviazione rimuovendo automaticamente dal file system i dati dei file che non sono stati letti di recente. I tuoi dati rimangono archiviati in modo sicuro nel tuo bucket S3. S3 Files rimuove solo la copia dal file system. I metadati dei file, come nomi, dimensioni e autorizzazioni, non vengono mai rimossi dal file system, quindi puoi continuare a navigare nel file system a bassa latenza.

Se un file nel file system non viene letto da 30 giorni (configurabile) e le relative modifiche sono già state sincronizzate nel bucket S3, S3 Files rimuove i dati del file dal file system. La prossima volta che leggi quel file, S3 Files recupera la versione più recente dell'oggetto corrispondente dal bucket S3 e la copia nuovamente nel file system.

Ad esempio, supponiamo di elaborare un set di dati `/mnt/s3files/data/batch-jan.parquet` a gennaio e di non accedervi più. Dopo 30 giorni, S3 Files rimuove i dati del file dal file system. Il file appare ancora negli elenchi delle directory con le dimensioni e le autorizzazioni corrette, ma i dati non si trovano più nel file system. Quando rileggi il file ad aprile, S3 Files lo recupera dal bucket S3 e lo copia nuovamente nel file system. La prima lettura può avere una latenza maggiore, ma le letture successive sono veloci.

## Il bucket S3 è la fonte della verità in caso di conflitti
<a name="s3-files-sync-source-of-truth"></a>

Si verifica un conflitto quando lo stesso file è stato modificato tramite il file system e anche l'oggetto S3 corrispondente è cambiato prima che S3 Files sincronizzasse le modifiche del file system nel bucket S3. Ad esempio, è possibile modificare un file tramite il file system montato mentre un'altra applicazione carica o elimina una nuova versione dell'oggetto corrispondente direttamente nel bucket S3 collegato.

S3 Files rileva i conflitti quando tenta di sincronizzare le modifiche del file system con il bucket S3 o quando riceve una notifica di evento S3 che indica che l'oggetto è cambiato. Il bucket S3 funge da archivio a lungo termine per i dati, quindi S3 Files considera il bucket S3 come fonte di verità in caso di conflitto. Ciò garantisce una coerenza prevedibile, garantendo che la versione nel bucket S3 abbia sempre la precedenza. In caso di conflitto, S3 Files sposta il file in conflitto dalla sua posizione corrente nel file system in una directory smarrita e importa la versione più recente dal bucket S3 collegato nel file system.

Ad esempio, supponiamo di modificare `/mnt/s3files/report.csv` tramite il file system. Prima che S3 Files sincronizzi le modifiche nel bucket S3, un'altra applicazione carica una nuova versione direttamente nel bucket S3. `report.csv` Quando S3 Files rileva il conflitto, sposta la versione di nella directory oggetti smarriti e `report.csv` la sostituisce con la versione del bucket S3.

La directory persa e trovata si trova nella directory principale del file system sotto il nome. `.s3files-lost+found-file-system-id` Quando S3 Files sposta un file nella directory degli oggetti smarriti, aggiunge al nome del file un identificatore per distinguere più versioni dello stesso file che potrebbero essere spostate nel tempo. I file nella directory degli oggetti smarriti non vengono copiati nel bucket S3. È possibile eliminare file e copiare file da questa directory, ma non è possibile spostare o rinominare i file al suo interno o eliminare la directory stessa. Se desideri mantenere le modifiche apportate al file system anziché la versione più recente nel bucket S3, copia il file dalla directory degli oggetti smarriti nel percorso originale. Puoi recuperare il percorso originale del file dagli attributi estesi del file nella directory oggetti smarriti. S3 Files lo copierà quindi nel bucket S3 come nuova versione dell'oggetto. Per ulteriori informazioni, consulta [Risoluzione dei problemi relativi ai file S3](s3-files-troubleshooting.md).

**Nota**  
I file in conflitto che S3 Files sposta nella directory Lost and Found rimangono lì a tempo indeterminato e vengono conteggiati ai fini dei costi di archiviazione del file system. È necessario eliminare i file dalla directory degli oggetti smarriti per liberare spazio di archiviazione quando non sono più necessari.

Le impostazioni di sincronizzazione predefinite funzioneranno per la maggior parte dei carichi di lavoro per l'accesso ai dati S3 a bassa latenza e basato su file. Per ulteriori dettagli su come configurare questi parametri, consulta. [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md)

**Topics**
+ [

## Il bucket S3 è accessibile tramite il file system
](#s3-files-sync-bucket-accessible)
+ [

## Le modifiche al file system si riflettono automaticamente nel bucket S3
](#s3-files-sync-changes-to-bucket)
+ [

## Le modifiche nel bucket S3 vengono visualizzate automaticamente nel file system
](#s3-files-sync-changes-from-bucket)
+ [

## Comprendere l'impatto delle operazioni di ridenominazione e spostamento
](#s3-files-sync-rename-move)
+ [

## I dati non utilizzati vengono eliminati dal file system per ottimizzare l'archiviazione
](#s3-files-sync-expiration)
+ [

## Il bucket S3 è la fonte della verità in caso di conflitti
](#s3-files-sync-source-of-truth)
+ [

# Personalizzazione della sincronizzazione per i file S3
](s3-files-synchronization-customizing.md)

# Personalizzazione della sincronizzazione per i file S3
<a name="s3-files-synchronization-customizing"></a>

S3 Files ti consente di controllare il flusso di dati tra il file system e il bucket S3 collegato tramite una configurazione di sincronizzazione. Le impostazioni predefinite bilanciano latenza e costi per la maggior parte dei carichi di lavoro, ma puoi ottimizzarle in base ai tuoi modelli di accesso. L'importazione anticipata di una maggiore quantità di dati riduce la latenza di lettura a scapito di costi di archiviazione e scrittura più elevati. L'importazione di meno dati mantiene bassi i costi di archiviazione, ma significa che vengono servite più letture da S3 con una latenza più elevata. Ogni configurazione ha due componenti: le regole di importazione dei dati, che controllano quali dati vengono copiati sul file system e quando, e le regole sui dati di scadenza, che controllano per quanto tempo i dati inutilizzati rimangono nel file system. È possibile aggiornare queste regole utilizzando la console di AWS gestione o l' PutSynchronizationConfiguration API.

## Regole di importazione dei dati
<a name="s3-files-sync-import-rules"></a>

Le regole di importazione dei dati controllano il modo in cui i dati vengono copiati dal bucket al file system. È possibile avere un massimo di 10 regole di importazione dei dati per file system. Ogni regola di importazione dei dati ha i seguenti parametri:

**prefisso**: il prefisso S3 a cui si applica la regola. Specificate una stringa vuota («») per l'intero bucket (ambito del file system) o un prefisso specifico (ad esempio, «data/ml/») all'interno del file system. Il prefisso deve terminare con una barra (/), a meno che non si specifichi l'intero bucket con «». È necessario includere esattamente una regola di importazione per la directory principale. Impostazione predefinita: «» (intero bucket o ambito del file system).

**trigger** — Quando importare i dati: ON\$1DIRECTORY\$1FIRST\$1ACCESS o ON\$1FILE\$1ACCESS. Impostazione predefinita: ON\$1DIRECTORY\$1FIRST\$1ACCESS.
+ **ON\$1DIRECTORY\$1FIRST\$1ACCESS: i dati del file vengono importati quando si accede per la prima volta a una directory**. Ad esempio, quando accedete per la prima volta a una directory elencandone il contenuto o aprendo un file al suo interno, vengono importati i dati per tutti i file figlio immediati presenti in quella directory di dimensioni inferiori alla soglia. sizeLessThan Questa opzione è utile per i carichi di lavoro che richiedono una bassa latenza al primo accesso ai file.
+ **ON\$1FILE\$1ACCESS** — I dati del file vengono importati solo quando un file viene letto per la prima volta. Questa opzione riduce al minimo i dati importati a scapito di una maggiore latenza alla prima lettura.

**sizeLessThan**— Dimensione massima del file (in byte) da importare automaticamente. Sebbene S3 Files importi i metadati per tutti i file, importa solo i dati per i file più piccoli di questa soglia. Minimo: 0 byte (nessun dato importato, i metadati verranno comunque importati). Massimo: 52.673.613.135.872 byte (48 TiB). Impostazione predefinita: 131.072 byte (128 KB).

### Comportamento della corrispondenza dei prefissi
<a name="s3-files-sync-prefix-matching"></a>

Quando più regole di importazione dei dati corrispondono a un file, S3 Files applica la regola con il prefisso più specifico. Ad esempio, supponiamo di avere tre regole:
+ Regola 1: prefisso = «» (intero bucket), sizeLessThan = 64 KB, trigger = ON\$1FILE\$1ACCESS
+ Regola 2: prefisso = «hot/», = 1 MB, trigger = ON\$1DIRECTORY\$1FIRST\$1ACCESS sizeLessThan 
+ Regola 3: prefisso = «HOT/LargeData/», = 256 KB, trigger = ON\$1DIRECTORY\$1FIRST\$1ACCESS sizeLessThan 

Per un file in hot/largeData/data.txt, S3 Files applies Rule 3. For a file at hot/data.txt, S3 Files applies Rule 2. For a file at cold/data formato.txt, S3 Files applica la regola 1 perché non esiste una regola specifica per il prefisso cold/.

## Regole relative ai dati di scadenza
<a name="s3-files-sync-expiration-rules"></a>

Le regole relative ai dati di scadenza controllano quando i dati non utilizzati vengono rimossi dal file system per ottimizzare i costi di archiviazione. S3 Files rimuove i dati dopo che non sono stati letti per una durata specificata e le modifiche sono già state sincronizzate con il bucket S3. Ogni volta che un file viene letto, il relativo timer di scadenza si reimposta, prolungando il tempo di permanenza dei dati nel file system. È possibile specificare il seguente parametro nelle regole relative ai dati di scadenza:

**daysAfterLastAccesso**: numero di giorni dopo l'ultima lettura quando i dati vengono rimossi dal file system. Minimo: 1 giorno. Massimo: 365 giorni. Impostazione predefinita: 30 giorni.

Se hai carichi di lavoro di lunga durata che accedono spesso agli stessi dati, prendi in considerazione periodi di scadenza più lunghi (30-90 giorni). Per i dati temporanei, prendi in considerazione periodi più brevi (1-7 giorni).

## Configurazioni di esempio
<a name="s3-files-sync-example-configs"></a>

**Condivisione di file per scopi generici (configurazione predefinita)**: un team di sviluppatori e data scientist monta un file system S3 per condividere codice, file di configurazione e set di dati di piccole dimensioni. La maggior parte dei file ha una dimensione inferiore a 128 KB e viene letta ripetutamente nel corso della giornata. La configurazione predefinita è ideale per questo carico di lavoro: ON\$1DIRECTORY\$1FIRST\$1ACCESS importa metadati e dati di file di piccole dimensioni quando si accede per la prima volta a qualsiasi file in una directory, il che funziona bene quando è probabile che si acceda contemporaneamente ai file nella stessa directory, come i file di origine in un progetto o i file di configurazione in una distribuzione. L'accesso successivo da parte di qualsiasi utente è rapido. Quando un utente apre un file di grandi dimensioni, ad esempio un archivio di log, S3 Files lo trasmette automaticamente direttamente da S3 per un throughput elevato. La finestra di scadenza di 30 giorni mantiene i file utilizzati attivamente sul file system senza pulizia manuale.

**Formazione sul machine learning con letture ripetute**: un processo di formazione legge migliaia di file di piccole dimensioni (<10 MB) ripetutamente in più epoche. Per ridurre al minimo la latenza, impostate una sizeLessThan soglia alta (ad esempio, 10 MB) con ON\$1DIRECTORY\$1FIRST\$1ACCESS in modo che i dati dei file vengano precaricati quando lo script di training elenca per la prima volta ciascuna directory. Imposta una scadenza breve (ad esempio, 3 giorni) in modo che i dati vengano rimossi dal file system subito dopo il completamento del processo di formazione.

**Carichi di lavoro agentici con ampio rilevamento dei file**: un agente di intelligenza artificiale esplora un ampio archivio di documenti, codice o file di knowledge base per rispondere alle domande, leggendo molti file di piccole dimensioni una volta mentre cerca il contesto pertinente. Imposta su 0 sizeLessThan in modo che nessun dato venga importato nel file system. L'agente può sfogliare l'intero albero di directory a bassa latenza per scoprire i file, mentre ogni file letto viene fornito direttamente da S3. Ciò mantiene bassi i costi per i carichi di lavoro che toccano molti file in modo imprevedibile ma che raramente rivisitano lo stesso file, e si ridimensiona naturalmente man mano che si aggiungono più agenti che leggono in parallelo.

**Prefissi caldi e freddi: un file system contiene sia i** file di configurazione a cui si accede di frequente che i dati di archivio a cui si accede raramente. `config/` `archive/` Crea due regole di importazione: una per `config/` con un valore alto sizeLessThan e ON\$1DIRECTORY\$1FIRST\$1ACCESS e una per con impostato su 0 e ON\$1FILE\$1ACCESS. `archive/` sizeLessThan Ciò mantiene i file di configurazione sul file system per un accesso rapido, evitando al contempo i costi di archiviazione per i dati di archiviazione che vengono letti raramente.

# Monitoraggio e controllo dei file S3
<a name="s3-files-monitoring-logging"></a>

S3 Files si integra con i seguenti AWS servizi per aiutarvi a monitorare i vostri file system:

**Amazon CloudWatch**  
Per impostazione predefinita, i dati metrici di S3 Files vengono inviati automaticamente a intervalli di 1 minuto, CloudWatch a meno che non sia specificato diversamente per alcune metriche individuali. Puoi anche controllare una singola metrica in un periodo di tempo specificato ed eseguire una o più azioni in base al valore della metrica rispetto a una determinata soglia in un certo numero di periodi di tempo. L'operazione è una notifica inviata a un argomento Amazon Simple Notification Service (Amazon SNS) o alla policy di Amazon EC2 Auto Scaling.  
Per ulteriori informazioni, consulta [Monitoraggio dei file S3 con Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

**CloudTrail**  
CloudTrail acquisisce le chiamate API e gli eventi correlati effettuati da o per conto del tuo AWS account e invia i file di log a un bucket Amazon S3 da te specificato. S3 Files registra gli eventi di gestione, tra cui la creazione di file system, la creazione di destinazioni di montaggio e il montaggio dei file system sulle istanze di calcolo. S3 Files non registra gli eventi relativi ai dati, come le operazioni di lettura e scrittura dei file.  
Per ulteriori informazioni, consulta [Registrazione con CloudTrail per i file S3](s3-files-logging-cloudtrail.md).

**Topics**
+ [

# Monitoraggio dei file S3 con Amazon CloudWatch
](s3-files-monitoring-cloudwatch.md)
+ [

# Registrazione con CloudTrail per i file S3
](s3-files-logging-cloudtrail.md)

# Monitoraggio dei file S3 con Amazon CloudWatch
<a name="s3-files-monitoring-cloudwatch"></a>

Puoi monitorare i file system S3 Files utilizzando [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html), che raccoglie ed elabora i dati grezzi da Amazon S3 Files in metriche leggibili. Questi parametri vengono conservati per 15 mesi, in modo da poter accedere alle informazioni storiche e avere una prospettiva migliore sulle prestazioni dei file system.

I dati metrici di S3 Files vengono inviati automaticamente a. CloudWatch La maggior parte delle metriche viene inviata a intervalli di 1 minuto, mentre le metriche di archiviazione vengono inviate ogni 15 minuti. Puoi creare [CloudWatchallarmi](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Alarms.html) che inviano notifiche quando una metrica supera una soglia specificata. Puoi anche utilizzare i CloudWatch dashboard, che sono home page personalizzabili nella CloudWatch Console che puoi utilizzare per monitorare le tue risorse in un'unica visualizzazione. Per ulteriori informazioni, consulta [Creazione di una CloudWatch dashboard personalizzata](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create_dashboard.html).

## Metriche dei file CloudWatch S3
<a name="s3-files-monitoring-cloudwatch-metrics"></a>

Le metriche di S3 Files utilizzano lo spazio dei nomi. `AWS/S3Files` Tutte le metriche vengono riportate per una singola dimensione. `FileSystemId` Lo spazio dei nomi `AWS/S3Files` include i parametri descritti di seguito:


| Metrica | Description | Unità e statistiche valide | 
| --- | --- | --- | 
| StorageBytes | La dimensione totale del file system in byte, che include dati e metadati. Questa metrica viene emessa ogni 15 minuti. CloudWatch  | Unità: byte. Minimo, massimo, medio | 
| Inodes | Il numero totale di inode (come file, directory, collegamenti simbolici) in un file system S3 Files. Questa metrica viene emessa ogni 15 minuti. CloudWatch  | Unità: conta. Somma | 
| PendingExports | Il numero totale di file e directory in attesa di esportazione nel bucket S3. | Unità: conta. Somma | 
| ImportFailures | Il numero totale di oggetti che non sono stati importati nel file system dopo nuovi tentativi (ad esempio, autorizzazioni IAM errate). | Unità: conteggio. Somma | 
| ExportFailures | Numero totale di file e directory che non sono stati esportati e che non verranno ritentati. Questa metrica consente di identificare gli errori di esportazione dei terminali in modo da poter risolvere i problemi e intervenire (ad esempio, aggiornare le autorizzazioni IAM). | Unità: conteggio. Somma | 
| DataReadBytes | Il numero di byte letti dal file system. SampleCountfornisce il numero di operazioni di lettura dei dati. È possibile calcolare la velocità effettiva di lettura dei dati visualizzando questa metrica per unità di tempo. | Unità: byte (minimo, massimo, media, somma), conteggio () SampleCount | 
| DataWriteBytes | Il numero di byte scritti nel file system. SampleCountfornisce il numero di operazioni di scrittura dei dati. È possibile calcolare la velocità di scrittura dei dati visualizzando questa metrica per unità di tempo. | Unità: byte (minimo, massimo, media, somma), conteggio () SampleCount | 
| MetadataReadBytes | Il numero di byte di metadati letti dal file system. SampleCountfornisce il numero di operazioni di lettura dei metadati. | Unità: byte (minimo, massimo, media, somma), conteggio () SampleCount | 
| MetadataWriteBytes | Il numero di byte di metadati scritti nel file system. SampleCountfornisce il numero di operazioni di scrittura dei metadati. | Unità: byte (minimo, massimo, media, somma), conteggio () SampleCount | 
| LostAndFoundFiles | Numero totale di file nella directory degli oggetti smarriti. La directory persa e trovata si trova nella directory principale del file system sotto il nome.s3files-lost\$1found-file-system-id. I file nella directory degli oggetti smarriti non vengono copiati nel bucket S3. Quando si verifica un conflitto dovuto a modifiche simultanee agli stessi dati sia nel file system che nel bucket S3, S3 Files considera il bucket S3 come fonte di informazioni e sposta il file in conflitto in una directory smarrita. | Unità: conta. Somma | 
| ClientConnections | Il numero di connessioni client attive a un file system. | Unità: conteggio. Somma | 

## Metriche di connettività dei client
<a name="s3-files-monitoring-cloudwatch-client-metrics"></a>

S3 Files può ottimizzare le prestazioni di lettura consentendo ai client di leggere i dati dei file direttamente dal bucket S3 collegato. A supporto di ciò, il client S3 Files emette metriche di connettività che controllano se il client è in grado di stabilire le connessioni necessarie.

Queste metriche vengono emesse dal client S3 Files (amazon-efs-utils) e pubblicate nel namespace. `efs-utils/S3Files` CloudWatch L'emissione delle metriche è abilitata per impostazione predefinita come parte dell'esperienza S3 Files.


| Metrica | Description | Unità e statistiche valide | 
| --- | --- | --- | 
| NFSConnectionAccessible | Indica se il client può connettersi al file system tramite il montaggio NFS. Il valore 1 indica che la connessione è accessibile. Il valore 0 indica che la connessione non è accessibile. | Unità: nessuna. Minimo, massimo, medio | 
| S3BucketAccessible | Indica se il client dispone delle autorizzazioni necessarie per leggere i dati dal bucket S3 collegato. Il valore 1 indica che il client dispone delle autorizzazioni necessarie. Un valore pari a 0 indica che il client non dispone delle autorizzazioni necessarie. | Unità: nessuna. Minimo, massimo, medio | 
| S3BucketReachable | Indica se il bucket e il prefisso S3 collegati esistono e sono raggiungibili dal client. Il valore 1 indica che il bucket e il prefisso sono raggiungibili. Un valore pari a 0 indica che il bucket o il prefisso non è raggiungibile. | Unità: nessuna. Minimo, massimo, medio | 

## Accesso alle CloudWatch metriche
<a name="s3-files-monitoring-cloudwatch-access"></a>

Puoi visualizzare le metriche di S3 Files utilizzando la CloudWatch console, la AWS CLI o l'API. CloudWatch 

### Per visualizzare le metriche utilizzando la console CloudWatch
<a name="s3-files-monitoring-cloudwatch-access-console"></a>

1. Apri la CloudWatch console all'indirizzo [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. Nel riquadro di navigazione, scegli **Metriche**, quindi scegli **Tutte le metriche**.

1. Scegli lo spazio dei nomi **S3Files**.

1. **Scegli File System Metrics.**

1. Seleziona le metriche che desideri visualizzare.

1. Scegli la scheda **Metriche grafiche** per configurare la visualizzazione del grafico.

### Per visualizzare le metriche utilizzando la CLI AWS
<a name="s3-files-monitoring-cloudwatch-access-cli"></a>

Utilizza il comando `get-metric-statistics`. Ad esempio, per visualizzare: `DataReadBytes`

```
aws cloudwatch get-metric-statistics \
  --namespace AWS/S3Files \
  --metric-name DataReadBytes \
  --dimensions Name=FileSystemId,Value=file-system-id \
  --start-time 2025-01-20T00:00:00Z \
  --end-time 2025-01-20T23:59:59Z \
  --period 3600 \
  --statistics Sum
```

# Registrazione con CloudTrail per i file S3
<a name="s3-files-logging-cloudtrail"></a>

Amazon S3 Files è integrato con CloudTrail, un servizio che fornisce un registro delle azioni intraprese da un utente, ruolo o AWS servizio in S3 Files. CloudTrail acquisisce tutte le chiamate API per S3 Files come eventi, incluse le chiamate dalla console S3 Files e le chiamate di codice alle operazioni dell'API S3 Files.

Se crei un trail, puoi abilitare la distribuzione continua di CloudTrail eventi a un bucket Amazon S3, inclusi gli eventi per i file S3. **Se non configuri un percorso, puoi comunque visualizzare gli eventi più recenti nella CloudTrail console nella cronologia degli eventi.** Utilizzando le informazioni raccolte da CloudTrail, puoi determinare la richiesta che è stata fatta a S3 Files, l'indirizzo IP da cui è stata effettuata la richiesta, chi ha effettuato la richiesta, quando è stata effettuata e altri dettagli.

## Informazioni sui file S3 in CloudTrail
<a name="s3-files-logging-cloudtrail-info"></a>

CloudTrail è abilitato sul tuo AWS account al momento della creazione dell'account. **Quando si verifica un'attività in Amazon S3 Files, tale attività viene registrata in un CloudTrail evento insieme ad altri eventi di AWS servizio nella cronologia degli eventi.** Puoi visualizzare, cercare e scaricare gli eventi recenti nel tuo AWS account. Per ulteriori informazioni, consulta [Visualizzazione degli eventi con la cronologia degli CloudTrail eventi](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html) nella *Guida CloudTrail per l'utente*.

Per una registrazione continua degli eventi nel tuo AWS account, inclusi gli eventi per i file S3, crea un percorso. Un trail consente di CloudTrail inviare file di log a un bucket Amazon S3. Per impostazione predefinita, quando crei un percorso nella console, il percorso si applica a tutte le AWS regioni. Il trail registra gli eventi di tutte le regioni della AWS partizione e consegna i file di log al bucket Amazon S3 specificato. Inoltre, puoi configurare altri AWS servizi per analizzare ulteriormente e agire in base ai dati sugli eventi raccolti nei log. CloudTrail 

Per ulteriori informazioni, consulta gli argomenti seguenti nella *Guida per l'utenteCloudTrail *:
+ [Creare un percorso per il tuo account AWS](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [AWS integrazioni di servizi con log CloudTrail ](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html)
+ [Configurazione delle notifiche Amazon SNS per CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/configure-sns-notifications-for-cloudtrail.html)
+ [Ricezione di file di CloudTrail registro da più regioni](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) e [ricezione di file di CloudTrail registro da](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html) più account

Tutti i [file S3 APIs](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations_Amazon_S3_Files.html) vengono registrati da. CloudTrail Ad esempio, le chiamate a `CreateMountTarget` e `CreateFileSystem` le `TagResource` operazioni generano voci nei file di CloudTrail registro. S3 Files genera CloudTrail registri anche quando si monta il file system su una risorsa di calcolo.

Ogni evento o voce di log contiene informazioni sull’utente che ha generato la richiesta. Le informazioni di identità consentono di determinare quanto segue:
+ Se la richiesta è stata effettuata con le credenziali utente root o utente IAM.
+ Se la richiesta è stata effettuata con le credenziali di sicurezza temporanee per un ruolo o un utente federato.
+ Se la richiesta è stata effettuata da un altro servizio AWS .

Per ulteriori informazioni, vedete l'[elemento CloudTrail UserIdentity nella Guida](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html) per l'*CloudTrail utente*.

S3 Files non registra gli eventi relativi ai dati. Gli eventi relativi ai dati includono le operazioni di lettura e scrittura dei file eseguite sul file system.

## Informazioni sulle voci dei file di registro di S3 Files
<a name="s3-files-logging-cloudtrail-entries"></a>

Un trail è una configurazione che consente la distribuzione di eventi come file di log in un bucket Amazon S3 specificato dall'utente. CloudTrail i file di registro contengono una o più voci di registro. Un evento rappresenta una singola richiesta proveniente da qualsiasi fonte e include informazioni sull'azione richiesta, la data e l'ora dell'azione, i parametri della richiesta e così via. CloudTrail i file di registro non sono una traccia ordinata dello stack delle chiamate API pubbliche, quindi non vengono visualizzati in un ordine specifico.

### Esempio: CreateFileSystem
<a name="s3-files-logging-cloudtrail-example-createfs"></a>

L'esempio seguente mostra una voce di CloudTrail registro che illustra l'`CreateFileSystem`azione:

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "111122223333",
        "arn": "arn:aws:sts::111122223333:assumed-role/myRole/i-0123456789abcdef0",
        "accountId": "111122223333",
        "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "111122223333",
                "arn": "arn:aws:iam::111122223333:role/myRole",
                "accountId": "111122223333",
                "userName": "myRole"
            },
            "attributes": {
                "creationDate": "2026-03-20T12:58:28Z",
                "mfaAuthenticated": "false"
            },
            "ec2RoleDelivery": "2.0"
        }
    },
    "eventTime": "2026-03-20T17:43:19Z",
    "eventSource": "s3files.amazonaws.com",
    "eventName": "CreateFileSystem",
    "awsRegion": "us-west-2",
    "sourceIPAddress": "192.0.2.0",
    "userAgent": "aws-cli/2.0",
    "requestParameters": {
        "bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
        "prefix": "images/",
        "clientToken": "myClientToken",
        "roleArn": "arn:aws:iam::111122223333:role/myS3FilesRole"
    },
    "responseElements": {
        "creationTime": "Mar 20, 2026, 5:43:19 PM",
        "fileSystemArn": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0",
        "fileSystemId": "fs-abcd123456789ef0",
        "bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
        "prefix": "images/",
        "clientToken": "myClientToken",
        "status": "creating",
        "roleArn": "arn:aws:iam::111122223333:role/myS3FilesRole",
        "ownerId": "111122223333",
        "tags": []
    },
    "requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
    "eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
    "readOnly": false,
    "resources": [
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::FileSystem",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0"
        }
    ],
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "111122223333",
    "eventCategory": "Management",
    "tlsDetails": {
        "tlsVersion": "TLSv1.3",
        "cipherSuite": "TLS_AES_128_GCM_SHA256",
        "clientProvidedHostHeader": "s3files.us-west-2.api.aws"
    }
}
```

### Esempio: CreateMountTarget
<a name="s3-files-logging-cloudtrail-example-createmt"></a>

L'esempio seguente mostra una voce di CloudTrail registro per l'`CreateMountTarget`azione:

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "111122223333",
        "arn": "arn:aws:sts::111122223333:assumed-role/myRole/i-0123456789abcdef0",
        "accountId": "111122223333",
        "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "111122223333",
                "arn": "arn:aws:iam::111122223333:role/myRole",
                "accountId": "111122223333",
                "userName": "myRole"
            },
            "attributes": {
                "creationDate": "2026-03-20T13:09:56Z",
                "mfaAuthenticated": "false"
            },
            "ec2RoleDelivery": "2.0"
        }
    },
    "eventTime": "2026-03-20T18:05:14Z",
    "eventSource": "s3files.amazonaws.com",
    "eventName": "CreateMountTarget",
    "awsRegion": "us-west-2",
    "sourceIPAddress": "192.0.2.0",
    "userAgent": "aws-cli/2.0",
    "requestParameters": {
        "fileSystemId": "fs-abcd123456789ef0",
        "subnetId": "subnet-01234567890abcdef",
        "securityGroups": [
            "sg-c16d65b6"
        ]
    },
    "responseElements": {
        "availabilityZoneId": "usw2-az2",
        "ownerId": "111122223333",
        "mountTargetId": "fsmt-1234567",
        "fileSystemId": "fs-abcd123456789ef0",
        "subnetId": "subnet-01234567890abcdef",
        "ipv4Address": "192.0.2.0",
        "ipv6Address": "2001:db8::1",
        "networkInterfaceId": "eni-0123456789abcdef0",
        "vpcId": "vpc-01234567",
        "securityGroups": [
            "sg-c16d65b6"
        ],
        "status": "creating"
    },
    "requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
    "eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
    "readOnly": false,
    "resources": [
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::FileSystem",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::MountTarget",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:mount-target/fsmt-1234567"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::EC2::Subnet",
            "ARN": "arn:aws:ec2:us-west-2:111122223333:subnet/subnet-01234567890abcdef"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::EC2::NetworkInterface",
            "ARN": "arn:aws:ec2:us-west-2:111122223333:network-interface/eni-0123456789abcdef0"
        }
    ],
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "111122223333",
    "eventCategory": "Management",
    "tlsDetails": {
        "tlsVersion": "TLSv1.3",
        "cipherSuite": "TLS_AES_128_GCM_SHA256",
        "clientProvidedHostHeader": "s3files.us-west-2.api.aws"
    }
}
```

# Specifiche prestazionali
<a name="s3-files-performance"></a>

S3 Files ridimensiona automaticamente la velocità effettiva e gli IOPS in base al carico di lavoro senza richiedere il provisioning o la gestione della capacità. Questa pagina descrive le caratteristiche prestazionali di S3 Files.

## Riepilogo delle prestazioni
<a name="s3-files-performance-summary"></a>


|  |  | 
| --- |--- |
| Throughput di lettura aggregato per file system | Fino a terabyte al secondo | 
| Throughput di scrittura aggregato per file system | 1—5 Gib/s | 
| Numero massimo di IOPS di lettura per bucket S3 con file S3 | Nessun limite (collega più file system allo stesso bucket) | 
| Numero massimo di IOPS di scrittura per bucket S3 con file S3 | Nessun limite (collega più file system allo stesso bucket) | 
| Numero massimo di IOPS di lettura per file system | 250.000 | 
| Numero massimo di IOPS di scrittura per file system | 50.000 | 
| Velocità massima di lettura per client | 3 Gib/s | 

## In che modo S3 Files offre prestazioni
<a name="s3-files-performance-how"></a>

S3 Files gestisce i dati da due livelli di storage e indirizza automaticamente ogni operazione al livello più adatto.

Storage **ad alte prestazioni: il livello di storage** a bassa latenza all'interno del file system in cui risiedono i dati e i metadati dei file utilizzati attivamente. S3 Files gestisce automaticamente questo spazio di archiviazione, copiando i dati su di esso quando si accede ai file e rimuovendo i dati che non sono stati letti entro una finestra di scadenza configurabile. Paghi una tariffa di archiviazione per i dati che risiedono nello storage ad alte prestazioni.

**Direttamente da S3**: le letture di grandi dimensioni (128 KB o più) di dati che sono già stati sincronizzati con S3 e le letture di dati non presenti nel file system vengono fornite direttamente dal bucket S3. Questo livello offre un throughput elevato per le letture sequenziali, il che lo rende ideale per l'analisi, l'elaborazione multimediale e altri carichi di lavoro di streaming.

Poiché S3 Files applica automaticamente questo modello a due livelli, non è necessario scegliere tra latenza e velocità effettiva. I carichi di lavoro con file di piccole dimensioni ottengono le prestazioni del file system. I carichi di lavoro con file di grandi dimensioni ottengono il throughput di S3. I carichi di lavoro misti ottengono entrambi.

## Leggi le prestazioni
<a name="s3-files-performance-read"></a>

Il throughput di lettura si adatta al numero di istanze di calcolo connesse e al grado di parallelismo all'interno di ciascuna istanza. La velocità massima di lettura per client è di 3 GiB/s. S3 Files supporta fino a terabyte al secondo di velocità di lettura aggregata e fino a 250.000 IOPS di lettura per file system.

## Prestazioni di scrittura
<a name="s3-files-performance-write"></a>

Le scritture vengono trasferite nello storage ad alte prestazioni e sono immediatamente durevoli. A seconda della regione, S3 Files supporta 1-5 GiB/s del throughput di scrittura aggregato e fino a 50.000 IOPS di scrittura per file system. Le prestazioni di scrittura si adattano elasticamente all'attività del carico di lavoro.

Quando modifichi un file nel file system, S3 Files attende circa 60 secondi, aggregando tutte le modifiche successive al file in quel periodo di tempo, prima di copiarlo nel tuo bucket S3. Ciò significa che le scritture successive rapide sullo stesso file vengono acquisite in una singola richiesta S3 PUT anziché generare una nuova versione dell'oggetto per ogni singola modifica, riducendo i costi delle richieste S3 e i costi di archiviazione. Se continui a modificare il file dopo che S3 Files ha copiato le modifiche nel bucket S3, copierà le modifiche successive secondo necessità.

## Latenza del primo accesso
<a name="s3-files-performance-first-access"></a>

La prima volta che accedi a una directory, S3 Files importa i metadati per tutti i file in quella directory e, a seconda della configurazione di importazione, i dati per file di piccole dimensioni. Pertanto, l'accesso iniziale richiede più tempo rispetto alle operazioni successive. Una volta importati, tutti gli elenchi di directory e gli accessi ai file successivi tornano a bassa latenza.

## Prestazioni di sincronizzazione
<a name="s3-files-performance-sync"></a>

S3 Files sincronizza le modifiche tra il file system e il bucket S3 in background.

**Importazione di modifiche da S3**: quando un'altra applicazione aggiunge o modifica un oggetto nel bucket S3, S3 Files riflette la modifica nel file system in genere in pochi secondi. S3 Files elabora fino a 2.400 modifiche agli oggetti al secondo per file system, con una velocità di importazione dei dati fino a 700 megabyte al secondo.

**Esportazione delle modifiche in S3**: quando scrivi un file tramite il file system, S3 Files raggruppa le modifiche in batch per circa 60 secondi per consolidare le scritture successive rapide in un'unica versione dell'oggetto S3, riducendo i costi delle richieste S3 e delle versioni di storage. Dopo la finestra di batch, S3 Files copia il file nel bucket S3. S3 Files esporta fino a 800 file al secondo per file system, con una velocità di esportazione dei dati fino a 2.700 megabyte al secondo.


| Metrica operativa | Valore | Unità | 
| --- | --- | --- | 
| Importazione da bucket S3 IOPS | 2.400 | oggetti al secondo per file system | 
| Velocità effettiva di importazione dal bucket S3 | 700 | megabyte al secondo | 
| Esporta IOPS nel bucket S3 | 800 | file al secondo per file system | 
| Velocità effettiva di esportazione in bucket S3 | 2.700 | megabyte al secondo | 

Amazon S3 utilizza una struttura di storage piatta in cui gli oggetti sono identificati dai loro nomi chiave. Sebbene S3 Files ti consenta di organizzare i dati in directory, S3 non ha un concetto nativo di directory. Ciò che appare come una directory nel file system è un prefisso comune condiviso dalle chiavi degli oggetti all'interno del bucket S3. Inoltre, gli oggetti S3 sono immutabili e non supportano le ridenominazioni atomiche. Di conseguenza, quando rinomini o sposti un file, S3 Files deve scrivere i dati su un nuovo oggetto con la chiave aggiornata ed eliminare l'originale. Quando rinomini o sposti una directory, S3 Files deve ripetere questo processo per ogni oggetto che condivide quel prefisso. Pertanto, quando rinomini o sposti una directory contenente decine di milioni di file, i costi delle richieste S3 e il tempo di sincronizzazione aumentano in modo significativo. Una ridenominazione di una directory di 100.000 file richiede alcuni minuti per essere riprodotta completamente nel bucket S3, sebbene la ridenominazione avvenga istantaneamente sul file system. Per ulteriori informazioni, consulta [Comprendere l'impatto delle operazioni di ridenominazione e spostamento](s3-files-synchronization.md#s3-files-sync-rename-move).

Se il carico di lavoro genera modifiche più velocemente della velocità di sincronizzazione, S3 Files mette in coda le modifiche e le elabora in ordine. Puoi monitorare il numero di esportazioni in sospeso utilizzando la metrica. `PendingExports` CloudWatch Per ulteriori informazioni, consulta [Monitoraggio dei file S3 con Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

## Monitoraggio delle prestazioni
<a name="s3-files-performance-monitoring"></a>

Puoi monitorare le prestazioni del tuo file system utilizzando Amazon CloudWatch. S3 Files pubblica metriche tra cui`DataReadBytes`,, e `DataWriteBytes` `MetadataReadBytes``MetadataWriteBytes`, che puoi utilizzare per monitorare la velocità effettiva e gli IOPS nel tempo. Per ulteriori informazioni, consulta [Monitoraggio dei file S3 con Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

# Sicurezza per i file S3
<a name="s3-files-security"></a>

La sicurezza del cloud AWS è la massima priorità. In qualità di AWS cliente, puoi beneficiare di un data center e di un'architettura di rete progettati per soddisfare i requisiti delle organizzazioni più sensibili alla sicurezza.

La sicurezza è una responsabilità condivisa tra AWS te e te. Il [modello di responsabilità condivisa](https://aws.amazon.com/compliance/shared-responsibility-model/) descrive questo come sicurezza *del* cloud e sicurezza *nel* cloud:

**Sicurezza del cloud**  
AWS è responsabile della protezione dell'infrastruttura che gestisce AWS i servizi in Cloud AWS. AWS fornisce inoltre servizi che è possibile utilizzare in modo sicuro. I revisori di terze parti testano e verificano regolarmente l'efficacia della sicurezza come parte dei [programmi di conformitàAWS](https://aws.amazon.com/compliance/programs/). Per informazioni sui programmi di conformità che si applicano ai file Amazon S3, consulta [AWS Services in Scope by Compliance](https://aws.amazon.com/compliance/services-in-scope/) Program.

**Sicurezza nel cloud**  
La tua responsabilità è determinata dal AWS servizio che utilizzi. Inoltre, sei responsabile anche di altri fattori, tra cui la riservatezza dei dati, i requisiti dell’azienda e le leggi e le normative applicabili.

Questa documentazione ti aiuta a capire come applicare il modello di responsabilità condivisa quando usi Amazon S3 Files.

## Protezione dei dati
<a name="s3-files-security-data-protection"></a>

Il [modello di responsabilità AWS condivisa](https://aws.amazon.com/compliance/shared-responsibility-model/) si applica alla protezione dei dati in S3 Files. Come descritto in questo modello, AWS è responsabile della protezione dell'infrastruttura globale che gestisce tutti i Cloud AWS. L’utente è responsabile del controllo dei contenuti ospitati su questa infrastruttura. L'utente è inoltre responsabile delle attività di configurazione e gestione della sicurezza per AWS i servizi utilizzati. Per ulteriori informazioni sulla privacy dei dati, consulta [Domande frequenti sulla privacy dei dati](https://aws.amazon.com/compliance/data-privacy-faq). Per informazioni sulla protezione dei dati in Europa, consulta il post [AWS Modello di responsabilità condivisa ](https://aws.amazon.com/blogs/security/the-aws-shared-responsibility-model-and-gdpr/) e GDPR*AWS nel blog sulla sicurezza di *.

Ai fini della protezione dei dati, ti consigliamo di proteggere le credenziali AWS dell'account e configurare i singoli utenti con AWS IAM Identity Center o AWS Identity and Access Management (IAM). In tal modo, a ogni utente verranno assegnate solo le autorizzazioni necessarie per svolgere i suoi compiti. Suggeriamo, inoltre, di proteggere i dati nei seguenti modi:
+ Utilizza l’autenticazione a più fattori (MFA) con ogni account.
+  SSL/TLS Da utilizzare per comunicare con AWS le risorse. È richiesto TLS 1.2 ed è consigliato TLS 1.3.
+ Configura l'API e la registrazione delle attività degli utenti con AWS CloudTrail. Per informazioni sull'utilizzo dei CloudTrail percorsi per acquisire AWS le attività, consulta [Lavorare con i CloudTrail percorsi](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-trails.html) nella *Guida per l'AWS CloudTrail utente*.
+ Utilizza soluzioni di AWS crittografia, insieme a tutti i controlli di sicurezza predefiniti all'interno AWS dei servizi.
+ Utilizza i servizi di sicurezza gestiti avanzati, come Amazon Macie, che aiutano a individuare e proteggere i dati sensibili archiviati in Amazon S3.
+ Se hai bisogno di moduli crittografici convalidati FIPS 140-3 per accedere AWS tramite un'interfaccia a riga di comando o un'API, utilizza un endpoint FIPS. Per ulteriori informazioni sugli endpoint FIPS disponibili, consulta il [Federal Information Processing Standard (FIPS) 140-3](https://aws.amazon.com/compliance/fips/).

Ti consigliamo di non inserire mai informazioni riservate o sensibili, ad esempio gli indirizzi e-mail dei clienti, nei tag o nei campi di testo in formato libero, ad esempio nel campo **Nome**. Ciò include quando lavori con S3 Files o altri AWS servizi utilizzando la console, l'API, la AWS CLI o. AWS SDKs I dati inseriti nei tag o nei campi di testo in formato libero utilizzati per i nomi possono essere utilizzati per i la fatturazione o i log di diagnostica. Quando si fornisce un URL a un server esterno, suggeriamo vivamente di non includere informazioni sulle credenziali nell’URL per convalidare la richiesta al server.

**Topics**
+ [

## Protezione dei dati
](#s3-files-security-data-protection)
+ [

# Encryption (Crittografia)
](s3-files-encryption.md)
+ [

# Come funziona S3 Files con IAM
](s3-files-security-iam.md)

# Encryption (Crittografia)
<a name="s3-files-encryption"></a>

S3 Files offre funzionalità di crittografia complete per proteggere i dati sia a riposo che in transito.

## Crittografia dei dati a riposo
<a name="s3-files-encryption-at-rest"></a>

Il tuo bucket S3 è crittografato utilizzando i meccanismi di crittografia di Amazon S3. Per informazioni sulla crittografia dei dati in S3, consulta [Protezione](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingEncryption.html) dei dati con la crittografia.

S3 Files crittografa i dati inattivi nel file system S3 utilizzando la crittografia lato server. La crittografia lato server è la crittografia dei dati nella posizione di destinazione eseguita dall'applicazione o dal servizio che li riceve. Nei file system S3, i dati e i metadati vengono crittografati per impostazione predefinita prima di essere scritti sullo storage e vengono decrittografati automaticamente durante la lettura. Questi processi sono gestiti in modo trasparente da S3 Files, quindi non è necessario modificare le applicazioni. Tutti i dati archiviati nel file system vengono crittografati utilizzando le AWS chiavi Key Management Service (KMS) utilizzando uno dei seguenti metodi:
+ (Impostazione predefinita) Crittografia lato server con chiavi KMS AWS proprietarie (SSE-KMS)
+ Crittografia lato server con chiavi KMS gestite dal cliente (SSE-KMS-CMK)

Sono previsti costi aggiuntivi per l'utilizzo delle chiavi KMS. AWS Per ulteriori informazioni, consulta i [concetti chiave di AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html) nella *AWS Key Management Service Developer Guide* e i prezzi di [AWS KMS](https://aws.amazon.com/kms/pricing/).

### Crittografia lato server con chiavi KMS AWS proprietarie (SSE-KMS)
<a name="s3-files-encryption-aws-owned-key"></a>

Questa è la chiave predefinita per crittografare i dati inattivi nel file system S3. AWS le chiavi di proprietà sono una raccolta di chiavi KMS possedute e gestite da un AWS servizio. S3 Files possiede e gestisce la crittografia dei dati e dei metadati archiviati nel file system S3 quando si utilizza una chiave di proprietà. AWS [Per maggiori dettagli sulle chiavi AWS di proprietà, visita AWS KMS keys.](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html)

### Crittografia lato server con chiavi KMS gestite dal cliente ( AWS SSE-KMS-CMK)
<a name="s3-files-encryption-sse-kms"></a>

Durante la creazione del file system, puoi scegliere di configurare una AWS chiave del servizio di gestione delle chiavi (KMS) da gestire.AWS Quando utilizzi la crittografia SSE-KMS con un file system S3, le chiavi AWS KMS devono trovarsi nella stessa regione del file system.

## Politiche chiave di S3 Files per KMS AWS
<a name="s3-files-encryption-key-policies"></a>

Le policy delle chiavi sono il modo principale per controllare l'accesso alle chiavi gestite dai clienti. Per ulteriori informazioni sulle politiche chiave, consulta le [politiche chiave in AWS KMS nella AWS Key](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) *Management Service* Developer Guide. L'elenco seguente descrive tutte le autorizzazioni AWS relative a KMS supportate da S3 Files per la crittografia dei file system inattivi:

kms:Encrypt  
(Facoltativo) Crittografa il testo semplice in testo cifrato. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

kms:Decrypt  
(Obbligatorio) Decripta il testo cifrato. Il testo cifrato è un testo normale che è stato precedentemente crittografato. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

kms:ReEncrypt  
(Facoltativo) Crittografa i dati sul lato server con una nuova chiave gestita dal cliente, senza esporre il testo in chiaro dei dati sul lato client. I dati sono prima decifrati e quindi nuovamente crittografati. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

kms:GenerateDataKeyWithoutPlaintext  
(Obbligatorio) Restituisce una chiave di crittografia dei dati crittografata con una chiave gestita dal cliente. Questa autorizzazione è inclusa nella politica delle chiavi predefinita in kms: GenerateDataKey \$1.

kms:CreateGrant  
(Obbligatorio) Aggiunge una concessione a una chiave per specificare chi può utilizzare la chiave e in quali condizioni. I grant sono meccanismi di autorizzazioni alternative alle policy sulle chiavi. Per ulteriori informazioni sulle sovvenzioni, consulta [Grants in AWS KMS nella AWS Key](https://docs.aws.amazon.com/kms/latest/developerguide/grants.html) *Management Service* Developer Guide. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

kms:DescribeKey  
(Obbligatorio) Fornisce informazioni dettagliate sulla chiave gestita dal cliente specificata. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

kms:ListAliases  
(Facoltativo) Elenca tutti gli alias chiave dell'account. Quando si utilizza la console per creare un file system crittografato, questa autorizzazione popola l'elenco Seleziona chiave KMS. Consigliamo di usare questa autorizzazione per garantire la migliore esperienza utente. Questa autorizzazione è inclusa nella policy sulla chiave predefinita.

## Stati chiave e relativi effetti
<a name="s3-files-encryption-key-states"></a>

Lo stato della chiave KMS influisce direttamente sull'accesso al file system crittografato:

Abilitato  
Funzionamento normale: accesso completo in lettura e scrittura al file system.

Disabilitato  
Il file system diventa inaccessibile dopo qualche tempo. Può essere riattivato.

In attesa di eliminazione  
Il file system diventa inaccessibile. L'eliminazione può essere annullata durante il periodo di attesa. Nota che dopo aver annullato l'eliminazione della chiave, la chiave deve essere spostata nello stato abilitato.

Eliminato  
File system permanentemente inaccessibile. Questa azione non può essere annullata.

**avvertimento**  
Se disabiliti o elimini la chiave KMS utilizzata per il tuo file system o revochi l'accesso di S3 Files alla chiave, il file system diventerà inaccessibile. Ciò può comportare la perdita di dati se non si dispone di backup. Assicurati sempre di disporre di procedure di backup adeguate prima di apportare modifiche alle chiavi di crittografia.

## Crittografia dei dati in transito
<a name="s3-files-encryption-in-transit"></a>

S3 Files richiede la crittografia dei dati in transito utilizzando Transport Layer Security (TLS). Quando monti il file system utilizzando il mount helper, tutti i dati che viaggiano tra il client e il file system vengono crittografati tramite TLS. Il mount helper inizializza il processo efs-proxy per stabilire una connessione TLS sicura con il file system. Il mount helper crea anche un processo chiamato amazon-efs-mount-watchdog che monitora lo stato dei mount e viene avviato automaticamente la prima volta che viene montato un file system S3. Garantisce che il processo efs-proxy di ogni mount sia in esecuzione e arresta il processo quando il file system viene smontato. Se per qualche motivo il processo viene interrotto in modo imprevisto, il processo watchdog lo riavvia.

Di seguito viene descritto come funziona la crittografia TLS in transito:

1. Viene stabilita una connessione TLS sicura tra il client e il file system

1. Tutto il traffico NFS viene instradato attraverso questa connessione crittografata

1. I dati vengono crittografati prima della trasmissione e decrittografati al momento della ricezione

La crittografia dei dati in transito modifica la configurazione del client NFS. Quando si ispezionano i tuoi file system montati, se ne vede uno montato all'indirizzo 127.0.0.1 o localhost, come nell'esempio seguente.

```
$ mount | column -t
127.0.0.1:/  on  /home/ec2-user/s3files        type  nfs4         (rw,relatime,vers=4.1,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=20127,timeo=600,retrans=2,sec=sys,clientaddr=127.0.0.1,local_lock=none,addr=127.0.0.1)
```

Il file system viene montato utilizzando il mount helper, che crittografa sempre i dati in transito utilizzando TLS. Pertanto, durante il montaggio, il client NFS viene riconfigurato per il montaggio su una porta locale.

# Come funziona S3 Files con IAM
<a name="s3-files-security-iam"></a>

Questa pagina descrive come funziona AWS Identity and Access Management (IAM) con S3 Files e come puoi utilizzare le policy IAM per controllare l'accesso ai tuoi file system.

S3 Files utilizza IAM per due tipi distinti di controllo degli accessi:
+ **Accesso alle API**: controlla chi può creare, gestire ed eliminare risorse di S3 Files come file system, destinazioni di montaggio e punti di accesso. Puoi controllare questo accesso utilizzando policy basate sull'identità collegate a utenti, gruppi o ruoli IAM.
+ **Accesso client**: controlla ciò che i client (le tue risorse di elaborazione montate) possono fare con il file system una volta che si connettono, ad esempio leggere, scrivere o accedere ai file come utente root. Questo accesso viene controllato utilizzando una combinazione di politiche basate sulle risorse, politiche basate sull'identità, punti di accesso e autorizzazioni POSIX.

Utilizzando IAM, è possibile consentire ai client di eseguire operazioni specifiche su un file system, incluso l'accesso di sola lettura, scrittura e root. Un'autorizzazione «consenti» per un'azione o in una policy di identità IAM o in una policy di risorse del file system consente l'accesso a tale azione. L'autorizzazione non deve essere concessa sia in una policy di identità sia in una policy delle risorse.

Le policy del bucket S3 sul bucket S3 collegato regolano anche l'accesso dalla risorsa di elaborazione e dal file system al bucket S3. È inoltre necessario assicurarsi che le policy relative ai bucket del bucket di origine non impediscano l'accesso dalla risorsa di elaborazione o dal file system. Per ulteriori dettagli, consulta le [politiche di Bucket per Amazon](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html) S3.

## Policy basate sull’identità
<a name="s3-files-security-iam-identity-based"></a>

Le politiche basate sull'identità sono politiche JSON che colleghi a utenti, gruppi o ruoli IAM. Puoi fornire queste autorizzazioni scrivendo policy personalizzate o allegando una policy gestita. AWS Per ulteriori informazioni sulle politiche gestite disponibili sia per l'accesso alle API che per l'accesso ai client, consulta [le politiche AWS gestite per Amazon S3 Files](s3-files-security-iam-awsmanpol.md).

S3 Files ottimizza anche le prestazioni di lettura consentendo ai client di leggere i dati dei file direttamente dal bucket S3 di origine. Quando monti un file system S3 sulla tua risorsa di calcolo, devi aggiungere una policy in linea al ruolo IAM della tua risorsa di elaborazione che conceda le autorizzazioni per leggere gli oggetti dal bucket S3 specificato. Il mount helper utilizza queste autorizzazioni per leggere i dati S3. Per maggiori dettagli su questa politica, vedi. [Ruolo IAM per collegare il file system alle risorse di AWS calcolo](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role)

## Policy basate sulle risorse
<a name="s3-files-security-iam-resource-based"></a>

Una policy del file system è una policy basata sulle risorse IAM che puoi allegare direttamente a un file system per controllare l'accesso dei client. È possibile utilizzare le policy del file system per concedere o negare le autorizzazioni ai client per eseguire operazioni come il montaggio, la scrittura e l'accesso root.

Un file system ha una politica del file system vuota (predefinita) o esattamente una politica esplicita. Le politiche del file system S3 hanno un limite di 20.000 caratteri. Per informazioni sulla creazione e la gestione delle politiche del file system, consulta. [Creazione di policy del file system](s3-files-file-system-policies-creating.md)

## Azioni S3 Files per i client
<a name="s3-files-security-iam-client-actions"></a>

È possibile specificare le seguenti azioni in una politica del file system per controllare l'accesso dei client:


| Azione | Description | 
| --- | --- | 
| s3files:ClientMount | Fornisce un accesso in sola lettura a un file system. | 
| s3files:ClientWrite | Fornisce le autorizzazioni di scrittura su un file system. | 
| s3files:ClientRootAccess | Fornisce la possibilità di utilizzare l'utente root quando si accede a un file system. | 

## S3 Files: chiavi di condizione per i client
<a name="s3-files-security-iam-condition-keys"></a>

È possibile utilizzare le seguenti chiavi di condizione nell'`Condition`elemento di una policy del file system per perfezionare ulteriormente il controllo degli accessi:


| Chiave di condizione | Description | Operatore | 
| --- | --- | --- | 
| s3files:AccessPointArn | ARN del punto di accesso S3 Files a cui si connette il client. | Stringa | 

## Esempi di policy del file system
<a name="s3-files-security-iam-policy-examples"></a>

### Esempio: concedere accesso in sola lettura
<a name="s3-files-security-iam-policy-example-readonly"></a>

La seguente politica del file system concede solo autorizzazioni `ClientMount` (di sola lettura) al ruolo IAM. `ReadOnly` Sostituiscilo *111122223333* con l'ID del tuo account. AWS 

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/ReadOnly"
            },
            "Action": [
                "s3files:ClientMount"
            ]
        }
    ]
}
```

### Esempio: concedi l'accesso a un punto di accesso S3 Files
<a name="s3-files-security-iam-policy-example-accesspoint"></a>

La seguente politica del file system utilizza un elemento condition per concedere a un punto di accesso specifico l'accesso completo al file system durante il montaggio tramite il punto di accesso specificato. Sostituisci l'ARN del punto di accesso e l'ID dell'account con i tuoi valori. Per ulteriori informazioni, consulta [Creazione di punti di accesso per un file system S3](s3-files-access-points-creating.md).

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::555555555555:role/S3FilesAccessPointFullAccess"
            },
            "Action": [
                "s3files:Client*"
            ],
            "Condition": {
                "StringEquals": {
                    "s3files:AccessPointArn": "arn:partition:s3files:region:account-id:file-system/fs-1234567890/access-point/fsap-0987654321"
                }
            }
        }
    ]
}
```

## Autorizzazioni POSIX
<a name="s3-files-security-iam-posix"></a>

Dopo il successo dell'autorizzazione IAM, S3 Files applica le autorizzazioni POSIX standard (in stile UNIX) a livello di file e directory. Le autorizzazioni POSIX controllano l'accesso in base all'ID utente (UID), all'ID di gruppo (GID) e ai bit di autorizzazione (lettura, scrittura ed esecuzione) associati a ciascun file e directory. Gli access point possono applicare un'identità utente POSIX specifica per tutte le richieste, semplificando la gestione degli accessi per i set di dati condivisi. Per ulteriori informazioni, consulta [Creazione di punti di accesso per un file system S3](s3-files-access-points-creating.md).

## Gruppi di sicurezza
<a name="s3-files-security-iam-security-groups"></a>

I gruppi di sicurezza agiscono come un firewall a livello di rete che controlla il traffico tra le risorse di elaborazione e le destinazioni di montaggio del file system. Per i dettagli sulla configurazione dei gruppi di sicurezza per iniziare a usare S3 Files, consulta. [Gruppi di sicurezza](s3-files-prereq-policies.md#s3-files-prereq-security-groups)

# AWS politiche gestite per Amazon S3 Files
<a name="s3-files-security-iam-awsmanpol"></a>

Una politica AWS gestita è una politica autonoma creata e amministrata da. AWS AWS le politiche gestite sono progettate per fornire autorizzazioni per molti casi d'uso comuni, in modo da poter iniziare ad assegnare autorizzazioni a utenti, gruppi e ruoli.

Tieni presente che le policy AWS gestite potrebbero non concedere le autorizzazioni con il privilegio minimo per i tuoi casi d'uso specifici, poiché sono disponibili per tutti i clienti. AWS Si consiglia pertanto di ridurre ulteriormente le autorizzazioni definendo [policy gestite dal cliente](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#customer-managed-policies) specifiche per i propri casi d’uso.

Non è possibile modificare le autorizzazioni definite nelle politiche gestite. AWS Se AWS aggiorna le autorizzazioni definite in una politica AWS gestita, l'aggiornamento ha effetto su tutte le identità principali (utenti, gruppi e ruoli) a cui è associata la politica. AWS è più probabile che aggiorni una policy AWS gestita quando ne Servizio AWS viene lanciata una nuova o quando diventano disponibili nuove operazioni API per i servizi esistenti.

Per ulteriori informazioni, consultare [Policy gestite da AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#aws-managed-policies) nella *Guida per l’utente di IAM*.

## AWS politica gestita: AmazonS3FilesFullAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesfullaccess"></a>

È possibile allegare la policy `AmazonS3FilesFullAccess` alle identità IAM. Questa policy garantisce l'accesso completo ai file di Amazon S3, incluse le autorizzazioni per creare e gestire file system, obiettivi di montaggio e punti di accesso. Per ulteriori informazioni su questa politica, consulta il AWS Managed Policy [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesFullAccess.html)Reference.

## AWS politica gestita: AmazonS3FilesReadOnlyAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesreadonlyaccess"></a>

È possibile allegare la policy `AmazonS3FilesReadOnlyAccess` alle identità IAM. Questa policy concede l'accesso in sola lettura ai file Amazon S3, incluse le autorizzazioni per visualizzare file system, destinazioni di montaggio, punti di accesso e configurazioni correlate. Per ulteriori informazioni su questa politica, consulta il Managed Policy Reference [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesReadOnlyAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesReadOnlyAccess.html). AWS 

## AWS politica gestita: AmazonS3FilesClientFullAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientfullaccess"></a>

È possibile allegare la policy `AmazonS3FilesClientFullAccess` alle identità IAM. Questa politica garantisce l'accesso completo del client ai file system S3 Files, inclusa la possibilità di montare, leggere, scrivere e accedere ai file come utente root. Per ulteriori informazioni su questa politica, consulta [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientFullAccess.html)il AWS Managed Policy Reference.

## AWS politica gestita: AmazonS3FilesClientReadWriteAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientreadwriteaccess"></a>

È possibile allegare la policy `AmazonS3FilesClientReadWriteAccess` alle identità IAM. Questa politica garantisce l'accesso dei client di lettura e scrittura ai file system S3 Files, inclusa la possibilità di montare, leggere e scrivere. Questa politica non concede l'accesso root. Per ulteriori informazioni su questa politica, consulta [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadWriteAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadWriteAccess.html)il AWS Managed Policy Reference.

## AWS politica gestita: AmazonS3FilesClientReadOnlyAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientreadonlyaccess"></a>

È possibile allegare la policy `AmazonS3FilesClientReadOnlyAccess` alle identità IAM. Questa politica garantisce l'accesso client in sola lettura ai file system S3 Files, inclusa la possibilità di montaggio e lettura dal file system. Per ulteriori informazioni su questa politica, consulta il Managed Policy [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadOnlyAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadOnlyAccess.html)Reference. AWS 

## AWS politica gestita: AmazonS3FilesCSIDriverPolicy
<a name="s3-files-security-iam-awsmanpol-amazons3filescsidriverpolicy"></a>

È possibile allegare la policy `AmazonS3FilesCSIDriverPolicy` alle identità IAM. Questa policy concede le autorizzazioni per il driver Amazon EFS Container Storage Interface (CSI) per gestire i punti di accesso S3 Files per conto dei cluster Amazon EKS. Per ulteriori informazioni su questa politica, consulta [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesCSIDriverPolicy.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesCSIDriverPolicy.html)il Managed Policy Reference. AWS 

## AWS politica gestita: AmazonElasticFileSystemUtils
<a name="s3-files-security-iam-awsmanpol-amazonelasticfilesystemutils"></a>

È possibile allegare la policy `AmazonElasticFileSystemUtils` alle identità IAM. Questa politica concede le autorizzazioni alle utilità client di S3 Files (amazon-efs-utils) per eseguire operazioni come la descrizione delle destinazioni di montaggio, la pubblicazione di CloudWatch metriche e log e la comunicazione con Systems Manager. AWS Per ulteriori informazioni su questa politica, consulta il Managed Policy Reference. [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonElasticFileSystemUtils.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonElasticFileSystemUtils.html) AWS 

## Amazon S3 Files: aggiornamenti alle AWS politiche gestite
<a name="s3-files-security-iam-awsmanpol-updates"></a>

Visualizza i dettagli sugli aggiornamenti delle policy AWS gestite per Amazon S3 Files da quando S3 Files ha iniziato a tenere traccia di queste modifiche.


| Modifica | Descrizione | Data | 
| --- | --- | --- | 
|  `AmazonElasticFileSystemUtils`— Aggiornato  |  Sono state aggiunte CloudWatch PutMetricData le autorizzazioni Amazon per supportare i parametri di connettività dei client di pubblicazione.  | 7 aprile 2026 | 
|  `AmazonS3FilesCSIDriverPolicy`— Aggiunto  |  Nuova policy gestita che concede le autorizzazioni per il driver CSI di Amazon EFS per gestire i punti di accesso S3 Files per conto dei cluster Amazon EKS.  | 7 aprile 2026 | 
|  `AmazonS3FilesClientReadOnlyAccess`— Aggiunto  |  Nuova politica gestita che garantisce l'accesso client in sola lettura ai file system S3 Files.  | 7 aprile 2026 | 
|  `AmazonS3FilesClientReadWriteAccess`— Aggiunto  |  Nuova politica gestita che garantisce l'accesso dei client di lettura e scrittura ai file system S3 Files.  | 7 aprile 2026 | 
|  `AmazonS3FilesClientFullAccess`— Aggiunto  |  Nuova politica gestita che garantisce l'accesso completo del client ai file system S3 Files, incluso l'accesso root.  | 7 aprile 2026 | 
|  `AmazonS3FilesReadOnlyAccess`— Aggiunto  |  Nuova politica gestita che garantisce l'accesso in sola lettura alle risorse di S3 Files.  | 7 aprile 2026 | 
|  `AmazonS3FilesFullAccess`— Aggiunto  |  Nuova politica gestita che garantisce l'accesso completo alle risorse di S3 Files.  | 7 aprile 2026 | 
|  S3 Files ha iniziato a tracciare le modifiche  |  Amazon S3 Files ha iniziato a tenere traccia delle modifiche per le sue politiche AWS gestite.  | 7 aprile 2026 | 

# Come vengono misurati i file S3
<a name="s3-files-metering"></a>

I prezzi di S3 Files si basano su due dimensioni: la quantità di dati archiviati nello storage ad alte prestazioni del file system e le operazioni sul file system eseguite dalle applicazioni e dal processo di sincronizzazione. Questa pagina spiega come viene misurata ogni dimensione in modo da poter comprendere e ottimizzare i costi.

Per i prezzi correnti, consulta i prezzi di [Amazon S3](https://aws.amazon.com/s3/pricing/).

## Come viene misurato lo storage del file system
<a name="s3-files-metering-storage"></a>

Quando lavori con i file tramite il tuo file system S3, S3 Files archivia i dati che utilizzi attivamente dal tuo bucket S3 sullo storage ad alte prestazioni del file system. Paghi per la quantità di dati che risiede nello storage ad alte prestazioni del file system, misurata in GB al mese. Ciò include i dati che sono stati copiati dal tuo bucket S3, i dati che hai scritto tramite il file system e i metadati per i tuoi file e le tue directory.

Se un file nel tuo file system non è stato letto entro una finestra configurabile (da 1 a 365 giorni, impostazione predefinita 30 giorni) e le sue modifiche sono già state sincronizzate con il tuo bucket S3, S3 Files rimuove automaticamente i dati di quel file dallo storage ad alte prestazioni del file system. In questo modo i costi di storage restano proporzionali al set di dati di lavoro attivo anziché alla dimensione totale del bucket S3. I tuoi dati rimangono archiviati in modo sicuro nel tuo bucket S3. S3 Files rimuove solo la copia dallo storage ad alte prestazioni del file system. La prossima volta che leggi quel file, S3 Files recupera la versione più recente dell'oggetto corrispondente dal bucket S3 e la copia nuovamente nello storage ad alte prestazioni del file system. Per ulteriori informazioni, consulta [Comprendere come funziona la sincronizzazione](s3-files-synchronization.md).

## Come vengono misurate le operazioni del file system
<a name="s3-files-metering-operations"></a>

S3 Files misura ogni operazione del file system come lettura o scrittura. Ogni operazione ha una dimensione minima misurata.

Le **letture dei dati**, ad esempio la lettura del contenuto di un file, vengono misurate in base alla dimensione dei dati letti, con un minimo di 32 KB per operazione di lettura. Ci sono anche casi in cui una lettura viene fornita direttamente dal bucket S3 (vedi sotto) per l'ottimizzazione delle prestazioni e tali operazioni non vengono misurate per i dati letti ma solo per una lettura di metadati di 4 KB.

Le **scritture di dati**, ad esempio la scrittura o l'aggiunta a un file, vengono misurate in base alla dimensione dei dati scritti, con un minimo di 32 KB per operazione di scrittura.

**Le operazioni sui metadati**, come l'elenco di una directory, la visualizzazione degli attributi dei file, la creazione o l'eliminazione di file e directory, la ridenominazione e la modifica delle autorizzazioni, vengono misurate come letture a 4 KB per operazione. L'operazione di commit (attivata `fsync` o di chiusura del file dopo la scrittura) è l'unica operazione sui metadati misurata come scrittura, con un peso di 4 KB.

Tutte le dimensioni misurate vengono arrotondate al limite successivo di 1 KB.

## Come vengono misurate le letture quando vengono fornite direttamente da Amazon S3
<a name="s3-files-metering-s3-reads"></a>

Per letture di almeno 128 KB su dati già sincronizzati con S3, S3 Files trasmette automaticamente lo streaming direttamente da S3 anche se i dati risiedono nello storage ad alte prestazioni, poiché S3 è ottimizzato per un throughput elevato mentre lo storage ad alte prestazioni del file system è ottimizzato per l'accesso a file di piccole dimensioni a bassa latenza.

In questi casi, paghi per le richieste S3 GET anziché per le letture dei dati del file system. S3 Files misura solo un'operazione di lettura dei metadati di 4 KB per tali letture.

## Come viene misurata la sincronizzazione
<a name="s3-files-metering-sync"></a>

S3 Files mantiene il file system e il bucket S3 collegato sincronizzati automaticamente. Queste operazioni di sincronizzazione vengono contabilizzate come operazioni del file system, oltre ai costi di richiesta S3 standard che S3 Files sostiene per conto dell'utente.

**Importazione di dati sul file system:** quando S3 Files copia i dati dal bucket S3 sullo storage ad alte prestazioni del file system, l'operazione viene misurata come scrittura del file system. Ciò include i dati che vengono copiati quando si accede per la prima volta a una directory, quando si legge un file i cui dati non si trovano sullo storage ad alte prestazioni del file system e quando S3 Files riflette le modifiche apportate direttamente al bucket S3. La dimensione misurata è la quantità di dati scritti nello storage ad alte prestazioni del file system.

**Esportazione delle modifiche nel bucket S3:** quando S3 Files copia le modifiche del file system nel bucket S3, l'operazione viene misurata come lettura del file system. Ai fini di questo addebito vengono conteggiati solo i dati letti dal file system. Se il file modificato contiene dati che non sono mai stati copiati sullo storage ad alte prestazioni del file system, quella parte dei dati viene letta dal bucket S3 al prezzo di richiesta S3 GET e non comporta alcun costo di lettura del file system. Ad esempio, se aggiungi dati a un file, S3 Files utilizza caricamenti in più parti per evitare di importare l'intero oggetto nello storage ad alte prestazioni del file system prima di aggiungervi dati. Ciò ottimizza i costi di archiviazione del file system.

**Operazioni di ridenominazione e spostamento:** S3 non ha un concetto nativo di directory. Ciò che appare come una directory nel file system è un prefisso comune condiviso dalle chiavi degli oggetti all'interno del bucket S3. Inoltre, gli oggetti S3 sono immutabili e non supportano le ridenominazioni atomiche. Di conseguenza, quando rinomini o sposti un file, S3 Files deve scrivere i dati su un nuovo oggetto con la chiave aggiornata (misurata come richiesta PUT S3) ed eliminare l'originale. La sincronizzazione delle operazioni di ridenominazione monitora anche la lettura da parte del file system di tutti i dati letti dal file system. Se i dati del file non sono mai stati copiati sullo storage ad alte prestazioni del file system, il file system rileva solo un'operazione di lettura dei metadati di 4 KB. Quando rinomini o sposti una directory, S3 Files deve ripetere questo processo (e misurare) per ogni oggetto che condivide quel prefisso. Per ulteriori informazioni, consulta [Comprendere l'impatto delle operazioni di ridenominazione e spostamento](s3-files-synchronization.md#s3-files-sync-rename-move).

**Scadenza dei dati:** quando S3 Files rimuove i dati inutilizzati dal file system, non vengono applicati costi operativi del file system.

## Esempi di misurazione
<a name="s3-files-metering-examples"></a>

**Elencare una directory di grandi dimensioni per la prima volta**

Quando elenchi una directory per la prima volta, S3 Files importa i metadati per tutti i file in quella directory. L'importazione di metadati di ogni file viene misurata come scrittura di 4 KB. A seconda della configurazione di importazione, S3 Files può anche precaricare e copiare i dati per i file di piccole dimensioni in quella directory sullo storage ad alte prestazioni del file system per ottimizzare le prestazioni. L'importazione di dati di ogni file viene misurata come scrittura alla dimensione del file (minimo 32 KB). Puoi controllare quali file hanno i relativi dati importati configurando le tue regole di importazione. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).

**Leggere un file di grandi dimensioni**

Per letture di almeno 128 KB su dati che sono già stati sincronizzati con S3, S3 Files trasmette lo streaming direttamente da S3 anche se i dati risiedono nello storage ad alte prestazioni, poiché S3 è ottimizzato per un throughput elevato mentre il livello di storage ad alte prestazioni del file system è ottimizzato per l'accesso a file di piccole dimensioni a bassa latenza. Paghi il prezzo della richiesta S3 GET insieme a un'operazione di lettura dei metadati di 4 KB. Non è previsto alcun costo per la lettura dei dati del file system.

**Lettura di un file di piccole dimensioni che non si trova nello storage ad alte prestazioni del file system**

S3 Files legge i dati dal bucket S3 e li invia al client e li importa in modo asincrono nello storage ad alte prestazioni del file system in modo che le letture future siano più veloci. Questo viene misurato come file system letto in base alla dimensione dei dati trasferiti (minimo 32 KB). L'importazione asincrona di dati nello storage ad alte prestazioni del file system viene misurata come scrittura in base alla dimensione dei dati trasferiti. Un processo simile viene seguito quando si legge un file i cui dati sono scaduti dal file system. La scadenza dei dati non comporta costi operativi aggiuntivi per il file system.

**Scrittura di un file**

La scrittura viene misurata come scrittura del file system in base alla dimensione dei dati scritti (minimo 32 KB). Circa 60 secondi dopo l'ultima scrittura, S3 Files copia il file nel bucket S3. Questo perché quando modifichi un file nel file system, S3 Files attende fino a 60 secondi, aggregando tutte le modifiche successive al file in quel lasso di tempo, prima di copiarlo nel tuo bucket S3. Ciò significa che le scritture successive rapide sullo stesso file vengono acquisite in una singola richiesta S3 PUT anziché generare una nuova versione dell'oggetto per ogni singola modifica, riducendo i costi delle richieste S3 e i costi di archiviazione. Questa sincronizzazione viene misurata come un file system letto per i dati letti dallo storage ad alte prestazioni del file system, oltre a una richiesta PUT S3 standard.

# Le migliori pratiche per i file S3
<a name="s3-files-best-practices"></a>

Questa pagina descrive le migliori pratiche consigliate per lavorare con i file system S3.

## Ottimizzazione delle prestazioni e dei costi
<a name="s3-files-best-practices-performance"></a>
+ **Parallelizza i tuoi carichi di lavoro**: S3 Files è progettato per supportare carichi di lavoro altamente paralleli. La distribuzione delle letture su più file e più istanze di calcolo aiuta a massimizzare il throughput aggregato. Puoi anche creare più file system con diversi prefissi specifici all'interno dello stesso bucket (anziché creare un file system per l'intero bucket) per scalare orizzontalmente e migliorare la produttività aggregata.
+ **Definisci il file system con il prefisso più piccolo necessario per il carico di lavoro per ridurre al minimo l'impatto delle ridenominazioni: S3 non ha un concetto nativo di directory**. Quando rinomini o sposti una directory, S3 Files deve scrivere i dati su un nuovo oggetto con la chiave aggiornata ed eliminare l'originale per ogni file in quella directory. La ridenominazione di directory con decine di milioni di file può aumentare significativamente i costi delle richieste S3 e i tempi di sincronizzazione. Adattate il file system al set di dati attivo oppure strutturate i dati in modo che le directory che intendete rinominare contengano meno file. Per ulteriori informazioni, consulta [Comprendere l'impatto delle operazioni di ridenominazione e spostamento](s3-files-synchronization.md#s3-files-sync-rename-move).
+ **Utilizzate I/O di grandi dimensioni**: S3 Files misura ogni operazione di lettura e scrittura a almeno 32 KB. L'utilizzo di I/O di dimensioni maggiori (1 MB o più) ammortizza il sovraccarico per operazione ed è più conveniente rispetto a molte letture o scritture di piccole dimensioni. Quando si utilizza il mount helper, le dimensioni predefinite del buffer di lettura e scrittura NFS sono impostate su 1 MB per prestazioni ottimali.
+ **Ottimizzate il sizeLessThan valore della configurazione di importazione in base alle dimensioni dei file**: per impostazione predefinita, S3 Files memorizza nella cache i dati per i file di dimensioni inferiori a 128 KB quando accedete per la prima volta a una directory. I file più grandi di questa soglia vengono letti direttamente da S3. Se il tuo carico di lavoro esegue letture di piccole dimensioni e sensibili alla latenza su file di grandi dimensioni, aumenta la sizeLessThan soglia in modo che corrisponda alle dimensioni dei file di cui hai bisogno sullo storage ad alte prestazioni del file system per un accesso a bassa latenza. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).
+ **Imposta le finestre di scadenza in modo che corrispondano al ciclo di vita del carico di lavoro**: i dati che non sono stati letti entro la finestra di scadenza vengono rimossi automaticamente dal file system. Per carichi di lavoro di breve durata, come lavori in batch o sessioni di formazione, utilizza una scadenza più breve (1—7 giorni) per ridurre al minimo i costi di storage. Per i carichi di lavoro che rivisitano gli stessi dati per settimane, utilizza una scadenza più lunga (30—90 giorni) per continuare a beneficiare della bassa latenza. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).
+ **Utilizza regole con ambito prefisso per carichi di lavoro misti**: se il bucket contiene dati con accesso frequente e dati ad accesso raro, crea regole di importazione separate per ogni prefisso. Ciò consente di importare i dati in modo aggressivo per i prefissi caldi, mantenendo i prefissi freddi solo per i metadati. Per ulteriori informazioni, consulta [Personalizzazione della sincronizzazione per i file S3](s3-files-synchronization-customizing.md).
+ **Crea un target di montaggio in ogni zona di disponibilità**: ti consigliamo di creare un target di montaggio in ogni zona di disponibilità in cui operi in modo da ridurre i costi di trasferimento dei dati tra le varie zone di disponibilità e migliorare le prestazioni. Ciò garantisce che le risorse di elaborazione abbiano sempre un percorso di rete locale verso il file system, migliorando sia la disponibilità che la latenza. Quando crei un file system utilizzando la console di AWS gestione, S3 Files crea automaticamente una destinazione di montaggio in ogni zona di disponibilità nel VPC selezionato.

## Sincronizzazione
<a name="s3-files-best-practices-sync"></a>
+ **Comprendi il modello di consistenza di S3 Files**: quando un file nel file system viene modificato contemporaneamente all'oggetto corrispondente nel bucket S3, S3 Files considera il bucket S3 come fonte di verità e lo sposta nella directory lost and found. Per evitare conflitti, designa un percorso (file system o S3) come autore principale.
+ **Monitora lo stato della sincronizzazione**: utilizza le CloudWatch metriche per tenere traccia dello stato della sincronizzazione tra il file system e il bucket S3. Un aumento `PendingExports` indica che il carico di lavoro sta generando modifiche più velocemente della velocità di sincronizzazione, il che significa che il completamento della sincronizzazione richiederà più tempo. Una `ExportFailures` CloudWatch metrica diversa da zero indica i file che non possono essere esportati e richiedono un'azione. Per ulteriori informazioni, consulta [Risoluzione dei problemi relativi ai file S3](s3-files-troubleshooting.md).

## Controllo accessi
<a name="s3-files-best-practices-access"></a>
+ **Segui il principio del privilegio minimo**: concedi solo le autorizzazioni minime richieste per ogni ruolo IAM e policy del file system. Ad esempio, se una risorsa di elaborazione deve solo leggere i dati dal file system, allega invece la policy `AmazonS3FilesClientReadOnlyAccess` gestita. `AmazonS3FilesClientFullAccess` Inoltre, prendete in considerazione la possibilità di creare un file system basato su un prefisso specifico anziché sull'intero bucket, in modo che i client possano accedere solo ai dati all'interno di quel prefisso.
+ **Non modificare il ruolo IAM di S3 Files: non modificare o eliminare il ruolo IAM** che S3 Files presuppone per la sincronizzazione con il bucket S3. La modifica o la rimozione di questo ruolo può interrompere la sincronizzazione tra il file system e il bucket S3.
+ **Non modificare la regola S3 Files: S3 Files crea una EventBridge EventBridge regola** (con il prefisso DO-NOT-DELETE-S 3-Files) per rilevare le modifiche nel bucket S3. Non disattivate, modificate o eliminate questa regola. La sua rimozione impedisce a S3 Files di rilevare oggetti nuovi o modificati nel bucket, causando l'obsolescenza del file system.
+ **Prendi in considerazione la possibilità di limitare l'accesso ai log scritti da `efs-utils`**: `efs-utils` scrive i nomi delle chiavi degli oggetti S3 direttamente nei log che memorizza nella directory. `/var/log/amazon/efs` Se i nomi delle chiavi S3 contengono informazioni riservate, è necessario limitare l'accesso a questa directory tramite le autorizzazioni POSIX. Ad esempio, è possibile limitare l'accesso tramite il comando. `sudo chmod 700 /var/log/amazon/efs`

## Monitoraggio
<a name="s3-files-best-practices-monitoring"></a>
+ **Imposta allarmi in caso di errori di sincronizzazione: attiva** gli CloudWatch allarmi `ImportFailures` e ricevi una notifica quando i file non riescono `ExportFailures` a sincronizzarsi. Le esportazioni non riuscite possono indicare problemi di autorizzazione, problemi con le chiavi di crittografia o limiti di lunghezza del percorso. Per ulteriori informazioni, consulta [Risoluzione dei problemi relativi ai file S3](s3-files-troubleshooting.md).

# Funzionalità, limiti e quote non supportati
<a name="s3-files-quotas"></a>

Questa pagina descrive le limitazioni e le quote quando si utilizzano i file S3.

## Funzionalità S3 non supportate
<a name="s3-files-unsupported-s3-features"></a>
+ **Classi di archiviazione: non è possibile accedere agli oggetti nelle classi** di archiviazione S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive tramite il file system. Allo stesso modo, non è possibile accedere agli oggetti nei livelli S3 Intelligent-Tiering Archive Access o Deep Archive Access tramite il file system. È necessario innanzitutto ripristinare questi oggetti utilizzando l'API S3.
+ Elenchi di **controllo degli accessi S3 (ACLs): gli elenchi** di controllo degli accessi S3 non ACLs vengono conservati dopo che le modifiche sono state apportate tramite il file system. Ti consigliamo di mantenere ACLs disabilitato e utilizzare policy per controllare l'accesso a tutti gli oggetti nel tuo bucket, indipendentemente da chi ha caricato gli oggetti nel tuo bucket. Per ulteriori informazioni, consulta [Gestire l'accesso](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acls.html) con. ACLs
+ Metadati **personalizzati degli oggetti S3: i metadati** personalizzati definiti dall'utente sugli oggetti S3 non vengono conservati dopo le modifiche apportate tramite il file system.

## Limitazioni del file system
<a name="s3-files-filesystem-limitations"></a>
+ **Collegamenti fisici**: S3 Files non supporta i collegamenti fisici. Ogni file nel file system corrisponde a una singola chiave oggetto S3.
+ **Dimensione del componente del percorso**: S3 Files non supporta oggetti in cui una singola directory o nome di file nel percorso supera i 255 byte. Un componente del percorso è un nome di directory o di file derivato da una chiave oggetto S3. Ad esempio, la chiave `dir1/dir2/file.txt` ha tre componenti del percorso: `dir1``dir2`, e`file.txt`.
+ Limite di **dimensione della chiave S3: i file o le directory il cui nome di percorso completo supera il limite** di dimensione della chiave dell'oggetto S3 di 1.024 byte non possono essere esportati in S3.
+ **Destinazioni Symlink**: se un oggetto S3 è un collegamento simbolico, la sua destinazione deve essere un percorso valido che non sia vuoto e non superi i 4.080 byte.
+ **Dimensione dei metadati delle autorizzazioni POSIX: i file o le directory in cui i metadati** delle autorizzazioni POSIX superano i 2 KB non possono essere esportati in S3.

## Quote
<a name="s3-files-quotas-resource"></a>

Le seguenti quote possono essere aumentate contattando l' AWS assistenza.


| Risorsa | Quota predefinita | 
| --- | --- | 
| File system per account AWS  | 1.000 | 
| Punti di accesso per file system | 10.000 | 

Per richiedere un aumento, apri il [AWS Support Center](https://console.aws.amazon.com/support/home), scegli **Create Case**, quindi scegli **Service Limit Increase**.

Le seguenti quote non possono essere modificate.


| Risorsa | Quota | 
| --- | --- | 
| Connessioni per file system | 25.000 | 
| Monta le destinazioni per file system per zona di disponibilità | 1 | 
| Gruppi di sicurezza per destinazione di montaggio | 5 | 
| Tag per file system | 50 | 
| VPCs per file system | 1 | 

Esistono anche quote specifiche per i singoli file system.


| Risorsa | Quota | 
| --- | --- | 
| Dimensione massima dei file | 52.673.613.135.872 byte (48 TiB) | 
| Profondità massima della directory | 1.000 livelli | 
| Lunghezza massima del nome del file | 255 byte | 
| Lunghezza massima del target del symlink | 4.080 byte | 
| Lunghezza massima della chiave dell'oggetto S3 | 1.024 byte | 
| Numero massimo di file aperti per client | 32,768 | 
| Numero massimo di account utente attivi per cliente | 128 | 
| Numero massimo di blocchi per file | 512 su tutte le istanze connesse | 
| Numero massimo di chiusure per montaggio | 8.192 su un massimo di 256 coppie file-processo | 
| Limite di dimensione delle politiche del file system | 20.000 caratteri | 

## Funzionalità NFS non supportate
<a name="s3-files-unsupported-nfs"></a>

S3 Files supporta i formati NFSv4 .1 e NFSv4 .2, con le seguenti eccezioni:
+ pNFS
+ Delega o callback del client
+ Chiusura obbligatoria (tutte le serrature sono indicative)
+ Deny share
+ Liste di controllo degli accessi () ACLs
+ Sicurezza basata su Kerberos
+ NFSv41. Conservazione dei dati
+ SetUID su cartelle
+ Dispositivi a blocchi, dispositivi a caratteri, cartelle di attributi e attributi denominati
+ L'opzione di `nconnect` montaggio

# Risoluzione dei problemi relativi ai file S3
<a name="s3-files-troubleshooting"></a>

Questa pagina consente di diagnosticare e risolvere i problemi più comuni relativi ai file S3.
+ [Il comando Mount non riesce](#s3-files-troubleshooting-mount-fails)
+ [Autorizzazione negata sulle operazioni sui file](#s3-files-troubleshooting-permission-denied)
+ [Il routing di lettura intelligente non funziona](#s3-files-troubleshooting-read-routing)
+ [Il file system restituisce costantemente l'errore del server NFS](#s3-files-troubleshooting-encrypted-fs)
+ [Oggetto mancante nel bucket S3 dopo la scrittura del file system](#s3-files-troubleshooting-missing-object)
+ [File che compaiono nella directory degli oggetti smarriti](#s3-files-troubleshooting-lost-found)
+ [La sincronizzazione è in ritardo](#s3-files-troubleshooting-sync-behind)
+ [Attivazione dei log di debug del client](#s3-files-troubleshooting-debug-logs)

## Il comando Mount non riesce
<a name="s3-files-troubleshooting-mount-fails"></a>

Il `mount -t s3files` comando ha esito negativo e restituisce un errore.

**Cause e azioni comuni:**
+ **«mount.s3files: command not found»** — Il client S3 Files (amazon-efs-utils) non è installato o è precedente alla versione 3.0.0. Installa o aggiorna il client. Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md).
+ **«Impossibile risolvere il nome DNS del file system»**: non esiste una destinazione di montaggio nella zona di disponibilità in cui è in esecuzione l'istanza EC2. Crea una destinazione di montaggio in quella zona di disponibilità o avvia l'istanza in una zona di disponibilità con una destinazione di montaggio. Per ulteriori informazioni, consulta [Creazione di destinazioni di montaggio](s3-files-mount-targets-creating.md).
+ **Connessione scaduta**: la configurazione del gruppo di sicurezza non consente il traffico NFS. Verifica che il gruppo di sicurezza del target di montaggio consenta il TCP in entrata sulla porta 2049 dal gruppo di sicurezza dell'istanza e che il gruppo di sicurezza dell'istanza consenta il TCP in uscita sulla porta 2049 verso il gruppo di sicurezza del target di montaggio. Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md).
+ **«Accesso negato» durante il montaggio**: il ruolo IAM collegato alla risorsa di calcolo non dispone delle autorizzazioni S3 Files richieste. Verifica che al ruolo sia associata la policy `AmazonS3FilesClientFullAccess` o la policy `AmazonS3FilesClientReadOnlyAccess` gestita, o almeno l'autorizzazione. `s3files:ClientMount` Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md).
+ **botocore non installato**: il mount helper richiede che botocore interagisca con i servizi. AWS Installa botocore seguendo le istruzioni nel README su. amazon-efs-utils GitHub

## Autorizzazione negata sulle operazioni sui file
<a name="s3-files-troubleshooting-permission-denied"></a>

È possibile montare il file system ma vengono visualizzati gli errori «Autorizzazione negata» o «Operazione non consentita» durante la lettura, la scrittura o l'accesso ai file.

**Cause e azioni comuni:**
+ **Autorizzazione di scrittura mancante**: se riesci a leggere ma non a scrivere, verifica che il ruolo IAM associato alla risorsa di elaborazione includa l'`s3files:ClientWrite`autorizzazione oppure allega la policy `AmazonS3FilesClientReadWriteAccess` o la policy `AmazonS3FilesClientFullAccess` gestita. Per ulteriori informazioni, consulta [le politiche AWS gestite per Amazon S3 Files](s3-files-security-iam-awsmanpol.md).
+ **Accesso root mancante**: se ricevi errori di autorizzazione durante l'accesso a file di proprietà di root (UID 0), il tuo ruolo IAM potrebbe non disporre dell'`s3files:ClientRootAccess`autorizzazione. Senza questa autorizzazione, tutte le operazioni vengono eseguite come utente anonimo NFS (in genere nfsnobody), che potrebbe non avere accesso ai file. Allega la policy `AmazonS3FilesClientFullAccess` gestita o aggiungila `s3files:ClientRootAccess` alla tua policy.
+ **Politica del file system che nega l'accesso**: se hai allegato una politica del file system, verifica che non neghi le azioni necessarie ai tuoi clienti. Un «permesso» nella politica basata sull'identità o nella politica del file system è sufficiente per l'accesso. Per ulteriori informazioni, consulta [Come funziona S3 Files con IAM](s3-files-security-iam.md).
+ **Mancata corrispondenza delle autorizzazioni POSIX**: S3 Files applica le autorizzazioni POSIX standard (proprietario, gruppo, altri) su file e directory. Se l'applicazione viene eseguita come utente che non corrisponde al proprietario o al gruppo del file, l'accesso può essere negato anche se le autorizzazioni IAM sono corrette. Utilizza un punto di accesso per applicare uno specifico UID/GID per tutte le richieste. Per ulteriori informazioni, consulta [Creazione di punti di accesso per un file system S3](s3-files-access-points-creating.md).

## Il routing di lettura intelligente non funziona
<a name="s3-files-troubleshooting-read-routing"></a>

S3 Files esegue un routing di lettura intelligente in quanto indirizza automaticamente le richieste di lettura al livello di archiviazione più adatto a loro, mantenendo al contempo la semantica completa del file system, tra cui coerenza, blocco e autorizzazioni POSIX. Le letture casuali di piccole dimensioni dei file utilizzati attivamente vengono eseguite dallo storage ad alte prestazioni per una bassa latenza. Le letture sequenziali di grandi dimensioni e le letture di dati non presenti nel file system vengono eseguite direttamente dal bucket S3 per un throughput elevato, senza costi per i dati del file system.

Il routing di lettura intelligente potrebbe non funzionare se una delle metriche di connettività del client (`NFSConnectionAccessible`,`S3BucketAccessible`, and`S3BucketReachable`) mostra 0 o se non viene visualizzato il throughput di lettura previsto.

**Cause e azioni comuni:**
+ **Policy in linea S3 mancante sul ruolo di elaborazione: il ruolo** IAM associato alla risorsa di elaborazione deve includere una concessione di policy in linea `s3:GetObject` e `s3:GetObjectVersion` sul bucket S3 collegato. Senza questa policy, il mount helper non può leggere direttamente da S3 e tutte le letture passano attraverso il file system. Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md).
+ Il **bucket S3 non è raggiungibile**: controlla la metrica. `S3BucketReachable` Se mostra 0, verifica che la risorsa di elaborazione abbia accesso di rete a S3 (ad esempio, tramite un endpoint VPC o un gateway NAT).
+ **Il file è stato modificato**: le letture vengono fornite direttamente da S3 solo quando il file non è stato modificato tramite il file system. Se hai scritto sul file e le modifiche non sono ancora state sincronizzate su S3, le letture passano attraverso il file system fino al completamento della sincronizzazione.

## Il file system restituisce costantemente l'errore del server NFS
<a name="s3-files-troubleshooting-encrypted-fs"></a>

Un file system crittografato restituisce regolarmente errori del server NFS. Questi errori possono verificarsi quando S3 Files non è in grado di recuperare la chiave KMS da AWS KMS per uno dei seguenti motivi:
+ La chiave è stata disabilitata.
+ La chiave è stata eliminata.
+ L'autorizzazione per S3 Files a utilizzare la chiave è stata revocata.
+ AWS KMS è temporaneamente non disponibile.

**Operazione da eseguire**

Innanzitutto, verifica che la chiave AWS KMS sia abilitata. Puoi visualizzare le tue chiavi nella console AWS KMS. Per ulteriori informazioni, consulta [Visualizzazione di chiavi](https://docs.aws.amazon.com/kms/latest/developerguide/viewing-keys.html) nella *Guida per gli sviluppatori del Servizio AWS di gestione delle chiavi*.

Se la chiave non è abilitato, abilitarla. Per ulteriori informazioni, consulta [Abilitazione e disabilitazione delle chiavi](https://docs.aws.amazon.com/kms/latest/developerguide/enabling-keys.html) nella *Guida per gli sviluppatori del Servizio AWS di gestione delle chiavi*.

Se la chiave è in attesa di cancellazione, annulla l'eliminazione e riattiva la chiave. *Per ulteriori informazioni, consulta [Pianificazione e annullamento dell'eliminazione delle chiavi nella Key Management Service Developer](https://docs.aws.amazon.com/kms/latest/developerguide/deleting-keys.html)AWS Guide.*

Se la chiave è abilitata e i problemi persistono, contatta l' AWS assistenza.

## Oggetto mancante nel bucket S3 dopo la scrittura del file system
<a name="s3-files-troubleshooting-missing-object"></a>

Hai scritto un file tramite il file system e ti aspettavi che apparisse come oggetto nel bucket S3, ma l'oggetto non c'è. S3 Files memorizza le modifiche in batch per circa 60 secondi prima di copiarle su S3. Se l'oggetto continua a non essere visualizzato, l'esportazione potrebbe non essere riuscita. In tal caso, si vedrà l'aumento della `FailedExports` CloudWatch metrica.

**Operazione da eseguire**

Controlla lo stato di esportazione del file utilizzando gli attributi estesi:

```
getfattr -n "user.s3files.status;$(date -u +%s)" missing-file.txt --only-values
```

Il timestamp nel nome dell'attributo ti assicura di ottenere lo stato più recente. Output di esempio:

```
S3Key: s3://bucket/prefix/missing-file.txt
ExportError: PathTooLong
```

`ExportError`non viene visualizzato se non si verifica un errore di esportazione. `S3Key`è vuoto se un oggetto S3 non è mai stato collegato al file.

La tabella seguente elenca tutti i `ExportError` valori possibili:


| Errore | Causa | 
| --- | --- | 
| S3AccessDenied | Il ruolo IAM assunto da S3 Files non dispone di autorizzazioni sufficienti per scrivere nel bucket S3. Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md). | 
| S3BucketNotFound | Il bucket S3 di origine non esiste più o è stato rinominato. Verifica che esista nella AWS regione e nell'account previsti. | 
| InternalError | Si è verificato un errore interno del sistema. | 
| S3UserMetadataTooLarge | Il limite di dimensione dei metadati utente S3 è stato superato. [Funzionalità, limiti e quote non supportati](s3-files-quotas.md)Per informazioni su questi limiti, consulta. | 
| FileSizeExceedsS3Limit | La dimensione del file supera il limite di dimensione degli oggetti S3. [Funzionalità, limiti e quote non supportati](s3-files-quotas.md)Per informazioni su questi limiti, consulta. | 
| EncryptionKeyInaccessible | La chiave di crittografia utilizzata dal bucket S3 è inaccessibile ai file S3. Concedi a S3 Files l'accesso alla tua chiave di crittografia. Per ulteriori informazioni, consulta [Encryption (Crittografia)](s3-files-encryption.md). | 
| RoleAssumptionFailed | Impossibile assumere il ruolo. Controlla le tue politiche di fiducia. Per ulteriori informazioni, consulta [Prerequisiti per i file S3](s3-files-prereq-policies.md). | 
| KeyTooLongToBreakCycle | S3 Files non è riuscito a risolvere una dipendenza circolare (ad esempio, a causa della ridenominazione di due file con il nome dell'altro) perché il percorso del file supera il limite di lunghezza della chiave S3. Abbrevia il percorso della directory per risolvere questo errore. | 
| PathTooLong | Il percorso del file supera il limite di lunghezza della chiave S3. [Funzionalità, limiti e quote non supportati](s3-files-quotas.md)Per informazioni su questi limiti, consulta. | 
| DependencyExportFailed | Un genitore o una dipendenza presenta un errore di esportazione irreversibile. Controlla lo stato del genitore o di eventuali dipendenze che lo utilizzano. getfattr | 
| S3ObjectArchived | L'oggetto S3 è archiviato (S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive) e non può essere letto. Ripristina prima l' APIsoggetto usando S3. | 

S3 Files riprova automaticamente le esportazioni non riuscite. `ExportError`viene visualizzato solo per gli errori non riutilizzabili.

## File che compaiono nella directory degli oggetti smarriti
<a name="s3-files-troubleshooting-lost-found"></a>

I file sono comparsi nella `.s3files-lost+found-file-system-id` directory della directory principale del file system. In questo caso, si vede l'aumento della `LostAndFoundFiles` CloudWatch metrica. Ciò si verifica quando si verifica un conflitto di sincronizzazione. Si verifica un conflitto quando lo stesso file viene modificato tramite il file system e l'oggetto S3 corrispondente cambia prima che S3 Files sincronizzi le modifiche del file system con S3. S3 Files considera il bucket S3 come fonte di verità, sposta il file in conflitto nella directory degli oggetti perduti e importa l'ultima versione dal bucket S3 nel file system.

**Identificazione dei file nella directory smarrita**

Quando S3 Files sposta un file nella directory degli oggetti smarriti, aggiunge al nome del file un identificatore esadecimale per distinguere più versioni dello stesso file che potrebbero essere spostate nel tempo. I nomi di file più lunghi di 100 caratteri vengono troncati per fare spazio a questo identificatore. Il percorso della directory originale del file non viene conservato nella directory degli oggetti smarriti.

**Operazione da eseguire**

Ottieni il percorso originale del file e la chiave dell'oggetto S3 corrispondente:

```
getfattr -n "user.s3files.status;$(date -u +%s)" .s3files-lost+found-fs-12345678/abcdef1234_report.csv --only-values
```

Output di esempio:

```
S3Key: s3://bucket/prefix/report.csv
FilePath: /data/report.csv
```


| Campo | Description | 
| --- | --- | 
| S3Key | Percorso S3 completo dell'oggetto che ha causato il conflitto o vuoto se l'oggetto è stato eliminato nel bucket S3. | 
| FilePath | Percorso relativo del file prima del conflitto. | 

Puoi quindi conservare la versione più recente dal tuo bucket S3 ed eliminare il file dalla directory degli oggetti smarriti o copiare il file dalla directory degli oggetti smarriti nel percorso originale per sovrascrivere la versione S3.

**Nota**  
I file nella directory persa e trovata rimangono lì a tempo indeterminato e vengono conteggiati ai fini dei costi di archiviazione del file system. Elimina i file dalla directory degli oggetti smarriti quando non sono più necessari.

## La sincronizzazione è in ritardo
<a name="s3-files-troubleshooting-sync-behind"></a>

La `PendingExports` CloudWatch metrica è in crescita, il che indica che il carico di lavoro genera modifiche più velocemente di quanto S3 Files sia in grado di sincronizzarle con S3.

Ciò significa che il carico di lavoro potrebbe superare la velocità di sincronizzazione. S3 Files esporta fino a 800 file al secondo per file system. Prendi in considerazione la possibilità di ridurre la velocità di modifica dei file o di distribuire il lavoro su più file system. Monitora la `PendingExports` metrica nel tempo. Se si stabilizza o diminuisce, S3 Files sta recuperando terreno. Se continua a crescere, contatta l' AWS assistenza.

## Attivazione dei log di debug del client
<a name="s3-files-troubleshooting-debug-logs"></a>

Se stai risolvendo i problemi di montaggio, connettività o bypass di lettura, puoi abilitare la registrazione a livello di debug sul client S3 Files per acquisire maggiori dettagli.

**Mount helper e watchdog logs**

Modifica `/etc/amazon/efs/s3files-utils.conf` e cambia il livello di registrazione da INFO a DEBUG:

```
[DEFAULT]
logging_level = DEBUG
```

Smonta e rimontala il file system per rendere effettiva la modifica:

```
sudo umount /mnt/s3files
sudo mount -t s3files file-system-id:/ /mnt/s3files
```

I log vengono scritti in. `/var/log/amazon/efs/` Il log mount helper è. `mount.log`

**Registri del proxy (efs-proxy)**

Il proxy gestisce il traffico NFS e il bypass di lettura S3. Per abilitare la registrazione di debug per il proxy, modifica: `/etc/amazon/efs/s3files-utils.conf`

```
[proxy]
proxy_logging_level = DEBUG
```

Smonta e rimontala per rendere effettiva la modifica. I log del proxy vengono scritti su. `/var/log/amazon/efs/`

**Registri del tunnel TLS (stunnel)**

I log del tunnel TLS sono disabilitati per impostazione predefinita. Per abilitarli, modifica `/etc/amazon/efs/s3files-utils.conf` e imposta quanto segue:

```
[mount]
stunnel_debug_enabled = true
```

Per salvare tutti i log degli stunnel di un file system in un unico file, decommenta anche la riga: `stunnel_logs_file`

```
stunnel_logs_file = /var/log/amazon/efs/{fs_id}.stunnel.log
```

**Limiti di dimensione dei log**

I file di registro vengono ruotati automaticamente. È possibile configurare la dimensione e il numero massimi di file ruotati in: `s3files-utils.conf`

```
[DEFAULT]
logging_max_bytes = 1048576
logging_file_count = 10
```

L'impostazione predefinita è 1 MB per file di registro con 10 file ruotati, per un massimo di 10 MB per tipo di registro.

**Condivisione dei log con Support AWS **

Quando contatti AWS Support, raccogli i log e la configurazione del client in un unico archivio:

```
sudo tar -czf /tmp/s3files-support-logs.tar.gz \
  /var/log/amazon/efs/ \
  /etc/amazon/efs/s3files-utils.conf
```

`/tmp/s3files-support-logs.tar.gz`Includi nella tua richiesta di supporto.