Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Specifiche prestazionali
S3 Files ridimensiona automaticamente la velocità effettiva e gli IOPS in base al carico di lavoro senza richiedere il provisioning o la gestione della capacità. Questa pagina descrive le caratteristiche prestazionali di S3 Files.
Riepilogo delle prestazioni
| Throughput di lettura aggregato per file system | Fino a terabyte al secondo |
| Throughput di scrittura aggregato per file system | 1—5 Gib/s |
| Numero massimo di IOPS di lettura per bucket S3 con file S3 | Nessun limite (collega più file system allo stesso bucket) |
| Numero massimo di IOPS di scrittura per bucket S3 con file S3 | Nessun limite (collega più file system allo stesso bucket) |
| Numero massimo di IOPS di lettura per file system | 250.000 |
| Numero massimo di IOPS di scrittura per file system | 50.000 |
| Velocità massima di lettura per client | 3 Gib/s |
In che modo S3 Files offre prestazioni
S3 Files gestisce i dati da due livelli di storage e indirizza automaticamente ogni operazione al livello più adatto.
Storage ad alte prestazioni: il livello di storage a bassa latenza all'interno del file system in cui risiedono i dati e i metadati dei file utilizzati attivamente. S3 Files gestisce automaticamente questo spazio di archiviazione, copiando i dati su di esso quando si accede ai file e rimuovendo i dati che non sono stati letti entro una finestra di scadenza configurabile. Paghi una tariffa di archiviazione per i dati che risiedono nello storage ad alte prestazioni.
Direttamente da S3: le letture di grandi dimensioni (128 KB o più) di dati che sono già stati sincronizzati con S3 e le letture di dati non presenti nel file system vengono fornite direttamente dal bucket S3. Questo livello offre un throughput elevato per le letture sequenziali, il che lo rende ideale per l'analisi, l'elaborazione multimediale e altri carichi di lavoro di streaming.
Poiché S3 Files applica automaticamente questo modello a due livelli, non è necessario scegliere tra latenza e velocità effettiva. I carichi di lavoro con file di piccole dimensioni ottengono le prestazioni del file system. I carichi di lavoro con file di grandi dimensioni ottengono il throughput di S3. I carichi di lavoro misti ottengono entrambi.
Leggi le prestazioni
Il throughput di lettura si adatta al numero di istanze di calcolo connesse e al grado di parallelismo all'interno di ciascuna istanza. La velocità massima di lettura per client è di 3 GiB/s. S3 Files supporta fino a terabyte al secondo di velocità di lettura aggregata e fino a 250.000 IOPS di lettura per file system.
Prestazioni di scrittura
Le scritture vengono trasferite nello storage ad alte prestazioni e sono immediatamente durevoli. A seconda della regione, S3 Files supporta 1-5 GiB/s del throughput di scrittura aggregato e fino a 50.000 IOPS di scrittura per file system. Le prestazioni di scrittura si adattano elasticamente all'attività del carico di lavoro.
Quando modifichi un file nel file system, S3 Files attende circa 60 secondi, aggregando tutte le modifiche successive al file in quel periodo di tempo, prima di copiarlo nel tuo bucket S3. Ciò significa che le scritture successive rapide sullo stesso file vengono acquisite in una singola richiesta S3 PUT anziché generare una nuova versione dell'oggetto per ogni singola modifica, riducendo i costi delle richieste S3 e i costi di archiviazione. Se continui a modificare il file dopo che S3 Files ha copiato le modifiche nel bucket S3, copierà le modifiche successive secondo necessità.
Latenza del primo accesso
La prima volta che accedi a una directory, S3 Files importa i metadati per tutti i file in quella directory e, a seconda della configurazione di importazione, i dati per file di piccole dimensioni. Pertanto, l'accesso iniziale richiede più tempo rispetto alle operazioni successive. Una volta importati, tutti gli elenchi di directory e gli accessi ai file successivi tornano a bassa latenza.
Prestazioni di sincronizzazione
S3 Files sincronizza le modifiche tra il file system e il bucket S3 in background.
Importazione di modifiche da S3: quando un'altra applicazione aggiunge o modifica un oggetto nel bucket S3, S3 Files riflette la modifica nel file system in genere in pochi secondi. S3 Files elabora fino a 2.400 modifiche agli oggetti al secondo per file system, con una velocità di importazione dei dati fino a 700 megabyte al secondo.
Esportazione delle modifiche in S3: quando scrivi un file tramite il file system, S3 Files raggruppa le modifiche in batch per circa 60 secondi per consolidare le scritture successive rapide in un'unica versione dell'oggetto S3, riducendo i costi delle richieste S3 e delle versioni di storage. Dopo la finestra di batch, S3 Files copia il file nel bucket S3. S3 Files esporta fino a 800 file al secondo per file system, con una velocità di esportazione dei dati fino a 2.700 megabyte al secondo.
| Metrica operativa | Valore | Unità |
|---|---|---|
| Importazione da bucket S3 IOPS | 2.400 | oggetti al secondo per file system |
| Velocità effettiva di importazione dal bucket S3 | 700 | megabyte al secondo |
| Esporta IOPS nel bucket S3 | 800 | file al secondo per file system |
| Velocità effettiva di esportazione in bucket S3 | 2.700 | megabyte al secondo |
Amazon S3 utilizza una struttura di storage piatta in cui gli oggetti sono identificati dai loro nomi chiave. Sebbene S3 Files ti consenta di organizzare i dati in directory, S3 non ha un concetto nativo di directory. Ciò che appare come una directory nel file system è un prefisso comune condiviso dalle chiavi degli oggetti all'interno del bucket S3. Inoltre, gli oggetti S3 sono immutabili e non supportano le ridenominazioni atomiche. Di conseguenza, quando rinomini o sposti un file, S3 Files deve scrivere i dati su un nuovo oggetto con la chiave aggiornata ed eliminare l'originale. Quando rinomini o sposti una directory, S3 Files deve ripetere questo processo per ogni oggetto che condivide quel prefisso. Pertanto, quando rinomini o sposti una directory contenente decine di milioni di file, i costi delle richieste S3 e il tempo di sincronizzazione aumentano in modo significativo. Una ridenominazione di una directory di 100.000 file richiede alcuni minuti per essere riprodotta completamente nel bucket S3, sebbene la ridenominazione avvenga istantaneamente sul file system. Per ulteriori informazioni, consulta Comprendere l'impatto delle operazioni di ridenominazione e spostamento.
Se il carico di lavoro genera modifiche più velocemente della velocità di sincronizzazione, S3 Files mette in coda le modifiche e le elabora in ordine. Puoi monitorare il numero di esportazioni in sospeso utilizzando la metrica. PendingExports CloudWatch Per ulteriori informazioni, consulta Monitoraggio dei file S3 con Amazon CloudWatch.
Monitoraggio delle prestazioni
Puoi monitorare le prestazioni del tuo file system utilizzando Amazon CloudWatch. S3 Files pubblica metriche tra cuiDataReadBytes,, e DataWriteBytes MetadataReadBytesMetadataWriteBytes, che puoi utilizzare per monitorare la velocità effettiva e gli IOPS nel tempo. Per ulteriori informazioni, consulta Monitoraggio dei file S3 con Amazon CloudWatch.