Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Prestazioni FSx di Amazon for Lustre
Amazon FSx for Lustre, basato su Lustre, il popolare file system ad alte prestazioni, offre prestazioni di scalabilità orizzontale che aumentano linearmente con le dimensioni di un file system. I file system Lustre sono scalabili orizzontalmente su più file server e dischi. Questa scalabilità offre a ciascun client l'accesso diretto ai dati archiviati su ciascun disco per eliminare molti dei colli di bottiglia presenti nei file system tradizionali. Amazon FSx for Lustre si basa sull'architettura scalabile di Lustre per supportare alti livelli di prestazioni su un gran numero di clienti.
Argomenti
Come funzionano i file system FSx di Lustre
Ogni file system FSx for Lustre è costituito dai file server con cui i client comunicano e da un set di dischi collegati a ciascun file server in cui sono archiviati i dati. Ogni file server utilizza una cache veloce in memoria per migliorare le prestazioni dei dati a cui si accede più frequentemente. HDDI file system basati possono inoltre essere dotati di una cache di lettura SSD basata per migliorare ulteriormente le prestazioni dei dati a cui si accede con maggiore frequenza. Quando un client accede ai dati archiviati nella memoria o nella SSD cache, il file server non ha bisogno di leggerli dal disco, il che riduce la latenza e aumenta la quantità totale di velocità effettiva che è possibile ottenere. Il diagramma seguente illustra i percorsi di un'operazione di scrittura, un'operazione di lettura eseguita dal disco e un'operazione di lettura eseguita dalla memoria o dalla cache. SSD
Quando si leggono dati archiviati nella memoria o nella SSD cache del file server, le prestazioni del file system sono determinate dalla velocità di trasmissione della rete. Quando si scrivono dati sul file system o quando si leggono dati che non sono archiviati nella cache in memoria, le prestazioni del file system sono determinate dalla riduzione del throughput di rete e del disco.
Quando si effettua il provisioning di una SSD cache a un file system HDD Lustre, Amazon FSx crea una SSD cache che viene automaticamente ridimensionata fino al 20 percento della capacità di HDD storage del file system. In questo modo si ottengono latenze inferiori al millisecondo e superiori per i file a cui si accede di frequente. IOPS
Prestazioni aggregate del file system
La velocità effettiva supportata da un file system FSx for Lustre è proporzionale alla sua capacità di archiviazione. I file system Amazon FSx for Lustre sono scalabili fino a centinaia GBps di velocità effettiva e milioni di. IOPS Amazon FSx for Lustre supporta anche l'accesso simultaneo allo stesso file o directory da migliaia di istanze di calcolo. Questo accesso consente il checkpoint rapido dei dati dalla memoria dell'applicazione allo storage, una tecnica comune nell'elaborazione ad alte prestazioni (). HPC È possibile aumentare la quantità di storage e la capacità di throughput in base alle esigenze in qualsiasi momento dopo la creazione del file system. Per ulteriori informazioni, consulta Gestione della capacità di archiviazione.
FSxi file system for Lustre forniscono una velocità di lettura a raffica utilizzando un meccanismo di credito I/O di rete per allocare la larghezza di banda della rete in base all'utilizzo medio della larghezza di banda. I file system accumulano crediti quando l'utilizzo della larghezza di banda di rete è inferiore ai limiti di base e possono utilizzarli quando eseguono trasferimenti di dati di rete.
Le tabelle seguenti mostrano le prestazioni per cui sono progettate le opzioni di distribuzione di FSx for Lustre.
Tipo di distribuzione | Throughput di rete (MB/s/TiB di storage fornito) | Rete IOPS (IOPS/TiB di storage fornito) | Archiviazione cache (GiB di RAM /TiB di storage forniti) | Latenze su disco per operazione su file (millisecondi, P50) | Throughput del disco (MBps/TiB di storage o SSD cache forniti) | ||
---|---|---|---|---|---|---|---|
Linea di base |
Scoppio |
Linea di base |
Scoppio |
||||
SCRATCH_2 | 200 | 1300 | Decine di migliaia di valori base Centinaia di migliaia sono scoppiate |
6.7 |
Metadati: sub-ms Dati: sub-ms |
200 (letto) 100 (scrittura) |
‐ |
PERSISTENT-125 | 320 | 1300 | 3.4 |
125 |
500 | ||
PERSISTENT-250 | 640 | 1300 | 6.8 |
250 |
500 | ||
PERSISTENT-500 | 1300 | ‐ | 13,7 | 500 | ‐ |
||
PERSISTENT-1000 | 2600 | ‐ | 27,3 | 1000 | ‐ |
Tipo di distribuzione | Throughput di rete (MB/s/TiB di storage o cache fornita) SSD | Rete IOPS (IOPS/TiB di storage fornito) | Archiviazione cache (GiB di RAM /TiB di storage forniti) | Latenze su disco per operazione su file (millisecondi, P50) | Throughput del disco (MBps/TiB di storage o SSD cache forniti) | ||
---|---|---|---|---|---|---|---|
Linea di base |
Scoppio |
Linea di base |
Scoppio |
||||
PERSISTENT-12 | |||||||
HDDarchiviazione | 40 | 375* |
Decine di migliaia (linea di base) Centinaia di migliaia sono scoppiate |
0,4 memoria |
Metadati: sub-ms Dati: ms a una cifra |
12 |
80 (letto) 50 (scrittura) |
SSDcache di lettura |
200 |
1.900 |
200 SSD cache |
Dati: sub-ms |
200 |
- |
|
PERSISTENT-40 | |||||||
HDDimmagazzinamento | 150 | 1.300* |
Decine di migliaia di valori di base Centinaia di migliaia sono scoppiate |
1.5 |
Metadati: sub-ms Dati: ms a una cifra |
40 |
250 (letto) 150 (scrittura) |
SSDcache di lettura |
750 |
6500 |
200 cache SSD |
Dati: sub-ms |
200 |
- |
Tipo di distribuzione | Throughput di rete (MB/s per TiB di storage fornito) | Rete IOPS (IOPSper TiB di storage fornito) | Archiviazione cache (GiB per TiB di storage fornito) | Latenze su disco per operazione su file (millisecondi, P50) | Velocità effettiva del disco (MB/s per TiB di storage o cache fornita) SSD | ||
---|---|---|---|---|---|---|---|
Linea di base |
Scoppio |
Linea di base |
Scoppio |
||||
PERSISTENT-50 | 250 | 1.300* | Decine di migliaia di valori di base Centinaia di migliaia sono scoppiate |
2.2 RAM |
Metadati: sub-ms Dati: sub-ms |
50 | 240 |
PERSISTENT-100 | 500 | 1.300* | 4.4 RAM | 100 | 240 | ||
PERSISTENT-200 | 750 | 1.300* | 8.8 RAM | 200 | 240 |
Nota
*I file system persistenti nei seguenti paesi Regioni AWS forniscono un'espansione della rete fino a 530 MB/s per TiB di storage: Africa (Città del Capo), Asia Pacifico (Hong Kong), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Canada (Centrale), Europa (Francoforte), Europa (Londra), Europa (Milano), Europa (Stoccolma), Medio Oriente (Bahrein), Sud America (San Paolo), Cina e Stati Uniti Ovest (Los Angeles).
Esempio: velocità effettiva aggregata di base e burst
L'esempio seguente illustra come la capacità di storage e la velocità effettiva del disco influiscano sulle prestazioni del file system.
Un file system persistente con una capacità di storage di 4,8 TiB e 50 MB/s per TiB di throughput per unità di storage fornisce un throughput aggregato del disco di base di 240 MB/s e un throughput del disco burst di 1,152 GB/s.
Indipendentemente dalle dimensioni del file system, Amazon FSx for Lustre offre latenze costanti inferiori al millisecondo per le operazioni sui file.
Prestazioni dei metadati del file system
Le operazioni di I/O dei metadati del file system al secondo (IOPS) determinano il numero di file e directory che è possibile creare, elencare, leggere ed eliminare al secondo. I metadati IOPS vengono forniti automaticamente FSx per i file system Lustre in base alla capacità di storage fornita.
I file system Persistent_2 consentono di effettuare il provisioning dei metadati IOPS indipendentemente dalla capacità di storage e offrono una maggiore visibilità sul numero e sul tipo di metadati che le istanze IOPS client generano sul file system.
Con FSx i file system for Lustre Persistent_2, il numero di metadati forniti e il tipo di operazione sui metadati determinano la frequenza delle operazioni sui metadati IOPS che il file system è in grado di supportare. Il livello di metadati da fornire determina il numero di IOPS dischi di metadati IOPS forniti per i dischi di metadati del file system.
Tipo di operazione | Operazioni che è possibile eseguire al secondo per ogni metadato fornito IOPS |
---|---|
Creazione, apertura e chiusura di file |
2 |
Eliminazione di file |
1 |
Creazione e ridenominazione della cartella |
0.1 |
Eliminazione della directory |
0.2 |
È possibile scegliere di effettuare il provisioning dei metadati IOPS utilizzando la modalità Automatica o la modalità User-provisioned. In modalità Automatica, Amazon FSx effettua automaticamente il provisioning dei metadati in IOPS base alla capacità di archiviazione del file system in base alla tabella seguente:
Capacità di storage del file system | Metadati inclusi IOPS in modalità automatica |
---|---|
1200 GiB |
1500 |
2400 GiB |
3000 |
4800—9600 GiB |
6000 |
12000—45600 GiB |
12000 |
≥48000 GiB |
12000 IOPS per 24000 GiB |
In modalità User-provisioned, puoi facoltativamente scegliere di specificare il numero di metadati da fornire. IOPS Paghi per i metadati IOPS forniti in eccesso rispetto al numero predefinito di metadati per il tuo file system. IOPS
Layout di archiviazione del file system
Tutti i dati dei file in Lustre sono archiviati in volumi di archiviazione denominati object storage targets (OSTs). Tutti i metadati dei file (inclusi nomi di file, timestamp, autorizzazioni e altro) sono archiviati in volumi di archiviazione denominati metadata targets (). MDTs I file system di Amazon FSx for Lustre sono composti da uno o più MDTs file. OSTs OSTCiascuno ha una dimensione compresa tra 1 e 2 TiB, a seconda del tipo di distribuzione del file system. Amazon FSx for Lustre distribuisce i dati dei file su tutti gli elementi OSTs che compongono il file system per bilanciare la capacità di storage con la velocità effettiva e il carico. IOPS
Per visualizzare l'utilizzo dello storage del file system MDT e OSTs che compone il file system, esegui il seguente comando da un client su cui è montato il file system.
lfs df -h
mount/path
L'output di questo comando è simile al seguente.
UUID bytes Used Available Use% Mounted on
mountname
-MDT0000_UUID 68.7G 5.4M 68.7G 0% /fsx[MDT:0]mountname
-OST0000_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:0]mountname
-OST0001_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:1] filesystem_summary: 2.2T 9.0M 2.2T 0% /fsx
Stripaggio dei dati nel file system
È possibile ottimizzare le prestazioni di throughput del file system con lo striping dei file. Amazon FSx for Lustre distribuisce automaticamente i file per garantire che i dati vengano serviti da tutti i server di storage. OSTs Puoi applicare lo stesso concetto a livello di file configurando la modalità di suddivisione dei file su più file. OSTs
Lo striping significa che i file possono essere suddivisi in più blocchi che vengono poi archiviati in diversi. OSTs Quando un file viene suddiviso su più fileOSTs, le richieste di lettura o scrittura al file vengono distribuite tra di loroOSTs, aumentando la velocità di trasmissione aggregata o le applicazioni possono IOPS gestirla.
Di seguito sono riportati i layout predefiniti per i file system Amazon FSx for Lustre.
Per i file system creati prima del 18 dicembre 2020, il layout predefinito specifica un numero di strisce pari a 1. Ciò significa che, a meno che non venga specificato un layout diverso, ogni file creato in Amazon FSx for Lustre utilizzando strumenti Linux standard viene archiviato su un singolo disco.
Per i file system creati dopo il 18 dicembre 2020, il layout predefinito è un layout di file progressivo in cui i file di dimensioni inferiori a 1 GiB vengono archiviati in un'unica striscia e ai file più grandi viene assegnato un numero di strisce pari a 5.
Per i file system creati dopo il 25 agosto 2023, il layout predefinito è un layout di file progressivo a 4 componenti, come spiegato in. Layout di file progressivi
Per tutti i file system, indipendentemente dalla data di creazione, i file importati da Amazon S3 non utilizzano il layout predefinito, ma utilizzano invece il layout nel parametro del
ImportedFileChunkSize
file system. I file importati da S3 più grandi di quelliImportedFileChunkSize
verranno archiviati su più file OSTs con un numero di strisce pari a.(FileSize / ImportedFileChunksize) + 1
Il valore predefinito di è 1GiBImportedFileChunkSize
.
È possibile visualizzare la configurazione del layout di un file o di una directory utilizzando il lfs getstripe
comando.
lfs getstripe
path/to/filename
Questo comando riporta il numero di strisce, la dimensione e l'offset delle strisce di un file. Il numero di strisce è il numero di strisce su cui è suddiviso OSTs il file. La dimensione della banda indica la quantità di dati continui archiviati su un file. OST L'offset della striscia è l'indice della prima riga su OST cui è distribuito il file.
Modifica della configurazione dello striping
I parametri di layout di un file vengono impostati quando il file viene creato per la prima volta. Utilizzate il lfs setstripe
comando per creare un nuovo file vuoto con un layout specificato.
lfs setstripe
filename
--stripe-countnumber_of_OSTs
Il lfs setstripe
comando influisce solo sul layout di un nuovo file. Utilizzatelo per specificare il layout di un file prima di crearlo. Puoi anche definire un layout per una directory. Una volta impostato su una directory, tale layout viene applicato a ogni nuovo file aggiunto a quella directory, ma non ai file esistenti. Ogni nuova sottodirectory creata eredita anche il nuovo layout, che viene quindi applicato a qualsiasi nuovo file o directory creato all'interno di quella sottodirectory.
Per modificare il layout di un file esistente, utilizzate il comando. lfs migrate
Questo comando copia il file secondo necessità per distribuirne il contenuto in base al layout specificato nel comando. Ad esempio, i file che vengono aggiunti o le cui dimensioni sono aumentate non modificano il numero di strisce, quindi è necessario migrarli per modificare il layout del file. In alternativa, è possibile creare un nuovo file utilizzando il lfs setstripe
comando per specificarne il layout, copiare il contenuto originale nel nuovo file e quindi rinominare il nuovo file per sostituire il file originale.
In alcuni casi la configurazione di layout predefinita non è ottimale per il carico di lavoro. Ad esempio, un file system con decine OSTs e un gran numero di file da più gigabyte può ottenere prestazioni migliori suddividendo i file su un numero di stripe superiore al valore predefinito di cinque. OSTs La creazione di file di grandi dimensioni con un numero di stripe basso può causare rallentamenti nelle prestazioni di I/O e può anche causare il riempimento. OSTs In questo caso, è possibile creare una directory con un numero maggiore di strisce per questi file.
La configurazione di un layout a strisce per file di grandi dimensioni (in particolare file di dimensioni superiori a un gigabyte) è importante per i seguenti motivi:
Migliora la velocità effettiva permettendo a più server OSTs e ai relativi server di contribuireIOPS, alla larghezza di banda di rete e alle CPU risorse necessarie per la lettura e la scrittura di file di grandi dimensioni.
Riduce la probabilità che un piccolo sottoinsieme di sistemi OSTs diventi un punto critico che limita le prestazioni complessive del carico di lavoro.
Impedisce che un singolo file di grandi dimensioni riempia un discoOST, con possibili errori di riempimento del disco.
Non esiste un'unica configurazione di layout ottimale per tutti i casi d'uso. Per una guida dettagliata sui layout dei file, consulta Managing File Layout (Striping) and Free Space
Il layout a strisce è particolarmente importante per i file di grandi dimensioni, specialmente per i casi d'uso in cui i file hanno normalmente dimensioni di centinaia di megabyte o più. Per questo motivo, il layout predefinito per un nuovo file system assegna un numero di strisce pari a cinque per i file di dimensioni superiori a 1 GiB.
Il numero di strisce è il parametro di layout da regolare per i sistemi che supportano file di grandi dimensioni. Il numero di strisce specifica il numero di OST volumi che conterranno i blocchi di un file a strisce. Ad esempio, con un numero di strisce pari a 2 e una dimensione delle strisce di 1 MiB, Lustre scrive blocchi di file da 1 MiB alternativi su ciascuno di due. OSTs
Il numero di strisce effettivo è il minore tra il numero effettivo di volumi e il valore di conteggio delle strisce specificato. OST È possibile utilizzare lo speciale valore di conteggio delle strisce
-1
per indicare che le strisce devono essere posizionate su tutti i volumi. OSTL'impostazione di un numero elevato di strisce per file di piccole dimensioni non è ottimale perché per determinate operazioni Lustre richiede una rete di andata e ritorno per ogni OST aspetto del layout, anche se il file è troppo piccolo per occupare spazio su tutti i volumi. OST
È possibile impostare un layout di file progressivo (PFL) che consenta di modificare il layout di un file in base alle dimensioni. Una PFL configurazione può semplificare la gestione di un file system con una combinazione di file grandi e piccoli senza dover impostare esplicitamente una configurazione per ogni file. Per ulteriori informazioni, consulta Layout di file progressivi.
La dimensione predefinita di Stripe è 1 MiB. L'impostazione di un offset a strisce può essere utile in circostanze particolari, ma in generale è meglio non specificarlo e utilizzare l'impostazione predefinita.
Layout di file progressivi
È possibile specificare una configurazione progressive di file layout (PFL) per una directory per specificare diverse configurazioni di stripe per file piccoli e grandi prima di popolarla. Ad esempio, potete impostare una directory di primo livello prima che qualsiasi dato venga scritto PFL su un nuovo file system.
Per specificare una PFL configurazione, utilizzate il lfs setstripe
comando con -E
opzioni per specificare i componenti di layout per file di dimensioni diverse, come il comando seguente:
lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32
/mountname/directory
Questo comando imposta quattro componenti di layout:
Il primo componente (
-E 100M -c 1
) indica un valore di conteggio delle strisce pari a 1 per file di dimensioni fino a 100 MiB.Il secondo componente (
-E 10G -c 8
) indica un numero di strisce pari a 8 per file di dimensioni fino a 10 GiB.Il terzo componente (
-E 100G -c 16
) indica un numero di strisce pari a 16 per file di dimensioni fino a 100 GiB.Il quarto componente (
-E -1 -c 32
) indica un numero di strisce pari a 32 per file di dimensioni superiori a 100 GiB.
Importante
L'aggiunta di dati a un file creato con un PFL layout popolerà tutti i relativi componenti di layout. Ad esempio, con il comando a 4 componenti illustrato sopra, se create un file da 1 MiB e poi aggiungete dati alla fine del file, il layout del file si espanderà fino ad avere un numero di strisce pari a -1, vale a dire tutto il sistema. OSTs Ciò non significa che i dati verranno scritti su tuttiOST, ma un'operazione come la lettura della lunghezza del file invierà una richiesta in parallelo a tuttiOST, aggiungendo un carico di rete significativo al file system.
Pertanto, fate attenzione a limitare il numero di strisce per qualsiasi file di piccola o media lunghezza a cui successivamente possono essere aggiunti dati. Poiché i file di log di solito crescono con l'aggiunta di nuovi record, Amazon FSx for Lustre assegna un numero di strisce predefinito pari a 1 a qualsiasi file creato in modalità di aggiunta, indipendentemente dalla configurazione di stripe predefinita specificata dalla directory principale.
La PFL configurazione predefinita sui file system Amazon FSx for Lustre creata dopo il 25 agosto 2023 viene impostata con questo comando:
lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32
/mountname
I clienti con carichi di lavoro che hanno un accesso altamente simultaneo a file di medie e grandi dimensioni trarranno probabilmente vantaggio da un layout con più strisce OSTs per dimensioni più piccole e striping su tutti i file più grandi, come mostrato nel layout di esempio a quattro componenti.
Monitoraggio delle prestazioni e dell'utilizzo
Ogni minuto, Amazon FSx for Lustre invia ad Amazon i parametri di utilizzo per ogni disco (MDTeOST). CloudWatch
Per visualizzare i dettagli aggregati sull'utilizzo del file system, puoi consultare la statistica Sum di ogni metrica. Ad esempio, la somma delle DataReadBytes
statistiche riporta la velocità di lettura totale registrata da tutti gli utenti di un file system. OSTs Analogamente, la somma delle FreeDataStorageCapacity
statistiche riporta la capacità di archiviazione totale disponibile per i dati dei file nel file system.
Per ulteriori informazioni sul monitoraggio delle prestazioni del file system, vedereMonitoraggio di Amazon FSx for Lustre.
Suggerimenti per le prestazioni
Quando usi Amazon FSx for Lustre, tieni a mente i seguenti suggerimenti sulle prestazioni. Per i limiti del servizio, consultaQuote per Amazon FSx for Lustre.
-
Dimensione I/O media: poiché Amazon FSx for Lustre è un file system di rete, ogni operazione sui file passa attraverso un viaggio di andata e ritorno tra il client e Amazon FSx for Lustre, con un piccolo sovraccarico di latenza. Grazie a questa bassa latenza per operazione, il throughput generale si incrementa assieme all'incremento delle dimensioni medie delle operazioni di I/O, perché l'overhead viene ammortizzato su una maggiore quantità di dati.
-
Modello di richiesta: abilitando le scritture asincrone sul file system, le operazioni di scrittura in sospeso vengono memorizzate nel buffer sull'istanza Amazon prima di essere scritte su EC2 Amazon for Lustre in modo asincrono. FSx Le scritture asincrone presentano generalmente delle latenze inferiori. Quando si eseguono delle scritture asincrone, il kernel utilizza della memoria aggiuntiva per la memorizzazione nella cache. Un file system che ha abilitato le scritture sincrone invia richieste sincrone ad Amazon FSx for Lustre. Ogni operazione passa attraverso un viaggio di andata e ritorno tra il cliente e Amazon FSx for Lustre.
Nota
Il modello di richiesta scelto presenta dei compromessi in termini di coerenza (se utilizzi più EC2 istanze Amazon) e velocità.
-
Limita la dimensione della directory: per ottenere prestazioni ottimali dei metadati sui file system Persistent_2 FSx for Lustre, limita ogni directory a meno di 100.000 file. La limitazione del numero di file in una directory riduce il tempo necessario al file system per acquisire un blocco sulla directory principale.
-
EC2Istanze Amazon: le applicazioni che eseguono un gran numero di operazioni di lettura e scrittura richiedono probabilmente più memoria o capacità di elaborazione rispetto alle applicazioni che non lo fanno. Quando avvii le tue EC2 istanze Amazon per un carico di lavoro ad alta intensità di calcolo, scegli i tipi di istanze che hanno la quantità di queste risorse necessaria alla tua applicazione. Le caratteristiche prestazionali dei file system Amazon FSx for Lustre non dipendono dall'uso di istanze EBS ottimizzate per Amazon.
-
Ottimizzazione consigliata delle istanze del client per prestazioni ottimali
Per tutti i tipi e le dimensioni delle istanze client, consigliamo di applicare la seguente ottimizzazione:
sudo lctl set_param osc.*.max_dirty_mb=64
Per i tipi di istanze client con memoria superiore a 64 GiB, consigliamo di applicare la seguente ottimizzazione:
sudo lctl set_param ldlm.namespaces.*.lru_max_age=600000 sudo lctl set_param ldlm.namespaces.*.lru_size=<100 *
number_of_CPUs
>Per i tipi di istanze client con più di 64 CPU core v, consigliamo di applicare la seguente ottimizzazione:
echo "options ptlrpc ptlrpcd_per_cpt_max=32" >> /etc/modprobe.d/modprobe.conf echo "options ksocklnd credits=2560" >> /etc/modprobe.d/modprobe.conf # reload all kernel modules to apply the above two settings sudo reboot
Dopo aver montato il client, è necessario applicare la seguente ottimizzazione:
sudo lctl set_param osc.*OST*.max_rpcs_in_flight=32 sudo lctl set_param mdc.*.max_rpcs_in_flight=64 sudo lctl set_param mdc.*.max_mod_rpcs_in_flight=50
Nota che
lctl set_param
è noto che non persiste dopo il riavvio. Poiché questi parametri non possono essere impostati in modo permanente dal lato client, si consiglia di implementare un boot cron job per impostare la configurazione con le ottimizzazioni consigliate. -
Equilibrio del carico di lavoroOSTs: in alcuni casi, il carico di lavoro non determina il throughput aggregato che il file system è in grado di fornire (200 MB/s per TiB di storage). In tal caso, puoi utilizzare le CloudWatch metriche per risolvere i problemi se le prestazioni sono influenzate da uno squilibrio nei modelli di I/O del carico di lavoro. Per identificare se questa è la causa, consulta la CloudWatch metrica Maximum per Amazon FSx for Lustre.
In alcuni casi, questa statistica mostra un carico pari o superiore a 240 MBps di throughput (la capacità di throughput di un singolo disco Amazon for Lustre da 1,2 TiB). FSx In questi casi, il carico di lavoro non è distribuito uniformemente tra i dischi. In tal caso, puoi utilizzare il
lfs setstripe
comando per modificare lo striping dei file a cui il tuo carico di lavoro accede più frequentemente. Per prestazioni ottimali, suddividete i file con requisiti di throughput elevati in tutto il OSTs file system.Se i tuoi file vengono importati da un archivio di dati, puoi adottare un altro approccio per suddividere i file ad alta velocità in modo uniforme su tutto il tuo. OSTs A tale scopo, puoi modificare il
ImportedFileChunkSize
parametro durante la creazione del tuo prossimo file system Amazon FSx for Lustre.Ad esempio, supponiamo che il carico di lavoro utilizzi un file system da 7,0 TiB (composto da 6 x 1,17 TiB) e debba garantire un throughput elevato su file da 2,4 GiBOSTs. In questo caso, potete impostare il valore in modo che i file siano distribuiti in modo uniforme su tutto il file system
ImportedFileChunkSize
.(2.4 GiB / 6 OSTs) = 400 MiB
OSTs -
Client Lustre per metadati IOPS: se il tuo file system ha una configurazione di metadati specificata, ti consigliamo di installare un client Lustre 2.15 o un client Lustre 2.12 con una di queste versioni del sistema operativo: Amazon Linux 2023; Amazon Linux 2; Red Hat/Rocky Linux 8.9, 8.10 o 9.x; CentOS 8.9 o 8.10; Ubuntu 22 con kernel 6.2 o 6.5 o Ubuntu 20.