Prestazioni FSx di Amazon for Lustre - FSxper Lustre

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Prestazioni FSx di Amazon for Lustre

Amazon FSx for Lustre, basato su Lustre, il popolare file system ad alte prestazioni, offre prestazioni di scalabilità orizzontale che aumentano linearmente con le dimensioni di un file system. I file system Lustre sono scalabili orizzontalmente su più file server e dischi. Questa scalabilità offre a ciascun client l'accesso diretto ai dati archiviati su ciascun disco per eliminare molti dei colli di bottiglia presenti nei file system tradizionali. Amazon FSx for Lustre si basa sull'architettura scalabile di Lustre per supportare alti livelli di prestazioni su un gran numero di clienti.

Come funzionano i file system FSx di Lustre

Ogni file system FSx for Lustre è costituito dai file server con cui i client comunicano e da un set di dischi collegati a ciascun file server in cui sono archiviati i dati. Ogni file server utilizza una cache veloce in memoria per migliorare le prestazioni dei dati a cui si accede più frequentemente. HDDI file system basati possono inoltre essere dotati di una cache di lettura SSD basata per migliorare ulteriormente le prestazioni dei dati a cui si accede con maggiore frequenza. Quando un client accede ai dati archiviati nella memoria o nella SSD cache, il file server non ha bisogno di leggerli dal disco, il che riduce la latenza e aumenta la quantità totale di velocità effettiva che è possibile ottenere. Il diagramma seguente illustra i percorsi di un'operazione di scrittura, un'operazione di lettura eseguita dal disco e un'operazione di lettura eseguita dalla memoria o dalla cache. SSD

FSxper l'architettura delle prestazioni Lustre.

Quando si leggono dati archiviati nella memoria o nella SSD cache del file server, le prestazioni del file system sono determinate dalla velocità di trasmissione della rete. Quando si scrivono dati sul file system o quando si leggono dati che non sono archiviati nella cache in memoria, le prestazioni del file system sono determinate dalla riduzione del throughput di rete e del disco.

Quando si effettua il provisioning di una SSD cache a un file system HDD Lustre, Amazon FSx crea una SSD cache che viene automaticamente ridimensionata fino al 20 percento della capacità di HDD storage del file system. In questo modo si ottengono latenze inferiori al millisecondo e superiori per i file a cui si accede di frequente. IOPS

Prestazioni aggregate del file system

La velocità effettiva supportata da un file system FSx for Lustre è proporzionale alla sua capacità di archiviazione. I file system Amazon FSx for Lustre sono scalabili fino a centinaia GBps di velocità effettiva e milioni di. IOPS Amazon FSx for Lustre supporta anche l'accesso simultaneo allo stesso file o directory da migliaia di istanze di calcolo. Questo accesso consente il checkpoint rapido dei dati dalla memoria dell'applicazione allo storage, una tecnica comune nell'elaborazione ad alte prestazioni (). HPC È possibile aumentare la quantità di storage e la capacità di throughput in base alle esigenze in qualsiasi momento dopo la creazione del file system. Per ulteriori informazioni, consulta Gestione della capacità di archiviazione.

FSxi file system for Lustre forniscono una velocità di lettura a raffica utilizzando un meccanismo di credito I/O di rete per allocare la larghezza di banda della rete in base all'utilizzo medio della larghezza di banda. I file system accumulano crediti quando l'utilizzo della larghezza di banda di rete è inferiore ai limiti di base e possono utilizzarli quando eseguono trasferimenti di dati di rete.

Le tabelle seguenti mostrano le prestazioni per cui sono progettate le opzioni di distribuzione di FSx for Lustre.

Prestazioni del file system per le opzioni SSD di archiviazione
Tipo di distribuzione Throughput di rete (MB/s/TiB di storage fornito) Rete IOPS (IOPS/TiB di storage fornito) Archiviazione cache (GiB di RAM /TiB di storage forniti) Latenze su disco per operazione su file (millisecondi, P50) Throughput del disco (MBps/TiB di storage o SSD cache forniti)

Linea di base

Scoppio

Linea di base

Scoppio

SCRATCH_2 200 1300

Decine di migliaia di valori base

Centinaia di migliaia sono scoppiate

6.7

Metadati: sub-ms

Dati: sub-ms

200 (letto)

100 (scrittura)

PERSISTENT-125 320 1300 3.4

125

500
PERSISTENT-250 640 1300 6.8

250

500
PERSISTENT-500 1300 13,7 500

PERSISTENT-1000 2600 27,3 1000
Prestazioni del file system per le opzioni HDD di archiviazione
Tipo di distribuzione Throughput di rete (MB/s/TiB di storage o cache fornita) SSD Rete IOPS (IOPS/TiB di storage fornito) Archiviazione cache (GiB di RAM /TiB di storage forniti) Latenze su disco per operazione su file (millisecondi, P50) Throughput del disco (MBps/TiB di storage o SSD cache forniti)

Linea di base

Scoppio

Linea di base

Scoppio

PERSISTENT-12
HDDarchiviazione 40 375*

Decine di migliaia (linea di base)

Centinaia di migliaia sono scoppiate

0,4 memoria

Metadati: sub-ms

Dati: ms a una cifra

12

80 (letto)

50 (scrittura)

SSDcache di lettura

200

1.900

200 SSD cache

Dati: sub-ms

200

-

PERSISTENT-40
HDDimmagazzinamento 150 1.300*

Decine di migliaia di valori di base

Centinaia di migliaia sono scoppiate

1.5

Metadati: sub-ms

Dati: ms a una cifra

40

250 (letto)

150 (scrittura)

SSDcache di lettura

750

6500

200 cache SSD

Dati: sub-ms

200

-

Prestazioni del file system per le opzioni di SSD storage della generazione precedente
Tipo di distribuzione Throughput di rete (MB/s per TiB di storage fornito) Rete IOPS (IOPSper TiB di storage fornito) Archiviazione cache (GiB per TiB di storage fornito) Latenze su disco per operazione su file (millisecondi, P50) Velocità effettiva del disco (MB/s per TiB di storage o cache fornita) SSD

Linea di base

Scoppio

Linea di base

Scoppio

PERSISTENT-50 250 1.300*

Decine di migliaia di valori di base

Centinaia di migliaia sono scoppiate

2.2 RAM

Metadati: sub-ms

Dati: sub-ms

50

240

PERSISTENT-100 500 1.300* 4.4 RAM 100 240
PERSISTENT-200 750 1.300* 8.8 RAM 200 240
Nota

*I file system persistenti nei seguenti paesi Regioni AWS forniscono un'espansione della rete fino a 530 MB/s per TiB di storage: Africa (Città del Capo), Asia Pacifico (Hong Kong), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Canada (Centrale), Europa (Francoforte), Europa (Londra), Europa (Milano), Europa (Stoccolma), Medio Oriente (Bahrein), Sud America (San Paolo), Cina e Stati Uniti Ovest (Los Angeles).

Esempio: velocità effettiva aggregata di base e burst

L'esempio seguente illustra come la capacità di storage e la velocità effettiva del disco influiscano sulle prestazioni del file system.

Un file system persistente con una capacità di storage di 4,8 TiB e 50 MB/s per TiB di throughput per unità di storage fornisce un throughput aggregato del disco di base di 240 MB/s e un throughput del disco burst di 1,152 GB/s.

Indipendentemente dalle dimensioni del file system, Amazon FSx for Lustre offre latenze costanti inferiori al millisecondo per le operazioni sui file.

Prestazioni dei metadati del file system

Le operazioni di I/O dei metadati del file system al secondo (IOPS) determinano il numero di file e directory che è possibile creare, elencare, leggere ed eliminare al secondo. I metadati IOPS vengono forniti automaticamente FSx per i file system Lustre in base alla capacità di storage fornita.

I file system Persistent_2 consentono di effettuare il provisioning dei metadati IOPS indipendentemente dalla capacità di storage e offrono una maggiore visibilità sul numero e sul tipo di metadati che le istanze IOPS client generano sul file system.

Con FSx i file system for Lustre Persistent_2, il numero di metadati forniti e il tipo di operazione sui metadati determinano la frequenza delle operazioni sui metadati IOPS che il file system è in grado di supportare. Il livello di metadati da fornire determina il numero di IOPS dischi di metadati IOPS forniti per i dischi di metadati del file system.

Tipo di operazione Operazioni che è possibile eseguire al secondo per ogni metadato fornito IOPS

Creazione, apertura e chiusura di file

2

Eliminazione di file

1

Creazione e ridenominazione della cartella

0.1

Eliminazione della directory

0.2

È possibile scegliere di effettuare il provisioning dei metadati IOPS utilizzando la modalità Automatica o la modalità User-provisioned. In modalità Automatica, Amazon FSx effettua automaticamente il provisioning dei metadati in IOPS base alla capacità di archiviazione del file system in base alla tabella seguente:

Capacità di storage del file system Metadati inclusi IOPS in modalità automatica

1200 GiB

1500

2400 GiB

3000

4800—9600 GiB

6000

12000—45600 GiB

12000

≥48000 GiB

12000 IOPS per 24000 GiB

In modalità User-provisioned, puoi facoltativamente scegliere di specificare il numero di metadati da fornire. IOPS Paghi per i metadati IOPS forniti in eccesso rispetto al numero predefinito di metadati per il tuo file system. IOPS

Layout di archiviazione del file system

Tutti i dati dei file in Lustre sono archiviati in volumi di archiviazione denominati object storage targets (OSTs). Tutti i metadati dei file (inclusi nomi di file, timestamp, autorizzazioni e altro) sono archiviati in volumi di archiviazione denominati metadata targets (). MDTs I file system di Amazon FSx for Lustre sono composti da uno o più MDTs file. OSTs OSTCiascuno ha una dimensione compresa tra 1 e 2 TiB, a seconda del tipo di distribuzione del file system. Amazon FSx for Lustre distribuisce i dati dei file su tutti gli elementi OSTs che compongono il file system per bilanciare la capacità di storage con la velocità effettiva e il carico. IOPS

Per visualizzare l'utilizzo dello storage del file system MDT e OSTs che compone il file system, esegui il seguente comando da un client su cui è montato il file system.

lfs df -h mount/path

L'output di questo comando è simile al seguente.

UUID bytes Used Available Use% Mounted on mountname-MDT0000_UUID 68.7G 5.4M 68.7G 0% /fsx[MDT:0] mountname-OST0000_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:0] mountname-OST0001_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:1] filesystem_summary: 2.2T 9.0M 2.2T 0% /fsx

Stripaggio dei dati nel file system

È possibile ottimizzare le prestazioni di throughput del file system con lo striping dei file. Amazon FSx for Lustre distribuisce automaticamente i file per garantire che i dati vengano serviti da tutti i server di storage. OSTs Puoi applicare lo stesso concetto a livello di file configurando la modalità di suddivisione dei file su più file. OSTs

Lo striping significa che i file possono essere suddivisi in più blocchi che vengono poi archiviati in diversi. OSTs Quando un file viene suddiviso su più fileOSTs, le richieste di lettura o scrittura al file vengono distribuite tra di loroOSTs, aumentando la velocità di trasmissione aggregata o le applicazioni possono IOPS gestirla.

Di seguito sono riportati i layout predefiniti per i file system Amazon FSx for Lustre.

  • Per i file system creati prima del 18 dicembre 2020, il layout predefinito specifica un numero di strisce pari a 1. Ciò significa che, a meno che non venga specificato un layout diverso, ogni file creato in Amazon FSx for Lustre utilizzando strumenti Linux standard viene archiviato su un singolo disco.

  • Per i file system creati dopo il 18 dicembre 2020, il layout predefinito è un layout di file progressivo in cui i file di dimensioni inferiori a 1 GiB vengono archiviati in un'unica striscia e ai file più grandi viene assegnato un numero di strisce pari a 5.

  • Per i file system creati dopo il 25 agosto 2023, il layout predefinito è un layout di file progressivo a 4 componenti, come spiegato in. Layout di file progressivi

  • Per tutti i file system, indipendentemente dalla data di creazione, i file importati da Amazon S3 non utilizzano il layout predefinito, ma utilizzano invece il layout nel parametro del ImportedFileChunkSize file system. I file importati da S3 più grandi di quelli ImportedFileChunkSize verranno archiviati su più file OSTs con un numero di strisce pari a. (FileSize / ImportedFileChunksize) + 1 Il valore predefinito di è 1GiBImportedFileChunkSize.

È possibile visualizzare la configurazione del layout di un file o di una directory utilizzando il lfs getstripe comando.

lfs getstripe path/to/filename

Questo comando riporta il numero di strisce, la dimensione e l'offset delle strisce di un file. Il numero di strisce è il numero di strisce su cui è suddiviso OSTs il file. La dimensione della banda indica la quantità di dati continui archiviati su un file. OST L'offset della striscia è l'indice della prima riga su OST cui è distribuito il file.

Modifica della configurazione dello striping

I parametri di layout di un file vengono impostati quando il file viene creato per la prima volta. Utilizzate il lfs setstripe comando per creare un nuovo file vuoto con un layout specificato.

lfs setstripe filename --stripe-count number_of_OSTs

Il lfs setstripe comando influisce solo sul layout di un nuovo file. Utilizzatelo per specificare il layout di un file prima di crearlo. Puoi anche definire un layout per una directory. Una volta impostato su una directory, tale layout viene applicato a ogni nuovo file aggiunto a quella directory, ma non ai file esistenti. Ogni nuova sottodirectory creata eredita anche il nuovo layout, che viene quindi applicato a qualsiasi nuovo file o directory creato all'interno di quella sottodirectory.

Per modificare il layout di un file esistente, utilizzate il comando. lfs migrate Questo comando copia il file secondo necessità per distribuirne il contenuto in base al layout specificato nel comando. Ad esempio, i file che vengono aggiunti o le cui dimensioni sono aumentate non modificano il numero di strisce, quindi è necessario migrarli per modificare il layout del file. In alternativa, è possibile creare un nuovo file utilizzando il lfs setstripe comando per specificarne il layout, copiare il contenuto originale nel nuovo file e quindi rinominare il nuovo file per sostituire il file originale.

In alcuni casi la configurazione di layout predefinita non è ottimale per il carico di lavoro. Ad esempio, un file system con decine OSTs e un gran numero di file da più gigabyte può ottenere prestazioni migliori suddividendo i file su un numero di stripe superiore al valore predefinito di cinque. OSTs La creazione di file di grandi dimensioni con un numero di stripe basso può causare rallentamenti nelle prestazioni di I/O e può anche causare il riempimento. OSTs In questo caso, è possibile creare una directory con un numero maggiore di strisce per questi file.

La configurazione di un layout a strisce per file di grandi dimensioni (in particolare file di dimensioni superiori a un gigabyte) è importante per i seguenti motivi:

  • Migliora la velocità effettiva permettendo a più server OSTs e ai relativi server di contribuireIOPS, alla larghezza di banda di rete e alle CPU risorse necessarie per la lettura e la scrittura di file di grandi dimensioni.

  • Riduce la probabilità che un piccolo sottoinsieme di sistemi OSTs diventi un punto critico che limita le prestazioni complessive del carico di lavoro.

  • Impedisce che un singolo file di grandi dimensioni riempia un discoOST, con possibili errori di riempimento del disco.

Non esiste un'unica configurazione di layout ottimale per tutti i casi d'uso. Per una guida dettagliata sui layout dei file, consulta Managing File Layout (Striping) and Free Space nella documentazione di Lustre.org. Le seguenti sono linee guida generali:

  • Il layout a strisce è particolarmente importante per i file di grandi dimensioni, specialmente per i casi d'uso in cui i file hanno normalmente dimensioni di centinaia di megabyte o più. Per questo motivo, il layout predefinito per un nuovo file system assegna un numero di strisce pari a cinque per i file di dimensioni superiori a 1 GiB.

  • Il numero di strisce è il parametro di layout da regolare per i sistemi che supportano file di grandi dimensioni. Il numero di strisce specifica il numero di OST volumi che conterranno i blocchi di un file a strisce. Ad esempio, con un numero di strisce pari a 2 e una dimensione delle strisce di 1 MiB, Lustre scrive blocchi di file da 1 MiB alternativi su ciascuno di due. OSTs

  • Il numero di strisce effettivo è il minore tra il numero effettivo di volumi e il valore di conteggio delle strisce specificato. OST È possibile utilizzare lo speciale valore di conteggio delle strisce -1 per indicare che le strisce devono essere posizionate su tutti i volumi. OST

  • L'impostazione di un numero elevato di strisce per file di piccole dimensioni non è ottimale perché per determinate operazioni Lustre richiede una rete di andata e ritorno per ogni OST aspetto del layout, anche se il file è troppo piccolo per occupare spazio su tutti i volumi. OST

  • È possibile impostare un layout di file progressivo (PFL) che consenta di modificare il layout di un file in base alle dimensioni. Una PFL configurazione può semplificare la gestione di un file system con una combinazione di file grandi e piccoli senza dover impostare esplicitamente una configurazione per ogni file. Per ulteriori informazioni, consulta Layout di file progressivi.

  • La dimensione predefinita di Stripe è 1 MiB. L'impostazione di un offset a strisce può essere utile in circostanze particolari, ma in generale è meglio non specificarlo e utilizzare l'impostazione predefinita.

Layout di file progressivi

È possibile specificare una configurazione progressive di file layout (PFL) per una directory per specificare diverse configurazioni di stripe per file piccoli e grandi prima di popolarla. Ad esempio, potete impostare una directory di primo livello prima che qualsiasi dato venga scritto PFL su un nuovo file system.

Per specificare una PFL configurazione, utilizzate il lfs setstripe comando con -E opzioni per specificare i componenti di layout per file di dimensioni diverse, come il comando seguente:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname/directory

Questo comando imposta quattro componenti di layout:

  • Il primo componente (-E 100M -c 1) indica un valore di conteggio delle strisce pari a 1 per file di dimensioni fino a 100 MiB.

  • Il secondo componente (-E 10G -c 8) indica un numero di strisce pari a 8 per file di dimensioni fino a 10 GiB.

  • Il terzo componente (-E 100G -c 16) indica un numero di strisce pari a 16 per file di dimensioni fino a 100 GiB.

  • Il quarto componente (-E -1 -c 32) indica un numero di strisce pari a 32 per file di dimensioni superiori a 100 GiB.

Importante

L'aggiunta di dati a un file creato con un PFL layout popolerà tutti i relativi componenti di layout. Ad esempio, con il comando a 4 componenti illustrato sopra, se create un file da 1 MiB e poi aggiungete dati alla fine del file, il layout del file si espanderà fino ad avere un numero di strisce pari a -1, vale a dire tutto il sistema. OSTs Ciò non significa che i dati verranno scritti su tuttiOST, ma un'operazione come la lettura della lunghezza del file invierà una richiesta in parallelo a tuttiOST, aggiungendo un carico di rete significativo al file system.

Pertanto, fate attenzione a limitare il numero di strisce per qualsiasi file di piccola o media lunghezza a cui successivamente possono essere aggiunti dati. Poiché i file di log di solito crescono con l'aggiunta di nuovi record, Amazon FSx for Lustre assegna un numero di strisce predefinito pari a 1 a qualsiasi file creato in modalità di aggiunta, indipendentemente dalla configurazione di stripe predefinita specificata dalla directory principale.

La PFL configurazione predefinita sui file system Amazon FSx for Lustre creata dopo il 25 agosto 2023 viene impostata con questo comando:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname

I clienti con carichi di lavoro che hanno un accesso altamente simultaneo a file di medie e grandi dimensioni trarranno probabilmente vantaggio da un layout con più strisce OSTs per dimensioni più piccole e striping su tutti i file più grandi, come mostrato nel layout di esempio a quattro componenti.

Monitoraggio delle prestazioni e dell'utilizzo

Ogni minuto, Amazon FSx for Lustre invia ad Amazon i parametri di utilizzo per ogni disco (MDTeOST). CloudWatch

Per visualizzare i dettagli aggregati sull'utilizzo del file system, puoi consultare la statistica Sum di ogni metrica. Ad esempio, la somma delle DataReadBytes statistiche riporta la velocità di lettura totale registrata da tutti gli utenti di un file system. OSTs Analogamente, la somma delle FreeDataStorageCapacity statistiche riporta la capacità di archiviazione totale disponibile per i dati dei file nel file system.

Per ulteriori informazioni sul monitoraggio delle prestazioni del file system, vedereMonitoraggio di Amazon FSx for Lustre.

Suggerimenti per le prestazioni

Quando usi Amazon FSx for Lustre, tieni a mente i seguenti suggerimenti sulle prestazioni. Per i limiti del servizio, consultaQuote per Amazon FSx for Lustre.

  • Dimensione I/O media: poiché Amazon FSx for Lustre è un file system di rete, ogni operazione sui file passa attraverso un viaggio di andata e ritorno tra il client e Amazon FSx for Lustre, con un piccolo sovraccarico di latenza. Grazie a questa bassa latenza per operazione, il throughput generale si incrementa assieme all'incremento delle dimensioni medie delle operazioni di I/O, perché l'overhead viene ammortizzato su una maggiore quantità di dati.

  • Modello di richiesta: abilitando le scritture asincrone sul file system, le operazioni di scrittura in sospeso vengono memorizzate nel buffer sull'istanza Amazon prima di essere scritte su EC2 Amazon for Lustre in modo asincrono. FSx Le scritture asincrone presentano generalmente delle latenze inferiori. Quando si eseguono delle scritture asincrone, il kernel utilizza della memoria aggiuntiva per la memorizzazione nella cache. Un file system che ha abilitato le scritture sincrone invia richieste sincrone ad Amazon FSx for Lustre. Ogni operazione passa attraverso un viaggio di andata e ritorno tra il cliente e Amazon FSx for Lustre.

    Nota

    Il modello di richiesta scelto presenta dei compromessi in termini di coerenza (se utilizzi più EC2 istanze Amazon) e velocità.

  • Limita la dimensione della directory: per ottenere prestazioni ottimali dei metadati sui file system Persistent_2 FSx for Lustre, limita ogni directory a meno di 100.000 file. La limitazione del numero di file in una directory riduce il tempo necessario al file system per acquisire un blocco sulla directory principale.

  • EC2Istanze Amazon: le applicazioni che eseguono un gran numero di operazioni di lettura e scrittura richiedono probabilmente più memoria o capacità di elaborazione rispetto alle applicazioni che non lo fanno. Quando avvii le tue EC2 istanze Amazon per un carico di lavoro ad alta intensità di calcolo, scegli i tipi di istanze che hanno la quantità di queste risorse necessaria alla tua applicazione. Le caratteristiche prestazionali dei file system Amazon FSx for Lustre non dipendono dall'uso di istanze EBS ottimizzate per Amazon.

  • Ottimizzazione consigliata delle istanze del client per prestazioni ottimali

    1. Per tutti i tipi e le dimensioni delle istanze client, consigliamo di applicare la seguente ottimizzazione:

      sudo lctl set_param osc.*.max_dirty_mb=64
    2. Per i tipi di istanze client con memoria superiore a 64 GiB, consigliamo di applicare la seguente ottimizzazione:

      sudo lctl set_param ldlm.namespaces.*.lru_max_age=600000 sudo lctl set_param ldlm.namespaces.*.lru_size=<100 * number_of_CPUs>
    3. Per i tipi di istanze client con più di 64 CPU core v, consigliamo di applicare la seguente ottimizzazione:

      echo "options ptlrpc ptlrpcd_per_cpt_max=32" >> /etc/modprobe.d/modprobe.conf echo "options ksocklnd credits=2560" >> /etc/modprobe.d/modprobe.conf # reload all kernel modules to apply the above two settings sudo reboot

      Dopo aver montato il client, è necessario applicare la seguente ottimizzazione:

      sudo lctl set_param osc.*OST*.max_rpcs_in_flight=32 sudo lctl set_param mdc.*.max_rpcs_in_flight=64 sudo lctl set_param mdc.*.max_mod_rpcs_in_flight=50

    Nota che lctl set_param è noto che non persiste dopo il riavvio. Poiché questi parametri non possono essere impostati in modo permanente dal lato client, si consiglia di implementare un boot cron job per impostare la configurazione con le ottimizzazioni consigliate.

  • Equilibrio del carico di lavoroOSTs: in alcuni casi, il carico di lavoro non determina il throughput aggregato che il file system è in grado di fornire (200 MB/s per TiB di storage). In tal caso, puoi utilizzare le CloudWatch metriche per risolvere i problemi se le prestazioni sono influenzate da uno squilibrio nei modelli di I/O del carico di lavoro. Per identificare se questa è la causa, consulta la CloudWatch metrica Maximum per Amazon FSx for Lustre.

    In alcuni casi, questa statistica mostra un carico pari o superiore a 240 MBps di throughput (la capacità di throughput di un singolo disco Amazon for Lustre da 1,2 TiB). FSx In questi casi, il carico di lavoro non è distribuito uniformemente tra i dischi. In tal caso, puoi utilizzare il lfs setstripe comando per modificare lo striping dei file a cui il tuo carico di lavoro accede più frequentemente. Per prestazioni ottimali, suddividete i file con requisiti di throughput elevati in tutto il OSTs file system.

    Se i tuoi file vengono importati da un archivio di dati, puoi adottare un altro approccio per suddividere i file ad alta velocità in modo uniforme su tutto il tuo. OSTs A tale scopo, puoi modificare il ImportedFileChunkSize parametro durante la creazione del tuo prossimo file system Amazon FSx for Lustre.

    Ad esempio, supponiamo che il carico di lavoro utilizzi un file system da 7,0 TiB (composto da 6 x 1,17 TiB) e debba garantire un throughput elevato su file da 2,4 GiBOSTs. In questo caso, potete impostare il valore in modo che i file siano distribuiti in modo uniforme su tutto il file systemImportedFileChunkSize. (2.4 GiB / 6 OSTs) = 400 MiB OSTs

  • Client Lustre per metadati IOPS: se il tuo file system ha una configurazione di metadati specificata, ti consigliamo di installare un client Lustre 2.15 o un client Lustre 2.12 con una di queste versioni del sistema operativo: Amazon Linux 2023; Amazon Linux 2; Red Hat/Rocky Linux 8.9, 8.10 o 9.x; CentOS 8.9 o 8.10; Ubuntu 22 con kernel 6.2 o 6.5 o Ubuntu 20.