Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Consigliamo un'istanza GPU per la maggior parte degli scopi di deep learning. L'addestramento di nuovi modelli è più veloce su un'istanza GPU che su un'istanza CPU. Puoi scalare in modo sublineare quando hai istanze multi-GPU o se utilizzi l'addestramento distribuito su più istanze con. GPUs
I seguenti tipi di istanza supportano il DLAMI. Per informazioni sulle opzioni relative ai tipi di istanze GPU e sui relativi utilizzi, vedi Tipi di e seleziona Accelerated Computing.
Nota
La dimensione del modello dovrebbe essere un fattore importante nella scelta di un'istanza. Se il modello supera la RAM disponibile di un'istanza, scegli un tipo di istanza diverso con memoria sufficiente per l'applicazione.
-
Le istanze Amazon EC2 P5e
dispongono di un massimo di 8 NVIDIA Tesla H200. GPUs -
Le istanze Amazon EC2 P5
hanno fino a 8 NVIDIA Tesla H100. GPUs -
Le istanze Amazon EC2 P4
hanno fino a 8 NVIDIA Tesla A100. GPUs Le istanze Amazon EC2 P3
hanno fino a 8 NVIDIA Tesla V100. GPUs -
Le istanze Amazon EC2 G3
hanno fino a 4 NVIDIA Tesla M60. GPUs -
Le istanze Amazon EC2 G4
hanno fino a 4 NVIDIA T4. GPUs -
Le istanze Amazon EC2 G5
hanno fino a 8 NVIDIA A10G. GPUs -
Le istanze Amazon EC2 G6
hanno fino a 8 NVIDIA L4. GPUs -
Le istanze Amazon EC2 G6e
dispongono di un massimo di 8 NVIDIA L40S Tensor Core. GPUs -
Le istanze Amazon EC2 G5g
dispongono di processori Graviton2 basati su ARM64 AWS .
Le istanze DLAMI forniscono strumenti per monitorare e ottimizzare i processi della GPU. Per ulteriori informazioni sul monitoraggio dei processi della GPU, consulta. Monitoraggio e ottimizzazione GPU
Per tutorial specifici su come lavorare con le istanze G5g, consulta. Il ARM64 DLAMI