Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
PERF02-BP06 Uso di acceleratori di elaborazione ottimizzati basati su hardware
Usa gli acceleratori hardware per eseguire determinate funzioni in modo più efficiente rispetto alle alternative basate sulla CPU.
Anti-pattern comuni:
-
Nel carico di lavoro non hai confrontato un'istanza per uso generico con un'istanza dedicata in grado di offrire prestazioni più elevate e costi inferiori.
-
Usi gli acceleratori di calcolo basati su hardware per attività in cui sono più efficienti le alternative basate su CPU.
-
Utilizzo delle GPU non monitorato.
Vantaggi dell'adozione di questa best practice: utilizzando gli acceleratori basati su hardware, come le unità di elaborazione grafica (GPU) e le serie di porte programmabili sul campo (FPGA), è possibile eseguire determinate funzioni di elaborazione in modo più efficiente.
Livello di rischio associato se questa best practice non fosse adottata: medio
Guida all'implementazione
Le istanze a calcolo accelerato forniscono l'accesso agli acceleratori di calcolo basati su hardware, come GPU e FPGA. Questi acceleratori hardware eseguono alcune funzioni, come l'elaborazione grafica o la rilevazione della corrispondenza dei modelli di dati, in modo più efficiente rispetto alle alternative basate su CPU. Molti carichi di lavoro accelerati, come il rendering grafico, la transcodifica e il machine learning, sono altamente variabili in termini di utilizzo di risorse. Esegui questo hardware solo per il tempo necessario e disattivalo con l'automazione quando non serve per migliorare l'efficienza complessiva delle prestazioni.
Passaggi dell'implementazione
-
Identifica le istanza a calcolo accelerato in grado di soddisfare i tuoi requisiti.
-
Per i carichi di lavoro di machine learning, sfrutta l'hardware specifico per il tuo carico di lavoro, come AWS Trainium
, AWS Inferentia e Amazon EC2 DL1 . AWS Le istanze Inferentia come le istanze Inf2 offrono fino al 50% in più di prestazioni per watt rispetto alle istanze Amazon EC2 paragonabili . -
Raccogli i parametri di utilizzo delle istanze a calcolo accelerato. Ad esempio, puoi utilizzare l'agente CloudWatch per acquisire metriche quali
utilization_gpu
eutilization_memory
per le tue GPU, come illustrato in Collect NVIDIA GPU metrics with Amazon CloudWatch. -
Ottimizza il codice, il funzionamento della rete e le impostazioni degli acceleratori hardware per garantire il pieno utilizzo dell'hardware sottostante.
-
Utilizza le librerie e i driver per GPU più recenti e performanti.
-
Utilizza l'automazione per rilasciare le istanze GPU non in uso.
Risorse
Documenti correlati:
Video correlati:
-
AWS re:Invent 2021 - How to select Amazon Elastic Compute Cloud GPU instances for deep learning
-
AWS re:Invent 2022 - [NEW LAUNCH!] Introducing AWS Inferentia2-based Amazon EC2 Inf2 instances
-
AWS re:Invent 2022 - Accelerate deep learning and innovate faster with AWS Trainium
-
AWS re:Invent 2022 - Deep learning on AWS with NVIDIA: From training to deployment
Esempi correlati: