

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Guida introduttiva a DLAMI
<a name="getting-started"></a>

Questa guida include suggerimenti su come scegliere il DLAMI più adatto a te, selezionare un tipo di istanza adatto al tuo caso d'uso e al tuo budget e descrive le configurazioni personalizzate che potrebbero interessarti. [Informazioni correlate su DLAMI](resources.md)

Se non conosci AWS o utilizzi Amazon EC2, inizia con[AMI di deep learning con Conda](overview-conda.md). Se conosci Amazon EC2 e altri AWS servizi come Amazon EMR, Amazon EFS o Amazon S3 e sei interessato a integrare tali servizi per progetti che richiedono formazione o inferenza distribuita, [Informazioni correlate su DLAMI](resources.md) dai un'occhiata per vedere se uno è adatto al tuo caso d'uso. 

Ti consigliamo di consultare dapprima [Scelta di un DLAMI](choose-dlami.md) per avere un'idea del tipo di istanza più adatto per la tua applicazione.

**Approfondimenti**  
[Scelta di un DLAMI](choose-dlami.md)

# Scelta di un DLAMI
<a name="choose-dlami"></a>

Offriamo una gamma di opzioni DLAMI, come indicato nelle note di rilascio di [GPU DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu). Per aiutarvi a selezionare il DLAMI corretto per il vostro caso d'uso, raggruppiamo le immagini in base al tipo di hardware o alla funzionalità per cui sono state sviluppate. I nostri raggruppamenti di primo livello sono:
+ **Tipo DLAMI:** base, framework singolo, framework multiplo (Conda DLAMI)
+ **Architettura di calcolo**[: Graviton basato su x86, basato su ARM64 AWS](https://aws.amazon.com/ec2/graviton/)
+ **Tipo di processore:** [https://docs.aws.amazon.com/dlami/latest/devguide/cpu](https://docs.aws.amazon.com/dlami/latest/devguide/cpu)
+ **SDK: CUDA** [https://developer.nvidia.com/cuda-toolkit](https://developer.nvidia.com/cuda-toolkit)
+ **Sistema operativo:** Amazon Linux, Ubuntu

Gli altri argomenti di questa guida aiutano a fornirti ulteriori informazioni e ad approfondire i dettagli. 

**Topics**
+ [Installazioni CUDA e binding di framework](overview-cuda.md)
+ [AMI di base di deep learning](overview-base.md)
+ [AMI di deep learning con Conda](overview-conda.md)
+ [Opzioni di architettura DLAMI](overview-architecture.md)
+ [Opzioni del sistema operativo DLAMI](overview-os.md)

**Argomento successivo**  
[AMI di deep learning con Conda](overview-conda.md)

# Installazioni CUDA e binding di framework
<a name="overview-cuda"></a>

Sebbene il deep learning sia tutto piuttosto all'avanguardia, ogni framework offre versioni «stabili». Queste versioni stabili potrebbero non funzionare con l'implementazione e le funzionalità più recenti di CUDA o cuDNN. Il tuo caso d'uso e le funzionalità di cui hai bisogno possono aiutarti a scegliere un framework. Se non sei sicuro, usa l'ultima AMI Deep Learning con Conda. Dispone di `pip` binari ufficiali per tutti i framework con CUDA, utilizzando la versione più recente supportata da ciascun framework. Se desideri le versioni più recenti e personalizzare il tuo ambiente di deep learning, usa l'AMI Deep Learning Base.

Per ulteriori informazioni, consulta la nostra guida [Stable e candidati alla release](overview-conda.md#overview-conda-stability).

## Scegli un DLAMI con CUDA
<a name="cuda-choose"></a>

[AMI di base di deep learning](overview-base.md)Ha tutte le serie di versioni CUDA disponibili

[AMI di deep learning con Conda](overview-conda.md)Ha tutte le serie di versioni CUDA disponibili

**Nota**  
Non includiamo più gli ambienti CNTK MXNet, Caffe, Caffe2, Theano, Chainer o Keras Conda nel. AWS Deep Learning AMIs

Per i numeri di versione specifici del framework, consulta [Note sulla AMIs versione di Deep Learning](appendix-ami-release-notes.md)

Scegli questo tipo di DLAMI o scopri di più sui diversi DLAMIs con l'opzione **Next Up**.

Scegli una delle versioni di CUDA e consulta l'elenco completo di quelle DLAMIs che hanno quella versione nell'**Appendice**, oppure scopri di più sulle diverse versioni DLAMIs con l'opzione **Next** Up.

**Argomento successivo**  
[AMI di base di deep learning](overview-base.md)

## Argomenti correlati
<a name="cuda-related"></a>
+ Per le istruzioni su come passare da una versione CUDA all'altra, consulta il tutorial [Utilizzo dell'AMI Deep Learning Base](tutorial-base.md).

# AMI di base di deep learning
<a name="overview-base"></a>

L'AMI Deep Learning Base è come una tela vuota per il deep learning. Viene fornito con tutto ciò di cui hai bisogno fino al momento dell'installazione di un particolare framework e puoi scegliere tra diverse versioni CUDA. 

## Perché scegliere Base DLAMI
<a name="base-why"></a>

Questo gruppo di AMI è utile per chi collabora ai progetti e intende eseguire il fork di un progetto di apprendimento profondo e compilare la versione più recente. È destinato a chiunque desideri utilizzare il proprio ambiente avendo la certezza che il software NVIDIA più recente sia installato e funzionante, in modo da potersi concentrare sulla scelta dei framework e delle versioni che intende installare. 

Scegli questo tipo di DLAMI o scopri di più sui diversi DLAMIs con l'opzione **Next Up**.

**Argomento successivo**  
[DLAMI con Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Argomenti correlati
<a name="base-related"></a>
+ [Utilizzo dell'AMI Deep Learning Base](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# AMI di deep learning con Conda
<a name="overview-conda"></a>

Il Conda DLAMI `conda` utilizza ambienti virtuali, sono presenti sia multi-framework che framework singolo. DLAMIs Questi ambienti sono configurati per mantenere separate le diverse installazioni del framework e semplificare il passaggio da un framework all'altro. È ideale per imparare e sperimentare tutti i framework che DLAMI ha da offrire. La maggior parte degli utenti ritiene che la nuova AMI Deep Learning con Conda sia perfetta per loro. 

Vengono aggiornati spesso con le ultime versioni dei framework e dispongono dei driver e del software GPU più recenti. AWS Deep Learning AMIs Nella maggior parte dei documenti vengono generalmente indicati come *i più diffusi*. Questi DLAMIs supportano i sistemi operativi Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2, Amazon Linux 2023. Il supporto dei sistemi operativi dipende dal supporto del sistema operativo upstream.

## Stable e candidati alla release
<a name="overview-conda-stability"></a>

Conda AMIs utilizza file binari ottimizzati delle versioni formali più recenti di ciascun framework. Versioni candidate e funzionalità sperimentali non sono previste. Le ottimizzazioni dipendono dal supporto del framework per tecnologie di accelerazione come MKL DNN di Intel, che accelera l'addestramento e l'inferenza sui tipi di istanze di CPU C5 e C4. I file binari sono inoltre compilati per supportare set di istruzioni Intel avanzati tra cui, a titolo esemplificativo ma non esaustivo, AVX, AVX-2, .1 e .2. SSE4 SSE4 Questi accelerano le operazioni vettoriali e a virgola mobile su architetture CPU di Intel. Inoltre, per i tipi di istanze GPU, CUDA e cuDNN vengono aggiornati con la versione supportata dall'ultima versione ufficiale. 

L'AMI Deep Learning con Conda installa automaticamente la versione più ottimizzata del framework per la tua EC2 istanza Amazon alla prima attivazione del framework. Per ulteriori informazioni, vedi [Utilizzo dell'AMI Deep Learning con Conda](tutorial-conda.md). 

Se desideri eseguire l'installazione dal codice sorgente, utilizzando opzioni di build personalizzate o ottimizzate, la [AMI di base di deep learning](overview-base.md) s potrebbe essere l'opzione migliore per te.

## Impostare Python 2 come obsoleto
<a name="overview-conda-python2"></a>

La comunità open source di Python ha ufficialmente interrotto il supporto per Python 2 il 1 gennaio 2020. La PyTorch community TensorFlow and ha annunciato che le versioni TensorFlow 2.1 e PyTorch 1.4 sono le ultime a supportare Python 2. Le versioni precedenti di DLAMI (v26, v25, ecc.) che contengono ambienti Python 2 Conda continuano a essere disponibili. Tuttavia, forniamo aggiornamenti agli ambienti Python 2 Conda sulle versioni DLAMI pubblicate in precedenza solo se sono presenti correzioni di sicurezza pubblicate dalla community open source per tali versioni. Le versioni DLAMI con le versioni più recenti dei PyTorch framework TensorFlow and non contengono gli ambienti Python 2 Conda.

## Supporto per CUDA
<a name="overview-conda-cuda"></a>

I numeri di versione specifici di CUDA sono disponibili nelle note di rilascio di [GPU DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**Argomento successivo**  
[Opzioni di architettura DLAMI](overview-architecture.md)

## Argomenti correlati
<a name="conda-related"></a>
+ Per un tutorial sull'utilizzo di un'AMI Deep Learning con Conda, consulta il [Utilizzo dell'AMI Deep Learning con Conda](tutorial-conda.md) tutorial.

# Opzioni di architettura DLAMI
<a name="overview-architecture"></a>

AWS Deep Learning AMIs[I sono offerti con architetture Graviton2 basate su x86 o ARM64.AWS](https://aws.amazon.com/ec2/graviton/)

Per informazioni su come iniziare a usare ARM64 GPU DLAMI, vedere. [Il ARM64 DLAMI](tutorial-arm64.md) Per ulteriori dettagli sui tipi di istanze disponibili, consulta. [Scelta del tipo di istanza DLAMI](instance-select.md)

**Argomento successivo**  
[Opzioni del sistema operativo DLAMI](overview-os.md)

# Opzioni del sistema operativo DLAMI
<a name="overview-os"></a>

DLAMIs sono disponibili nei seguenti sistemi operativi.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Le versioni precedenti dei sistemi operativi sono disponibili anche in versione obsoleta DLAMIs. [Per ulteriori informazioni sulla deprecazione DLAMI, consulta Deprecazioni per DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Prima di scegliere un DLAMI, valuta il tipo di istanza di cui hai bisogno e identifica la tua AWS regione.

**Argomento successivo**  
[Scelta del tipo di istanza DLAMI](instance-select.md)

# Scelta del tipo di istanza DLAMI
<a name="instance-select"></a>

Più in generale, tenete presente quanto segue quando scegliete un tipo di istanza per un DLAMI.
+ Se non conosci il deep learning, allora un'istanza con una singola GPU potrebbe soddisfare le tue esigenze.
+ Se sei attento al budget, puoi utilizzare istanze che utilizzano solo CPU.
+ Se stai cercando di ottimizzare alte prestazioni ed efficienza in termini di costi per l'inferenza dei modelli di deep learning, puoi utilizzare istanze con chip Inferentia.AWS
+ Se stai cercando un'istanza GPU ad alte prestazioni con un'architettura CPU basata su ARM64, puoi utilizzare il tipo di istanza G5g.
+  Se sei interessato a eseguire un modello preaddestrato per inferenza e previsioni, puoi collegare un [Amazon Elastic Inference alla tua istanza Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 Amazon Elastic Inference ti dà accesso a un acceleratore con una frazione di una GPU.
+ Per i servizi di inferenza ad alto volume, una singola istanza di CPU con molta memoria o un cluster di tali istanze potrebbe essere una soluzione migliore. 
+  Se utilizzi un modello di grandi dimensioni con molti dati o batch di grandi dimensioni, allora hai bisogno di un'istanza più grande con più memoria. Puoi anche distribuire il tuo modello in un cluster di GPUs. Potresti scoprire che l'utilizzo di un'istanza con meno memoria è una soluzione migliore se riduci la dimensione del batch. Ciò potrebbe influire sulla precisione e sulla velocità di allenamento.
+  Se sei interessato a eseguire applicazioni di machine learning utilizzando NVIDIA Collective Communications Library (NCCL) che richiedono alti livelli di comunicazioni tra nodi su larga scala, potresti voler utilizzare [Elastic Fabric Adapter (EFA](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)).



I seguenti argomenti forniscono informazioni sulle considerazioni relative al tipo di istanza. 

**Importante**  
Il Deep Learning AMIs include driver, software o toolkit sviluppati, posseduti o forniti da NVIDIA Corporation. L'utente accetta di utilizzare questi driver, software o toolkit NVIDIA solo su EC2 istanze Amazon che includono hardware NVIDIA.

**Topics**
+ [Prezzi del DLAMI](#pricing)
+ [Disponibilità della regione DLAMI](#region)
+ [Istanze GPU consigliate](gpu.md)
+ [Istanze CPU consigliate](cpu.md)
+ [Istanze Inferentia consigliate](inferentia.md)
+ [Istanze Trainium consigliate](trainium.md)

## Prezzi del DLAMI
<a name="pricing"></a>

I framework di deep learning inclusi in DLAMI sono gratuiti e ognuno ha le proprie licenze open source. Sebbene il software incluso in DLAMI sia gratuito, devi comunque pagare per l'hardware sottostante dell' EC2 istanza Amazon.

Alcuni tipi di EC2 istanze Amazon sono etichettati come gratuiti. È possibile eseguire il DLAMI su una di queste istanze gratuite. Ciò significa che l'utilizzo di DLAMI è completamente gratuito se si utilizza solo la capacità dell'istanza. Se hai bisogno di un'istanza più potente con più core CPU, più spazio su disco, più RAM o una o più GPUs, allora hai bisogno di un'istanza che non rientri nella classe delle istanze free-tier.

Per ulteriori informazioni sulla scelta e sui prezzi delle istanze, consulta [ EC2 i prezzi di Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilità della regione DLAMI
<a name="region"></a>

Ogni regione supporta una gamma diversa di tipi di istanza e spesso un tipo di istanza ha un costo leggermente diverso nelle diverse regioni. DLAMIs non sono disponibili in tutte le regioni, ma è possibile DLAMIs copiarle nella regione desiderata. Per ulteriori informazioni, [consulta Copiare un AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Prendi nota dell'elenco di selezione delle regioni e assicurati di scegliere una regione più vicina a te o ai tuoi clienti. Se prevedi di utilizzare più di un DLAMI e potenzialmente creare un cluster, assicurati di utilizzare la stessa regione per tutti i nodi del cluster.

Per maggiori informazioni sulle regioni, visita [Amazon EC2 service endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**Argomento successivo**  
[Istanze GPU consigliate](gpu.md)

# Istanze GPU consigliate
<a name="gpu"></a>

Consigliamo un'istanza GPU per la maggior parte degli scopi di deep learning. L'addestramento di nuovi modelli è più veloce su un'istanza GPU che su un'istanza CPU. Puoi scalare in modo sublineare quando hai istanze multi-GPU o se utilizzi l'addestramento distribuito su più istanze con. GPUs 

I seguenti tipi di istanza supportano il DLAMI. [Per informazioni sulle opzioni relative ai tipi di istanze GPU e sui relativi utilizzi, vedi Tipi di e seleziona **Accelerated** Computing.](https://aws.amazon.com/ec2/instance-types/)

**Nota**  
La dimensione del modello dovrebbe essere un fattore importante nella scelta di un'istanza. Se il modello supera la RAM disponibile di un'istanza, scegli un tipo di istanza diverso con memoria sufficiente per l'applicazione. 
+ Le [istanze Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) dispongono di un massimo di 8 NVIDIA Blackwell B200. GPUs
+ Le [istanze Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) dispongono di un massimo di 8 NVIDIA Blackwell B300. GPUs
+ Le [istanze Amazon EC2 GB2 P6e-00](https://aws.amazon.com/ec2/instance-types/p6/) dispongono di un massimo di 4 NVIDIA Blackwell 00. GB2 GPUs
+ Le [istanze Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) dispongono di un massimo di 8 NVIDIA Tesla H200. GPUs
+ [Le istanze Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) hanno fino a 8 NVIDIA Tesla H100. GPUs
+ [Le istanze Amazon EC2 P4](https://aws.amazon.com/ec2/instance-types/p4/) hanno fino a 8 NVIDIA Tesla A100. GPUs
+ [Le istanze Amazon EC2 P3](https://aws.amazon.com/ec2/instance-types/p3/) hanno fino a 8 NVIDIA Tesla V100. GPUs
+ [Le istanze Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) hanno fino a 4 NVIDIA Tesla M60. GPUs
+ [Le istanze Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) hanno fino a 4 NVIDIA T4. GPUs
+ [Le istanze Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) hanno fino a 8 NVIDIA A10G. GPUs
+ [Le istanze Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) hanno fino a 8 NVIDIA L4. GPUs
+ [Le istanze Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) dispongono di un massimo di 8 NVIDIA L40S Tensor Core. GPUs
+ [Le [istanze Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) dispongono di processori Graviton2 basati su ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Le istanze DLAMI forniscono strumenti per monitorare e ottimizzare i processi della GPU. Per ulteriori informazioni sul monitoraggio dei processi della GPU, consulta. [Monitoraggio e ottimizzazione GPU](tutorial-gpu.md)

Per tutorial specifici su come lavorare con le istanze G5g, consulta. [Il ARM64 DLAMI](tutorial-arm64.md)

**Argomento successivo**  
[Istanze CPU consigliate](cpu.md)

# Istanze CPU consigliate
<a name="cpu"></a>

Indipendentemente dal budget, dal livello di conoscenza dell'apprendimento profondo o dall'esigenza di eseguire un servizio di stima, hai a disposizione molte opzioni abbordabili nella categoria CPU. Alcuni framework sfruttano il DNN MKL di Intel, che velocizza l'addestramento e l'inferenza sui tipi di istanze di CPU C5 (non disponibile in tutte le regioni). **Per informazioni sui tipi di istanze CPU, consulta Tipi di istanza Tipi di .**

**Nota**  
La dimensione del modello dovrebbe essere un fattore nella scelta di un'istanza. Se il modello supera la RAM disponibile di un'istanza, scegli un tipo di istanza diverso con memoria sufficiente per l'applicazione. 
+ [Le istanze Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) hanno fino a 72 Intel v. CPUs Le istanze C5 eccellono nella modellazione scientifica, nell'elaborazione in batch, nell'analisi distribuita, nell'elaborazione ad alte prestazioni (HPC) e nell'inferenza di machine e deep learning.

**Argomento successivo**  
[Istanze Inferentia consigliate](inferentia.md)

# Istanze Inferentia consigliate
<a name="inferentia"></a>

AWS Le istanze Inferentia sono progettate per fornire prestazioni elevate ed efficienza in termini di costi per i carichi di lavoro di inferenza dei modelli di deep learning. In particolare, i tipi di istanze Inf2 utilizzano i chip AWS Inferentia e l'[SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), che è integrato con i più diffusi framework di apprendimento automatico come e. TensorFlow PyTorch

I clienti possono utilizzare le istanze Inf2 per eseguire applicazioni di inferenza di machine learning su larga scala come ricerca, motori di raccomandazione, visione artificiale, riconoscimento vocale, elaborazione del linguaggio naturale, personalizzazione e rilevamento delle frodi, al costo più basso del cloud.

**Nota**  
La dimensione del modello dovrebbe essere un fattore nella scelta di un'istanza. Se il modello supera la RAM disponibile di un'istanza, scegli un tipo di istanza diverso con memoria sufficiente per l'applicazione. 
+ [Le istanze Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) hanno fino a 16 chip AWS Inferentia e 100 Gbps di throughput di rete.

Per ulteriori informazioni su come iniziare a usare Inferentia, consulta.AWS DLAMIs [Il chip AWS Inferentia con DLAMI](tutorial-inferentia.md)

**Argomento successivo**  
[Istanze Trainium consigliate](trainium.md)

# Istanze Trainium consigliate
<a name="trainium"></a>

AWS Le istanze Trainium sono progettate per fornire prestazioni elevate ed efficienza in termini di costi per i carichi di lavoro di inferenza dei modelli di deep learning. In particolare, i tipi di istanze Trn1 utilizzano i chip AWS Trainium e l'[SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), che è integrato con i più diffusi framework di machine learning come e. TensorFlow PyTorch

I clienti possono utilizzare le istanze Trn1 per eseguire applicazioni di inferenza di machine learning su larga scala come ricerca, motori di raccomandazione, visione artificiale, riconoscimento vocale, elaborazione del linguaggio naturale, personalizzazione e rilevamento delle frodi, al costo più basso nel cloud.

**Nota**  
La dimensione del modello dovrebbe essere un fattore nella scelta di un'istanza. Se il modello supera la RAM disponibile di un'istanza, scegli un tipo di istanza diverso con memoria sufficiente per l'applicazione. 
+ [Le istanze Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) hanno fino a 16 chip AWS Trainium e 100 Gbps di throughput di rete.

# Utilizzo del Deep Learning AMIs con EC2 Image Builder
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) sono ora disponibili come immagini gestite da Amazon sul servizio [Image EC2 Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html). Questa integrazione semplifica l'utilizzo DLAMIs come immagini di base e garantisce l'utilizzo della versione più recente in qualsiasi momento.

## Disponibile DLAMIs
<a name="available-dlamis"></a>

Le seguenti DLAMIs sono disponibili come immagini gestite da Amazon **nella sezione Immagini** del servizio:
+ [AMI di base con CUDA singolo (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [AMI di base con CUDA singolo (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 AMI di base con CUDA singolo (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 AMI di base con CUDA singolo (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[AMI X86 di Amazon Managed Deep Learning Base\]](http://docs.aws.amazon.com/it_it/dlami/latest/devguide/images/deep-learning-base.png)


![\[ARM64 AMI Amazon Managed Deep Learning Base\]](http://docs.aws.amazon.com/it_it/dlami/latest/devguide/images/deep-learning-arm.png)


## Utilizzo DLAMIs come immagine di base
<a name="using-dlamis-base-image"></a>

DLAMIs può essere utilizzata come immagine di base durante la creazione di Image Recipe.

1. Accedere alla console Image Builder

1. Seleziona Ricette di **immagini**

1. Seleziona **Crea ricetta di immagini**

1. Nella sezione **Immagine di base**, seleziona **Quick Start (gestito da Amazon)**

1. Dal menu a discesa, scegli una delle opzioni disponibili in DLAMIs base alla selezione del **sistema operativo di immagine (OS)**
   + Se è selezionato **Amazon Linux**:
     + AMI di base di deep learning con CUDA singolo Amazon Linux 2023
     + AMI di ARM64 base di deep learning con CUDA singolo Amazon Linux 2023  
![\[Creazione di ricette con Image Builder per Amazon Linux\]](http://docs.aws.amazon.com/it_it/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Se è selezionato **Ubuntu**:
     + AMI di base di deep learning con CUDA singolo Ubuntu 22-04
     + AMI di ARM64 base di deep learning con CUDA singolo Ubuntu 22-04  
![\[Creazione di ricette Image Builder per Ubuntu\]](http://docs.aws.amazon.com/it_it/dlami/latest/devguide/images/image-recipe-creation-ul22.png)