

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Memulai dengan DLAMI
<a name="getting-started"></a>

Panduan ini mencakup tips tentang memilih DLAMI yang tepat untuk Anda, memilih jenis instans yang sesuai dengan kasus penggunaan dan anggaran Anda, [Informasi terkait DLAMI](resources.md) dan yang menjelaskan pengaturan khusus yang mungkin menarik.

Jika Anda baru menggunakan AWS atau menggunakan Amazon EC2, mulailah dengan[Pembelajaran Mendalam AMI dengan Conda](overview-conda.md). Jika Anda terbiasa dengan Amazon EC2 dan AWS layanan lain seperti Amazon EMR, Amazon EFS, atau Amazon S3, dan tertarik untuk mengintegrasikan layanan tersebut untuk proyek yang memerlukan pelatihan atau inferensi terdistribusi, [Informasi terkait DLAMI](resources.md) periksa untuk melihat apakah sesuai dengan kasus penggunaan Anda. 

Kami menyarankan Anda memeriksa [Memilih DLAMI](choose-dlami.md) untuk mendapatkan gambaran tentang jenis instans mana yang terbaik untuk aplikasi Anda.

**Langkah berikutnya**  
[Memilih DLAMI](choose-dlami.md)

# Memilih DLAMI
<a name="choose-dlami"></a>

Kami menawarkan berbagai opsi DLAMI seperti yang disebutkan dalam catatan rilis DLAMI [GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu). Untuk membantu Anda memilih DLAMI yang benar untuk kasus penggunaan Anda, kami mengelompokkan gambar berdasarkan jenis perangkat keras atau fungsionalitas yang dikembangkan. Pengelompokan tingkat atas kami adalah:
+ **Jenis DLAMI**: Basis, Kerangka Tunggal, Multi-Kerangka (Conda DLAMI)
+ **Arsitektur Komputasi: Graviton berbasis** [x86, berbasis ARM64 AWS](https://aws.amazon.com/ec2/graviton/)
+ **Jenis Prosesor:** [[GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu), [CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu), [Inferensia, Trainer](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia)](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK:** [[CUDA](https://developer.nvidia.com/cuda-toolkit), Neuron AWS](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **OS:** Amazon Linux, Ubuntu

Topik lainnya dalam panduan ini membantu memberi tahu Anda lebih lanjut dan masuk ke detail lebih lanjut. 

**Topics**
+ [Instalasi CUDA dan Binding Kerangka Kerja](overview-cuda.md)
+ [Dasar Pembelajaran Mendalam AMI](overview-base.md)
+ [Pembelajaran Mendalam AMI dengan Conda](overview-conda.md)
+ [Pilihan Arsitektur DLAMI](overview-architecture.md)
+ [Opsi Sistem Operasi DLAMI](overview-os.md)

**Selanjutnya**  
[Pembelajaran Mendalam AMI dengan Conda](overview-conda.md)

# Instalasi CUDA dan Binding Kerangka Kerja
<a name="overview-cuda"></a>

Sementara pembelajaran mendalam semuanya cukup canggih, setiap kerangka kerja menawarkan versi “stabil”. Versi stabil ini mungkin tidak berfungsi dengan implementasi dan fitur CUDA atau cuDNN terbaru. Kasus penggunaan Anda dan fitur yang Anda butuhkan dapat membantu Anda memilih kerangka kerja. Jika Anda tidak yakin, maka gunakan AMI Pembelajaran Mendalam terbaru dengan Conda. Ini memiliki `pip` binari resmi untuk semua kerangka kerja dengan CUDA, menggunakan versi terbaru mana pun yang didukung oleh setiap kerangka kerja. Jika Anda menginginkan versi terbaru, dan untuk menyesuaikan lingkungan pembelajaran mendalam Anda, gunakan AMI Dasar Pembelajaran Mendalam.

Lihat panduan kami [Kandidat Stabil Versus Rilis](overview-conda.md#overview-conda-stability) untuk panduan lebih lanjut.

## Pilih DLAMI dengan CUDA
<a name="cuda-choose"></a>

[Dasar Pembelajaran Mendalam AMI](overview-base.md)Memiliki semua seri versi CUDA yang tersedia

[Pembelajaran Mendalam AMI dengan Conda](overview-conda.md)Memiliki semua seri versi CUDA yang tersedia

**catatan**  
Kami tidak lagi menyertakan lingkungan MXNet, CNTK, Caffe, Caffe2, Theano, Chainer, atau Keras Conda di. AWS Deep Learning AMIs

Untuk nomor versi kerangka kerja tertentu, lihat [Catatan AMIs Rilis Deep Learning](appendix-ami-release-notes.md)

Pilih jenis DLAMI ini atau pelajari lebih lanjut tentang DLAMIs perbedaan dengan opsi Berikutnya**.**

Pilih salah satu versi CUDA dan tinjau daftar lengkap DLAMIs yang memiliki versi itu di **Lampiran**, atau pelajari lebih lanjut tentang perbedaan DLAMIs dengan opsi **Next** Up.

**Selanjutnya**  
[Dasar Pembelajaran Mendalam AMI](overview-base.md)

## Topik Terkait
<a name="cuda-related"></a>
+ Untuk petunjuk tentang beralih antara versi CUDA, lihat [Menggunakan Basis Pembelajaran Mendalam AMI](tutorial-base.md) tutorial.

# Dasar Pembelajaran Mendalam AMI
<a name="overview-base"></a>

AMI Basis Pembelajaran Mendalam seperti kanvas kosong untuk pembelajaran mendalam. Muncul dengan semua yang Anda butuhkan sampai titik instalasi kerangka kerja tertentu, dan memiliki pilihan versi CUDA Anda. 

## Mengapa Memilih DLAMI Dasar
<a name="base-why"></a>

Grup AMI ini berguna bagi kontributor proyek yang ingin melakukan fork project deep learning dan membangun yang terbaru. Ini untuk seseorang yang ingin menggulung lingkungan mereka sendiri dengan keyakinan bahwa perangkat lunak NVIDIA terbaru diinstal dan berfungsi sehingga mereka dapat fokus memilih kerangka kerja dan versi mana yang ingin mereka instal. 

Pilih jenis DLAMI ini atau pelajari lebih lanjut tentang DLAMIs perbedaan dengan opsi Next Up**.**

**Selanjutnya**  
[DLAMI dengan Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Topik Terkait
<a name="base-related"></a>
+ [Menggunakan Basis Pembelajaran Mendalam AMI](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# Pembelajaran Mendalam AMI dengan Conda
<a name="overview-conda"></a>

Conda DLAMI `conda` menggunakan lingkungan virtual, mereka hadir baik multi-framework atau kerangka kerja tunggal. DLAMIs Lingkungan ini dikonfigurasi untuk menjaga instalasi kerangka kerja yang berbeda terpisah dan merampingkan peralihan antar kerangka kerja. Ini bagus untuk belajar dan bereksperimen dengan semua kerangka kerja yang ditawarkan DLAMI. Sebagian besar pengguna menemukan bahwa AMI Pembelajaran Mendalam baru dengan Conda sangat cocok untuk mereka. 

Mereka sering diperbarui dengan versi terbaru dari kerangka kerja, dan memiliki driver dan perangkat lunak GPU terbaru. Mereka umumnya disebut sebagai * AWS Deep Learning AMIs dalam* sebagian besar dokumen. Ini DLAMIs mendukung sistem operasi Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2, Amazon Linux 2023. Dukungan sistem operasi tergantung pada dukungan dari OS upstream.

## Kandidat Stabil Versus Rilis
<a name="overview-conda-stability"></a>

Conda AMIs menggunakan binari yang dioptimalkan dari rilis formal terbaru dari setiap kerangka kerja. Kandidat rilis dan fitur eksperimental tidak diharapkan. Pengoptimalan tergantung pada dukungan kerangka kerja untuk teknologi akselerasi seperti Intel MKL DNN, yang mempercepat pelatihan dan inferensi pada jenis instans CPU C5 dan C4. Binari juga dikompilasi untuk mendukung set instruksi Intel tingkat lanjut termasuk namun tidak terbatas pada AVX, AVX-2, .1, dan SSE4 .2. SSE4 Ini mempercepat operasi vektor dan floating point pada arsitektur CPU Intel. Selain itu, untuk jenis instans GPU, CUDA dan cuDNN diperbarui dengan versi mana pun yang didukung rilis resmi terbaru. 

AMI Pembelajaran Mendalam dengan Conda secara otomatis menginstal versi kerangka kerja yang paling dioptimalkan untuk EC2 instans Amazon Anda pada aktivasi pertama kerangka kerja. Untuk informasi lebih lanjut, lihat[Menggunakan AMI Pembelajaran Mendalam dengan Conda](tutorial-conda.md). 

Jika Anda ingin menginstal dari sumber, menggunakan opsi build khusus atau yang dioptimalkan, [Dasar Pembelajaran Mendalam AMI](overview-base.md) s mungkin merupakan opsi yang lebih baik untuk Anda.

## Pengakhiran Python 2
<a name="overview-conda-python2"></a>

Komunitas open source Python telah secara resmi mengakhiri dukungan untuk Python 2 pada 1 Januari 2020. PyTorch Komunitas TensorFlow dan telah mengumumkan bahwa rilis TensorFlow 2.1 dan PyTorch 1.4 adalah yang terakhir mendukung Python 2. Rilis DLAMI sebelumnya (v26, v25, dll) yang berisi lingkungan Python 2 Conda terus tersedia. Namun, kami menyediakan pembaruan untuk lingkungan Python 2 Conda pada versi DLAMI yang diterbitkan sebelumnya hanya jika ada perbaikan keamanan yang diterbitkan oleh komunitas sumber terbuka untuk versi tersebut. Rilis DLAMI dengan versi terbaru PyTorch dan kerangka kerja tidak mengandung lingkungan Python 2 Conda. TensorFlow 

## Dukungan CUDA
<a name="overview-conda-cuda"></a>

Nomor versi CUDA tertentu dapat ditemukan di catatan rilis [DLAMI GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**Selanjutnya**  
[Pilihan Arsitektur DLAMI](overview-architecture.md)

## Topik Terkait
<a name="conda-related"></a>
+ Untuk tutorial tentang menggunakan AMI Pembelajaran Mendalam dengan Conda, lihat [Menggunakan AMI Pembelajaran Mendalam dengan Conda](tutorial-conda.md) tutorialnya.

# Pilihan Arsitektur DLAMI
<a name="overview-architecture"></a>

AWS Deep Learning AMIs[s ditawarkan dengan arsitektur Graviton2 berbasis x86 atau berbasis AWS ARM64.](https://aws.amazon.com/ec2/graviton/)

Untuk informasi tentang memulai dengan DLAMI ARM64 GPU, lihat. [ARM64 DLAMI](tutorial-arm64.md) Untuk detail selengkapnya tentang jenis instans yang tersedia, lihat[Memilih tipe instans DLAMI](instance-select.md).

**Selanjutnya**  
[Opsi Sistem Operasi DLAMI](overview-os.md)

# Opsi Sistem Operasi DLAMI
<a name="overview-os"></a>

DLAMIs ditawarkan dalam sistem operasi berikut.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Versi lama dari sistem operasi tersedia pada usang DLAMIs. [Untuk informasi selengkapnya tentang penghentian DLAMI, lihat Deprecations for DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Sebelum memilih DLAMI, nilai jenis instans apa yang Anda butuhkan dan identifikasi Wilayah Anda. AWS 

**Selanjutnya**  
[Memilih tipe instans DLAMI](instance-select.md)

# Memilih tipe instans DLAMI
<a name="instance-select"></a>

Secara lebih umum, pertimbangkan hal berikut ketika memilih jenis instance untuk DLAMI.
+ Jika Anda baru mengenal pembelajaran mendalam, maka instance dengan satu GPU mungkin sesuai dengan kebutuhan Anda.
+ Jika Anda sadar anggaran, maka Anda dapat menggunakan instance khusus CPU.
+ Jika Anda ingin mengoptimalkan kinerja tinggi dan efisiensi biaya untuk inferensi model pembelajaran mendalam, maka Anda dapat menggunakan instance dengan chip AWS Inferentia.
+ Jika Anda mencari instans GPU berkinerja tinggi dengan arsitektur CPU berbasis ARM64, maka Anda dapat menggunakan jenis instans G5G.
+  Jika Anda tertarik untuk menjalankan model terlatih untuk inferensi dan prediksi, Anda dapat melampirkan [Amazon Elastic Inference ke instans Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) Anda. EC2 Amazon Elastic Inference memberi Anda akses ke akselerator dengan sebagian kecil dari GPU.
+ Untuk layanan inferensi volume tinggi, satu instance CPU dengan banyak memori, atau sekelompok instance semacam itu, mungkin merupakan solusi yang lebih baik. 
+  Jika Anda menggunakan model besar dengan banyak data atau ukuran batch tinggi, maka Anda memerlukan instance yang lebih besar dengan lebih banyak memori. Anda juga dapat mendistribusikan model Anda ke sekelompok GPUs. Anda mungkin menemukan bahwa menggunakan instance dengan memori lebih sedikit adalah solusi yang lebih baik untuk Anda jika Anda mengurangi ukuran batch Anda. Ini dapat memengaruhi akurasi dan kecepatan pelatihan Anda.
+  Jika Anda tertarik untuk menjalankan aplikasi pembelajaran mesin menggunakan NVIDIA Collective Communications Library (NCCL) yang membutuhkan komunikasi antar-simpul tingkat tinggi dalam skala besar, Anda mungkin ingin menggunakan [Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html).

Untuk detail selengkapnya tentang instance, lihat .

Topik berikut memberikan informasi tentang pertimbangan jenis instance. 

**penting**  
Deep Learning AMIs mencakup driver, perangkat lunak, atau toolkit yang dikembangkan, dimiliki, atau disediakan oleh NVIDIA Corporation. Anda setuju untuk menggunakan driver, perangkat lunak, atau toolkit NVIDIA ini hanya pada EC2 instans Amazon yang menyertakan perangkat keras NVIDIA.

**Topics**
+ [Harga untuk DLAMI](#pricing)
+ [Ketersediaan Wilayah DLAMI](#region)
+ [Instans GPU yang Direkomendasikan](gpu.md)
+ [Instans CPU yang Direkomendasikan](cpu.md)
+ [Contoh Inferensia yang Direkomendasikan](inferentia.md)
+ [Instans Trainium yang Direkomendasikan](trainium.md)

## Harga untuk DLAMI
<a name="pricing"></a>

Kerangka pembelajaran mendalam yang termasuk dalam DLAMI gratis, dan masing-masing memiliki lisensi sumber terbuka sendiri. Meskipun perangkat lunak yang disertakan dalam DLAMI gratis, Anda masih harus membayar untuk perangkat keras instans Amazon EC2 yang mendasarinya.

Beberapa jenis EC2 instans Amazon diberi label gratis. Dimungkinkan untuk menjalankan DLAMI pada salah satu contoh gratis ini. Ini berarti bahwa menggunakan DLAMI sepenuhnya gratis ketika Anda hanya menggunakan kapasitas instance itu. Jika Anda membutuhkan instance yang lebih kuat dengan lebih banyak core CPU, lebih banyak ruang disk, lebih banyak RAM, atau satu atau lebih GPUs, maka Anda memerlukan instance yang tidak ada di kelas instance free-tier.

Untuk informasi selengkapnya tentang pilihan dan harga instans, lihat [ EC2 harga Amazon](https://aws.amazon.com/ec2/pricing/).

## Ketersediaan Wilayah DLAMI
<a name="region"></a>

Setiap Wilayah mendukung berbagai jenis instans yang berbeda dan seringkali jenis instans memiliki biaya yang sedikit berbeda di Wilayah yang berbeda. DLAMIs tidak tersedia di setiap Wilayah, tetapi dimungkinkan untuk menyalin DLAMIs ke Wilayah pilihan Anda. Lihat [Menyalin AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html) untuk informasi selengkapnya. Perhatikan daftar pilihan Wilayah dan pastikan Anda memilih Wilayah yang dekat dengan Anda atau pelanggan Anda. Jika Anda berencana untuk menggunakan lebih dari satu DLAMI dan berpotensi membuat cluster, pastikan untuk menggunakan Region yang sama untuk semua node di cluster.

Untuk info lebih lanjut tentang Wilayah, kunjungi [titik akhir EC2 layanan Amazon](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**Selanjutnya**  
[Instans GPU yang Direkomendasikan](gpu.md)

# Instans GPU yang Direkomendasikan
<a name="gpu"></a>

Kami merekomendasikan instance GPU untuk sebagian besar tujuan pembelajaran mendalam. Melatih model baru lebih cepat pada instance GPU daripada instance CPU. Anda dapat menskalakan secara sub-linier ketika Anda memiliki instans multi-GPU atau jika Anda menggunakan pelatihan terdistribusi di banyak instance dengan. GPUs 

Jenis contoh berikut mendukung DLAMI. Untuk informasi tentang opsi tipe instans GPU dan kegunaannya, lihat dan pilih **Accelerated Computing**.

**catatan**  
Ukuran model Anda harus menjadi faktor dalam memilih instance. Jika model Anda melebihi RAM instans yang tersedia, pilih jenis instans yang berbeda dengan memori yang cukup untuk aplikasi Anda. 
+ [Instans Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) memiliki hingga 8 NVIDIA Blackwell B200. GPUs
+ [Instans Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) memiliki hingga 8 NVIDIA Blackwell B300. GPUs
+ [Amazon EC2 P6e- GB2 00 Instans](https://aws.amazon.com/ec2/instance-types/p6/) memiliki hingga 4 NVIDIA Blackwell 00. GB2 GPUs
+ [Instans Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) memiliki hingga 8 NVIDIA Tesla H200. GPUs
+ [Instans Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) memiliki hingga 8 NVIDIA Tesla H100. GPUs
+ [Instans Amazon EC2 P4](https://aws.amazon.com/ec2/instance-types/p4/) memiliki hingga 8 NVIDIA Tesla A100. GPUs
+ [Instans Amazon EC2 P3](https://aws.amazon.com/ec2/instance-types/p3/) memiliki hingga 8 NVIDIA Tesla V100. GPUs
+ [Instans Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) memiliki hingga 4 NVIDIA Tesla M60. GPUs
+ [Instans Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) memiliki hingga 4 NVIDIA T4. GPUs
+ [Instans Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) memiliki hingga 8 NVIDIA A10G. GPUs
+ [Instans Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) memiliki hingga 8 NVIDIA L4. GPUs
+ [Instans Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) memiliki hingga 8 NVIDIA L40S Tensor Core. GPUs
+ [Instans Amazon EC2 G5G](https://aws.amazon.com/ec2/instance-types/g5g/) [memiliki prosesor Graviton2 berbasis ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Instans DLAMI menyediakan perkakas untuk memantau dan mengoptimalkan proses GPU Anda. Untuk informasi selengkapnya tentang memantau proses GPU Anda, lihat[Pemantauan dan Optimasi GPU](tutorial-gpu.md).

Untuk tutorial khusus tentang bekerja dengan instans G5G, lihat. [ARM64 DLAMI](tutorial-arm64.md)

**Selanjutnya**  
[Instans CPU yang Direkomendasikan](cpu.md)

# Instans CPU yang Direkomendasikan
<a name="cpu"></a>

Baik Anda memiliki anggaran terbatas, belajar tentang pembelajaran mendalam, atau hanya ingin menjalankan layanan prediksi, Anda memiliki banyak opsi terjangkau dalam kategori CPU. Beberapa kerangka kerja memanfaatkan Intel MKL DNN, yang mempercepat pelatihan dan inferensi pada jenis instans CPU C5 (tidak tersedia di semua Wilayah). Untuk informasi tentang tipe instans CPU, lihat [Instance](https://aws.amazon.com/ec2/instance-types/) dan pilih **Compute Optimized**.

**catatan**  
Ukuran model Anda harus menjadi faktor dalam memilih instance. Jika model Anda melebihi RAM instans yang tersedia, pilih jenis instans yang berbeda dengan memori yang cukup untuk aplikasi Anda. 
+ [Instans Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) memiliki hingga 72 Intel v. CPUs Instans C5 unggul dalam pemodelan ilmiah, pemrosesan batch, analitik terdistribusi, komputasi kinerja tinggi (HPC), dan inferensi pembelajaran mesin dan mendalam.

**Selanjutnya**  
[Contoh Inferensia yang Direkomendasikan](inferentia.md)

# Contoh Inferensia yang Direkomendasikan
<a name="inferentia"></a>

AWS Instance inferensia dirancang untuk memberikan kinerja tinggi dan efisiensi biaya untuk beban kerja inferensi model pembelajaran mendalam. Secara khusus, jenis instans Inf2 menggunakan chip AWS Inferentia dan [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), yang terintegrasi dengan kerangka kerja pembelajaran mesin populer seperti dan. TensorFlow PyTorch

Pelanggan dapat menggunakan instans Inf2 untuk menjalankan aplikasi inferensi pembelajaran mesin skala besar seperti pencarian, mesin rekomendasi, visi komputer, pengenalan suara, pemrosesan bahasa alami, personalisasi, dan deteksi penipuan, dengan biaya terendah di cloud.

**catatan**  
Ukuran model Anda harus menjadi faktor dalam memilih instance. Jika model Anda melebihi RAM instans yang tersedia, pilih jenis instans yang berbeda dengan memori yang cukup untuk aplikasi Anda. 
+ [Instans Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) memiliki hingga 16 chip AWS Inferentia dan throughput jaringan 100 Gbps.

Untuk informasi lebih lanjut tentang memulai dengan AWS Inferensia DLAMIs, lihat[Chip AWS Inferentia Dengan DLAMI](tutorial-inferentia.md).

**Selanjutnya**  
[Instans Trainium yang Direkomendasikan](trainium.md)

# Instans Trainium yang Direkomendasikan
<a name="trainium"></a>

AWS Instans Trainium dirancang untuk memberikan kinerja tinggi dan efisiensi biaya untuk beban kerja inferensi model pembelajaran mendalam. Secara khusus, jenis instans Trn1 menggunakan chip AWS Trainium dan [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), yang terintegrasi dengan kerangka kerja pembelajaran mesin populer seperti dan. TensorFlow PyTorch

Pelanggan dapat menggunakan instans Trn1 untuk menjalankan aplikasi inferensi pembelajaran mesin skala besar seperti pencarian, mesin rekomendasi, visi komputer, pengenalan suara, pemrosesan bahasa alami, personalisasi, dan deteksi penipuan, dengan biaya terendah di cloud.

**catatan**  
Ukuran model Anda harus menjadi faktor dalam memilih instance. Jika model Anda melebihi RAM instans yang tersedia, pilih jenis instans yang berbeda dengan memori yang cukup untuk aplikasi Anda. 
+ [Instans Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) memiliki hingga 16 chip AWS Trainium dan throughput jaringan 100 Gbps.

# Menggunakan Deep Learning AMIs dengan EC2 Image Builder
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) sekarang tersedia sebagai gambar yang dikelola Amazon pada layanan [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html). Integrasi ini menyederhanakan penggunaan DLAMIs sebagai Gambar Dasar dan memastikan versi terbaru digunakan pada waktu tertentu.

## Tersedia DLAMIs
<a name="available-dlamis"></a>

Berikut ini DLAMIs tersedia sebagai gambar yang dikelola Amazon yang ditemukan di bawah **bagian Gambar** dari layanan:
+ [Basis AMI dengan CUDA Tunggal (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [Basis AMI dengan CUDA Tunggal (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 Basis AMI dengan CUDA Tunggal (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 Basis AMI dengan CUDA Tunggal (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[Amazon Mengelola Basis Pembelajaran Mendalam X86 AMI\]](http://docs.aws.amazon.com/id_id/dlami/latest/devguide/images/deep-learning-base.png)


![\[Amazon Mengelola Basis Pembelajaran Mendalam ARM64 AMI\]](http://docs.aws.amazon.com/id_id/dlami/latest/devguide/images/deep-learning-arm.png)


## Menggunakan DLAMIs sebagai Base Image
<a name="using-dlamis-base-image"></a>

DLAMIs dapat digunakan sebagai Gambar Dasar selama pembuatan Resep Gambar.

1. Buka konsol Image Builder

1. Pilih **Resep gambar**

1. Pilih **Buat resep gambar**

1. Di bagian **Gambar dasar**, pilih **Mulai Cepat (Dikelola Amazon)**

1. Dari menu tarik-turun, pilih salah satu yang tersedia DLAMIs berdasarkan pilihan **Sistem Operasi Gambar (OS)** Anda
   + Jika **Amazon Linux** dipilih:
     + Basis Pembelajaran Mendalam AMI dengan CUDA Tunggal Amazon Linux 2023
     +  ARM64 Basis Pembelajaran Mendalam AMI dengan CUDA Tunggal Amazon Linux 2023  
![\[Pembuatan resep Image Builder untuk Amazon Linux\]](http://docs.aws.amazon.com/id_id/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Jika **Ubuntu** dipilih:
     + AMI Dasar Pembelajaran Mendalam dengan CUDA Tunggal Ubuntu 22-04
     + AMI ARM64 Dasar Pembelajaran Mendalam dengan CUDA Tunggal Ubuntu 22-04  
![\[Pembuatan resep Image Builder untuk Ubuntu\]](http://docs.aws.amazon.com/id_id/dlami/latest/devguide/images/image-recipe-creation-ul22.png)