

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# DLAMI の使用開始
<a name="getting-started"></a>

このガイドには、最適な DLAMI を選択する方法やユースケースと予算に適したインスタンスタイプを選択する方法についてのヒントのほか、興味深いカスタムセットアップを説明している[DLAMI の関連情報](resources.md)が記載されています。

Amazon EC2 AWS を初めて使用する場合は、 から始めます[Deep Learning AMI with Conda](overview-conda.md)。Amazon EC2 や Amazon EMR、Amazon EFS、Amazon S3 などの他の AWS サービスに精通していて、分散トレーニングや推論が必要なプロジェクトにこれらのサービスを統合することに関心がある場合は、ユースケースに合っている[DLAMI の関連情報](resources.md)かどうかを確認してください。

[DLAMI の選択](choose-dlami.md) を参照し、アプリケーションに最適なインスタンスタイプの概念を理解することをお勧めします。

**次のステップ**  
[DLAMI の選択](choose-dlami.md)

# DLAMI の選択
<a name="choose-dlami"></a>

「[GPU DLAMI リリースノート](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)」に記載されているように、さまざまな DLAMI オプションが用意されています。ユースケースに適切な DLAMI を選択できるように、開発されたハードウェアのタイプまたは機能別にイメージをグループ化しています。トップレベルのグループは次のとおりです。
+ **DLAMI タイプ:** Base、Single-Framework、Multi-Framework (Conda DLAMI)
+ **コンピューティングアーキテクチャ:** x86 ベース、Arm64 ベースの [AWS Graviton](https://aws.amazon.com/ec2/graviton/)
+ **プロセッサのタイプ:** [GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu)、[CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu)、[Inferentia](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia)、[Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK:** [CUDA](https://developer.nvidia.com/cuda-toolkit)、[AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **OS:** Amazon Linux、Ubuntu

このガイドの残りのトピックでは、より詳細な情報を説明します。

**Topics**
+ [

# CUDA のインストール環境およびフレームワークのバインド
](overview-cuda.md)
+ [

# Deep Learning Base AMI
](overview-base.md)
+ [

# Deep Learning AMI with Conda
](overview-conda.md)
+ [

# DLAMI アーキテクチャのオプション
](overview-architecture.md)
+ [

# DLAMI のオペレーティングシステムのオプション
](overview-os.md)

**次回の予定**  
[Deep Learning AMI with Conda](overview-conda.md)

# CUDA のインストール環境およびフレームワークのバインド
<a name="overview-cuda"></a>

深層学習は、非常に最先端のものですが、各フレームワークは、"安定した" バージョンを提供しています。これらの安定したバージョンは、CUDA または cuDNN の最新の実装および機能とともに動作しない場合があります。ユースケースと必要な機能に基づいて、フレームワークを選択できます。よくわからない場合は、最新の Deep Learning AMI with Conda を使用してください。これには、CUDA を利用したすべてのフレームワークの公式 `pip` バイナリが含まれており、各フレームワークでサポートされる最新バージョンが使用されます。最新のバージョンが必要な場合で、深層学習環境をカスタマイズするには、Deep Learning Base AMI を使用してください。

「[安定性とリリース候補](overview-conda.md#overview-conda-stability)」で当社のガイドを参照してください。

## DLAMI with CUDA の選択
<a name="cuda-choose"></a>

[Deep Learning Base AMI](overview-base.md) には、使用可能なすべての CUDA バージョンシリーズがあります

[Deep Learning AMI with Conda](overview-conda.md) には、使用可能なすべての CUDA バージョンシリーズがあります

**注記**  
MXNet、CNTK、Caffe、Caffe2、Theano、Chainer、Keras Conda 環境は AWS Deep Learning AMIs に含まれなくなりました。

特定のフレームワークのバージョン番号については、[Deep Learning AMI リリースノート](appendix-ami-release-notes.md)を参照してください。

この DLAMI タイプを選択するか、**次回の予定**オプションを使ってさまざまな DLAMI の詳しい情報を確認してください。

いずれかのバージョンの CUDA を選択してから、そのバージョンを含む DLAMI の詳細なリストを**付録**で確認するか、**次回の予定**オプションで別の DLAMI の詳細を確認してください。

**次回の予定**  
[Deep Learning Base AMI](overview-base.md)

## 関連トピック
<a name="cuda-related"></a>
+ CUDA のバージョンを切り替える方法については、「[Deep Learning Base AMI の使用](tutorial-base.md)」チュートリアルを参照してください。

# Deep Learning Base AMI
<a name="overview-base"></a>

Deep Learning Base AMI は、深層学習のための真っ白なキャンバスのようなものです。特定のフレームワークをインストールするまでに必要なすべてが含まれており、CUDA のバージョンも選択できます。

## Base DLAMI を選択する理由
<a name="base-why"></a>

最先端のディープラーニングプロジェクトへの参加を目指すプロジェクト協力者は、この AMI グループを有効活用できます。また、環境を展開する際に、最新の NVIDIA ソフトウェアがインストールされ動作していることを確信できるため、インストールするフレームワークとバージョンの選択に集中できます。

この DLAMI タイプを選択するか、**次回の予定**オプションを使ってさまざまな DLAMI の詳しい情報を確認してください。

**次回の予定**  
[DLAMI with Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## 関連トピック
<a name="base-related"></a>
+ [Deep Learning Base AMI の使用](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# Deep Learning AMI with Conda
<a name="overview-conda"></a>

Conda DLAMI は`conda` 仮想環境を使用しており、マルチフレームワークまたは単一フレームワークのいずれかの DLAMI があります。これらの環境は、インストールした異なるフレームワークの独立性が維持され、フレームワーク間の切り替えが合理化されるように設定されます。これは、DLAMI が提供するすべてのフレームワークを学習したり、試したりするのに最適です。ほとんどのユーザーにとって、新しい Deep Learning AMI with Conda は申し分のないものとなります。

フレームワークからの最新バージョンで頻繁に更新され、最新の GPU ドライバとソフトウェアが導入されることになります。大部分のドキュメントでは、一般的に** AWS Deep Learning AMIs と呼ばれます。これらの DLAMI は、Ubuntu 20.04、Ubuntu 22.04、Amazon Linux 2、Amazon Linux 2023 のオペレーティングシステムをサポートしています。オペレーティングシステムのサポートは、アップストリーム OS からのサポートによって異なります。

## 安定性とリリース候補
<a name="overview-conda-stability"></a>

Conda AMI は、各フレームワークの最新の正式リリース版の最適化バイナリを使用します。リリース候補および実験的機能は対象外です。この最適化は、C5、および C4 CPU インスタンスタイプにおけるトレーニングおよび推論を高速化する高速化テクノロジー (MKL DNN など) をサポートするフレームワークに依存します。また、バイナリは高度な Intel 指示セット (AVX、AVX-2、SSE4.1、SSE4.2 などを含む) をサポートするようにコンパイルされています。これによって、Intel CPU アーキテクチャ上のベクターおよび浮動小数点オペレーションが高速化されます。さらに、GPU インスタンスタイプでは、CUDA および cuDNN は最新の公式リリースがサポートするバージョンで更新されます。

Deep Learning AMI with Conda は、Amazon EC2 インスタンスにフレームワークの最初のアクティベーションから最適化されたフレームワークのバージョンを自動的にインストールします。詳細については、「[Deep Learning AMI with Conda の使用](tutorial-conda.md)」を参照してください。

カスタムまたは最適化されたビルドオプションを使用してソースからインストールする場合は、[Deep Learning Base AMI](overview-base.md) の方が適しています。

## Python 2 の廃止
<a name="overview-conda-python2"></a>

Python オープンソースコミュニティは、Python 2 のサポートを 2020 年 1 月 1 日に正式に終了しました。TensorFlow と PyTorch コミュニティは、TensorFlow 2.1 および PyTorch 1.4 リリースが Python 2 をサポートする最後のリリースになると発表しました。Python 2 Conda 環境を含む DLAMI (v26、v25 など) の以前のリリースは、引き続き利用できます。ただし、以前に公開された DLAMI のバージョンで Python 2 Conda 環境の更新を提供するのは、それらのバージョンのオープンソースコミュニティによって公開されたセキュリティ修正がある場合のみです。TensorFlow および PyTorch フレームワークの今後のバージョンを利用する DLAMI リリースには、Python 2 Conda 環境は含められません。

## CUDA サポート
<a name="overview-conda-cuda"></a>

特定の CUDA バージョン番号は [GPU DLAMIリリースノート](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)で確認できます。

**次回の予定**  
[DLAMI アーキテクチャのオプション](overview-architecture.md)

## 関連トピック
<a name="conda-related"></a>
+ Deep Learning AMI with Conda の使用に関するチュートリアルについては、[Deep Learning AMI with Conda の使用](tutorial-conda.md)のチュートリアルを参照してください。

# DLAMI アーキテクチャのオプション
<a name="overview-architecture"></a>

AWS Deep Learning AMIs は、x86 ベースまたは Arm64 ベースの [AWS Graviton2](https://aws.amazon.com/ec2/graviton/) のアーキテクチャで提供されています。

ARM64 GPU DLAMI の使用開始方法については、「[ARM64 DLAMI](tutorial-arm64.md)」を参照してください。使用可能なインスタンスタイプの詳細については、[DLAMI インスタンスタイプの選択](instance-select.md)を参照してください。

**次回の予定**  
[DLAMI のオペレーティングシステムのオプション](overview-os.md)

# DLAMI のオペレーティングシステムのオプション
<a name="overview-os"></a>

DLAMI は、以下のオペレーティングシステムで提供されています。
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

古いバージョンのオペレーティングシステムは、廃止された DLAMI でも使用できます。DLAMI の廃止について詳しくは、「[DLAMI の廃止](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)」を参照してください。

DLAMI を選択する前に、必要なインスタンスタイプを評価し、AWS リージョンを特定してください。

**次回の予定**  
[DLAMI インスタンスタイプの選択](instance-select.md)

# DLAMI インスタンスタイプの選択
<a name="instance-select"></a>

一般的に、DLAMI のインスタンスタイプを選択するときは、次の点を考慮してください。
+ 深層学習を初めて導入する場合は、GPU が 1 個搭載のインスタンスがニーズに合っている可能性があります。
+ 予算重視の場合は、CPU のみのインスタンスを使用できます。
+ 深層学習モデル推論の高パフォーマンスとコスト効率を最適化する場合は、AWS Inferentia チップでインスタンスを使用できます。
+ Arm64 ベースの CPU アーキテクチャを備えた高いパフォーマンスの GPU インスタンスをお探しなら、G5g インスタンスタイプを使用できます。
+  推論と予測用に事前トレーニング済みモデルを実行することに興味がある場合は、[Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) を Amazon EC2 インスタンスにアタッチできます。Amazon Elastic Inference では、GPU の一部を利用したアクセラレーターにアクセスできます。
+ 大容量の推論サービスの場合は、大容量のメモリを搭載した 1 つの CPU インスタンス、またはそのようなインスタンスのクラスターが、より適したソリューションになることがあります。
+  大量のデータまたは大きなバッチサイズを持つ大規模なモデルを使用している場合は、より多くのメモリを持つより大きなインスタンスが必要になります。モデルを GPU のクラスターに配布することもできます。バッチサイズを小さくした場合、メモリの少ないインスタンスを使用すると改善されることがあります。これは、精度とトレーニング速度に影響を与える可能性があります。
+  大規模で高レベルのノード間通信を必要とする NVIDIA Collective Communications Library (NCCL) を使用した機械学習アプリケーションの実行に関心がある場合は、[Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html) を使用できます。

インスタンスの詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照してください。

次のトピックでは、インスタンスタイプに関する考慮事項について説明します。

**重要**  
ディープラーニング AMI には、ドライバ、ソフトウェアやツールキット (NVIDIA Corporation によって開発、所有あるいは提供) が含まれています。これらの NVIDIA ドライバ、ソフトウェア、ツールキットは、NVIDIA ハードウェアが含まれている Amazon EC2 インスタンスでのみ使用することにユーザーが同意するものとします。

**Topics**
+ [

## DLAMI の価格設定
](#pricing)
+ [

## DLAMI で利用可能なリージョン
](#region)
+ [

# 推奨 GPU インスタンス
](gpu.md)
+ [

# 推奨 CPU インスタンス
](cpu.md)
+ [

# 推奨 Inferentia インスタンス
](inferentia.md)
+ [

# 推奨 Trainium インスタンス
](trainium.md)

## DLAMI の価格設定
<a name="pricing"></a>

DLAMI に含まれている深層学習フレームワークは無料で、それぞれに独自のオープンソースライセンスが付与されています。DLAMI に含まれているソフトウェアは無料ですが、基盤となる Amazon EC2 インスタンスハードウェアの料金を支払う必要があります。

Amazon EC2 インスタンスタイプには無料とされているものがあります。そうした無料のインスタンスのいずれかで DLAMI を実行できます。これは、そのインスタンスの容量だけを使う場合は、DLAMI の使用が完全に無料という意味です。CPU コア数を増やす、ディスク容量を増やす、RAM を増やす、GPU を 1 つ以上使用するなど、より強力なインスタンスが必要な場合は、無料利用枠のインスタンスクラス以外のインスタンスが必要になります。

インスタンスの選択と料金の詳細については、「[Amazon EC2 料金表](https://aws.amazon.com/ec2/pricing/)」を参照してください。

## DLAMI で利用可能なリージョン
<a name="region"></a>

各リージョンでサポートされるインスタンスタイプの範囲はそれぞれ異なり、多くの場合、インスタンスタイプのコストもリージョンごとにわずかに違います。DLAMI を利用できないリージョンはありますが、選択したリージョンに DLAMI をコピーすることは可能です。詳細については、[AMI のコピー](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)を参照してください。リージョンの選択リストを確認し、必ず自社または自社の顧客に近いリージョンを選択してください。複数の DLAMI を使用する予定があり、クラスターを作成する可能性がある場合は、クラスター内のすべてのノードに同じリージョンを使う必要があります。

リージョンの詳細については、「 [Amazon EC2 service endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)」を参照してください。

**次回の予定**  
[推奨 GPU インスタンス](gpu.md)

# 推奨 GPU インスタンス
<a name="gpu"></a>

GPU インスタンスは、深層学習の大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速に実行できます。複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。

以下のインスタンスタイプで DLAMI がサポートされています。GPU インスタンスタイプのオプションとその使用方法の詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照し、**高速コンピューティング**を選択してください。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 P6-B200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell B200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P6-B300 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、最大 8 つの NVIDIA Blackwell B300 GPUs。
+ [Amazon EC2 P6e-GB200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell GB200 GPU が最大 4 個搭載されます。
+ [Amazon EC2 P5e インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P5 インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P4 インスタンス](https://aws.amazon.com/ec2/instance-types/p4/)には、NVIDIA Tesla A100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P3 インスタンス](https://aws.amazon.com/ec2/instance-types/p3/)には、NVIDIA Tesla V100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G3 インスタンス](https://aws.amazon.com/ec2/instance-types/g3/)には、NVIDIA Tesla M60 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G4 インスタンス](https://aws.amazon.com/ec2/instance-types/g4/)には、NVIDIA T4 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G5 インスタンス](https://aws.amazon.com/ec2/instance-types/g5/)には、NVIDIA A10G GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6 インスタンス](https://aws.amazon.com/ec2/instance-types/g6/)には、NVIDIA L4 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6e インスタンス](https://aws.amazon.com/ec2/instance-types/g6e/)には、NVIDIA L40S Tensor Core GPU が最大 8 個搭載されます。
+ [Amazon EC2 G5g インスタンス](https://aws.amazon.com/ec2/instance-types/g5g/)には、Arm64 ベースの [AWS Graviton2 プロセッサ](https://aws.amazon.com/ec2/graviton/)が搭載されます。

DLAMI インスタンスでは、GPU プロセスをモニタリングおよび最適化するためのツールが提供されています。GPU プロセスのモニタリングの詳細については、[GPU のモニタリングおよび最適化](tutorial-gpu.md)を参照してください。

G5g インスタンスの操作に関する具体的なチュートリアルについては、[ARM64 DLAMI](tutorial-arm64.md)を参照してください。

**次回の予定**  
[推奨 CPU インスタンス](cpu.md)

# 推奨 CPU インスタンス
<a name="cpu"></a>

予算に制約がある場合、ディープラーニングを学習する目的の場合、または予測サービスの実行が唯一の目的である場合は、CPU のカテゴリに数多くの低価格な選択肢があります。一部のフレームワークは、C5 (一部のリージョンでのみ使用可) CPU インスタンスタイプにおけるトレーニングと推定を高速化する Intel の MKL DNN を活用しています。CPU インスタンスタイプの詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照し、**コンピューティング最適化**を選択してください。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 C5 インスタンス](https://aws.amazon.com/ec2/instance-types/c5/)には最大 72 個のインテル vCPU があります。C5 インスタンスは、科学モデリング、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、機械学習/深層学習による推論などに優れています。

**次回の予定**  
[推奨 Inferentia インスタンス](inferentia.md)

# 推奨 Inferentia インスタンス
<a name="inferentia"></a>

AWS Inferentia インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Inf2 インスタンスタイプはAWS Inferentia チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Inf2 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Inf2 インスタンス](https://aws.amazon.com/ec2/instance-types/inf2/)には、最大 16 個のAWS Inferentia チップと 100 Gbps のネットワークスループットがあります。

AWS Inferentia DLAMIs「」を参照してください[DLAMI を使用した AWS Inferentia チップ](tutorial-inferentia.md)。

**次回の予定**  
[推奨 Trainium インスタンス](trainium.md)

# 推奨 Trainium インスタンス
<a name="trainium"></a>

AWS Trainium インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Trn1 インスタンスタイプはAWS Trainium チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Trn1 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Trn1 インスタンス](https://aws.amazon.com/ec2/instance-types/trn1/)には、最大 16 AWS Trainium チップと 100 Gbps のネットワークスループットがあります。

# EC2 Image Builder での Deep Learning AMIs の使用
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) が [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html) サービスで Amazon マネージドイメージとして利用可能になりました。この統合により、ベースイメージとしての DLAMIs の使用が簡素化され、常に最新バージョンが使用されます。

## 使用可能な DLAMIs
<a name="available-dlamis"></a>

次の DLAMIsは、サービスの イメージ **セクション**にある Amazon マネージドイメージとして使用できます。
+ [ベース AMI とシングル CUDA (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ベース AMI と単一 CUDA (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 Base AMI with Single CUDA (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 Base AMI with Single CUDA (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[Amazon Managed Deep Learning Base X86 AMI\]](http://docs.aws.amazon.com/ja_jp/dlami/latest/devguide/images/deep-learning-base.png)


![\[Amazon Managed Deep Learning Base ARM64 AMI\]](http://docs.aws.amazon.com/ja_jp/dlami/latest/devguide/images/deep-learning-arm.png)


## DLAMIsベースイメージとして使用する
<a name="using-dlamis-base-image"></a>

DLAMIs は、イメージレシピの作成時にベースイメージとして使用できます。

1. Image Builder コンソールに移動する

1. **イメージレシピ**の選択

1. **イメージレシピの作成**を選択します。

1. **ベースイメージ**セクションで、**クイックスタート (Amazon マネージド)** を選択します。

1. ドロップダウンメニューから、**イメージオペレーティングシステム (OS)** の選択に基づいて、使用可能な DLAMIsのいずれかを選択します。
   + **Amazon Linux** が選択されている場合:
     + 単一の CUDA Amazon Linux 2023 を使用した Deep Learning Base AMI
     + 単一の CUDA Amazon Linux 2023 を使用した Deep Learning ARM64 Base AMI  
![\[Amazon Linux 用の Image Builder レシピの作成\]](http://docs.aws.amazon.com/ja_jp/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + **Ubuntu** が選択されている場合:
     + Deep Learning Base AMI with Single CUDA Ubuntu 22-04
     + Deep Learning ARM64 Base AMI with Single CUDA Ubuntu 22-04  
![\[Ubuntu 用の Image Builder レシピの作成\]](http://docs.aws.amazon.com/ja_jp/dlami/latest/devguide/images/image-recipe-creation-ul22.png)