このページの改善にご協力ください
このユーザーガイドに貢献するには、すべてのページの右側のペインにある「GitHub でこのページを編集する」リンクを選択してください。
EKS での機械学習エクスペリエンスを改善するにはいくつかの方法があります。このセクションの以降のページは次に役立ちます:
-
ML on EKS を使用するための選択肢を理解する。
-
EKS および ML 環境を準備する。
特に、これは次に役立ちます:
-
AMI を選択する: AWS はEKS 上で ML ワークロードを実行するための複数のカスタマイズされた AMI を提供します。「GPU アクセラレーションコンテナを実行する (EC2 での Linux)」および「GPU アクセラレーションコンテナを実行する (EC2 G シリーズでの Windows)」を参照してください。
-
AMI をカスタマイズする: AWS カスタム AMI をさらに変更して、特定のユースケースに必要な他のソフトウェアやドライバーを追加できます。「Capacity Blocks for ML を使用してセルフマネージドノードを作成する」を参照してください。
-
GPU を予約する: GPU の需要が高いことから、必要な GPU を必要なときに確実に使用できるように、必要な GPUを事前に予約できます。「特定のノードで Pod がスケジュールされないようにする」を参照してください。
-
EFA を追加する: Elastic Fabric Adapter を追加して、ノード間クラスター通信のネットワークパフォーマンスを改善します。「Elastic Fabric Adapter を使用して Amazon EKS で機械学習トレーニングを実行する」を参照してください。
-
AWSインフェクエンティア ワークロードを使用する: アマゾン EC2 Inf1 インスタンスを使用して EKS クラスターを作成します。「機械学習のための Amazon EKS で AWS Inferentia インスタンスを使用する」を参照してください。