Bantu tingkatkan halaman ini
Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Untuk berkontribusi pada panduan pengguna ini, pilih Edit halaman ini pada GitHub tautan yang terletak di panel kanan setiap halaman.
Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EKS yang dioptimalkan Amazon Linux AMIs dipercepat dibangun di atas standar Amazon EKS yang dioptimalkan Amazon Linux AMIs. Untuk detail tentang ini AMIs, lihatAmazon EKS mengoptimalkan Amazon Linux yang dipercepat AMIs. Teks berikut menjelaskan cara mengaktifkan beban kerja AWS berbasis Neuron.
Untuk mengaktifkan beban kerja berbasis AWS Neuron (akselerator mL)
Untuk detail tentang beban kerja pelatihan dan inferensi menggunakan Neuron di Amazon EKS, lihat referensi berikut:
-
Container - Kubernetes - Memulai
Dokumentasi Neuron AWS -
Pelatihan
Sampel AWS Neuron EKS pada GitHub -
Menerapkan beban kerja inferensi ML dengan di AWSInferentia Amazon EKS
Prosedur berikut menjelaskan cara menjalankan beban kerja pada instance berbasis GPU dengan akselerasi Amazon EKS yang dioptimalkan. AMIs
-
Setelah node GPU Anda bergabung dengan cluster Anda, Anda harus menerapkan plugin perangkat NVIDIA untuk Kubernetes
sebagai a DaemonSet di cluster Anda. Ganti vX.X.X
dengan s-device-plugin versi NVIDIA/K8yang Anda inginkan sebelum menjalankan perintah berikut. kubectl apply -f https://raw.githubusercontent.com/NVIDIA/k8s-device-plugin/vX.X.X/deployments/static/nvidia-device-plugin.yml
-
Anda dapat memverifikasi bahwa node Anda telah dialokasikan GPUs dengan perintah berikut.
kubectl get nodes "-o=custom-columns=NAME:.metadata.name,GPU:.status.allocatable.nvidia\.com/gpu"
-
Buat file bernama
nvidia-smi.yaml
dengan isi berikut ini. Gantitag
dengan tag yang Anda inginkan untuk nvidia/cuda. Manifes ini meluncurkan wadah NVIDIA CUDA yang berjalan nvidia-smi
pada node.apiVersion: v1 kind: Pod metadata: name: nvidia-smi spec: restartPolicy: OnFailure containers: - name: nvidia-smi image: nvidia/cuda:tag args: - "nvidia-smi" resources: limits: nvidia.com/gpu: 1
-
Terapkan manifes dengan perintah berikut.
kubectl apply -f nvidia-smi.yaml
-
Setelah Pod selesai berjalan, lihat lognya dengan perintah berikut.
kubectl logs nvidia-smi
Contoh output adalah sebagai berikut.
Mon Aug 6 20:23:31 20XX +-----------------------------------------------------------------------------+ | NVIDIA-SMI XXX.XX Driver Version: XXX.XX | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 Tesla V100-SXM2... On | 00000000:00:1C.0 Off | 0 | | N/A 46C P0 47W / 300W | 0MiB / 16160MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| | No running processes found | +-----------------------------------------------------------------------------+