Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
GPUsIn einer ECS Amazon-Aufgabendefinition angeben
Um die GPUs On-a-Container-Instance und die GPU Docker-Laufzeitumgebung zu nutzen, müssen Sie in der Aufgabendefinition die für GPUs Ihren Container erforderliche Anzahl von Containern angeben. Wenn Container platziert GPUs werden, heftet der ECS Amazon-Container-Agent die gewünschte Anzahl von physischen Behältern GPUs an den entsprechenden Container an. Die Anzahl der für alle in einer Aufgabe GPUs reservierten Container reservierten Container darf nicht größer sein als die Anzahl GPUs der verfügbaren Container Instances, für die die Aufgabe gestartet wird. Weitere Informationen finden Sie unter Erstellen einer ECS Amazon-Aufgabendefinition mit der Konsole.
Wichtig
Wenn Ihre GPU Anforderungen in der Aufgabendefinition nicht angegeben werden, verwendet die Aufgabe die Standard-Docker-Laufzeit.
Das Folgende zeigt das JSON Format für die GPU Anforderungen in einer Aufgabendefinition:
{ "containerDefinitions": [ { ... "resourceRequirements" : [ { "type" : "GPU", "value" : "
2
" } ], }, ... }
Das folgende Beispiel veranschaulicht die Syntax eines Docker-Containers, der eine GPU Anforderung festlegt. Dieser Container verwendet 2GPUs, führt das nvidia-smi
Dienstprogramm aus und wird dann beendet.
{ "containerDefinitions": [ { "memory": 80, "essential": true, "name": "gpu", "image": "nvidia/cuda:11.0.3-base", "resourceRequirements": [ { "type":"GPU", "value": "2" } ], "command": [ "sh", "-c", "nvidia-smi" ], "cpu": 100 } ], "family": "example-ecs-gpu" }