GPUJobs ausführen - AWS Batch

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

GPUJobs ausführen

GPUJobs helfen Ihnen dabei, Jobs auszuführen, die die einer Instanz verwendenGPUs.

Die folgenden EC2 GPU Amazon-basierten Instance-Typen werden unterstützt. Weitere Informationen finden Sie unter Amazon EC2 G3-Instances, Amazon EC2 G4-Instances, Amazon EC2 G5-Instances, Amazon P2-Instances, Amazon EC2 EC2 P3-Instances, Amazon EC2 P4d-Instancesund Amazon P5-Instances. EC2

Instance-Typ

GPUs

GPUArbeitsspeicher

vCPUs

Arbeitsspeicher

Netzwerkbandbreite

g3s.xgroß

1

8 GiB

4

30,5 GiB

10 Gbit/s

g3.4xgroß

1

8 GiB

16

122 GiB

Bis zu 10 Gbit/s

g3.8xgroß

2

16 GiB

32

244 GiB

10 Gbit/s

g3.16xgroß

4

32 GiB

64

488 GiB

25 Gbit/s

g4dn.xgroß

1

16 GiB

4

16 GiB

Bis zu 25 Gbit/s

g4dn.2xgroß

1

16 GiB

8

32 GiB

Bis zu 25 Gbit/s

g4dn.4xgroß

1

16 GiB

16

64 GiB

Bis zu 25 Gbit/s

g4dn.8xgroß

1

16 GiB

32

128 GiB

50 Gbit/s

g4dn.12xgroß

4

64 GiB

48

192 GiB

50 Gbit/s

g4dn.16xgroß

1

16 GiB

64

256 GiB

50 Gbit/s

g5.xgroß

1

24 GiB

4

16 GiB

Bis zu 10 Gbit/s

g5.2xlarge

1

24 GiB

8

32 GiB

Bis zu 10 Gbit/s

g5.4xlarge

1

24 GiB

16

64 GiB

Bis zu 25 Gbit/s

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbit/s

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbit/s

g5.12xlarge

4

96 GiB

48

192 GiB

40 GBit/s

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbit/s

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbit/s

p2.xgroß

1

12 GiB

4

61 GiB

Hoch

p2.8xgroß

8

96 GiB

32

488 GiB

10 Gbit/s

p2.16xgroß

16

192 GiB

64

732 GiB

20 Gbit/s

p3.2xgroß

1

16 GiB

8

61 GiB

Bis zu 10 Gbit/s

p3.8xgroß

4

64 GiB

32

244 GiB

10 Gbit/s

p3.16xgroß

8

128 GiB

64

488 GiB

25 Gbit/s

p3dn.24xgroß

8

256 GiB

96

768 GiB

100 Gbit/s

p4d.24xgroß

8

320 GiB

96

1152 GiB

4 x 100 Gbit/s

p5.48xlarge

8

640 GiB

192

2 TiB

32 x 100 Gbit/s

Anmerkung

Nur Instance-Typen, die eine unterstützen NVIDIA GPU und eine x86_64-Architektur verwenden, werden für Jobs in unterstützt. GPU AWS Batch Beispielsweise werden die G5gInstanzfamilien G4adund nicht unterstützt.

Der resourceRequirementsParameter für die Jobdefinition gibt die Anzahl anGPUs, die an den Container angeheftet werden sollen. Diese Anzahl von GPUs ist für keinen anderen Job verfügbar, der auf dieser Instance für die Dauer dieses Jobs ausgeführt wird. Alle Instance-Typen in einer Rechenumgebung, die GPU Jobs ausführenp2, müssen zu den g5 Instance-Familien p3 p4p5,g3,g3s,g4,, oder gehören. Wenn dies nicht getan wird, kann es sein, dass ein GPU Job im RUNNABLE Status hängen bleibt.

Jobs, die das nicht verwenden, GPUs können auf GPU Instanzen ausgeführt werden. Ihre Ausführung auf den GPU Instances kann jedoch mehr kosten als auf ähnlichen GPU Nicht-Instances. Abhängig von der spezifischen VersionCPU, dem benötigten Arbeitsspeicher und der benötigten Zeit können diese GPU Nicht-Jobs die Ausführung von GPU Jobs blockieren.