Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Esegui lavori GPU

Modalità Focus
Esegui lavori GPU - AWS Batch

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

I lavori GPU ti aiutano a eseguire lavori che utilizzano un'istanza. GPUs

Sono supportati i seguenti tipi di istanze EC2 basate su Amazon GPU. Per ulteriori informazioni, consulta Istanze Amazon EC2 G3, IstanzeAmazon EC2 G4, Istanze Amazon G5, Istanze EC2 AmazonP2, Istanze EC2 Amazon P3, Istanze EC2 Amazon P4d e Istanze EC2Amazon P5. EC2

Tipo di istanza

GPUs

Memoria GPU

v CPUs

Memoria

Larghezza di banda di rete

g3s.xlarge

1

8 GiB

4

30,5 GiB

10 Gb/s

g3.4xlarge

1

8 GiB

16

122 GiB

Fino a 10 Gb/s

g3.8xlarge

2

16 GiB

32

24 GiB

10 Gb/s

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gb/s

g4dn.xlarge

1

16 GiB

4

16 GiB

Fino a 25 Gb/s

g4dn.2xlarge

1

16 GiB

8

32 GiB

Fino a 25 Gb/s

g4dn.4xlarge

1

16 GiB

16

64 GiB

Fino a 25 Gb/s

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gb/s

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gb/s

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gb/s

g5.xlarge

1

24 GiB

4

16 GiB

Fino a 10 Gb/s

g5.2xlarge

1

24 GiB

8

32 GiB

Fino a 10 Gb/s

g5.4xlarge

1

24 GiB

16

64 GiB

Fino a 25 Gb/s

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gb/s

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gb/s

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gb/s

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gb/s

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gb/s

p2.xlarge

1

12 GiB

4

61 GiB

Elevata

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gb/s

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gb/s

p3.2xlarge

1

16 GiB

8

61 GiB

Fino a 10 Gb/s

p3.8xlarge

4

64 GiB

32

24 GiB

10 Gb/s

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gb/s

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gb/s

p4d.24xlarge

8

320 GiB

96

1152 GiB

4x100 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

32x100 Gbps

Nota

Per i job GPU in sono supportati solo i tipi di istanze che supportano una GPU NVIDIA e utilizzano un'architettura x86_64. AWS Batch Ad esempio, le famiglie di istanze G4adand G5gnon sono supportate.

Il parametro ResourceRequirements per la definizione del processo specifica il numero di GPUs da aggiungere al contenitore. Questo numero di non GPUs è disponibile per nessun altro processo eseguito su quell'istanza per la durata del processo. Tutti i tipi di istanze in un ambiente di calcolo che esegue processi GPU devono appartenere alle p2 famiglie di g5 istanze p3 p4p5,g3,g3s,,g4, o. Se ciò non viene fatto, un job GPU potrebbe rimanere bloccato nello stato. RUNNABLE

I lavori che non utilizzano il GPUs possono essere eseguiti su istanze GPU. Tuttavia, l'esecuzione su istanze GPU potrebbe costare di più rispetto a istanze simili non GPU. A seconda della vCPU, della memoria e del tempo specifici necessari, questi job non GPU potrebbero bloccare l'esecuzione dei job GPU.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.