Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Executar trabalhos de GPU

Modo de foco
Executar trabalhos de GPU - AWS Batch

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Os trabalhos de GPU ajudam você a executar trabalhos que usam os de uma instância. GPUs

Os seguintes tipos de instância EC2 baseados em GPU da Amazon são compatíveis. Para obter mais informações, consulte Instâncias Amazon EC2 G3, InstânciasAmazon EC2 G4, InstânciasAmazon EC2 G5, Instâncias Amazon P2, EC2 Instâncias Amazon EC2 P3,Instâncias AmazonP4d e Instâncias EC2 Amazon P5. EC2

Tipo de instância

GPUs

Memória da GPU

v CPUs

Memória

Largura de banda de rede

g3s.xlarge

1

8 GiB

4

30,5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

Até 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

Até 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

Até 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

Até 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

Até 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

Até 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

Até 25 Gbps

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

Alto

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

Até 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GiB

96

1152 GiB

4x100 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

32x100 Gbps

nota

Somente os tipos de instância que oferecem suporte a uma GPU NVIDIA e usam uma arquitetura x86_64 são compatíveis com trabalhos de GPU no AWS Batch. Por exemplo, as famílias de instâncias G4ad e G5g não são suportadas.

O parâmetro ResourceRequirements para a definição do trabalho especifica o número de tarefas a GPUs serem fixadas no contêiner. Esse número de GPUs não está disponível para nenhum outro trabalho executado nessa instância durante esse trabalho. Todos os tipos de instâncias em um ambiente de computação que executem trabalhos de GPU devem ser da famílias de instâncias p2, p3, p4, p5, g3, g3s, g4 ou g5. Se isso não for feito, um trabalho de GPU poderá ficar preso no status RUNNABLE.

Os trabalhos que não usam o GPUs podem ser executados em instâncias de GPU. No entanto, eles podem custar mais para serem executados nas instâncias de GPU do que em instâncias semelhantes sem GPU. A depender da vCPU específica, da memória e do tempo necessário, essas tarefas que não são de GPU podem bloquear a execução de tarefas de GPU.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.