Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Los trabajos de GPU le ayudan a ejecutar trabajos que utilizan los de una instancia GPUs.
Se admiten los siguientes tipos de instancias EC2 basadas en GPU de Amazon. Para obtener más información, consulte Instancias Amazon EC2 G3, Instancias
Tipo de instancia |
GPUs |
Memoria de GPU |
v CPUs |
Memoria |
Ancho de banda de red |
---|---|---|---|---|---|
g3s.xlarge |
1 |
8 GiB |
4 |
30,5 GiB |
10 Gbps |
g3.4xlarge |
1 |
8 GiB |
16 |
122 GiB |
Hasta 10 Gbps |
g3.8xlarge |
2 |
16 GiB |
32 |
244 GiB |
10 Gbps |
g3.16xlarge |
4 |
32 GiB |
64 |
488 GiB |
25 Gbps |
g4dn.xlarge |
1 |
16 GiB |
4 |
16 GiB |
Hasta 25 Gbps. |
g4dn.2xlarge |
1 |
16 GiB |
8 |
32 GiB |
Hasta 25 Gbps. |
g4dn.4xlarge |
1 |
16 GiB |
16 |
64 GiB |
Hasta 25 Gbps. |
g4dn.8xlarge |
1 |
16 GiB |
32 |
128 GiB |
50 Gbps |
g4dn.12xlarge |
4 |
64 GiB |
48 |
192 GiB |
50 Gbps |
g4dn.16xlarge |
1 |
16 GiB |
64 |
256 GiB |
50 Gbps |
g5.xlarge |
1 |
24 GiB |
4 |
16 GiB |
Hasta 10 Gbps |
g5.2xlarge |
1 |
24 GiB |
8 |
32 GiB |
Hasta 10 Gbps |
g5.4xlarge |
1 |
24 GiB |
16 |
64 GiB |
Hasta 25 Gbps. |
g5.8xlarge |
1 |
24 GiB |
32 |
128 GiB |
25 Gbps |
g5.16xlarge |
1 |
24 GiB |
64 |
256 GiB |
25 Gbps |
g5.12xlarge |
4 |
96 GiB |
48 |
192 GiB |
40 Gbps |
g5.24xlarge |
4 |
96 GiB |
96 |
384 GiB |
50 Gbps |
g5.48xlarge |
8 |
192 GiB |
192 |
768 GiB |
100 Gbps |
p2.xlarge |
1 |
12 GiB |
4 |
61 GiB |
Alto |
p2.8xlarge |
8 |
96 GiB |
32 |
488 GiB |
10 Gbps |
p2.16xlarge |
16 |
192 GiB |
64 |
732 GiB |
20 Gbps |
p3.2xlarge |
1 |
16 GiB |
8 |
61 GiB |
Hasta 10 Gbps |
p3.8xlarge |
4 |
64 GiB |
32 |
244 GiB |
10 Gbps |
p3.16xlarge |
8 |
128 GiB |
64 |
488 GiB |
25 Gbps |
p3dn.24xlarge |
8 |
256 GiB |
96 |
768 GiB |
100 Gbps |
p4d.24xlarge |
8 |
320 GiB |
96 |
1152 GiB |
4x100 Gbps |
p5.48xlarge |
8 |
640 GiB |
192 |
2 TiB |
32x100 Gbps |
nota
El parámetro ResourceRequirements de la definición del trabajo especifica el número de tareas GPUs que se van a fijar al contenedor. Este número de no GPUs está disponible para ningún otro trabajo que se ejecute en esa instancia durante ese trabajo. Todos los tipos de instancia de un entorno de computación que ejecutarán los trabajos de GPU deben pertenecer a las familias de instancias de p2
, p3
, p4
, p5
, g3
, g3s
, g4
o g5
. Si no lo hace así, un trabajo de GPU podría quedar bloqueado en el estado RUNNABLE
.
Los trabajos que no utilizan el se GPUs pueden ejecutar en instancias de GPU. Sin embargo, es posible que su ejecución en las instancias de GPU cueste más que en instancias similares que no sean de GPU. En función de la vCPU específica, la memoria y el tiempo necesario, estos trabajos sin GPU pueden bloquear la ejecución de los trabajos de GPU.