Spezifikationen für Amazon EC2 Accelerated Computing-Instances - Amazon EC2

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Spezifikationen für Amazon EC2 Accelerated Computing-Instances

Accelerated Computing Instances verwenden Hardwarebeschleuniger oder Coprozessoren, um Funktionen wie Berechnungen von Fließkommazahlen, Grafikverarbeitung oder Datenmusterabgleich effizienter auszuführen, als es mit Software möglich ist, auf der sie ausgeführt wird. CPUs

Informationen zu Instance-Typen der vorherigen Generation dieser Kategorie, wie z. B. G3-Instances, finden Sie unter. Spezifikationen für Amazon-Instances der EC2 vorherigen Generation

Preisgestaltung

Preisinformationen finden Sie unter Amazon EC2 On-Demand-Preise.

Instance-Familien und Instance-Typen

Instance-Familie Verfügbare Instance-Typen
DL1 dl1.24xlarge
DL2q dl2q.24xlarge
F1 f1.2xlarge | f1.4xlarge | f1.16xlarge
G4ad g4ad.xlarge | g4ad.2xlarge | g4ad.4xlarge | g4ad.8xlarge | g4ad.16xlarge
G4dn g4dn.xlarge | g4dn.2xlarge | g4dn.4xlarge | g4dn.8xlarge | g4dn.12xlarge | g4dn.16xlarge | g4dn.metal
G5 g5.xlarge | g5.2xlarge | g5.4xlarge | g5.8xlarge | g5.12xlarge | g5.16xlarge | g5.24xlarge | g5.48xlarge
G5g g5g.xlarge | g5g.2xlarge | g5g.4xlarge | g5g.8xlarge | g5g.16xlarge | g5g.metal
G6 g6.xlarge | g6.2xlarge | g6.4xlarge | g6.8xlarge | g6.12xlarge | g6.16xlarge | g6.24xlarge | g6.48xlarge
G6e g6e.xlarge | g6e.2xlarge | g6e.4xlarge | g6e.8xlarge | g6e.12xlarge | g6e.16xlarge | g6e.24xlarge | g6e.48xlarge
Gr 6 gr6.4xlarge | gr6.8xlarge
Inf1 inf1.xlarge | inf1.2xlarge | inf1.6xlarge | inf1.24xlarge
Inf2 inf2.xlarge | inf2.8xlarge | inf2.24xlarge | inf2.48xlarge
P2 p2.xlarge | p2.8xlarge | p2.16xlarge
P3 p3.2xlarge | p3.8xlarge | p3.16xlarge
P3dn p3dn.24xlarge
P4d p4d.24xlarge
P4de p4de.24xlarge
P5 p5.48xlarge
P5e p5e.48xlarge
Trn1 trn1.2xlarge | trn1.32xlarge
Trn1n trn1n.32xlarge
VT1 vt1.3xlarge | vt1.6xlarge | vt1.24xlarge

Zusammenfassung der Instanzfamilie

Instance-Familie Hypervisor Prozessortyp (Architektur) Metallinstanzen verfügbar Unterstützung für Dedicated Hosts Spot-Unterstützung Hibernation-Unterstützung Unterstützte Betriebssysteme
DL1 Nitro v3 Intel (x86_64) Linux
DL2q Nitro v3 Intel (x86_64) Linux
F1 Xen Intel (x86_64) Linux
G4ad Nitro v3 AMD (x86_64) Windows | Linux
G4dn Nitro v3 Intel (x86_64) Windows | Linux
G5 Nitro v3 AMD (x86_64) Windows | Linux
G5g Nitro v2 AWS Graviton (arm64) Linux
G6 Nitro v4 AMD (x86_64) Windows | Linux
G6e Nitro v4 AMD (x86_64) Windows | Linux
Gr 6 Nitro v4 AMD (x86_64) Windows | Linux
Inf1 Nitro v3 Intel (x86_64) Linux
Inf2 Nitro v4 AMD (x86_64) Linux
P2 Xen Intel (x86_64) Windows | Linux
P3 Xen Intel (x86_64) Windows | Linux
P3dn Nitro v3 Intel (x86_64) Windows | Linux
P4d Nitro v3 Intel (x86_64) Linux
P4de Nitro v3 Intel (x86_64) Linux
P5 Nitro v4 AMD (x86_64) Linux
P5e Nitro v4 AMD (x86_64) Linux
Trn1 Nitro v4 Intel (x86_64) Linux
Trn1n Nitro v4 Intel (x86_64) Linux
VT1 Nitro v3 Intel (x86_64) Linux

Leistungsspezifikationen

Instance-Typ Berstbar Arbeitsspeicher (GiB) Prozessor vCPUs CPUKerne Threads pro Kern Accelerators Accelerator-Speicher
DL1
dl1.24xlarge 768,00 Intel Xeon P-8275CL 96 48 2 8 x Habana Gaudi HL-205 GPU 256 GiB (8 x 32 GiB)
DL2q
dl2q.24xlarge 768,00 Intel Xeon Cascade Lake 96 48 2 8 x Qualcomm Qualcomm AI100 inference accelerator 125 GiB (8 x 15 GiB)
F1
f1.2xlarge 122,00 Intel Xeon E5-2686v4 8 4 2 1 x Xilinx Virtex UltraScale (VU9P) FPGA 64 GiB (1 x 64 GiB)
f1.4xlarge 244,00 Intel Xeon E5-2686v4 16 8 2 2 x Xilinx Virtex UltraScale (VU9P) FPGA 128 GiB (2 x 64 GiB)
f1.16xlarge 976,00 Intel Xeon E5-2686v4 64 32 2 8 x Xilinx Virtex UltraScale (VU9P) FPGA 512 GiB (8 x 64 GiB)
G4 ad
g4ad.xlarge 16,00 2nd Gen AMD EPYC 7R32 4 2 2 1 x AMD Radeon Pro V520 GPU 8 GiB (1 x 8 GiB)
g4ad.2xlarge 32,00 2nd Gen AMD EPYC 7R32 8 4 2 1 x AMD Radeon Pro V520 GPU 8 GiB (1 x 8 GiB)
g4ad.4xlarge 64,00 2nd Gen AMD EPYC 7R32 16 8 2 1 x AMD Radeon Pro V520 GPU 8 GiB (1 x 8 GiB)
g4ad.8xlarge 128,00 2nd Gen AMD EPYC 7R32 32 16 2 2 x AMD Radeon Pro V520 GPU 16 GiB (2 x 8 GiB)
g4ad.16xlarge 256,00 2nd Gen AMD EPYC 7R32 64 32 2 4 x AMD Radeon Pro V520 GPU 32 GiB (4 x 8 GiB)
G4 dn
g4dn.xgroß 16,00 Intel Xeon P-8259L 4 2 2 1 x NVIDIA T4 GPU 16 GiB (1 x 16 GiB)
g4dn.2xgroß 32,00 Intel Xeon P-8259L 8 4 2 1 x NVIDIA T4 GPU 16 GiB (1 x 16 GiB)
g4dn.4xgroß 64,00 Intel Xeon P-8259L 16 8 2 1 x NVIDIA T4 GPU 16 GiB (1 x 16 GiB)
g4dn.8xgroß 128,00 Intel Xeon P-8259L 32 16 2 1 x NVIDIA T4 GPU 16 GiB (1 x 16 GiB)
g4dn.12xgroß 192,00 Intel Xeon P-8259L 48 24 2 4 x NVIDIA T4 GPU 64 GiB (4 x 16 GiB)
g4dn.16xgroß 256,00 Intel Xeon P-8259L 64 32 2 1 x NVIDIA T4 GPU 16 GiB (1 x 16 GiB)
g4dn.metal 384,00 Intel Xeon P-8259L 96 48 2 8 x NVIDIA T4 GPU 128 GiB (8 x 16 GiB)
G 5
g5.xgroß 16,00 2nd Gen AMD EPYC 7R32 4 2 2 1 x NVIDIA A10G GPU 24 GiB (1 x 24 GiB)
g5.2xlarge 32,00 2nd Gen AMD EPYC 7R32 8 4 2 1 x NVIDIA A10G GPU 24 GiB (1 x 24 GiB)
g5.4xlarge 64,00 2nd Gen AMD EPYC 7R32 16 8 2 1 x NVIDIA A10G GPU 24 GiB (1 x 24 GiB)
g5.8xlarge 128,00 2nd Gen AMD EPYC 7R32 32 16 2 1 x NVIDIA A10G GPU 24 GiB (1 x 24 GiB)
g5.12xlarge 192,00 2nd Gen AMD EPYC 7R32 48 24 2 4 x NVIDIA A10G GPU 96 GiB (4 x 24 GiB)
g5.16xlarge 256,00 2nd Gen AMD EPYC 7R32 64 32 2 1 x NVIDIA A10G GPU 24 GiB (1 x 24 GiB)
g5.24xlarge 384,00 2nd Gen AMD EPYC 7R32 96 48 2 4 x NVIDIA A10G GPU 96 GiB (4 x 24 GiB)
g5.48xlarge 768,00 2nd Gen AMD EPYC 7R32 192 96 2 8 x NVIDIA A10G GPU 192 GiB (8 x 24 GiB)
5 G
g5g.xlarge 8,00 AWS Graviton2 Processor 4 4 1 1 x NVIDIA T4g GPU 16 GiB (1 x 16 GiB)
g5g.2xlarge 16,00 AWS Graviton2 Processor 8 8 1 1 x NVIDIA T4g GPU 16 GiB (1 x 16 GiB)
g5g.4xlarge 32,00 AWS Graviton2 Processor 16 16 1 1 x NVIDIA T4g GPU 16 GiB (1 x 16 GiB)
g5g.8xlarge 64,00 AWS Graviton2 Processor 32 32 1 1 x NVIDIA T4g GPU 16 GiB (1 x 16 GiB)
g5g.16xlarge 128,00 AWS Graviton2 Processor 64 64 1 2 x NVIDIA T4g GPU 32 GiB (2 x 16 GiB)
g5g.metal 128,00 AWS Graviton2 Processor 64 64 1 2 x NVIDIA T4g GPU 32 GiB (2 x 16 GiB)
G 6
g6.x groß 16,00 AMD EPYC 7R13 4 2 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
g 6,2 x groß 32,00 AMD EPYC 7R13 8 4 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
g 6,4 x groß 64,00 AMD EPYC 7R13 16 8 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
g 6,8 x groß 128,00 AMD EPYC 7R13 32 16 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
g 6.12 x groß 192,00 AMD EPYC 7R13 48 24 2 4 x NVIDIA L4 GPU 357 GiB (4 x 89 GiB)
g 6.16 x groß 256,00 AMD EPYC 7R13 64 32 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
g 6,24 x groß 384,00 AMD EPYC 7R13 96 48 2 4 x NVIDIA L4 GPU 357 GiB (4 x 89 GiB)
g 6,48 x groß 768,00 AMD EPYC 7R13 192 96 2 8 x NVIDIA L4 GPU 1430 GiB (8 x 178 GiB)
G6e
g6e. groß 32,00 AMD EPYC 7R13 4 2 2 1 x NVIDIA L40S GPU 44 GiB (1 x 44 GiB)
g 6e 2 x groß 64,00 AMD EPYC 7R13 8 4 2 1 x NVIDIA L40S GPU 44 GiB (1 x 44 GiB)
g6e.4 x groß 128,00 AMD EPYC 7R13 16 8 2 1 x NVIDIA L40S GPU 44 GiB (1 x 44 GiB)
g 6e. 8 x groß 256,00 AMD EPYC 7R13 32 16 2 1 x NVIDIA L40S GPU 44 GiB (1 x 44 GiB)
g 6e. 12 x groß 384,00 AMD EPYC 7R13 48 24 2 4 x NVIDIA L40S GPU 715 GiB (4 x 178 GiB)
g 6e. 16 x groß 512,00 AMD EPYC 7R13 64 32 2 1 x NVIDIA L40S GPU 44 GiB (1 x 44 GiB)
g 6 e 24 x groß 768,00 AMD EPYC 7R13 96 48 2 4 x NVIDIA L40S GPU 715 GiB (4 x 178 GiB)
g 6e 48 x groß 1536,00 AMD EPYC 7R13 192 96 2 8 x NVIDIA L40S GPU 2861 GiB (8 x 357 GiB)
Gr 6
gr 6,4 x groß 128,00 AMD EPYC 7R13 16 8 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
gr 6,8 x groß 256,00 AMD EPYC 7R13 32 16 2 1 x NVIDIA L4 GPU 22 GiB (1 x 22 GiB)
Inf1
inf1.xlarge 8,00 Intel Xeon P-8259L 4 2 2 1 x AWS Inferentia inference accelerator 8 GiB (1 x 8 GiB)
inf1.2xlarge 16,00 Intel Xeon P-8259L 8 4 2 1 x AWS Inferentia inference accelerator 8 GiB (1 x 8 GiB)
inf1.6xlarge 48,00 Intel Xeon P-8259L 24 12 2 4 x AWS Inferentia inference accelerator 32 GiB (4 x 8 GiB)
inf1.24xlarge 192,00 Intel Xeon P-8259L 96 48 2 16 x AWS Inferentia inference accelerator 128 GiB (16 x 8 GiB)
Info 2
inf2.xlarge 16,00 AMD EPYC 7R13 4 2 2 1 x AWS Inferentia inference accelerator 32 GiB (1 x 32 GiB)
inf2.8xlarge 128,00 AMD EPYC 7R13 32 16 2 1 x AWS Inferentia inference accelerator 32 GiB (1 x 32 GiB)
inf2.24xlarge 384,00 AMD EPYC 7R13 96 48 2 6 x AWS Inferentia inference accelerator 192 GiB (6 x 32 GiB)
inf2.48xlarge 768,00 AMD EPYC 7R13 192 96 2 12 x AWS Inferentia inference accelerator 384 GiB (12 x 32 GiB)
P2
p2.xgroß 61,00 Intel Xeon E5-2686v4 4 2 2 1 x NVIDIA K80 GPU 12 GiB (1 x 12 GiB)
p2.8xgroß 488,00 Intel Xeon E5-2686v4 32 16 2 8 x NVIDIA K80 GPU 96 GiB (8 x 12 GiB)
p2.16xgroß 732,00 Intel Xeon E5-2686 v4 64 32 2 16 x NVIDIA K80 GPU 192 GiB (16 x 12 GiB)
P 3
p3.2xgroß 61,00 Intel Xeon E5-2686 v4 8 4 2 1 x NVIDIA V100 GPU 16 GiB (1 x 16 GiB)
p3.8xgroß 244,00 Intel Xeon E5-2686 v4 32 16 2 4 x NVIDIA V100 GPU 64 GiB (4 x 16 GiB)
p3.16xgroß 488,00 Intel Xeon E5-2686 v4 64 32 2 8 x NVIDIA V100 GPU 128 GiB (8 x 16 GiB)
P 3 dn
p3dn.24xgroß 768,00 Intel Xeon Platinum 8175 96 48 2 8 x NVIDIA V100 GPU 256 GiB (8 x 32 GiB)
P4d
p4d.24xgroß 1152,00 Intel Xeon Platinum 8175 96 48 2 8 x NVIDIA A100 GPU 320 GiB (8 x 40 GiB)
P4de
p4de.24xlarge 1152,00 Intel Xeon Platinum 8175 96 48 2 8 x NVIDIA A100 GPU 640 GiB (8 x 80 GiB)
P 5
p5.48xlarge 2048,00 AMD EPYC 7R13 192 96 2 8 x NVIDIA H100 GPU 640 GiB (8 x 80 GiB)
P5e
p 5e. 48 x groß 2048,00 AMD EPYC 7R13 192 96 2 8 x NVIDIA H200 GPU 1128 GiB (8 x 141 GiB)
Zug 1
trn1.2xlarge 32,00 Intel Xeon Ice Lake 8375C 8 4 2 1 x AWS Trainium accelerators 32 GiB (1 x 32 GiB)
trn1.32xlarge 512,00 Intel Xeon Ice Lake 8375C 128 64 2 16 x AWS Trainium accelerators 512 GiB (16 x 32 GiB)
Trn 1 n
trn1n.32xlarge 512,00 Intel Xeon Ice Lake 128 64 2 16 x AWS Trainium accelerators 512 GiB (16 x 32 GiB)
VT1
vt1.3xlarge 24,00 Intel Cascade Lake P-8259CL 12 6 2 1 x Xilinx U30 media accelerator 24 GiB (1 x 24 GiB)
vt1.6xlarge 48,00 Intel Cascade Lake P-8259CL 24 12 2 2 x Xilinx U30 media accelerator 48 GiB (2 x 24 GiB)
vt1.24xlarge 192,00 Intel Cascade Lake P-8259CL 96 48 2 8 x Xilinx U30 media accelerator 192 GiB (8 x 24 GiB)

Netzwerkspezifikationen

Instance-Typ Baseline-/Burst-Bandbreite (Gbit/s) EFA ENA ENAExpress Netzwerkkarten Max. Anzahl Netzwerkschnittstellen IP-Adressen pro Schnittstelle IPv6
DL1
dl1.24xlarge 4 x 100 Gigabit 4 60 50
DL2q
dl2q.24xlarge 100 Gigabit 1 15 50
F1
f1.2 x groß 1 Up to 10 Gigabit 1 4 15
f1.4 x groß 1 Up to 10 Gigabit 1 8 30
f1.16xlarge 25 Gigabit 1 8 50
G4 ad
g4ad.xlarge 1 2.0 / 10.0 1 2 4
g4ad.2xlarge 1 4.167 / 10.0 1 2 4
g4ad.4xlarge 1 8.333 / 10.0 1 3 10
g4ad.8xlarge 15 Gigabit 1 4 15
g4ad.16xlarge 25 Gigabit 1 8 30
G4dn
g4dn.xlarge 1 5.0 / 25.0 1 3 10
g4dn.2xlarge 1 10.0 / 25.0 1 3 10
g4dn.4x groß 1 20.0 / 25.0 1 3 10
g4dn.8xgroß 50 Gigabit 1 4 15
g4dn.12xgroß 50 Gigabit 1 8 30
g4dn.16xgroß 50 Gigabit 1 4 15
g4dn.metal 100 Gigabit 1 15 50
G5
g5.xlarge 1 2.5 / 10.0 1 4 15
g5.2xlarge 1 5.0 / 10.0 1 4 15
g 5.4 x groß 1 10.0 / 25.0 1 8 30
g5.8xlarge 25 Gigabit 1 8 30
g5.12xlarge 40 Gigabit 1 15 50
g5.16xlarge 25 Gigabit 1 8 30
g5.24xlarge 50 Gigabit 1 15 50
g5.48xlarge 100 Gigabit 1 7 50
G 5 g
g5g.xlarge 1 1.25 / 10.0 1 4 15
g5g.2xlarge 1 2.5 / 10.0 1 4 15
g 5 g. 4 x groß 1 5.0 / 10.0 1 8 30
g5g.8xlarge 12 Gigabit 1 8 30
g5g.16xlarge 25 Gigabit 1 15 50
g5g.metal 25 Gigabit 1 15 50
G6
g6.x groß 1 2.5 / 10.0 1 4 15
g 6.2 x groß 1 5.0 / 10.0 1 4 15
g 6,4 x groß 1 10.0 / 25.0 1 8 30
g 6,8 x groß 25 Gigabit 1 8 30
g 6.12 x groß 40 Gigabit 1 8 30
g 6.16 x groß 25 Gigabit 1 15 50
g 6.24 x groß 50 Gigabit 1 15 50
g 6,48 x groß 100 Gigabit 1 15 50
G 6 e
g6e.xlarge 1 2.5 / 20.0 1 4 15
g6e.2xgroß 1 5.0 / 20.0 1 4 15
g6e.4 x groß 20 Gigabit 1 8 30
g6e.8 x groß 25 Gigabit 1 8 30
g6e.12x groß 100 Gigabit 1 10 30
g6e.16x groß 35 Gigabit 1 15 50
g6e.24x groß 200 Gigabit 2 20 50
g6e.48x groß 400 Gigabit 4 40 50
Gr 6
gr 6.4 x groß 1 10.0 / 25.0 1 8 30
gr 6,8 x groß 25 Gigabit 1 8 30
Inf1
inf1.xlarge 1 5.0 / 25.0 1 4 10
inf1.2xlarge 1 5.0 / 25.0 1 4 10
inf1.6xlarge 25 Gigabit 1 8 30
inf1.24xlarge 100 Gigabit 1 11 30
Inf2
inf2.xlarge 1 2.083 / 15.0 1 4 15
inf2.8 x groß 1 16.667 / 25.0 1 8 30
inf2.24xlarge 50 Gigabit 1 15 50
inf2.48xlarge 100 Gigabit 1 15 50
P2
p2.xgroß Hoch 1 4 15
p2.8xgroß 10 Gigabit 1 8 30
p2.16xgroß 25 Gigabit 1 8 30
P 3
p3.2 x groß 1 Up to 10 Gigabit 1 4 15
p3.8xgroß 10 Gigabit 1 8 30
p3.16xgroß 25 Gigabit 1 8 30
P3dn
p3dn.24xgroß 100 Gigabit 1 15 50
P4d
p4d.24xgroß 4 x 100 Gigabit 4 60 50
P4de
p4de.24xlarge 4 x 100 Gigabit 4 60 50
P5
p5.48xlarge 3 200 Gigabit 32 64 50
P5e
p 5e. 48 x groß 3 200 Gigabit 32 64 50
Reihe 1
trn1.2xlarge 1 3.125 / 12.5 1 4 15
trn1.32xlarge 8 x 100 Gigabit 8 40 50
Trn 1 n
trn1n.32xlarge 16x 100 Gigabit 16 80 50
VT1
vt1.3xlarge 3,12 Gigabit 1 4 15
vt1.6xlarge 6,25 Gigabit 1 8 30
vt1.24xlarge 25 Gigabit 1 15 50
Anmerkung

1 Diese Instances verfügen über eine Basisbandbreite und können mithilfe eines Netzwerk-I/O-Guthaben-Mechanismus ihre Basisbandbreite nach bestem Wissen übersteigen. Andere Instance-Typen können ihre maximale Leistung auf unbestimmte Zeit aufrechterhalten. Weitere Informationen finden Sie unter Netzwerkbandbreite von Instances.

EBSAmazon-Spezifikationen

Die folgende Tabelle zeigt, welche Instance-Typen standardmäßig EBS für Amazon optimiert sind und welche sie optional unterstützen. Es beschreibt auch ihre EBS optimierte Leistung, einschließlich der dedizierten Bandbreite für AmazonEBS, des typischen maximalen Gesamtdurchsatzes, der auf dieser dedizierten Verbindung mit einem Streaming-Lese-Workload und einer I/O-Größe von 128 KiB erreicht werden kann, und des Maximums, das IOPS der Instance-Typ bei Verwendung einer I/O-Größe von 16 KiB unterstützen kann. Instance-Typen, die nicht aufgeführt sind, unterstützen keine EBS Amazon-Optimierung.

Wichtig

Die EBS Leistung einer Instance wird durch die Leistungsgrenzen der Instance oder die Gesamtleistung der angehängten Volumes begrenzt, je nachdem, welcher Wert kleiner ist. Um eine maximale EBS Leistung zu erzielen, muss eine Instance über angeschlossene Volumes verfügen, deren kombinierte Leistung mindestens der maximalen Instance-Leistung entspricht. Um beispielsweise vier zu erreichenr6i.16xlarge, müssen 80,000 IOPS für die Instance mindestens 5 gp3 Volumes bereitgestellt werden (16,000IOPS5Volumes x 16,000 IOPS = 80,000IOPS).

Wir empfehlen Ihnen, einen EBS —optimierten Instance-Typ zu wählen, der mehr dedizierten EBS Amazon-Durchsatz bietet, als Ihre Anwendung benötigt. Andernfalls EC2 kann die Verbindung zwischen Amazon EBS und Amazon zu einem Leistungsengpass werden.

Instance-Typ Basislinie//Maximale Bandbreite (Mbit/s) Ausgangswert//Maximaler Durchsatz (MB/s, 128 KiB I/O) Basislinie /Maximum IOPS (16 KiB I/O) NVMe EBSOptimierung 2
DL1
dl1.24xlarge 19000,00 2375,00 80000,00 default
DL2q
dl2q.24xlarge 19000,00 2375,00 80000,00 default
F1
f1.2xlarge 1700,00 212,50 12000,00 default
f1.4xlarge 3500,00 437,50 44000,00 default
f1.16xlarge 14000,00 1750,00 75000,00 default
G4 ad
g4ad.xlarge 1 400,00/3170,00 50,00/396,25 1700,00/13333,00 default
g4ad.2xlarge 1 800,00/3170,00 100,00/396,25 3400,00/13333,00 default
g4ad.4xlarge 1 1580,00/3170,00 197,50/396,25 6700,00/13333,00 default
g4ad.8xlarge 3170,00 396,25 13333,00 default
g4ad.16xlarge 6300,00 787,50 26667,00 default
G4dn
g4dn.xlarge 1 950,00/3500,00 118,75/437,50 3000,00/20000,00 default
g4dn.2xlarge 1 1150,00/3500,00 143,75/437,50 6000,00/20000,00 default
g4dn.4xgroß 4750,00 593,75 20000,00 default
g4dn.8xgroß 9500,00 1187,50 40000,00 default
g4dn.12xgroß 9500,00 1187,50 40000,00 default
g4dn.16xgroß 9500,00 1187,50 40000,00 default
g4dn.metal 19000,00 2375,00 80000,00 default
G 5
g5.xlarge 1 700,00/3500,00 87,50/437,50 3000,00/15000,00 default
g5.2xlarge 1 850,00/3500,00 106,25/437,50 3500,00/15000,00 default
g5.4xlarge 4750,00 593,75 20000,00 default
g5.8xlarge 16000,00 2000,00 65000,00 default
g5.12xlarge 16000,00 2000,00 65000,00 default
g5.16xlarge 16000,00 2000,00 65000,00 default
g5.24xlarge 19000,00 2375,00 80000,00 default
g5.48xlarge 19000,00 2375,00 80000,00 default
G 5 g
g5g.xlarge 1 1188,00/4750,00 148,50/593,75 6000,00/20000,00 default
g5g.2xlarge 1 2375,00/4750,00 296,88/593,75 12000,00/20000,00 default
g5g.4xlarge 4750,00 593,75 20000,00 default
g5g.8xlarge 9500,00 1187,50 40000,00 default
g5g.16xlarge 19000,00 2375,00 80000,00 default
g5g.metal 19000,00 2375,00 80000,00 default
G 6
g6.x groß 1 1000,00/5000,00 125,00/625,00 4000,00/20000,00 default
g 6,2 x groß 1 2000,00/500,00 250,00/625,00 8000,00/20000,00 default
g 6,4 x groß 8000,00 1000,00 32000,00 default
g 6,8 x groß 16000,00 2000,00 64000,00 default
g 6.12 x groß 20000,00 2500,00 80000,00 default
g 6.16 x groß 20000,00 2500,00 80000,00 default
g 6,24 x groß 30000,00 3750,00 120000,00 default
g 6,48 x groß 60000,00 7500,00 240000,00 default
G6e
g6e.xlarge 1 1000,00/5000,00 125,00/625,00 4000,00/20000,00 default
g 6e 2 x groß 1 2000,00/500,00 250,00/625,00 8000,00/20000,00 default
g6e.4 x groß 8000,00 1000,00 32000,00 default
g 6e. 8 x groß 16000,00 2000,00 64000,00 default
g6e.12x groß 20000,00 2500,00 80000,00 default
g6e.16x groß 20000,00 2500,00 80000,00 default
g 6e 24 x groß 30000,00 3750,00 120000,00 default
g 6e 48 x groß 60000,00 7500,00 240000,00 default
Gr 6
gr 6,4 x groß 8000,00 1000,00 32000,00 default
gr 6,8 x groß 16000,00 2000,00 64000,00 default
Inf1
inf1.xlarge 1 1190,00/4750,00 148,75/593,75 4000,00/20000,00 default
inf1.2xlarge 1 1190,00/4750,00 148,75/593,75 6000,00/20000,00 default
inf1.6xlarge 4750,00 593,75 20000,00 default
inf1.24xlarge 19000,00 2375,00 80000,00 default
Info 2
inf2.xlarge 1 1250,00/10000,00 156,25/1250,00 6000,00/40000,00 default
inf2.8xlarge 10000,00 1250,00 40000,00 default
inf2.24xlarge 30000,00 3750,00 120000,00 default
inf2.48xlarge 60000,00 7500,00 240000,00 default
P2
p2.xgroß 750,00 93,75 6000,00 default
p2.8xgroß 5000,00 625,00 32500,00 default
p2.16xgroß 10000,00 1250,00 65000,00 default
P 3
p3.2xgroß 1750,00 218,75 10000,00 default
p3.8xgroß 7000,00 875,00 40000,00 default
p3.16xgroß 14000,00 1750,00 80000,00 default
P 3 dn
p3dn.24xgroß 19000,00 2375,00 80000,00 default
P4d
p4d.24xgroß 19000,00 2375,00 80000,00 default
P4 de
p4de.24xlarge 19000,00 2375,00 80000,00 default
P 5
p5.48xlarge 80000,00 10000,00 260000,00 default
P5e
p 5e. 48 x groß 80000,00 10000,00 260000,00 default
Zug 1
trn1.2xlarge 1 5000,00/20000,00 625,00/2500,00 16250,00/65000,00 default
trn1.32xlarge 80000,00 10000,00 260000,00 default
Trn 1 n
trn1n.32xlarge 80000,00 10000,00 260000,00 default
VT1
vt1.3xlarge 1 2375,00/4750,00 296,88/593,75 10000,00/20000,00 default
vt1.6xlarge 4750,00 593,75 20000,00 default
vt1.24xlarge 19000,00 2375,00 80000,00 default
Anmerkung

1 Diese Instances können mindestens einmal alle 24 Stunden für 30 Minuten die maximale Leistung erbringen, danach fallen sie auf ihre Basisleistung zurück. Andere Instances können die maximale Leistung auf unbestimmte Zeit aufrechterhalten. Wenn Ihre Workload länger als 30 Minuten anhaltende maximale Leistung erfordert, verwenden Sie eine dieser Instances.

2 default gibt an, dass Instanzen standardmäßig für die EBS Optimierung aktiviert sind. supportedgibt an, dass Instances optional für die EBS Optimierung aktiviert werden können. Weitere Informationen finden Sie unter EBSAmazon-optimierte Instances.

Spezifikationen für den Instance-Speicher

Die folgende Tabelle zeigt die Konfiguration des Instance-Speicher-Volumes für unterstützte Instance-Typen sowie die aggregierte IOPS Leistung mit einer Blockgröße von 4.096 Byte bei Sättigung der Warteschlangentiefe.

Instance-Typ Instance-Speicher-Volumes Typ des Instance-Speichers 100% zufälliges IOPS Lesen/Schreiben IOPS Benötigt Initialisierung 1 TRIMUnterstützung 2
DL1
dl1.24xlarge 4 x 1000 GB NVMe SSD 1.000.000/800.000
F1
f1.2xlarge 1 x 470 GB NVMe SSD
f1.4xlarge 1 x 940 GB NVMe SSD
f1.16xlarge 4 x 940 GB NVMe SSD
G4 ad
g4ad.xlarge 1 x 150 GB NVMe SSD 10.417/8.333
g4ad.2xlarge 1 x 300 GB NVMe SSD 20.833/16.667
g4ad.4xlarge 1 x 600 GB NVMe SSD 41.667/33.333
g4ad.8xlarge 1 x 1200 GB NVMe SSD 83.333/66.667
g4ad.16xlarge 2 x 1200 GB NVMe SSD 166.666/133.332
G4 dn
g4dn.xgroß 1 x 125 GB NVMe SSD 42.500/32.500
g4dn.2xgroß 1 x 225 GB NVMe SSD 42.500/32.500
g4dn.4xgroß 1 x 225 GB NVMe SSD 85.000/65.000
g4dn.8xgroß 1 x 900 GB NVMe SSD 250.000/200.000
g4dn.12xgroß 1 x 900 GB NVMe SSD 250.000/200.000
g4dn.16xgroß 1 x 900 GB NVMe SSD 250.000/200.000
g4dn.metal 2 x 900 GB NVMe SSD 500.000/400.000
G5
g5.xgroß 1 x 250 GB NVMe SSD 40.625/20.313
g5.2xlarge 1 x 450 GB NVMe SSD 40.625/20.313
g5.4xlarge 1 x 600 GB NVMe SSD 125.000/62.500
g5.8xlarge 1 x 900 GB NVMe SSD 250.000/125.000
g5.12xlarge 1 x 3800 GB NVMe SSD 312.500/156.250
g5.16xlarge 1 x 1900 GB NVMe SSD 250.000/125.000
g5.24xlarge 1 x 3800 GB NVMe SSD 312.500/156.250
g5.48xlarge 2 x 3800 GB NVMe SSD 625.000/312.500
G 6
g6.x groß 1 x 250 GB NVMe SSD 40.625/20.000
g 6,2 x groß 1 x 450 GB NVMe SSD 40.625/20.000
g 6,4 x groß 1 x 600 GB NVMe SSD 125.000/40.000
g 6,8 x groß 2 x 450 GB NVMe SSD 250.000/80.000
g 6.12 x groß 4 x 940 GB NVMe SSD 312.500/125.000
g 6.16x groß 2 x 940 GB NVMe SSD 250.000/80.000
g 6,24 x groß 4 x 940 GB NVMe SSD 312.500/156.248
g 6,48 x groß 8 x 940 GB NVMe SSD 625.000/312.496
G6e
g6e. groß 1 x 250 GB NVMe SSD 40.625/20.000
g 6e 2 x groß 1 x 450 GB NVMe SSD 40.625/20.000
g6e.4 x groß 1 x 600 GB NVMe SSD 125.000/40.000
g 6e. 8 x groß 2 x 450 GB NVMe SSD 250.000/80.000
g6e.12x groß 2 x 1900 GB NVMe SSD 312.500/125.000
g 6e. 16 x groß 2 x 950 GB NVMe SSD 250.000/80.000
g 6e. 24 x groß 2 x 1900 GB NVMe SSD 312.500/156.250
g 6e. 48 x groß 4 x 1900 GB NVMe SSD 625.000/312.500
Gr 6
gr 6,4 x groß 1 x 600 GB NVMe SSD 125.000/40.000
gr 6,8 x groß 2 x 450 GB NVMe SSD 250.000/80.000
P3dn
p3dn.24xgroß 2 x 900 GB NVMe SSD 700.000/340.000
P4d
p4d.24xgroß 8 x 1000 GB NVMe SSD 2.000.000/1.600.000
P4de
p4de.24xlarge 8 x 1000 GB NVMe SSD 2.000.000/1.600.000
P5
p5.48xlarge 8 x 3800 GB NVMe SSD 4.400.000/2.200.000
P5e
p 5e. 48 x groß 8 x 3800 GB NVMe SSD 4.400.000/2.200.000
Trn 1
trn1.2xlarge 1 x 474 GB NVMe SSD 107.500/45.000
trn1.32xlarge 4 x 1900 GB NVMe SSD 1.720.000/720.000
Trn 1 n
trn1n.32xlarge 4 x 1900 GB NVMe SSD 1.720.000/720.000

1 Bei Volumes, die an bestimmte Instances angehängt sind, wird das Schreiben beim ersten Schreiben abgezogen, sofern sie nicht initialisiert werden. Weitere Informationen finden Sie unter Optimieren der Festplattenleistung für Instance-Speicher-Volumes.

2 Weitere Informationen finden Sie unter TRIMUnterstützung von Instance-Speicher-Volumes.

Sicherheitsspezifikationen

Instance-Typ EBSVerschlüsselung Instance-Speicher-Verschlüsselung Verschlüsselung während der Übertragung AMD SEV-SNP Nitro TPM Nitro-Enklaven
DL1
dl1.24xlarge
DL2q
dl2q.24xlarge Instance store not supported
F1
f1.2xlarge
f1.4xlarge
f1.16xlarge
G4 ad
g4ad.xlarge
g4ad.2xlarge
g4ad.4xlarge
g4ad.8xlarge
g4ad.16xlarge
G4dn
g4dn.xgroß
g4dn.2xgroß
g4dn.4xgroß
g4dn.8xgroß
g4dn.12xgroß
g4dn.16xgroß
g4dn.metal
G5
g5.xgroß
g5.2xlarge
g5.4xlarge
g5.8xlarge
g5.12xlarge
g5.16xlarge
g5.24xlarge
g5.48xlarge
G 5 g
g5g.xlarge Instance store not supported
g5g.2xlarge Instance store not supported
g5g.4xlarge Instance store not supported
g5g.8xlarge Instance store not supported
g5g.16xlarge Instance store not supported
g5g.metal Instance store not supported
G 6
g6.x groß
g 6.2 x groß
g 6,4 x groß
g 6,8 x groß
g 6.12 x groß
g 6.16 x groß
g 6.24 x groß
g 6,48 x groß
G 6 e
g6e. groß
g6e.2 x groß
g6e.4 x groß
g6e.8 x groß
g6e.12x groß
g6e.16x groß
g6e.24x groß
g6e.48x groß
Gr 6
gr 6,4 x groß
gr 6,8 x groß
Inf1
inf1.xlarge Instance store not supported
inf1.2xlarge Instance store not supported
inf1.6xlarge Instance store not supported
inf1.24xlarge Instance store not supported
Inf2
inf2.xlarge Instance store not supported
inf2.8xlarge Instance store not supported
inf2.24xlarge Instance store not supported
inf2.48xlarge Instance store not supported
P2
p2.xgroß Instance store not supported
p2.8xgroß Instance store not supported
p2.16xgroß Instance store not supported
P 3
p3.2xgroß Instance store not supported
p3.8xgroß Instance store not supported
p3.16xgroß Instance store not supported
P3 dn
p3dn.24xgroß
P4d
p4d.24xgroß
P4de
p4de.24xlarge
P5
p5.48xlarge
P5e
p 5e. 48 x groß
Reihe 1
trn1.2xlarge
trn1.32xlarge
Trn 1 n
trn1n.32xlarge
VT1
vt1.3xlarge Instance store not supported
vt1.6xlarge Instance store not supported
vt1.24xlarge Instance store not supported