EC2Amazon-Instance-Typen - Amazon Elastic Compute Cloud

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

EC2Amazon-Instance-Typen

Wenn Sie eine Instance starten, bestimmt der von Ihnen angegebene Instance-Typ die Hardware der Host-Computer für die Instance. Jeder Instance-Typ bietet unterschiedliche Rechenleistung, Arbeitsspeicher- und Speicher-Kapazität und wird abhängig von diesen Eigenschaften in Instance-Familien eingeordnet. Wählen Sie einen Instance-Typ auf der Grundlage der Anforderungen der Anwendung oder Software aus, die Sie auf Ihrer Instance ausführen möchten. Weitere Informationen zu Funktionen und Anwendungsfällen finden Sie unter Details zu EC2 Amazon-Instanztypen.

Amazon EC2 weist einige Ressourcen des Host-Computers, wie Arbeitsspeicher und Instance-SpeicherCPU, einer bestimmten Instance zu. Amazon EC2 teilt andere Ressourcen des Host-Computers, wie das Netzwerk und das Festplattensubsystem, zwischen den Instances. Wenn die Instances eines Host-Computers jeweils möglichst viele Ressourcen nutzen möchten, wird die Ressource gleichmäßig aufgeteilt. Wenn eine Ressource jedoch nicht voll ausgelastet ist, kann eine Instance einen höheren Anteil der verfügbaren Ressource nutzen.

Jeder Instance-Typ stellt Leistung von einer gemeinsamen Ressource je nach Anforderung bereit. Instance-Typen mit hoher I/O-Leistung wird beispielsweise ein höherer Anteil der gemeinsamen Ressourcen zugewiesen. Durch die Zuweisung eines größeren Anteils gemeinsamer Ressourcen werden außerdem Abweichungen der I/O-Leistung verringert. Für die meisten Anwendungen ist mittlere I/O-Leistung vollkommen ausreichend. Für Anwendungen, die mehr oder einheitlichere I/O-Leistung erfordern, sollten Sie jedoch einen Instance-Typ mit höherer I/O-Leistung in Erwägung ziehen.

Verfügbare Instance-Typen

Amazon EC2 bietet eine große Auswahl an Instance-Typen, die für unterschiedliche Anwendungsfälle optimiert sind. Instance-Typen bestehen aus unterschiedlichen Kombinationen von CPU Arbeitsspeicher-, Speicher- und Netzwerkkapazität und bieten Ihnen die Flexibilität, den geeigneten Ressourcenmix für Ihre Anwendungen auszuwählen. Jeder Instance-Typ umfasst eine oder mehrere Instance-Größen, so dass Sie Ihre Ressourcen an die Anforderungen Ihrer Ziel-Workloads anpassen können.

Benennungskonventionen für Instanztypen

Die Namen basieren auf Instanzfamilie, Generation, Prozessorfamilie, Funktionen und Größe. Weitere Informationen finden Sie unter Namenskonventionen im Amazon EC2 Instance Types Guide.

Suchen eines -Instance-Typs

Informationen darüber, welche Instance-Typen Ihren Anforderungen entsprechen, wie z. B. unterstützte Regionen, Rechenressourcen oder Speicherressourcen, finden Sie unter Finden Sie einen EC2 Amazon-Instance-Typ und die Spezifikationen für EC2 Amazon-Instance-Typen im Amazon EC2 Instance Types Guide.

Hardwarespezifikationen

Detaillierte Spezifikationen für Instance-Typen finden Sie unter Spezifikationen im Amazon EC2 Instance Types Guide. Preisinformationen finden Sie unter Amazon EC2 On-Demand-Preise.

Um die richtigen Instance-Typen für Ihre Anforderungen zu bestimmen, empfehlen wir, eine Instance zu starten und Ihre eigene Benchmarkanwendung zu verwenden. Da Instances pro Sekunde abgerechnet werden, können Sie mehrere Instance-Typen bequem und ohne großen Kostenaufwand testen, bevor Sie eine Entscheidung treffen. Falls sich Ihre Anforderungen ändern, können Sie selbst nach der Entscheidung den Instance-Typ anpassen. Weitere Informationen finden Sie unter Änderungen am EC2 Amazon-Instanztyp.

Hypervisor-Typ

Amazon EC2 unterstützt die folgenden Hypervisoren: Xen und Nitro.

Nitro-basierte Instances
  • Allgemeiner Zweck: M5 | M5a | M5ad | M5d | M5dn | M5Zn | M6a | M6g | M6g | M6gd | M6i | M6id | M6idn | M6in | M6in | M7a | M7g | M7g | M7d | M7i | M7i-Flex | M8g | T3 | T3a | T4g

  • Für Berechnungen optimiert: C5 | C5a | C5ad | C5d | C5n | C6a | C6g | C6gd | C6Gn | C6i | C6id | C6in | C7a | C7g | C7GD | C7Gn | C7i | C7i-Flex | C8g

  • Speicheroptimiert: R5 | R5a | R5ad | R5b | R5d | R5dn | R5n | R6a | R6g | R6gd | R6i | R6idn | R6in | R6id | R7a | R7g | R7g | R7gd | R7i | R7iz | R8g | U-3tb1 | U-6tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb1 | U-9tb12 TB1 | U-18 TB1 | U-24 TB1 | U7i-12 TB | U7-in-16 TB | U7-in-24 TB | U7-in-32 TB | x2GD | x2IDN | X2iEDN | X2iEZN | x8G | z1d

  • Speicheroptimiert: D3 | D3EN | i3EN | i4G | i4I | i4GN | IS4Gen

  • Beschleunigtes Rechnen: DL1 | | G4ad DL2q | G4dn | G5 | G5g | G6 | G6e | Gr6 | Inf1 | Inf2 | P3dn | P4d | P4de | P5 | P5e | Trn1 | Trn1n | VT1

  • Hochleistungsrechnen: HPC6a | HPC6id | HPC7a | HPC7G

  • Frühere Generation: A1

Weitere Informationen zu den unterstützten Versionen von Nitro Hypervisor finden Sie unter Unterstützung von Netzwerkfunktionen im Amazon EC2 Instance Types Guide.

Xen-basierte Instances
  • Allgemeiner Zweck: M1 | M2 | M3 | M4 | T1 | T2

  • Für Berechnungen optimiert: C1 | C3 | C4

  • Speicheroptimiert: R3 | R4 | X1 | X1e

  • Speicheroptimiert: D2 | H1 | I2 | I3

  • Beschleunigtes Rechnen: F1 | G3 | P2 | P3

AMIVirtualisierungstypen

Der Virtualisierungstyp Ihrer Instance wird durch den Typ bestimmtAMI, mit dem Sie sie starten. Instance-Typen der aktuellen Generation unterstützen nur virtuelle Hardware-Maschinen (HVM). Einige Instance-Typen der vorherigen Generation unterstützen paravirtual (PV) und einige AWS Regionen unterstützen PV-Instances. Weitere Informationen finden Sie unter Virtualisierungstypen.

Für eine optimale Leistung empfehlen wir die Verwendung eines. HVM AMI Darüber hinaus müssen HVM AMIs sie die Vorteile erweiterter Netzwerkfunktionen nutzen. HVMBei der Virtualisierung wird die von der Plattform bereitgestellte hardwaregestützte Technologie verwendet. AWS Bei der HVM Virtualisierung läuft die Gast-VM wie auf einer systemeigenen Hardwareplattform, mit der Ausnahme, dass sie weiterhin PV-Netzwerk- und Speichertreiber verwendet, um die Leistung zu verbessern.

Prozessoren

EC2Instanzen unterstützen eine Vielzahl von Prozessoren.

Intel-Prozessoren

EC2Amazon-Instances, die auf Intel-Prozessoren ausgeführt werden, können die folgenden Prozessorfunktionen enthalten. Nicht alle Instances, die auf Intel-Prozessoren laufen, unterstützen alle diese Prozessorfunktionen. Informationen darüber, welche Funktionen für die einzelnen Instance-Typen verfügbar sind, finden Sie unter EC2Amazon-Instance-Typen.

  • Intel AES New Instructions (AES-NI) — Der Intel AES -NI-Verschlüsselungsbefehlssatz verbessert den ursprünglichen Advanced Encryption Standard (AES) -Algorithmus und bietet so schnelleren Datenschutz und mehr Sicherheit. Alle EC2 Instances der aktuellen Generation unterstützen diese Prozessorfunktion.

  • Intel Advanced Vector Extensions (Intel AVXAVX2, Intel und Intel AVX -512) — Intel und Intel AVX2 sind 256-Bit, AVX und Intel AVX -512 ist eine 512-Bit-Befehlssatzerweiterung, die für Floating Point (FP) -intensive Anwendungen entwickelt wurde. AVXIntel-Befehle verbessern die Leistung für Anwendungen wie Bild- und Audio-/Videoverarbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analyse. Diese Funktionen sind nur auf Instances verfügbar, die mit gestartet wurden. HVM AMIs

  • Intel Turbo Boost Technology — Prozessoren der Intel Turbo Boost Technology führen Kerne automatisch schneller als die Basisbetriebsfrequenz aus.

  • Intel Deep Learning Boost (Intel DL Boost) — beschleunigt KI-Deep-Learning-Anwendungsfälle. Die skalierbaren Intel Xeon Prozessoren der zweiten Generation erweitern Intel AVX -512 um neue Befehle für neuronale Vektoren (Vector Neural Network Instruction) (VNNI/INT8) that significantly increases deep learning inference performance over previous generation Intel Xeon Scalable processors (with FP32) for image recognition/segmentation, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme, Verstärkungslernen und mehr). VNNIist möglicherweise nicht mit allen Linux-Distributionen kompatibel.

    Die folgenden Instanzen unterstützenVNNI:M5n,R5n,,M5dn,M5zn,R5b,R5dn, D3D3en, undC6i. C5und C5d Instances unterstützen VNNI nur12xlarge,24xlarge, und metal -Instanzen.

Aufgrund der branchenüblichen Benennungskonventionen für 64-Bit kann es zu Verwirrung kommenCPUs. Der Chiphersteller Advanced Micro Devices (AMD) führte die erste kommerziell erfolgreiche 64-Bit-Architektur ein, die auf dem Intel x86-Befehlssatz basiert. Daher wird die Architektur allgemein als AMD64 unabhängig vom Chiphersteller bezeichnet. Windows und diverse Linux-Distributionen folgen dieser Konvention. Dies erklärt, warum in den internen Systeminformationen einer Instanz, auf der Ubuntu oder Windows ausgeführt wird, die CPU Architektur so AMD64 angezeigt wird, als ob die Instanzen auf Intel-Hardware laufen.

AMDProzessoren

EC2Amazon-Instances, die auf AMDEPYCProzessoren ausgeführt werden, können Ihnen helfen, sowohl Kosten als auch Leistung für Ihre Workloads zu optimieren. Diese Instances unterstützen möglicherweise die folgenden Prozessorfunktionen. Nicht alle Instances, die auf AMD Prozessoren ausgeführt werden, unterstützen alle diese Prozessorfunktionen. Informationen darüber, welche Funktionen für die einzelnen Instance-Typen verfügbar sind, finden Sie unter EC2Amazon-Instance-Typen.

AWS Graviton-Prozessoren

AWS Graviton ist eine Prozessorfamilie, die darauf ausgelegt ist, das beste Preis-Leistungs-Verhältnis für Ihre Workloads zu bieten, die auf EC2 Amazon-Instances ausgeführt werden.

Weitere Informationen finden Sie unter Erste Schritte mit Graviton.

AWS Trainium

Von AWS Trainium betriebene Instances wurden speziell für leistungsstarke, kostengünstige Deep-Learning-Schulungen entwickelt. Sie können diese Instances verwenden, um natürliche Sprachverarbeitung, Computer Vision und Empfehlungsmodelle zu trainieren, die in einer Vielzahl von Anwendungen eingesetzt werden, z. B. Spracherkennung, Empfehlung, Betrugserkennung und Bild- und Videoklassifizierung. Verwenden Sie Ihre vorhandenen Workflows in gängigen ML-Frameworks wie PyTorch und TensorFlow.

AWS Inferenz

Von AWS Inferentia betriebene Instances wurden entwickelt, um maschinelles Lernen zu beschleunigen. Sie bieten Inferenz für maschinelles Lernen mit hoher Leistung und geringer Latenz. Diese Instances sind für die Bereitstellung von Deep-Learning-(DL)-Modellen für Anwendungen wie natürliche Sprachverarbeitung, Objekterkennung und -klassifizierung, Inhaltspersonalisierung und -filterung sowie Spracherkennung optimiert.

Es gibt eine Vielzahl von Möglichkeiten für den Einstieg:

  • Verwenden Sie SageMaker, einen vollständig verwalteten Dienst, der der einfachste Weg ist, mit Modellen für maschinelles Lernen zu beginnen. Weitere Informationen finden Sie unter Erste Schritte mit SageMaker im Amazon SageMaker Developer Guide.

  • Starten Sie eine Inf1- oder Inf2-Instance mithilfe von Deep Learning. AMI Weitere Informationen finden Sie unter AWS Inferentia with DLAMI im Entwicklerhandbuch.AWS Deep Learning AMIs

  • Starten Sie eine Inf1- oder Inf2-Instance mit Ihrer eigenen AMI und installieren Sie AWS Neuron SDK, mit dem Sie Deep-Learning-Modelle für Inferentia kompilieren, ausführen und profilieren können. AWS

  • Starten Sie eine Container-Instance mit einer Inf1- oder Inf2-Instance und einer für Amazon ECS optimierten Instanz. AMI Weitere Informationen finden Sie unter Amazon Linux 2 (Inferentia) AMIs im Amazon Elastic Container Service Developer Guide.

  • Erstellen Sie einen EKS Amazon-Cluster mit Knoten, auf denen Inf1-Instances ausgeführt werden. Weitere Informationen finden Sie unter Inferentia-Support im EKSAmazon-Benutzerhandbuch.