Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Empfohlene Inferenzinstanzen
AWS Inferentia-Instances sind so konzipiert, dass sie eine hohe Leistung und Kosteneffizienz für Inferenz-Workloads mit Deep-Learning-Modellen bieten. Insbesondere Inf2-Instance-Typen verwenden AWS Inferentia-Chips und das AWS Neuron SDK
Kunden können Inf2-Instances verwenden, um umfangreiche Inferenzanwendungen für maschinelles Lernen wie Suche, Empfehlungsmaschinen, Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud auszuführen.
Anmerkung
Die Größe Ihres Modells sollte ein Faktor bei der Auswahl einer Instanz sein. Wenn Ihr Modell die Verfügbarkeit einer Instanz überschreitetRAM, wählen Sie einen anderen Instanztyp mit ausreichend Speicher für Ihre Anwendung.
Amazon EC2 Inf2-Instances
verfügen über bis zu 16 AWS Inferentia-Chips und einen Netzwerkdurchsatz von 100 Gbit/s.
Weitere Informationen zu den ersten Schritten mit AWS Inferentia finden Sie unter. DLAMIs Der AWS Inferentia-Chip mit DLAMI