Empfohlene Inferenzinstanzen - AWS Deep Learning AMIs

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Empfohlene Inferenzinstanzen

AWS Inferentia-Instances sind so konzipiert, dass sie eine hohe Leistung und Kosteneffizienz für Inferenz-Workloads mit Deep-Learning-Modellen bieten. Insbesondere Inf2-Instance-Typen verwenden AWS Inferentia-Chips und das AWS Neuron SDK, das in beliebte Frameworks für maschinelles Lernen wie und integriert ist. TensorFlow PyTorch

Kunden können Inf2-Instances verwenden, um umfangreiche Inferenzanwendungen für maschinelles Lernen wie Suche, Empfehlungsmaschinen, Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud auszuführen.

Anmerkung

Die Größe Ihres Modells sollte ein Faktor bei der Auswahl einer Instanz sein. Wenn Ihr Modell die Verfügbarkeit einer Instanz überschreitetRAM, wählen Sie einen anderen Instanztyp mit ausreichend Speicher für Ihre Anwendung.

Weitere Informationen zu den ersten Schritten mit AWS Inferentia finden Sie unter. DLAMIs Der AWS Inferentia-Chip mit DLAMI

Nächstes Thema

Empfohlene Trainium-Instances