Die Dokumentation zum Large Model Inference (LMI) -Container - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die Dokumentation zum Large Model Inference (LMI) -Container

Die Container-Dokumentation für Large Model Inference (LMI) finden Sie auf der Dokumentationsseite der Deep Java Library.

Die Dokumentation richtet sich an Entwickler, Datenwissenschaftler und Ingenieure für maschinelles Lernen, die umfangreiche Sprachmodelle (LLMs) auf Amazon SageMaker AI bereitstellen und optimieren müssen. Es hilft Ihnen bei der Verwendung von LMI-Containern, bei denen es sich um spezialisierte Docker-Container für LLM-Inferenz handelt, die von bereitgestellt werden. AWS Es bietet einen Überblick, Bereitstellungsleitfäden, Benutzerhandbücher für unterstützte Inferenzbibliotheken und Tutorials für Fortgeschrittene.

Mithilfe der LMI-Container-Dokumentation können Sie:

  • Die Komponenten und die Architektur von LMI-Containern verstehen

  • Erfahren Sie, wie Sie den geeigneten Instanztyp und das passende Backend für Ihren Anwendungsfall auswählen

  • Konfiguration und Bereitstellung LLMs auf SageMaker KI mithilfe von LMI-Containern

  • Optimieren Sie die Leistung mithilfe von Funktionen wie Quantisierung, Tensorparallelität und kontinuierlichem Batching

  • Benchmarken und optimieren Sie Ihre SageMaker KI-Endpunkte, um einen optimalen Durchsatz und eine optimale Latenz zu erzielen