Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Integrierte SageMaker KI-Algorithmen für tabellarische Daten

Fokusmodus
Integrierte SageMaker KI-Algorithmen für tabellarische Daten - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker AI bietet integrierte Algorithmen, die auf die Analyse von Tabellendaten zugeschnitten sind. Tabellendaten beziehen sich auf alle Datensätze, die in Tabellen organisiert sind, die aus Zeilen (Beobachtungen) und Spalten (Features) bestehen. Die integrierten SageMaker KI-Algorithmen für Tabellendaten können entweder für Klassifizierungs- oder Regressionsprobleme verwendet werden.

  • AutoGluon-Tabellarisch – Ein Open-Source-AutoML-Framework, das erfolgreich ist, indem es Modelle zusammenfügt und sie in mehreren Ebenen stapelt.

  • CatBoost – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der ein geordnetes Boosting und einen innovativen Algorithmus für die Verarbeitung kategorischer Features einführt.

  • Faktorisierungsmaschinen Algorithmus – Eine Erweiterung eines linearen Modells ist darauf ausgelegt, Interaktionen zwischen Funktionen innerhalb von hochdimensionalen Datensätzen mit geringer Dichte automatisch wirtschaftlich zu erfassen.

  • K-nearest neighbors (k-NN)-Algorithmus – Eine nicht-parametrische Methode, bei der die k nächstgelegenen beschrifteten Punkte verwendet werden, um einem neuen Datenpunkt zur Klassifizierung oder einem prognostizierten Zielwert aus dem Durchschnitt der k nächstgelegenen Punkte für die Regression eine Markierung zuzuweisen.

  • LightGBM – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der zwei neuartige Techniken zur Verbesserung der Effizienz und Skalierbarkeit hinzufügt: Gradient-Based One-Side Sampling (GOSS) und Exclusive Feature Bundling (EFB).

  • Algorithmus für lineares Lernen – lernt eine lineare Funktion für die Regression oder eine lineare Schwellenwertfunktion für die Klassifizierung.

  • TabTransformer— eine neuartige Architektur zur detaillierten tabellarischen Datenmodellierung, die auf Transformers basiert. self-attention-based

  • XGBoost Algorithmus mit Amazon SageMaker AI – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der eine Reihe einfacherer und schwächerer Modelle kombiniert.

Name des Algorithmus Kanalname Trainingseingabemodus Dateityp Instance-Klasse Parallelisierbar
AutoGluon-Tabellarisch "train" und (optional) "validation" Datei CSV CPU oder GPU (nur einzelne Instance) Nein
CatBoost "train" und (optional) "validation" Datei CSV CPU (nur einzelne Instance) Nein
Factorization Machines "train" und (optional) "test" Datei oder Pipe recordIO-protobuf CPU (GPU für Daten mit hoher Dichte) Ja
K-Nearest-Neighbors (k-NN) "train" und (optional) "test" Datei oder Pipe recordIO-protobuf oder CSV CPU- oder GPU (einzelnes GPU-Gerät auf einer oder mehreren Instances) Ja
LightGBM train und (optional) validation Datei CSV CPU (nur einzelne Instance) Nein
Lineares Lernen "train" und (optional) "validation", "test" oder beides Datei oder Pipe recordIO-protobuf oder CSV CPU oder GPU Ja
TabTransformer "train" und (optional) "validation" Datei CSV CPU oder GPU (nur einzelne Instance) Nein
XGBoost (0,90-1, 0,90-2, 1,0-1, 1,2-1, 1,2-21) "train" und (optional) "validation" Datei oder Pipe CSV, LibSVM oder Parquet CPU (oder GPU für 1.2-1) Ja
DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.