Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon SageMaker AI bietet integrierte Algorithmen, die auf die Analyse von Tabellendaten zugeschnitten sind. Tabellendaten beziehen sich auf alle Datensätze, die in Tabellen organisiert sind, die aus Zeilen (Beobachtungen) und Spalten (Features) bestehen. Die integrierten SageMaker KI-Algorithmen für Tabellendaten können entweder für Klassifizierungs- oder Regressionsprobleme verwendet werden.
-
AutoGluon-Tabellarisch – Ein Open-Source-AutoML-Framework, das erfolgreich ist, indem es Modelle zusammenfügt und sie in mehreren Ebenen stapelt.
-
CatBoost – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der ein geordnetes Boosting und einen innovativen Algorithmus für die Verarbeitung kategorischer Features einführt.
-
Faktorisierungsmaschinen Algorithmus – Eine Erweiterung eines linearen Modells ist darauf ausgelegt, Interaktionen zwischen Funktionen innerhalb von hochdimensionalen Datensätzen mit geringer Dichte automatisch wirtschaftlich zu erfassen.
-
K-nearest neighbors (k-NN)-Algorithmus – Eine nicht-parametrische Methode, bei der die k nächstgelegenen beschrifteten Punkte verwendet werden, um einem neuen Datenpunkt zur Klassifizierung oder einem prognostizierten Zielwert aus dem Durchschnitt der k nächstgelegenen Punkte für die Regression eine Markierung zuzuweisen.
-
LightGBM – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der zwei neuartige Techniken zur Verbesserung der Effizienz und Skalierbarkeit hinzufügt: Gradient-Based One-Side Sampling (GOSS) und Exclusive Feature Bundling (EFB).
-
Algorithmus für lineares Lernen – lernt eine lineare Funktion für die Regression oder eine lineare Schwellenwertfunktion für die Klassifizierung.
-
TabTransformer— eine neuartige Architektur zur detaillierten tabellarischen Datenmodellierung, die auf Transformers basiert. self-attention-based
-
XGBoost Algorithmus mit Amazon SageMaker AI – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der eine Reihe einfacherer und schwächerer Modelle kombiniert.
Name des Algorithmus | Kanalname | Trainingseingabemodus | Dateityp | Instance-Klasse | Parallelisierbar |
---|---|---|---|---|---|
AutoGluon-Tabellarisch | "train" und (optional) "validation" | Datei | CSV | CPU oder GPU (nur einzelne Instance) | Nein |
CatBoost | "train" und (optional) "validation" | Datei | CSV | CPU (nur einzelne Instance) | Nein |
Factorization Machines | "train" und (optional) "test" | Datei oder Pipe | recordIO-protobuf | CPU (GPU für Daten mit hoher Dichte) | Ja |
K-Nearest-Neighbors (k-NN) | "train" und (optional) "test" | Datei oder Pipe | recordIO-protobuf oder CSV | CPU- oder GPU (einzelnes GPU-Gerät auf einer oder mehreren Instances) | Ja |
LightGBM | train und (optional) validation | Datei | CSV | CPU (nur einzelne Instance) | Nein |
Lineares Lernen | "train" und (optional) "validation", "test" oder beides | Datei oder Pipe | recordIO-protobuf oder CSV | CPU oder GPU | Ja |
TabTransformer | "train" und (optional) "validation" | Datei | CSV | CPU oder GPU (nur einzelne Instance) | Nein |
XGBoost (0,90-1, 0,90-2, 1,0-1, 1,2-1, 1,2-21) | "train" und (optional) "validation" | Datei oder Pipe | CSV, LibSVM oder Parquet | CPU (oder GPU für 1.2-1) | Ja |