Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Integrierte SageMaker KI-Algorithmen für tabellarische Daten
Amazon SageMaker AI bietet integrierte Algorithmen, die auf die Analyse von Tabellendaten zugeschnitten sind. Tabellendaten beziehen sich auf alle Datensätze, die in Tabellen organisiert sind, die aus Zeilen (Beobachtungen) und Spalten (Features) bestehen. Die integrierten SageMaker KI-Algorithmen für Tabellendaten können entweder für Klassifizierungs- oder Regressionsprobleme verwendet werden.
-
AutoGluon-Tabellarisch – Ein Open-Source-AutoML-Framework, das erfolgreich ist, indem es Modelle zusammenfügt und sie in mehreren Ebenen stapelt.
-
CatBoost – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der ein geordnetes Boosting und einen innovativen Algorithmus für die Verarbeitung kategorischer Features einführt.
-
Faktorisierungsmaschinen Algorithmus – Eine Erweiterung eines linearen Modells ist darauf ausgelegt, Interaktionen zwischen Funktionen innerhalb von hochdimensionalen Datensätzen mit geringer Dichte automatisch wirtschaftlich zu erfassen.
-
K-nearest neighbors (k-NN)-Algorithmus – Eine nicht-parametrische Methode, bei der die k nächstgelegenen beschrifteten Punkte verwendet werden, um einem neuen Datenpunkt zur Klassifizierung oder einem prognostizierten Zielwert aus dem Durchschnitt der k nächstgelegenen Punkte für die Regression eine Markierung zuzuweisen.
-
Licht GBM—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der zwei neuartige Techniken zur Verbesserung der Effizienz und Skalierbarkeit hinzufügt: Gradient-Based One-Side Sampling () und Exclusive Feature Bundling (). GOSS EFB
-
Algorithmus für lineares Lernen – lernt eine lineare Funktion für die Regression oder eine lineare Schwellenwertfunktion für die Klassifizierung.
-
TabTransformer— eine neuartige Architektur zur detaillierten tabellarischen Datenmodellierung, die auf Transformers aufbaut. self-attention-based
-
XGBoostAlgorithmus mit Amazon SageMaker AI – Eine Implementierung des Gradient-Boosted Trees-Algorithmus, der eine Reihe einfacherer und schwächerer Modelle kombiniert.
Name des Algorithmus | Kanalname | Trainingseingabemodus | Dateityp | Instance-Klasse | Parallelisierbar |
---|---|---|---|---|---|
AutoGluon-Tabellarisch | "train" und (optional) "validation" | Datei | CSV | CPUoder GPU (nur Einzelinstanz) | Nein |
CatBoost | "train" und (optional) "validation" | Datei | CSV | CPU(nur Einzelinstanz) | Nein |
Factorization Machines | "train" und (optional) "test" | Datei oder Pipe | recordIO-protobuf | CPU(GPUfür dichte Daten) | Ja |
K-Nearest-Neighbors (k-NN) | "train" und (optional) "test" | Datei oder Pipe | Recordio-ProtoBuf oder CSV | CPUoder GPU (einzelnes GPU Gerät auf einer oder mehreren Instanzen) | Ja |
Leicht GBM | "train" und (optional) "validation" | Datei | CSV | CPU(nur Einzelinstanz) | Nein |
Lineares Lernen | "train" und (optional) "validation", "test" oder beides | Datei oder Pipe | Recordio-ProtoBuf oder CSV | CPU oder GPU | Ja |
TabTransformer | "train" und (optional) "validation" | Datei | CSV | CPUoder GPU (nur Einzelinstanz) | Nein |
XGBoost(0,90-1, 0,90-2, 1,0-1, 1,2-1, 1,2-21) | "train" und (optional) "validation" | Datei oder Pipe | CSVSVM, Lib oder Parquet | CPU(oder GPU für 1.2-1) | Ja |