Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Algorithmes d' SageMaker IA intégrés pour les données tabulaires
Amazon SageMaker AI fournit des algorithmes intégrés adaptés à l'analyse des données tabulaires. Les données tabulaires désignent tous les jeux de données organisés dans des tables composées de lignes (observations) et de colonnes (fonctionnalités). Les algorithmes d' SageMaker IA intégrés pour les données tabulaires peuvent être utilisés pour des problèmes de classification ou de régression.
-
AutoGluon-Tabulaire : un cadre AutoML open source qui réussit en assemblant des modèles et en les empilant en plusieurs couches.
-
CatBoost : une implémentation de l'algorithme d'arborescences de gradients améliorés qui introduit l'amplification ordonnée et un algorithme innovant pour le traitement des fonctionnalités de catégories.
-
Algorithme des machines de factorisation : extension d'un modèle linéaire, conçue pour capturer, de façon économique, les interactions entre les fonctions dans des jeux de données fragmentés à haute dimension.
-
Algorithme k-NN (K-Nearest Neighbors, k plus proches voisins) : méthode non paramétrique qui utilise les k points étiquetés les plus proches pour attribuer une étiquette à un nouveau point de données pour la classification ou à une valeur cible prédite à partir de la moyenne des k points les plus proches pour la régression.
-
Lumière GBM—une implémentation de l'algorithme des arbres boostés par les dégradés qui ajoute deux nouvelles techniques pour améliorer l'efficacité et l'évolutivité : l'échantillonnage unilatéral basé sur le gradient () et le regroupement de fonctionnalités exclusives ()GOSS. EFB
-
Algorithme d'apprentissage linéaire : apprend une fonction linéaire pour la régression ou une fonction de seuil linéaire pour la classification.
-
TabTransformer: une nouvelle architecture de modélisation des données tabulaires approfondies basée sur self-attention-based Transformers.
-
XGBoostalgorithme avec Amazon SageMaker AI : implémentation de l'algorithme d'arborescences de gradients améliorés qui combine un ensemble d'estimations d'un jeu de modèles plus simples et plus faibles.
Nom de l'algorithme | Nom du canal | Mode d'entrée de l'entraînement | Type de fichier | Classe d'instance | Parallélisable |
---|---|---|---|---|---|
AutoGluon-Tabulaire | entraînement et (éventuellement) validation | Fichier | CSV | CPUou GPU (instance unique uniquement) | Non |
CatBoost | entraînement et (éventuellement) validation | Fichier | CSV | CPU(instance unique uniquement) | Non |
Machines de factorisation | train et (facultativement) test | Fichier ou Tube | recordIO-protobuf | CPU(GPUpour les données denses) | Oui |
K-Nearest-Neighbors (K-NN) | train et (facultativement) test | Fichier ou Tube | Recordio-ProtoBuf ou CSV | CPUou GPU (GPUappareil unique sur une ou plusieurs instances) | Oui |
Lumière GBM | entraînement et (éventuellement) validation | Fichier | CSV | CPU(instance unique uniquement) | Non |
Linear Learner | train et (facultativement) validation, test, ou les deux | Fichier ou Tube | Recordio-ProtoBuf ou CSV | CPU ou GPU | Oui |
TabTransformer | entraînement et (éventuellement) validation | Fichier | CSV | CPUou GPU (instance unique uniquement) | Non |
XGBoost(0,90-1, 0,90-2, 1,0-1, 1,2-1, 1,2-21) | train et (facultativement) validation | Fichier ou Tube | CSV, Lib SVM ou Parquet | CPU(ou GPU pour 1.2-1) | Oui |