Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Algorithmes d' SageMaker IA intégrés pour les données tabulaires

Mode de mise au point
Algorithmes d' SageMaker IA intégrés pour les données tabulaires - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon SageMaker AI fournit des algorithmes intégrés adaptés à l'analyse des données tabulaires. Les données tabulaires désignent tous les jeux de données organisés dans des tables composées de lignes (observations) et de colonnes (fonctionnalités). Les algorithmes d' SageMaker IA intégrés pour les données tabulaires peuvent être utilisés pour des problèmes de classification ou de régression.

  • AutoGluon-Tabulaire : un cadre AutoML open source qui réussit en assemblant des modèles et en les empilant en plusieurs couches.

  • CatBoost : une implémentation de l'algorithme d'arborescences de gradients améliorés qui introduit l'amplification ordonnée et un algorithme innovant pour le traitement des fonctionnalités de catégories.

  • Algorithme des machines de factorisation : extension d'un modèle linéaire, conçue pour capturer, de façon économique, les interactions entre les fonctions dans des jeux de données fragmentés à haute dimension.

  • Algorithme k-NN (K-Nearest Neighbors, k plus proches voisins) : méthode non paramétrique qui utilise les k points étiquetés les plus proches pour attribuer une étiquette à un nouveau point de données pour la classification ou à une valeur cible prédite à partir de la moyenne des k points les plus proches pour la régression.

  • LightGBM : une implémentation de l'algorithme des arbres boostés par gradient qui ajoute deux nouvelles techniques pour améliorer l'efficacité et la capacité de mise à l'échelle : l'échantillonnage unilatéral basé sur le gradient (GOSS) et la création d'une offre groupée exclusive de fonctionnalités (EFB).

  • Algorithme d'apprentissage linéaire : apprend une fonction linéaire pour la régression ou une fonction de seuil linéaire pour la classification.

  • TabTransformer: une nouvelle architecture de modélisation des données tabulaires approfondies basée sur self-attention-based Transformers.

  • XGBoost algorithme avec Amazon SageMaker AI : implémentation de l'algorithme d'arborescences de gradients améliorés qui combine un ensemble d'estimations d'un jeu de modèles plus simples et plus faibles.

Nom de l'algorithme Nom du canal Mode d'entrée de l'entraînement Type de fichier Classe d'instance Parallélisable
AutoGluon-Tabulaire entraînement et (éventuellement) validation Fichier CSV UC ou GPU (instance individuelle uniquement) Non
CatBoost entraînement et (éventuellement) validation Fichier CSV CPU (une seule instance uniquement) Non
Machines de factorisation train et (facultativement) test Fichier ou Tube recordIO-protobuf CPU (GPU pour les données denses) Oui
K-Nearest-Neighbors (K-NN) train et (facultativement) test Fichier ou Tube recordIO-protobuf ou CSV UC ou GPU (un seul appareil GPU sur une ou plusieurs instances) Oui
LightGBM entraînement et (éventuellement) validation Fichier CSV CPU (une seule instance uniquement) Non
Linear Learner train et (facultativement) validation, test, ou les deux Fichier ou Tube recordIO-protobuf ou CSV CPU ou GPU Oui
TabTransformer entraînement et (éventuellement) validation Fichier CSV UC ou GPU (instance individuelle uniquement) Non
XGBoost (0,90-1, 0,90-2, 1,0-1, 1,2-1, 1,2-21) train et (facultativement) validation Fichier ou Tube CSV, LibSVM ou Parquet Processeur (ou GPU pour 1.2-1) Oui

Rubrique précédente :

Journaux
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.