Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Hyperparamètres de l'apprentissage linéaire
Le tableau suivant contient les hyper-paramètres pour l'algorithme d'apprentissage linéaire. Il s'agit des paramètres qui sont définis par les utilisateurs pour faciliter l'estimation des paramètres modèles issus des données. Les hyperparamètres requis qui doivent être définies sont les premiers répertoriés, dans l'ordre alphabétique. Les hyperparamètres facultatifs qui peuvent être définis sont répertoriés ensuite, également dans l'ordre alphabétique. Lorsqu'un hyperparamètre est défini surauto
, Amazon SageMaker AI calcule et définit automatiquement la valeur de cet hyperparamètre.
Nom du paramètre | Description |
---|---|
num_classes |
Nombre de classes de la variable de réponse. L'algorithme suppose que les classes sont étiquetées Obligatoire quand Valeurs valides : entiers compris entre 3 et 1 000 000 |
predictor_type |
Spécifie le type de variable cible sous la forme de classification binaire, de classification multiclasse ou de régression. Obligatoire Valeurs valides : |
accuracy_top_k |
Lors du calcul de la métrique d'exactitude top-k pour la classification multiclasse, la valeur de k. Si le modèle attribue l'un des top-k scores à l'étiquette true, un exemple est marqué comme correct. Facultatif Valeurs valides : nombre entiers positifs Valeur par défaut : 3 |
balance_multiclass_weights |
Spécifie s'il faut utiliser les pondérations de classe, qui donnent à chaque classe une importance égale dans la fonction perte (loss). Utilisé uniquement si le Facultatif Valeurs valides : Valeur par défaut : |
beta_1 |
Taux exponentiel de dégradation pour les estimations du premier moment. S'applique uniquement lorsque la valeur de Facultatif Valeurs valides : Valeur par défaut : |
beta_2 |
Taux exponentiel de déclin pour les estimations du second moment. S'applique uniquement lorsque la valeur de Facultatif Valeurs valides : Valeur par défaut : |
bias_lr_mult |
Autorise un autre taux d'apprentissage pour le terme biaisé. Le taux d'apprentissage réel pour le biais est Facultatif Valeurs valides : Valeur par défaut : |
bias_wd_mult |
Autorise différentes régularisations pour le terme biaisé. La pondération réelle de la régularisation L2 pour le biais est Facultatif Valeurs valides : Valeur par défaut : |
binary_classifier_model_selection_criteria |
Lorsque
Facultatif Valeurs valides : Valeur par défaut : |
early_stopping_patience |
Si aucune amélioration n'est apportée à la métrique appropriée, le nombre de périodes (epoch) à attendre avant la fin de l'entraînement. Si vous avez fourni une valeur pour binary_classifier_model_selection_criteria , la métrique est cette valeur. Dans le cas contraire, la métrique est identique à la valeur indiquée pour l'hyperparamètre loss . La métrique est évaluée sur les données de validation. Si vous n'avez pas fourni de données de validation, la métrique est toujours identique à la valeur indiquée pour l'hyperparamètre Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 3 |
early_stopping_tolerance |
Tolérance relative pour mesurer une amélioration de la fonction perte (loss). Si le ratio d'amélioration de la fonction perte (loss) divisé par la meilleure perte précédente est inférieur à cette valeur, l'arrêt anticipé considère l'amélioration comme égale à zéro. Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.001 |
epochs |
Nombre maximal de passages sur les données d'entraînement. Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 15 |
f_beta |
La valeur bêta à utiliser lors du calcul des métriques de score F pour la classification binaire ou multiclasse. Également utilisé si la valeur spécifiée pour Facultatif Valeurs valides : entiers à virgule flottante positifs Valeur par défaut : 1.0 |
feature_dim |
Nombre de caractéristiques des données d'entrée. Facultatif Valeurs valides : Valeurs par défaut : |
huber_delta |
Paramètre pour la fonction de perte Huber. Pendant l'entraînement et l'évaluation des métriques, calculez la perte L2 pour les erreurs plus petites que delta et la perte L1 pour les erreurs supérieures à delta. Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 1.0 |
init_bias |
Pondération initiale pour le terme biaisé. Facultatif Valeurs valides : entier à virgule flottante Valeur par défaut : 0 |
init_method |
Définit la fonction de distribution initiale utilisée pour les pondérations de modèle. Les fonctions incluent :
Facultatif Valeurs valides : Valeur par défaut : |
init_scale |
Dimensionne une distribution uniforme initiale pour les pondérations de modèle. S'applique uniquement quand l'hyperparamètre Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.07 |
init_sigma |
Écart-type initial pour la distribution normale. S'applique uniquement quand l'hyperparamètre Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.01 |
l1 |
Paramètre de régularisation L1. Si vous ne voulez pas utiliser la régularisation L1, définissez la valeur sur 0. Facultatif Valeurs valides : Valeur par défaut : |
learning_rate |
Taille d'étape utilisée par l'optimiseur pour les mises à jour de paramètre. Facultatif Valeurs valides : Valeur par défaut : |
loss |
Spécifie la fonction perte. Les fonctions perte disponibles et leurs valeurs par défaut dépendent de la valeur de
Valeurs valides : Facultatif Valeur par défaut : |
loss_insensitivity |
Paramètre pour le type de perte insensible epsilon. Pendant l'entraînement et l'évaluation des métriques, toute erreur inférieure à cette valeur est considérée comme égale à zéro. Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.01 |
lr_scheduler_factor |
Pour chaque hyperparamètre Facultatif Valeurs valides : Valeur par défaut : |
lr_scheduler_minimum_lr |
Le taux d'apprentissage ne diminue jamais à une valeur inférieure à celle définie pour Facultatif Valeurs valides : Valeurs par défaut : |
lr_scheduler_step |
Nombre d'étapes entre les diminutions du taux d'apprentissage. S'applique uniquement quand l'hyperparamètre Facultatif Valeurs valides : Valeur par défaut : |
margin |
Marge de la fonction Facultatif Valeurs valides : entier à virgule flottante positif Valeur par défaut : 1.0 |
mini_batch_size |
Nombre d'observations par mini-lot pour l'itérateur de données. Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 1000 |
momentum |
Vitesse de l'optimiseur Facultatif Valeurs valides : Valeur par défaut : |
normalize_data |
Normalise les données de fonction avant l'entraînement. La normalisation déplace les données de chaque fonction pour avoir une moyenne égale à zéro et les dimensionne pour avoir un écart type unitaire. Facultatif Valeurs valides : Valeur par défaut : |
normalize_label |
Normalise l'étiquette. La normalisation d'étiquette déplace l'étiquette pour obtenir une moyenne égale à 0 et la dimensionne pour avoir un écart type unitaire. La valeur Facultatif Valeurs valides : Valeur par défaut : |
num_calibration_samples |
Nombre d'observations de l'ensemble de données de validation à utiliser pour le calibrage du modèle (lors de la recherche du meilleur seuil). Facultatif Valeurs valides : Valeur par défaut : |
num_models |
Nombre de modèles à entraîner en parallèle. Pour la valeur par défaut, Facultatif Valeurs valides : Valeurs par défaut : |
num_point_for_scaler |
Nombre de points de données à utiliser pour calculer la normalisation ou annuler le biais des termes. Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 10,000 |
optimizer |
Algorithme d'optimisation à utiliser. Facultatif Valeurs valides :
Valeur par défaut : |
positive_example_weight_mult |
Pondération attribuée aux exemples positifs lors de l'entraînement d'un classificateur binaire. La pondération d'exemples négatifs est fixée à 1. Si vous souhaitez que l'algorithme choisisse une pondération afin que les erreurs de classification des exemples négatifs et des exemples positifs aient le même impact sur la perte d'entraînement, spécifiez Facultatif Valeurs valides : Valeur par défaut : 1.0 |
quantile |
Quantile pour la perte de quantile. Pour le quantile q, le modèle tente de produire des prédictions telles que la valeur de Facultatif Valeurs valides : entier à virgule flottante compris entre 0 et 1 Valeur par défaut : 0.5 |
target_precision |
Précision de la cible. Si Facultatif Valeurs valides : entier à virgule flottante compris entre 0 et 1.0 Valeur par défaut : 0.8 |
target_recall |
Rappel de la cible. Si Facultatif Valeurs valides : entier à virgule flottante compris entre 0 et 1.0 Valeur par défaut : 0.8 |
unbias_data |
Annule le biais des caractéristiques avant l'entraînement si bien que la moyenne est 0. Par défaut, les données sont sans biais si l'hyperparamètre Facultatif Valeurs valides : Valeur par défaut : |
unbias_label |
Annule le biais des étiquettes avant l'entraînement si bien que la moyenne est 0. S'applique uniquement quand l'hyperparamètre Facultatif Valeurs valides : Valeur par défaut : |
use_bias |
Spécifie si le modèle doit inclure un terme biaisé, lequel est le terme d'interception de l'équation linéaire. Facultatif Valeurs valides : Valeur par défaut : |
use_lr_scheduler |
Spécifie s'il faut utiliser un planificateur pour le taux d'apprentissage. Si vous souhaitez utiliser un planificateur, spécifiez Facultatif Valeurs valides : Valeur par défaut : |
wd |
Paramètre weight decay, également connu sous le nom de paramètre de régularisation L2. Si vous ne voulez pas utiliser la régularisation L2, définissez la valeur sur 0. Facultatif Valeurs valides : Valeur par défaut : |