Régler un modèle d'apprentissage linéaire - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Régler un modèle d'apprentissage linéaire

Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur votre jeu de données. Vous choisissez les hyperparamètres réglables, une plage de valeurs pour chacun d'eux et une métrique d'objectif. Vous choisissez la métrique d'objectif parmi les métriques que calcule l'algorithme. Le réglage de modèle automatique recherche parmi les hyperparamètres choisis la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'objectif.

L'algorithme d'apprentissage linéaire dispose également d'un mécanisme interne pour régler les hyperparamètres distincts du réglage automatique du modèle décrite ici. Par défaut, l'algorithme d'apprentissage linéaire règle les hyperparamètres via l'entraînement en parallèle de plusieurs modèles. Lorsque vous utilisez le réglage de modèle automatique, le mécanisme de réglage interne de l'apprentissage linéaire est désactivé automatiquement. Le nombre de modèles parallèles, num_models, a ainsi la valeur 1. L'algorithme ignore toute valeur que vous définissez pour num_models.

Pour plus d'informations sur le réglage de modèle, consultez Effectuez le réglage automatique du modèle avec SageMaker.

Métriques calculées par l'algorithme d'apprentissage linéaire

L'algorithme d'apprentissage linéaire rapporte les métriques dans le tableau suivant ; elles sont calculées au cours de l'entraînement. Choisissez l'une d'entre elles comme métrique d'objectif. Pour éviter un sur-ajustement, nous vous recommandons de régler le modèle par rapport à une métrique de validation au lieu d'une métrique d'entraînement.

Nom de la métrique Description Orientation de l'optimisation
test:absolute_loss

Perte absolue du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la régression.

Réduire

test:binary_classification_accuracy

Exactitude du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

test:binary_f_beta

Score F-beta du modèle final sur le jeu de données de test. Par défaut, il s'agit du score F1, qui représente la moyenne harmonique de la précision et du rappel. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

test:dcg

Gain cumulé escompté du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:macro_f_beta

Score F-beta du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:macro_precision

Score de précision du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:macro_recall

Score de rappel du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:mse

Erreur quadratique moyenne du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la régression.

Réduire

test:multiclass_accuracy

Exactitude du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:multiclass_top_k_accuracy

Exactitude parmi les k premières étiquettes prédites sur le jeu de données de test. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir la valeur de k à l'aide de l'hyperparamètre accuracy_top_k. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

test:objective_loss

Valeur moyenne de la fonction perte (loss) de l'objectif sur le jeu de données de test après que le modèle a été entraîné. Par défaut, la perte est une perte logistique pour la classification binaire et une perte quadratique pour la régression. Pour définir la perte des autres types, utilisez l'hyperparamètre loss.

Réduire

test:precision

Précision du modèle final sur le jeu de données de test. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir un rappel de cible en définissant l'hyperparamètre binary_classifier_model_selection avec la valeur precision_at_target_recall et en définissant la valeur de l'hyperparamètre target_recall. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

test:recall

Rappel du modèle final sur le jeu de données de test. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir une précision de cible en définissant l'hyperparamètre binary_classifier_model_selection avec la valeur recall_at_target_precision et en définissant la valeur de l'hyperparamètre target_precision. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

test:roc_auc_score

Zone sous la courbe caractéristique de fonctionnement de réception (courbe ROC) du modèle final sur le jeu de données de test. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

validation:absolute_loss

Perte absolue du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la régression.

Réduire

validation:binary_classification_accuracy

Exactitude du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

validation:binary_f_beta

Score F-beta du modèle final sur le jeu de données de validation. Par défaut, le score F-beta est le score F1, qui représente la moyenne harmonique des métriques validation:precision et validation:recall. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

validation:dcg

Gain cumulé escompté du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:macro_f_beta

Score F-beta du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:macro_precision

Score de précision du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:macro_recall

Score de rappel du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:mse

Erreur quadratique moyenne du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la régression.

Réduire

validation:multiclass_accuracy

Exactitude du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:multiclass_top_k_accuracy

Exactitude parmi les k premières étiquettes prédites sur le jeu de données de validation. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir la valeur de k à l'aide de l'hyperparamètre accuracy_top_k. Cette métrique d'objectif n'est valide que pour la classification multiclasse.

Agrandir

validation:objective_loss

Valeur moyenne de la fonction perte de l'objectif sur le jeu de données de validation pour chaque période (epoch). Par défaut, la perte est une perte logistique pour la classification binaire et une perte quadratique pour la régression. Pour définir la perte d'autres types, utilisez l'hyperparamètre loss.

Réduire

validation:precision

Précision du modèle final sur le jeu de données de validation. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir un rappel de cible en définissant l'hyperparamètre binary_classifier_model_selection avec la valeur precision_at_target_recall et en définissant la valeur de l'hyperparamètre target_recall. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

validation:recall

Rappel du modèle final sur le jeu de données de validation. Si vous choisissez cette métrique comme objectif, nous vous recommandons de définir une précision de cible en définissant l'hyperparamètre binary_classifier_model_selection avec la valeur recall_at_target_precision et en définissant la valeur de l'hyperparamètre target_precision. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

validation:rmse

Erreur quadratique moyenne racine du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la régression.

Réduire

validation:roc_auc_score

Zone sous la courbe caractéristique de fonctionnement de réception (courbe ROC) du modèle final sur le jeu de données de validation. Cette métrique d'objectif n'est valide que pour la classification binaire.

Agrandir

Réglage des hyperparamètres de l'apprentissage linéaire

Vous pouvez régler un modèle d'apprentissage linéaire avec les hyperparamètres suivants.

Nom du paramètre Type de paramètre Plages recommandées
wd

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

l1

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

learning_rate

ContinuousParameterRanges

MinValue: 1e-5, MaxValue: 1

mini_batch_size

IntegerParameterRanges

MinValue: 100, MaxValue: 5000

use_bias

CategoricalParameterRanges

[True, False]

positive_example_weight_mult

ContinuousParameterRanges

MinValue : 1e-5, MaxValue : 1e5