Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Hyperparamètres de la détection d'objet
Dans la demande CreateTrainingJob
, vous spécifiez l'algorithme de formation que vous voulez utiliser. Vous pouvez également spécifier les hyperparamètres propres à l'algorithme qui sont utilisés pour vous aider à estimer les paramètres du modèle à partir d'un ensemble de données d'entraînement. Le tableau suivant répertorie les hyperparamètres fournis par Amazon SageMaker pour l'entraînement de l'algorithme de détection d'objets. Pour plus d'informations sur le fonctionnement de l'entraînement d'objet, consultez Fonctionnement de la détection d'objet.
Nom du paramètre | Description |
---|---|
num_classes |
Nombre de classes de sortie. Ce paramètre définit les dimensions de la sortie du réseau et est généralement défini en fonction du nombre de classes dans le jeu de données. Obligatoire Valeurs valides : nombre entier positif |
num_training_samples |
Nombre d'exemples d'entraînement du jeu de données en entrée. NoteEn cas de différence entre cette valeur et le nombre d'échantillons de l'ensemble d'entraînement, le comportement du paramètre Obligatoire Valeurs valides : nombre entier positif |
base_network |
Architecture du réseau de base à utiliser. Facultatif Valeurs valides : « vgg-16 » ou « resnet-50 » Valeur par défaut : « vgg-16 » |
early_stopping |
Facultatif Valeurs valides : Valeur par défaut : |
early_stopping_min_epochs |
Nombre minimum d'époques devant être exécutées avant de pouvoir invoquer une logique d'arrêt anticipé. Paramètre utilisé uniquement si Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 10 |
early_stopping_patience |
Nombre de dates epoch à attendre avant la fin de l'entraînement si aucune amélioration, comme défini par l'hyperparamètre Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 5 |
early_stopping_tolerance |
La valeur de tolérance qu'apporte l'amélioration relative dans Facultatif Valeurs valides : 0 ≤ valeur flottante ≤ 1 Valeur par défaut : 0.0 |
image_shape |
Taille de l'image pour les images en entrée. Nous redimensionnons l'image d'entrée en une image carrée avec cette taille. Nous vous recommandons d'utiliser 300 et 512 afin d'améliorer les performances. Facultatif Valeurs valides : nombre entier positif ≥ 300 Valeur par défaut : 300 |
epochs |
Nombre de dates epoch d'entraînement. Facultatif Valeurs valides : nombre entier positif Valeur par défaut : 30 |
freeze_layer_pattern |
Expression régulière (regex) pour bloquer les couches dans le réseau de base. Par exemple, si vous définissez Facultatif Valeurs valides : chaîne Valeur par défaut : pas de couches bloquées. |
kv_store |
Mode de synchronisation de la mise à jour de pondération utilisé pour l'entraînement distribué. Les pondérations peuvent être mises à jour de manière synchrone ou asynchrone sur plusieurs machines. En général, les mises à jour synchrones offrent une meilleure précision que les mises à jour asynchrones, mais elles peuvent être plus lentes. Consultez le MXNet didacticiel de formation distribuée NoteCe paramètre n'est pas applicable à l'entraînement de machine unique. Facultatif Valeurs valides :
Par défaut : - |
label_width |
Largeur de l'étiquette de remplissage de force utilisée pour la synchronisation sur les données d'entraînement et les données de validation. Par exemple, si une image des données contient au plus 10 objets et que chaque annotation d'objet est spécifiée avec 5 nombres, [class_id, left, top, width, height], Facultatif Valeurs valides : nombre entier positif assez grand pour accueillir la plus grande longueur d'informations d'annotation dans les données. Par défaut: 350 |
learning_rate |
Le taux d'apprentissage initial. Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.001 |
lr_scheduler_factor |
Ratio de réduction du taux d'apprentissage. Utilisation conjointe avec le paramètre Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.1 |
lr_scheduler_step |
Époques auxquelles le taux de formation est réduit. Le taux d'apprentissage est réduit de Facultatif Valeurs valides : chaîne Par défaut : chaîne vide |
mini_batch_size |
Taille de lot pour l'entraînement. Dans un environnement multi-GPU sur une seule machine, chacun Facultatif Valeurs valides : nombre entier positif Par défaut: 32 |
momentum |
Vitesse pour Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.9 |
nms_threshold |
Seuil de suppression non maximal. Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.45 |
optimizer |
Types d'optimiseur. Pour plus de détails sur les valeurs de l'optimiseur, consultez MXNet. API Facultatif Valeurs valides : ['sgd', 'adam', 'rmsprop', 'adadelta'] Valeur par défaut : « sgd » |
overlap_threshold |
Seuil de chevauchement de l'évaluation. Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.5 |
use_pretrained_model |
Indique s'il convient d'utiliser un modèle préentraîné pour l'entraînement. Lorsque cet indicateur est défini sur 1, le modèle préentraîné avec l'architecture correspondants est chargé et utilisé pour l'entraînement. Dans le cas contraire, le réseau est intégralement entraîné. Facultatif Valeurs valides : 0 ou 1 Valeur par défaut : 1 |
weight_decay |
Coefficient de dégradation de pondération pour Facultatif Valeurs valides : nombre flottant de l'intervalle [0,1] Par défaut: 0.0005 |