Semantische Segmentierungshyperparameter - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Semantische Segmentierungshyperparameter

In den folgenden Tabellen sind die Hyperparameter aufgeführt, die vom Semantischen Segmentierungsalgorithmus von Amazon SageMaker AI für Netzwerkarchitektur, Dateneingaben und Training unterstützt werden. Sie geben Semantische Segmentierung für Trainings im AlgorithmName der CreateTrainingJob-Anforderung an.

Netzwerkarchitekturhyperparameter

Name des Parameters Beschreibung
backbone

Das Backbone, der für die Encoder-Komponente des Algorithmus verwendet werden soll.

Optional

Zulässige Werte: resnet-50, resnet-101

Standardwert: resnet-50

use_pretrained_model

Gibt an, ob eine vortrainiertes Modell für das Backbone verwendet werden soll.

Optional

Zulässige Werte: True, False

Standardwert: True

algorithm

Der Algorithmus, der für die semantische Segmentierung verwendet werden soll.

Optional

Zulässige Werte:

Standardwert: fcn

Datenhyperparameter

Name des Parameters Beschreibung
num_classes

Die Anzahl der Klassen, die segmentiert werden sollen.

Erforderlich

Gültige Werte: 2 ≤ positive Ganzzahl ≤ 254

num_training_samples

Die Anzahl von Stichproben in den Trainingsdaten. Der Algorithmus verwendet diesen Wert zum Einrichten der des Lernraten-Schedulers.

Erforderlich

Gültige Werte: positive Ganzzahl

base_size

Definiert, wie Bilder vor dem Zuschneiden neu skaliert werden. Bilder werden so neu skaliert, dass die Länge des langen Formats auf base_size, multipliziert mit einer Zufallszahl von 0,5 bis 2,0, eingestellt wird und das Kurzformat so berechnet wird, dass das Seitenverhältnis gewahrt bleibt.

Optional

Gültige Werte: positive Ganzzahl > 16

Standardwert: 520

crop_size

Die Bildgröße für die Eingabe während des Trainings. Wir skalieren das Eingabebild basierend auf base_size nach dem Zufallsprinzip neu und nehmen dann einen zufälligen quadratischen Zuschnitt mit der Seitenlänge gleich crop_size. Der Wert für crop_size wird automatisch auf ein Vielfaches von 8 aufgerundet.

Optional

Gültige Werte: positive Ganzzahl > 16

Standardwert: 240

Trainingshyperparameter

Name des Parameters Beschreibung
early_stopping

Gibt an, ob die Logik zum frühzeitigen Beenden während des Trainings verwendet werden soll.

Optional

Zulässige Werte: True, False

Standardwert: False

early_stopping_min_epochs

Die Mindestanzahl der Epochen, die ausgeführt werden müssen.

Optional

Gültige Werte: Ganzzahl

Standardwert: 5

early_stopping_patience

Die Anzahl der Epochen, die die Toleranz für niedrigere Leistung erfüllen, bevor der Algorithmus eine frühzeitige Beendigung erzwingt.

Optional

Gültige Werte: Ganzzahl

Standardwert: 4

early_stopping_tolerance

Wenn die relative Verbesserung der Punktzahl des Trainingsjobs, m, kleiner als dieser Wert istIOU, wird bei vorzeitigem Abbruch die Epoche als nicht verbessert angesehen. Dies wird nur verwendet, wenn early_stopping = True.

Optional

Gültige Werte: 0 ≤ Float ≤ 1

Standardwert: 0.0

epochs

Die Anzahl der Epochen, mit denen das Training durchgeführt werden soll.

Optional

Gültige Werte: positive Ganzzahl

Standardwert: 10

gamma1

Ein Zerfallsfaktor für den gleitenden Durchschnitt des Verlaufs im Quadrat für rmsprop. Wird nur fürrmsprop verwendet.

Optional

Gültige Werte: 0 ≤ Float ≤ 1

Standardwert: 0.9

gamma2

Der Impulsfaktor für rmsprop.

Optional

Gültige Werte: 0 ≤ Float ≤ 1

Standardwert: 0.9

learning_rate

Die anfängliche Lernrate.

Optional

Gültige Werte: 0 < Float ≤ 1

Standardwert: 0.001

lr_scheduler

Die Form des Lernraten-Schedulers, der die Verringerung im Zeitverlauf steuert.

Optional

Zulässige Werte:

  • step: Ein schrittweiser Zerfall, bei dem die Lernrate mit den lr_scheduler_factor nachfolgenden Epochen reduziert (multipliziert) wird, angegeben durch lr_scheduler_step.

  • poly: Eine allmählicher Zerfall unter Verwendung einer Polynomfunktion.

  • cosine: Eine allmählicher Zerfall unter Verwendung einer Kosinusfunktion.

Standardwert: poly

lr_scheduler_factor

Wenn lr_scheduler auf step gesetzt ist, ist das Verhältnis, um das learning_rate nach jeder der durch die angegebenen Epochen reduziert (multipliziert) werden soll, angegeben nach lr_scheduler_step. Andernfalls ignoriert.

Optional

Gültige Werte: 0 ≤ float ≤ 1

Standardwert: 0.1

lr_scheduler_step

Eine kommagetrennte Liste der Epochen, nach denen learning_rate mit einem reduziert (multipliziert) wird, nach lr_scheduler_factor. Wird der Wert z. B. auf ""10, 20" festgelegt, so wird die learning-rate nach der 10. Epoche um lr_scheduler_factor reduziert, und nach der 20. Epoche nochmals um diesen Faktor.

Bedingt erforderlich, wenn lr_scheduler auf step gesetzt ist. Andernfalls ignoriert.

Gültige Werte: Zeichenfolge

Standardwert: (Kein Standardwert, da der Wert erforderlich ist, wenn er verwendet wird.)

mini_batch_size

Die Batch-Größe für das Training. Das Verwenden einer großen mini_batch_size beschleunigt in der Regel das Training, kann jedoch dazu führen, dass nicht mehr genügend Speicherplatz vorhanden ist. Die Speichernutzung wird von den Werten der Parameter mini_batch_size und image_shape und der Backbone-Architektur beeinflusst.

Optional

Gültige Werte: positive Ganzzahl

Standardwert: 16

momentum

Die Dynamik für den sgd-Optimierer. Wenn Sie andere Optimierer verwenden, ignoriert der Algorithmus für die semantische Segmentierung diesen Parameter.

Optional

Gültige Werte: 0 < float ≤ 1

Standardwert: 0.9

optimizer

Der Typ des Optimierers. Für weitere Informationen zu einem Optimierer wählen Sie den entsprechenden Link aus:

Optional

Gültige Werte: adam, adagrad, nag, rmsprop, sgd

Standardwert: sgd

syncbn

Wenn dieser Wert auf gesetzt istTrue, werden der Mittelwert und die Varianz der Chargennormalisierung für alle Proben berechnet, die im Laufe der Zeit verarbeitet wurden. GPUs

Optional

Zulässige Werte: True, False

Standardwert: False

validation_mini_batch_size

Die Stapelgröße für die Validierung. Eine große mini_batch_size beschleunigt in der Regel das Training, kann jedoch dazu führen, dass nicht mehr genügend Speicherplatz vorhanden ist. Die Speichernutzung wird von den Werten der Parameter mini_batch_size und image_shape und der Backbone-Architektur beeinflusst.

  • Zur Bewertung der Validierung im gesamten Bild ohne Zuschneiden der Bilder, legen Sie diesen Parameter auf 1 fest. Verwenden Sie diese Option, wenn Sie die Leistung im gesamten Bild als Ganzes messen möchten.

    Anmerkung

    Wenn der validation_mini_batch_size-Parameter auf 1 festgelegt wird, erstellt der Algorithmus ein neues Netzwerkmodell für jedes Bild. Dadurch können die Validierung und Trainings verlangsamt werden.

  • Zum Zuschneiden der Bilder auf die im crop_size-Parameter angegebene Größe, auch während der Auswertung, legen Sie diesen Parameter auf einen Wert größer als 1 fest.

Optional

Gültige Werte: positive Ganzzahl

Standardwert: 16

weight_decay

Der Weight-Decay-Koeffizient für den sgd-Optimierer. Wenn Sie andere Optimierer verwenden, ignoriert der Algorithmus diesen Parameter.

Optional

Gültige Werte: 0 < Gleitkommazahl < 1

Standardwert: 0.0001