Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Objekterkennungshyperparameter
In der CreateTrainingJob
-Anforderung geben Sie den Trainingsalgorithmus an, den Sie verwenden möchten. Sie können auch algorithmusspezifische Hyperparameter angeben, die zur Unterstützung der Schätzung der Parameter des Modells aus einem Trainingsdatensatz verwendet werden. In der folgenden Tabelle sind die Hyperparameter aufgeführt, die von Amazon SageMaker für das Training des Objekterkennungsalgorithmus bereitgestellt werden. Weitere Informationen zur Funktionsweise der Objekterkennung finden Sie unter So funktioniert die Objekterkennung.
Name des Parameters | Beschreibung |
---|---|
num_classes |
die Anzahl der Ausgabeklassen. Dieser Parameter definiert die Dimensionen der Netzwerkausgabe und ist in der Regel auf die Anzahl der Klassen im Datensatz festgelegt. Erforderlich Gültige Werte: positive Ganzzahl |
num_training_samples |
Die Anzahl der Trainingsbeispiele im Eingabedatensatz. AnmerkungWenn es keine Übereinstimmung zwischen diesem Wert und der Anzahl der Beispiele im Trainingsdatensatz gibt, dann ist das Verhalten des Erforderlich Gültige Werte: positive Ganzzahl |
base_network |
Die Basisnetzwerkarchitektur, die verwendet werden soll. Optional Gültige Werte: "vgg-16" oder "resnet-50" Standardwert: "vgg-16" |
early_stopping |
Mit Optional Gültige Werte: Standardwert: |
early_stopping_min_epochs |
Die Mindestanzahl der Epochen, die ausgeführt werden müssen, bevor die Logik zum frühzeitigen Beenden aufgerufen werden kann. Sie wird nur verwendet, wenn Optional Gültige Werte: positive Ganzzahl Standardwert: 10 |
early_stopping_patience |
Die Anzahl der abzuwartenden Epochen, bevor das Training endet, wenn keine Verbesserung, wie vom Optional Gültige Werte: positive Ganzzahl Standardwert: 5 |
early_stopping_tolerance |
Der Toleranzwert, der für die relative Verbesserung in Optional Gültige Werte: 0 ≤ Float ≤ 1 Standardwert: 0.0 |
image_shape |
Die Bildgröße für Eingabebilder. Wir skalieren das Eingangsbild auf ein quadratisches Bild mit dieser Größe neu. Wir empfehlen die Verwendung von 300 und 512, um eine bessere Leistung zu erzielen. Optional Gültige Werte: positive Ganzzahl ≥300 Standard: 300 |
epochs |
Die Anzahl der Trainingsepochen. Optional Gültige Werte: positive Ganzzahl Standard: 30 |
freeze_layer_pattern |
Der reguläre Ausdruck (Regex) für einfrierende Layer im Basisnetzwerk. Beispiel: Wenn wir Optional Gültige Werte: Zeichenfolge Standard: Keine Layer eingefroren. |
kv_store |
Der Synchronisierungsmodus der Gewichtungsaktualisierungen, der für das verteilte Training verwendet wird. Die Gewichtungen können entweder synchron oder asynchron über mehrere Maschinen hinweg aktualisiert werden. Synchrone Aktualisierungen bieten in der Regel eine bessere Genauigkeit als asynchrone Aktualisierungen, können aber langsamer sein. Einzelheiten finden Sie im MXNet Tutorial Distributed Training AnmerkungDieser Parameter gilt nicht für das Einzel-Maschinen-Training. Optional Gültige Werte:
Standardeinstellung: – |
label_width |
Die Bezeichnungsbreite des Force Padding, die zum Synchronisieren der Trainings- und Validierungsdaten verwendet werden soll. Beispiel: Wenn ein Bild in den Daten maximal 10 Objekte enthält und die Anmerkung der einzelnen Objekte mit 5 Zahlen angegeben wird, [class_id, left, top, width, height], dann sollte Optional Gültige Werte: Positive Ganzzahl, die groß genug ist, um die größte Anmerkungsinformationslänge in den Daten aufzunehmen. Standard: 350 |
learning_rate |
Die anfängliche Lernrate. Optional Gültige Werte: Gleitkommazahl. in (0, 1] Standard: 0.001 |
lr_scheduler_factor |
Das Verhältnis zur Reduzierung der Lernrate. Verwendet in Verbindung mit dem Parameter Optional Gültige Werte: Gleitkommazahl. in (0, 1) Standard: 0.1 |
lr_scheduler_step |
Die Epochen für das Reduzieren der Lernrate. Die Lernrate wird um Optional Gültige Werte: Zeichenfolge Standard: leere Zeichenfolge |
mini_batch_size |
Die Batch-Größe für das Training. In einer Einstellung mit mehreren GPUs für einen Computer GPU verarbeitet jeder einzelne Computer Optional Gültige Werte: positive Ganzzahl Standard: 32 |
momentum |
Der Impulsfaktor für Optional Gültige Werte: Gleitkommazahl. in (0, 1] Standard: 0.9 |
nms_threshold |
Der nicht maximale Unterdrückungsgrenzwert. Optional Gültige Werte: Gleitkommazahl. in (0, 1] Standard: 0.45 |
optimizer |
Die Optimierer-Typen. Einzelheiten zu Optimizer-Werten finden Sie unter's. MXNet API Optional Gültige Werte: ['sgd', 'adam', 'rmsprop', 'adadelta'] Standard: "sgd" |
overlap_threshold |
Die Schwellenwert für die Auswertungsüberlappung. Optional Gültige Werte: Gleitkommazahl. in (0, 1] Standard: 0.5 |
use_pretrained_model |
Gibt an, ob ein vortrainiertes Modell für das Training verwendet werden soll. Wenn dieser Wert auf 1 festgelegt ist, wird das vorgeschulte Modell mit der entsprechenden Architektur geladen und für das Training verwendet. Andernfalls wird das Netzwerk von Grund auf neu trainiert. Optional Gültige Werte: 0 oder 1 Standard: 1 |
weight_decay |
Der Weight-Decay-Koeffizient für Optional Gültige Werte: Gleitkommazahl. in (0, 1) Standard: 0.0005 |