Optimieren Sie ein Textklassifizierungsmodell TensorFlow - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Optimieren Sie ein Textklassifizierungsmodell TensorFlow

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit SageMaker.

Mit dem Text Classification — Algorithmus berechnete Metriken TensorFlow

In der folgenden Tabelle können Sie herausfinden, welche Metriken vom Textklassifizierungsalgorithmus berechnet werden. TensorFlow

Metrikname Beschreibung Optimierungsrichtung Regex-Muster
validation:accuracy

Das Verhältnis der Anzahl von richtigen Prognosen zur Gesamtzahl der erstellten Voraussagen.

Maximieren

val_accuracy=([0-9\\.]+)

Einstellbare Textklassifizierung — Hyperparameter TensorFlow

Stimmen Sie ein Textklassifikationsmodell mit den folgenden Hyperparametern ab. Die Hyperparameter mit den größten Auswirkungen auf die objektiven Metriken der Bildklassifizierung sind: batch_size, learning_rate und optimizer. Optimieren Sie die auf den Optimierer bezogenen Hyperparameter, wie momentum, regularizers_l2, beta_1, beta_2, eps und , basierend auf dem ausgewählten optimizer. Verwenden Sie z. B. beta_1 und beta_2 nur, wenn adamw oder adam der optimizer ist.

Weitere Informationen dazu, welche Hyperparameter für die optimizer einzelnen Parameter verwendet werden, finden Sie unter Textklassifizierung — TensorFlow Hyperparameter.

Name des Parameters Parametertyp Empfohlene Bereiche
batch_size

IntegerParameterRanges

MinValue: 4, MaxValue: 128

beta_1

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0,99

beta_2

ContinuousParameterRanges

MinValue: 1e-6,: 0,999 MaxValue

eps

ContinuousParameterRanges

MinValue: 1e-8,: 1,0 MaxValue

learning_rate

ContinuousParameterRanges

MinValue: 1e-6,: 0,5 MaxValue

momentum

ContinuousParameterRanges

MinValue: 0,0,: 0,99 MaxValue

optimizer

CategoricalParameterRanges

['adamw', 'adam', 'sgd', 'rmsprop', 'nesterov', 'adagrad', 'adadelta']

regularizers_l2

ContinuousParameterRanges

MinValue: 0,0, MaxValue: 0,99

train_only_on_top_layer

CategoricalParameterRanges

['True', 'False']