Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Optimieren eines Factorization Machines-Modells

Fokusmodus
Optimieren eines Factorization Machines-Modells - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .

Vom Factorization Machines-Algorithmus berechnete Metriken

Der Factorization Machines-Algorithmus verfügt sowohl über binäre Klassifikations- als auch Regressionsprädiktoren. Der Prognosetyp bestimmt, welche Metrik Sie für die automatische Modelloptimierung verwenden können. Der Algorithmus meldet eine test:rmse regressor-Metrik, die während des Trainings berechnet wird. Wählen Sie diese Metrik beim Optimieren des Modells für Regressionsaufgaben als objektive Metrik aus.

Metrikname Beschreibung Optimierungsrichtung
test:rmse

Wurzel des mittleren quadratischen Prognosefehlers (Root Mean Square Error)

Minimieren

Der Factorization Machines-Algorithmus liefert drei binäre Klassifikationsmetriken, die während des Trainings berechnet werden. Beim Optimieren des Modells für binäre Klassifikationsaufgaben wählen Sie eine der folgenden Optionen als objektive Metrik aus.

Metrikname Beschreibung Optimierungsrichtung
test:binary_classification_accuracy

Accuracy

Maximieren

test:binary_classification_cross_entropy

Kreuz-Entropie

Minimieren

test:binary_f_beta

Beta

Maximieren

Optimierbare Factorization Machines-Hyperparameter

Sie können die folgenden Hyperparameter für den Algorithmus Factorization Machines einstellen. Die Initialisierungsparameter, die die Begriffe "bias", "linear" und "factorization" enthalten, hängen von ihrer Initialisierungsmethode ab. Es gibt drei Initialisierungsmethoden: uniform, normal und constant. Diese Initialisierungsmethoden sind nicht optimierbar. Die Parameter, die optimierbar sind, hängen von der Wahl der Initialisierungsmethode ab. Beispiel: Wenn die Initialisierungsmethode uniform lautet, dann sind nur die scale-Parameter optimierbar. Insbesondere bei bias_init_method==uniform sind bias_init_scale, linear_init_scale und factors_init_scale optimierbar. Wenn die Initialisierungsmethode entsprechend normal lautet, dann sind nur die sigma-Parameter optimierbar. Wenn die Initialisierungsmethode constant lautet, dann sind nur die value-Parameter optimierbar. Diese Abhängigkeiten werden in der folgenden Tabelle aufgeführt.

Name des Parameters Parametertyp Empfohlene Bereiche -Abhängigkeit
bias_init_scale

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==uniform

bias_init_sigma

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==normal

bias_init_value

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==constant

bias_lr

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

Keine

bias_wd

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

Keine

epoch

IntegerParameterRange

MinValue: 1, MaxValue: 100

Keine

factors_init_scale

ContinuousParameterRange

MinValue: 1e-8, MaxValue: 512

bias_init_method==uniform

factors_init_sigma

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==normal

factors_init_value

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==constant

factors_lr

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

Keine

factors_wd

ContinuousParameterRange

MinValue: 1e-8,: 512] MaxValue

Keine

linear_init_scale

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==uniform

linear_init_sigma

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==normal

linear_init_value

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

bias_init_method==constant

linear_lr

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

Keine

linear_wd

ContinuousParameterRange

MinValue: 1e-8,: 512 MaxValue

Keine

mini_batch_size

IntegerParameterRange

MinValue: 100, MaxValue: 1000

Keine

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.