Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Optimieren eines k-NN-Modells

Fokusmodus
Optimieren eines k-NN-Modells - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Der Amazon SageMaker AI K-Nearest Neighbors-Algorithmus ist ein überwachter Algorithmus. Der Algorithmus verbraucht ein Testdatensatz und gibt eine Metrik über die Genauigkeit für eine Klassifizierungsaufgabe oder über den mittleren quadratischen Fehler für eine Regressionsaufgabe aus. Diese Genauigkeitsmetriken vergleichen die Modellprognosen für ihre jeweilige Aufgabe mit den Referenzdaten, die anhand der empirischen Testdaten bereitgestellt werden. Führen Sie einen Hyperparameter-Optimierungsauftrag für k-NN aus, um das beste Modell zu suchen, das die höchste Genauigkeit oder den geringsten Fehler im Testdatensatz meldet.

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik für die Prognoseaufgabe des Algorithmus aus. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert. Die Hyperparameter werden nur verwendet, um Modellparameter zu schätzen. Sie werden nicht vom trainierten Modell verwendet, um Prognosen zu treffen.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .

Vom k-NN-Algorithmus berechnete Metriken

Der k-nearest neighbors-Algorithmus berechnet eine von zwei Metriken in der folgenden Tabelle während des Trainings abhängig von der Art der durch den predictor_type-Hyperparameter angegebenen Aufgabe.

  • Classifier gibt eine Klassifizierungsaufgabe an und berechnet test:accuracy.

  • Regressor gibt eine Regressionsaufgabe an und berechnet test:mse.

Wählen Sie den für die Art der Aufgabe geeigneten predictor_type-Wert aus, mit der die relevante objektive Metrik beim Optimieren eines Modells berechnet wird.

Metrikname Beschreibung Optimierungsrichtung
test:accuracy

Wenn predictor_type auf classifier festgelegt ist, vergleicht k-NN die prognostizierte Bezeichnung, basierend auf dem Durchschnitt der k-nearest neighbors-Bezeichnungen, mit den in den Testkanaldaten angegebenen Referenzdaten. Die gemeldete Genauigkeit liegt im Bereich von 0,0 (0 %) bis 1,0 (100 %).

Maximieren

test:mse

Wenn predictor_type auf regressor festgelegt ist, vergleicht k-NN die prognostizierte Bezeichnung, basierend auf dem Durchschnitt der k-nearest neighbors-Bezeichnungen, mit den in den Testkanaldaten angegebenen Referenzdaten. Der mittlere quadratische Fehler wird berechnet, indem die beiden Bezeichnungen verglichen werden.

Minimieren

Optimierbare k-NN-Hyperparameter

Optimieren Sie das Amazon SageMaker AI-Modell für den k-Nearest Neighbor mit den folgenden Hyperparametern.

Name des Parameters Parametertyp Empfohlene Bereiche
k

IntegerParameterRanges

MinValue: 1, MaxValue: 1024

sample_size

IntegerParameterRanges

MinValue: 256, MaxValue: 2000000

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.