Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Apache Spark mit Amazon SageMaker AI

Fokusmodus

Auf dieser Seite

Apache Spark mit Amazon SageMaker AI - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker AI Spark ist eine Open-Source-Spark-Bibliothek, mit der Sie Spark-Pipelines für maschinelles Lernen (ML) mit SageMaker KI erstellen können. Dies vereinfacht die Integration von Spark-ML-Phasen in SageMaker KI-Phasen wie Modelltraining und Hosting. Informationen zu SageMaker AI Spark finden Sie im SageMaker AI GitHub Spark-Repository. Die folgenden Themen enthalten Informationen zur Verwendung von Apache Spark mit SageMaker KI.

Die SageMaker AI Spark-Bibliothek ist in Python und Scala verfügbar. Sie können SageMaker AI Spark verwenden, um Modelle in SageMaker KI mithilfe von org.apache.spark.sql.DataFrame Datenrahmen in Ihren Spark-Clustern zu trainieren. Nach dem Modelltraining können Sie das Modell auch mithilfe von SageMaker KI-Hosting-Diensten hosten.

Die SageMaker AI Spark-Bibliothek bietet unter anderem die folgenden Klassen: com.amazonaws.services.sagemaker.sparksdk

  • SageMakerEstimator – Erweitert die org.apache.spark.ml.Estimator Schnittstelle. Sie können diesen Schätzer für das Modelltraining in SageMaker KI verwenden.

  • KMeansSageMakerEstimator, PCASageMakerEstimator, und XGBoostSageMakerEstimator – Erweitert die SageMakerEstimator Klasse.

  • SageMakerModel – Erweitert org.apache.spark.ml.Model Klasse. Sie können ihn verwenden, um Modelle SageMakerModel zu hosten und Rückschlüsse in SageMaker KI zu ziehen.

Sie können den Quellcode für die Bibliotheken Python Spark (PySpark) und Scala aus dem SageMaker AI GitHub Spark-Repository herunterladen.

Die Installation und Beispiele der SageMaker AI Spark-Bibliothek finden Sie unter SageMaker Beispiele für AI Spark für Scala oderRessourcen für die Verwendung von SageMaker AI Spark for Python (PySpark) — Beispiele.

Wenn Sie Amazon EMR on AWS zur Verwaltung von Spark-Clustern verwenden, finden Sie weitere Informationen unter Apache Spark. Weitere Informationen zur Verwendung von Amazon EMR in SageMaker KI finden Sie unterDatenaufbereitung mit Amazon EMR.

Integrieren Sie Ihre Apache Spark-Anwendung mit SageMaker KI

Im Folgenden finden Sie eine allgemeine Zusammenfassung der Schritte zur Integration Ihrer Apache Spark-Anwendung mit SageMaker KI.

  1. Setzen Sie die Datenvorverarbeitung mithilfe der Apache Spark-Bibliothek fort, mit der Sie vertraut sind. Ihr Datensatz bleibt ein DataFrame in Ihrem Spark-Cluster. Laden Sie Ihre Daten in eineDataFrame. Verarbeiten Sie es so vor, dass Sie eine features Spalte mit org.apache.spark.ml.linalg.Vector of Doubles und eine optionale label Spalte mit Werten Double vom Typ haben.

  2. Verwenden Sie den Schätzer in der SageMaker AI Spark-Bibliothek, um Ihr Modell zu trainieren. Wenn Sie beispielsweise den von SageMaker KI bereitgestellten K-Means-Algorithmus für das Modelltraining wählen, rufen Sie die KMeansSageMakerEstimator.fit Methode auf.

    Geben Sie Ihren DataFrame als Eingabe an. Von der Schätzfunktion wird ein SageMakerModel-Objekt zurückgegeben.

    Anmerkung

    SageMakerModel ist eine Erweiterung von org.apache.spark.ml.Model.

    Von der fit-Methode werden folgende Schritte ausgeführt:

    1. Konvertiert die Eingabe in DataFrame das Protobuf-Format. Dazu werden die label Spalten features und aus der Eingabe ausgewählt. DataFrame Anschließend werden die Protobuf-Daten in einen Amazon S3 S3-Bucket hochgeladen. Das Protobuf-Format ist effizient für das Modelltraining in KI. SageMaker

    2. Startet das Modelltraining in SageMaker KI durch Senden einer SageMaker CreateTrainingJobAI-Anfrage. Nach Abschluss des Modelltrainings speichert SageMaker KI die Modellartefakte in einem S3-Bucket.

      SageMaker KI übernimmt die IAM Rolle, die Sie für das Modelltraining angegeben haben, um Aufgaben in Ihrem Namen auszuführen. Beispielsweise wird die Rolle zum Lesen von Trainingsdaten aus einem S3-Bucket und zum Schreiben von Modellartefakten in einen Bucket verwendet.

    3. Ein SageMakerModel-Objekt wird erstellt und zurückgegeben. Der Konstruktor führt die folgenden Aufgaben aus, die sich auf die Bereitstellung Ihres Modells für SageMaker KI beziehen.

      1. Sendet eine CreateModelAnfrage an SageMaker AI.

      2. Sendet eine CreateEndpointConfigAnfrage an SageMaker KI.

      3. Sendet eine CreateEndpointAnfrage an SageMaker KI, die dann die angegebenen Ressourcen startet und das Modell auf ihnen hostet.

  3. Mit dem können Sie Rückschlüsse aus Ihrem in SageMaker KI gehosteten Modell ziehen. SageMakerModel.transform

    Stellen Sie einen DataFrame mit Merkmalen als Eingabe bereit. Die transform-Methode transformiert dies in einen DataFrame, der Inferenzen enthält. Intern sendet die transform Methode eine Anfrage an die, um Schlussfolgerungen InvokeEndpoint SageMaker APIzu erhalten. Die transform-Methode hängt die Inferenzen an den Eingabe-DataFrame an.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.