Fehler bei der Erstellung eines Modellevaluierungsjobs in Amazon beheben SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Fehler bei der Erstellung eines Modellevaluierungsjobs in Amazon beheben SageMaker

Wichtig

Um SageMaker Clarify Foundation Model Evaluations (FMEval) verwenden zu können, müssen Sie ein Upgrade auf das neue Studio-Erlebnis durchführen.

Seit dem 30. November 2023 heißt das vorherige Amazon SageMaker Studio-Erlebnis jetzt Amazon SageMaker Studio Classic. FMEvalist in Amazon SageMaker Studio Classic nicht verfügbar.

Informationen zum Upgrade auf das neue Studio-Erlebnis finden Sie unterMigration von Amazon SageMaker Studio Classic. Informationen zur Verwendung der Studio Classic-Anwendung finden Sie unterAmazon SageMaker Studio Classic.

Wenn Sie beim Erstellen eines Model-Evaluierungsjobs auf einen Fehler stoßen, verwenden Sie die folgende Liste, um Fehler bei der Evaluierung zu beheben. Wenn Sie weitere Unterstützung benötigen, wenden Sie sich an AWS Supportunsere AWS Entwicklerforen für Amazon SageMaker.

Fehler beim Hochladen Ihrer Daten aus einem Amazon S3 S3-Bucket

Wenn Sie eine Foundation-Model-Evaluierung erstellen, müssen Sie die richtigen Berechtigungen für den S3-Bucket festlegen, in dem Sie Ihre Modelleingabe und -ausgabe speichern möchten. Wenn die Cross-Origin-Berechtigungen für die gemeinsame Nutzung von Ressourcen (CORS) nicht korrekt festgelegt sind, SageMaker wird der folgende Fehler generiert:

Fehler: Objekt konnte nicht in S3 abgelegt werden: Fehler beim Hochladen des Objekts auf S3 Fehler: Objekt konnte nicht in S3 abgelegt werden: NetworkError Beim Versuch, die Ressource abzurufen.

Folgen Sie den Anweisungen unter Umgebung einrichten in, um die richtigen Bucket-Berechtigungen festzulegen. Erstellen Sie einen automatischen Modellevaluierungsjob in Studio

Der Verarbeitungsauftrag konnte nicht abgeschlossen werden

Zu den häufigsten Gründen, warum Ihr Verarbeitungsauftrag nicht abgeschlossen werden konnte, gehören die folgenden:

In den folgenden Abschnitten finden Sie Informationen zur Behebung der einzelnen Probleme.

Unzureichende Quote

Wenn Sie eine Foundation-Model-Evaluierung für ein nicht JumpStart bereitgestelltes Modell durchführen, stellt SageMaker Clarify Ihr umfangreiches Sprachmodell (LLM) auf einem SageMaker Endpunkt in Ihrem Konto bereit. Wenn Ihr Konto nicht über ein ausreichendes Kontingent für die Ausführung des ausgewählten JumpStart Modells verfügt, schlägt der Job mit einem fehl. ClientError Gehen Sie wie folgt vor, um Ihr Kontingent zu erhöhen:

Beantragen Sie eine Erhöhung der AWS Service Quotas
  1. Rufen Sie den Instanznamen, das aktuelle Kontingent und das erforderliche Kontingent anhand der Fehlermeldung auf dem Bildschirm ab. Zum Beispiel im folgenden Fehler:

    • Der Instanzname istml.g5.12xlarge.

    • Das aktuelle Kontingent aus der folgenden Zahl current utilization ist 0 instances

    • Das zusätzlich erforderliche Kontingent aus der folgenden Zahl request delta ist1 instances.

    Es folgt der Beispielfehler:

    ClientError: An error occurred (ResourceLimitExceeded) when calling the CreateEndpoint operation: The account-level service limit 'ml.g5.12xlarge for endpoint usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please use AWS Service Quotas to request an increase for this quota. If AWS Service Quotas is not available, contact AWS support to request an increase for this quota

  2. Melden Sie sich bei der Service Quotas Quotas-Konsole an AWS Management Console und öffnen Sie sie.

  3. Geben Sie im Navigationsbereich unter Kontingente verwalten eine Eingabe einAmazon SageMaker.

  4. Wählen Sie Kontingente anzeigen aus.

  5. Geben Sie in der Suchleiste unter Dienstkontingente den Namen der Instanz aus Schritt 1 ein. Verwenden Sie beispielsweise die Informationen, die in der Fehlermeldung aus Schritt 1 enthalten sind, und geben Sie einml.g5.12xlarge.

  6. Wählen Sie den Kontingentnamen, der neben Ihrem Instanznamen angezeigt wird und mit for endpoint usage endet. Wählen Sie beispielsweise anhand der in der Fehlermeldung aus Schritt 1 enthaltenen Informationen ml.g5.12xlarge für die Endpunktnutzung aus.

  7. Wählen Sie Erhöhung auf Kontoebene beantragen aus.

  8. Geben Sie unter Kontingentwert erhöhen das erforderliche Kontingent aus den Informationen in der Fehlermeldung aus Schritt 1 ein. Geben Sie die Summe von current utilization und einrequest delta. Im vorherigen Beispiel current utilization ist der Fehler „ist0 Instances“ und „request deltaist1 Instances“. Fordern Sie in diesem Beispiel ein Kontingent von 1 an, um das erforderliche Kontingent bereitzustellen.

  9. Wählen Sie Request (Anfrage).

  10. Wählen Sie im Navigationsbereich die Option Kontingentanforderungsverlauf aus.

  11. Wenn sich der Status von Ausstehend in Genehmigt ändert, führen Sie Ihren Job erneut aus. Möglicherweise müssen Sie Ihren Browser aktualisieren, um die Änderung zu sehen.

Weitere Informationen zur Beantragung einer Erhöhung Ihres Kontingents finden Sie unter Eine Erhöhung Ihres Kontingents beantragen.

Nicht genügend Arbeitsspeicher

Wenn Sie eine Foundation-Model-Evaluierung auf einer EC2 Amazon-Instance starten, die nicht über ausreichend Arbeitsspeicher für die Ausführung eines Evaluierungsalgorithmus verfügt, schlägt der Job mit dem folgenden Fehler fehl:

The actor is dead because its worker process has died. Worker exit type: SYSTEM_ERROR Worker exit detail: Worker unexpectedly exits with a connection error code 2. End of file. There are some potential root causes. (1) The process is killed by SIGKILL by OOM killer due to high memory usage. (2) ray stop --force is called. (3) The worker is crashed unexpectedly due to SIGSEGV or other unexpected errors. The actor never ran - it was cancelled before it started running.

Um den für Ihren Evaluierungsjob verfügbaren Arbeitsspeicher zu erhöhen, ändern Sie Ihre Instance in eine Instanz mit mehr Arbeitsspeicher. Wenn Sie die Benutzeroberfläche verwenden, können Sie in Schritt 2 unter Prozessorkonfiguration einen Instanztyp auswählen. Wenn Sie Ihren Job in der SageMaker Konsole ausführen, starten Sie einen neuen Space mit einer Instance mit erhöhter Speicherkapazität.

Eine Liste der EC2 Amazon-Instances finden Sie unter Instance-Typen.

Weitere Informationen zu Instances mit größerer Speicherkapazität finden Sie unter Speicheroptimierte Instances.

Die Ping-Prüfung wurde nicht bestanden

In einigen Fällen schlägt Ihr Auftrag zur Evaluierung Ihres Foundation-Modells fehl, weil er bei SageMaker der Bereitstellung Ihres Endpunkts eine Ping-Prüfung nicht bestanden hat. Wenn es einen Ping-Test nicht besteht, wird der folgende Fehler angezeigt:

ClientError: Error hosting endpoint your_endpoint_name: Failed. Reason: The primary container for production variant AllTraffic did not pass the ping health check. Please check CloudWatch logs for this endpoint..., Job exited for model: your_model_name of model_type: your_model_type

Wenn Ihr Job diesen Fehler generiert, warten Sie einige Minuten und führen Sie Ihren Job erneut aus. Wenn der Fehler weiterhin besteht, wenden Sie sich an den AWS Support oder die AWS Entwicklerforen von Amazon SageMaker.

In der Konsole finden Sie keine Evaluierungen von Foundation-Modellen SageMaker

Um SageMaker Clarify Foundation Model Evaluations verwenden zu können, müssen Sie auf das neue Studio-Erlebnis aktualisieren. Seit dem 30. November 2023 heißt das vorherige Amazon SageMaker Studio-Erlebnis jetzt Amazon SageMaker Studio Classic. Die Foundation-Evaluierungsfunktion kann nur in der aktualisierten Version verwendet werden. Informationen zum Aktualisieren von Studio finden Sie unterMigration von Amazon SageMaker Studio Classic.

Ihr Modell unterstützt keine Prompt-Stereotypisierung

Nur einige JumpStart Modelle unterstützen die automatische Stereotypisierung. Wenn Sie ein JumpStart Modell auswählen, das nicht unterstützt wird, wird der folgende Fehler angezeigt:

{"evaluationMetrics":"This model does not support Prompt stereotyping evaluation. Please remove that evaluation metric or select another model that supports it."}

Wenn Sie diesen Fehler erhalten, können Sie Ihr ausgewähltes Modell nicht in einer Foundation-Evaluierung verwenden. SageMaker Clarify arbeitet derzeit daran, alle JumpStart Modelle für Prompt-Stereotypisierungsaufgaben zu aktualisieren, sodass sie bei einer Evaluierung des Fundamentmodells verwendet werden können.

Fehler bei der Validierung von Datensätzen (menschlich)

Der Datensatz für benutzerdefinierte Eingabeaufforderungen in einer Modellevaluierungsaufgabe, bei der menschliche Mitarbeiter eingesetzt werden, muss mithilfe der .jsonl Erweiterung im JSON Linienformat formatiert werden.

Wenn Sie einen Job starten, wird jedes JSON Objekt im Prompt-Datensatz voneinander abhängig validiert. Wenn eines der JSON Objekte nicht gültig ist, erhalten Sie die folgende Fehlermeldung.

Customer Error: Your input dataset could not be validated. Your dataset can have up to 1000 prompts. The dataset must be a valid jsonl file, and each prompt valid json object.To learn more about troubleshooting dataset validations errors, see Troubleshooting guide. Job executed for models: meta-textgeneration-llama-2-7b-f, pytorch-textgeneration1-alexa20b.

Damit ein Datensatz mit benutzerdefinierten Eingabeaufforderungen alle Validierungen bestehen kann, muss Folgendes für alle JSON Objekte in der JSON Lines-Datei zutreffen.

  • Jede Zeile in der Prompt-Datensatzdatei muss ein gültiges JSON Objekt sein.

  • Sonderzeichen wie Anführungszeichen (") müssen korrekt maskiert werden. Wenn Ihre Eingabeaufforderung beispielsweise wie folgt lauten würde, müssten "Claire said to the crowd, "Bananas are the best!"" die Anführungszeichen mit einem\, maskiert werden"Claire said to the crowd, \"Bananas are the best!\"".

  • Ein gültiges JSON Objekt muss mindestens das prompt Schlüssel/Wert-Paar enthalten.

  • Eine Prompt-Datensatzdatei kann nicht mehr als 1.000 JSON Objekte in einer einzigen Datei enthalten.

  • Wenn Sie den responses Schlüssel in einem JSON Objekt angeben, muss er in allen JSON Objekten vorhanden sein.

  • Die maximale Anzahl von Objekten im responses Schlüssel ist 1. Wenn Sie Antworten aus mehreren Modellen haben, die Sie vergleichen möchten, ist für jedes Modell ein eigener BYOI Datensatz erforderlich.

  • Wenn Sie den responses Schlüssel in einem JSON Objekt angeben, muss er auch die text Schlüssel modelIdentifier und in allen responses Objekten enthalten.