Neptune ML-Modelltransformations-API - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Neptune ML-Modelltransformations-API

Modelltransformationsaktionen:

Modelltransformationsstrukturen:

StartMLModelTransformJob (Aktion)

        Der AWS CLI-Name für diese API lautet: start-ml-model-transform-job.

Erstellt einen neuen Modelltransformationsauftrag. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.

Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:StartMLModelTransformJob in diesem Cluster zulässt.

Anforderung

  • baseProcessingInstanceType  (in der CLI: --base-processing-instance-type) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Typ der ML-Instance, die bei der Vorbereitung und Verwaltung des Trainings von ML-Modellen verwendet wird. Dies ist eine ML-Recheninstance, die auf der Grundlage der Speicheranforderungen für die Verarbeitung der Trainingsdaten und des Modells ausgewählt wurde.

  • baseProcessingInstanceVolumeSizeInGB  (in der CLI: --base-processing-instance-volume-size-in-gb) – Ganzzahl vom Typ integer (32-Bit-Ganzzahl mit Vorzeichen).

    Die Größe des Festplattenvolumens der Trainingsinstance in Gigabyte. Der Standardwert ist 0. Sowohl die Eingabedaten als auch das Ausgabemodell werden auf der Festplatte gespeichert. Daher muss die Volumegröße groß genug sein, um beide Datensätze aufzunehmen. Falls nicht angegeben oder 0, wählt Neptune ML eine Festplatten-Volumengröße auf der Grundlage der im Datenverarbeitungsschritt generierten Empfehlung aus.

  • customModelTransformParameters(in der CLI:--custom-model-transform-parameters) – Ein CustomModelTransformParameters-Objekt.

    Konfigurationsinformationen für eine Modelltransformation unter Verwendung eines benutzerdefinierten Modells. Das customModelTransformParameters-Objekt enthält die folgenden Felder, deren Werte mit den gespeicherten Modellparametern aus dem Trainingsjob kompatibel sein müssen:

  • dataProcessingJobId  (in der CLI: --data-processing-job-id) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die Auftrags-ID eines abgeschlossenen Datenverarbeitungsauftrags. Sie müssen entweder dataProcessingJobId und mlModelTrainingJobId oder trainingJobName einschließen.

  • id  (in der CLI: --id) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Eine eindeutige Kennung für den neuen Auftrag. Die Standardeinstellung ist eine automatisch generierte UUID.

  • mlModelTrainingJobId  (in der CLI: --ml-model-training-job-id) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die Auftrags-ID eines abgeschlossenen Modelltrainingsauftrags. Sie müssen entweder dataProcessingJobId und mlModelTrainingJobId oder trainingJobName einschließen.

  • modelTransformOutputS3Location  (in der CLI: --model-transform-output-s3-location) – Erforderlich: eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Ort in Amazon S3, an dem die Modellartefakte gespeichert werden sollen.

  • neptuneIamRoleArn  (in der CLI: --neptune-iam-role-arn) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.

  • s3OutputEncryptionKMSKey  (in der CLI: --s-3-output-encryption-kms-key) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Amazon Key Management Service (KMS)-Schlüssel, den SageMaker verwendet, um die Ausgabe des Verarbeitungsauftrags zu verschlüsseln. Die Standardeinstellung ist None (Kein).

  • sagemakerIamRoleArn  (in der CLI: --sagemaker-iam-role-arn) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der ARN einer IAM-Rolle für die SageMaker-Ausführung. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.

  • securityGroupIds  (in der CLI: --security-group-ids) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die VPC-Sicherheitsgruppe. Die Standardeinstellung ist None (Kein).

  • subnets  (in der CLI: --subnets) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die IDs der Subnetze in der Neptune VPC. Die Standardeinstellung ist None (Kein).

  • trainingJobName  (in der CLI: --training-job-name) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Name eines abgeschlossenen SageMaker-Trainingsjobs. Sie müssen entweder dataProcessingJobId und mlModelTrainingJobId oder trainingJobName einschließen.

  • volumeEncryptionKMSKey  (in der CLI: --volume-encryption-kms-key) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Amazon Key Management Service (Amazon KMS)-Schlüssel, den SageMaker verwendet, um Daten auf dem Speichervolumen zu verschlüsseln, das an die ML-Computing-Instances angefügt ist, die den Trainingsauftrag ausführen. Die Standardeinstellung ist None (Kein).

Antwort

  • arn – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    Der ARN des Modelltransformationsauftrags.

  • creationTimeInMillis – Erforderlich: Long vom Typ (eine 64-Bit-Ganzzahl mit Vorzeichen).

    Die Erstellungszeit des Modelltransformationsauftrags in Millisekunden.

  • id – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    Die eindeutige ID des neuen Modelltransformationsauftrags.

ListMLModelTransformJobs (Aktion)

        Der AWS CLI-Name für diese API lautet: list-ml-model-transform-jobs.

Gibt eine Liste von Auftrags-IDs für Modelltransformationen aus. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.

Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:ListMLModelTransformJobs in diesem Cluster zulässt.

Anforderung

  • maxItems  (in der CLI: --max-items) – ein ListMLModelTransformJobsInputMaxItemsInteger vom Typ integer (eine 32-Bit-Ganzzahl mit Vorzeichen), zwischen 1 und 1024 ?st?s.

    Die maximale Anzahl der Elemente, die ausgegeben werden sollen (von 1 bis 1024; der Standardwert ist 10).

  • neptuneIamRoleArn  (in der CLI: --neptune-iam-role-arn) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.

Antwort

  • ids – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    Eine Seite aus der Liste der Modelltransformations-IDs.

GetMLModelTransformJob (Aktion)

        Der AWS CLI-Name für diese API lautet: get-ml-model-transform-job.

Ruft Informationen zum angegebenen Modelltransformationsauftrag ab. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.

Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:GetMLModelTransformJobStatus in diesem Cluster zulässt.

Anforderung

  • id  (in der CLI: --id) –  Erforderlich: eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die eindeutige Kennung des abzurufenden Modelltransformationsauftrags.

  • neptuneIamRoleArn  (in der CLI: --neptune-iam-role-arn) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.

Antwort

  • baseProcessingJob – Ein MLResourceDefinition-Objekt.

    Der grundlegende Datenverarbeitungsauftrag.

  • id – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    Die eindeutige Kennung des Modelltransformationsauftrags, der abgerufen werden soll.

  • models – Ein Array mit mlConfigDefinition-Objekten.

    Eine Liste der Konfigurationsinformationen für die verwendeten Modelle.

  • remoteModelTransformJob – Ein MLResourceDefinition-Objekt.

    Der Remote-Modelltransformationsauftrag.

  • status – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    Der Status des Modelltranskriptionsauftrags.

CancelMLModelTransformJob (Aktion)

        Der AWS CLI-Name für diese API lautet: cancel-ml-model-transform-job.

Bricht einen angegebenen Modelltransformationsauftrag ab. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.

Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:CancelMLModelTransformJob in diesem Cluster zulässt.

Anforderung

  • clean  (in der CLI: --clean) – boolescher Wert vom Typ boolean (boolescher Wert (wahr oder falsch)).

    Wenn dieses Flag auf gesetzt istTRUE, sollten alle Neptune ML S3-Artefakte gelöscht werden, wenn der Auftrag gestoppt wird. Der Standardwert ist FALSE.

  • id  (in der CLI: --id) –  Erforderlich: eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Die eindeutige ID des Modelltransformationsauftrags, der abgebrochen werden soll.

  • neptuneIamRoleArn   (in der CLI: --neptune-iam-role-arn) – eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.

Antwort

  • status – eine Zeichenfolge vom Typ: string (UTF-8-kodierte Zeichenfolge).

    der Status des Abbruchs.

Transformationsstrukturen modellieren:

CustomModelTransformParameters (Struktur)

Enthält benutzerdefinierte Transformationsparameter für Modelle. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.

Felder
  • sourceS3DirectoryPath – Erforderlich: eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Pfad zum Amazon S3-Speicherort, wo sich das Python-Modul befindet, das Ihr Modell implementiert. Muss auf einen gültigen vorhandenen Amazon S3-Speicherort verweisen, der mindestens ein Trainingsskript, ein Transformationsskript und eine model-hpo-configuration.json-Datei enthält.

  • transformEntryPointScript – Dies ist eine Zeichenfolge vom Typ string (UTF-8-kodierte Zeichenfolge).

    Der Name des Einstiegspunkts in Ihrem Modul eines Skripts, das ausgeführt werden sollte, nachdem das beste Modell aus der Hyperparametersuche identifiziert wurde, um die für die Modellbereitstellung erforderlichen Modellartefakte zu berechnen. Es sollte ohne Befehlszeilenargumente ausgeführt werden können. Der Standardwert ist transform.py.