Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Neptune ML-Modelltransformations-API
Modelltransformationsaktionen:
Modelltransformationsstrukturen:
StartMLModelTransformJob (Aktion)
Der AWS CLI-Name für diese API lautet: start-ml-model-transform-job
.
Erstellt einen neuen Modelltransformationsauftrag. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.
Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:StartMLModelTransformJob in diesem Cluster zulässt.
Anforderung
-
baseProcessingInstanceType (in der CLI:
--base-processing-instance-type
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der Typ der ML-Instance, die bei der Vorbereitung und Verwaltung des Trainings von ML-Modellen verwendet wird. Dies ist eine ML-Recheninstance, die auf der Grundlage der Speicheranforderungen für die Verarbeitung der Trainingsdaten und des Modells ausgewählt wurde.
-
baseProcessingInstanceVolumeSizeInGB (in der CLI:
--base-processing-instance-volume-size-in-gb
) – Ganzzahl vom Typinteger
(32-Bit-Ganzzahl mit Vorzeichen).Die Größe des Festplattenvolumens der Trainingsinstance in Gigabyte. Der Standardwert ist 0. Sowohl die Eingabedaten als auch das Ausgabemodell werden auf der Festplatte gespeichert. Daher muss die Volumegröße groß genug sein, um beide Datensätze aufzunehmen. Falls nicht angegeben oder 0, wählt Neptune ML eine Festplatten-Volumengröße auf der Grundlage der im Datenverarbeitungsschritt generierten Empfehlung aus.
-
customModelTransformParameters(in der CLI:
--custom-model-transform-parameters
) – Ein CustomModelTransformParameters-Objekt.Konfigurationsinformationen für eine Modelltransformation unter Verwendung eines benutzerdefinierten Modells. Das
customModelTransformParameters
-Objekt enthält die folgenden Felder, deren Werte mit den gespeicherten Modellparametern aus dem Trainingsjob kompatibel sein müssen: -
dataProcessingJobId (in der CLI:
--data-processing-job-id
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die Auftrags-ID eines abgeschlossenen Datenverarbeitungsauftrags. Sie müssen entweder
dataProcessingJobId
undmlModelTrainingJobId
odertrainingJobName
einschließen. -
id (in der CLI:
--id
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Eine eindeutige Kennung für den neuen Auftrag. Die Standardeinstellung ist eine automatisch generierte UUID.
-
mlModelTrainingJobId (in der CLI:
--ml-model-training-job-id
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die Auftrags-ID eines abgeschlossenen Modelltrainingsauftrags. Sie müssen entweder
dataProcessingJobId
undmlModelTrainingJobId
odertrainingJobName
einschließen. -
modelTransformOutputS3Location (in der CLI:
--model-transform-output-s3-location
) – Erforderlich: eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der Ort in Amazon S3, an dem die Modellartefakte gespeichert werden sollen.
-
neptuneIamRoleArn (in der CLI:
--neptune-iam-role-arn
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.
-
s3OutputEncryptionKMSKey (in der CLI:
--s-3-output-encryption-kms-key
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der Amazon Key Management Service (KMS)-Schlüssel, den SageMaker verwendet, um die Ausgabe des Verarbeitungsauftrags zu verschlüsseln. Die Standardeinstellung ist None (Kein).
-
sagemakerIamRoleArn (in der CLI:
--sagemaker-iam-role-arn
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der ARN einer IAM-Rolle für die SageMaker-Ausführung. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.
-
securityGroupIds (in der CLI:
--security-group-ids
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die VPC-Sicherheitsgruppe. Die Standardeinstellung ist None (Kein).
-
subnets (in der CLI:
--subnets
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die IDs der Subnetze in der Neptune VPC. Die Standardeinstellung ist None (Kein).
-
trainingJobName (in der CLI:
--training-job-name
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der Name eines abgeschlossenen SageMaker-Trainingsjobs. Sie müssen entweder
dataProcessingJobId
undmlModelTrainingJobId
odertrainingJobName
einschließen. -
volumeEncryptionKMSKey (in der CLI:
--volume-encryption-kms-key
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der Amazon Key Management Service (Amazon KMS)-Schlüssel, den SageMaker verwendet, um Daten auf dem Speichervolumen zu verschlüsseln, das an die ML-Computing-Instances angefügt ist, die den Trainingsauftrag ausführen. Die Standardeinstellung ist None (Kein).
Antwort
-
arn – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).Der ARN des Modelltransformationsauftrags.
-
creationTimeInMillis – Erforderlich: Long vom Typ (eine 64-Bit-Ganzzahl mit Vorzeichen).
Die Erstellungszeit des Modelltransformationsauftrags in Millisekunden.
-
id – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).Die eindeutige ID des neuen Modelltransformationsauftrags.
Fehler
ListMLModelTransformJobs (Aktion)
Der AWS CLI-Name für diese API lautet: list-ml-model-transform-jobs
.
Gibt eine Liste von Auftrags-IDs für Modelltransformationen aus. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.
Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:ListMLModelTransformJobs in diesem Cluster zulässt.
Anforderung
-
maxItems (in der CLI:
--max-items
) – ein ListMLModelTransformJobsInputMaxItemsInteger vom Typinteger
(eine 32-Bit-Ganzzahl mit Vorzeichen), zwischen 1 und 1024 ?st?s.Die maximale Anzahl der Elemente, die ausgegeben werden sollen (von 1 bis 1024; der Standardwert ist 10).
-
neptuneIamRoleArn (in der CLI:
--neptune-iam-role-arn
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.
Antwort
-
ids – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).Eine Seite aus der Liste der Modelltransformations-IDs.
Fehler
GetMLModelTransformJob (Aktion)
Der AWS CLI-Name für diese API lautet: get-ml-model-transform-job
.
Ruft Informationen zum angegebenen Modelltransformationsauftrag ab. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.
Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:GetMLModelTransformJobStatus in diesem Cluster zulässt.
Anforderung
-
id (in der CLI:
--id
) – Erforderlich: eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die eindeutige Kennung des abzurufenden Modelltransformationsauftrags.
-
neptuneIamRoleArn (in der CLI:
--neptune-iam-role-arn
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.
Antwort
-
baseProcessingJob – Ein MLResourceDefinition-Objekt.
Der grundlegende Datenverarbeitungsauftrag.
-
id – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).Die eindeutige Kennung des Modelltransformationsauftrags, der abgerufen werden soll.
-
models – Ein Array mit mlConfigDefinition-Objekten.
Eine Liste der Konfigurationsinformationen für die verwendeten Modelle.
-
remoteModelTransformJob – Ein MLResourceDefinition-Objekt.
Der Remote-Modelltransformationsauftrag.
-
status – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).Der Status des Modelltranskriptionsauftrags.
Fehler
CancelMLModelTransformJob (Aktion)
Der AWS CLI-Name für diese API lautet: cancel-ml-model-transform-job
.
Bricht einen angegebenen Modelltransformationsauftrag ab. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.
Wenn diese Operation in einem Neptune-Cluster mit aktivierter IAM-Authentifizierung aufgerufen wird, muss mit dem IAM-Benutzer oder der Rolle, die die Anforderung gestellt hat, eine Richtlinie verknüpft sein, die die IAM-Aktion neptune-db:CancelMLModelTransformJob in diesem Cluster zulässt.
Anforderung
-
clean (in der CLI:
--clean
) – boolescher Wert vom Typboolean
(boolescher Wert (wahr oder falsch)).Wenn dieses Flag auf gesetzt ist
TRUE
, sollten alle Neptune ML S3-Artefakte gelöscht werden, wenn der Auftrag gestoppt wird. Der Standardwert istFALSE
. -
id (in der CLI:
--id
) – Erforderlich: eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Die eindeutige ID des Modelltransformationsauftrags, der abgebrochen werden soll.
-
neptuneIamRoleArn (in der CLI:
--neptune-iam-role-arn
) – eine Zeichenfolge vom Typstring
(UTF-8-kodierte Zeichenfolge).Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker- und Amazon S3-Ressourcen bietet. Dieser muss in Ihrer DB-Cluster-Parametergruppe aufgeführt sein, andernfalls tritt ein Fehler auf.
Antwort
-
status – eine Zeichenfolge vom Typ:
string
(UTF-8-kodierte Zeichenfolge).der Status des Abbruchs.
Fehler
Transformationsstrukturen modellieren:
CustomModelTransformParameters (Struktur)
Enthält benutzerdefinierte Transformationsparameter für Modelle. Siehe Verwenden eines trainierten Modells zum Generieren neuer Modellartefakte.
Felder
-
sourceS3DirectoryPath – Erforderlich: eine Zeichenfolge vom Typ
string
(UTF-8-kodierte Zeichenfolge).Der Pfad zum Amazon S3-Speicherort, wo sich das Python-Modul befindet, das Ihr Modell implementiert. Muss auf einen gültigen vorhandenen Amazon S3-Speicherort verweisen, der mindestens ein Trainingsskript, ein Transformationsskript und eine
model-hpo-configuration.json
-Datei enthält. -
transformEntryPointScript – Dies ist eine Zeichenfolge vom Typ
string
(UTF-8-kodierte Zeichenfolge).Der Name des Einstiegspunkts in Ihrem Modul eines Skripts, das ausgeführt werden sollte, nachdem das beste Modell aus der Hyperparametersuche identifiziert wurde, um die für die Modellbereitstellung erforderlichen Modellartefakte zu berechnen. Es sollte ohne Befehlszeilenargumente ausgeführt werden können. Der Standardwert ist
transform.py
.