Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Mit dem Neptune-ML-Befehl für die Modelltransformation können Sie mit vorab trainierten Modellparametern Modellartefakte wie Knoteneinbettungen für verarbeitete Diagrammdaten berechnen.
Im inkrementellen Model-Inferenz-Workflow können Sie, nachdem Sie die aktualisierten Grafikdaten, die Sie aus Neptune exportiert haben, verarbeitet haben, einen Modelltransformationsjob mit einem Befehl wie dem folgenden starten:
- AWS CLI
-
aws neptunedata start-ml-model-transform-job \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique model-transform job ID)" \
--data-processing-job-id "(the data-processing job-id of a completed job)" \
--ml-model-training-job-id "(the ML model training job-id)" \
--model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
Weitere Informationen finden Sie unter start-ml-model-transform-job in der Befehlsreferenz. AWS CLI
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.start_ml_model_transform_job(
id='(a unique model-transform job ID)',
dataProcessingJobId='(the data-processing job-id of a completed job)',
mlModelTrainingJobId='(the ML model training job-id)',
modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"dataProcessingJobId" : "(the data-processing job-id of a completed job)",
"mlModelTrainingJobId": "(the ML model training job-id)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/modeltransform \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"dataProcessingJobId" : "(the data-processing job-id of a completed job)",
"mlModelTrainingJobId": "(the ML model training job-id)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
Anschließend können Sie die ID dieses Auftrags an den API-Aufruf create-endpoints übergeben, um einen neuen Endpunkt zu erstellen oder einen vorhandenen Endpunkt mit den neuen Modellartefakten zu aktualisieren, die von diesem Auftrag generiert wurden. So kann der neue oder aktualisierte Endpunkt Modellvorhersagen für die aktualisierten Diagrammdaten bereitstellen.
Sie können auch einen trainingJobName Parameter angeben, um Modellartefakte für alle SageMaker KI-Trainingsjobs zu generieren, die während des Neptune ML-Modelltrainings gestartet wurden. Da ein Trainingsjob im Neptune-ML-Modell potenziell viele SageMaker KI-Schulungsjobs starten kann, haben Sie die Flexibilität, einen Inferenzendpunkt zu erstellen, der auf einem dieser SageMaker KI-Schulungsjobs basiert.
Beispiel:
- AWS CLI
-
aws neptunedata start-ml-model-transform-job \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique model-transform job ID)" \
--training-job-name "(name of a completed SageMaker training job)" \
--model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
Weitere Informationen finden Sie unter start-ml-model-transform-job in der Befehlsreferenz. AWS CLI
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.start_ml_model_transform_job(
id='(a unique model-transform job ID)',
trainingJobName='(name of a completed SageMaker training job)',
modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"trainingJobName" : "(name of a completed SageMaker training job)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/modeltransform \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"trainingJobName" : "(name of a completed SageMaker training job)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
Wenn der ursprüngliche Trainingsauftrag für ein vom Benutzer bereitgestelltes benutzerdefiniertes Modell bestimmt war, müssen Sie beim Aufrufen einer Modelltransformation ein customModelTransformParameters-Objekt einfügen. Informationen zur Implementierung eines benutzerdefinierten Modells finden Sie unter Benutzerdefinierte Modelle in Neptune ML.
Der modeltransform Befehl führt die Modelltransformation immer für den besten SageMaker KI-Trainingsjob für dieses Training aus.
Weitere Informationen zu Modelltransformationsaufträgen finden Sie unter Der Befehl modeltransform.