View a markdown version of this page

Verwenden trainierter Modelle zur Generierung neuer Modellartefakte - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwenden trainierter Modelle zur Generierung neuer Modellartefakte

Mit dem Neptune-ML-Befehl für die Modelltransformation können Sie mit vorab trainierten Modellparametern Modellartefakte wie Knoteneinbettungen für verarbeitete Diagrammdaten berechnen.

Modelltransformation für inkrementelle Inferenzen

Im inkrementellen Model-Inferenz-Workflow können Sie, nachdem Sie die aktualisierten Grafikdaten, die Sie aus Neptune exportiert haben, verarbeitet haben, einen Modelltransformationsjob mit einem Befehl wie dem folgenden starten:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --data-processing-job-id "(the data-processing job-id of a completed job)" \ --ml-model-training-job-id "(the ML model training job-id)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Weitere Informationen finden Sie unter start-ml-model-transform-job in der Befehlsreferenz. AWS CLI

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', dataProcessingJobId='(the data-processing job-id of a completed job)', mlModelTrainingJobId='(the ML model training job-id)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Anschließend können Sie die ID dieses Auftrags an den API-Aufruf create-endpoints übergeben, um einen neuen Endpunkt zu erstellen oder einen vorhandenen Endpunkt mit den neuen Modellartefakten zu aktualisieren, die von diesem Auftrag generiert wurden. So kann der neue oder aktualisierte Endpunkt Modellvorhersagen für die aktualisierten Diagrammdaten bereitstellen.

Modelltransformation für Trainingsaufträge

Sie können auch einen trainingJobName Parameter angeben, um Modellartefakte für alle SageMaker KI-Trainingsjobs zu generieren, die während des Neptune ML-Modelltrainings gestartet wurden. Da ein Trainingsjob im Neptune-ML-Modell potenziell viele SageMaker KI-Schulungsjobs starten kann, haben Sie die Flexibilität, einen Inferenzendpunkt zu erstellen, der auf einem dieser SageMaker KI-Schulungsjobs basiert.

Beispiel:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --training-job-name "(name of a completed SageMaker training job)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Weitere Informationen finden Sie unter start-ml-model-transform-job in der Befehlsreferenz. AWS CLI

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', trainingJobName='(name of a completed SageMaker training job)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Wenn der ursprüngliche Trainingsauftrag für ein vom Benutzer bereitgestelltes benutzerdefiniertes Modell bestimmt war, müssen Sie beim Aufrufen einer Modelltransformation ein customModelTransformParameters-Objekt einfügen. Informationen zur Implementierung eines benutzerdefinierten Modells finden Sie unter Benutzerdefinierte Modelle in Neptune ML.

Anmerkung

Der modeltransform Befehl führt die Modelltransformation immer für den besten SageMaker KI-Trainingsjob für dieses Training aus.

Weitere Informationen zu Modelltransformationsaufträgen finden Sie unter Der Befehl modeltransform.