Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Con el comando de transformación de modelos de Neptune ML, puede calcular artefactos de modelos, como incrustaciones de nodos, en datos de gráficos procesados mediante parámetros de modelo previamente entrenados.
En el flujo de trabajo de inferencia de modelos incrementales, después de procesar los datos gráficos actualizados que exportó desde Neptune, puede iniciar un trabajo de transformación del modelo mediante un comando como el siguiente:
- AWS CLI
-
aws neptunedata start-ml-model-transform-job \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique model-transform job ID)" \
--data-processing-job-id "(the data-processing job-id of a completed job)" \
--ml-model-training-job-id "(the ML model training job-id)" \
--model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
Para obtener más información, consulte start-ml-model-transform-job en la AWS CLI Referencia de comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.start_ml_model_transform_job(
id='(a unique model-transform job ID)',
dataProcessingJobId='(the data-processing job-id of a completed job)',
mlModelTrainingJobId='(the ML model training job-id)',
modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"dataProcessingJobId" : "(the data-processing job-id of a completed job)",
"mlModelTrainingJobId": "(the ML model training job-id)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/modeltransform \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"dataProcessingJobId" : "(the data-processing job-id of a completed job)",
"mlModelTrainingJobId": "(the ML model training job-id)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
A continuación, puede transferir el ID de este trabajo a la llamada a la API de create-endpoints para crear un nuevo punto de conexión o actualizar uno existente con los nuevos artefactos del modelo generados por este trabajo. Esto permite que el punto de conexión nuevo o actualizado proporcione predicciones del modelo para los datos de gráficos actualizados.
También puede proporcionar un trainingJobName parámetro para generar artefactos de modelo para cualquiera de los trabajos de entrenamiento de SageMaker IA lanzados durante el entrenamiento de modelos ML de Neptune. Dado que un trabajo de formación con un modelo de aprendizaje automático de Neptune puede lanzar muchos trabajos de formación en SageMaker IA, esto le da la flexibilidad de crear un punto final de inferencia basado en cualquiera de esos trabajos de formación en SageMaker IA.
Por ejemplo:
- AWS CLI
-
aws neptunedata start-ml-model-transform-job \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique model-transform job ID)" \
--training-job-name "(name of a completed SageMaker training job)" \
--model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
Para obtener más información, consulte start-ml-model-transform-job en la AWS CLI Referencia de comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.start_ml_model_transform_job(
id='(a unique model-transform job ID)',
trainingJobName='(name of a completed SageMaker training job)',
modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"trainingJobName" : "(name of a completed SageMaker training job)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/modeltransform \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique model-transform job ID)",
"trainingJobName" : "(name of a completed SageMaker training job)",
"modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
}'
Si el trabajo de entrenamiento original era para un modelo personalizado proporcionado por el usuario, debe incluir un objeto customModelTransformParameters al invocar una transformación de modelo. Consulte Modelos personalizados de Neptune ML para obtener información sobre cómo implementar y utilizar un modelo personalizado.
El modeltransform comando siempre ejecuta la transformación del modelo en el mejor trabajo de entrenamiento de SageMaker IA para ese entrenamiento.
Consulte El comando modeltransform para obtener más información sobre los trabajos de transformación de modelos.