View a markdown version of this page

Usar um modelo treinado para gerar novos artefatos de modelo - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Usar um modelo treinado para gerar novos artefatos de modelo

Usando o comando de transformação de modelos do Neptune ML, é possível calcular artefatos de modelo, como incorporações de nós em dados de grafos processados, usando parâmetros de modelo pré-treinados.

Transformação de modelos para inferência incremental

No fluxo de trabalho de inferência de modelo incremental, depois de processar os dados gráficos atualizados que você exportou do Neptune, você pode iniciar um trabalho de transformação do modelo usando um comando como o seguinte:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --data-processing-job-id "(the data-processing job-id of a completed job)" \ --ml-model-training-job-id "(the ML model training job-id)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Para obter mais informações, consulte start-ml-model-transform-job na Referência de AWS CLI Comandos.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', dataProcessingJobId='(the data-processing job-id of a completed job)', mlModelTrainingJobId='(the ML model training job-id)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
nota

Este exemplo pressupõe que suas AWS credenciais estejam configuradas em seu ambiente. us-east-1Substitua pela região do seu cluster Neptune.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Depois, é possível transmitir o ID desse trabalho para a chamada da API create-endpoints a fim de criar um endpoint ou atualizar um existente com os novos artefatos do modelo gerados por esse trabalho. Isso permite que o endpoint novo ou atualizado forneça previsões de modelo para os dados de grafos atualizados.

Transformação de modelos para qualquer trabalho de treinamento

Você também pode fornecer um trainingJobName parâmetro para gerar artefatos de modelo para qualquer um dos trabalhos de treinamento de SageMaker IA lançados durante o treinamento do modelo Neptune ML. Como um trabalho de treinamento do modelo Neptune ML pode potencialmente lançar SageMaker muitos trabalhos de treinamento de IA, isso oferece a flexibilidade de criar um endpoint de inferência com base em qualquer um desses trabalhos de treinamento de IA. SageMaker

Por exemplo:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --training-job-name "(name of a completed SageMaker training job)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Para obter mais informações, consulte start-ml-model-transform-job na Referência de AWS CLI Comandos.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', trainingJobName='(name of a completed SageMaker training job)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
nota

Este exemplo pressupõe que suas AWS credenciais estejam configuradas em seu ambiente. us-east-1Substitua pela região do seu cluster Neptune.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Se o trabalho de treinamento original foi para um modelo personalizado fornecido pelo usuário, você deverá incluir um objeto customModelTransformParameters ao invocar uma transformação de modelos. Consulte Modelos personalizados no Neptune ML para obter informações sobre como implementar e usar um modelo personalizado.

nota

O modeltransform comando sempre executa a transformação do modelo no melhor trabalho de treinamento de SageMaker IA para esse treinamento.

Consulte O comando modeltransform para obter mais informações sobre trabalhos de treinamento de modelos.