Distribuisci MLflow modelli con ModelBuilder - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Distribuisci MLflow modelli con ModelBuilder

Puoi distribuire MLflow modelli su un endpoint di intelligenza artificiale utilizzando Amazon SageMaker SageMaker AI Model Builder. Per ulteriori informazioni su Amazon SageMaker AI Model Builder, consulta Creare un modello in Amazon SageMaker AI con ModelBuilder.

ModelBuilderè una classe Python che accetta un modello di framework o una specifica di inferenza specificata dall'utente e lo converte in un modello implementabile. Per ulteriori dettagli sulla classe, consulta. ModelBuilder ModelBuilder

Per distribuire il MLflow modello utilizzandoModelBuilder, fornite un percorso agli MLflow artefatti nell'attributo. model_metadata["MLFLOW_MODEL_PATH"] Continua a leggere per ulteriori informazioni sui formati di input validi per i percorsi del modello:

Nota

Se fornite il percorso dell'artefatto del modello sotto forma di MLflow run ID o percorso del registro del MLflow modello, dovete specificare anche il server di tracciamento ARN tramite l'model_metadata["MLFLOW_TRACKING_ARN"]attributo.

Percorsi di modello che richiedono un ARN model_metadata

I seguenti percorsi del modello richiedono la specificazione di un valore ARN in model_metadata for deployment:

Percorsi del modello che non richiedono un ARN model_metadata

I seguenti percorsi del modello non richiedono la specificazione di un valore ARN in model_metadata for deployment:

  • Percorso del modello locale: /Users/me/path/to/local/model

  • Percorso del modello Amazon S3: s3://amzn-s3-demo-bucket/path/to/model

  • Pacchetto modello: ARN arn:aws:sagemaker:region:account-id:mlflow-tracking-server/tracking-server-name

Per ulteriori informazioni su come funziona la distribuzione dei MLflow modelli con Amazon SageMaker AI, consulta Deploy MLflow Model to Amazon SageMaker AI nella MLflow documentazione.

Se utilizzi un percorso Amazon S3, puoi trovare il percorso del tuo modello registrato con i seguenti comandi:

registered_model = client.get_registered_model(name='AutoRegisteredModel') source_path = registered_model.latest_versions[0].source

L'esempio seguente è una panoramica di come distribuire il MLflow modello utilizzando ModelBuilder e un percorso di registro del MLflow modello. Poiché questo esempio fornisce il percorso dell'artefatto del modello sotto forma di percorso di registro del MLflow modello, la chiamata a ModelBuilder deve specificare anche un server di tracciamento ARN tramite l'attributo. model_metadata["MLFLOW_TRACKING_ARN"]

Importante

È necessario utilizzare la versione 2.224.0 o successiva di SageMaker SDK Python per utilizzarlo. ModelBuilder

Nota

Utilizzate il seguente esempio di codice come riferimento. Per end-to-end esempi che mostrano come distribuire MLflow modelli registrati, consultaMLflowtutorial che utilizzano taccuini Jupyter di esempio.

from sagemaker.serve import ModelBuilder from sagemaker.serve.mode.function_pointers import Mode from sagemaker.serve import SchemaBuilder my_schema = SchemaBuilder( sample_input=sample_input, sample_output=sample_output ) model_builder = ModelBuilder( mode=Mode.SAGEMAKER_ENDPOINT, schema_builder=my_schema, role_arn="Your-service-role-ARN", model_metadata={ # both model path and tracking server ARN are required if you use an mlflow run ID or mlflow model registry path as input "MLFLOW_MODEL_PATH": "models:/sklearn-model/1" "MLFLOW_TRACKING_ARN": "arn:aws:sagemaker:region:account-id:mlflow-tracking-server/tracking-server-name" } ) model = model_builder.build() predictor = model.deploy( initial_instance_count=1, instance_type="ml.c6i.xlarge" )

Per mantenere il tracciamento della discendenza per MLflow i modelli distribuiti utilizzandoModelBuilder, è necessario disporre delle seguenti autorizzazioni: IAM

  • sagemaker:CreateArtifact

  • sagemaker:ListArtifacts

  • sagemaker:AddAssociation

  • sagemaker:DescribeMLflowTrackingServer

Importante

Il tracciamento del lignaggio è facoltativo. La distribuzione riesce senza le autorizzazioni relative al tracciamento del lignaggio. Se non disponi delle autorizzazioni configurate, durante la chiamata verrà visualizzato un errore di autorizzazione per il tracciamento della derivazione. model.deploy() Tuttavia, l'implementazione degli endpoint riesce comunque ed è possibile interagire direttamente con l'endpoint modello. Se le autorizzazioni di cui sopra sono configurate, le informazioni di tracciamento della discendenza vengono create e archiviate automaticamente.

Per ulteriori informazioni ed end-to-end esempi, vedere. MLflowtutorial che utilizzano taccuini Jupyter di esempio