Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Distribuisci MLflow modelli con ModelBuilder
Puoi distribuire MLflow modelli su un endpoint di intelligenza artificiale utilizzando Amazon SageMaker SageMaker AI Model Builder. Per ulteriori informazioni su Amazon SageMaker AI Model Builder, consulta Creare un modello in Amazon SageMaker AI con ModelBuilder.
ModelBuilder
è una classe Python che accetta un modello di framework o una specifica di inferenza specificata dall'utente e lo converte in un modello implementabile. Per ulteriori dettagli sulla classe, consulta. ModelBuilder
ModelBuilder
Per distribuire il MLflow modello utilizzandoModelBuilder
, fornite un percorso agli MLflow artefatti nell'attributo. model_metadata["MLFLOW_MODEL_PATH"]
Continua a leggere per ulteriori informazioni sui formati di input validi per i percorsi del modello:
Nota
Se fornite il percorso dell'artefatto del modello sotto forma di MLflow run ID o percorso del registro del MLflow modello, dovete specificare anche il server di tracciamento ARN tramite l'model_metadata["MLFLOW_TRACKING_ARN"]
attributo.
Percorsi di modello che richiedono un ARN model_metadata
I seguenti percorsi del modello richiedono la specificazione di un valore ARN in model_metadata
for deployment:
MLflowID di esecuzione
: runs:/aloy-run-id/run-relative/path/to/model
MLflowpercorso del registro del modello
: models:/model-name/model-version
Percorsi del modello che non richiedono un ARN model_metadata
I seguenti percorsi del modello non richiedono la specificazione di un valore ARN in model_metadata
for deployment:
Percorso del modello locale:
/Users/me/path/to/local/model
Percorso del modello Amazon S3:
s3://amzn-s3-demo-bucket/path/to/model
Pacchetto modello: ARN
arn:aws:sagemaker:region:account-id:mlflow-tracking-server/tracking-server-name
Per ulteriori informazioni su come funziona la distribuzione dei MLflow modelli con Amazon SageMaker AI, consulta Deploy MLflow Model to Amazon SageMaker AI
Se utilizzi un percorso Amazon S3, puoi trovare il percorso del tuo modello registrato con i seguenti comandi:
registered_model = client.get_registered_model(name=
'AutoRegisteredModel'
) source_path = registered_model.latest_versions[0].source
L'esempio seguente è una panoramica di come distribuire il MLflow modello utilizzando ModelBuilder
e un percorso di registro del MLflow modello. Poiché questo esempio fornisce il percorso dell'artefatto del modello sotto forma di percorso di registro del MLflow modello, la chiamata a ModelBuilder
deve specificare anche un server di tracciamento ARN tramite l'attributo. model_metadata["MLFLOW_TRACKING_ARN"]
Importante
È necessario utilizzare la versione 2.224.0ModelBuilder
Nota
Utilizzate il seguente esempio di codice come riferimento. Per end-to-end esempi che mostrano come distribuire MLflow modelli registrati, consultaMLflowtutorial che utilizzano taccuini Jupyter di esempio.
from sagemaker.serve import ModelBuilder from sagemaker.serve.mode.function_pointers import Mode from sagemaker.serve import SchemaBuilder my_schema = SchemaBuilder( sample_input=
sample_input
, sample_output=sample_output
) model_builder = ModelBuilder( mode=Mode.SAGEMAKER_ENDPOINT, schema_builder=my_schema, role_arn="Your-service-role-ARN
", model_metadata={ # both model path and tracking server ARN are required if you use an mlflow run ID or mlflow model registry path as input "MLFLOW_MODEL_PATH": "models:/sklearn-model/1
" "MLFLOW_TRACKING_ARN": "arn:aws:sagemaker:region:account-id:mlflow-tracking-server/tracking-server-name
" } ) model = model_builder.build() predictor = model.deploy( initial_instance_count=1
, instance_type="ml.c6i.xlarge
" )
Per mantenere il tracciamento della discendenza per MLflow i modelli distribuiti utilizzandoModelBuilder
, è necessario disporre delle seguenti autorizzazioni: IAM
sagemaker:CreateArtifact
sagemaker:ListArtifacts
sagemaker:AddAssociation
sagemaker:DescribeMLflowTrackingServer
Importante
Il tracciamento del lignaggio è facoltativo. La distribuzione riesce senza le autorizzazioni relative al tracciamento del lignaggio. Se non disponi delle autorizzazioni configurate, durante la chiamata verrà visualizzato un errore di autorizzazione per il tracciamento della derivazione. model.deploy()
Tuttavia, l'implementazione degli endpoint riesce comunque ed è possibile interagire direttamente con l'endpoint modello. Se le autorizzazioni di cui sopra sono configurate, le informazioni di tracciamento della discendenza vengono create e archiviate automaticamente.
Per ulteriori informazioni ed end-to-end esempi, vedere. MLflowtutorial che utilizzano taccuini Jupyter di esempio