Pianifica processi di monitoraggio della deviazione dell'attributo delle funzionalità - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Pianifica processi di monitoraggio della deviazione dell'attributo delle funzionalità

Dopo aver creato la tua SHAP baseline, puoi chiamare il create_monitoring_schedule() metodo dell'istanza della tua ModelExplainabilityMonitor classe per pianificare un monitoraggio orario della spiegabilità del modello. Le sezioni seguenti mostrano come creare un monitoraggio della spiegabilità dei modelli, per modelli distribuiti su endpoint in tempo reale e per processi di trasformazione di batch.

Importante

È possibile specificare un input di trasformazione di batch o un input dell'endpoint, ma non entrambi, quando si crea la pianificazione del monitoraggio.

Se è stato inviato un processo di base, il monitoraggio preleva automaticamente la configurazione di analisi dal processo di base. Tuttavia, se si salta la fase di creazione della linea di base o se il set di dati di acquisizione ha una natura diversa dal set di dati di addestramento, è necessario fornire la configurazione dell'analisi. ModelConfig è richiesto da ExplainabilityAnalysisConfig, il motivo è lo stesso per cui è necessario per il processo di base. Tieni presente che sono necessarie solo le funzionalità per il calcolo dell'attribuzione delle funzionalità, quindi dovresti escludere l'etichettatura Ground Truth.

Monitoraggio della deviazione dell'attribuzione delle funzionalità per i modelli distribuiti su endpoint in tempo reale

Per pianificare un monitoraggio della spiegabilità dei modelli su un endpoint in tempo reale, passa l'istanza EndpointInput all'argomento endpoint_input dell'istanza ModelExplainabilityMonitor, come mostrato nel seguente esempio di codice:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, endpoint_input=EndpointInput( endpoint_name=endpoint_name, destination="/opt/ml/processing/input/endpoint", ) )

Monitoraggio della deviazione dell'attribuzione delle funzionalità per i processi di trasformazione di batch

Per pianificare un monitoraggio della spiegabilità dei modelli in un processo di trasformazione di batch, passa l'istanza BatchTransformInput all'argomento batch_transform_input dell'istanza ModelExplainabilityMonitor, come mostrato nel seguente esempio di codice:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, batch_transform_input=BatchTransformInput( destination="opt/ml/processing/data", model_name="batch-fraud-detection-model", input_manifests_s3_uri="s3://amzn-s3-demo-bucket/batch-fraud-detection/on-schedule-monitoring/in/", excludeFeatures="0", ) )