Programe trabajos de supervisión de desviación de atributos de características - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Programe trabajos de supervisión de desviación de atributos de características

Una vez que hayas creado tu SHAP punto de referencia, puedes utilizar el create_monitoring_schedule() método de la instancia de tu ModelExplainabilityMonitor clase para programar un monitor horario de explicabilidad del modelo. En las siguientes secciones, se muestra cómo crear un monitor de explicabilidad del modelo para un modelo implementado en un punto de conexión en tiempo real, así como para un trabajo de transformación por lotes.

importante

Puede especificar una entrada de transformación por lotes o una entrada de punto de conexión, pero no ambas, al crear su programa de supervisión.

Si se ha enviado un trabajo de referencia, el monitor recoge automáticamente la configuración de análisis del trabajo de referencia. Sin embargo, si omite el paso de referencia o si el conjunto de datos de captura tiene una naturaleza diferente a la del conjunto de datos de entrenamiento, debe proporcionar la configuración del análisis. ExplainabilityAnalysisConfig requiere ModelConfig por la misma razón por la que se requiere para el trabajo de referencia. Tenga en cuenta que solo se requieren características para calcular la atribución de características, por lo que debe excluir el etiquetado Ground Truth.

Supervisión de la desviación de atribución de características para los modelos implementados en puntos de conexión en tiempo real

Para programar un monitor de explicabilidad del modelo para un punto de conexión en tiempo real, pase la instancia EndpointInput al argumento endpoint_input de la instancia ModelExplainabilityMonitor, como se muestra en el siguiente ejemplo de código:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, endpoint_input=EndpointInput( endpoint_name=endpoint_name, destination="/opt/ml/processing/input/endpoint", ) )

Supervisión de la desviación de atribución de características para trabajos de transformación por lotes

Para programar un monitor de explicabilidad del modelo para un trabajo de transformación por lotes, pase la instancia BatchTransformInput al argumento batch_transform_input de la instancia ModelExplainabilityMonitor, como se muestra en el siguiente ejemplo de código:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, batch_transform_input=BatchTransformInput( destination="opt/ml/processing/data", model_name="batch-fraud-detection-model", input_manifests_s3_uri="s3://amzn-s3-demo-bucket/batch-fraud-detection/on-schedule-monitoring/in/", excludeFeatures="0", ) )