Planen Sie Aufträge zur Überwachung von Feature-Attributen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Planen Sie Aufträge zur Überwachung von Feature-Attributen

Nachdem Sie Ihre SHAP Baseline erstellt haben, können Sie die create_monitoring_schedule() Methode Ihrer ModelExplainabilityMonitor Klasseninstanz aufrufen, um eine stündliche Überwachung der Modellerklärbarkeit zu planen. In den folgenden Abschnitten erfahren Sie, wie Sie einen Monitor zur Erklärung des Modells für ein Modell erstellen, das auf einem Echtzeit-Endpunkt bereitgestellt wird, sowie für einen Batch-Transformationsauftrag.

Wichtig

Sie können bei der Erstellung Ihres Überwachungsplans entweder eine Batch-Transformationseingabe oder eine Endpunkteingabe angeben, jedoch nicht beides.

Wenn ein Baselining-Auftrag übermittelt wurde, übernimmt der Monitor automatisch die Analysekonfiguration aus dem Baselining-Auftrag. Wenn Sie jedoch den Baselining-Schritt überspringen oder der Capture-Datensatz einen anderen Charakter als der Trainingsdatensatz hat, müssen Sie die Analysekonfiguration angeben. ModelConfig ist aus demselben Grund erforderlich, aus dem es ExplainabilityAnalysisConfig für den Baselining-Auftrag erforderlich ist. Beachten Sie, dass für die Berechnung der Feature-Attribution nur Features erforderlich sind. Daher sollten Sie die Ground-Truth-Etikettierung ausschließen.

Überwachung von Abweichungen bei der Merkmalszuweisung bei Modellen, die auf Echtzeit-Endpunkten bereitgestellt werden

Um einen Monitor der Modellerklärbarkeit für einen Echtzeit-Endpunkt zu planen, übergeben Sie Ihre EndpointInput Instance an das endpoint_input Argument Ihrer ModelExplainabilityMonitor Instance, wie im folgenden Codebeispiel gezeigt:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, endpoint_input=EndpointInput( endpoint_name=endpoint_name, destination="/opt/ml/processing/input/endpoint", ) )

Funktionen zur Überwachung von Attributionsabweichungen bei Batch-Transformationsaufträgen

Um eine Überwachung der Modellerklärbarkeit für einen Batch-Transformationsjauftrag zu planen, übergeben Sie Ihre BatchTransformInput Instance an das batch_transform_input Argument Ihrer ModelExplainabilityMonitor Instance, wie im folgenden Codebeispiel gezeigt:

from sagemaker.model_monitor import CronExpressionGenerator model_exp_model_monitor = ModelExplainabilityMonitor( role=sagemaker.get_execution_role(), ... ) schedule = model_exp_model_monitor.create_monitoring_schedule( monitor_schedule_name=schedule_name, post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=model_exp_model_monitor.baseline_statistics(), constraints=model_exp_model_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, batch_transform_input=BatchTransformInput( destination="opt/ml/processing/data", model_name="batch-fraud-detection-model", input_manifests_s3_uri="s3://amzn-s3-demo-bucket/batch-fraud-detection/on-schedule-monitoring/in/", excludeFeatures="0", ) )