Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Parametri per monitorare la deriva dell'attribuzione

Modalità Focus
Parametri per monitorare la deriva dell'attribuzione - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Amazon SageMaker Clarify Explainability Monitor riutilizza un sottoinsieme dei parametri utilizzati nella configurazione di analisi di. File di configurazione dell'analisi I seguenti parametri devono essere forniti in un file JSON e il percorso deve essere fornito nel parametro ConfigUri di ModelExplainabilityAppSpecification.

  • "version": (facoltativo) versione dello schema del file di configurazione. Se non viene fornita, viene utilizzata l'ultima versione supportata.

  • "headers": (facoltativo) un elenco di nomi di funzionalità nel set di dati. L'analisi della spiegabilità non richiede etichette.

  • "methods": un elenco di metodi e dei relativi parametri per le analisi e i report. Se una sezione viene omessa, non viene calcolata.

    • "shap": (facoltativo) sezione sul calcolo del valore SHAP.

      • "baseline": (facoltativo) un elenco di righe (almeno una) o un URI di oggetto Amazon Simple Storage Service Amazon S3. Da utilizzare come set di dati di base (noto anche come set di dati in background) nell'algoritmo del kernel SHAP. Il formato deve essere uguale a quello del set di dati. Ogni riga deve contenere solo le colonne (o i valori) delle funzionalità. Prima di inviare ogni riga al modello, omettete qualsiasi colonna che deve essere esclusa.

      • "num_samples": numero di campioni da utilizzare nell'algoritmo del kernel SHAP. Questo numero determina la dimensione del set di dati sintetico generato per calcolare i valori SHAP. Se non viene fornito, un job SageMaker Clarify sceglie il valore in base a un numero di funzionalità.

      • "agg_method": metodo di aggregazione per valori SHAP globali. I valori validi sono:

        • "mean_abs": media dei valori SHAP assoluti per tutte le istanze.

        • "median": mediana dei valori SHAP per tutte le istanze.

        • "mean_sq": media dei valori quadratici SHAP per tutte le istanze.

      • "use_logit": (facoltativo) valore booleano per indicare se la funzione logit deve essere applicata alle previsioni del modello. Se "use_logit" è true, i valori SHAP hanno unità log-odds. Il valore predefinito è false.

      • "save_local_shap_values": (facoltativo) valore booleano per indicare se i valori SHAP locali devono essere salvati nella posizione di output. Utilizzare true per salvarli. Utilizzare false per non salvarli. Il valore predefinito è false.

  • "predictor": (facoltativo per l'endpoint in tempo reale, necessario per la trasformazione di batch) sezione sui parametri del modello, necessaria se sono presenti le sezioni "shap" e "post_training_bias".

    • "model_name": nome del modello creato dall'API CreateModel, con modalità container come SingleModel.

    • "instance_type": tipo di istanza per l'endpoint shadow.

    • "initial_instance_count": conteggio istanze per l'endpoint shadow.

    • "content_type": (facoltativo) il formato di input del modello da utilizzare per ottenere inferenze con l'endpoint shadow. I valori validi sono "text/csv" per CSV, "application/jsonlines" per JSON Lines, application/x-parquet per Apache Parquet e application/x-image per abilitare la spiegabilità della visione artificiale. Il valore predefinito è uguale al formato di dataset_type.

    • "accept_type": (facoltativo) il formato di input del modello da utilizzare per ottenere inferenze con l'endpoint shadow. I valori validi sono "text/csv" per CSV, "application/jsonlines" per JSON Lines. Se omesso, SageMaker Clarify utilizza il tipo di dati di risposta dei dati acquisiti.

    • "content_template": (facoltativo) una stringa modello utilizzata per costruire l'input del modello dalle istanze del set di dati. Utilizzato solo quando "content_type" è "application/jsonlines". Il modello deve avere un solo segnaposto, $features, che viene sostituito dall'elenco delle funzionalità in fase di esecuzione. Ad esempio, dato "content_template":"{\"myfeatures\":$features}", se un'istanza (senza etichetta) è 1,2,3, l'input del modello diventa '{"myfeatures":[1,2,3]}' JSON Lines.

    • "label_headers": (facoltativo) un elenco di valori che "label" utilizza nel set di dati. Associa i punteggi restituiti dall'endpoint del modello o dal processo di trasformazione di batch ai valori delle etichette corrispondenti. Se viene fornito, il report di analisi utilizza le intestazioni anziché i segnaposti come “label0”.

Gli altri parametri devono essere forniti in EndpointInput (per gli endpoint in tempo reale) o BatchTransformInput (per i processi di trasformazione di batch) dell'API ModelExplainabilityJobInput.

  • FeaturesAttribute: questo parametro è obbligatorio se il formato dei dati di input dell'endpoint o del processo di batch è "application/jsonlines". Viene JMESPath utilizzato per individuare le colonne delle funzionalità se il formato del set di dati è JSON Lines.

  • ProbabilityAttribute— Indice o JMESPath posizione nell'output del modello per le probabilità. Se l'output del modello è JSON Lines con un elenco di etichette e probabilità, ad esempio, per il calcolo del bias viene selezionata l'etichetta che corrisponde alla probabilità massima.

File di configurazione JSON di esempio per set di dati CSV e JSON Lines

Di seguito sono riportati alcuni esempi di file JSON utilizzati per configurare i set di dati CSV e JSON Lines, monitorarli e individuare eventuali deviazioni dell'attribuzione di funzionalità.

Set di dati CSV

Consideriamo un set di dati con tre colonne di funzionalità numeriche, come nell'esempio seguente.

0.5814568701544718, 0.6651538910132964, 0.3138080342665499 0.6711642728531724, 0.7466687034026017, 0.1215477472819713 0.0453256543003371, 0.6377430803264152, 0.3558625219713576 0.4785191813363956, 0.0265841045263860, 0.0376935084990697

Supponiamo che l'output del modello abbia due colonne, dove la prima è l'etichetta prevista e la seconda è la probabilità, come nell'esempio seguente.

1, 0.5385257417814224

Il seguente file di configurazione JSON mostra come questo set di dati CSV può essere configurato.

{ "headers": [ "feature_1", "feature_2", "feature_3" ], "methods": { "shap": { "baseline": [ [0.4441164946610942, 0.5190374448171748, 0.20722795300473712] ], "num_samples": 100, "agg_method": "mean_abs" } }, "predictor": { "model_name": "my_model", "instance_type": "ml.m5.xlarge", "initial_instance_count": 1 } }

L'etichetta prevista viene selezionata dal parametro "ProbabilityAttribute". Viene utilizzata la numerazione a base zero, quindi 1 indica la seconda colonna dell'output del modello.

"EndpointInput": { ... "ProbabilityAttribute": 1 ... }

Set di dati JSON Lines

Consideriamo un set di dati con quattro colonne di funzionalità e una colonna di etichette, in cui la prima funzionalità e l'etichetta sono binarie, come nell'esempio seguente.

{"features":[0, 0.5814568701544718, 0.6651538910132964, 0.3138080342665499], "label":0} {"features":[1, 0.6711642728531724, 0.7466687034026017, 0.1215477472819713], "label":1} {"features":[0, 0.0453256543003371, 0.6377430803264152, 0.3558625219713576], "label":1} {"features":[1, 0.4785191813363956, 0.0265841045263860, 0.0376935084990697], "label":1}

L'input del modello è lo stesso del formato del set di dati e l'output del modello è JSON Lines, come nell'esempio seguente.

{"predicted_label":1, "probability":0.5385257417814224}

Il seguente file di configurazione JSON mostra un esempio di come questo set di dati JSON Lines può essere configurato.

{ "headers": [ "feature_1", "feature_2", "feature_3" ], "methods": { "shap": { "baseline": [ {"features":[0.4441164946610942, 0.5190374448171748, 0.20722795300473712]} ], "num_samples": 100, "agg_method": "mean_abs" } }, "predictor": { "model_name": "my_model", "instance_type": "ml.m5.xlarge", "initial_instance_count": 1, "content_template":"{\"features\":$features}" } }

Quindi il valore del parametro "features" in EndpointInput (per gli endpoint in tempo reale) o BatchTransformInput (per i processi di trasformazione di batch) viene utilizzato per individuare le funzionalità nel set di dati e il valore del parametro "probability" seleziona il valore di probabilità dall'output del modello.

"EndpointInput": { ... "FeaturesAttribute": "features", "ProbabilityAttribute": "probability", ... }
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.