Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Dopo l'esecuzione dell'endpoint, utilizzate l'InvokeEndpointAPI SageMaker AI Runtime nel servizio AI Runtime per inviare richieste o richiamare l' SageMaker endpoint. In risposta, le richieste vengono gestite come richieste di spiegabilità dall'esplicatore Clarify. SageMaker
Nota
Per richiamare un endpoint, scegli una delle seguenti opzioni:
-
Per istruzioni sull'uso di Boto3 o sull'invocazione di un endpoint, vedere. AWS CLI Richiama modelli per l'inferenza in tempo reale
-
Per utilizzare l'SDK SageMaker AI per Python per richiamare un endpoint, consulta l'API Predictor.
Richiesta
L'API InvokeEndpoint
ha un parametro opzionale EnableExplanations
, che è mappato all'intestazione HTTP X-Amzn-SageMaker-Enable-Explanations
. Se viene fornito questo parametro, sostituisce il parametro EnableExplanations
di ClarifyExplainerConfig
.
Nota
I parametri richiesti ContentType
e Accept
dell’API InvokeEndpoint
sono richiesti. I formati supportati includono il tipo MIME text/csv
e application/jsonlines
.
Utilizza il sagemaker_runtime_client
per inviare una richiesta all'endpoint, come segue:
response = sagemaker_runtime_client.invoke_endpoint(
EndpointName='name-of-your-endpoint',
EnableExplanations='`true`',
ContentType='text/csv',
Accept='text/csv',
Body='1,2,3,4', # single record (of four numerical features)
)
Per gli endpoint multimodello, passa un TargetModel
parametro aggiuntivo nella richiesta di esempio precedente per specificare a quale modello indirizzare l'endpoint. L'endpoint a più modelli carica dinamicamente i modelli di destinazione in base alle esigenze. Per ulteriori informazioni sugli endpoint multimodello, consulta. Endpoint multi-modello Consultate il SageMaker Clarify Online Explainability on Multi-Model Endpoint Sample Notebook
Risposta
Se l'endpoint viene creato con ExplainerConfig
, viene utilizzato un nuovo schema di risposta. Questo nuovo schema è diverso e non è compatibile con un endpoint privo del parametro ExplainerConfig
fornito.
Il tipo MIME della risposta è application/json
e il payload della risposta può essere decodificato da byte UTF-8 in un oggetto JSON. Quanto segue mostra che i membri di questo oggetto JSON sono i seguenti:
-
version
: la versione dello schema di risposta in formato stringa. Ad esempio1.0
. -
predictions
: le previsioni effettuate dalla richiesta sono le seguenti:-
content_type
: il tipo MIME delle previsioni, che si riferisce aContentType
della risposta del container del modello. -
data
: la stringa di dati delle previsioni fornita come payload della risposta del container del modello per la richiesta.
-
-
label_headers
: le intestazioni delle etichette del parametroLabelHeaders
. Viene fornito nella configurazione dello strumento esplicativo o nell'output del container del modello. -
explanations
: le spiegazioni fornite nel payload della richiesta. Se non viene spiegato alcun record, questo membro restituisce l'oggetto vuoto{}
. -
-
kernel_shap
: una chiave che si riferisce a un array di spiegazioni Kernel SHAP per ogni record della richiesta. Se un record non viene spiegato, la spiegazione corrispondente ènull
.
-
L'elemento kernel_shap
dispone dei seguenti membri:
-
feature_header
: il nome dell'intestazione delle caratteristiche fornite dal parametroFeatureHeaders
nella configurazione dello strumento esplicativoExplainerConfig
. -
feature_type
: il tipo di caratteristica dedotto dallo strumento esplicativo o fornito nel parametroFeatureTypes
inExplainerConfig
. Questo elemento è disponibile solo per problemi di spiegabilità della PNL. -
attributions
: un array di oggetti di attribuzione. Le caratteristiche del testo possono avere più oggetti di attribuzione, ciascuno per un'unità. L'oggetto attribuzione ha i seguenti membri:-
attribution
: un elenco di valori di probabilità, fornito per ogni classe. -
description
: la descrizione delle unità di testo, disponibile solo per problemi di spiegabilità della PNL.-
partial_text
: la parte del testo spiegata dallo strumento esplicativo. -
start_idx
: un indice a base zero per identificare la posizione dell'array all'inizio del frammento di testo parziale.
-
-