Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Spiegabilità online con Clarify SageMaker
Questa guida mostra come configurare la spiegabilità online con Clarify. SageMaker Con gli endpoint di inferenza in tempo reale dell' SageMaker intelligenza artificiale, puoi analizzare la spiegabilità in tempo reale, in modo continuo. La funzione di spiegabilità online si inserisce nella parte Deploy to production del flusso di lavoro Amazon AI Machine SageMaker Learning.
Come funziona la spiegabilità online di Clarify
L'immagine seguente mostra l'architettura di SageMaker intelligenza artificiale per l'hosting di un endpoint che serve richieste di spiegabilità. Descrive le interazioni tra un endpoint, il contenitore del modello e lo strumento esplicativo Clarify. SageMaker

Ecco come funziona la spiegabilità online di Clarify. L'applicazione invia una InvokeEndpoint
richiesta in stile REST all'AI Runtime Service. SageMaker Il servizio indirizza questa richiesta a un endpoint SageMaker AI per ottenere previsioni e spiegazioni. Il servizio riceve la risposta dall'endpoint. Infine, il servizio invia la risposta all'applicazione.
Per aumentare la disponibilità degli endpoint, l' SageMaker intelligenza artificiale tenta automaticamente di distribuire le istanze degli endpoint in più zone di disponibilità, in base al numero di istanze nella configurazione dell'endpoint. Su un'istanza di endpoint, su una nuova richiesta di spiegabilità, lo strumento esplicativo di SageMaker Clarify richiama il contenitore del modello per le previsioni. Quindi calcola e restituisce le attribuzioni delle caratteristiche.
Ecco i quattro passaggi per creare un endpoint che utilizzi la spiegabilità online di Clarify: SageMaker
-
Crea una configurazione degli endpoint con la configurazione esplicativa di SageMaker Clarify utilizzando l'API.
CreateEndpointConfig
-
Crea un endpoint e fornisci la configurazione dell'endpoint all'IA utilizzando l'API. SageMaker
CreateEndpoint
Il servizio avvia l'istanza di calcolo ML e distribuisce il modello come specificato nella configurazione. -
Richiama l'endpoint: dopo che l'endpoint è in servizio, chiama l'API SageMaker AI Runtime
InvokeEndpoint
per inviare richieste all'endpoint. L'endpoint restituisce quindi spiegazioni e previsioni.