Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Qualità del modello
I processi di monitoraggio della qualità dei modelli monitorano le prestazioni di un modello confrontando le previsioni effettuate dal modello con le etichette Ground Truth effettive che il modello tenta di prevedere. A tal fine, il monitoraggio della qualità del modello unisce i dati acquisiti dall'inferenza in tempo reale o in batch con le etichette effettive archiviate in un bucket Amazon S3, quindi confronta le previsioni con le etichette effettive.
Per valutare la qualità del modello, il monitoraggio utilizza parametri che dipendono dal tipo di problema di machine learning. Ad esempio, se il modello è pensato per un problema di regressione, uno dei parametri valutati è l'errore quadratico medio (mse). Per informazioni su tutti i parametri utilizzati per i diversi tipi di problemi di machine learning, consulta Metriche di qualità dei modelli e monitoraggio di Amazon CloudWatch .
Il monitoraggio della qualità del modello segue le stesse fasi di quello della qualità dei dati, ma aggiunge la fase aggiuntiva di unire le etichette effettive di Amazon S3 con le previsioni acquisite dall'endpoint di inferenza in tempo reale o dal processo di trasformazione di batch. Per monitorare la qualità del modello, segui queste fasi:
-
Abilita acquisizione dei dati. In questo modo si acquisiscono input e output da un endpoint di inferenza in tempo reale o da un processo di trasformazione di batch, archiviando i dati in Amazon S3. Per ulteriori informazioni, consulta Acquisizione dei dati.
-
Crea una linea di base. In questa fase, esegui un processo di base che confronta le previsioni del modello con le etichette Ground Truth in un set di dati di base. Il processo di base crea automaticamente regole e vincoli statistici di base che definiscono le soglie rispetto alle quali vengono valutate le prestazioni del modello. Per ulteriori informazioni, consulta Crea una base di riferimento per la qualità del modello.
-
Definisci e pianifica i processi di monitoraggio della qualità del modello. Per informazioni specifiche ed esempi di codice relativi ai lavori di monitoraggio della qualità dei modelli, vederePianifica i lavori di monitoraggio della qualità del modello. Per informazioni generali sul monitoraggio dei processi, consulta Pianificazione delle attività di monitoraggio.
-
Immetti le etichette Ground Truth che permettono al monitoraggio del modello di includere i dati di previsione acquisiti da un endpoint di inferenza in tempo reale o da un processo di trasformazione di batch. Per ulteriori informazioni, consulta Inserisci le etichette Ground Truth e le unisci alle previsioni.
-
Integra il monitoraggio della qualità dei modelli con Amazon CloudWatch. Per ulteriori informazioni, consulta Monitoraggio delle metriche di qualità dei modelli con CloudWatch.
-
Interpreta i risultati di un processo di monitoraggio. Per ulteriori informazioni, consulta Interpretazione dei risultati.
-
Usa SageMaker Studio per abilitare il monitoraggio della qualità dei modelli e visualizzare i risultati. Per ulteriori informazioni, consulta Visualizza i risultati per gli endpoint in tempo reale in Amazon Studio SageMaker .