As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Interpretabilidade do modelo de machine learning com AWS
Adewale Akinfaderin, Matthew Chasse, Michele Donini e Benjamin Fenker, Amazon Web Services (AWS)
Fevereiro de 2022 (histórico do documento)
É mais fácil para os usuários finais empregar algoritmos de machine learning com responsabilidade quando eles conseguem entender por que um modelo faz uma previsão específica. Para desenvolvedores de modelos, uma maior visão de como um modelo faz previsões pode ajudar na seleção e engenharia de atributos. Não há uma definição padrão do que significa explicar um modelo, exceto que uma explicação deve ser um pré-requisito para padrões como confiança, robustez, causalidade, informatividade, transferibilidade do modelo e tomada de decisão justa e ética. Existem alguns métodos comuns para gerar interpretações, mas eles apresentam pontos fortes e fracos diferentes. Isso não é inesperado: normalmente, a heurística ou o conjunto de suposições simplificadoras que você usa para interpretar um modelo complexo pode ser simultaneamente uma fonte de imprecisão para a interpretação.
Este guia fornece orientação geral sobre métodos de interpretabilidade de modelos para profissionais de machine learning. Para resumir, o guia omite muitos detalhes e informações específicas da implementação e fornece referências para ajudá-lo a investigar casos de uso específicos com mais profundidade.
Resultados de negócios desejados
Em alguns casos, regulamentações como as dos setores de saúde e finanças exigem a interpretabilidade do modelo como um resultado comercial desejado. As interpretações do modelo também fornecem uma visão adicional que tanto os desenvolvedores quanto os usuários podem utilizar. Outros resultados comerciais direcionados para empregar a interpretabilidade do modelo incluem o seguinte:
-
Justificar decisões importantes (por exemplo, em saúde e finanças) que afetam o bem-estar do cliente quando a justiça é fundamental.
-
Controlar as imprecisões e distorções do modelo ao tomar decisões de negócios.
-
Melhorar e agilizar o desenvolvimento de modelos e a engenharia de atributos quando as interpretações de modelos forem usadas por cientistas de dados.
-
Descobrir os motivos dos comportamentos gerais do modelo e fornecer novos insights sobre os dados e o modelo.
Esses resultados de negócios são mapeados diretamente para os quatro motivos de explicabilidade identificados em [1].