기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
다음을 통한 기계 학습 모델 해석 가능성 AWS
Adewale Akinfaderin, Matthew Chasse, Michele Donini 및 Benjamin Fenker, Amazon Web Services(AWS)
2022년 2월(문서 이력)
최종 사용자는 모델이 특정 예측을 하는 이유를 이해할 수 있을 때 책임감 있게 기계 학습 알고리즘을 사용하기가 더 쉽습니다. 모델 개발자의 경우, 모델이 예측하는 방식에 대한 통찰력을 높이면 특성 추출 및 선택에 도움이 될 수 있습니다. 신뢰, 견고성, 인과관계, 정보성, 모델 이전 가능성, 공정하고 윤리적인 의사 결정과 같은 표준에 대한 설명이 전제 조건이 되어야 한다는 점을 제외하면 모델을 설명하는 것이 무엇을 의미하는지에 대한 표준 정의는 없습니다. 해석을 생성하는 몇 가지 일반적인 방법이 있지만 각각 약점과 강점이 다릅니다. 이는 추정치 못한 일이 아닙니다. 일반적으로 복잡한 모델을 해석할 때 사용하는 경험적 또는 일련의 단순화 가정이 동시에 해석의 부정확성의 원인이 될 수 있습니다.
이 가이드는 기계 학습 전문가를 위한 모델 해석 가능력 방법에 대한 일반적인 지침을 제공합니다. 간결하게 설명하기 위해 이 가이드에서는 많은 세부 정보와 구현 세부 사항을 생략하고 특정 사용 사례를 더 심층적으로 조사하는 데 도움이 되는 참고 자료를 제공합니다.
목표 업무 성과
의료 및 금융 산업과 같은 규제에 따라 원하는 업무 성과로서 모델 해석력이 필요한 경우도 있습니다. 또한 모델 해석력은 모델 개발자와 사용자 모두가 활용할 수 있는 추가적인 통찰력을 제공합니다. 모델 해석력 도입을 위한 추가적인 목표 업무 성과는 다음과 같습니다.
-
공정성이 중요한 경우, 고객 웰빙에 영향을 미치는 중요한 결정(예: 의료 및 금융 분야) 을 정당화하십시오.
-
업무 의사 결정 시 모델의 부정확성과 왜곡을 통제합니다.
-
데이터 과학자가 모델 해석을 사용하면 모델 개발 및 특성 추출을 개선하고 가속화할 수 있습니다.
-
일반적인 모델 동작의 원인을 찾아내고 데이터와 모델 모두에 대한 새로운 통찰력을 제공하십시오.
이러한 업무 성과는 [1]에서 확인할 수 있는 설명 가능성의 4가지 이유와 직접적으로 연결됩니다.