2021.10.08

'사람이 이해할 수 있는 AI' 설명가능한 AI를 설명하다

Martin Heller | InfoWorld
머신러닝과 딥러닝 모델은 대체로 분류와 예측에 효과적이지만 완벽한 경우는 사실상 없다. 모델에는 거의 항상 어느정도 비율의 가양성, 가음성 예측이 있다. 이 오차를 용인할 수 있는 경우도 있지만 중요한 작업에서는 문제가 된다. 예를 들어 드론 무기 시스템이 학교를 테러리스트 기지로 오판할 경우 인간 작업자가 공격 결정을 막지 않는 한 의도하지 않게 무고한 어린이와 교사들이 희생될 수 있다.
 
작업자는 공격을 허용 또는 취소하기 전에 AI가 학교를 공격 목표로 분류한 이유와 의사 결정의 불확실성을 알아야 한다. 테러리스트가 학교, 병원, 종교 시설을 미사일 공격을 위한 기지로 삼은 사례는 분명히 존재한다. 문제의 학교가 그런 학교 중 하나였는가? 학교가 현재 그러한 테러리스트에 의해 점유되어 있다는 첩보 또는 최근 관측 결과가 있는가? 학교에 학생이나 교사가 존재하지 않는다는 보고서 또는 관측 결과가 있는가?
 
ⓒ CarlosCastilla / Getty Images

그러한 설명이 없다면 모델은 기본적으로 블랙박스나 다름없고, 이는 큰 문제가 된다. 영향이 큰 AI의 의사 결정(생명에 관한 영향뿐만 아니라 금전적 영향 또는 규제 영향도 포함)에서는 모델의 의사 결정에 어떤 요소가 반영되었는지를 명확히 아는 것이 중요하다.
 

설명 가능한 AI란 무엇인가?

설명 가능한 AI(XAI)는 해석 가능한 AI라고도 하며, AI의 의사 결정을 사람이 이해할 수 있는 방식으로 설명할 수 있는 머신러닝 및 딥러닝 방법을 의미한다. 궁극적인 희망은 XAI가 궁극적으로 블랙박스 모델과 대등하게 정확해지는 것이다.
 
설명 가능성은 안티 혹(ante-hoc: 직접 해석 가능한 화이트박스 모델) 또는 포스트 혹(post-hoc: 이전에 훈련된 모델 또는 이 모델의 예측을 설명하기 위한 기법)이 될 수 있다. 안티 혹 모델에는 설명 가능한 신경망(xNN), 설명 가능한 부스팅 머신(EBM), 초희소 선형 정수 모델(SLIM), 역시간 어텐션 모델(RETAIN), 베이즈 딥러닝(BDL)이 포함된다.
 
포스트 혹 설명 가능 방법에는 국소 해석 가능한 모델 불특정 설명(LIME), 그리고 누적 국소 효과(ALE) 플롯, 1차원 및 2차원 부분 의존 플롯(PDP), 개별 조건부 기대치(ICE) 플롯, 의사 결정 트리 대체 모델과 같은 국소적 및 전역적 모델 예측 시각화가 포함된다.
 

XAI 알고리즘의 작동 방식

위의 모든 링크를 클릭해서 문서를 읽는다면 이 부분을 건너뛰어도 된다. 아래는 짧게 요약한 글이다. 앞의 5개는 안티 혹 모델이고, 나머지는 포스트 혹 방법이다.
 

설명 가능한 신경망

설명 가능한 신경망(xNN)은 복잡한 함수를 근사 계산할 수 있는 첨가 인덱스 모델을 기반으로 한다. 이러한 모델의 요소를 프로젝션 인덱스 및 능형 함수라고 한다. xNN은 첨가 인덱스 모델을 학습하도록 설계되는 신경망이며 하위신경망이 능형 함수를 학습한다. 첫 번째 숨겨진 계층이 선형 활성화 함수를 사용하고, 하위신경망은 일반적으로 여러 개의 완전히 연결된 계층으로 구성되어 비선형 활성화 함수를 사용한다.
 
xNN은 xNN 자체 내에서 데이터에서 바로 구축된 설명 가능한 예측 모델로 사용될 수 있다. 또한 트리 기반 방법 및 피드포워드 신경망과 같은 다른 비모수적 모델을 설명하기 위한 대체 모델로도 사용 가능하다. xNN에 관한 웰스 파고(Wells Fargo)의 2018년 논문을 볼 수 있다.
 

설명 가능한 부스팅 머신

애저 AI와 머신러닝을 리뷰할 때 언급했듯이 마이크로소프트는 인터프리트ML(InterpretML) 패키지를 오픈소스로 출시했고 이를 애저 머신러닝의 설명(Explanation) 대시보드에 통합했다. 인터프리트ML의 많은 기능 중에는 설명 가능한 부스팅 머신(EBM)으로 지칭되는, 마이크로소프트 리서치의 “글래스박스” 모델이 있다.
 
EBM은 랜덤 포리스트 및 부스팅 트리와 대등한 정확도를 갖는 동시에 해석하기도 쉽도록 설계됐다. 몇 가지 부분이 개선된 일반화된 첨가 모델이다. EBM은 배깅 및 그래디언트 부스팅과 같은 현대 머신러닝 기법을 사용해서 각 특징 함수를 학습한다. 부스팅 절차는 매우 낮은 학습률을 사용해서 순차적인 방식으로 한 번에 하나의 특징 학습으로 제한되므로 특징 순서는 문제가 되지 않는다. 또한 쌍별 상호작용 항을 감지하고 포함할 수 있다. C++ 및 파이썬 구현은 병렬화가 가능하다.
 

초희소 선형 정수 모델

초희소 선형 정수 모델(SLIM)은 계수를 소량의 서로소 정수 집합으로 제한하면서 정확도(0-1 손실)와 희소성(10-반표준)의 직접적인 측정을 최적화하는 정수 프로그래밍 문제다. SLIM은 의학 검진에 유용한 데이터 중심 채점 시스템을 만들 수 있다.
 

역시간 어텐션 모델

역시간 어텐션(RETAIN) 모델은 전자 의료 기록(EHR) 데이터를 위한 해석 가능한 예측 모델이다. RETAIN은 임상적 해석 가능성을 유지하면서 높은 정확도를 달성한다. 영향이 있는 과거 방문과 이러한 방문 내에서 중요한 임상 변수를 감지하는(주요 진단) 2레벨 뉴럴 어텐션 모델을 기반으로 한다. RETAIN은 EHR 데이터를 시간의 역순으로 탐색해서 최근 임상적 방문이 더 높은 관심을 끌 가능성을 높이는 방식으로 의사를 모방한다. RETAIN 논문에 논의된 테스트 데이터는 장기간에 걸친 진단과 약을 기반으로 심부전을 예측했다.
 

베이즈 딥러닝

베이즈 딥러닝(BDL)은 딥러닝 아키텍처에서 원칙에 따른 불확실성 추정을 제공한다. 기본적으로 BDL은 학습된 확률 분포에서 가중치를 가져와 네트워크 앙상블을 모델링하는 방법으로 대부분의 딥러닝 모델이 자신의 불확실성을 모델링하지 못하는 문제에 대처할 수 있게 해준다. BDL은 일반적으로 매개변수의 수를 두 배로 늘린다.
 



2021.10.08

'사람이 이해할 수 있는 AI' 설명가능한 AI를 설명하다

Martin Heller | InfoWorld
머신러닝과 딥러닝 모델은 대체로 분류와 예측에 효과적이지만 완벽한 경우는 사실상 없다. 모델에는 거의 항상 어느정도 비율의 가양성, 가음성 예측이 있다. 이 오차를 용인할 수 있는 경우도 있지만 중요한 작업에서는 문제가 된다. 예를 들어 드론 무기 시스템이 학교를 테러리스트 기지로 오판할 경우 인간 작업자가 공격 결정을 막지 않는 한 의도하지 않게 무고한 어린이와 교사들이 희생될 수 있다.
 
작업자는 공격을 허용 또는 취소하기 전에 AI가 학교를 공격 목표로 분류한 이유와 의사 결정의 불확실성을 알아야 한다. 테러리스트가 학교, 병원, 종교 시설을 미사일 공격을 위한 기지로 삼은 사례는 분명히 존재한다. 문제의 학교가 그런 학교 중 하나였는가? 학교가 현재 그러한 테러리스트에 의해 점유되어 있다는 첩보 또는 최근 관측 결과가 있는가? 학교에 학생이나 교사가 존재하지 않는다는 보고서 또는 관측 결과가 있는가?
 
ⓒ CarlosCastilla / Getty Images

그러한 설명이 없다면 모델은 기본적으로 블랙박스나 다름없고, 이는 큰 문제가 된다. 영향이 큰 AI의 의사 결정(생명에 관한 영향뿐만 아니라 금전적 영향 또는 규제 영향도 포함)에서는 모델의 의사 결정에 어떤 요소가 반영되었는지를 명확히 아는 것이 중요하다.
 

설명 가능한 AI란 무엇인가?

설명 가능한 AI(XAI)는 해석 가능한 AI라고도 하며, AI의 의사 결정을 사람이 이해할 수 있는 방식으로 설명할 수 있는 머신러닝 및 딥러닝 방법을 의미한다. 궁극적인 희망은 XAI가 궁극적으로 블랙박스 모델과 대등하게 정확해지는 것이다.
 
설명 가능성은 안티 혹(ante-hoc: 직접 해석 가능한 화이트박스 모델) 또는 포스트 혹(post-hoc: 이전에 훈련된 모델 또는 이 모델의 예측을 설명하기 위한 기법)이 될 수 있다. 안티 혹 모델에는 설명 가능한 신경망(xNN), 설명 가능한 부스팅 머신(EBM), 초희소 선형 정수 모델(SLIM), 역시간 어텐션 모델(RETAIN), 베이즈 딥러닝(BDL)이 포함된다.
 
포스트 혹 설명 가능 방법에는 국소 해석 가능한 모델 불특정 설명(LIME), 그리고 누적 국소 효과(ALE) 플롯, 1차원 및 2차원 부분 의존 플롯(PDP), 개별 조건부 기대치(ICE) 플롯, 의사 결정 트리 대체 모델과 같은 국소적 및 전역적 모델 예측 시각화가 포함된다.
 

XAI 알고리즘의 작동 방식

위의 모든 링크를 클릭해서 문서를 읽는다면 이 부분을 건너뛰어도 된다. 아래는 짧게 요약한 글이다. 앞의 5개는 안티 혹 모델이고, 나머지는 포스트 혹 방법이다.
 

설명 가능한 신경망

설명 가능한 신경망(xNN)은 복잡한 함수를 근사 계산할 수 있는 첨가 인덱스 모델을 기반으로 한다. 이러한 모델의 요소를 프로젝션 인덱스 및 능형 함수라고 한다. xNN은 첨가 인덱스 모델을 학습하도록 설계되는 신경망이며 하위신경망이 능형 함수를 학습한다. 첫 번째 숨겨진 계층이 선형 활성화 함수를 사용하고, 하위신경망은 일반적으로 여러 개의 완전히 연결된 계층으로 구성되어 비선형 활성화 함수를 사용한다.
 
xNN은 xNN 자체 내에서 데이터에서 바로 구축된 설명 가능한 예측 모델로 사용될 수 있다. 또한 트리 기반 방법 및 피드포워드 신경망과 같은 다른 비모수적 모델을 설명하기 위한 대체 모델로도 사용 가능하다. xNN에 관한 웰스 파고(Wells Fargo)의 2018년 논문을 볼 수 있다.
 

설명 가능한 부스팅 머신

애저 AI와 머신러닝을 리뷰할 때 언급했듯이 마이크로소프트는 인터프리트ML(InterpretML) 패키지를 오픈소스로 출시했고 이를 애저 머신러닝의 설명(Explanation) 대시보드에 통합했다. 인터프리트ML의 많은 기능 중에는 설명 가능한 부스팅 머신(EBM)으로 지칭되는, 마이크로소프트 리서치의 “글래스박스” 모델이 있다.
 
EBM은 랜덤 포리스트 및 부스팅 트리와 대등한 정확도를 갖는 동시에 해석하기도 쉽도록 설계됐다. 몇 가지 부분이 개선된 일반화된 첨가 모델이다. EBM은 배깅 및 그래디언트 부스팅과 같은 현대 머신러닝 기법을 사용해서 각 특징 함수를 학습한다. 부스팅 절차는 매우 낮은 학습률을 사용해서 순차적인 방식으로 한 번에 하나의 특징 학습으로 제한되므로 특징 순서는 문제가 되지 않는다. 또한 쌍별 상호작용 항을 감지하고 포함할 수 있다. C++ 및 파이썬 구현은 병렬화가 가능하다.
 

초희소 선형 정수 모델

초희소 선형 정수 모델(SLIM)은 계수를 소량의 서로소 정수 집합으로 제한하면서 정확도(0-1 손실)와 희소성(10-반표준)의 직접적인 측정을 최적화하는 정수 프로그래밍 문제다. SLIM은 의학 검진에 유용한 데이터 중심 채점 시스템을 만들 수 있다.
 

역시간 어텐션 모델

역시간 어텐션(RETAIN) 모델은 전자 의료 기록(EHR) 데이터를 위한 해석 가능한 예측 모델이다. RETAIN은 임상적 해석 가능성을 유지하면서 높은 정확도를 달성한다. 영향이 있는 과거 방문과 이러한 방문 내에서 중요한 임상 변수를 감지하는(주요 진단) 2레벨 뉴럴 어텐션 모델을 기반으로 한다. RETAIN은 EHR 데이터를 시간의 역순으로 탐색해서 최근 임상적 방문이 더 높은 관심을 끌 가능성을 높이는 방식으로 의사를 모방한다. RETAIN 논문에 논의된 테스트 데이터는 장기간에 걸친 진단과 약을 기반으로 심부전을 예측했다.
 

베이즈 딥러닝

베이즈 딥러닝(BDL)은 딥러닝 아키텍처에서 원칙에 따른 불확실성 추정을 제공한다. 기본적으로 BDL은 학습된 확률 분포에서 가중치를 가져와 네트워크 앙상블을 모델링하는 방법으로 대부분의 딥러닝 모델이 자신의 불확실성을 모델링하지 못하는 문제에 대처할 수 있게 해준다. BDL은 일반적으로 매개변수의 수를 두 배로 늘린다.
 



X