인공지능(Artificial Intelligence)은 이미 거의 모든 분야에서 다양한 용도로 사용되고 있지만 항상 우리가 기대한 만큼의 성능과 정확도를 제공하지는 않는다. 뿐만 아니라 간혹 어처구니없는 실수나 오류를 범하곤 한다. 그런데, 이런 오류 원인을 즉각적으로 알지 못하고 인공지능이 어떻게 이런 결정을 했는지 개발자조차 파악하지 못한다. 이것이 인공지능 기술의 현재 수준이며, 이를 AI의 블랙박스라 부른다. 이를 해결하고자 등장한 것이 “설명가능한 AI(eXplainable AI, XAI)”다. AI가 스스로 결정한 사항의 근거를 사용자에게 설명해주는 “설명가능한 AI”에 대해 알아보자. 
 

주요 내용 

- 블랙박스처럼 보이지 않는 인공지능의 내부
- XAI, 인공지능의 행위와 판단을 사람이 이해하는 형태로 설명
- 설명 가능한 AI의 기술적, 비즈니스적 효과
- 심층 신경망에 설명가능성 부여하기