Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

설명가능한AI

'사람이 이해할 수 있는 AI' 설명가능한 AI를 설명하다

머신러닝과 딥러닝 모델은 대체로 분류와 예측에 효과적이지만 완벽한 경우는 사실상 없다. 모델에는 거의 항상 어느정도 비율의 가양성, 가음성 예측이 있다. 이 오차를 용인할 수 있는 경우도 있지만 중요한 작업에서는 문제가 된다. 예를 들어 드론 무기 시스템이 학교를 테러리스트 기지로 오판할 경우 인간 작업자가 공격 결정을 막지 않는 한 의도하지 않게 무고한 어린이와 교사들이 희생될 수 있다.   작업자는 공격을 허용 또는 취소하기 전에 AI가 학교를 공격 목표로 분류한 이유와 의사 결정의 불확실성을 알아야 한다. 테러리스트가 학교, 병원, 종교 시설을 미사일 공격을 위한 기지로 삼은 사례는 분명히 존재한다. 문제의 학교가 그런 학교 중 하나였는가? 학교가 현재 그러한 테러리스트에 의해 점유되어 있다는 첩보 또는 최근 관측 결과가 있는가? 학교에 학생이나 교사가 존재하지 않는다는 보고서 또는 관측 결과가 있는가?   그러한 설명이 없다면 모델은 기본적으로 블랙박스나 다름없고, 이는 큰 문제가 된다. 영향이 큰 AI의 의사 결정(생명에 관한 영향뿐만 아니라 금전적 영향 또는 규제 영향도 포함)에서는 모델의 의사 결정에 어떤 요소가 반영되었는지를 명확히 아는 것이 중요하다.   설명 가능한 AI란 무엇인가? 설명 가능한 AI(XAI)는 해석 가능한 AI라고도 하며, AI의 의사 결정을 사람이 이해할 수 있는 방식으로 설명할 수 있는 머신러닝 및 딥러닝 방법을 의미한다. 궁극적인 희망은 XAI가 궁극적으로 블랙박스 모델과 대등하게 정확해지는 것이다.   설명 가능성은 안티 혹(ante-hoc: 직접 해석 가능한 화이트박스 모델) 또는 포스트 혹(post-hoc: 이전에 훈련된 모델 또는 이 모델의 예측을 설명하기 위한 기법)이 될 수 있다. 안티 혹 모델에는 설명 가능한 신경망(xNN), 설명 가능한 부스팅 머신(EBM), 초희소 선형 정수 모델(SLIM), 역시간 어텐션 모델(RETAIN), 베이즈 딥러닝(BDL)이 포함된다. ...

설명가능한AI 2021.10.08

2019년도 데이터 핵심 트렌드도 AI와 머신러닝…데이터 자동화 관리 경향 강세

가트너의 데이터와 분석 기술 10대 트렌드에 따르면, 2019년 데이터 기술의 지배적인 트렌드는 인공지능과 머신러닝을 통한 분석이다. 가트너는 이러한 경향이 새로운 차세대 파괴적 데이터라는 물결과 증강 데이터 관리로 이어질 것이라고 내다봤다. 2월 18일 호주에서 열린 가트너 데이터와 분석 서밋에서 발표된 보고서는 시스템의 자가 구성이 가능해짐에따라 수동 데이터 관리 경향이 2022년까지 45% 감소할 것이라고 전망했다. 세 번째로 큰 경향으로는 실시간 분석이 기업 운영과 통합되면서 나타나는 지속적 지능이 꼽혔다. 가트너는 2022년까지 새로 구축되는 기업 시스템 절반 이상이 지속적 지능을 활용할 것이라고 분석했다. 가트너 부사장 리타 샐럼은 “지속적 지능은 데이터와 분석 부서에서 일어나는 주요 변화를 나타낸다. 분석과 BI 부서가 현명한 실시간 의사 결정을 지원할 수 있는 역량을 갖추는 것은 2019년 중대한 도전이자 기회가 될 것이다. 운영 BI의 궁극적인 목표이기도 하다”고 설명했다. 다음으로는 ‘설명 가능한 AI’다. 기업 경영진이 이해 관계자의 신뢰 구축을 위해 모델을 더욱 해석하고 설명하기 쉬운 AI를 말한다. 그러나 가트너는 가장 발전한 AI 모델이 ‘컴플렉스 블랙 박스(complex black box)’인데 이 모델은 왜 특정한 제안이나 결정에 도달했는지를 설명하지 못하는 특징이 있다고 설명했다. 그 밖의 트렌드로 그래프 데이터 저장소(데이터 사일로 간 상호 관련성을 추적), 공유 시스템인 데이터 패브릭 등이 언급됐다. 특히 가트너는 데이터 패브릭을 가리켜 초기에는 기업이 향후 재설계해야 할 정적 인프라가 될 것이라고 경고했다. 또한, 기업의 우선 순위는 자연어 처리(NLP)와 음성, 자동 생성 검색 쿼리가 될 것이라고 내다봤다. 가트너는 2022년 AI와 머신러닝 기술을 다룬 최종 사용자용 솔루션의 75%가 오픈소스가 아닌 상용으로 구축될 것이라고 예측했다. 블록체인,...

가트너 인공지능 Bi 2019.02.19

ITWorld 용어풀이|설명가능한 AI

'설명가능한 AI(eXplainable AI, XAI)'란 의사 결정과 결론, 예측을 하는 AI가 제대로 판단하고 있는지 증빙할 수 있는 데이터를 차트와 분석을 통해 사용자에게 광범위하면서도 자세한 설명을 제공하는 것입니다. 한 마디로, 인공지능 스스로가 행한 결정과 판단을 사람이 이해하는 형태로 설명해주는 것을 의미합니다.  인공지능(Aartificial Intelligence, AI)은 상황을 인식하고, 계획과 학습을 하고, 인간이나 다른 동물의 타고난 지능을 흉내내는 다양한 인지 기술(Cognitive Technologies)로 구성되어 있습니다. 지난 수십 년 동안 AI는 금방 이뤄질 것처럼 보였지만 실현되지 않은 채, 장기간 연구를 거듭해 왔습니다.  최근 AI는 컴퓨팅 성능이 대폭 증가하고 연결된 장치가 매일 수많은 데이터를 생성하고 알고리즘과 AI 모델이 정교해지면서 엄청난 결실을 맺었습니다. 봇은 기계임을 알 수 없을 정도로 사람의 말을 할 수 있게 됐고, 자율주행 자동차는 복잡한 길을 스스로 주행할 수 있게 됐습니다. 뿐만 아니라 다양한 산업 분야의 기업이 인공지능을 도입해 고객 요청을 처리하는 봇을 구현하고, 비즈니스 프로세스를 자동화 할 애플리케이션에 알고리즘을 탑재하고 있습니다.  하지만 AI 기술, 그 가운데서도 딥러닝(Deep Learning) 부분이 급속도로 발전하는 과정에서 자기 학습 신경망 내부의 수많은 연결을 이해하는 것은 물론, 이를 추적하는 것조차 불가능해졌습니다. 그래서 AI가 결정을 추론하는 방법과 과정을 사용자뿐만 아니라 이를 개발한 사람조차 알 수 없는 상황에 이르게 됐는데, 이를 AI의 블랙박스 또는 불투명성이라고 합니다.  AI의 신경망이 어떤 방식으로 의사 결정에 이르는지 모른다면 신경망이 언제 실패하기 될지도 모르며, 신경망 행동에서 편향된 혹은 큰 피해를 유발하는 경계 사례(edge cases)가 모두 제거됐는지 여부를 확신할 수 없습니다. 특히 알고리...

AI XAI 설명가능한AI 2019.02.01

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.