AIㆍML / BI|분석 / 미래기술

글로벌 칼럼 | 트럼프와 인공지능 그리고 '심판의 날'

Rob Enderle  | CIO 2017.02.14
최근 필자는 블룸버그뷰(BloombergView)에 실린 케이시 오네일의 글 '도널드 트럼프는 특이성이다(Donald Trump is the Singularity)'를 흥미롭게 읽었다. 오네일은 새 미국 대통령 트럼프가 정부 운영을 위해 개발된 미래의 인공지능(AI) 시스템을 위한 완벽한 모델이 될 것이라고 주장했다.


Terminator

처음에 필자는 이 글을 거의 무시했다. 영화 '터미네이터(Terminator)'에서 핵 전쟁을 일으킨 AI '스카이넷(Skynet)'이 인간을 더 효율적으로 바꾸기 위해 개발됐다고 언급했기 때문이다. 실제로 영화 속 설정은 그렇지 않다. 스카이넷은 스스로 만들어졌다. 본래 위협을 제거해 세계를 보호하는 방어 시스템으로 개발됐지만 인간이 강제로 정지하려 하자 오히려 인간을 주요 위협으로 간주해 없애기로 했다.

여담이지만 오네일은 무어의 법칙을 '무어의 황금률(Moore’s Rule of Thumb)'이라고 부른다. 실제로 더 정확한 표현이지만 개인적으로 '무어의 예측(Moore’s Prediction)'이란 말을 더 좋아한다. 오네일은 데이터 공학자로서 배경 지식이 탄탄하고 (흥미로운) 알고리즘 전문업체 ORCAA를 설립했다. 공상과학 영화에 대해서는 잘 모르더라도 과학에 대해서는 전문가임이 분명하다.

개인적으로는 그가 미래의 AI 시스템을 모방하는 인간에 대한 논의에서 벗어나 더 비판적인 입장을 견지하길 바랐다. 그러나 이런 아쉬움에도 불구하고 그의 주장은 다시 되새겨볼 필요가 있다. 이번 칼럼에서는 이 부분을 살펴보자.

'AI 에뮬레이션'으로서 도널드 트럼프
오네일은 트럼프가 미래의 AI 시스템을 위한 완벽한 모델이 될 것이라고 주장하며, 그 근거로 필자가 좋아하는 또 다른 공상과학 영화 '금단의 행성(Forbidden Planet)'을 언급했다. 주요 내용은 생각을 물질로 바꾸는 기계를 발명한 외계 문명이 이드(id, 충동)를 형상화한 괴물에 의해 파괴되는 것이다. 그들이 잠을 자는 동안 타인을 미워하는 생각이 괴물로 만들어졌고 결국 대량 학살로 이어진다.

AI의 근본적인 요소는 AI 자체가 불완전하다는 믿음이다. 여기에서 이드는 에고(ego, 자아)나 수퍼에고(super ego, 초자아, 완전한 인간의 마음의 다른 부분)가 아니므로 훨씬 단순하고 직접적으로 사고한다. 양심도 인정도 없으므로, 우리는 이런 식으로 행동하는 사람을 '소시오패스(sociopath, 반사회적 인격 장애인)'라고 부른다. 종종 정신병자와 동의어로 사용되는 이들은 기본적으로 양심이 없으며 자신의 이드에 따라 행동한다. 성과에 비해 터무니없이 많은 연봉을 챙겨가는 대형 다국적 기업 CEO를 정신병자나 소시오패스로 간주하는 경우가 많다는 것도 흥미롭다.

어쨌든 AI가 이드에 따라 행동한다는 전제가 사실이라면, 양심이 없어 보이고 자신의 이드를 이용해 높은 직위에 오른 사람을 이용해 AI가 할 수도 있는 일을 모사하는 것이 가능할 수도 있다. 어쩌면 오네일은 컴퓨터가 인간을 모방하는 것이 아니라 인간이 AI를 모방한다고 주장하는 것일지도 모른다.

트럼프 대통령의 경우, 오네일은 현재 우리가 목도하는 현실이 선거에 의한 초기 학습 과정에서 완전히 새로운 단계로 이행한 결과라고 주장한다. 즉, 선거 과정에서 트럼프는 반대자에 대한 역동적인 경쟁 정보에 집중해 단련됐고 지금은 이런 새로운 정보에 기초해 대통령으로서 행동의 변화를 보이고 있다는 것이다. 그러나 이것은 동시에 현재 미국의 시스템이 이슈 만들기를 통해 (대통령 당선 같은) 성과를 낼 수 있으며, 결국 문제가 될 수 있음을 보여준다.

실제로 이제 우리는 정보 또는 프로그램 오류가 어떻게 잘못된 의사 결정과 운영으로 이어지는지 현실의 사례를 보고 있다. 따라서 이런 반면교사를 통해 적절한 기준에 근거해 정확한 정보를 확보하는 모델을 개발할 수 있다. 그것은 영화 '터미네이터' 속 '심판의 날'을 피하는 방법이기도 하다. 오네일은 잘못된 시스템을 고치려면 유입되는 정보의 질을 높여야 한다고 지적했다. 필자는 이와 함께 보상 체계도 바꾸어야 한다고 생각한다.

반면 특정한 행동 요소를 가진 사람에게 권력을 위임하고 그가 의사 결정을 할 때 AI를 모방하는 방식에도 장점은 있다고 생각한다. 이를 통해 (핵 전쟁 등) 실수로 발생한 문제가 확산하기 전에 훈련과 보상, 데이터 모델을 반복해 개선할 수 있기 때문이다. 이는 결국 우리가 스카이넷(다행히 현실의 스카이넷(SkyNet)은 배송 서비스다) 같은 것을 만들어도 '심판의 날'을 피하는 방법이기도 하다

* Rob Enderle은 엔덜 그룹(Enderle Group)의 대표이자 수석 애널리스트다. 그는 포레스터리서치와 기가인포메이션그룹(Giga Information Group)의 선임 연구원이었으며 그전에는 IBM에서 내부 감사, 경쟁력 분석, 마케팅, 재무, 보안 등의 업무를 맡았다. 현재는 신기술, 보안, 리눅스 등에 대해 전문 기고가로도 활동하고 있다. ciokr@idg.co.kr
 Tags 인공지능 AI

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.