AIㆍML / BI|분석 / 미래기술

현실 확인 : 인공지능과 봇, 가상비서의 현황

Galen Gruman | InfoWorld 2017.06.12


패턴 식별은 쉽지 않은데, 이런 시스템의 기반이 되는 규칙을 위해 무엇인가 파라미터를 정의해야만 하기 때문이다. 바다 전체를 끓이려다가 아무 것도 분간할 수 없는 난장판을 만들거나 너무 좁게 잡아 실제 세상에서 소용이 없는 결과를 만들기 쉽다.

패턴 식별은 오늘날 머신러닝에서 큰 비중을 차지한다. 사용자에게 광고를 더 클릭하게 하거나 더 많은 제품을 구매하는 것은 물론, 복사기와 항공기 엔진의 결함을 진단하고 날씨와 교통량을 기반으로 배탈 트럭의 경로를 다시 지정하고, 운전 중에 위험에 대응하는 데도 사용된다. 충돌 회피 기술은 조만간 미국 내 자동차의 표준이 될 것이다.

머신러닝은 제법 어렵기 때문에, 특히 고도로 잘 정의된 엔지니어링 영역 외에서는 특히 어렵기 때문에 발전은 매우 더디게 이루어진다. 시스템은 좋아지고 있지만, 한동안은 사용자가 이를 알아차리지 못할 정도이다.

음성 인식이 좋은 예이다. 최초의 음성 인식 시스템은 매우 끔찍했지만, 오늘날에는 시리나 구글 나우, 알렉사, 코타나 등은 매우 훌륭하다. 물론 이들도 여전히 실수를 한다. 복잡만 구문이나 전문 영역, 그리고 많은 액센트와 발음 패턴에는 여전히 취약하다. 하지만 많은 상황에서 충분히 유용하며, 어떤 사람들은 이들 가상비서를 마친 인간 전사기처럼 사용할 수도 있다.

하지만 맥락이 좀 더 복잡해지면 기계가 배우기는 더 어려워진다. 왜냐하면 이들의 모델은 불완전하거나 실제 세상에 의해 왜곡되기 때문이다. 무인 자동차가 좋은 예이다. 자동차는 도로와 다른 자동차의 패턴과 신호를 기반으로 주행하는 법을 배운다. 하지만 날씨와 보행자, 자전거, 이중주차, 변경된 건축물 등등의 외부 요인이 학습을 무력화시킨다. 이 모든 것을 극복하는 것이 과연 가능할까? 물론 가능하다. 충돌 회피 기술이 광범위하게 적용되는 것은 분명 자율 주행의 미래를 향한 진전이다. 하지만 블로그 세상에서 기대하는 만큼의 속도로 이루어지지는 않을 것이다.

머신러닝의 뒤를 잇는 예측 분석
오랫동안 IT 업계는 예측 분석이란 개념을 팔아왔는데, 운영 BI와 같은 다른 가면을 쓰고 있었다. 예측 분석은 분명 대단한 개념이지만, 패턴 매칭과 머신 러닝, 그리고 인사이트를 필요로 한다. 하지만 인사이트는 새로운 영역으로 한 단계 지적인 도약을 해야 한다.

예측 분석이 격이 다른 사고를 필요로 하는 것은 아니지만, 비정상적인 패턴과 결과물을 식별하고 수용해야 한다. 이것이 어려운 이유는 패턴 기반의 ‘지능’, 즉 어떤 검색 결과를 보여주고 어떤 경로를 취하고 체스에서 말을 어떻게 움직일 것인가를 결정하는 것은 주요 패턴과 경로가 최상의 것이라는 가정을 기반으로 하기 때문이다. 그렇지 않다면, 사람들이 그렇게 많이 이용하지 않을 것이다.

보조 시스템 대부분은 현재의 조건을 사용해 사용자를 증명된 경로로 인도한다. 예측 시스템은 모든 종류의 확률 수학을 사용해 현재의 조건과 추론할 수 있는 미래의 조건을 결합한다. 하지만 이는 쉬운 예측에 불과하다. 진짜 문제가 되는 것은 여러 가지 이유로 정말로 예측하기 어려운 것들이다. 맥락이 너무 복잡해 대부분 사람들의 머리로는 계산할 수 없거나 계산된 경로가 너무 특이해 알고리즘이나 사용자가 거부하는 것들 말이다.

이상과 같이 해야 할 일이 너무 많다. 따라서 놀랄만한 미래에 대한 대중 매체나 기술 컨퍼런스의 이야기는 충분히 걸러 들어야 한다. 미래는 오겠지만, 천천히 그리고 불규칙하게 올 것이다.  editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.