1960년에 컴퓨터 과학자인 J.C.R 릭크라이더는 꿈에 그리던 대화형 컴퓨터의 구상과 GUI(Graphical User Interface) 탄생에 도움을 준 ‘인간과 컴퓨터의 공생’이라는 논문을 발표했다.
이번 주에는 매사추세스의 공과대학에서 열린 ‘신흥 기술 컨퍼런스(Emerging Technology Conference)’에서 한 과학자는 사람들이 컴퓨터 기능을 작동시키기 위해 더 이상 키보드나 마우스를 건들이지 않고, 심지어는 음성 명령을 내리지 않아도 되는 기술이 곧 나올 것이라고 발표했다.
뉴욕 정부가 운영하는 공중 보건 실험실의 연구 과학자인 거윈 샬크는 “이제 사람은 컴퓨터에 생각으로 명령하면 컴퓨터가 반응할 것”이라며, “이것은 공상 과학 소설이 아니고, 곧 맞이할 현실”이라고 밝혔다.
샬크는 “느린 인터페이스가 인간과 컴퓨터의 상호작용에 큰 문제점”이라고 지적했다. 사람은 생각하는 것을 컴퓨터에 디지털 명령으로 이해시키기 위해서 번역을 해야 하며, 이 프로세스 때문에 처음부터 I/O 병목 현상이 일어난다고 설명했다.
뉴로테크놀로지는 연간 9%의 성장을 보이며 1,450억 달러의 시장을 형성하고 있고, 이미 인간과 컴퓨터의 공생에 주요 이정표를 만들기도 했다.
연구원들은 8∼12Hz 주파수 범위에 있는 신경 진동인 두뇌의 알파파를 연구하며, 컴퓨터와 직접적으로 통신하는데 사용할 수 있는 풍부한 구문 표현을 만들기 위해 애쓰고 있다.
샬크는 참석자들에게 두뇌 표면에 부착된 전극으로 컴퓨터 게임을 제어하는 방법이 담긴 동영상 화면을 보여줬다. 이는 이미 간질과 같은 질병을 치료하는데 이용되기도 했다.
동영상에 나온 한 시연에서 환자는 비디오 게임 둠(Doom)에서 나오는 괴물을 쏘려고 생각했다. 환자는 조이스틱을 앞뒤로 이동하며 총을 쏘지만, 총을 쏜다는 그의 생각을 이용한 것이다.
또 다른 시연에서 샬크는 컴퓨터가 누군가 생각하는 소리인 ‘아’나 ‘우’ 소리를 어떻게 다르게 말하는지 보여줬다.
세 번째 시연은 컴퓨터가 사람이 듣고 있는 음악 트랙의 소리를 순간적으로 감지하는 것이었다.
샬크는 컴퓨터 알고리즘이 어떻게 사람의 뇌파에서 듣고 있는 음악의 볼륨을 추적할 수 있는지 시연을 통해 보여줬다.
다른 시연은 루빅 큐브를 해결하기 위해 노력하는 과학자의 두뇌가 신체의 움직임에 반응하며 실시간으로 어떻게 움직이는지 보여주었다.
이 같은 시연의 핵심 기술은 사용자가 컴퓨터를 만지지 않고 생각으로 명령하는 것이다.
샬크는 “여기서 두 가지 큰 장애물은 소통이 실시간으로 이뤄지는 것이며, 이것을 공학 기술로 풀어내는 것”이라고 말했다. 과학자들은 알파파를 감지하고 두뇌의 언어 신호를 식별하는 좀더 발전된 센서를 개발해야 한다고 말했다.
샬크는 “결국, 문제를 해결하는데 시간과 비용을 소요된다”며, “두뇌와 직접적으로 연결된 컴퓨터 기술은 같은 시기의 정보기술, 컴퓨팅 기술, 통신 기술과 통합 발전될 것이다”고 말했다. editor@itworld.co.kr