CES에 관한 새로운 뉴스 속보들을 끊임없이 따라잡고 있자면, 마치 왈가닥 루시(I love Lucy)라는 시트콤의 에피소드 한 편을 보는 듯 하다. 그 속에서 루시는 초콜릿 공장에서 일하고 있고 사탕들을 나르는 컨베이어 벨트는 계속해서 점점 더 빠르게 움직인다. 이는 엄청난 스트레스를 주고, 매우 혼란스러우며, 결국에는 아무 것도 되지 않는다.
우후죽순 CES에서 소개된 제품의 양은 줄지어 놓으면 축구장 몇 개와도 맞먹을 정도다.
얇은 TV와 얇은 노트북에 대한 글들을 읽어보았는가? 집에 있는 전등과 에어컨을 조절하는 폰, 안드로이드 기기들과 아이폰 액세서리들, 그리고 수많은 카메라들에 대한 글들은? 대부분의 기사들은 우리가 기기들과 어떻게 상호작용하는가 보다는 기기들이 무엇을 할 수 있는가에 초점을 맞추고 있다.
이에 따라 금년 CES의 커다란 화두이자 관심사인 ‘인간 기계 인터페이스의 미래가 드디어 도래했다’ 라는 주제는 어느 기사에서도 찾아 볼 수 없었다.
지난 수 년간 미래학자들은 미래의 온갖 컴퓨팅 장치는 데스크톱, 노트북, 태블릿, 모바일 폰 기기에 다음의 세 사용자 인터페이스(user interface, UI)가 추가될 것이라고 예측해왔다.
1. 멀티터치
2. 음성
3. 공중 동작(In-the-air gestures)
혹자는 위의 인터페이스들이 이미 몇 년부터 나와 있었다고 말할 수도 있다. 게다가 이 말이 사실이기도 하다. 그러나 수동적으로 이용 가능하며 소수의 파워 유저들만 누려왔던 기술과, 문화 자체를 바꿔놓을 만큼 널리 퍼져있는 기술은 아주 크게 다르다.
물론 애플은 1997년 아이폰을 통해 멀티터치 인터페이스를 주류로 끌어올렸다. 그리고 이번에는 아이폰 4S에 탑재된 시리(Siri) 기능으로 음성 인터페이스의 부상을 도모하고 있지만 상반된 결과를 낳고 있다.
한편 마이크로소프트는 Xbox360용 키넥트(Kinect for Xbox 360)를 통해 공중 동작 인터페이스를 어느 정도 주류로 선보이고 있다.
그러나 지금껏 이러한 인터페이스 기능들은 대체로 특정 제품을 사용하는 사용자들에게만 활용되어 왔다. 음성 명령은 아이폰이나 정도는 덜하지만 안드로이드 폰에만 해당되는 기능이며, 공중 동작 인식은 주로 Xbox의 전유물이다.
한 예로 휴대폰을 사용하는 대부분의 사용자들은 음성 명령을 사용하지 않는다. TV 시청자들은 거의 아무도 낡고 고장 난 리모컨 이외의 물건을 사용하지 않는다. 데스크톱 및 노트북 PC 사용자들은 대부분 자신과 온라인 활동 사이의 인터페이스로 키보드와 마우스를 사용한다.
새로운 인터페이스들이 가져올 영향을 과소평가하지는 말자. 우리는 지금처럼 기기를 ‘사용’하는 대신에 아주 스마트해진 전자기기들과 마치 사람을 대하듯 상호작용을 하게 될 세상을 향해 나아가고 있다. 스크린 상의 물체에 접촉하고 직접 조작하며, 일상 용어로 이야기하고, 혹은 자연스러운 손동작이나 몸짓 언어를 이용하여, 첨단 기술 툴들을 제어할 수 있을 것이므로 컴퓨팅은 차츰 더 자연스럽고 직관적인 모습으로 변해갈 것이다.
CES로 미루어보건대 사람들이 오랫동안 기다려온 유비쿼터스(ubiquitous) 차세대 인터페이스들의 미래는 바로 올해부터 시작되는 듯 하다. CES 쇼에서 일어났던 몇 가지 일들을 소개한다.