2020.01.30

안경으로 보고 아이폰으로 컨트롤하는 AR, 과연 언제쯤?

Jason Cross | Macworld
증강현실의 크나큰 성장세가 예측된다. 적어도 팀 쿡은 그렇게 믿고 있으며, 그 혼자만의 생각도 아닌 것 같다. 차세대 컴퓨팅 플랫폼으로 AR에 투자하는 업체도 몇 군데 있다. 애플은 몇 년 전부터 아이폰과 아이패드용 AR 개발도구를 개발해왔다.

이미 아이폰과 아이패드에서 이용할 수 있는 AR 앱이 있는데 왜 주목받지 않는 것일까? 왜 AR의 일상적인 활용 가능성을 두고 사람들은 팀 쿡만큼 흥분하지 않는가? 왜 매일 사용하는 앱들이 AR을 핵심 기능으로 바꾸려고 하지 않는 것일까?

아마도 휴대폰과 태블릿으로 보는 AR은 결코 인기를 얻지 못할 것이기 때문이라고 생각한다. AR로서의 자격을 갖추기엔 매우 부족하며, 인지적 한계와 사용에 있어 거의 극복할 수 없는 어려움이 있다. AR이 가능성을 이루려면, 안경 형태가 적합하다.
 

증강현실의 정의

안경이 AR의 성공에 필수라고 생각하는 이유를 설명하기 전에, 정확히 무엇이 증강현실을 구성하는지에 대한 몇 가지 기본 규칙을 세워야 한다. 

간단히 말하면 AR은 컴퓨터 그래픽을 사용자 주변의 실제 세계에 투영한다. 정확한 규모, 방향, 위치, 약간의 조명이 있는 물체나 효과를 만들어 현실처럼 나타낸다. 현실에서 사용자의 시선이 방향을 바꾸면, 가상으로 만들어낸 규모, 위치, 방향은 시선을 따라 이동하지 않고 현실에 덧입혀진 원래 위치에 그대로 있다. AR 그래픽은 사실적으로 보일 필요는 없지만, 현실의 해당 위치에 자리잡고 있어야 한다. 

사진 공유 앱 중에는 “AR”로 광고되지만 이 기준을 충족하지 않는 몇 가지 특수 효과가 있다. 이는 일반적으로 정확한 규모, 위치, 방향과 관계없이 배경의 어디에나 배치되는 3D 객체일 뿐이다. 



예를 들어 포켓몬고가 출시됐을 때, 포켓몬을 사로잡기 위한 “AR” 모드는 다음과 같이 작동했다. 특정 방향을 향할 때까지 이리저리 돌다가 문 위나 컴퓨터 모니터 위 등에 떠다니는 작은 생물체를 발견하는 것이다. 이후 포켓몬고는 이 기능을 투사도의 기준 평면을 찾고 그 위에 생물체가 올바른 규모와 방향으로 위치하는 “진정한” AR 모드로 업데이트했다. 투사된 객체 주위로 돌아다니며 다양한 거리감을 볼 수도 있다. 현실의 특정 위치에 고정되어 있고 가까이 다가가면 점점 커진다. 
 

휴대폰에서의 AR에 대한 무관심

포켓몬고는 아마 휴대폰에서의 AR에 관심을 가진 사람이 실제로는 별로 없다는 사실을 보여주는 가장 좋은 예일 것이다. 대부분의 미디어는 항상 ‘증강현실 게임’으로 광고했지만 포켓몬고를 인기있게 만든 것은 위치 기반 게임방식이었다. 소위 AR 모드(처음에는 아니었지만)는 항상 선택사항 이었고 대부분의 사용자는 배터리 수명을 절약하기 위해 AR 모드를 껐다. 

포켓몬고는 이제 진짜 AR 모드를 갖추고 생물체를 잡을 수 있으니 사람들이 감명을 받을까? 주요 미디어는 이 기능이 얼마나 몰입도를 높이고 놀라운지 침이 마르도록 칭찬할까? 모든 사용자가 AR 모드를 다시 켰을까? 

아니, 아무도 신경 쓰지 않는다. 사용자는 여전히 AR 모드를 꺼두고 있다.

스냅챗의 춤추는 핫도그든 포켓몬고든, 휴대폰 화면을 통한 증강현실은 사용자에게 그저 장난감에 지나지 않는다는 인식이 널리 퍼져있고 앞으로도 상황에는 큰 변화가 없을 것 같다.
 

AR의 핵심은 현실

증강현실은 세상을 바꿀 만한 엄청난 잠재력을 갖고 있다. 주변의 현실에 컴퓨터 그래픽이 통합된 세상을 상상해보자. 도움이 되지 않는 곳이 거의 없을 것이다. 여행, 건설 및 공장에서의 작업, 소셜 미디어와 데이터 앱, 지도 작성, 별자리 관찰, 온라인과 매장에서의 쇼핑, 장난감, 게임 등 AR이 혁신할 수 있는 분야는 끝이 없다. 

하지만 휴대폰에서의 AR은 현실에 덧입힌 컴퓨터 그래픽이 아니다. 현실의 영상을 컴퓨터 화면에 덧입힌 그래픽이다. 이미 오랫동안 보아온 기술이고 매일 TV에서 볼 수 있다. 눈으로 직접 현실을 보는 것과 평면의 2D 화면을 통해 접하는 것 사이에는 큰 차이가 있다. 

휴대폰에서 AR을 사용할 때, 현실의 넓은 범위가 시야에 들어오며 그 중에 작은 네모 화면이 실시간으로 영상을 보여준다. 핸드폰에서 눈까지의 위치와 거리는 항상 변한다. 또한 화면 밖으로 보이는 색상, 동적인 범위, 초점을 나타내지 않는다. 화면은 실제가 아니므로 실제처럼 보이지 않는다. 작은 화면 밖에 넓은 현실이 보이기 때문이다. 머리와 눈이 조금만 움직여도 화면의 이미지가 적절하게 따라 움직이지 못하기 때문에, 뇌를 속일 수 없다. 
 

휴대폰 기반 AR은 더 발전해도 무용지물

휴대폰에서의 AR은 점점 좋아질 것이다. 소문에 따르면 올해 출시되는 아이패드 프로와 고급형 아이폰은 “TOF(Time of Flight)” 센서를 후면 카메라에 탑재해 증강현실에 필요한 3D 깊이 정보를 더욱 빠르게 만들 수 있다고 한다. 이 제품들은 사진 촬영 기능도 개선되지만, 이는 AR과는 관련이 없다. 

이는 결국 안경을 통한 AR이 널리 도입되는데 필요한 단계일 수도 있다. 개발자가 증강현실을 만들 수 있도록 도구와 소프트웨어를 구축하도록 돕는 것이 중요하다. 그렇다고 해도 (휴대폰을 통한) AR이 우리 일상의 일부가 되는 것은 아니다. 휴대폰이 아무리 AR을 잘한다고 해도, 우리의 뇌는 여전히 너무 많은 신호를 받고 있어서 보고 있는 것이 현실이 아님을 알 수 있다. 



우리는 여전히 눈 앞에서 팔 길이만큼의 거리로 화면을 보고 있을 것이다. 우리가 화면에서 보는 “현실 세계’는 휴대폰 주위로 보이는 실제 세계와 선명도, 조명, 초점, 원근감 측면에서 일치하지 않을 것이다. 또한 작고 평평한 직사각형을 두드리고 쓸어 오르내리면서 상호작용해야 하기에, 우리의 감각은 화면의 컴퓨터 그래픽이 실제가 아니며, “현실”도 아니라는 사실을 뚜렷이 느낄 것이다. 
 

AR를 제대로 만들기

안경이나 고글을 통해 AR을 보면 실제 현실, 실제 광자가 현실의 객체에서 튀어나와, 그 위에 3D 그래픽이 겹쳐지는 것을 볼 수 있다. 머리를 조금이든 크게든 움직이면 우리가 보는 현실은 예상 한데로 바뀐다. 컴퓨터 그래픽이 아니라 현실이기 때문이다. 

안경을 통해서 보면 “가짜” 현실의 제한 밖으로 실제 현실을 볼 수 없다. 주변에 보이는 현실이 있을 뿐이다. 

현재 AR 안경은 컴퓨터 그래픽이 포함된 섹션에 대한 시야가 제한돼 있다. 폭넓은 도입을 장려하기 위해 극복해야할 과제 중 하나지만, 세상을 보는 시야가 그렇게 제한되지는 않고 현실에 더해지는 컴퓨터 그래픽 이미지에 대한 시야만 제한되기 때문에 심각한 결함은 아니다. 보이는 모든 것을 제한하는 가상현실(VR)의 시야와는 전혀 다른 것이다. 

AR이 정말로 대중에게 인기를 얻으려면, 안경이나 고글만 있으면 된다. 실제 세상에 투영된 그래픽을 봐야만 AR이라고 할 수 있다. 그러나 꼭 마이크로소프트의 홀로렌즈처럼 단독으로 사용할 수 있는 기기여야 한다는 뜻은 아니다. 



가장 가능성이 높은 시나리오는 투명 디스플레이와 3D 감지 하드웨어만 포함하는 비교적 작고 가벼운 안경이다. 위치와 방향 데이터를 휴대폰에 전송하면, 여기서 사용자의 시야에 겹쳐질 올바른 그래픽을 만들 것이다. 이 그래픽은 다시 안경으로 전송돼 투명한 디스플레이에 표시된다. 

이 모든 시나리오가 머지않아 이뤄질 것이라 예상하며, 애플의 첫 AR 안경이 사용자 귀 뒤에서 아이폰의 라이트닝 포트까지 연결되는 줄이 있다고 해도 놀라지 않을 것이다. 아이폰을 주머니에 넣은 채로 둘 수도 있지만, AR 환경과 상호작용하기 위한 포인팅 컨트롤러로 사용할 수 있는 가능성도 있다. 

매직 립(Magic Leap)은 프로세싱 코어에 연결된 고글뿐만 아니라 별도의 컨트롤러를 사용한다. 그러나 연결된 줄과 고글이 너무 크고, 별도의 컨트롤러까지 있어서 성공하긴 힘들 것이다. 항상 갖고 다니기엔 부담스럽다. 아이폰을 프로세싱 유닛과 컨트롤러로 만드는 편이 더 낫다. 



결국 칩 생산과 배터리 기술이 발전해, 완전한 독립형 AR 안경이 대중이 수용 할 만큼 작고 가벼워질 것이다. 충분한 품질은 물론이다. 홀로렌즈 2는 기능에 비해 인상적일 정도로 작지만, 여전히 수억 명의 일반 소비자에게는 너무 부피가 크다. 

언제쯤이면 애플 AR 안경을 기대할 수 있을까? 아무도 모른다. 2020년에 비전 기반 제품을 출시한다면 매력적인 마케팅 기회가 되겠지만, 기술이 준비된다고는 아직 상상하기 어렵다. 2021년에 “애플 안경”을 기대하는 건 무리고, 2022년이나 023년이 더 가능성이 높다. 극복해야할 큰 기술적 난제가 있고 가격도 대폭 낮춰야 한다. 매직 립과 홀로렌즈 2는 2,300 달러에서 3,500 달러에 이르며, AR 제품이 고급 휴대폰보다 비싸다면 대중이 수용하는 것은 상상하기 어렵다. editor@itworld.co.kr 


2020.01.30

안경으로 보고 아이폰으로 컨트롤하는 AR, 과연 언제쯤?

Jason Cross | Macworld
증강현실의 크나큰 성장세가 예측된다. 적어도 팀 쿡은 그렇게 믿고 있으며, 그 혼자만의 생각도 아닌 것 같다. 차세대 컴퓨팅 플랫폼으로 AR에 투자하는 업체도 몇 군데 있다. 애플은 몇 년 전부터 아이폰과 아이패드용 AR 개발도구를 개발해왔다.

이미 아이폰과 아이패드에서 이용할 수 있는 AR 앱이 있는데 왜 주목받지 않는 것일까? 왜 AR의 일상적인 활용 가능성을 두고 사람들은 팀 쿡만큼 흥분하지 않는가? 왜 매일 사용하는 앱들이 AR을 핵심 기능으로 바꾸려고 하지 않는 것일까?

아마도 휴대폰과 태블릿으로 보는 AR은 결코 인기를 얻지 못할 것이기 때문이라고 생각한다. AR로서의 자격을 갖추기엔 매우 부족하며, 인지적 한계와 사용에 있어 거의 극복할 수 없는 어려움이 있다. AR이 가능성을 이루려면, 안경 형태가 적합하다.
 

증강현실의 정의

안경이 AR의 성공에 필수라고 생각하는 이유를 설명하기 전에, 정확히 무엇이 증강현실을 구성하는지에 대한 몇 가지 기본 규칙을 세워야 한다. 

간단히 말하면 AR은 컴퓨터 그래픽을 사용자 주변의 실제 세계에 투영한다. 정확한 규모, 방향, 위치, 약간의 조명이 있는 물체나 효과를 만들어 현실처럼 나타낸다. 현실에서 사용자의 시선이 방향을 바꾸면, 가상으로 만들어낸 규모, 위치, 방향은 시선을 따라 이동하지 않고 현실에 덧입혀진 원래 위치에 그대로 있다. AR 그래픽은 사실적으로 보일 필요는 없지만, 현실의 해당 위치에 자리잡고 있어야 한다. 

사진 공유 앱 중에는 “AR”로 광고되지만 이 기준을 충족하지 않는 몇 가지 특수 효과가 있다. 이는 일반적으로 정확한 규모, 위치, 방향과 관계없이 배경의 어디에나 배치되는 3D 객체일 뿐이다. 



예를 들어 포켓몬고가 출시됐을 때, 포켓몬을 사로잡기 위한 “AR” 모드는 다음과 같이 작동했다. 특정 방향을 향할 때까지 이리저리 돌다가 문 위나 컴퓨터 모니터 위 등에 떠다니는 작은 생물체를 발견하는 것이다. 이후 포켓몬고는 이 기능을 투사도의 기준 평면을 찾고 그 위에 생물체가 올바른 규모와 방향으로 위치하는 “진정한” AR 모드로 업데이트했다. 투사된 객체 주위로 돌아다니며 다양한 거리감을 볼 수도 있다. 현실의 특정 위치에 고정되어 있고 가까이 다가가면 점점 커진다. 
 

휴대폰에서의 AR에 대한 무관심

포켓몬고는 아마 휴대폰에서의 AR에 관심을 가진 사람이 실제로는 별로 없다는 사실을 보여주는 가장 좋은 예일 것이다. 대부분의 미디어는 항상 ‘증강현실 게임’으로 광고했지만 포켓몬고를 인기있게 만든 것은 위치 기반 게임방식이었다. 소위 AR 모드(처음에는 아니었지만)는 항상 선택사항 이었고 대부분의 사용자는 배터리 수명을 절약하기 위해 AR 모드를 껐다. 

포켓몬고는 이제 진짜 AR 모드를 갖추고 생물체를 잡을 수 있으니 사람들이 감명을 받을까? 주요 미디어는 이 기능이 얼마나 몰입도를 높이고 놀라운지 침이 마르도록 칭찬할까? 모든 사용자가 AR 모드를 다시 켰을까? 

아니, 아무도 신경 쓰지 않는다. 사용자는 여전히 AR 모드를 꺼두고 있다.

스냅챗의 춤추는 핫도그든 포켓몬고든, 휴대폰 화면을 통한 증강현실은 사용자에게 그저 장난감에 지나지 않는다는 인식이 널리 퍼져있고 앞으로도 상황에는 큰 변화가 없을 것 같다.
 

AR의 핵심은 현실

증강현실은 세상을 바꿀 만한 엄청난 잠재력을 갖고 있다. 주변의 현실에 컴퓨터 그래픽이 통합된 세상을 상상해보자. 도움이 되지 않는 곳이 거의 없을 것이다. 여행, 건설 및 공장에서의 작업, 소셜 미디어와 데이터 앱, 지도 작성, 별자리 관찰, 온라인과 매장에서의 쇼핑, 장난감, 게임 등 AR이 혁신할 수 있는 분야는 끝이 없다. 

하지만 휴대폰에서의 AR은 현실에 덧입힌 컴퓨터 그래픽이 아니다. 현실의 영상을 컴퓨터 화면에 덧입힌 그래픽이다. 이미 오랫동안 보아온 기술이고 매일 TV에서 볼 수 있다. 눈으로 직접 현실을 보는 것과 평면의 2D 화면을 통해 접하는 것 사이에는 큰 차이가 있다. 

휴대폰에서 AR을 사용할 때, 현실의 넓은 범위가 시야에 들어오며 그 중에 작은 네모 화면이 실시간으로 영상을 보여준다. 핸드폰에서 눈까지의 위치와 거리는 항상 변한다. 또한 화면 밖으로 보이는 색상, 동적인 범위, 초점을 나타내지 않는다. 화면은 실제가 아니므로 실제처럼 보이지 않는다. 작은 화면 밖에 넓은 현실이 보이기 때문이다. 머리와 눈이 조금만 움직여도 화면의 이미지가 적절하게 따라 움직이지 못하기 때문에, 뇌를 속일 수 없다. 
 

휴대폰 기반 AR은 더 발전해도 무용지물

휴대폰에서의 AR은 점점 좋아질 것이다. 소문에 따르면 올해 출시되는 아이패드 프로와 고급형 아이폰은 “TOF(Time of Flight)” 센서를 후면 카메라에 탑재해 증강현실에 필요한 3D 깊이 정보를 더욱 빠르게 만들 수 있다고 한다. 이 제품들은 사진 촬영 기능도 개선되지만, 이는 AR과는 관련이 없다. 

이는 결국 안경을 통한 AR이 널리 도입되는데 필요한 단계일 수도 있다. 개발자가 증강현실을 만들 수 있도록 도구와 소프트웨어를 구축하도록 돕는 것이 중요하다. 그렇다고 해도 (휴대폰을 통한) AR이 우리 일상의 일부가 되는 것은 아니다. 휴대폰이 아무리 AR을 잘한다고 해도, 우리의 뇌는 여전히 너무 많은 신호를 받고 있어서 보고 있는 것이 현실이 아님을 알 수 있다. 



우리는 여전히 눈 앞에서 팔 길이만큼의 거리로 화면을 보고 있을 것이다. 우리가 화면에서 보는 “현실 세계’는 휴대폰 주위로 보이는 실제 세계와 선명도, 조명, 초점, 원근감 측면에서 일치하지 않을 것이다. 또한 작고 평평한 직사각형을 두드리고 쓸어 오르내리면서 상호작용해야 하기에, 우리의 감각은 화면의 컴퓨터 그래픽이 실제가 아니며, “현실”도 아니라는 사실을 뚜렷이 느낄 것이다. 
 

AR를 제대로 만들기

안경이나 고글을 통해 AR을 보면 실제 현실, 실제 광자가 현실의 객체에서 튀어나와, 그 위에 3D 그래픽이 겹쳐지는 것을 볼 수 있다. 머리를 조금이든 크게든 움직이면 우리가 보는 현실은 예상 한데로 바뀐다. 컴퓨터 그래픽이 아니라 현실이기 때문이다. 

안경을 통해서 보면 “가짜” 현실의 제한 밖으로 실제 현실을 볼 수 없다. 주변에 보이는 현실이 있을 뿐이다. 

현재 AR 안경은 컴퓨터 그래픽이 포함된 섹션에 대한 시야가 제한돼 있다. 폭넓은 도입을 장려하기 위해 극복해야할 과제 중 하나지만, 세상을 보는 시야가 그렇게 제한되지는 않고 현실에 더해지는 컴퓨터 그래픽 이미지에 대한 시야만 제한되기 때문에 심각한 결함은 아니다. 보이는 모든 것을 제한하는 가상현실(VR)의 시야와는 전혀 다른 것이다. 

AR이 정말로 대중에게 인기를 얻으려면, 안경이나 고글만 있으면 된다. 실제 세상에 투영된 그래픽을 봐야만 AR이라고 할 수 있다. 그러나 꼭 마이크로소프트의 홀로렌즈처럼 단독으로 사용할 수 있는 기기여야 한다는 뜻은 아니다. 



가장 가능성이 높은 시나리오는 투명 디스플레이와 3D 감지 하드웨어만 포함하는 비교적 작고 가벼운 안경이다. 위치와 방향 데이터를 휴대폰에 전송하면, 여기서 사용자의 시야에 겹쳐질 올바른 그래픽을 만들 것이다. 이 그래픽은 다시 안경으로 전송돼 투명한 디스플레이에 표시된다. 

이 모든 시나리오가 머지않아 이뤄질 것이라 예상하며, 애플의 첫 AR 안경이 사용자 귀 뒤에서 아이폰의 라이트닝 포트까지 연결되는 줄이 있다고 해도 놀라지 않을 것이다. 아이폰을 주머니에 넣은 채로 둘 수도 있지만, AR 환경과 상호작용하기 위한 포인팅 컨트롤러로 사용할 수 있는 가능성도 있다. 

매직 립(Magic Leap)은 프로세싱 코어에 연결된 고글뿐만 아니라 별도의 컨트롤러를 사용한다. 그러나 연결된 줄과 고글이 너무 크고, 별도의 컨트롤러까지 있어서 성공하긴 힘들 것이다. 항상 갖고 다니기엔 부담스럽다. 아이폰을 프로세싱 유닛과 컨트롤러로 만드는 편이 더 낫다. 



결국 칩 생산과 배터리 기술이 발전해, 완전한 독립형 AR 안경이 대중이 수용 할 만큼 작고 가벼워질 것이다. 충분한 품질은 물론이다. 홀로렌즈 2는 기능에 비해 인상적일 정도로 작지만, 여전히 수억 명의 일반 소비자에게는 너무 부피가 크다. 

언제쯤이면 애플 AR 안경을 기대할 수 있을까? 아무도 모른다. 2020년에 비전 기반 제품을 출시한다면 매력적인 마케팅 기회가 되겠지만, 기술이 준비된다고는 아직 상상하기 어렵다. 2021년에 “애플 안경”을 기대하는 건 무리고, 2022년이나 023년이 더 가능성이 높다. 극복해야할 큰 기술적 난제가 있고 가격도 대폭 낮춰야 한다. 매직 립과 홀로렌즈 2는 2,300 달러에서 3,500 달러에 이르며, AR 제품이 고급 휴대폰보다 비싸다면 대중이 수용하는 것은 상상하기 어렵다. editor@itworld.co.kr 


X