2015.09.22

로봇이 지배하는 세상 : 두려움을 극복하고 이를 방지하는 방법

Sharon Gaudin | Computerworld
어떤 사람들은 언젠가 로봇들이 분노하여 반란을 일으키고, 인간을 몰아낼지도 모른다고 걱정한다.

물리학자이자 저자인 스티븐 호킹, 그리고 첨단 기술 기업가 엘론 머스크는 인공 지능과 그 인공 지능으로 움직이게 될 로봇을 두려워해야 할 존재로 본다.

반면 가장 무서운 것은 사람들의 공포와 그로 인한 인공지능 연구 및 기술 발전의 저해라고 말하는 과학자도 있다.

최근 미래 기술을 주제로 열린 DARPA의 ‘웨잇, 왓?(Wait, What?)’ 포럼에서 서던 캘리포니아 대학의 컴퓨터 과학 연구 교수인 욜란다 질은 “무서운 것이라면, 기계보다 사람이 더 무섭다”면서 “내가 걱정하는 것은 수행할 수 있는 연구 유형에 제약이 생기는 것이다. 두려움으로 인해 연구의 폭이 제한되면 그것은 곧 기회의 상실을 의미한다”고 말했다.

질을 비롯한 포럼 참가자들의 목적은 인공지능의 잠재적인 위험이 무엇인지에 대해 논의하고, 위험이 현실화되기 수십 년 전에 미리 보호책을 마련하는 것이다.

논의할 주제는 많다.

캘리포니아 주 버클리 대학 컴퓨터 과학 교수인 트레버 대럴에 따르면 보통 사람들은 일상적인 생활에서 지난 50년보다 앞으로 10년 동안 더 많은 인공지능의 발전을 경험하게 될 것이라고 한다.

현재 인공지능은 구글 검색, 애플의 똑똑한 비서 시리, 아마존의 책 추천 기능 등에서 사람들의 일상에 활용되고 있다.

또한 구글은 자율 운전 자동차를 테스트 중이고, 미국국방부를 대상으로 한 무장 스마트 로봇이 시연되기도 했다.

이 정도로도 이미 공상과학 소설 속 이야기라는 느낌을 받을 수 있겠지만, 지금은 인공지능으로 가득 찬 세계를 향한 시작일 뿐이다. 비전, 자연어 처리, 그리고 기계 학습 분야에서 대대적인 기술 혁신이 다가오고 있기 때문이다.

여기에 빅 데이터 분석, 클라우드 컴퓨팅과 처리 역량의 발전이 결합되면 향후 10년~40년 동안 인공지능은 비약적으로 발전하게 된다.

대럴은 컴퓨터월드(Computerworld)와의 인터뷰에서 “그동안 많은 발전이 이루어졌고 이제는 극적 전환점(tipping point)를 두드리고 있다”면서 “5년~10년 동안 지각을 하는 사람, 또는 상호 의사소통하며 주변 환경에 대한 기본적인 이해를 갖춘 기계가 증가하게 될 것이다. 탈것에 ‘대기열이 가장 짧고 라떼가 가장 맛있는 스타벅스로 가자’고 말만 하면 되는 시대가 올 것”이라고 말했다.

지금은 예를 들어 집안에서 가구를 옮기려면 여러 명의 사람이 필요하다. 그러나 인공지능과 로봇 공학을 통해 앞으로 10년 정도만 지나면 주인의 목소리를 이해하고 주인이 원하는 곳으로 스스로 이동하는 가구가 등장하게 될 수도 있다.

이렇게 편리한 것과는 별개로, 어떤 사람들은 그만큼 똑똑하고 강력한 힘을 갖춘 기계를 사람이 어떻게 계속 통제하에 둘 수 있을지를 걱정한다. 인간은 어떻게 로봇에 대한 통제력과 안전을 유지할 수 있을까?

오리건 주립 대학 지능형 시스템 교수인 톰 디트리치는 “두려움은 인공지능 시스템에 대한 통제력 상실에 대한 것”이라며 “인공지능에 버그가 있어 경제나 사람들에게 피해를 준다면? 전원을 끌 방법이 없다면? 우리는 이러한 시스템에 대한 통제력을 유지해야 한다. 통제력을 유지하고 안전을 담보하기 위한 수학적 이론을 구축해야 한다”고 말했다.

우호적인 행동을 완벽히 보장할 수 있을 만큼 인공지능 시스템을 치밀하게 통제할 수 있을까? 어려울 수도 있다.

디트리치는 현재 인공지능 소프트웨어를 검증, 확인하거나 일종의 안전 보장을 부여하는 방법을 연구되고 있다고 말했다.

디트리치는 인공지능 시스템에 대한 사이버 공격을 차단할 방법, 공격이 시행될 경우 사람과 디지털 네트워크 모두에 경고하는 방법을 찾는 데 연구력을 집중해야 한다고 말했다.

또한, 디트리치는 완전한 자율 인공지능 시스템은 결코 만들어서는 안 된다고 경고했다. 사람들은 기계가 자신을 완벽히 통제하는 것을 원하지는 않는다.

대럴 역시 동조하며 연구자들은 궁극적으로 사람에게 통제력을 남겨 두는 예비 시스템을 구축해야 한다고 말했다.

대럴은 “사람과 기계 시스템은 상황을 계속 통제할 수 있어야 한다. 해커 무리가 기습적으로 세계의 모든 자동차를 점유하여 사고를 일으킬 수 없도록 보호책을 마련해야 하듯이, 인공지능 시스템에 대한 차단책도 구축해야 한다. 단일 장애 지점이 발생해서는 안 된다. 견제와 균형이 필요하다”고 말했다.

USC의 질은 점점 더 똑똑해지는 시스템을 다룰 방법을 고안하기 위해서는 개발팀에 엔지니어와 개발자뿐만 아니라 앞으로 변호사도 포함해야 한다고 말했다.

질은 “스스로 의사 결정을 내리면서 복잡하고 지능적인 기능을 사용할 수 있는 기계가 등장하게 되면 그에 대한 책임과 법적인 틀도 생각해야 한다”면서 “지금은 그런 것들이 전혀 없다. 기술자만 있고 법학자는 없다. 이 두 가지 측면을 앞으로 연구해야 한다”고 말했다.

디트리치는 인공 지능은 좋은 것을 더 좋게, 나쁜 것을 더 나쁘게 만드는 기술이므로 많은 준비가 필요하며 기술 발전에 앞서가기 위해 다양한 생각을 하는 사람이 필요하다고 말했다.

디트리치는 “스마트 소프트웨어도 소프트웨어일 뿐이다. 당연히 버그가 있고 사이버 공격도 받을 것이다. 인공지능 기술을 사용해 소프트웨어를 구축하는 경우 부가적인 과제까지 따른다. 불완전한 자율 시스템을 안전하게 만드는 방법이 무엇인지 찾아야 한다”고 강조했다.

호킹과 머스크는 인공지능으로 인해 인류의 멸종으로 이어질 가능성도 있다고 말하지만 디트리치, 질, 대럴은 인공 지능이 문턱 현상(threshold phenomenon)으로 발전하지는 않는다는 점을 지적했다.

디트리치는 “오늘은 인간에 비해 훨씬 약한 존재였다가 내일 갑자기 인간보다 훨씬 더 강력한 힘을 갖게 되지는 않는다”면서 “어느 날 아침에 일어나 어제까지 없었던 초고지능과 자각, 의식을 갖춘 인공 지능을 맞닥뜨리게 될 일은 없다”고 말했다.

한편 대럴은 이 문제에 대한 토론이 이루어질 정도로 많은 사람이 우려한다는 점은 긍정적이라고 말했다.

대럴은 “각 요소마다 위험이 있다”면서 “완전 자율의 위험은 공상과학 소설에 나오는 것과 같이 상상 속의 로봇이나 외계 종족에게 통제권을 넘겨주게 되는 것이다. 기술을 사용하지 않기로 결정하는 데서 발생하는 위험은 뒤쳐진다는 것이다. 단순한 답은 없지만 단순한 두려움도 없다. 무턱대고 모든 것을 두려워해서는 안 된다”고 말했다. editor@itworld.co.kr


2015.09.22

로봇이 지배하는 세상 : 두려움을 극복하고 이를 방지하는 방법

Sharon Gaudin | Computerworld
어떤 사람들은 언젠가 로봇들이 분노하여 반란을 일으키고, 인간을 몰아낼지도 모른다고 걱정한다.

물리학자이자 저자인 스티븐 호킹, 그리고 첨단 기술 기업가 엘론 머스크는 인공 지능과 그 인공 지능으로 움직이게 될 로봇을 두려워해야 할 존재로 본다.

반면 가장 무서운 것은 사람들의 공포와 그로 인한 인공지능 연구 및 기술 발전의 저해라고 말하는 과학자도 있다.

최근 미래 기술을 주제로 열린 DARPA의 ‘웨잇, 왓?(Wait, What?)’ 포럼에서 서던 캘리포니아 대학의 컴퓨터 과학 연구 교수인 욜란다 질은 “무서운 것이라면, 기계보다 사람이 더 무섭다”면서 “내가 걱정하는 것은 수행할 수 있는 연구 유형에 제약이 생기는 것이다. 두려움으로 인해 연구의 폭이 제한되면 그것은 곧 기회의 상실을 의미한다”고 말했다.

질을 비롯한 포럼 참가자들의 목적은 인공지능의 잠재적인 위험이 무엇인지에 대해 논의하고, 위험이 현실화되기 수십 년 전에 미리 보호책을 마련하는 것이다.

논의할 주제는 많다.

캘리포니아 주 버클리 대학 컴퓨터 과학 교수인 트레버 대럴에 따르면 보통 사람들은 일상적인 생활에서 지난 50년보다 앞으로 10년 동안 더 많은 인공지능의 발전을 경험하게 될 것이라고 한다.

현재 인공지능은 구글 검색, 애플의 똑똑한 비서 시리, 아마존의 책 추천 기능 등에서 사람들의 일상에 활용되고 있다.

또한 구글은 자율 운전 자동차를 테스트 중이고, 미국국방부를 대상으로 한 무장 스마트 로봇이 시연되기도 했다.

이 정도로도 이미 공상과학 소설 속 이야기라는 느낌을 받을 수 있겠지만, 지금은 인공지능으로 가득 찬 세계를 향한 시작일 뿐이다. 비전, 자연어 처리, 그리고 기계 학습 분야에서 대대적인 기술 혁신이 다가오고 있기 때문이다.

여기에 빅 데이터 분석, 클라우드 컴퓨팅과 처리 역량의 발전이 결합되면 향후 10년~40년 동안 인공지능은 비약적으로 발전하게 된다.

대럴은 컴퓨터월드(Computerworld)와의 인터뷰에서 “그동안 많은 발전이 이루어졌고 이제는 극적 전환점(tipping point)를 두드리고 있다”면서 “5년~10년 동안 지각을 하는 사람, 또는 상호 의사소통하며 주변 환경에 대한 기본적인 이해를 갖춘 기계가 증가하게 될 것이다. 탈것에 ‘대기열이 가장 짧고 라떼가 가장 맛있는 스타벅스로 가자’고 말만 하면 되는 시대가 올 것”이라고 말했다.

지금은 예를 들어 집안에서 가구를 옮기려면 여러 명의 사람이 필요하다. 그러나 인공지능과 로봇 공학을 통해 앞으로 10년 정도만 지나면 주인의 목소리를 이해하고 주인이 원하는 곳으로 스스로 이동하는 가구가 등장하게 될 수도 있다.

이렇게 편리한 것과는 별개로, 어떤 사람들은 그만큼 똑똑하고 강력한 힘을 갖춘 기계를 사람이 어떻게 계속 통제하에 둘 수 있을지를 걱정한다. 인간은 어떻게 로봇에 대한 통제력과 안전을 유지할 수 있을까?

오리건 주립 대학 지능형 시스템 교수인 톰 디트리치는 “두려움은 인공지능 시스템에 대한 통제력 상실에 대한 것”이라며 “인공지능에 버그가 있어 경제나 사람들에게 피해를 준다면? 전원을 끌 방법이 없다면? 우리는 이러한 시스템에 대한 통제력을 유지해야 한다. 통제력을 유지하고 안전을 담보하기 위한 수학적 이론을 구축해야 한다”고 말했다.

우호적인 행동을 완벽히 보장할 수 있을 만큼 인공지능 시스템을 치밀하게 통제할 수 있을까? 어려울 수도 있다.

디트리치는 현재 인공지능 소프트웨어를 검증, 확인하거나 일종의 안전 보장을 부여하는 방법을 연구되고 있다고 말했다.

디트리치는 인공지능 시스템에 대한 사이버 공격을 차단할 방법, 공격이 시행될 경우 사람과 디지털 네트워크 모두에 경고하는 방법을 찾는 데 연구력을 집중해야 한다고 말했다.

또한, 디트리치는 완전한 자율 인공지능 시스템은 결코 만들어서는 안 된다고 경고했다. 사람들은 기계가 자신을 완벽히 통제하는 것을 원하지는 않는다.

대럴 역시 동조하며 연구자들은 궁극적으로 사람에게 통제력을 남겨 두는 예비 시스템을 구축해야 한다고 말했다.

대럴은 “사람과 기계 시스템은 상황을 계속 통제할 수 있어야 한다. 해커 무리가 기습적으로 세계의 모든 자동차를 점유하여 사고를 일으킬 수 없도록 보호책을 마련해야 하듯이, 인공지능 시스템에 대한 차단책도 구축해야 한다. 단일 장애 지점이 발생해서는 안 된다. 견제와 균형이 필요하다”고 말했다.

USC의 질은 점점 더 똑똑해지는 시스템을 다룰 방법을 고안하기 위해서는 개발팀에 엔지니어와 개발자뿐만 아니라 앞으로 변호사도 포함해야 한다고 말했다.

질은 “스스로 의사 결정을 내리면서 복잡하고 지능적인 기능을 사용할 수 있는 기계가 등장하게 되면 그에 대한 책임과 법적인 틀도 생각해야 한다”면서 “지금은 그런 것들이 전혀 없다. 기술자만 있고 법학자는 없다. 이 두 가지 측면을 앞으로 연구해야 한다”고 말했다.

디트리치는 인공 지능은 좋은 것을 더 좋게, 나쁜 것을 더 나쁘게 만드는 기술이므로 많은 준비가 필요하며 기술 발전에 앞서가기 위해 다양한 생각을 하는 사람이 필요하다고 말했다.

디트리치는 “스마트 소프트웨어도 소프트웨어일 뿐이다. 당연히 버그가 있고 사이버 공격도 받을 것이다. 인공지능 기술을 사용해 소프트웨어를 구축하는 경우 부가적인 과제까지 따른다. 불완전한 자율 시스템을 안전하게 만드는 방법이 무엇인지 찾아야 한다”고 강조했다.

호킹과 머스크는 인공지능으로 인해 인류의 멸종으로 이어질 가능성도 있다고 말하지만 디트리치, 질, 대럴은 인공 지능이 문턱 현상(threshold phenomenon)으로 발전하지는 않는다는 점을 지적했다.

디트리치는 “오늘은 인간에 비해 훨씬 약한 존재였다가 내일 갑자기 인간보다 훨씬 더 강력한 힘을 갖게 되지는 않는다”면서 “어느 날 아침에 일어나 어제까지 없었던 초고지능과 자각, 의식을 갖춘 인공 지능을 맞닥뜨리게 될 일은 없다”고 말했다.

한편 대럴은 이 문제에 대한 토론이 이루어질 정도로 많은 사람이 우려한다는 점은 긍정적이라고 말했다.

대럴은 “각 요소마다 위험이 있다”면서 “완전 자율의 위험은 공상과학 소설에 나오는 것과 같이 상상 속의 로봇이나 외계 종족에게 통제권을 넘겨주게 되는 것이다. 기술을 사용하지 않기로 결정하는 데서 발생하는 위험은 뒤쳐진다는 것이다. 단순한 답은 없지만 단순한 두려움도 없다. 무턱대고 모든 것을 두려워해서는 안 된다”고 말했다. editor@itworld.co.kr


X