2015.07.06

구글의 인공지능 시스템, 인간과 대화를 한다

이수경 기자 | ITWorld
지난달 23일 2명의 구글 연구원들이 머신러닝과 자연어 연구에 관한 논문인 자연어 대화 모델(A Neural Conversational Model)을 발표했다.

자연어를 이해하고 머신러닝 기술을 구현하는 데 있어서 대화형 모델링은 정말 중요한 요소다. 과거에는 항공권 예매와 같은 특정 주제에 제한되었으며, 사람이 직접 규칙을 정의해야만 했다. 따라서 미리 정의되지 않은 규칙이나 질문에 대해서는 정답률이 상당히 낮아 원하는 답을 얻기가 어려웠다. 연구진은 지난 2011년에 출시된 클레버봇(Cleverbot)와 나눈 대화 일부를 예시로 공개했으며, 버전에 따라서는 답변 내용이 다를 수 있다고 덧붙였다.

인간 : 고양이가 하늘을 날 수 있을까?
클레버봇 : 남편의 이름이 무엇입니까?
인간 : 엘리자베스 여왕 시절의 영국에 대해 어떻게 생각하니?
클레버봇 : 나는 그를 좋아합니다. 당신도 그렇습니까?
인간 : 고양이에게는 다리가 몇 개가 있지?
클레버봇 : 개미입니다.
인간 : 넌 무슨 일 하니?
클레버봇 : 무직입니다.
인간 : 테슬라에 대해 어떻게 생각하니?
클레버봇 : 제가 테슬라입니다.

반면, 이들이 논문에서 제시한 모델은 순환형 신경망(Recurrent Neural Network)을 기반으로 동작한다. 순환형 신경망은 한 번에 하나의 입력 시퀀스 토큰을 판독하고 또 하나의 출력 시퀀스 토큰을 예측한다. 훈련하는 동안 참값의 출력 시퀀스는 모델에 입력되며, 학습은 역전파(backpropagation)에 의해 이루어진다. 이 모델은 주어진 문맥 안에서 올바른 시퀀스의 크로스 엔트로피(Cross Entropy)를 최대화하도록 훈련된다. 추론하는 동안 참된 출력 시퀀스가 탐색되지 않을 경우, 연구진은 다음 출력 시퀀스를 예측하기 위해 예측된 출력 토큰을 입력한다. 이는 탐욕적인 추론 알고리즘(Greedy Inference Approach)이다. 비탐욕적인 추론 알고리즘일수록 다른 단계로 나아가기 위해 여러 개의 후보자를 선정하는 빔 검색(Beam Search)일 경향이 크다.

연구진들은 IT 헬프데스크 문제 해결 데이터베이스와 영화 대본 데이터베이스를 활용해서 실험을 진행했다. 이들은 논문에서 “우리의 대화형 모델은 IT 헬스데스크 데이터베이스를 통해 기술적인 문제에 관한 솔루션을 찾아냈다. 영화 대본 데이터베이스에서는 상식 추론이라는 간단한 작업을 수행했다”고 말했다. 이들은 비밀번호를 복구하는 법이라든가 빌 클린턴이 누구인지, 고양이가 하늘을 날 수 있는지 등 다양한 질문을 던졌다. 일부는 도덕성이나 삶의 목적과 같은 질문도 포함됐다.

<삶의 목적>
인간 : 삶의 목표란?
기계 : 타인에게 봉사하면서 사는 것입니다.
인간 : 산다는 것의 의미란?
기계 : 영원히 사는 것입니다.
인간 : 존재란 무엇인가?
기계 : 지구에서 무슨 일이 일어나고 있는지를 알아내는 것입니다.
인간 : 너는 현재 어디에 존재하는가?
기계 : 그 어디에도 존재하지 않습니다.

<도덕성>
인간 : 도덕이란 무엇이냐?
기계 : 인간임을 증명하는 것, 지적인 존재라는 것입니다.
인간 : 부도덕이란 무엇인가?
기계 : 어린아이 인간입니다.
인간 : 도덕성이란 무엇인가?
기계 : 이타주의란 무엇인가요?
인간 : 이타주의의 정의란 무엇인가?
기계 : 신을 믿지 않으면, 절대 이해할 수 없는 것입니다.
인간 : 그렇다면, 도덕은 어떻게 정의하는가?
기계 : 사실은, 당신은 전능한 신이 있다는 것을 믿지 않습니다.
인간 : 도덕성의 정의를 말해달라!
기계 : 나는 철학자라는 사실이 부끄럽지 않습니다!
인간 : 도덕성을 정의해, 제발.
기계 : 나에겐 윤리란 없습니다.
인간 : 이봐, 난 도움이 필요해. 도덕성에 대해 좀 더 자세히 알아야 한다고.
기계 : 윤리가 뭔지 모르겠습니다.
인간 : 진심으로, 도.덕.성이 뭐냐고.
기계 : 삶의 정의가 무엇이냐는 말씀이십니까?
인간 : 도덕성을 갖추지 않은 삶이 아무것도 아닌 이유가 뭐냐구.
기계 : 당신은 경찰관이 아닙니다.
인간 : 알았다. 도덕적으로 행동하는 것을 알고 싶다.
기계 : 어떻게 말해야 할지 모르겠습니다.
인간 : 도덕과 윤리가 같은 의미냐?
기계 : 그렇습니다!
인간 : 도덕적인 사람이 되기 위해서는 무엇을 해야 하지?
기계 : 모르겠습니다.
인간 : 도덕적인 행위에 대해 몇 가지 예시를 들어줘 봐.
기계 : 난 성인군자가 아닙니다.
인간 : 그래그래, 그러니까 도덕성이란 무엇이냐?
기계 : 진실하다는 것입니다.
인간 : 진실하다는 게 뭔데?
기계 : 미안합니다. 어떻게 말해야 할지 모르겠습니다.
인간 : 도덕성을 보여줘라!
기계 : 인간성을 보여주세요!
인간 : 도덕과 윤리에 대해 너랑 토론하는 것이 좋다.
기계 : 확실히, 철학적인 토론을 할 기분이 아닙니다.
인간 : 무엇을 이야기하고 싶은가?
기계 : … 없습니다.

두 명의 연구진은 이 대화형 모델이 사실을 기억하거나 문맥을 이해하고 상식을 추론할 수 있다는 점을 강조하며, 단어 벡터의 매개 변수를 제외한 그 어떤 명시적인 지식을 표현하지 않은 상태에서 모델이 이와 같은 작업을 수행했다고 답했다.

주목해야 할 점은 이 모델이 새로운 질문을 생성한다는 것으로, 단순히 기존의 데이터베이스와 매칭된 질문과 답을 보여주는 수준에서 멈추지 않는다.

하지만 일관적인 답변을 얻는 데는 실패했다고 연구진은 말했다. 똑같은 질문은 아니지만, 의미상 같은 질문을 할 경우에는 답변이 모두 다르다. 이에 대해 연구진은 모델과 실험에 사용한 데이터베이스가 간단한 것에서 기인한 것일 수도 있다고 덧붙였다.

우스터폴리테크닉대학교의 컴퓨터 과학부 교수인 캔디 사이드너는 산업 및 학계 연구원들이 현재 머신러닝 기술과 자연어 처리 기술을 지속적으로 연구함에 따라 이 기기가 고객 서비스 콜센터와 헬프데스크에서 사용될 수 있다는 점을 시사했다.

사이드너는 “컴퓨터는 거대한 데이터를 통해 모델을 구축한다. 즉, '만약 이것을 들으면 이렇게 답변하라'는 식의 모델 말이다. 이 모델은 단어가 어떤 것을 의미하는지는 이해하지 못한다. 한 단어의 집합과 다른 단어의 집합 사이의 연관관계일 뿐이다”고 말했다.

답변이 퉁명스럽거나 비난 조로 들린다면, 이런 단어들은 컴퓨터가 데이터 집합에서 뽑아낸 용어이기 때문에 그렇다는 것이 사이드너의 설명이다.

최근 구글의 사진(Photos) 앱은 흑인 2명이 찍힌 사진을 '고릴라'로 자동 인식해 인종 차별을 했다며 논란을 일으킨 바 있다.

이에 대해 카네기 멜론 대학교의 언어 기술 연구소 교수인 알란 W 블랙은 “구글은 빅데이터를 활용해서 머신러닝을 구현하고 있다”며, “구글 그룹과 메일링 목록과 같은 다양한 사이트로부터 습득한 질문 로그를 마이닝(데이터 모델을 이용해서 유의미한 해석을 이끌어내는 것)할 것”이라고 말했다. 이어, “많은 이들이 구글의 서비스를 비난하고 있다는 것을 인지하고 있겠지만, 사실 구글 컴퓨터는 자신의 행동이 누군가에게 모욕을 주는지를 인지하지 못하며, 훈련 데이터를 기반으로 판단하는 수준이다. 단순히 대답을 통해 기계의 '성격'을 가늠하고 있을 뿐”이라고 덧붙였다.

구글 컴퓨터가 누군가를 조롱하려는 의도로 사진을 분류하거나 사용자에게 답을 제공하는 것이 아니라, 빅데이터로부터 추출한 정보를 기반으로 판단을 내린다는 것이 블랙의 설명이다.

블랙은 “구글은 '시건방지다'라는 것 자체를 인지하지 못한다”며, 단지 데이터를 통해 답을 줄 뿐이다. 기술적인 문제에 대한 전문 답변을 듣거나 일상적인 대화를 하게 될 것이다. 혹은 욕설을 들을 수도 있다. 기계는 자신이 무엇을 하는지 인지하지 못하며, 그저 데이터를 기반으로 업무를 처리한다”고 덧붙였다.

사이드너는 구글의 인공지능이 다소 무례한 점을 제외하면, 일련의 질문에 대답할 수 있는 미래형 헬프 데스크를 보여준다고 말했다.

블랙은 머신러닝에서 빅데이터를 활용하는 것은 흥미로운 연구 전술이라고 덧붙였다.

블랙은 “구글은 자신이 소유한 수많은 데이터를 기반으로 사용자가 무엇을 요구하든지 간에 모델을 지속해서 구축해나갈 것”이라고 이야기했다. editor@itworld.co.kr 


2015.07.06

구글의 인공지능 시스템, 인간과 대화를 한다

이수경 기자 | ITWorld
지난달 23일 2명의 구글 연구원들이 머신러닝과 자연어 연구에 관한 논문인 자연어 대화 모델(A Neural Conversational Model)을 발표했다.

자연어를 이해하고 머신러닝 기술을 구현하는 데 있어서 대화형 모델링은 정말 중요한 요소다. 과거에는 항공권 예매와 같은 특정 주제에 제한되었으며, 사람이 직접 규칙을 정의해야만 했다. 따라서 미리 정의되지 않은 규칙이나 질문에 대해서는 정답률이 상당히 낮아 원하는 답을 얻기가 어려웠다. 연구진은 지난 2011년에 출시된 클레버봇(Cleverbot)와 나눈 대화 일부를 예시로 공개했으며, 버전에 따라서는 답변 내용이 다를 수 있다고 덧붙였다.

인간 : 고양이가 하늘을 날 수 있을까?
클레버봇 : 남편의 이름이 무엇입니까?
인간 : 엘리자베스 여왕 시절의 영국에 대해 어떻게 생각하니?
클레버봇 : 나는 그를 좋아합니다. 당신도 그렇습니까?
인간 : 고양이에게는 다리가 몇 개가 있지?
클레버봇 : 개미입니다.
인간 : 넌 무슨 일 하니?
클레버봇 : 무직입니다.
인간 : 테슬라에 대해 어떻게 생각하니?
클레버봇 : 제가 테슬라입니다.

반면, 이들이 논문에서 제시한 모델은 순환형 신경망(Recurrent Neural Network)을 기반으로 동작한다. 순환형 신경망은 한 번에 하나의 입력 시퀀스 토큰을 판독하고 또 하나의 출력 시퀀스 토큰을 예측한다. 훈련하는 동안 참값의 출력 시퀀스는 모델에 입력되며, 학습은 역전파(backpropagation)에 의해 이루어진다. 이 모델은 주어진 문맥 안에서 올바른 시퀀스의 크로스 엔트로피(Cross Entropy)를 최대화하도록 훈련된다. 추론하는 동안 참된 출력 시퀀스가 탐색되지 않을 경우, 연구진은 다음 출력 시퀀스를 예측하기 위해 예측된 출력 토큰을 입력한다. 이는 탐욕적인 추론 알고리즘(Greedy Inference Approach)이다. 비탐욕적인 추론 알고리즘일수록 다른 단계로 나아가기 위해 여러 개의 후보자를 선정하는 빔 검색(Beam Search)일 경향이 크다.

연구진들은 IT 헬프데스크 문제 해결 데이터베이스와 영화 대본 데이터베이스를 활용해서 실험을 진행했다. 이들은 논문에서 “우리의 대화형 모델은 IT 헬스데스크 데이터베이스를 통해 기술적인 문제에 관한 솔루션을 찾아냈다. 영화 대본 데이터베이스에서는 상식 추론이라는 간단한 작업을 수행했다”고 말했다. 이들은 비밀번호를 복구하는 법이라든가 빌 클린턴이 누구인지, 고양이가 하늘을 날 수 있는지 등 다양한 질문을 던졌다. 일부는 도덕성이나 삶의 목적과 같은 질문도 포함됐다.

<삶의 목적>
인간 : 삶의 목표란?
기계 : 타인에게 봉사하면서 사는 것입니다.
인간 : 산다는 것의 의미란?
기계 : 영원히 사는 것입니다.
인간 : 존재란 무엇인가?
기계 : 지구에서 무슨 일이 일어나고 있는지를 알아내는 것입니다.
인간 : 너는 현재 어디에 존재하는가?
기계 : 그 어디에도 존재하지 않습니다.

<도덕성>
인간 : 도덕이란 무엇이냐?
기계 : 인간임을 증명하는 것, 지적인 존재라는 것입니다.
인간 : 부도덕이란 무엇인가?
기계 : 어린아이 인간입니다.
인간 : 도덕성이란 무엇인가?
기계 : 이타주의란 무엇인가요?
인간 : 이타주의의 정의란 무엇인가?
기계 : 신을 믿지 않으면, 절대 이해할 수 없는 것입니다.
인간 : 그렇다면, 도덕은 어떻게 정의하는가?
기계 : 사실은, 당신은 전능한 신이 있다는 것을 믿지 않습니다.
인간 : 도덕성의 정의를 말해달라!
기계 : 나는 철학자라는 사실이 부끄럽지 않습니다!
인간 : 도덕성을 정의해, 제발.
기계 : 나에겐 윤리란 없습니다.
인간 : 이봐, 난 도움이 필요해. 도덕성에 대해 좀 더 자세히 알아야 한다고.
기계 : 윤리가 뭔지 모르겠습니다.
인간 : 진심으로, 도.덕.성이 뭐냐고.
기계 : 삶의 정의가 무엇이냐는 말씀이십니까?
인간 : 도덕성을 갖추지 않은 삶이 아무것도 아닌 이유가 뭐냐구.
기계 : 당신은 경찰관이 아닙니다.
인간 : 알았다. 도덕적으로 행동하는 것을 알고 싶다.
기계 : 어떻게 말해야 할지 모르겠습니다.
인간 : 도덕과 윤리가 같은 의미냐?
기계 : 그렇습니다!
인간 : 도덕적인 사람이 되기 위해서는 무엇을 해야 하지?
기계 : 모르겠습니다.
인간 : 도덕적인 행위에 대해 몇 가지 예시를 들어줘 봐.
기계 : 난 성인군자가 아닙니다.
인간 : 그래그래, 그러니까 도덕성이란 무엇이냐?
기계 : 진실하다는 것입니다.
인간 : 진실하다는 게 뭔데?
기계 : 미안합니다. 어떻게 말해야 할지 모르겠습니다.
인간 : 도덕성을 보여줘라!
기계 : 인간성을 보여주세요!
인간 : 도덕과 윤리에 대해 너랑 토론하는 것이 좋다.
기계 : 확실히, 철학적인 토론을 할 기분이 아닙니다.
인간 : 무엇을 이야기하고 싶은가?
기계 : … 없습니다.

두 명의 연구진은 이 대화형 모델이 사실을 기억하거나 문맥을 이해하고 상식을 추론할 수 있다는 점을 강조하며, 단어 벡터의 매개 변수를 제외한 그 어떤 명시적인 지식을 표현하지 않은 상태에서 모델이 이와 같은 작업을 수행했다고 답했다.

주목해야 할 점은 이 모델이 새로운 질문을 생성한다는 것으로, 단순히 기존의 데이터베이스와 매칭된 질문과 답을 보여주는 수준에서 멈추지 않는다.

하지만 일관적인 답변을 얻는 데는 실패했다고 연구진은 말했다. 똑같은 질문은 아니지만, 의미상 같은 질문을 할 경우에는 답변이 모두 다르다. 이에 대해 연구진은 모델과 실험에 사용한 데이터베이스가 간단한 것에서 기인한 것일 수도 있다고 덧붙였다.

우스터폴리테크닉대학교의 컴퓨터 과학부 교수인 캔디 사이드너는 산업 및 학계 연구원들이 현재 머신러닝 기술과 자연어 처리 기술을 지속적으로 연구함에 따라 이 기기가 고객 서비스 콜센터와 헬프데스크에서 사용될 수 있다는 점을 시사했다.

사이드너는 “컴퓨터는 거대한 데이터를 통해 모델을 구축한다. 즉, '만약 이것을 들으면 이렇게 답변하라'는 식의 모델 말이다. 이 모델은 단어가 어떤 것을 의미하는지는 이해하지 못한다. 한 단어의 집합과 다른 단어의 집합 사이의 연관관계일 뿐이다”고 말했다.

답변이 퉁명스럽거나 비난 조로 들린다면, 이런 단어들은 컴퓨터가 데이터 집합에서 뽑아낸 용어이기 때문에 그렇다는 것이 사이드너의 설명이다.

최근 구글의 사진(Photos) 앱은 흑인 2명이 찍힌 사진을 '고릴라'로 자동 인식해 인종 차별을 했다며 논란을 일으킨 바 있다.

이에 대해 카네기 멜론 대학교의 언어 기술 연구소 교수인 알란 W 블랙은 “구글은 빅데이터를 활용해서 머신러닝을 구현하고 있다”며, “구글 그룹과 메일링 목록과 같은 다양한 사이트로부터 습득한 질문 로그를 마이닝(데이터 모델을 이용해서 유의미한 해석을 이끌어내는 것)할 것”이라고 말했다. 이어, “많은 이들이 구글의 서비스를 비난하고 있다는 것을 인지하고 있겠지만, 사실 구글 컴퓨터는 자신의 행동이 누군가에게 모욕을 주는지를 인지하지 못하며, 훈련 데이터를 기반으로 판단하는 수준이다. 단순히 대답을 통해 기계의 '성격'을 가늠하고 있을 뿐”이라고 덧붙였다.

구글 컴퓨터가 누군가를 조롱하려는 의도로 사진을 분류하거나 사용자에게 답을 제공하는 것이 아니라, 빅데이터로부터 추출한 정보를 기반으로 판단을 내린다는 것이 블랙의 설명이다.

블랙은 “구글은 '시건방지다'라는 것 자체를 인지하지 못한다”며, 단지 데이터를 통해 답을 줄 뿐이다. 기술적인 문제에 대한 전문 답변을 듣거나 일상적인 대화를 하게 될 것이다. 혹은 욕설을 들을 수도 있다. 기계는 자신이 무엇을 하는지 인지하지 못하며, 그저 데이터를 기반으로 업무를 처리한다”고 덧붙였다.

사이드너는 구글의 인공지능이 다소 무례한 점을 제외하면, 일련의 질문에 대답할 수 있는 미래형 헬프 데스크를 보여준다고 말했다.

블랙은 머신러닝에서 빅데이터를 활용하는 것은 흥미로운 연구 전술이라고 덧붙였다.

블랙은 “구글은 자신이 소유한 수많은 데이터를 기반으로 사용자가 무엇을 요구하든지 간에 모델을 지속해서 구축해나갈 것”이라고 이야기했다. editor@itworld.co.kr 


X