2015.07.17

글로벌 칼럼 | 구글이 사회 문제도 해결해야 하는가?

Mike Elgan | Computerworld

사회적인 문제들이 있다. 성차별이나 사회적 낙인찍기, 범죄 등등은 언제나 인류를 괴롭혀 왔다. 하지만 점점 더 많은 조직이 구글에 이런 사회적인 문제를 해결하거나 해결하는 것을 요구하고 있다. 그것도 구글의 핵심 제품인 검색엔진의 품질을 대가로.

몇 가지 예를 들어보자.

성차별
카네기 멜런 대학과 국제컴퓨터공학기구는 애드피셔(AdFisher)라는 소프트웨어를 만들었다. 이 소프트웨어는 구글의 광고 타깃팅을 분석하는데, 여기에는 구인 광고도 포함되어 있다. 그리고 애드피셔는 구글의 타깃 광고가 남성 사용자에게 고연봉 임원 구인 광고를 더 많이 보여준다는 사실을 발견했다.

누구에게 어떤 광고를 보여줄 것인가를 결정하는 것은 두 가지 데이터이다. 하나는 구글이 수집한 사용자 정보이고, 다른 하나는 광고주의 데이터이다. 후자의 데이터는 광고주가 수집한 데이터와 직접 입력한 인구통계학적 정보의 조합으로 이루어져 있다.

구글의 일은 사용자의 신호와 광고주의 신호를 충실하게 받아서 두 집단 간의 커뮤니케이션이 가능하도록 해 주는 것이다.

구글 내의 성차별이 임원 구인 광고의 대상으로 남성에 편향되도록 하는 성차별적인 결과를 낳았거나 기여했을 가능성도 없지는 않다. 만약 그렇다면, 구글은 이런 문제를 가능한 한 신속하게 바로 잡아야 할 것이다.

하지만 진실은 구글의 알고리즘이 우리 사회에 실제로 존재하는 성차별주의를 충실하게 반영한 결과일 가능성이 훨씬 크다.

만약 그렇다면, 구글이 할 수 있는 것은 무엇인가? 구글은 입력 내용에 어떤 편견이나 선입견이 담겨 있든지 그대로 전달하는 “중립적”인 알고리즘을 계속 제공해야 할 것인가? 아니면 사회의 편견에 대응해 이를 교정할 수 있는 사회 공학적인 측면을 알고리즘에 적용해야 할 것인가?

다른 말로 하면, 구글이 성차별적인 내용을 정교하게 균형을 맞춰서 성차별이란 존재하지 않는다는 환상을 만들어 내는 결과물이 되도록 조정해야 한다는 것인가?

사회적 낙인
인터넷은 사회적 낙인의 범위와 영향을 극단적으로 확장해 왔다. 최소한 사람들은 그렇다고 믿는다. (나다니엘 호손의 주홍글씨를 읽으면 그런 생각을 바로잡을 수 있을지도 모르겠다)

유럽연합은 최근 잊힐 권리라는 개념 아래 몇 가지 규제 방안을 도출해 냈다. 이 규제에 따라 구글 같은 검색엔진이 유럽연합 대중에게 특정 검색어를 입력했을 때 나타나는 특정 검색 결과의 삭제를 요청할 수 있는 절차를 제공해야 한다. 특히 공익과 관련이 없는 낙인 정보는 당사자가 삭제를 요청한 후에는 그 사람의 이름으로 검색했을 때 결과 목록에 나타나지 않아야 한다.

예를 들어 한 유럽 사람이 공원에서 호주 원주민의 악기를 연주하는 장면이 지역 신문에 실렸다고 해보자. 당시 이 남자는 젊고 수염과 머리를 길게 기르고 있었다. 몇 년 뒤 이 남자는 악기를 팔고 면도와 이발을 하고 재무 상담사가 된다. 그런데 한 잠재 고객이 구글에서 이 사람의 이름을 검색하니 과거의 히피 같은 지역 신문 사진이 나온 것이다. 이때 이 남자는 구글에 자기 이름의 검색 결과에서 해당 신문으로의 링크를 삭제해 달라고 요청할 수 있고, 법에 따라 구글은 삭제해야만 한다. 좀 황당한 이야기로 들릴지 모르지만, 이것은 어디까지나 실제 사례이다.

구글은 잊힐질 권리와 관련해 수십만 건의 요청을 받았고, 그 중 거의 절반 정도를 받아들였다.

러시아 의회는 이보다 더 강력한 잊힐 권리 법안을 승인했는데, 푸틴 대통령이 서명하면 내년부터 정식 발표된다. 그리고 최근 컨슈머 와치도그란 단체가 FTC에 미국에서도 잊힐 권리 규제를 제정할 것을 요청했다.

범죄
범죄자들은 다양한 방법으로 서로 교신을 하기 때문에 경찰은 이들의 대화를 듣지 못한다. 예를 들어 귓속말을 주고받을 수도 있고, 암구호로 이야기를 나눌 수도 있고, 버너 폰(Burner Phone, 자주 바뀌는 선불 결제 폰)을 이용할 수도 있다. 물론 엔드 투 엔드 암호화가 적용된 텍스트 문자나 이메일을 사용할 수도 있다.

범죄자들이 암호화된 통신을 이용해 국가 안보를 위험하게 만들기도 하지만, 암호화는 여전히 국가 안보를 지키고 범죄를 방지하는 데 유용한 툴이다. 암호화가 없다면, 국가가 지원하는 산업 스파이의 침투를 포함해 해커들이 군대나 기업 등의 기밀을 훔치기 쉬워지고, 이를 이용하기도 쉬워진다. 암호화는 또 ID 절도나 협박, 기타 사기 행위를 포함하는 수많은 범죄를 막는 데 도움이 된다.

하지만 FBI와 미 법무부는 최근 구글이 엔드 투 엔드 암호화를 제공해 국가 안보와 법 집행의 주요 위협 요인이라고 발표했다. 법 집행 기관에 따르면, 해결책은 구글과 여타 업체들이 국가기관이 암호화된 통신을 엿들을 수 있도록 백도어를 만드는 것이다.

문제는 이렇게 만들어진 백도어는 사법기관뿐만 아니라 테러리스트나 범죄자, 적국 기관 등이 해킹이나 스파이 행위를 위해 사용할 수도 있다는 것, 보안 전문가들은 이런 사실을 잘 알고 있지만, FBI와 미 법무부는 모른다.

정리해 보자. 범죄 행위가 있다. 미 사법기관이 이를 해결하기 위해 제안하는 방법은 구글이 자사 제품을 덜 안전하게 만들어 이에 대응하는 것이다. 이런 방법은 구글이 일반 대중이 만족할만한 안전한 통신을 제공할 수 없도록 만든다.



2015.07.17

글로벌 칼럼 | 구글이 사회 문제도 해결해야 하는가?

Mike Elgan | Computerworld

사회적인 문제들이 있다. 성차별이나 사회적 낙인찍기, 범죄 등등은 언제나 인류를 괴롭혀 왔다. 하지만 점점 더 많은 조직이 구글에 이런 사회적인 문제를 해결하거나 해결하는 것을 요구하고 있다. 그것도 구글의 핵심 제품인 검색엔진의 품질을 대가로.

몇 가지 예를 들어보자.

성차별
카네기 멜런 대학과 국제컴퓨터공학기구는 애드피셔(AdFisher)라는 소프트웨어를 만들었다. 이 소프트웨어는 구글의 광고 타깃팅을 분석하는데, 여기에는 구인 광고도 포함되어 있다. 그리고 애드피셔는 구글의 타깃 광고가 남성 사용자에게 고연봉 임원 구인 광고를 더 많이 보여준다는 사실을 발견했다.

누구에게 어떤 광고를 보여줄 것인가를 결정하는 것은 두 가지 데이터이다. 하나는 구글이 수집한 사용자 정보이고, 다른 하나는 광고주의 데이터이다. 후자의 데이터는 광고주가 수집한 데이터와 직접 입력한 인구통계학적 정보의 조합으로 이루어져 있다.

구글의 일은 사용자의 신호와 광고주의 신호를 충실하게 받아서 두 집단 간의 커뮤니케이션이 가능하도록 해 주는 것이다.

구글 내의 성차별이 임원 구인 광고의 대상으로 남성에 편향되도록 하는 성차별적인 결과를 낳았거나 기여했을 가능성도 없지는 않다. 만약 그렇다면, 구글은 이런 문제를 가능한 한 신속하게 바로 잡아야 할 것이다.

하지만 진실은 구글의 알고리즘이 우리 사회에 실제로 존재하는 성차별주의를 충실하게 반영한 결과일 가능성이 훨씬 크다.

만약 그렇다면, 구글이 할 수 있는 것은 무엇인가? 구글은 입력 내용에 어떤 편견이나 선입견이 담겨 있든지 그대로 전달하는 “중립적”인 알고리즘을 계속 제공해야 할 것인가? 아니면 사회의 편견에 대응해 이를 교정할 수 있는 사회 공학적인 측면을 알고리즘에 적용해야 할 것인가?

다른 말로 하면, 구글이 성차별적인 내용을 정교하게 균형을 맞춰서 성차별이란 존재하지 않는다는 환상을 만들어 내는 결과물이 되도록 조정해야 한다는 것인가?

사회적 낙인
인터넷은 사회적 낙인의 범위와 영향을 극단적으로 확장해 왔다. 최소한 사람들은 그렇다고 믿는다. (나다니엘 호손의 주홍글씨를 읽으면 그런 생각을 바로잡을 수 있을지도 모르겠다)

유럽연합은 최근 잊힐 권리라는 개념 아래 몇 가지 규제 방안을 도출해 냈다. 이 규제에 따라 구글 같은 검색엔진이 유럽연합 대중에게 특정 검색어를 입력했을 때 나타나는 특정 검색 결과의 삭제를 요청할 수 있는 절차를 제공해야 한다. 특히 공익과 관련이 없는 낙인 정보는 당사자가 삭제를 요청한 후에는 그 사람의 이름으로 검색했을 때 결과 목록에 나타나지 않아야 한다.

예를 들어 한 유럽 사람이 공원에서 호주 원주민의 악기를 연주하는 장면이 지역 신문에 실렸다고 해보자. 당시 이 남자는 젊고 수염과 머리를 길게 기르고 있었다. 몇 년 뒤 이 남자는 악기를 팔고 면도와 이발을 하고 재무 상담사가 된다. 그런데 한 잠재 고객이 구글에서 이 사람의 이름을 검색하니 과거의 히피 같은 지역 신문 사진이 나온 것이다. 이때 이 남자는 구글에 자기 이름의 검색 결과에서 해당 신문으로의 링크를 삭제해 달라고 요청할 수 있고, 법에 따라 구글은 삭제해야만 한다. 좀 황당한 이야기로 들릴지 모르지만, 이것은 어디까지나 실제 사례이다.

구글은 잊힐질 권리와 관련해 수십만 건의 요청을 받았고, 그 중 거의 절반 정도를 받아들였다.

러시아 의회는 이보다 더 강력한 잊힐 권리 법안을 승인했는데, 푸틴 대통령이 서명하면 내년부터 정식 발표된다. 그리고 최근 컨슈머 와치도그란 단체가 FTC에 미국에서도 잊힐 권리 규제를 제정할 것을 요청했다.

범죄
범죄자들은 다양한 방법으로 서로 교신을 하기 때문에 경찰은 이들의 대화를 듣지 못한다. 예를 들어 귓속말을 주고받을 수도 있고, 암구호로 이야기를 나눌 수도 있고, 버너 폰(Burner Phone, 자주 바뀌는 선불 결제 폰)을 이용할 수도 있다. 물론 엔드 투 엔드 암호화가 적용된 텍스트 문자나 이메일을 사용할 수도 있다.

범죄자들이 암호화된 통신을 이용해 국가 안보를 위험하게 만들기도 하지만, 암호화는 여전히 국가 안보를 지키고 범죄를 방지하는 데 유용한 툴이다. 암호화가 없다면, 국가가 지원하는 산업 스파이의 침투를 포함해 해커들이 군대나 기업 등의 기밀을 훔치기 쉬워지고, 이를 이용하기도 쉬워진다. 암호화는 또 ID 절도나 협박, 기타 사기 행위를 포함하는 수많은 범죄를 막는 데 도움이 된다.

하지만 FBI와 미 법무부는 최근 구글이 엔드 투 엔드 암호화를 제공해 국가 안보와 법 집행의 주요 위협 요인이라고 발표했다. 법 집행 기관에 따르면, 해결책은 구글과 여타 업체들이 국가기관이 암호화된 통신을 엿들을 수 있도록 백도어를 만드는 것이다.

문제는 이렇게 만들어진 백도어는 사법기관뿐만 아니라 테러리스트나 범죄자, 적국 기관 등이 해킹이나 스파이 행위를 위해 사용할 수도 있다는 것, 보안 전문가들은 이런 사실을 잘 알고 있지만, FBI와 미 법무부는 모른다.

정리해 보자. 범죄 행위가 있다. 미 사법기관이 이를 해결하기 위해 제안하는 방법은 구글이 자사 제품을 덜 안전하게 만들어 이에 대응하는 것이다. 이런 방법은 구글이 일반 대중이 만족할만한 안전한 통신을 제공할 수 없도록 만든다.



X