AIㆍML / 클라우드

IDG 블로그 | 클라우드 기반 AI에 윤리 지침이 필요한가

David Linthicum | InfoWorld 2021.03.02
아무 마케터나 붙잡고 물어보라. 제품이나 서비스에 대한 수요를 높이는 것이 자기 일이라고 말할 것이다. 이 때문에 마케터는 광고나 기타 여러 방법을 이용해 브랜드 인지도를 높이고 자사가 판매하는 제품에 대한 욕구를 자극한다.
 
ⓒ Getty Images Bank

요즘 마케팅 업체는 더 영리해져서 소셜 미디어의 영향력 있는 사람을 모집해 자사 제품이나 서비스를 직접적으로 또는 간접적으로 홍보한다. 이 과정에서 대가를 지불했다는 것을 밝히지 않아 논란을 불러일으키곤 한다. 

사람에게 영향을 미치는 기술은 점점 발전하고 있다. 키워드 광고와 같은 전통적인 광고 기법도 AI 기술을 이용하면서 사람의 마음을 바꿔 놓는다. ‘타깃’이 된 사람은 자신의 마음이 바뀌었다는 것도 알지 못한다.

연구자들은 AI를 이용한 음성 생성기 GPT-2가 보여준 과제를 잘 알고 있다. 2019년 오픈AI가 발표한 이 채팅 툴은 어떤 데이터를 입력해도 설득력있고 일관성있는 언어를 생성하는 역량으로 관련 업계를 흥분시켰다. 

GPT-2 등장 직후, 업계 전문가들은 이 강력한 자연어 처리 알고리즘이 사람들이 생각하는 만큼 무해하지 않다고 경고했다. 이 툴이 야기할 수 있는 일련의 위험성이 지적됐는데, 특히 누군가는 이를 무기화해 비윤리적인 일을 할 수 있다는 점이 지적됐다. 가장 큰 우려사항은 GPT-2가 생성한 텍스트가 사람들이 살아오면서 쌓아온 윤리적인 기준을 어기도록 유혹할 수 있다는 것이다.

사람이 의식없이 나쁜 짓을 하는 꼭두각시가 된다는 것은 아니다. 하지만 의사결정에서 회색 영역이 더 늘어난다. 예를 들어, 개인적인 이득을 위해 윤리적인 선을 넘지 않으려는 사람이 있다고 하자. 다른 영업사원의 고객을 빼앗는 것 같은 일은 하지 않을 사람이다. 과연 이런 도덕적인 사람이 인간의 행동에 영향을 미치도록 학습된 AI 시스템에 의해 흔들릴 수 있을까?

클라우드 컴퓨팅은 AI 시스템을 저렴하게 만들었고, 기존 애플리케이션이나 새로운 애플리케이션의 위력을 증폭시키는 데 쉽게 이용할 수 있다. 예를 들어, 영업 처리 시스템은 AI의 영향력을 사용해 구매자가 2% 정도 더 많은 상품을 구매하도록 할 수 있다면, 적은 투자로 수십억 달러의 추가 이윤을 얻을 수 있다는 의미가 된다.

진짜 질문은 “할 수 있다면, 해야만 하는가?”이다.

필자를 대학 시절부터 AI를 다루었는데, AI가 그토록 흥미로운 여러 이유 중 하나는 AI 시스템이 독립적으로 학습하고, 지속적인 학습을 기반으로 행동을 바꾸도록 구성할 수 있다는 점이다. 사람들은 몇 년 전부터 로봇이 지배하는 새로운 세상을 예견했지만, AI는 아직 툴에 불과할 뿐 위협이 되지는 못한다.

AI의 활용과 남용에 대한 가이드라인, 심지어 정부의 규제가 필요하다는 지적이 많지만, 필자는 아직 우리가 그 단계에 도달했다고 보지는 않는다. 앞으로 문제가 될 만한 일부 AI 활용 사례가 등장하겠지만, 이는 과거 수년 동안 스마트폰에서 몰래 사용된 추적 앱과 마찬가지로 자체적으로 규제해야 하는 문제이다. 

만약 기업이나 정부가 이런 기술을 무기화한 사실이 드러나면, 대중의 압력이 메커니즘을 규제하게 될 것이다. 어떤 기술이든 오남용은 지속적으로 감시해야 한다. 필자는 인간의 지능이 기계 지능에 옳은 일을 시킬 것이라고 믿는다. editor@itworld.co.kr
 Tags AI 윤리 규제

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.