AIㆍML / 글로벌 트렌드

‘생성형 AI의 선거 개입을 막아라" 전 세계 선거 대비한 오픈AI의 과제와 대응

Sascha Brodsky | Computerworld 2024.01.18
전 세계 인구의 1/3 이상이 올해 투표를 앞두고 있는 가운데, 오픈AI는 자사 기술이 선거에 미칠 영향에 대한 우려를 완화하기 위해 나섰다. 선거 예정 국가는 미국, 파키스탄, 인도, 남아프리카공화국, 유럽의회 등이다.

오픈AI는 지난 15일 블로그 게시물에서 “우리는 AI 시스템이 안전하게 구축, 배포, 사용될 수 있도록 하고자 한다. 다른 신기술과 마찬가지로 이런 툴에는 장점과 과제가 함께 존재한다. AI 툴은 전례가 없기 때문에 툴이 어떻게 사용되는지 더 많이 배우면서 접근 방식을 발전시켜 나갈 것이다”라고 밝혔다.
 
ⓒ Getty Images Bank



특히 2022년 오픈AI가 챗GPT를 선보인 이후, 생성형 AI 도구가 민주적 절차를 방해할 수 있다는 우려의 목소리가 높아졌다. 챗GPT는 사람처럼 텍스트를 생성할 수 있으며, 달리(DALL-E)는 흔히 ‘딥 페이크’라고 불리는, 조작된 이미지를 생성할 수 있다. 

선거를 대비하는 오픈AI
오픈AI는 특정 선거 관련 문의가 있을 경우 챗GPT가 사용자를 CanIVote.org로 리디렉션할 예정이라고 밝혔다. 또한 달리 기술을 사용해 AI로 생성된 이미지의 투명성을 높이는 데 주력하고 있으며, 관련 사진에 ‘cr’ 아이콘을 표시해 AI로 생성됐음을 알릴 계획이다.

또한 오픈AI는 적절한 출처 및 링크를 포함한 실시간 글로벌 뉴스 보도와 통합해 챗GPT 플랫폼을 강화할 계획이다. 이 계획은 지난해 독일 미디어 대기업 악셀 스프링거(Axel Springer)와 맺은 계약의 연장선상에 있다. 이 계약에 따라 챗GPT 사용자는 악셀 스프링거의 여러 미디어 채널에서 엄선된 글로벌 뉴스 콘텐츠의 요약 버전을 이용할 수 있다.

이 외에도 오픈AI는 이미지가 수정된 후 달리에서 생성된 콘텐츠를 식별하는 기술을 개발하고 있다. 

AI와 정치의 혼합에 높아지는 우려의 목소리
정치권에서 생성형 AI를 어떻게 사용해야 하는지 아직 명확한 규칙은 정해지지 않았다. 지난해 메타는 정치 캠페인 광고에 생성형 AI 도구 사용을 금지하고, 정치인이 광고에 사용할 경우 이를 명시하도록 의무화하겠다고 선언했다. 또한 유튜브는 모든 콘텐츠 제작자가 동영상에 AI로 만든 미디어를 포함해 ‘사실적’이지만 변형된 미디어가 포함됐는지 여부를 공개해야 한다는 입장이다.

한편 미국 연방선거위원회(FCC)는 ‘다른 후보자 및 정당에 대한 허위사실 유포’에 대한 기존 법률을 AI 생성 콘텐츠에 적용할 수 있는지 심의하고 있다. 

노트르담 대학교의 리처드 G. 스타만 평화 연구 교수인 리사 쉬르히는 허위 및 기만적 정보는 항상 선거의 한 요소였다고 말하면서도, 생성형 AI를 사용하면 더 많은 이들이 진짜 같은 거짓 선전을 쉽게 만들어낼 수 있다고 지적했다.

쉬르히는 이미 수십 개 국가에서 수천 명의 인력을 고용해 허위 계정을 만들고, 사기성 게시물을 생성하며 소셜 미디어를 통해 허위 및 기만적 정보를 퍼트리는 사이버 전쟁을 벌이고 있다고 말했다. 예를 들어 슬로바키아의 경우 선거 이틀 전, 한 정치인이 선거를 조작하려는 내용의 가짜 음성 파일이 공개돼 논란을 일으켰다.

“정치 양극화의 타오르는 불에 휘발유를 붓는 격”
쉬르히는 “단순히 허위 정보뿐만 아니라, 문제는 악의적인 행위자가 분노를 불러일으키기 위해 후보자를 감정적으로 묘사할 수 있다는 점이다. AI 봇은 온라인에서 방대한 양의 자료를 스캔해 어떤 유형의 정치 광고가 설득력이 있는지 예측할 수 있다. 이런 의미에서 AI는 이미 타오르고 있는 정치 양극화의 불길에 휘발유를 뿌리는 것과 같다. AI를 사용하면 설득과 여론 조작을 극대화하는 자료도 손쉽게 만들 수 있다”라고 주장했다.

조지워싱턴 대학교의 정치 커뮤니케이션 윤리 프로젝트 책임자인 피터 로게는 생성형 AI 및 자극적인 헤드라인에 대한 주요 우려 사항으로 가짜 뉴스와 이미지를 꼽았다. 또한 유사한 내용의 메시지를 순식간에 끝없이 생성해 세상을 가짜로 가득 채울 수 있는 LLM의 역량이 더 심각한 위협이라고 지적했다.

로게는 “LLM과 생성형 AI는 소셜 미디어, 댓글, 편집자에게 보내는 편지, 캠페인에 보내는 이메일 등을 말도 안 되는 내용으로 가득 채울 수 있다. 이것이 미치는 영향은 최소 3가지다. 우선 정치적 난센스가 기하급수적으로 증가해 더 큰 냉소주의를 부를 수 있다는 점, 그리고 후보자가 실제로 저지른 나쁜 행동까지도 봇에 의해 생성된 허위 내용이라고 부인할 수 있게 됐다는 점, 마지막으로 이제 ‘나, 거짓말하는 당신의 눈, 컴퓨터를 통해 거짓말하는 LLM 중 누구를 믿을 것인가’로 요약되는 새 시대에 접어들었다는 점이다”라고 말했다.

더 강력한 보호 조치가 시급
사이버 보안 기업 마인(Mine)의 CEO 갈 링겔에 따르면 현재 보호 체계는 올해 선거에서 생성형 AI를 막을 만큼 강력하지 않다. 국가의 인프라가 공격을 억제하거나 제거할 수 있다고 해도 온라인에서 생성형 AI가 만든 거짓 정보가 널리 퍼지면 사람들이 선거를 인식하는 방식과 최종 결과에 영향을 미칠 수 있기 때문이다. 

링겔은 “현재 미국에서는 사회에 대한 신뢰가 매우 낮은 수준이다. 악의적 행위자들이 AI를 도입한다면 불균형적으로 강력한 영향을 미칠 수 있다. 더 안전한 인터넷을 구축하는 것보다 빠른 해결책은 없다”라고 강조했다.

카네기멜론 대학교의 사이랩(CyLab) 교수 캐슬린 칼리는 소셜 미디어 업체가 합법적인 담론을 보호하면서 AI 생성 콘텐츠로 인한 피해를 줄이는 정책을 개발해야 한다고 주장했다. 예를 들어 고유 아이콘을 사용해 선거 관리자의 계정을 공개적으로 확인할 수 있다. 또한 기업은 다가오는 선거 결과 또는 현재 진행 중인 선거를 부정하는 광고를 제한하거나 금지해야 한다. 그리고 AI로 생성된 선거 광고에는 이를 명시해 투명성을 높여야 한다.

칼리는 “AI 기술은 끊임없이 진화하고 있으며, 새 안전장치가 필요하다. 또한 AI는 혐오를 퍼뜨리는 사람과 혐오 발언을 식별할 수 있으며, 유권자 교육과 비판적 사고를 돕는 콘텐츠를 만드는 데 도움을 줄 수 있다”라고 덧붙였다. ciokr@idg.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.