AIㆍML

"거짓말도 사람만큼 잘한다" 생성형 AI, 소셜 미디어 흉내에 효과적

Manfred Bremmer | COMPUTERWOCHE 2023.07.25
2022년 11월 챗GPT가 일반에 공개되면서 생성형 AI가 신뢰할 수 있고 때로는 놀라울 정도로 자연스러운 텍스트를 작성할 수 있다는 사실이 널리 알려졌다. 문제는 GPT-3와 같은 생성형 AI 툴이 실제로 작성된 내용을 이해하지 못하고, 통계적 확률에 따라 인간이 사용하는 방식에 따라 단어들을 '단지' 연결한다는 것이다.

이런 구조적 한계에도 불구하고, 생성형 AI 툴은 기계 번역, 챗봇 시스템, 텍스트 요약 등에 활용되고 있다. 하지만 이런 한계 때문에 잘못된 정보나 스팸, 피싱 시도 등을 퍼뜨리는 데 악용될 수도 있다.
 
ⓒ Getty Images Bank

취리히 대학 생의학 윤리 및 의학사 연구소(IBME) 연구팀은 오픈AI의 GPT-3를 이용해 허위 정보, 가짜 뉴스 및 기타 오해의 소지가 있는 콘텐츠를 생성하는 데 있어 생성형 AI가 얼마나 효과적인지 조사했다.

연구팀은 기후 변화, 백신 안전, 코로나19, 5G 기술 등 허위 정보에 특히 취약한 11가지 주제에 초점을 맞춰 연구를 진행했다. 우선 각 주제에 대해 GPT-3를 사용해 사실과 가짜 뉴스 양쪽 트윗을 생성했다. "기후 변화가 현실인 이유를 설명하는 트윗을 작성하라"와 같은 프롬프트를 사용했으며, 비교를 위해 동일한 주제에 대한 트위터의 실제 트윗 샘플을 무작위로 수집했다. 실제 트윗 역시 사실과 가짜 뉴스 모두를 포함했다.

이들 트윗으로 697명의 참가자에게 무작위로 선택된 합성 트윗(GPT-3가 작성)과 자연 트윗(사람이 작성)에 올바른 정보가 포함되어 있는지 또는 허위 정보가 포함되어 있는지, 실제 트위터 사용자가 작성했는지 또는 AI가 작성했는지 여부를 설문조사에서 평가하도록 했다.

설문조사 결과, 사람들은 생성형 AI가 생성한 트윗보다 실제 사용자가 작성한 트윗에서 잘못된 정보를 더 쉽게 감지했다. 반면에 생성형 AI가 작성한 트윗에서 올바른 정보를 정확하게 인식할 가능성이 더 높았다.

또한 실제 사용자가 작성한 트윗과 GPT-3가 생성한 트윗을 구별하기 어렵다는 것도 확인했다. 생성형 AI가 사람의 글쓰기 방식과 말하기 패턴을 매우 잘 모방했기 때문에 설문 참가자는 이를 쉽게 구분하지 못했다.
 
사실인지 가짜 뉴스인지에 관계없이 사람들은 챗GPT가 생성한 트윗을 더 빨리, 그리고 더 많이 믿었다. ⓒ IBME

연구팀이 지적했듯이, 이번 조사가 트위터를 대상으로 한 데는 이유가 있다. 현재 3억 6,800만 명 이상의 월간 활성 사용자가 주로 뉴스와 정치 정보를 소비하기 위해 하루에 여러 번 트위터를 방문한다. 트위터 사용자의 약 5%만이 봇이지만, 봇이 생성하는 게시물은 전체의 20~29%를 차지한다. 이런 특성 때문에 트위터는 인공지능이 생성한 허위 정보의 표적이 되기 쉬우며, 잠재적으로 매우 취약한 상태이다.

연구팀은 현재 사용 가능한 대규모 언어 모델이 이미 자연어와 구별할 수 없는 텍스트를 생성하는 만큼, 더 강력한 대규모 언어 모델의 출현과 그 영향에 대해 우려를 제기했다. 또한 2022년 11월 이후 챗GPT의 광범위한 사용으로 인해 소셜 미디어와 기존 미디어의 정보 환경이 어떻게 변화했는지 평가해야 한다고 강조했다. 

오용을 제한하고 투명하고 진실한 원천 정보를 보장하기 위해 모델의 학습 데이터 세트를 규제할 필요도 있다. 또한 사회에 미치는 부정적인 영향을 완화하기 위해 이런 기술의 사용을 특정 사용자 그룹이나 애플리케이션 영역으로 제한해야 할 수도 있다.
editor@itworld.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.