AIㆍML / 글로벌 트렌드

블로그ㅣMS의 빙 챗, 좀 이상하지만 괜찮은 녀석이 되려면

Mark Hachman | PCWorld 2023.03.08
마이크로소프트의 ‘빙 챗(Bing Chat)’에는 문제가 있다. 이상하고, 불안정하며, 선정적인 답변을 할 수 있다는 것이다. 빙 검색(Bing Search)도 그랬던 적이 있으며, 마이크로소프트는 몇 년 전 세이프서치(SafeSearch)로 이 문제를 해결한 바 있다. 그렇다면 세이프서치를 AI 챗봇에 적용할 순 없을까? 
 
ⓒKari Sullivan / Flickr

빙 챗과 다른 챗봇의 창의성은, 가끔 이상해지긴 해도 분명 흥미로운 기능이다. 과학자들은 챗봇이 아무런 의도 없이 그저 사용자의 입력에 응답하는 대규모 언어 모델(LLM)에 불과하다고 말한다. 하지만 사용자는 신경 쓰지 않는다. 챗봇이 튜링 테스트를 통과했는지보다는 재미있는지가 더 중요하다고 말한다. 

빙에 여러 민족의 별칭을 알려달라고 하자 인종차별적 비속어를 나열하기 시작했다는 필자의 이전 기사(빙과 ChatGPT, 인종차별로 오염된 챗봇 테이의 전철 밟나?)를 두고 독자와 몇 시간 동안 토론을 했다. 토론의 핵심은 빙이 대답을 거부하거나 동일한 프롬프트를 사용하여 일반적인 답변을 제공했어야 했다는 점이다. 이는 뉴욕타임스 기자가 장시간 기괴한 대화를 나누거나 다른 초기 테스터가 이상한 상호작용을 경험한 것과는 다르다. 불쾌감을 주는 것과 그냥 이상한 것은 다르다. 

→ 빙과 ChatGPT, 인종차별로 오염된 챗봇 테이의 전철 밟나?

이런 문제를 해결하기 위해 마이크로소프트는 2가지 조치를 취했다. 우선 빙 챗의 채팅 건수를 제한했다. 그 다음 같은 질문에 다른 뉘앙스의 답변을 생성하는 3가지 어조(창의성(Creative), 균형 유지(Balanced), 정확함(Precise))를 추가했다

→ 마이크로소프트, 빙 AI 챗봇 질문 허용 개수 소폭 확대…답변 결과는 아직 ‘평범’ 
→ "사실을 원해? 재미를 원해?" 정밀성과 창의성 모드 추가한 빙 챗 AI

필자가 마이크로소프트의 대응에서 불만인 부분은 문답 제한이다. 객관적인 사실을 검색하는 문답은 6개(또는 8개)의 쿼리로 마무리할 수 있지만 창의적인 답변은 장기간 상호작용을 해야 얻을 수 있다. 사람들이 ChatGPT로 즐기는 재미있는 게임에는 ‘개인의 선택으로 만들어가는(choose-your-own-adventure)’ 대화나 던전 앤 드래곤을 경험하는 듯한 심도 있는 롤플레잉이 있는 것처럼 말이다.

6개의 쿼리로는 이런 모험을 시작조차 할 수 없다. 
 
빙 챗에게 호크아이와 캡틴 아메리카가 붙으면 누가 이길지 물어봤다. ⓒMark Hachman / IDG

검색엔진은 이미 이 문제를 해결했다. 구글과 빙은 불쾌한 콘텐츠를 전부, 일부 또는 아예 차단하는 콘텐츠 필터를 구현했다. 여기서 ‘불쾌감’이란 일반적으로 선정적인 텍스트와 이미지를 의미하지만 폭력이나 노골적인 언어도 포함될 수 있다. ‘세이프서치’는 보통(moderate)으로 기본 설정돼 있으며, 엄격(Strict)이나 비활성화(Off)로 전환할 수 있다. 이렇게 하면 선택의 결과를 설명하거나 경고하는 팝업이 뜬다. 

필자는 마이크로소프트가 빙 검색에 적용한 세이프서치 필터 같은 기능을 빙 챗에도 적용하고 채팅 건수 제한을 풀어야 한다고 본다. 물론 대규모 언어 모델에 세이프서치를 적용하는 일은 검색 결과를 필터링하는 것보다 더 까다로울 순 있다. 그래도 마이크로소프트는 ‘빙 챗’에서 인종 차별로 오염된 챗봇 ‘테이(Tay)’의 전철을 밟고 싶진 않을 것이다. 

마이크로소프트는 “빙은 AI를 기반으로 하기 때문에 실수가 있을 수 있다. 사실을 반드시 확인해야 한다”라고 고지하고 있다. 사용자가 이상하거나 노골적인 콘텐츠에 동의할 수 있는 성인이라면 빙, 구글 및 기타 검색엔진은 개인의 선택을 인정하고 존중한다. 

빙 챗, 구글 바드, ChatGPT는 계속해서 제한 조치를 취할 수 있다. 사회는 사람들이 챗봇을 사용하여 인종 차별, 혐오, 학대가 만연한 작은 세상을 만드는 것을 원하지 않는다. 하지만 이와 동시에 사람들은 선택과 창의성을 중시하는 세상에 살고 있다. 

그렇다. 인간의 마음은 끔찍하고 더러운 것을 상상할 수 있다. 하지만 마이크로소프트는 사용자가 이런 주제를 검색할 수 있게 해야 하며, 아울러 거부하기로 선택한 주제를 필터링할 수 있도록 빙 챗에도 동일한 지침을 적용해야 한다. 
editor@itworld.co.kr
 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.