빙 챗과 다른 챗봇의 창의성은, 가끔 이상해지긴 해도 분명 흥미로운 기능이다. 과학자들은 챗봇이 아무런 의도 없이 그저 사용자의 입력에 응답하는 대규모 언어 모델(LLM)에 불과하다고 말한다. 하지만 사용자는 신경 쓰지 않는다. 챗봇이 튜링 테스트를 통과했는지보다는 재미있는지가 더 중요하다고 말한다.
빙에 여러 민족의 별칭을 알려달라고 하자 인종차별적 비속어를 나열하기 시작했다는 필자의 이전 기사(빙과 ChatGPT, 인종차별로 오염된 챗봇 테이의 전철 밟나?)를 두고 독자와 몇 시간 동안 토론을 했다. 토론의 핵심은 빙이 대답을 거부하거나 동일한 프롬프트를 사용하여 일반적인 답변을 제공했어야 했다는 점이다. 이는 뉴욕타임스 기자가 장시간 기괴한 대화를 나누거나 다른 초기 테스터가 이상한 상호작용을 경험한 것과는 다르다. 불쾌감을 주는 것과 그냥 이상한 것은 다르다.
→ 빙과 ChatGPT, 인종차별로 오염된 챗봇 테이의 전철 밟나?
이런 문제를 해결하기 위해 마이크로소프트는 2가지 조치를 취했다. 우선 빙 챗의 채팅 건수를 제한했다. 그 다음 같은 질문에 다른 뉘앙스의 답변을 생성하는 3가지 어조(창의성(Creative), 균형 유지(Balanced), 정확함(Precise))를 추가했다.
→ 마이크로소프트, 빙 AI 챗봇 질문 허용 개수 소폭 확대…답변 결과는 아직 ‘평범’
→ "사실을 원해? 재미를 원해?" 정밀성과 창의성 모드 추가한 빙 챗 AI
필자가 마이크로소프트의 대응에서 불만인 부분은 문답 제한이다. 객관적인 사실을 검색하는 문답은 6개(또는 8개)의 쿼리로 마무리할 수 있지만 창의적인 답변은 장기간 상호작용을 해야 얻을 수 있다. 사람들이 ChatGPT로 즐기는 재미있는 게임에는 ‘개인의 선택으로 만들어가는(choose-your-own-adventure)’ 대화나 던전 앤 드래곤을 경험하는 듯한 심도 있는 롤플레잉이 있는 것처럼 말이다.
6개의 쿼리로는 이런 모험을 시작조차 할 수 없다.
검색엔진은 이미 이 문제를 해결했다. 구글과 빙은 불쾌한 콘텐츠를 전부, 일부 또는 아예 차단하는 콘텐츠 필터를 구현했다. 여기서 ‘불쾌감’이란 일반적으로 선정적인 텍스트와 이미지를 의미하지만 폭력이나 노골적인 언어도 포함될 수 있다. ‘세이프서치’는 보통(moderate)으로 기본 설정돼 있으며, 엄격(Strict)이나 비활성화(Off)로 전환할 수 있다. 이렇게 하면 선택의 결과를 설명하거나 경고하는 팝업이 뜬다.
필자는 마이크로소프트가 빙 검색에 적용한 세이프서치 필터 같은 기능을 빙 챗에도 적용하고 채팅 건수 제한을 풀어야 한다고 본다. 물론 대규모 언어 모델에 세이프서치를 적용하는 일은 검색 결과를 필터링하는 것보다 더 까다로울 순 있다. 그래도 마이크로소프트는 ‘빙 챗’에서 인종 차별로 오염된 챗봇 ‘테이(Tay)’의 전철을 밟고 싶진 않을 것이다.
마이크로소프트는 “빙은 AI를 기반으로 하기 때문에 실수가 있을 수 있다. 사실을 반드시 확인해야 한다”라고 고지하고 있다. 사용자가 이상하거나 노골적인 콘텐츠에 동의할 수 있는 성인이라면 빙, 구글 및 기타 검색엔진은 개인의 선택을 인정하고 존중한다.
빙 챗, 구글 바드, ChatGPT는 계속해서 제한 조치를 취할 수 있다. 사회는 사람들이 챗봇을 사용하여 인종 차별, 혐오, 학대가 만연한 작은 세상을 만드는 것을 원하지 않는다. 하지만 이와 동시에 사람들은 선택과 창의성을 중시하는 세상에 살고 있다.
그렇다. 인간의 마음은 끔찍하고 더러운 것을 상상할 수 있다. 하지만 마이크로소프트는 사용자가 이런 주제를 검색할 수 있게 해야 하며, 아울러 거부하기로 선택한 주제를 필터링할 수 있도록 빙 챗에도 동일한 지침을 적용해야 한다.
editor@itworld.co.kr