AIㆍML

"모든 것이 봇으로 귀결되는 미래" 생성형 AI에 대한 10가지 우려

Peter Wayner  | InfoWorld 2023.02.15
ChatGPT 같은 생성형 AI 모델의 우수성은 일견 충격적일 정도다. 일각에서는 AI가 인간보다 더 똑똑하다고 주장한다. AI는 아름다운 예술 작품을 다양한 스타일로 만들어낸다. 세부 근거, 아이디어, 지식이 풍부한 텍스트를 대량으로 생산한다. 결과물이 매우 다양하고 특별해 보이기 때문에 기계가 만들었다고 믿기 어려운 수준이다. 이제 인간은 생성형 AI가 할 수 있는 모든 결과물을 마주하게 되었다.

일부 전문가는 새로운 AI가 드디어 튜링 테스트의 임계치를 넘었다고 생각한다. 임계치를 살짝 넘은 정도가 아니라 완전히 넘어섰다고 생각하는 사람도 있다. 너무 훌륭해서 이미 실업 위기에 내몰리는 사람이 나올 정도라고 한다.

하지만 경이로움이 사라지면 생성형 AI의 순수한 권력도 사라진다. 일부 전문가는 지능형 기계가 제정신이 아니거나 잘못된 답변을 내뱉게 하는 질문을 던지는 게임을 하고 있다. 또 일각에서는 한밤중의 태양 또는 눈폭풍 속의 북극곰 그림 등을 요청하는 등 초등학생 미술 수업에서 인기 있는 오래된 논리 퀴즈를 묻는다. 상식으로 알려져 있는 AI의 맥락 인식의 한계를 드러내는 이상한 요청을 생성한다. 이런 사람들은 생성형 AI가 실패하는 방식을 계산할 수도 있다.
 
ⓒ Getty Images Bank

그래서 생성형 AI의 10가지 단점과 결함을 정리해 보았다. 기계에게 직업을 빼앗기게 될 인간의 질투 목록처럼도 보일지 모른다. 필자는 150년 전 도입된 증기 드릴과의 대결에서 승리한 철도 노동자 존 헨리처럼 인간 팀을 응원하는 한 사람에 불과하지만, 우리 모두 조금은 걱정을 해야 하지 않을까?
 

표절

DALL-E나 ChatGPT 같은 생성형 AI 모델의 창작 활동은 훈련 세트에 포함된 수백만 개의 예시에서 새로운 패턴을 만들어내는 것에 불과하다. 결과는 다양한 소스로부터 가져와 잘라서 붙여 놓은 합성물이며, 인간이 그렇게 하면 표절이 되어버린다.

물론, 인간도 모방을 통해 학습하지만 경우에 따라 너무 노골적으로 빌려오면 선생님에게 고자질할 만한 거리가 된다. AI 생성 콘텐츠는 거의 말 그대로 제공되는 대형 텍스트 블록으로 구성된다. 하지만 때로는 합성이 너무 잘 돼서 대학 교수로 구성된 패널도 원래 소스를 감지하는 데 어려움을 겪을 수 있다. 어쨌든 고유성이 없다. 기계에게는 새로운 것을 생성할 수 있는 능력이 없다.
 

저작권

표절은 보통 학교에서 문제가 되지만 저작권법은 실제로 시장에 적용된다. 인간이 다른 사람의 작품을 훔치면 법정으로 끌려가 수백만 달러의 벌금을 받는다. 그렇다면 AI에게도 같은 규칙이 적용될까?

저작권법은 복잡한 주제이며, 생성형 AI의 법적 지위가 안정되는 데에는 수 년이 소요될 것이다. 하지만 기억하자. AI가 인간을 대체할 정도로 훌륭한 결과물을 생성하기 시작하면 일부 인간은 남는 시간을 소송에 쓸 것이다. 
 

보상되지 않는 노동

생성형 AI에 의해 제기되는 법적 문제는 표절과 저작권만이 아니다. 변호사들은 이미 소송을 위한 새로운 윤리적 문제를 떠올린다. 있다. 한 예로, 그림 그리기 프로그램을 만드는 기업이 인간의 그리는 행동에 관한 데이터를 수집하고 그 데이터를 AI 훈련 목적으로 사용할 수 있을까? 창의적인 노동의 활용에 대해 인간이 보상을 받아야 할까? 현 세대 AI 성공의 상당 부분은 데이터 액세스에 기인한다. 그렇다면 데이터를 생성하는 사람이 한 몫을 원하는 경우 무슨 일이 생길까? 공정이란 무엇인가? 무엇을 합법적이라고 생각하게 될까?
 

정보는 지식이 아니다

AI는 특히 인간이 개발하는 데 수 년이 소요되는 지능을 잘 모방한다. 인간 학자가 잘 알려져 있지 않은 17세기 예술가를 소개하거나 거의 잊힌 르네상스 음 구조로 새로운 음악을 작곡할 수 있다면 충분히 인상적일 것이다. 이런 심층적인 지식을 개발하려면 수 년 동안 연구에 몰두해야 한다. 단 몇 개월의 훈련으로 AI가 같은 일을 할 수 있다면 결과는 놀라울 만큼 정확하고 또렷할 것이다. 하지만 무엇인가 빠진 것이 있다.

잘 훈련된 기계가 수십 억 개의 기록으로 채워진 디지털 구두 상자에서 오래된 올바른 레시피를 찾을 수 있는 경우 그 안의 모든 것을 학습하여 애프라 벤 같은 시인에 관해 알 수 있다. 심지어 기계가 고대  마야 상형문자의 의미를 해독하기 위해 만들어졌다고 믿을 수도 있다. AI가 인간 창의성의 재미있고 예측할 수 없는 측면을 흉내내는 것까지는 할 수 있지만 실제로 그것을 빼앗을 수는 없다. 한편, 예측 불가능성이 창의적인 혁신을 유도한다. 패션 같은 산업은 변화에 중독되었고 변화에 따라 정의된다. 사실, 인공 지능은 천천히 입지를 다지고 있으며, 어렵게 얻은 전통 방식의 훌륭한 인간 지능도 마찬가지이다.
 

지적 침체

지능 이야기가 나왔으니 말이지만 AI는 내재적으로 기계적이며 규칙에 기반한다. AI가 일련의 훈련 데이터를 거치면 모델을 생성하고, 그 모델은 실제로는 바뀌지 않는다. 일부 엔지니어 및 데이터 과학자는 시간이 지남에 따라 AI 모델을 점진적으로 재훈련시켜 기계가 학습을 통해 적응하는 세상을 상상하고 있다. 하지만 대부분의 경우 핵심은 특정 지식을 고정된 형태로 인코딩하는 복잡한 일련의 뉴런을 생성하는 것이다. 불변성은 입지를 다지고 있다. 또 특정 산업에 효과적일 수 있다. AI의 위험은 훈련 데이터의 시대정신에 영원히 갇혀 있을 수 있다는 점이다. 인간이 생성형 AI에 너무 의존하게 되어 더 이상 훈련 모델을 위한 새로운 자료를 생성할 수 없다면 어떻게 될까? 
 

프라이버시와 보안

AI 훈련에 쓰이는 데이터는 다른 곳에서 얻어야 한다. 신경망에 무엇이 있는지 항상 확실한 것은 아니다. AI가 훈련 데이터에서 개인 정보를 유출한다면 어떻게 될까? 게다가 AI는 매우 유연하게 설계되었기 때문에 제재하기가 훨씬 어렵다. 관계형 데이터베이스는 개인 정보가 포함된 특정 테이블 접근을 제한할 수 있다. 하지만 AI는 수십 가지 방법의 쿼리 처리가 가능하다. 적절한 질문을 적당한 방법으로 던지고 공격자가 원하는 민감한 데이터를 얻는 방법을 빠르게 학습할 것이다. 특정 자산의 위도와 경도가 봉쇄되는 예를 들 수 있다. 똑똑한 공격자라면 자산이 있는 위치에서 동이 트는 정확한 시간을 여러 주 동안 계속 질문할 것이고, 순종적인 AI는 올바른 답을 주려고 노력할 것이다. AI가 개인 정보를 보호하도록 가르칠 수 있는지는 아직 증명되지 않은 부분이다.
 

감지되지 않은 편향

심지어 초기의 메인프레임 프로그래머도 컴퓨터 문제의 핵심을 이해하고 GIGO(Garbage In, Garbage Out)라는 두문자어를 만들어냈다. AI의 많은 문제가 형편없는 훈련 데이터에서 발생한다. 데이터 세트가 정확하지 않거나 편중되면 결과에 반영된다.

생성형 AI의 핵심인 하드웨어는 스폭(Spock)처럼 논리 기반일 수 있지만 기계를 만들고 훈련시키는 인간은 그렇지 않다. 편견과 당파심이 AI 모델에 반영되는 것으로 나타났다. 누군가 편향된 데이터를 사용해 생성한 모델도 있을 수 있다. 모델이 특정 뜨거운 쟁점이 되는 문제에 답하지 않도록 장치를 마련할 수도 있고, 답변을 내장해서 감지하기 어렵게 만들었을 수도 있다. 인간은 AI가 불건전한 신념의 훌륭한 매개체로 활용하는 방법을 수없이 찾아냈다.
 

기계의 어리석음

AI 모델은 잘하는 일이 많기 때문에 실수를 용서하기가 쉽다. AI는 인간과 다르게 생각하므로 그렇게 많은 실수를 예상하기 어렵다. 예를 들어, 텍스트-이미지 기능 사용자 상당수가 AI가 숫자 세기 같은 단순한 일을 잘하지 못하는 경우를 발견했다. 인간은 초등학교에서 산수를 배우며 이 능력을 광범위하게 사용한다. 10살짜리 꼬마에게 문어를 그리라고 해도 대부분 다리를 8개로 올바르게 그리는 것처럼 말이다. 하지만 현재의 AI 버전은 수학의 추상적, 맥락적 사용에 있어 허둥대는 경향이 있다. 모델 개발자가 실수에 집중한다면 쉽게 바뀌겠지만 다른 문제도 많을 것이다. 기계 지능은 인간 지능과 다르기 때문에 어리석음도 다를 것이다.
 

인간의 잘 속는 특성

인간은 때때로 자신도 모르는 사이에 AI 지능의 공백을 메우는 경향이 있다. 자기도 모르게 누락된 정보를 채우거나 답변을 추가한다. AI가 헨리 8세가 아내를 죽인 왕이라고 말한다면 역사를 모르는 사람은 의문을 갖지 않는다. 카리스마 있는 발표자가 손을 들 때의 반응처럼 AI가 옳다고 생각한다. 틀린 주장이라도 자신감 있게 하면 인간은 올바른 사실로 받아들이는 경향이 있다.

생성형 AI 사용자에게 가장 까다로운 점은 AI가 틀린 순간을 아는 것이다. 기계는 인간처럼 거짓말을 할 수는 없지만 어쩌면 그래서 더 위험하다. 아무도 모르는 사이에 완벽하게 정확한 데이터로 구성된 단락을 만들어내고 추측으로 전환하고, 심지어 대놓고 중상모략을 할 수도 있다. 중고차 딜러나 포커 선수는 얼버무리는 사람을 빠르게 알아차리고 비방하는 사람을 가려내겠지만 AI는 그렇지 않다.
 

무한한 풍부함

디지털 콘텐츠는 무한하게 재현 가능하다. 희귀성을 중심으로 형성된 경제 모델의 상당수가 이미 압박을 받고 있다. 생성형 AI는 이런 모델을 더 많이 파괴할 것이다. 생성형 AI는 작가와 예술가의 일자리를 빼앗을 것이다. 또한 인간 세상의 많은 경제 규칙을 뒤집고 있다. AI가 광고와 콘텐츠를 끝없이 재결합, 재생성하는 상황에서 광고 지원 콘텐츠가 효과가 있을까? 인터넷의 자유가 생성형 AI가 끝없이 재현하는 웹 페이지에서 봇이 광고를 클릭하는 세계에 침식될 위험은 없을까?

이런 단순한 풍부함이 경제의 모든 면을 약화시킬 수 있다. NFT를 영원히 복제할 수 있다면 누가 돈을 내고 소유하려 들까? 예술이 쉬워지면 계속 존중받을 수 있을까? 여전히 특별함을 유지할까? 특별하지 않은 예술에 누가 신경을 쓸까? 모든 것이 너무나 당연해져도 계속 가치를 지닐까? 

사람들이 영원히 복사할 수 있는 NFT(Non-Fungible Token)에 대해 계속해서 돈을 지불할까? 예술이 쉬워지더라도 계속 존중을 받을 수 있을까? 여전히 특별할까? 특별하지 않더라도 신경이나 쓸까? 모든 것을 당연하게 여긴다면 모든 것이 가치를 잃을까? 이것이 셰익스피어가 말한 “터무니 없는 행운의 돌팔매와 화살”일까? 여기에 스스로 답하지는 말자. 생성형 AI에 질문을 던져서 이상하고 아름다우며 옳고 그름을 알 수 없는 지하 세계에 신비롭게 갇혀 있는 답을 찾아내는지 지켜보자.
editor@itworld.co.kr 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.