AIㆍML

“AI 발전 속도 늦출 필요 있다” IT 거물들, 한목소리로 경고

Lucas Mearian | Computerworld 2023.04.03
1,100명 이상의 기술 업계 저명인사, 리더, 과학자가 공개서한을 통해 AI 기술이 인류에 심각한 위협이 될 수 있다며, 챗GPT를 능가하는 AI 개발을 일시 중단해야 한다고 경고했다.

전 지구적 재앙과 위험을 줄이는 것을 목표로 하는 비영리단체 FLI(Future of Life Institute)가 발표한 공개서한에서 애플의 공동 창업자 스티브 워즈니악, 스페이스 X 및 테슬라 CEO 일론 머스크는 “광범위한 연구 결과에서 알 수 있는 것처럼 AI는 사회와 인류에 중대한 위험을 초래할 수 있다”라고 말했다. 

이 공개서한은 인기 있는 NLP 챗봇 ‘챗GPT’의 기반이 되는 대규모 언어 모델(LLM) GPT-4 등 생성형 AI 플랫폼의 업그레이드를 6개월간 중단해야 한다고 촉구했다. 또한 최첨단 AI가 ‘인간 문명의 통제력 상실’로 이어질 수 있는지 날카롭게 질문을 던졌다. 
 
ⓒGetty Images Bank

아울러 서한은 인간처럼 행동하는 챗봇이 소셜 미디어와 기타 네트워크에 선전과 거짓을 퍼뜨릴 수 있다는 점에서 “민주주의에 대한” 정치적 혼란을 경고했다. 또한 AI가 “모든 일자리를 자동화할 수 있다”라고 덧붙였다. 따라서 서한은 기술 업계가 아닌, 사회 지도자가 AI 배포 범위에 대한 결정을 책임져야 한다고 촉구했다. 이를테면 정책 입안자가 AI 업계와 협력해 강력한 AI 거버넌스 시스템 개발을 가속해야 한다고 주장했다. 또 견고한 감사 및 인증 생태계와 함께, 실제 콘텐츠와 합성 콘텐츠를 구별하고 모델 유출을 추적할 수 있는 출처 및 워터 마킹 시스템을 사용할 것을 제안했다.

서한은 “오늘날 AI 시스템은 일반적인 작업에서 인간과 경쟁할 수 있는 수준으로 발전하고 있다. 인간보다 수적으로 우세하고, 더 똑똑하며, 인간을 더 이상 쓸모없게 하는 동시에 대체할 수 있는 도구를 개발해야 할까? 인간 문명에 대한 통제력을 잃을 수도 있는 위험을 감수해야 하는가? 이런 결정이 기술 리더에게 위임돼서는 안 된다”라고 전했다. 

한편 영국 정부는 범용 AI를 규제하기 위한 계획을 설명하는 백서를 발표하면서, “혁신을 저해할 수 있는 과도한 입법을 피하고 대신 기존 법률에 의존할 것”이라고 밝혔다.

가트너 리서치의 부사장 겸 애널리스트 아비바 리탄은 IT 리더들의 경고가 정확하며, 현재로서는 GPT-4 같은 AI 도구가 생성하는 정보의 진위나 정확성을 보장할 수 있는 기술이 없다고 말했다. “더 큰 우려는 오픈AI가 이미 약 6개월 후에 GPT-4.5를, 그다음 6개월 뒤에는 GPT-5를 출시할 계획이라는 점이다. 그래서 서한에 ‘6개월간 개발 중단’이 언급됐다고 생각한다. AI가 전속력으로 전진하고 있다”라고 말했다.

GPT-5에서는 AI가 지각을 갖고, 스스로 생각할 수 있는 ‘인공 일반 지능’, 즉 AGI(Artificial General Intelligence)가 될 것이라고 예상된다. 그 시점에서 AI는 계속해서 기하급수적으로 더 똑똑해질 전망이다. 리탄은 “AGI에 도달하면 인간에게는 게임 오버나 마찬가지다. AI가 인간만큼 똑똑해지면 알버트 아인슈타인만큼 똑똑해지고, 일단 아인슈타인만큼 똑똑해지면 1년 안에 100명의 아인슈타인만큼 똑똑해지기 때문이다. AGI에 도달하면 완전히 통제 불능 상태가 된다. 이것이 바로 크게 두려운 점이다. 그 시점에서는 인간이 통제할 수 없다. 우리 손을 벗어난다”라고 지적했다. 

UC 산타 크루즈의 물리학 교수 겸 FLI의 부소장 앤서니 어과이어는 컴퓨터월드에 보낸 이메일 답장에서 “추세는 틀림없다. 가장 큰 규모의 연산이 매년 약 2.5배씩 커지고 있다. 오픈AI는 GPT-4의 매개 변수를 공개하지 않았지만, 이런 추세가 멈추거나 느려지진 않을 것”이라고 말했다.

한편 서한에 서명한 전문가에는 영국의 AI 연구소 딥마인드(DeepMind)와 구글의 모회사 알파벳(Alphabet)의 과학자들이 포함됐다. 구글은 최근 LaMDA LLM 제품군을 사용해 개발한 AI 기반 대화형 챗봇 ‘바드’를 공개한 바 있다. LLM은 질문에 대해 인간과 유사한 응답을 생성할 수 있는 딥러닝 알고리즘이다. 즉, 자연어 처리를 위한 컴퓨터 프로그램이다. 또한 생성형 AI 기술은 컴퓨터 코드, 이미지, 비디오, 소리를 만들어낼 수 있다.

챗GPT 및 GPT-4 개발사 오픈AI에 100억 달러 이상을 투자한 마이크로소프트는 현재로서는 언급할 것이 없다고 밝혔다. 오픈AI와 구글도 논평 요청에 즉각 반응하지 않았다.

J. 골드 어소시에이트의 수석 애널리스트 잭 골드는 가장 큰 위험은 편견을 가진 LLM을 학습시키는 것이라고 언급했다. 예를 들면 개발자는 의도적으로 ‘깨어 있는 생각(wokeness)’이나 보수주의에 대한 편견을 가지도록 모델을 학습시키거나 아니면 사회주의나 백인 우월주의를 지지하게 할 수도 있다.

골드는 컴퓨터월드에 보낸 이메일 답변에서 “극단적인 예이지만 모델이 편견을 가질 가능성은(그리고 개연성은) 분명 존재한다. 특히 생성형 AI가 정확하고 신뢰할 수 있다고 가정할 경우, 이는 중단기적으로 더 큰 위험이라고 생각된다. 따라서 모델을 신뢰하는 것과 관련된 근본적인 문제는 결과물을 어떻게 사용하느냐에 있어 매우 중요하다고 본다”라고 전했다.

IT 컨설팅 업체 사이버 긱스(Cyber Geeks)의 CEO 안드제 아렌트는 생성형 AI 도구가 아직 최종 제품으로 최고 품질의 소프트웨어를 제공할 수는 없지만, “코드 조각, 시스템 구성 또는 단위 테스트를 생성하는 데 도움이 된다면 개발자의 작업 속도를 크게 높일 수 있다”라고 말했다. 

아렌트는 “이로 인해 개발자가 대체될까? 반드시 그렇진 않다. 이런 도구가 제공하는 결과를 의심 없이 사용할 수 없기 때문에 개발자의 검증이 필요하다. 사실 개발자라는 직업이 생긴 이래 업무 방식의 변화는 항상 수반돼 왔고, 개발자의 업무는 어느 정도 AI 시스템과 상호작용하는 것으로 전환될 것”이라고 설명했다. 

이어 가장 큰 변화는 본격적인 AI 시스템의 도입과 함께 올 것이라면서, 이는 공예, 농업, 제조업에 기반을 둔 경제를 대체한 1800년대의 산업 혁명에 비견될 수 있다고 아렌트는 언급했다. “AI를 사용하면 크지는 않더라도 그에 못지않은 기술적 도약을 이룰 수 있다. 현재로서는 모든 결과를 예측할 순 없다”라고 덧붙였다. 

사이버 보안 업체 카스퍼스키의 수석 데이터 과학자 블라드 투시카노프는 LLM 알고리즘을 더 많은 서비스에 통합하면 새로운 위협이 발생할 수 있다고 말했다. 실제로 LLM 기술 전문가들은 이미 LLM과 이를 기반으로 하는 서비스에 사용될 수 있는 공격(예: 프롬프트 인젝션 등)을 조사하고 있다.

투시카노프는 “상황이 급변하면서 다음에 무슨 일이 일어날지, LLM의 특성이 미성숙의 부작용인지 아니면 내재된 취약점인지 예측하기 어렵다. 기업은 소비자용 애플리케이션에 LLM을 통합할 계획을 세울 때, 이를 위협 모델에 포함시켜야 한다”라고 권고했다.

LLM과 AI 기술은 유용하며 필요하지만, 사람이 하기에는 즐겁지도 흥미롭지도 않은 엄청난 양의 ‘지루한 작업’을 이미 자동화하고 있다. 예를 들면 챗봇은 매일 수백만 개의 알림, 이메일, 피싱 가능성이 있는 웹 페이지 및 악성 실행 파일을 선별할 수 있다. 투시카노프는 “자동화 없이는 이 방대한 작업을 수행할 수 없다. 모든 발전과 첨단 기술에도 사이버 보안 인력은 여전히 매우 부족하다. 추정에 따르면 업계에는 수백만 명의 전문가가 더 필요하며, 따라서 단조롭고 반복적인 작업에 인력을 낭비할 수 없다”라고 설명했다. 

투시카노프는 생성형 AI와 머신러닝이 사이버 보안 위협과 싸우는 사람을 포함한 모든 IT 직업을 대체하진 않을 것이라고 예측했다. “사이버 범죄자가 모든 새로운 도구와 접근 방식에 적응하기 때문에 이를 자동화하기가 매우 어렵다. 또 사이버 보안은 정확성과 품질이 매우 중요한데, 현재 대규모 언어 모델은 편견에 빠지기 쉽다”라고 덧붙였다. 

FLI는 공개서한에서 가드레일을 통해 인류가 AI와 함께 번영하는 미래를 누릴 수 있다고 밝혔다. “모두의 이득을 위해 시스템을 설계하고, 사회가 적응할 수 있는 시간을 제공해야 한다. 사회에 잠재적으로 심각한 위험을 미칠 수 있는 기술에 대해 일시적인 정지 조치를 취해야 한다. 준비 없이 서둘러 가을로 나아가지 말고 기나긴 AI 여름을 즐기자”라고 말했다.
editor@itworld.co.kr
 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.