AIㆍML

"브레이크 없는 AI 발전은 인류 멸종 가져올 것" 오픈AI CEO, MS CTO…줄줄이 공개 연명

Lucas Mearian  | Computerworld 2023.05.31
기술 업계 내 수백 명의 학자와 지도자, 주요 인사가 인공 지능의 진화가 결국 인류의 멸종으로 이어질 것이며 기술의 제어가 최대 지상 과제라는 공개 서한을 발표했다.

미국 샌 프란시스코의 AI 안전센터(Center for AI Safety)는 "AI로 인한 멸종 위험 완화는 팬데믹과 핵 전쟁 등 전 지구적 규모의 위험과 같은 우선 순위가 되어야 한다"라는 입장을 발표했다. 이 간략한 공개 서한은 마치 기술의 발명자가 과오를 인정하고 전 세계에 경고를 보내는 인상을 준다.
 
ⓒ Getty Images Bank

AI 안전센터는 샌프란시스코에 있는 비영리 연구기관으로 안전한 AI 개발과 배포 확립을 사명으로 한다. AI 안전센터 웹사이트는 "인공지능 기술을 안전하게 개발하고 사용할 수 있다면 인류가 큰 혜택을 얻을 것"이라고 설명하고 있다.

아이러니인 것은 서한 맨 처음 가장 눈에 띄는 부분에 이제는 모르는 사람이 없는 생성형 AI 챗GPT를 개발한 오픈AI CEO 샘 알트먼과 오픈AI의 최대 투자자인 마이크로소프트 CTO 케빈 스콧의 이름이 있다는 점이다. 또한 다른 오픈AI 설립자와 경영진 외에 구글 AI 연구소인 딥마인드 임원, 엔지니어, 과학자도 다수 연명에 참여했다.

지난 40년 동안 AI 기술 발전에 공헌해 AI의 아버지로 불리는 제프리 힌튼 역시 동참했다. 5월 초 MIT에서 열린 강연에서 힌튼은 AI의 발전 단계 중 하나를 지나쳐가는 존재에 지나지 않는다고까지 말했다. 또 70년대와 80년대에는 AI 신경망 연구를 하는 것이 매우 합리적이었다고 말했다. 그러나 힌튼은 오늘날의 기술은 마치 유전공학자가 그리즐리 곰을 개량해 영어로 말하게 하고 IQ를 210으로 올리려는 것 같다고 비난하기도 했다.

그러나 힌튼은 "AI 기술이 이렇게 발전하리라고는 예측하지 못했다. 아주 최근까지만 해도 이런 실존적 위기는 먼 일이라고 생각했다"라며 AI 기술 발전에 기여한 것을 후회하지 않는다고 말했다.

5월 초 G7 지도자들은 AI 발전이 안전과 보안의 시야를 넘어섰다며 AI 기술을 견제할 표준 제정을 촉구했다. 미국 상원 청문회에서도 오픈AI CEO 알트먼이 참고인으로 AI 발전으로 야기될 명백한 현존 위험을 설명했다.

가트너 부사장이자 애널리스트인 아비바 리탄은 "AI 안전 센터의 성명은 기술 업계에서 전례가 없었던 일이며 불길하다. IT 기업가가 대중에게 자신들이 만들어내는 기술을 그대로 방치하면 인류를 멸망시킬 수 있다고 말한 적이 있는가? 그럼에도 이들은 경쟁이라는 압박을 받으며 계속 기술을 연구하고 있다"라고 말했다.

리탄은 인류 멸종의 단계 중 하나를 들며 AI로 인해 기업도 단기적이고 임박한 위험에 직면했다고 지적했다. 리탄은 "소셜 미디어와 전자상거래의 발전으로 지난 10년 동안보다 더 빨리 확장된 잘못된 정보와 가짜 정보, 사이버 공격과 사회적 조작 가능성도 원인이다. 이러한 단기적 위험을 방치하다가는 금세 통제불능 상태에 빠질 것"이라고 경고했다.

리탄은 AI로 인한 단기적 위험은 가드레일과 기술 솔루션으로 완화하고, 장기적인 실존적 위험은 국제 정부 협력과 규제로 해결할 수 있다고 제안했다. 또한 "정부 움직임은 매우 느리지만, 기술 혁신과 제품은 가능한 경우 예상대로 매우 빠르게 움직이고 있다. 따라서 앞으로 어떤 일이 벌어질지는 누구나 짐작할 수 있다"라고 말했다.

지난 3월에도 유사한 서명이 있었다. 미래생명연구소(Future of Life Institute)에서 발표한 것이다. 애플 공동 설립자 스티브 워즈니악, 스페이스X CEO 일론 머스크를 비롯한 3만 2,000명의 연구자와 주요 인사가 서명하면서 더 나은 통제 장치를 마련할 6개월 동안 챗GPT 개발을 중단할 것을 촉구했다.

또한 이 서명에서는 고도로 발전한 AI 시스템, 대규모 연산 풀에 대한 감독과 추적, 실제와 가상의 구분을 명확히 하고 모델 유출을 추적하는 출처와 워터마크 시스템, 강력한 감사와 인증 생태계, AI 피해에 대한 책임, AI 기술 안전 연구에 필요한 강력한 공적 자금 지원, AI가 초래할 경제적, 정치적 혼란(특히 민주주의 체제)에 대처할 수 있는 자원이 충분한 기관이 필요하다고 주장했다.

AI 안전센터의 댄 헨드릭스는 연관 트윗에서 "관리 부실, 열악한 공중보건 시스템, 야생 동물 등으로 보건 위기가 닥친 것처럼, AI 기술도 얼마든지 잘못될 수 있다"라고 주장했다. 헨드릭스는 원자폭탄을 개발한 물리학자 로버트 오펜하이머가 한 "세상이 결코 전과 같지 않으리라는 것을 알고 있었다"라는 말을 인용했다. 그러나 원자폭탄이 제2차 세계대전 전범 국가를 막기 위해 만들어졌다는 점은 언급하지 않았다.
editor@itworld.co.kr 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.