미래기술

"인공 지능이 전쟁에 쓰인다면?" 자율 살상 로봇 개발, 멈출 수 있는가

George Nott | Computerworld Australia 2017.08.29
이번 주 초, 로봇과 인공 지능(AI) 전문가들은 UN에 ‘제3의 전쟁 혁명’ 방지에 도움을 줄 것을 촉구하는 공개 서한에 서명해 발송했다(PDF 참조). ‘제3의 전쟁 혁명’이란 자율 살상 무기를 가리키는 말이다.

전문가들은 서한에서 “일단 개발이 되면, 과거 어느 때보다 규모가 크고 사람이 인식하지 못할 정도로 빠른 무력 분쟁을 야기할 것이다. 자율 살상 무기가 개발되면 테러 무기, 독재자와 테러리스트가 무고한 사람들에 사용할 수 있는 무기, 해킹으로 악용될 수 있다. 행동할 수 있는 시간이 많이 남지 않았다. 이 판도라 상자가 열린 후에는 다시 닫기 아주 힘들 것이다”라고 경고했다.

자율 살상 무기(Lethal autonomous weapon)란 무엇일까?
자율 무기는 사람의 개입 없이 표적을 선택해 교전한다. 사전에 지정한 지역에서 수색 및 사격을 할 수 있는 무장 쿼드콥터를 예로 들 수 있다. 사람이 원격 조정을 해서 방아쇠를 당기고, 방어용 센서가 감지한 표적을 대상으로 고정된 방어 화기가 사격을 시작하는 방어 시스템 작동 원격 조정 드론은 여기에 포함되지 않는다.

실현 가능성은 얼마나 될까?
클리어패스 로보틱스(Clearpath Robotics)를 창업한 라이언 개리피 CTO에 따르면 실현 가능성이 아주 크다.

개리피는 “아직 공상 과학 영역에 속한 다른 AI 기술과 다르게, 자율 무기 시스템은 개발을 목전에 두고 있다. 무고한 사람들에게 큰 피해를 초래하고, 전 세계적으로 불안을 야기할 가능성이 크다. 가상의 시나리오가 아니다. 즉시 ‘조치’를 취해야 하는 아주 중대한 문제”라고 강조했다.

기술이 빠르게 발전하면서 완전한 자율 무기 시스템 개발이 가능해졌다. 또 많은 회사가 이런 목표를 추구하고 있다. 호주 국군은 지난 7월 ‘신뢰할 수 있는 자율 시스템’을 개발하는 연구에 5,000만 달러를 투자할 계획이라고 발표했다.

UTS의 매리-앤 윌리엄스 교수가 상상하는 가까운 미래는 공포에 가깝다. 윌리엄스 교수는 “무기화 된 로봇은 영화 쥬라기 공원의 벨로키랍토르와 유사하다. 민첩하게 기동하고, 번개같은 속도로 반응하고, 컴퓨터 네트워크가 전송하는 정보로 강화된 고정밀 센서로 인간을 ‘사냥’ 할 수 있기 때문”이라고 말했다.

전문가들이 원하는 것은 무엇일까?

최근 전문가들의 공개 서한은 UN에 이런 위험에서 사람들을 보호할 방법을 찾기 위한 조치를 취하라고 촉구하고 있다(2015년에도 유사한 공개 서한을 발송).

UN 소속 자율 살상 무기에 대한 GGE(정부 부문 전문가 그룹)는 이번 주 첫 회의를 가질 계획이었다. 그러나 회의는 취소되고 11월로 연기되었다.

서한은 “우리는 GGE에 참여하고 있는 조약 체결 국가들이 이런 무기의 군비 확장 경쟁을 방지하고, 시민을 오용으로부터 보호하고, 첨단 기술이 불안정을 초래하는 것을 막기 위해 노력할 것을 촉구한다”고 강조하고 있다.

금지가 해답일까?
공개 서한에 서명한 일부 전문가들은 서한 내용보다 강력한 조치를 촉구하고 있다. 화학 무기와 유사하게 자율 무기를 전면 금지할 것을 촉구하는 것이다.

살상 로봇 개발 중지 캠페인(Campaign to Stop Killer Robots)이라는 단체
도 오래 전부터 관련 기술 개발을 중지하는 국제 조약을 촉구해왔다.

이 그룹은 “사전에 포괄적으로 사람의 개입 없이 스스로 작동하는 완전 자율 무기 개발, 생산, 사용을 금지하는 것이 시급하다”고 주장한다.

전쟁에서 사람인 군인보다 로봇을 희생하는 것이 낫지 않을까?
USA(University of South Australia) 산하 방위 시스템 연구소(Defence and Systems Institute) 소장인 안토니 핀 교수는 “살상 자율 무기는 ‘파이어 앤 포겟(유도 방식) 무기처럼 콜래트럴 데미지(민간인 피해)를 줄일 수 있다. 이 효과를 감안하면 살상 자율 로봇 불법화 주장의 근거가 약화된다”라고 말했다.

그러나 일각에서는 사람으로 구성된 군대를 기계로 대체하면 인명 손실에 대한 걱정이 없어 훨씬 쉽게 전쟁을 선택할 수 있고, 따라서 갈등과 분쟁 발생 확률이 증폭될 수 있다고 반박한다.

과연 금지할 수 있을까? 효과가 있을까?
약 200개 국가가 화학 무기 금지 협약에 가입했다. 덕분에 90년대 초 이후, 알려진 화학 무기 재고 93%를 파괴하고, 97개 생산 시설을 폐쇄할 수 있었다. 이 협약을 통해 화학 무기 사용을 크게 줄일 수 있었다. 그러나 일부 국가는 계속해서 화학 무기를 사용하고 있는 실정이다.

그러나 살상 자율 무기를 금지하기란 쉽지 않다. 핵무기 사례에서 알 수 있듯, 무기 사용 금지에 반대하는 국가들의 ‘나도 주의(me-tooism)’ 때문이다.

지난 달, 122개 국가가 핵무기 사용 금지 조약을 체결했다. 이 조약을 지지하는 사람들은 핵무기를 완전히 없앤다는 목표를 향해 큰 발걸음을 내디뎠다고 목소리를 높였다. 그러나 주요 핵 무장국과 동맹이 조약에서 빠졌다. 일부 국가는 최근 북한의 핵 미사일 능력 과시를 감안할 때 자국의 핵 무기를 유지할 필요가 있다고 주장하고 있다

윌리엄스는 “조약 집행은 어려운 문제다. 또 다른 문제도 생긴다. 호주 같은 국가들이 방어용 살상 로봇 개발을 중지했다고 가정하자. 금지 조약을 무시하고 무기 개발을 진행한 국가와 단체보다 취약한 상태가 되어버린다. 살상 로봇 금지만이 유일한 전략이 될 수는 없다. 사회와 국가 단위에서는 살상 로봇 금지보다 더 많은 것이 필요하다”고 설명했다.

추가 연구를 금지한다면
많은 연구원들이 윤리적 기준을 중시해 연구 활동을 수행한다. 그러나 연구 윤리는 법의 구속을 받지 않는다. 또 연구소와 국가 별로 기준이 다르다.

시드니 대학 FEIT(Faculty of Engineering and Information Technologies) 강사인 마이클 헤어 박사는 “자율 시스템 연구의 긍정적인 부분, 부정적인 부분을 고려하고, 비윤리적인 연구를 금지하는 것이 좋은 방법이 될 수 있다.”고 말했다. 그러나 ‘윤리적’ 연구가 무엇인지 더 자세히 조사할 필요가 있다고 덧붙여 말했다.

인공 지능과 로봇 분야의 많은 저명한 전문가가 공개 서한에 서명했지만, 여기에 동참하지 않은 전문가도 있다. 당연할지 모르겠지만, 군사 기술 개발 업체는 다른 연구원들이 검토할 수 있는 저널에 새로운 기술 개발을 공개하지 않을 경우가 많다. 과학계가 위험한 기술을 검토하고 감독할 방법이 없는 것이다.

그러나 일정 수준의 ‘약속’이 아무런 일을 하지 않는 것보다는 낫지 않을까?
공개 서한에 서명을 한 사람들은 그렇게 믿고 있다.

핀은 “사용이 허용되는 상황을 규정하고, 위반에 대한 책임을 묻는 법적 틀을 개발하는 것이 아주 중요하다.”고 강조했다.

금지가 불가능하다면, 늦기 전에 법적 틀을 마련하는 것이 좋을 것이다.

RMIT의 제임스 할랜드 컴퓨터 논리 조교수는 “과거에는 기술이 법이나 문화적 틀보다 더 빨리 발전하면서 상황을 주도했다. 냉전 시대의 MAD(Mutually Assured Destruction, 상호 확증 파괴 전략), 지뢰의 확산 등을 예로 들 수 있다. RMIT가 2개 분교를 운영하고 있는 베트남 등 국가에서 지뢰가 남긴 참상을 직접 목격했다. 40년 전 설치한 지뢰 때문에 매년 수백 명이 목숨을 잃거나 불구가 된다. 변화를 위해 기술에 앞서 법적 틀을 마련할 기회가 있다고 생각한다. 그래야 사회가 기술을 통제할 수 있다”고 강조했다. editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.