AIㆍML

MS, 생성형 AI의 군사 목적 활용 제안 논란 “달리로 전투관리시스템 훈련”

Manfred Bremmer | COMPUTERWOCHE 2024.04.16
마이크로소프트는 "국방부 데이터를 활용한 생성형 AI"라는 제목의 내부 발표자료 자료를 통해 미국 국방부가 챗GPT와 달리(Dall-E)를 포함한 오픈AI의 생성형 AI 툴을 어떻게 활용할 수 있는지 제시했다. 이 자료는 미국 비영리 뉴스 매체인 더인터셉트가 입수해 공개했다.
 
ⓒ Getty Images Bank

연방 차원의 사용례를 소개하는 슬라이드에서 마이크로소프트는 첨단 컴퓨터 비전 훈련 항목 아래에 ‘전투 관리 시스템’에 달리 모델을 사용해 전투 관리 시스템 교육용 이미지를 생성하는 기능을 언급했다.

발표 자료에서 상세한 수행 방법을 설명하지는 않았지만, 전투 관련 시스템의 훈련에 대한 언급만으로도 달리가 미 국방부에 소위 합성 훈련 데이터(실제 이미지 자료와 매우 유사한 인위적으로 생성된 장면)를 제공하는 데 사용될 수 있음을 시사한다는 것이 더인터셉트의 지적이다. 예를 들어, 지상의 적 표적을 탐지하도록 설계된 군사 소프트웨어는 현실 세계에서 이런 표적을 더 잘 인식하기 위해 달리가 생성한 활주로 또는 탱크 기둥의 가짜 항공 이미지를 대량으로 활용할 수 있다.

더인터셉트의 보도에 따르면, 마이크로소프트의 발표자료는 2023년 10월에 열린 미 국방부 'AI 기술' 세미나에서 발표된 방대한 자료에서 나온 것이다. 이 행사는 로스앤젤레스에서 미국 우주군이 주최했으며, 마이크로소프트와 오픈AI를 비롯해 머신러닝 분야에서 활동하는 다양한 기업이 참여했다.

그러나 오픈AI 대변인은 더인터셉트와의 인터뷰에서 자사는 마이크로소프트의 해당 발표에 관여하지 않았으며, 국방부에 어떤 툴도 판매하지 않았다고 말했다. 또 "오픈AI의 정책은 무기를 개발 또는 배치하거나, 다른 사람을 해치거나, 재산을 파괴하기 위해 도구를 사용하는 것을 금지한다”고 강조했다.

그러나 오픈AI의 정책에 대한 설명은 부분적으로만 사실이다. 마이크로소프트는 방위 계약으로 수십억 달러를 벌어들이고 있지만, 실제로 오픈AI는 1월 10일까지만 해도 사용 약관에 "신체적 위해를 가할 위험이 높은" 활동을 금지하는 조항이 있었다. 무기 개발은 물론 군사 및 전쟁 활동도 명시적으로 포함시켰다. 따라서 발표 당시 오픈AI의 가이드라인에 따르면, 달리의 군사적 사용은 금지 사항이다. 

하지만 새로운 가이드라인에서는 상황이 조금 달라졌다. 오픈AI는 "무기 개발 또는 사용"을 예로 들며, "자신이나 타인을 해치기 위해 서비스를 사용하지 말 것"을 계속 요청하고 있다. 그러나 "군사 및 호전적인" 목적으로 생성형 AI 툴을 사용하는 것을 전면적으로 금지하는 내용은 어디에서도 찾아볼 수 없다.

오픈AI의 대변인은 미 국방부와 오픈AI가 계약을 체결했다는 사실을 부인하며, "오픈AI는 국방 기관과 협력관계를 맺지 않았으며, 이런 목적으로 당사의 API 또는 챗GPT를 사용하지 않는다”고 덧붙였다.
editor@itworld.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.