AIㆍML

오픈AI, 군사적 용도에 대한 AI 기술 사용 약관 삭제해

Anirban Ghoshal  | Computerworld 2024.01.16
챗GPT 오픈AI가 이용 약관을 변경해 군사와 전쟁 부문에서 AI 기술이나 LLM을 사용하는 경우의 특정 문구를 삭제했다.

1월 10일 변경 전까지 사용 약관은 구체적으로 무기 개발, 군사 및 전쟁, 자해 행위 조장 및 장려 콘텐츠에 오픈AI 모델을 사용하는 것을 금지하고 있었다. 오픈AI는 정책을 업데이트하면서 내용을 요약하고 서비스별 지침을 만들어 문서에 가독성을 더했다고 발표했다.
 
ⓒ Getty Images Bank

오픈AI의 정책 변화는 국방 또는 군사 관련 기관과의 협력을 조금씩 허용하는 것으로 보인다. AI로 인한 프론티어 리스크는 CEO 샘 알트먼을 비롯해 많은 전문가가 강조해 왔다.
 

AI로 인한 위험 계속 지적돼

지난해 5월 수백 명의 IT 업계 경영자와 책임자, 학자, 기타 유명인은 AI의 진화가 인류의 멸종으로 이어질지 모른다는 경고 서한에 서명하면서 AI 통제가 전 세계 최우선 과제가 되어야 한다고 주장했다.

미국 샌프란시스코의 AI 안전 센터 역시 “AI로 인한 인류 멸종 위험을 줄이는 것은 전염병, 핵 전쟁 같은 대규모 위험과 함께 전 세계적 우선순위가 되어야 한다”라고 주장했다. 

서명자 중 샘 알트먼과 마이크로소프트 CTO 케빈 스콧이 있다는 것이 아이러니였다. 구글 AI 연구소인 딥마인드의 임원, 엔지니어, 과학자들도 서명에 동참했다.

지난해 3월 1,100명 이상의 IT 저명인사, 과학자가 AI로 대규모 실험을 진행하는 연구소를 대상으로 경고를 보낸 것이 AI에 반대하는 최초의 서명이었다. 

지난 10월 오픈AI는 프론티어 AI 모델이라는 개념이 핵 전쟁 등 여러 위협을 일으키는 것을 막는 부서를 만들 것이라고 밝혔다. 오픈AI는 블로그를 통해 “현재 가장 진보한 기존 모델을 뛰어넘는 프론티어 AI 모델은 모든 인류에게 혜택을 줄 것이라고 믿는다”라면서도 “그러나 점점 심각한 위험을 초래할 수도 있다”라고 밝혔다.

2017년 AI 및 로봇 공학 전문가로 구성된 한 국제 그룹은 화약과 핵무기에 이은 자율 무기로 대표되는 ‘제3의 전쟁 혁명’을 우려하며 자율 무기 사용을 중단하라는 공개 서한을 UN에 보냈다. 역시 아이러니하게도 이 전문가 집단에는 오픈AI와 경쟁하려고 X.AI라는 AI 기업을 설립한 일론 머스크도 포함되어 있었다.
 

우려할 이유도 분명해

더 우려할 만한 이유도 있다. 악하거나 나쁜 AI 모델의 성능을 축소하거나 선으로 재훈련할 수 없다고 주장하는 연구자도 있다.

앤트로픽(Anthropic)의 한 연구에 따르면 AI 시스템에 기만적 행동이나 전략을 학습할 경우 그러한 행동이 지속될 수 있다. 연구진은 “이러한 백도어 동작은 지속성을 지닐 수 있으므로 감독을 통해 미세 조정, 강화 학습, 적대적 훈련 등의 표준 안전 훈련 기법으로는 제거되지 않는다는 점”을 발견했다.

또한, 연구진은 “이번 연구를 통해 모델이 기만적인 행동을 나타낼 경우 표준 기법으로는 완화할 수 없고, 오히려 안전하다는 잘못된 인상을 심을 수 있다”라고 밝혔다. 더욱 우려스러운 점은 모델의 기만적 행동을 방지하기 위해 적대적 훈련을 하면 모델이 백도어 트리거를 더 잘 인식하도록 학습되어 안전하지 않은 행동을 효과적으로 숨길 수 있다는 점이었다.
editor@itworld.co.kr 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.