AIㆍML / 보안

영국 규제당국 “생성형 AI에 사용되는 데이터, 데이터 보호법 적용된다” 경고

Charlotte Trueman | CSO 2023.04.05
이탈리아가 개인정보 침해 여부를 조사하기 위해 챗GPT를 금지한 데 이어 영국 데이터 규제당국 역시 LLM(Large Language Model)과 생성형 AI를 개발하고 배포할 때 개인정보 보호에 주의할 것을 당부했다.
 
ⓒ Getty Images Bank

영국 ICO(Information Commission’s Office)는 사용 중인 개인정보의 출처가 공개적으로 접근할 수 있는 소스라 하더라도 데이터 보호법이 여전히 적용됨을 기업에 상기시키는 내용의 블로그 글을 게시했다. ICO 기술 및 혁신 부문 이사 스티븐 아몬드는 “생성형 AI를 개발하거나 사용하는 기업은 설계 및 기본 접근 방식에 따라 데이터 보호 조치를 취하면서 처음부터 데이터 보호 의무를 고려해야 한다”라고 강조했다.

또한 아몬드는 생성형 AI 개발 목적으로 개인 데이터를 처리하는 기업은 개인 데이터 처리에 대한 법적 근거는 무엇인지, 보안 위험을 어떻게 완화할 것인지, 개인의 권리 요청에 어떻게 대응할 것인지에 초점을 맞춰야 한다고 덧붙였다.

아몬드는 “생성형 AI가 개인정보에 미치는 영향을 잘못 이해하는 것은 용납하지 않는다”라며, 최근 챗GPT가 자신에게 “생성형 AI는 다른 기술과 마찬가지로 책임감 있게 사용하지 않으면 데이터 프라이버시에 위험을 초래할 수 있다”라고 답변한 것을 언급했다.

이어 “기업이 올바른 작업을 수행할 수 있도록 노력할 것”이라고 덧붙였다. 

최근 생성형 AI가 야기할 수 있는 위험을 우려한 곳은 영국과 이탈리아 데이터 규제당국뿐만이 아니다. 지난 달 스티브 워즈니악, 일론 머스크를 비롯한 1,100명 이상의 IT 업계 리더 및 과학자 그룹은 오픈AI(OpenAI)가 최근 새롭게 출시한 GPT-4를 능가하는 시스템 개발을 6개월간 중단할 것을 촉구했다.

이들은 공개서한에서 디스토피아적 미래를 묘사하며 첨단 AI가 “우리 문명에 대한 통제력 상실”로 이어질 수 있다고 지적한 한편, 인간을 가장한 챗봇이 소셜 미디어 플랫폼에 정치 선전이나 가짜 뉴스를 쏟아내 민주주의를 위협하는 상황에 대해서도 경고했다.

또한 AI가 “성취감을 느낄 수 있는 일을 포함해 모든 일을 자동화할 수 있다”라고도 우려했다.


AI 규제가 어려운 이유

가트너 애널리스트 프랭크 부이텐디크는 AI 규제와 관련한 가장 큰 문제는 혁신이 너무 빠르게 진행돼 규제가 따라잡기 어렵다는 점이라고 지적하면서도, 규제가 너무 구체적이면 기술이 발전하는 순간 실효성을 잃는다고 지적했다. 

부이텐디크는 궁극적으로 AI 혁신을 저해하는 것은 규제가 아니라 실수로 인한 신뢰 및 사회적 수용 상실이라고 덧붙였다. 이어 “모델에 편향성 확인을 요구하고 알고리즘의 투명성을 요구하는 AI 규제는 편향성 감지와 투명성 및 설명가능성을 달성하는 데 도움이 될 것이다”라고 강조했다.
editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.