최근의 정책 변경을 통해 유럽연합과 영국의 페이스북과 인스타그램 사용자는 메타가 생성형 AI 모델 훈련에 모든 공개 게시물을 사용할 계획이라는 사실을 알게 되었다.
미국에서 메타는 오랫동안 공개적으로 게시된 페이스북과 인스타그램 게시물을 메타 AI 챗봇을 훈련시키는 데 사용해 왔지만, 이 점을 인지한 사용자는 소수에 그친다. 메타 AI와의 사용자 상호 작용도 학습에 사용된다.
메타는 6월 26일부터 유럽연합과 영국 사용자를 대상으로 시행될 예정이었던 개인정보 보호정책을 변경하여 공개 게시물, 이미지, 댓글, 지적 재산 등을 사용하여 메타 AI와 이를 구동하는 모델, 즉 회사의 라마 대규모 언어 모델(LLM)을 훈련할 수 있도록 했다. LLM은 생성형 AI 엔진의 기반이 되는 알고리즘 또는 프로그램이다. 페이스북은 모델 학습에 비공개 게시물이나 비공개 메시지를 사용하지 않을 것이라고 밝혔다.
6월 10일자 보도자료에 따르면, EU와 영국의 사용자는 개인 콘텐츠가 AI 학습에 사용되는 것을 거부할 수 있지만, 이의 신청서를 작성하는 방식으로만 가능하다.
EU와 영국 규제 당국은 메타의 계획을 알게 되자 개인정보 보호 문제를 거론하며 반발했다. 그 후 메타는 EU 내 사용자를 위한 개인정보 보호정책 변경 계획을 일시 중단했으며, "현재로서는 유럽에서 메타 AI를 출시할 수 없다"라고 덧붙였다.
아일랜드의 데이터 보호 위원회(DPC)는 메타가 새 정책의 시행을 일시 중단한 것에 대해 "이번 결정은 DPC와 메타 간의 집중적인 논의에 따른 것"이라는 답변을 게시했다. DPC는 다른 EU 데이터 보호 당국과 협력하여 이 문제에 대해 메타와 계속 소통할 것이라고 밝혔다.
메타는 Computerworld의 논평 요청에 글로벌 참여 담당 이사인 스테파노 프라타의 블로그 게시물을 인용하여 답변했다. 프라타는 메타가 "이미 유럽인의 데이터를 사용해 AI를 학습시킨 구글과 오픈AI를 비롯한 다른 기업의 모범을 따르고 있다"라고 말했다.
프라타는 "메타의 접근 방식은 이미 유사한 공개 정보로 모델을 학습시키는 많은 업계 경쟁사보다 더 투명하고 제어가 쉽다. 모델은 특정 사람이나 정보를 식별하는 것이 아니라 구어체 문구나 지역 참조를 이해하는 등 패턴을 식별하기 위해 사람들의 정보를 살펴보는 방법으로 구축된다"라고 설명했다.
프라타는 메타가 사용자가 공개하기로 선택한 콘텐츠만을 사용하여 기본 AI 모델을 구축하고 있다고 거듭 강조했다.
영국이나 유럽에 비해 개인정보 보호가 취약한 미국에서는 메타의 사용자가 자신의 공개 게시물과 댓글이 회사의 AI 모델 학습에 사용되는 것을 거부할 기회가 주어지지 않았다. 뉴욕 타임즈에 게재된 성명에서 메타는 미국 사용자에 대해 "현재 선택을 비활성화하는 기능은 없지만, 사용자가 앱 내 메타 AI와의 채팅에서 개인 정보를 삭제할 수 있는 플랫폼 내 도구를 구축했다"라고 말했다.
가트너 부사장 애널리스트 아비바 리탄은 메타가 유럽 사용자의 게시물과 기타 정보를 계획적으로 사용한 것은 "매우 당황스러운 일"이라며 "메타가 사용자들에게 서비스를 불신할 이유를 제공했다"라고 말했다.
리탄은 최소한 사용자가 쉽게 데이터 제공 동의를 철회할 수 있도록 해야 하며, 게시물 사용이어떤 영향을 미치는지 이해할 수 있도록 해야 한다고 말했다.
리탄은 "사용자와 기업은 AI 모델 소유 기업이 개인 데이터를 사용해 모델을 훈련하고 개선하는 것을 당연히 우려한다. 실제로 생성형 AI의 위험과 위협에 대한 주된 우려가 바로 이 점이다. 이제 메타는 그 우려가 타당하다는 것을 증명하고 있다”라고 지적했다.
5월 31일에 메타는 "AI 계획을 확장함에 따라 개인정보 보호정책을 업데이트한다"라는 이메일을 통해 사용자에게 개인정보 보호정책 변경을 알렸다. 이메일 알림에는 "이제 메타에서 AI를 개발하고 개선하기 위해 사용자의 정보를 사용할 때 정당한 이익이라는 법적 근거에 의존할 것"이라고 명시되어 있다.
리탄은 개인정보 보호정책 업데이트를 이메일로 알리면 하루에도 수많은 이메일을 받는 데 익숙한 수신자가 알아채지 못하는 경우가 많다고 말했다. 게다가 대부분의 사용자는 새로운 정책에서 데이터 제공 동의를 비활성화하는 방법을 이해하지 못한다고 지적했다.
리탄은 "사용자는 개인정보 보호 프로세스라는 블랙박스의 이면에서 일어나는 모든 복잡한 기술을 이해하지 못하기 때문에 불만이 늘어난다. 물론 메타에는 궁금한 점이 있을 때 상담할 수 있는 직원도 없고, 데이터 제공을 선택하지 않으면 무엇이 달라지는지를 설명하거나 데이터 제공을 거부하는 방법을 설명하는 튜토리얼이나 동영상도 없다"라고 덧붙였다.
메타가 자사 수익을 높이기 위해 사용자 데이터를 사용하므로 사용자에게 데이터 비용을 지불해야 한다는 의견도 있다.
기업과 사용자가 공개적으로 게시한 데이터를 활용하여 기술을 개발하는 것은 메타만이 아니다. 리탄은 애플을 제외하고는 소비자와 기업이 사용하는 AI를 호스팅하는 하이퍼스케일러나 거대 IT 기업 중에서 사용자가 보안 및 개인 정보 보호와 관련된 주장을 검증하록 허용하는 곳은 전혀 없다며 '신뢰하지만 검증하지는 않는' AI 모델의 위험을 강조했다.
editor@itworld.co.kr