2021.08.11

IDG 블로그 | 애플 "CSAM 감지 기술 확대 적용은 없다"

Jonny Evans | Computerworld
애플은 논란이 되고 있는 자사 아동 성 착취물(CSAM) 감지 시스템에 대한 비판을 피하려 하고 있다. 그러나 애플의 이러한 행동은 오히려 현재 무엇이 문제인지 분명하게 보여준다.
 
ⓒ Apple

지난 주 애플은 올 가을 새로운 운영체제가 출시되면 iOS 15와 아이패드OS 15, 맥OS 몬터레이에 다양한 아동 보호 조치가 도입될 것이라고 밝혔다.

예를 들어, 온 디바이스 시스템은 불법적인 아동 성 착취물에 대한 증거를 확보하기 위해 아이클라우드 라이브러리를 검사한다. 아이들을 보호하는 데에는 완전히 적합하지만, 프라이버시 옹호자는 애플의 CSAM 감지 시스템이 본격적인 감시 기술이 될 가능성을 염려한다.

애플은 비판을 최소화하기 위해 CSAM 감지 기술이 어떻게 작용하는 지에 대해 조금 더 설명한 최신 정보를 홈페이지에 업데이트 했다. 애플 백서에 따르면, CSAM 감지 기술은 기기 내 이미지를 숫자로 나타낸 해시로 변환한다. 아이클라우드에 사진을 업로드하면 이 해시를 CSAM으로 확인된 이미지의 해시 데이터베이스와 대조한다.

애플은 해시 기술을 사용해 사용자의 기기에서 이미지를 분석하는데, 모든 이미지를 체크하거나 검사하진 않는다. 아동 성 착취물로 식별된 이미지만 색출한다. 애플은 전체 라이브러리를 검사하지 않고도 색출 가능하다는 점에서 기술이 매우 개선됐다고 주장한다.

최근 애플 홈페이지에 올라온 FAQ에 따르면, 타사가 기존에 사용한 기술은 클라우드에 저장된 사용자의 모든 사진을 검사하기 때문에 프라이버시 침해 위험을 유발한다. 하지만 애플의 CSAM 감지 기술은 프라이버시 측면에서 상당한 이점을 제공한다. 애플은 아동 성 착취물로 분류된 이미지와 일치하고 CSAM 이미지를 포함한 아이클라우드 사진 계정 내에 저장된 이미지만 학습한다.

애플이 이렇게 안심시키는 데도 불구하고, 여전히 CSAM 감지 기술이 다른 콘텐츠까지 모니터링할지도 모른다는 우려가 확산되고 있다. 아동 성 착취 이미지 모음을 식별 가능한 데이터로 변환할 수 있으면, 모든 것을 스캔 가능한 개인정보 데이터로 변환할 수도 있기 때문이다. 프라이버시 옹호자 애드워드 스노우덴은 “오늘 아동 포르노를 스캔하면, 내일은 모든 것도 스캔할 수 있다”라고 경고했다.
 

믿고 맡길 것인가

애플은 다른 부문에 CSAM 감지 기술 도입할 계획은 없다고 밝혔다.

CSAM 감지 기술 관련 FAQ에 따르면, 그동한 애플은 사용자의 프라이버시를 약화하라는 정부의 압박을 꾸준히 받았지만, 이를 확고하게 거부해왔고, 앞으로도 그럴 것이라고 밝혔다. CSAM 감지 기술은 아이클라우드에 저장된 아동 성 착취 사진을 감지하는 데 한정돼 있으며, 기술을 확장하라는 정부의 어떤 요구에도 응하지 않을 것이라고 덧붙였다.

애플의 이런 언급을 보면 안심해도 될 것 같지만, 꼭 그런 것은 아니다. 일단 CSAM 감지 기술이 있다는 것이 확인된 이상, 이를 CSAM을 넘어 사용자 기기 차원의 감시로 확장하려는 국가는 수단을 가리지 않고 애플에 압박을 가할 가능성이 매우 크다.

전자 프런티어 재단 측은 “애플이 구축 중인 백도어를 확장하기 위해 필요한 것은 다른 형태의 콘텐츠를 들여다볼 수 있는 머신러닝 변수뿐이다”라고 말했다.

이러한 백도어의 확장을 막는 것은 쉽지 않을 것이다. 애플이 앞으로 싸우면서 해결해 나가야 할 과제이기도 하다.
 

프라이버시 전쟁은 시작됐다

이러한 싸움은 어쩌면 애플이 원하는 것일지도 모른다. 실제로 애플은 자체 생태계 내에서 사용자 프라이버시를 보호하는 데 많은 진전을 이뤄왔고, 온라인 프라이버시 보호를 위한 법 개정을 지원한 것으로도 유명하다.

최근 애플 CEO 팀 쿡은 “이제는 미국 내 종합적인 프라이버시 법 만으로는 부족하다”라며, 전 세계적으로 데이터 최소화와 사용자에 대한 고지, 사용자 데이터 접근과 보안을 보장하는 국제법과 새로운 합의가 필요한 시점이다”라고 강조했다.

일부에서는 큰 논란이 된 애플의 새로운 아동 보호 조치가 온라인 및 상호 연결된 세상에서의 권리와 프라이버시 침해에 대한 더 폭넓은 논의로 이어졌다고 지적한다. 아동 성 착취물 보안 시스템이 다른 콘텐츠 감시로까지 확장하는 것을 막는 유일한 방법은 애플이 이러한 압력에 저항할 수 있도록 지지하는 것뿐이다.

이런 도움 없이 애플이 혼자 정부에 대항하기는 쉽지 않을 것이다. 결국 사람들의 지지가 없다면 애플이 정부의 압력에 굴복하는 것은 가능성이 아니라 시기의 문제일 뿐이다. 하지만 아직은 시간이 있다. 각국 정부가 온라인 프라이버시에 대해 합의하는 것도 가능할 것이다.

현재는 쉽지 않은 도박인 것이 분명하다. 그동안 팀 쿡이 정의로 나아가는 햇빛이 비치는 길을 따라 쌓으려고 했던 벽돌이 오히려 여정을 방해하는 벽이 될지도 모른다. 혹은 애플의 단호한 노력이 이 긴 여정을 끝낼 프레임워크의 완성으로 이어질 수도 있다. 이러한 논쟁은 이 길이 얼마나 험난한가를 잘 보여준다. editor@itworld.co.kr


2021.08.11

IDG 블로그 | 애플 "CSAM 감지 기술 확대 적용은 없다"

Jonny Evans | Computerworld
애플은 논란이 되고 있는 자사 아동 성 착취물(CSAM) 감지 시스템에 대한 비판을 피하려 하고 있다. 그러나 애플의 이러한 행동은 오히려 현재 무엇이 문제인지 분명하게 보여준다.
 
ⓒ Apple

지난 주 애플은 올 가을 새로운 운영체제가 출시되면 iOS 15와 아이패드OS 15, 맥OS 몬터레이에 다양한 아동 보호 조치가 도입될 것이라고 밝혔다.

예를 들어, 온 디바이스 시스템은 불법적인 아동 성 착취물에 대한 증거를 확보하기 위해 아이클라우드 라이브러리를 검사한다. 아이들을 보호하는 데에는 완전히 적합하지만, 프라이버시 옹호자는 애플의 CSAM 감지 시스템이 본격적인 감시 기술이 될 가능성을 염려한다.

애플은 비판을 최소화하기 위해 CSAM 감지 기술이 어떻게 작용하는 지에 대해 조금 더 설명한 최신 정보를 홈페이지에 업데이트 했다. 애플 백서에 따르면, CSAM 감지 기술은 기기 내 이미지를 숫자로 나타낸 해시로 변환한다. 아이클라우드에 사진을 업로드하면 이 해시를 CSAM으로 확인된 이미지의 해시 데이터베이스와 대조한다.

애플은 해시 기술을 사용해 사용자의 기기에서 이미지를 분석하는데, 모든 이미지를 체크하거나 검사하진 않는다. 아동 성 착취물로 식별된 이미지만 색출한다. 애플은 전체 라이브러리를 검사하지 않고도 색출 가능하다는 점에서 기술이 매우 개선됐다고 주장한다.

최근 애플 홈페이지에 올라온 FAQ에 따르면, 타사가 기존에 사용한 기술은 클라우드에 저장된 사용자의 모든 사진을 검사하기 때문에 프라이버시 침해 위험을 유발한다. 하지만 애플의 CSAM 감지 기술은 프라이버시 측면에서 상당한 이점을 제공한다. 애플은 아동 성 착취물로 분류된 이미지와 일치하고 CSAM 이미지를 포함한 아이클라우드 사진 계정 내에 저장된 이미지만 학습한다.

애플이 이렇게 안심시키는 데도 불구하고, 여전히 CSAM 감지 기술이 다른 콘텐츠까지 모니터링할지도 모른다는 우려가 확산되고 있다. 아동 성 착취 이미지 모음을 식별 가능한 데이터로 변환할 수 있으면, 모든 것을 스캔 가능한 개인정보 데이터로 변환할 수도 있기 때문이다. 프라이버시 옹호자 애드워드 스노우덴은 “오늘 아동 포르노를 스캔하면, 내일은 모든 것도 스캔할 수 있다”라고 경고했다.
 

믿고 맡길 것인가

애플은 다른 부문에 CSAM 감지 기술 도입할 계획은 없다고 밝혔다.

CSAM 감지 기술 관련 FAQ에 따르면, 그동한 애플은 사용자의 프라이버시를 약화하라는 정부의 압박을 꾸준히 받았지만, 이를 확고하게 거부해왔고, 앞으로도 그럴 것이라고 밝혔다. CSAM 감지 기술은 아이클라우드에 저장된 아동 성 착취 사진을 감지하는 데 한정돼 있으며, 기술을 확장하라는 정부의 어떤 요구에도 응하지 않을 것이라고 덧붙였다.

애플의 이런 언급을 보면 안심해도 될 것 같지만, 꼭 그런 것은 아니다. 일단 CSAM 감지 기술이 있다는 것이 확인된 이상, 이를 CSAM을 넘어 사용자 기기 차원의 감시로 확장하려는 국가는 수단을 가리지 않고 애플에 압박을 가할 가능성이 매우 크다.

전자 프런티어 재단 측은 “애플이 구축 중인 백도어를 확장하기 위해 필요한 것은 다른 형태의 콘텐츠를 들여다볼 수 있는 머신러닝 변수뿐이다”라고 말했다.

이러한 백도어의 확장을 막는 것은 쉽지 않을 것이다. 애플이 앞으로 싸우면서 해결해 나가야 할 과제이기도 하다.
 

프라이버시 전쟁은 시작됐다

이러한 싸움은 어쩌면 애플이 원하는 것일지도 모른다. 실제로 애플은 자체 생태계 내에서 사용자 프라이버시를 보호하는 데 많은 진전을 이뤄왔고, 온라인 프라이버시 보호를 위한 법 개정을 지원한 것으로도 유명하다.

최근 애플 CEO 팀 쿡은 “이제는 미국 내 종합적인 프라이버시 법 만으로는 부족하다”라며, 전 세계적으로 데이터 최소화와 사용자에 대한 고지, 사용자 데이터 접근과 보안을 보장하는 국제법과 새로운 합의가 필요한 시점이다”라고 강조했다.

일부에서는 큰 논란이 된 애플의 새로운 아동 보호 조치가 온라인 및 상호 연결된 세상에서의 권리와 프라이버시 침해에 대한 더 폭넓은 논의로 이어졌다고 지적한다. 아동 성 착취물 보안 시스템이 다른 콘텐츠 감시로까지 확장하는 것을 막는 유일한 방법은 애플이 이러한 압력에 저항할 수 있도록 지지하는 것뿐이다.

이런 도움 없이 애플이 혼자 정부에 대항하기는 쉽지 않을 것이다. 결국 사람들의 지지가 없다면 애플이 정부의 압력에 굴복하는 것은 가능성이 아니라 시기의 문제일 뿐이다. 하지만 아직은 시간이 있다. 각국 정부가 온라인 프라이버시에 대해 합의하는 것도 가능할 것이다.

현재는 쉽지 않은 도박인 것이 분명하다. 그동안 팀 쿡이 정의로 나아가는 햇빛이 비치는 길을 따라 쌓으려고 했던 벽돌이 오히려 여정을 방해하는 벽이 될지도 모른다. 혹은 애플의 단호한 노력이 이 긴 여정을 끝낼 프레임워크의 완성으로 이어질 수도 있다. 이러한 논쟁은 이 길이 얼마나 험난한가를 잘 보여준다. editor@itworld.co.kr


X