iOS / 보안

애플, 신기술로 "프라이버시 침해 없이" 아이클라우드에서 불법 이미지 색출

Jason Cross | Macworld 2021.08.06
테크크런치는 애플이 조만간 아이클라우드에 올라온 사진을 검사해 아동 성착취 사진(Child Sexual Abuse Material, CSAM)을 색출할 새로운 기술을 적용할 것이라고 확인했다. 애플은 올해 하반기 자사 제품과 서비스를 아이들이 좀 더 안전하게 사용할 수 있도록 다양한 기술을 도입할 예정이다. 
 
ⓒ Getty Images Bank

대부분 클라우드 서비스가 SCAM을 비롯해 자사 서비스 규정이나 법률을 위반한 이미지를 검사한다. 클라우드 서비스 업체가 암호키를 가지고 있어 암호화된 이미지도 검사할 수 있기 때문이다. 하지만 애플은 오랫동안 다른 정책을 고수하고 있는데, 사용자가 디바이스에서 사진을 암호화해 아이클라우드에 저장하면 애플은 이런 사진을 복호화할 수 없다.

애플은 뉴럴해시(NeuralHash)란 새 기술을 이용해 사진을 복호화하지 않고도 아이클라우드에 업로드된 이미지가 아동 학대 이미지와 일치하는지 점검할 예정이다. 뉴럴해시 기술은 온전히 사용자의 아이폰이나 아이패드, 맥에서 동작하며, 사진을 유일무이한 문자와 숫자열(해시)로 변환한다. 일반적으로 사진이 약간만 변경되어도 다른 해시가 나오지만, 애플의 기술은 자르기 같은 작은 변경이 일어나도 동일한 해시가 나온다.

이렇게 생성된 해시는 디바이스의 이미지를 CSAM용 해시 데이터베이스와 대조하는 데 사용된다. 해시는 기반이 되는 이미지의 내용을 알거나 사용자에게 알릴 필요없이 대조할 수 있다. 특정 조건이 맞으면 대조 결과를 애플로 보낸다. 이렇게 확인된 경우에만 애플은 이미지를 복호화해 수작업으로 내용을 확인하고 사용자의 계정을 폐쇄한다. 이후 해당 이미지를 미국 국립 실종학대아동방지센터에 보고하고 사법기관에 인계한다.

다시 말해, 애플이 사용자의 사진을 복호화할 수 있는 역량을 갖는 것과는 상당히 거리가 멀다. 테크크런치에 따르면, 애플은 오류가 발생할 가능성이 1조분의 1 정도 있으며, 실수로 계정이 폐쇄됐다고 생각하는 사용자를 위한 항의 프로세스도 마련했다. 기술 적용도 선택적인데, 아이클라우드 포토를 사용하지 않으면 된다. 하지만 아이클라우드 사용자는 이 기능을 비활성화할 수 없다.

이 기술은 올 가을부터 iOS 15, iPadOS 15, 맥OS 몬터레이의 일부로 적용된다. 애플은 뉴럴해시 기술의 상세한 정보를 설명하는 기술 문서도 발표했다. editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.