Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

뉴럴해시

IDG 블로그 | “의도만 좋았다” 애플의 도를 넘은 CSAM 대응

최신 소식에 따르면, 애플은 남아도는 역량을 CSAM(Child Sexual Abuse Material)과 싸우는 데 사용하고자 한다. 언제나 그렇듯이, 애플의 의도는 좋고, 원대한 목표로 나아가고자 한다. 그리고는 이런 과유불급으로 사람들이 반대할 이유를 수십 개씩 만들어 낸다. 오랜 속담을 인용하자면, 지옥으로 가는 길은 선의로 포장되어 있고, 이번 경우에는 원 애플 파크 웨이(One Apple Park Way, 애플 본사 주소)에서 시작됐다. 쿠퍼티노는 좋은 아이디어가 끔찍한 처형이 되는 곳인 것 같다. 이번 소동은 지난 주 애플이 CSAM을 방지할 수 있는 뭔가를 할 것이라고 발표하면서 시작됐다. 이때까지는 좋았다. 애플의 전술에는 아이들이 누드 사진이나 기타 성적인 이미지를 다운로드하면 부모에게 알려주는 것도 포함되어 있다. 애플 전술의 기술적인 측면을 자세히 들여다보지 않더라도, 이런 방식이 잘못될 수 있는 가능성은 거의 무한대라는 것을 알 수 있다. 그래서 애플 본사가 인피니티 루프라는 이름을 지었는지도 모른다. 자신의 감정을 잘 모르는 청소년은 자신의 욕구와 생각을 이해하고자 노력할 것이다. 그런데, 이런 청소년의 검색 내용이 즉각 부모와 공유된다면? 청소년이 자신의 감정을 원하는 사람과 원하는 시간에 이야기할 수 있는 권리를 보장하는 방법이 아니지 않은가? 많은 사람이 지적했듯이, 일부 가정에서는 아이들의 이런 행동은 심각한 처벌로 이어질 수 있다. 스마트폰 검색 결과로 아이들의 마음을 알 수 있다고 생각하는 것일까? 부모의 입장에서도 과연 이런 조처가 아이를 위한 옳은 일인지 의심하지 않을 수 없다. 하지만 옳건 그르건, 필자는 애플 엔지니어의 전화는 받고 싶지 않다. 애플 알고리즘의 전화는 더더욱 싫다. 이외에도 프라이버시 침해에 대한 지적은 무수히 많다. 잊지 말아야 할 것이 있다. 정책 상 애플은 일정한 방식으로 지역 법률과 규제를 따른다. 일부 국가는 이 문제를 어떻게 볼 것인지 생각해야 한다. 애플의 문구처럼 이 변화는 “자...

애플 뉴럴해시 CSAM 2021.08.11

애플 아이클라우드 사진 검사 계획으로 정부 데이터 접근에 대한 새로운 우려 확산

애플이 새롭게 발표한 ‘어린이를 위한 확장된 보호(Expanded Protections for Children)’를 두고 촉발된 논란이 주말 내내 이어졌다. 어린이를 위한 확장된 보호는 애플 플랫폼 전반에서 아동 성적 학대 자료(CSAM)를 강력하게 단속하기 위한 일련의 조치다. 새로운 보호 조치는 부모를 위한 커뮤니케이션 툴과 시리 업데이트, 어린이와 부모가 안전하지 않은 상황에 대처하는 데 도움이 되는 검색을 포함한 세 가지 영역으로 구성된다.    암호화 전문가, 사이버 보안 전문가, 프라이버시 옹호자가 논쟁을 벌이는 부분은 “새로운 암호화를 적용해 사용자 프라이버시를 보호하면서 온라인에서 CSAM의 확산을 억제한다”는 애플의 계획이다. 이 계획은 사용자의 사진 라이브러리를 스캔한 다음 새로운 형식의 암호화를 적용해 기존 CSAM 라이브러리의 이미지와 비교한다.  애플은 iOS와 아이패드OS의 새로운 암호화 애플리케이션을 통해 사용자의 전체 사진 라이브러리를 스캔해서 애플 디바이스에서 아이클라우드 사진으로 업로드된 알려진 CSAM 이미지를 찾은 다음, 이를 국립 실종 및 착취 아동 센터(NCMEC)에 보고할 수 있다. 애플은 “뉴럴해시(NeuralHash)라는 해시 기술은 이미지를 분석해 고유한 숫자로 변환하고, 이를 통해 시스템은 “NCMEC 및 기타 어린이 안전 기관이 제공한 알려진 CSAM 이미지 해시의 데이터베이스를 사용해서 디바이스에서 바로 대조할 수 있다”고 설명했다.  이에 대해 유명 암호화 전문가인 매튜 그린이 트위터에 “아주 나쁜 아이디어”라는 글을 올렸고, 이를 시작으로 격렬한 논쟁이 이어졌다. 문제는 이 시스템이 미국을 비롯한 여러 국가의 정부가 1990년대부터 원했던 암호화 백도어를 제공하는 시발점이 될 수 있다는 부분이다. 그린은 “이와 같은 종류의 툴은 사용자 휴대폰에서 아동 포르노물을 찾는 데 유용하겠지만, 독재 정권의 손에서 그 툴이 어떻게 이용될지 상상해 보라”고 지적했다. ...

애플 아이클라우드 암호화 2021.08.11

애플, 신기술로 "프라이버시 침해 없이" 아이클라우드에서 불법 이미지 색출

테크크런치는 애플이 조만간 아이클라우드에 올라온 사진을 검사해 아동 성착취 사진(Child Sexual Abuse Material, CSAM)을 색출할 새로운 기술을 적용할 것이라고 확인했다. 애플은 올해 하반기 자사 제품과 서비스를 아이들이 좀 더 안전하게 사용할 수 있도록 다양한 기술을 도입할 예정이다.    대부분 클라우드 서비스가 SCAM을 비롯해 자사 서비스 규정이나 법률을 위반한 이미지를 검사한다. 클라우드 서비스 업체가 암호키를 가지고 있어 암호화된 이미지도 검사할 수 있기 때문이다. 하지만 애플은 오랫동안 다른 정책을 고수하고 있는데, 사용자가 디바이스에서 사진을 암호화해 아이클라우드에 저장하면 애플은 이런 사진을 복호화할 수 없다. 애플은 뉴럴해시(NeuralHash)란 새 기술을 이용해 사진을 복호화하지 않고도 아이클라우드에 업로드된 이미지가 아동 학대 이미지와 일치하는지 점검할 예정이다. 뉴럴해시 기술은 온전히 사용자의 아이폰이나 아이패드, 맥에서 동작하며, 사진을 유일무이한 문자와 숫자열(해시)로 변환한다. 일반적으로 사진이 약간만 변경되어도 다른 해시가 나오지만, 애플의 기술은 자르기 같은 작은 변경이 일어나도 동일한 해시가 나온다. 이렇게 생성된 해시는 디바이스의 이미지를 CSAM용 해시 데이터베이스와 대조하는 데 사용된다. 해시는 기반이 되는 이미지의 내용을 알거나 사용자에게 알릴 필요없이 대조할 수 있다. 특정 조건이 맞으면 대조 결과를 애플로 보낸다. 이렇게 확인된 경우에만 애플은 이미지를 복호화해 수작업으로 내용을 확인하고 사용자의 계정을 폐쇄한다. 이후 해당 이미지를 미국 국립 실종학대아동방지센터에 보고하고 사법기관에 인계한다. 다시 말해, 애플이 사용자의 사진을 복호화할 수 있는 역량을 갖는 것과는 상당히 거리가 멀다. 테크크런치에 따르면, 애플은 오류가 발생할 가능성이 1조분의 1 정도 있으며, 실수로 계정이 폐쇄됐다고 생각하는 사용자를 위한 항의 프로세스도 마련했다. 기술 적용도 선택적인데, 아...

뉴럴해시 아이클라우드 아동학대 2021.08.06

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.