아동학대
애플, CSAM 탐지 기능 연내 출시 불투명…"사이트 내 언급 사라져"
애플이 아이폰 사용자 사진을 스캔해 아동 성 착취물(CSAM)일 가능성이 있는 이미지를 찾아내는 시스템을 발표한 것은 올해 초다. 사전 검열이라는 반론이 꾸준히 제기된 이후 2021년 후반으로 기능 적용을 미뤘다. 아마도 서비스 개시일이 한 차례 더 ...
애플, 신기술로 "프라이버시 침해 없이" 아이클라우드에서 불법 이미지 색출
테크크런치는 애플이 조만간 아이클라우드에 올라온 사진을 검사해 아동 성착취 사진(Child Sexual Abuse Material, CSAM)을 색출할 새로운 기술을 적용할 것이라고 확인했다. 애플은 올해 하반기 자사 제품과 서비스를 아이들이 좀 더 ...