보안 / 프라이버시

차등 개인정보보호의 의미와 관련 기업 사용례의 장단점

Peter Wayner | CSO 2021.01.06
과거에는 개인정보보호를 '모 아니면 도' 방식으로 절대적으로 추구해야 했다. 데이터를 보호하는 가장 좋은 방법으로 다중 인증의 탄탄한 방화벽 뒤에서 AES 같은 무적의 알고리즘으로 잠가 두는 것이었다. 
 
ⓒ Getty Images Bank

최근에는 데이터를 신중하게 조정된 무작위성(randomness)을 가미해 변경하거나 수정한 후 자유롭게 두는, 반대의 접근방식을 취하고 있다. 때로는 ‘차등 개인정보보호(Differential privacy)’라고 부르는 이 알고리즘은 염탐꾼이 노이즈가 많은 데이터 바다에서 개인의 개인정보를 빼내지 못하거나, 최소한 그 가능성을 낮출 만큼 충분한 혼란을 더하는 것이다. 

차등 개인정보보호 전략은 수학적인 금고에 데이터를 가두고는 과학적 연구에 사용하거나 통계 분석을 위해 수집하거나 머신러닝 알고리즘 훈련을 위해 분석하지 못하도록 하는 현실에서 생겨났다. 좋은 차등 개인정보보호 알고리즘은 이 모든 작업 이상의 가능성을 열 수 있는데, 최소한 적절하고 효율적인 준동형 알고리즘(homomorphic algorithms)이 등장할 때까지는 공유하기가 더 쉽고 안전해진다.

위조 항목을 섞거나 데이터를 얼버무려 정보를 보호하는 방식은 오래전부터 사용해왔다. 예를 들어, 지도 제작자들은 도용인을 잡기 위해 ‘종이 마을(Paper Towns)’과 ‘함정 거리(Trap Streets)’를 만들었다. ‘차등 개인정보보호’라고 부르던 이 영역은 2006년 잘못된 정보를 섞는 것에 대한 훨씬 엄격한 접근방식을 제시한 신시아 드워크, 프랭크 맥쉐리, 코비 니심, 아담 D. 스미스가 작성한 한 논문에서 시작됐다.

차등 개인정보보호 가운데 가장 단순한 알고리즘을 사용해 얼마나 많은 사람이 각 사람의 선호도를 추적하지 않고 질문에 ‘예’ 또는 ‘아니요’라고 답할 수 있는지 파악할 수 있다. 

진실을 답하는 대신 각 사람은 2개의 동전을 던진다. 첫 번째 동전의 앞면이 나오면 그 사람은 솔직하게 답한다. 첫 번째 동전의 뒷면이 나오면 그 사람은 두 번째 동전을 보고 앞면이 나오면 ‘예’라고 답하고 뒷면이 나오면 ‘아니요’라고 답한다. 일각에서는 이런 접근방식을 ‘무작위 폭로(randomized revelation)’라고 부른다.

이 프로세스로 인해 약 50%의 사람이 자신의 답을 숨기고 조사에 노이즈를 주입한다. 또한 충분한 진실된 답변도 확보해 정확한 평균을 얻을 수도 있다. 누군가 개인의 답변을 훔쳐보려 한다면 그들의 ‘예’ 또는 ‘아니요’ 답변이 진실인지 파악할 수 있지만 평균 같은 취합된 답변은 여전히 정확하게 계산될 수 있다.

새로운 툴킷이 등장하고 있기 때문에 이런 알고리즘에 대한 관심이 증가하고 있다. 예를 들어, 구글은 최근 C++, 고(Go), 자바(Java)로 작성된 일련의 차등 개인정보보호 알고리즘을 공유했다. 마이크로소프트는 머신러닝과 여러 형태의 통계 분석을 지원하기 위해 스마트노이즈(SmartNoise)라는 파이썬(Python) 바인딩(Binding)이 포함된 러스트(Rust) 기반의 라이브러리를 오픈소스화 했다. 

인기 있는 머신러닝 도구 가운데 하나인 텐서플로우(TensorFlow)는 일부 데이터 세트의 프라이버시를 보호하는 알고리즘을 제공한다. 이것은 광범위한 거버넌스를 통해 오픈 소스 범위에서 일련의 통합된 도구를 개발하려고 하는 오픈DP(OpenDP)의 일환이다.

일부 세간의 이목을 끄는 프로젝트들은 무작위 폭로 기술을 이용하고 있다. 예를 들어, 2020년 미국 통계국에 대한 답변은 법률과 전통에 따라 72년 동안 비밀로 유지해야 한다. 

하지만 많은 사람이 통계국 데이터를 계획, 예산 책정 및 새로운 체인점 위치 선정 등의 의사결정에 사용하길 원한다. 그래서 통계국은 통계 요약을 배포하고 있다. 올해는 소규모 블록에 있는 사람의 개인정보를 보호하기 위해 노이즈를 주입해 ‘DAS(Disclosure Avoidance System)’를 통해 보호 기능을 추가할 것이다.

이를 통해 개발자와 기업 팀은 이 접근방식을 자신들의 스택에 더 쉽게 추가할 수 있다. 하지만 추가적인 노이즈 및 코드 계층이 합리적인지 여부를 판단하기 위해서는 장점과 비용 및 한계 사이의 균형을 찾아야 한다. 이 논쟁을 간소화하기 위해 차등 개인정보보호 사용례의 장단점을 정리했다. 무작위 폭로 알고리즘을 사용했는가? 여러분이 결정한다.


공유와 협업

- 장점: 공유는 필수적이다. 점차 많은 프로젝트가 협업에 의존하고 있다. 점차 많은 컴퓨팅이 클라우드로 이뤄지고 있다. 개인정보를 보호하기 위해 좋은 알고리즘을 찾으면 더 많은 사람과 파트너들이 개인정보를 유출하지 않고 데이터를 처리할 수 있다. 노이즈 계층을 더하면 좀 더 안전해지기도 한다.

- 단점: 나쁜 데이터를 공유하는 것이 좋은 해결책일까? 물론, 데이터를 공유하는 것은 좋지만 잘못된 정보를 공유해도 도움이 될까? 차등 개인정보보호 알고리즘은 노이즈(즉, ‘오류’)를 추가하기 때문에 효과가 있다. 평균 계산 등의 알고리즘은 오류들이 서로를 상쇄해 정확한 결과로 이어질 수 있다. 더욱 복잡한 알고리즘은 그렇지가 않다. 또한 데이터 세트가 작을 때는 수정의 영향이 훨씬 커서 큰 왜곡이 발생할 가능성이 있다.


개인정보보호와 정확도 사이에서 균형 잡기

- 장점: 좋은 알고리즘은 균형을 통제한다. 차등 개인정보보호 알고리즘은 단순히 노이즈만 더하는 것이 아니다. 정확도와 개인정보보호 사이의 균형을 보여주고 코드화 한다. 요구사항대로 수정을 조정할 노브(Knob)를 제공한다. 알고리즘을 통해 개인정보보호 예산을 설정한 후 필요에 따라 다양한 데이터 처리 단계를 거쳐 지출할 수 있다. 미적분학을 생각해 보면 이 프로세스의 목적은 미분을 모방하고 프로세스 손실의 기울기를 계산하는 것이다.

많은 차등 개인정보보호 알고리즘이 이 개인정보보호 파라미터를 그리스 문자인 엡실론(Epsilon)이라 명명하고, 정반대 방식으로 적용해 엡실론 값이 크면 데이터에 거의 변화가 없고 엡실론 값이 작으면 노이즈가 더 많이 추가된다. 도치 관계로 인해 숫자가 반직관적이게 될 수 있다.

- 단점: 엡실론도 단순히 숫자에 불과하다. 하지만 모든 수학적인 겉치레와 복잡한 수식은 누군가 숫자를 선택해야 한다는 사실을 숨기고 있을 뿐이다. 2가 1보다 나은가? 어떤 번호가 적합한가? 어느 정도가 적합한가? 1.4232는 어떤가? 간단하게 설명할 수 없으며 모범 사례가 아직 조성되지 않았다. 그렇다 하더라도 길거리의 햄버거 가판대에 가장 적합한 번호가 정원 도구 사업에 적절한 엡실론 값이라고 확신할 수 있을까?

값을 결정하는 것은 복잡할 수 있으며, 데이터 세트를 예측하기가 어려울 때 더 그렇다. 알고리즘은 데이터 값들이 서로 얼마나 가까울 수 있는지로 정의된 데이터의 민감도를 파악하려 한다. 이상적인 노이즈는 사람들을 구분할 수 없게 만들어 공격자가 식별할 수 없도록 한다. 때로는 데이터가 협력하고 때로는 하나의 좋은 엡실론 값을 찾기가 어려울 수 있다.

“설정 방법에 대한 이론은 없다. 정책 결정자들은 아직 시작도 하지 못했다”라고 이 프로세스에 발을 들여 놓고 허우적대는 한 과학자가 말했다. “이를 통해 정책 결정자들의 무릎 위에 올라가게 되며, 이것은 적절하지만 정책 결정자는 엡실론을 적절하게 선택할 이론적인 지원이 없다” 이 번호를 찾는 것은 매우 능동적인 연구 영역이라고 말할 수 있다.


머신러닝의 활성화

- 장점: 머신러닝은 데이터가 필요하다. 머신러닝과 인공 지능(AI)의 가능성을 연구하고 싶다면 이 괴물에게 많은 데이터를 제공해야 한다. 저마다 식성이 다르며, 더 많이 제공할수록 더 잘하게 된다. 웹을 통해 대규모 데이터 집합을 머신러닝 알고리즘에 특화된 특수 프로세서로 전송하려 한다면 차등 개인정보보호가 유일한 선택지일 수 있다.

- 단점: 노이즈는 알 수 없는 영향이 있을 수 있다. 머신러닝 알고리즘은 마법처럼 보일 수 있으며 실제 마법사처럼 비밀과 마법의 숫자로 채워진 모델이 의사를 결정하는 이유를 공개하지 않는 경우가 많다. 데이터의 변화가 결과에 어떤 영향을 미치는지 알 수 없는 경우가 많기 때문에 알고리즘에 수정된 데이터를 입력할 때 이런 미스터리가 가중된다. 평균을 찾는 등 일부 단순한 알고리즘은 통제하고 이해하기가 쉽지만 마법의 블랙박스 안에 들어 있는 것들은 그렇지가 않다.

일부 연구원은 이미 차등 개인정보보호 결과가 오류를 가중시킬 수 있다고 보고하고 있다. 때로는 중요하지 않은 문제일 수도 있다. 아마도 신호가 충분히 강해서 약간의 노이즈는 방해가 되지 않을 수 있다. 때로는 보상할 수 있지만 이로 인해 작업이 훨씬 어려워질 수 있다. 이것을 효율적이며 정확하게 하는 것도 능동적인 연구의 영역이다.


진술 거부권으로 인한 책무성 감소

- 장점: 차등 개인정보보호는 진술 거부권(Deniability)을 제공한다. 사람들은 이 접근방식이 진술 거부권을 제공하기 때문에 데이터를 공유할 때 안심할 수 있다. 알고리즘은 무작위 응답처럼 커버 스토리를 제공한다. 아마도 그 정보는 알고리즘이 만들어낸 무작위 거짓말이었다.

- 단점: 진술 거부권으로 충분하지 않을 수 있다. 데이터 가운데 일부는 무작위이거나 잘못되었기 때문에 일부 질문에 정직하게 답변하기가 더 쉽지 않으며 차등 개인정보보호 알고리즘은 일부 답변이 정확해야 한다. 소유자가 누구인지 확실하지 않더라도 사람들이 정직한 정보의 유출에 관해 어떻게 생각하는지는 확실하지 않다. 

감정적인 대응은 논리적이지 않을 수 있지만 인간은 항상 논리적이지 않다. 개인정보보호에 관한 사람의 감정은 알고리즘으로 전환하기가 쉽지 않다.


데이터를 보호하는 새로운 방법

- 장점: 차등 개인정보보호는 철학적인 접근방식이다. 특수한 알고리즘이 아니다. 수십 가지의 알고리즘이 존재하며 연구원들은 매일 새로운 것들을 수정하고 있다. 일각에서는 정확한 수학적 정의와 맞닥뜨리며 일부는 가까워지고 일부 연구원들이 ‘차등 개인정보보호에 가까운 것’이라고 부르는 형태를 제공한다. 각 알고리즘은 약간 다른 것을 보장할 수 있기 때문에 데이터를 보호하기 위해 많은 기회를 연구할 수 있다.

- 단점: 보장이 없다. 차등 개인정보보호 비전은 확실한 보장을 제공하지 않으며, 실제 데이터와 수정된 데이터 사이의 차이가 엡실론에 의한 관리되는 일부 한계 값에 의해 제한을 받는다. 따라서 일부 실제 정보가 유출되고 노이즈가 있는 버전이 가까울 수 있는 경우가 많지만 최소한 얼마나 많은 정보가 유출되는지에 대한 수학적인 한계가 어느 정도 있다.

- 장점: 차등 개인정보보호 알고리즘은 체인화 되도록 개발되었다. 차등 개인정보보호의 이론적 기초에는 여러 개의 차등 개인정보보호 알고리즘을 서로 쌓을 수 있는 방식에 대한 적절한 설명이 포함되어 있다. 하나가 알파로 측정된 보호를 제공하고 다른 것이 베타로 측정된 다른 보호를 제공하면 함께 알파와 베타를 제공한다. 모범 사례에서는 알고리즘을 레고(Lego) 블럭처럼 연결할 수 있다.

예를 들어, 오픈DP 프로젝트는 체인화 했을 때 얼마나 많은 개인정보를 보존할 수 있는지에 대한 이해를 제공하면서 연동될 수 있는 광범위한 알고리즘을 제공하려 하고 있다. 그 목적은 그 한계에 대한 강력한 이론적 이해와 함께 ‘종단간 차등 개인정보보호 시스템’을 제공하는 것이다.

- 단점: 일부 느린 유출은 위험하다. 모든 차등 개인정보보호 알고리즘이 광범위한 인터넷 모델에 적합한 것은 아니다. 예를 들어, 일부 차등 개인정보보호 쿼리는 작고 감당할 수 있는 양의 정보를 유출시킨다. 하지만 공격자가 유사한 쿼리를 반복할 수 있는 경우 유출이 복합되기 때문에 총 손실이 어마어마할 수 있다. 그렇다고 나쁘다는 뜻은 아니며 설계자들이 데이터 공개 모델에 주의를 기울여 유출이 복합되지 않도록 해야 한다. 이 이론은 각 단계마다 개인정보보호가 어떻게 약화되는지 이해하기 위한 적절한 시작점을 제공한다.


가장 깊은 변화는 철학적이다

과거에는 개인정보를 보호하기 위해 극단적인 조치를 취하고 비용에 상관없이 데이터 공개를 방지할 의무가 있는 의사 같은 사고방식이 필요했다. 차등 개인정보보호 철학은 도시를 보호하는 장군과 같은 사고방식이 필요하다. 정보 손실을 어느 정도 감당하고 수용할 수 있다. 목표는 데이터 사용을 지원하면서 손실을 가능한 한 제한하는 것이다.

기업 개발자의 가장 큰 문제는 빠르게 발전하는 수학적 이해에 맞춰 개발하는 것이다. 노이즈를 추가하는 방법은 분명 잠재력이 크지만 세부사항은 여전히 활발히 연구되고 있다. 일부 알고리즘은 잘 파악되고 있지만 많은 연구의 핵심이 이 기술의 한계를 알아내기 위해 노력하는 것이다.

알고리즘 설계자가 손을 떼고 느린 유출의 양, 즉 엡실론의 값을 책임자가 경청해야 한다고 말하는 경우가 많기 때문에 가장 큰 문제는 정치적이다. 차등 개인정보보호는 데이터를 더 많이 공개할 수 있는 많은 기회를 제공하지만, 데이터를 받는 사람이 추가적인 노이즈를 견뎌낼 수 있을 때에만 가능하다. editor@itworld.co.kr 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.