2018.02.28

글로벌 칼럼 | 머신러닝과 인공지능의 신뢰 얻기

Oliver Schabenberger | InfoWorld
많은 머신러닝과 인공지능(AI) 시스템에는 어떤 원리로 작동하고 의사 결정을 내리는지 설명하는 기능이 없다. 바로 이 점이 신뢰를 가로막는 큰 장애물이다.

머신러닝과 AI는 사람이 놓치는 패턴, 알고리즘의 정확성을 개선하는 중요한 관계를 드러낼 수도 있는 패턴을 찾는다. 사람은 무시하고 싶어하는 패턴과 관계를 복구한다. 그러나 이에 못지않게 중요한 관계를 발견하지 못하거나 엉뚱한 추천, 때로는 위험한 추천을 생산하기도 한다.

후자의 잘 알려진 사례로, 머신러닝이 폐렴 환자 치료를 지도할 수 있는지 여부를 확인하기 위한 연구가 있다. 해당 연구 팀은 위험도가 낮은 환자는 통원 진료를 받을 수 있도록 폐렴 환자의 합병증 위험 정도를 예측하고자 했다. 여기 사용된 규칙 기반 머신러닝 시스템은 천식이 있는 폐렴 환자의 경우 폐렴으로 인한 합병증이 거의 없다는 이유로 퇴원해도 된다고 결정했다. 그러나 천식과 폐렴이 모두 있는 환자에 합병증이 거의 없는 이유는 병원에서 집중 치료를 받기 때문이다. 환자 상태와 진료 질 사이의 중요한 연결 고리가 머신러닝 알고리즘에 반영되지 않은 것이다.

다행히 이 규칙 기반 시스템은 투명했고 따라서 손쉽게 이해할 수 있었다. 즉, 문제의 논리 결함을 발견하고 수정할 수 있었다는 것이다.

그러나 이 사례에서 대부분의 현대 머신러닝과 인공지능의 기반이 되는 심층 신경망(deep neural network)이 사용됐다고 가정해 보자. 심층 신경망이 데이터에서 발견한 패턴도 아마 동일했을 것이다. 문제는 심층 신경망의 경우 예측 논리의 결함을 발견하기가 훨씬 더 어려웠을 것이란 점이다. 수정은 말할 필요도 없다.

이 사례 외에도 부정확한 결론, 알고리즘 내에 의도하지 않은 편견이 존재하는 여러 사례는 설명 가능한 AI, 또는 FAT(Fair(공정), Accountable(책임), Transparent(투명성)) AI의 필요성을 드러낸다.

설명 가능한 투명한 알고리즘
의사 결정을 위해 알고리즘과 수학적 규칙을 사용하는 것은 새로운 개념이 아니다. 앞서 설명한 폐렴 사례는 딥 러닝에 대한 과장이 시작되기 전 1990년대에 일어난 이야기다. 그러나 공정하고 편견 없으며 투명한 의사 결정의 필요성은 지금까지 공론화되지 않았다. 그 사이 무엇이 바뀌었을까?

- 알고리즘과 자동화가 더 확산됐다. 더 많은 비즈니스 문제가 분석을 통해 해결되며, 전통적으로 사람 전문가가 독점해왔던 분야(예를 들어 의료 진단)에도 머신러닝과 AI가 등장하고 있다.

- 분석의 효율성이 더 높아졌다. 알고리즘은 인간보다 훨씬 더 많은 데이터를 처리할 수 있다. 알고리즘의 편견과 잘못된 의사 결정 역시 그만큼 더 빠르게 확산될 수 있다.

- 규제 기관에서 더 높은 투명성을 요구한다. 개인 데이터 보호와 사생활 규제(예를 들어 유럽연합의 일반 데이터 보호 규정(GDPR))에서 설명을 요구할 권리를 규정하는 경우가 증가하고 있다.

- 알고리즘이 더 불투명해졌다. 빅데이터 시대에서는 더 많은 기능이 모델에 흡수되고 자동으로 엔지니어링될 수 있다. 과거의 모델이 25개의 매개 변수와 투명한 논리를 사용했다면 지금은 기본 모델이 수천 개의 매개 변수를 사용하기도 하며 모델을 이해하기도 훨씬 더 어렵다. 수백만 개의 매개 변수가 존재하는 신경망도 흔히 사용된다.

- 기술이 더 복잡해졌다. 하나의 의사 결정 트리는 손쉽게 이해할 수 있지만 많은 트리가 답을 투표하는 랜덤 포레스트의 사용으로 복잡성이 커졌다. 알고리즘에 의해 결정되는 관찰별 가중치와 함께 그래디언트 부스팅이 사용되면서 불투명성이 높아졌다.

- 더 많은 형식에서 학습이 이뤄진다. 인간 작업자를 모방함으로써 학습하는 AI 시스템을 생각해 보자. 이 시스템의 작동 원리에 대해 우리가 아는 것은 무엇인가? 이 시스템이 무엇을 학습하는지 알 수 있다 해도 어떻게 학습하는 지를 모르는 상태에서 시스템을 충분히 신뢰할 수 있을까? 신경망 학습은 논리를 각인시킨다. 우리에게는 그 논리를 통제하거나 그 오류를 교정할 간단한 방법이 없다.

혁신하면서 투명함을 유지할 수 있는가
머신러닝과 AI가 발전하면 모델의 복잡성도 높아진다. 복잡성은 이런 모델에 강력한 예측 기능을 부여하지만 동시에 모델을 이해하기 어렵게 만들기도 한다. 블랙박스 모델을 제공하는 알고리즘은 그 비밀을 드러내지 않는다. 일반적으로 특정 예측을 수행한 이유를 명확히 설명하지 않는다.

데이터 과학자, 사용자, 규제 기관이 최신 AI 소프트웨어를 편안한 마음으로 대할 수 있게 하려면 모델의 신뢰성을 더 높여야 한다.

- 데이터 과학자는 정확성이 높은 모델을 구축하고자 하지만 동시에 자신이 발견한 사항을 대중에 전파할 수 있도록 모델의 작동 원리도 이해하고자 한다.

- 사용자는 모델이 특정 예측을 제시한 이유를 알고 싶어한다. 이런 의사 결정이 자신에게 미칠 영향과 자신이 공정한 대우를 받고 있는지 여부를 알고 싶어한다. 사용자에게는 모델 불참 여부를 결정하기 위해 충분한 정보가 필요하다.

- 규제 및 입법 기관은 사람들을 보호하고 모델에 의한 의사 결정의 공정성과 투명함을 확보하고자 한다.

세 그룹 모두 필요한 요소는 비슷하다. 따라서 현재 업계가 직면한 과제는 혁신의 최전방에 계속 머무르면서 신뢰할 수 있고 투명한 솔루션과 제품을 만드는 방법을 찾는 것이다.

결국 무엇과 왜 사이의 어려운 결정이다. 더 진보된 예측 기능을 제공하는 모델을 원하는가, 아니면 완전히 설명 가능한 모델을 원하는가? 가장 진보된 알고리즘은 대부분 가장 정확한 동시에 가장 설명하기 어렵다. DARPA의 프로그램 관리자인 데이비드 거닝은 가장 설명하기 어려운 방법부터 가장 설명하기 쉬운 방법까지 나열된 차트(슬라이드 4)를 사용해 "무엇"과 "왜" 사이의 타협을 요약했다.  

FAT 머신러닝 커뮤니티는 설명 가능한 알고리즘을 위한 기본 원칙을 마련했다. 이들은 원칙에 대한 글을 시작하기 전에 다음과 같은 공지를 제시했다.

"알고리즘과 이 알고리즘을 이끄는 데이터는 사람에 의해 설계되고 만들어진다. 알고리즘에 의한 의사 결정 또는 정보 제공에 대한 최종적인 책임은 항상 사람에게 있다. 머신러닝 프로세스를 포함한 알고리즘 시스템이 실수하거나 바람직하지 않은 결과를 유도한 경우 '알고리즘이 그렇게 했다'는 말은 변명이 될 수 없다."

이 성명은 심층적인 수준에서 책임의 중요성을 강조한다. 알고리즘 배후의 사람과 기업은 '모른다'는 변명을 할 수 없다. 이들은 모델의 결과물 못지않게 내부 작동 원리를 이해하는 프로세스에도 신경을 써야 한다.

더 좋은 것을 향한 발걸음
알고리즘에는 그 알고리즘을 만든 데이터 자체, 데이터의 정보가 사용되는 방법, 그리고 구축되는 모델의 품질과 가치가 녹아 있다. 전통적인 통계 모델이든 의사 결정 트리든 딥 러닝 모델이든 공정성, 대표성, 비편향성을 위한 고려 사항은 동일하다.

차별과 편견은 새로운 것이 아니다. 인간의 의사 결정은 편향적이다. 편향적이고 공정하지 않은 의사 결정(결정의 주체가 인간이든 기계든)은 차별의 확산으로 이어질 수 있다. 차별과 편견이 알고리즘 의사 결정에 어떻게 유입되는지 알아낼 수 있다면 이를 제거할 기회를 확보하게 된다.

공정하고 책임감 있고 투명한 알고리즘에서 필자를 매료시키는 부분이 바로 이것이다. 우리 앞에는 편견을 방지하거나 줄이도록 세심하게 설계된 알고리즘, 만연한 차별을 없애는 데 도움이 되는 알고리즘을 만들 수 있는 기회가 펼쳐져 있다.

소프트웨어 개발에는 여러 가지를 '고려한 설계(by-design)'라는 원칙이 있다. 설계의 가장 첫 단계부터 제품에 녹아 들어가는 개념이다. 보안을 고려한 설계, 프라이버시를 고려한 설계, 클라우드를 고려한 설계 등이다. 여기에 공정함을 고려한 설계, 책임을 고려한 설계, 투명성을 고려한 설계를 추가할 수 있다면 분석을 통해 우리의 삶을 진정 개선할 수 있게 될 것이다. editor@itworld.co.kr  

2018.02.28

글로벌 칼럼 | 머신러닝과 인공지능의 신뢰 얻기

Oliver Schabenberger | InfoWorld
많은 머신러닝과 인공지능(AI) 시스템에는 어떤 원리로 작동하고 의사 결정을 내리는지 설명하는 기능이 없다. 바로 이 점이 신뢰를 가로막는 큰 장애물이다.

머신러닝과 AI는 사람이 놓치는 패턴, 알고리즘의 정확성을 개선하는 중요한 관계를 드러낼 수도 있는 패턴을 찾는다. 사람은 무시하고 싶어하는 패턴과 관계를 복구한다. 그러나 이에 못지않게 중요한 관계를 발견하지 못하거나 엉뚱한 추천, 때로는 위험한 추천을 생산하기도 한다.

후자의 잘 알려진 사례로, 머신러닝이 폐렴 환자 치료를 지도할 수 있는지 여부를 확인하기 위한 연구가 있다. 해당 연구 팀은 위험도가 낮은 환자는 통원 진료를 받을 수 있도록 폐렴 환자의 합병증 위험 정도를 예측하고자 했다. 여기 사용된 규칙 기반 머신러닝 시스템은 천식이 있는 폐렴 환자의 경우 폐렴으로 인한 합병증이 거의 없다는 이유로 퇴원해도 된다고 결정했다. 그러나 천식과 폐렴이 모두 있는 환자에 합병증이 거의 없는 이유는 병원에서 집중 치료를 받기 때문이다. 환자 상태와 진료 질 사이의 중요한 연결 고리가 머신러닝 알고리즘에 반영되지 않은 것이다.

다행히 이 규칙 기반 시스템은 투명했고 따라서 손쉽게 이해할 수 있었다. 즉, 문제의 논리 결함을 발견하고 수정할 수 있었다는 것이다.

그러나 이 사례에서 대부분의 현대 머신러닝과 인공지능의 기반이 되는 심층 신경망(deep neural network)이 사용됐다고 가정해 보자. 심층 신경망이 데이터에서 발견한 패턴도 아마 동일했을 것이다. 문제는 심층 신경망의 경우 예측 논리의 결함을 발견하기가 훨씬 더 어려웠을 것이란 점이다. 수정은 말할 필요도 없다.

이 사례 외에도 부정확한 결론, 알고리즘 내에 의도하지 않은 편견이 존재하는 여러 사례는 설명 가능한 AI, 또는 FAT(Fair(공정), Accountable(책임), Transparent(투명성)) AI의 필요성을 드러낸다.

설명 가능한 투명한 알고리즘
의사 결정을 위해 알고리즘과 수학적 규칙을 사용하는 것은 새로운 개념이 아니다. 앞서 설명한 폐렴 사례는 딥 러닝에 대한 과장이 시작되기 전 1990년대에 일어난 이야기다. 그러나 공정하고 편견 없으며 투명한 의사 결정의 필요성은 지금까지 공론화되지 않았다. 그 사이 무엇이 바뀌었을까?

- 알고리즘과 자동화가 더 확산됐다. 더 많은 비즈니스 문제가 분석을 통해 해결되며, 전통적으로 사람 전문가가 독점해왔던 분야(예를 들어 의료 진단)에도 머신러닝과 AI가 등장하고 있다.

- 분석의 효율성이 더 높아졌다. 알고리즘은 인간보다 훨씬 더 많은 데이터를 처리할 수 있다. 알고리즘의 편견과 잘못된 의사 결정 역시 그만큼 더 빠르게 확산될 수 있다.

- 규제 기관에서 더 높은 투명성을 요구한다. 개인 데이터 보호와 사생활 규제(예를 들어 유럽연합의 일반 데이터 보호 규정(GDPR))에서 설명을 요구할 권리를 규정하는 경우가 증가하고 있다.

- 알고리즘이 더 불투명해졌다. 빅데이터 시대에서는 더 많은 기능이 모델에 흡수되고 자동으로 엔지니어링될 수 있다. 과거의 모델이 25개의 매개 변수와 투명한 논리를 사용했다면 지금은 기본 모델이 수천 개의 매개 변수를 사용하기도 하며 모델을 이해하기도 훨씬 더 어렵다. 수백만 개의 매개 변수가 존재하는 신경망도 흔히 사용된다.

- 기술이 더 복잡해졌다. 하나의 의사 결정 트리는 손쉽게 이해할 수 있지만 많은 트리가 답을 투표하는 랜덤 포레스트의 사용으로 복잡성이 커졌다. 알고리즘에 의해 결정되는 관찰별 가중치와 함께 그래디언트 부스팅이 사용되면서 불투명성이 높아졌다.

- 더 많은 형식에서 학습이 이뤄진다. 인간 작업자를 모방함으로써 학습하는 AI 시스템을 생각해 보자. 이 시스템의 작동 원리에 대해 우리가 아는 것은 무엇인가? 이 시스템이 무엇을 학습하는지 알 수 있다 해도 어떻게 학습하는 지를 모르는 상태에서 시스템을 충분히 신뢰할 수 있을까? 신경망 학습은 논리를 각인시킨다. 우리에게는 그 논리를 통제하거나 그 오류를 교정할 간단한 방법이 없다.

혁신하면서 투명함을 유지할 수 있는가
머신러닝과 AI가 발전하면 모델의 복잡성도 높아진다. 복잡성은 이런 모델에 강력한 예측 기능을 부여하지만 동시에 모델을 이해하기 어렵게 만들기도 한다. 블랙박스 모델을 제공하는 알고리즘은 그 비밀을 드러내지 않는다. 일반적으로 특정 예측을 수행한 이유를 명확히 설명하지 않는다.

데이터 과학자, 사용자, 규제 기관이 최신 AI 소프트웨어를 편안한 마음으로 대할 수 있게 하려면 모델의 신뢰성을 더 높여야 한다.

- 데이터 과학자는 정확성이 높은 모델을 구축하고자 하지만 동시에 자신이 발견한 사항을 대중에 전파할 수 있도록 모델의 작동 원리도 이해하고자 한다.

- 사용자는 모델이 특정 예측을 제시한 이유를 알고 싶어한다. 이런 의사 결정이 자신에게 미칠 영향과 자신이 공정한 대우를 받고 있는지 여부를 알고 싶어한다. 사용자에게는 모델 불참 여부를 결정하기 위해 충분한 정보가 필요하다.

- 규제 및 입법 기관은 사람들을 보호하고 모델에 의한 의사 결정의 공정성과 투명함을 확보하고자 한다.

세 그룹 모두 필요한 요소는 비슷하다. 따라서 현재 업계가 직면한 과제는 혁신의 최전방에 계속 머무르면서 신뢰할 수 있고 투명한 솔루션과 제품을 만드는 방법을 찾는 것이다.

결국 무엇과 왜 사이의 어려운 결정이다. 더 진보된 예측 기능을 제공하는 모델을 원하는가, 아니면 완전히 설명 가능한 모델을 원하는가? 가장 진보된 알고리즘은 대부분 가장 정확한 동시에 가장 설명하기 어렵다. DARPA의 프로그램 관리자인 데이비드 거닝은 가장 설명하기 어려운 방법부터 가장 설명하기 쉬운 방법까지 나열된 차트(슬라이드 4)를 사용해 "무엇"과 "왜" 사이의 타협을 요약했다.  

FAT 머신러닝 커뮤니티는 설명 가능한 알고리즘을 위한 기본 원칙을 마련했다. 이들은 원칙에 대한 글을 시작하기 전에 다음과 같은 공지를 제시했다.

"알고리즘과 이 알고리즘을 이끄는 데이터는 사람에 의해 설계되고 만들어진다. 알고리즘에 의한 의사 결정 또는 정보 제공에 대한 최종적인 책임은 항상 사람에게 있다. 머신러닝 프로세스를 포함한 알고리즘 시스템이 실수하거나 바람직하지 않은 결과를 유도한 경우 '알고리즘이 그렇게 했다'는 말은 변명이 될 수 없다."

이 성명은 심층적인 수준에서 책임의 중요성을 강조한다. 알고리즘 배후의 사람과 기업은 '모른다'는 변명을 할 수 없다. 이들은 모델의 결과물 못지않게 내부 작동 원리를 이해하는 프로세스에도 신경을 써야 한다.

더 좋은 것을 향한 발걸음
알고리즘에는 그 알고리즘을 만든 데이터 자체, 데이터의 정보가 사용되는 방법, 그리고 구축되는 모델의 품질과 가치가 녹아 있다. 전통적인 통계 모델이든 의사 결정 트리든 딥 러닝 모델이든 공정성, 대표성, 비편향성을 위한 고려 사항은 동일하다.

차별과 편견은 새로운 것이 아니다. 인간의 의사 결정은 편향적이다. 편향적이고 공정하지 않은 의사 결정(결정의 주체가 인간이든 기계든)은 차별의 확산으로 이어질 수 있다. 차별과 편견이 알고리즘 의사 결정에 어떻게 유입되는지 알아낼 수 있다면 이를 제거할 기회를 확보하게 된다.

공정하고 책임감 있고 투명한 알고리즘에서 필자를 매료시키는 부분이 바로 이것이다. 우리 앞에는 편견을 방지하거나 줄이도록 세심하게 설계된 알고리즘, 만연한 차별을 없애는 데 도움이 되는 알고리즘을 만들 수 있는 기회가 펼쳐져 있다.

소프트웨어 개발에는 여러 가지를 '고려한 설계(by-design)'라는 원칙이 있다. 설계의 가장 첫 단계부터 제품에 녹아 들어가는 개념이다. 보안을 고려한 설계, 프라이버시를 고려한 설계, 클라우드를 고려한 설계 등이다. 여기에 공정함을 고려한 설계, 책임을 고려한 설계, 투명성을 고려한 설계를 추가할 수 있다면 분석을 통해 우리의 삶을 진정 개선할 수 있게 될 것이다. editor@itworld.co.kr  

X