2019.08.08

코난테크놀로지, 인공지능 ‘편향성’ 연구 참여

편집부 | ITWorld
코난테크놀로지(www.konantech.co.kr)가 인공지능 모델과 학습데이터의 편향성 분석-탐지-완화·제거 지원 프레임워크 개발에 참여한다고 밝혔다. 연구는 2022년까지 45개월간 이뤄질 예정이다.

이번 연구의 목표는 ▲데이터 및 인공지능 모델의 편향성 분석을 위한 공정성 개념 및 측도 ▲데이터 및 인공지능 모델의 편향성 탐지-완화·제거 알고리즘 연구 ▲편향성 분석을 위한 시각화도구 개발 및 산업영역에 적용하는 것이다. 이 연구에 참여하는 연구팀은 카이스트, 연세대학교, 코난테크놀로지, 아크릴(acryl)이며, 국제협력으로 페이스북, 마이크로소프트, UNU(United Nations University)가 함께 한다.

인공지능은 비서, 자율주행, 전문가 시스템, 정밀 의료 등 다양한 분야에 활용되며 연구가 계속되고 있다. 인공지능은 금융 분야에서의 신용평가 및 신용점수부과, 채용 및 인사와 같은 HR 분야, 법원에서의 판결 등 인간을 평가하는 분야에 있어서는 특히 공정성 요구되고 있다. 예측이나 평가에 성별, 인종, 지역 등에 따른 차별적 결과나 에러 문제를 보이는 경우가 있기 때문이다. 

마이크로소프트에서 2016년에 선보인 AI 챗봇 ‘테이(Tay)’는 성·인종차별적 발언 문제로 16시간 만에 운영이 중지됐다. 테이는 사용자와의 대화를 훈련데이터로 사용해 학습했는데, 편향된 데이터를 활용한 자가학습의 위험성을 보여준 대표적인 예시라 할 수 있다.

아마존의 AI 채용 시스템은 10년간 아마존에 제출한 이력서를 훈련데이터로 사용했는데, 학습된 모델은 성차별적인 결과를 보였다. 아마존의 또 다른 AI인 ‘레코그니션(Rekognition)’은 이미지 분석 시스템으로 성별 분석 기능을 제공했는데 성별이나 인종에 따라 최대 35배까지 에러율 차이를 보였다. 백인남성은 1%의 에러를 보였으나 흑인여성은 35%의 에러를 보였다.

아마존뿐만 아니라 IBM, MS, 메그비, 페이스++ 시스템에서도 비슷한 문제가 있었다. 구글은 객체인식 기반 자동 태깅 시스템에서 흑인 얼굴을 고릴라로 잘못 인식하여 사회적으로 큰 파장을 불러일으켰다. 에퀴번트의 미국 법원 AI ‘콤파스(COMPAS)’는 흑인을 재범비율이 높을 것으로 예측했으나 실제로는 그렇지 않아 인종 편향성에 대한 문제가 제기됐다. 

이렇게 편향된 데이터로 인한 문제로 머신러닝 공정성 필요성이 점차 커지고 있다. 기존 학습 데이터의 편향성을 사전에 분석하고 탐지해 완화하거나 지원해 편향성을 확대·재생산할 가능성을 차단해야 하며, 인간을 평가하는 분야에서는 공정성을 위해 성별, 종교, 빈부, 지역, 장애, 정치적 성향, 연령, 학력 등의 속성에 편향되지 않도록 하는 연구가 필요하다. 국외의 활발한 연구와는 달리 국내에서는 제한적으로 국외 연구를 추적하는 방향으로 진행되고 있다. 

코난테크놀로지는 이번 연구를 통해 학습데이터와 AI 모형의 편향성 측도 개발 및 탐지-완화-제거를 위한 모듈과 프레임워크를 개발해 악의적이고 편향된 학습모델과 데이터, 편향된 인공지능 모델, 심각한 업무 오류나 공정성의 윤리적 문제를 해소한다.

편향성 연구를 위해 공정성의 개념 융합 연구를 우선하여 수행하고, 산업영역에 적용 결과에 대해 정성적 평가를 수행할 예정이다. 그 후에 편향성을 검출하고 분석해 시각화한다. 다양한 데이터를 확보하고 기존의 측도로 분석하고 개발된 측도를 적용하고 분석하여 비교할 예정이다. 편향성 검출을 고도로 지원하는 시각화 도구를 개발해 산업영역에 적용하게 된다. 데이터 편향성 완화·제거 알고리즘 연구에서는 불균형 데이터 분포로 발생하는 편향성을 완화하거나 제거하는 기술을 개발하고, 편향성 특징 생성 및 딥러닝을 이용한 편향성 완화 및 제거 기술을 개발하고자 한다. 

연구팀은 데이터의 편향성 연구에 이어서 인공지능 모델에 편향성 완화 및 제거 알고리즘 연구를 하게 된다. 벌점함수 적용 방법을 개발하고, 학습 과정에서 발생하는 편향성 발생 요인 검출 도구를 개발한다. 복합적인 편향성에 대응하는 Adversarial 및 앙상블 기법을 개발하고 적용해 핵심 기술별 성능평가 및 검증까지 마칠 예정이다. 

코난테크놀로지의 안춘근 이사는 “인공지능의 편향성 연구로, 인공지능 모델 데이터의 편향성을 자동으로 탐지하고, 편향성 완화·제거를 통한 학습이 가능할 것”이라며 “이를 통해 공정하고 안전한 의사결정이 가능한 인공지능 개발이 가능할 것으로 기대한다”고 밝혔다. editor@itworld.co.kr


2019.08.08

코난테크놀로지, 인공지능 ‘편향성’ 연구 참여

편집부 | ITWorld
코난테크놀로지(www.konantech.co.kr)가 인공지능 모델과 학습데이터의 편향성 분석-탐지-완화·제거 지원 프레임워크 개발에 참여한다고 밝혔다. 연구는 2022년까지 45개월간 이뤄질 예정이다.

이번 연구의 목표는 ▲데이터 및 인공지능 모델의 편향성 분석을 위한 공정성 개념 및 측도 ▲데이터 및 인공지능 모델의 편향성 탐지-완화·제거 알고리즘 연구 ▲편향성 분석을 위한 시각화도구 개발 및 산업영역에 적용하는 것이다. 이 연구에 참여하는 연구팀은 카이스트, 연세대학교, 코난테크놀로지, 아크릴(acryl)이며, 국제협력으로 페이스북, 마이크로소프트, UNU(United Nations University)가 함께 한다.

인공지능은 비서, 자율주행, 전문가 시스템, 정밀 의료 등 다양한 분야에 활용되며 연구가 계속되고 있다. 인공지능은 금융 분야에서의 신용평가 및 신용점수부과, 채용 및 인사와 같은 HR 분야, 법원에서의 판결 등 인간을 평가하는 분야에 있어서는 특히 공정성 요구되고 있다. 예측이나 평가에 성별, 인종, 지역 등에 따른 차별적 결과나 에러 문제를 보이는 경우가 있기 때문이다. 

마이크로소프트에서 2016년에 선보인 AI 챗봇 ‘테이(Tay)’는 성·인종차별적 발언 문제로 16시간 만에 운영이 중지됐다. 테이는 사용자와의 대화를 훈련데이터로 사용해 학습했는데, 편향된 데이터를 활용한 자가학습의 위험성을 보여준 대표적인 예시라 할 수 있다.

아마존의 AI 채용 시스템은 10년간 아마존에 제출한 이력서를 훈련데이터로 사용했는데, 학습된 모델은 성차별적인 결과를 보였다. 아마존의 또 다른 AI인 ‘레코그니션(Rekognition)’은 이미지 분석 시스템으로 성별 분석 기능을 제공했는데 성별이나 인종에 따라 최대 35배까지 에러율 차이를 보였다. 백인남성은 1%의 에러를 보였으나 흑인여성은 35%의 에러를 보였다.

아마존뿐만 아니라 IBM, MS, 메그비, 페이스++ 시스템에서도 비슷한 문제가 있었다. 구글은 객체인식 기반 자동 태깅 시스템에서 흑인 얼굴을 고릴라로 잘못 인식하여 사회적으로 큰 파장을 불러일으켰다. 에퀴번트의 미국 법원 AI ‘콤파스(COMPAS)’는 흑인을 재범비율이 높을 것으로 예측했으나 실제로는 그렇지 않아 인종 편향성에 대한 문제가 제기됐다. 

이렇게 편향된 데이터로 인한 문제로 머신러닝 공정성 필요성이 점차 커지고 있다. 기존 학습 데이터의 편향성을 사전에 분석하고 탐지해 완화하거나 지원해 편향성을 확대·재생산할 가능성을 차단해야 하며, 인간을 평가하는 분야에서는 공정성을 위해 성별, 종교, 빈부, 지역, 장애, 정치적 성향, 연령, 학력 등의 속성에 편향되지 않도록 하는 연구가 필요하다. 국외의 활발한 연구와는 달리 국내에서는 제한적으로 국외 연구를 추적하는 방향으로 진행되고 있다. 

코난테크놀로지는 이번 연구를 통해 학습데이터와 AI 모형의 편향성 측도 개발 및 탐지-완화-제거를 위한 모듈과 프레임워크를 개발해 악의적이고 편향된 학습모델과 데이터, 편향된 인공지능 모델, 심각한 업무 오류나 공정성의 윤리적 문제를 해소한다.

편향성 연구를 위해 공정성의 개념 융합 연구를 우선하여 수행하고, 산업영역에 적용 결과에 대해 정성적 평가를 수행할 예정이다. 그 후에 편향성을 검출하고 분석해 시각화한다. 다양한 데이터를 확보하고 기존의 측도로 분석하고 개발된 측도를 적용하고 분석하여 비교할 예정이다. 편향성 검출을 고도로 지원하는 시각화 도구를 개발해 산업영역에 적용하게 된다. 데이터 편향성 완화·제거 알고리즘 연구에서는 불균형 데이터 분포로 발생하는 편향성을 완화하거나 제거하는 기술을 개발하고, 편향성 특징 생성 및 딥러닝을 이용한 편향성 완화 및 제거 기술을 개발하고자 한다. 

연구팀은 데이터의 편향성 연구에 이어서 인공지능 모델에 편향성 완화 및 제거 알고리즘 연구를 하게 된다. 벌점함수 적용 방법을 개발하고, 학습 과정에서 발생하는 편향성 발생 요인 검출 도구를 개발한다. 복합적인 편향성에 대응하는 Adversarial 및 앙상블 기법을 개발하고 적용해 핵심 기술별 성능평가 및 검증까지 마칠 예정이다. 

코난테크놀로지의 안춘근 이사는 “인공지능의 편향성 연구로, 인공지능 모델 데이터의 편향성을 자동으로 탐지하고, 편향성 완화·제거를 통한 학습이 가능할 것”이라며 “이를 통해 공정하고 안전한 의사결정이 가능한 인공지능 개발이 가능할 것으로 기대한다”고 밝혔다. editor@itworld.co.kr


X