AIㆍML

"데이터 편향, 금융권 생성형 AI 도입의 선결 과제" 잉글랜드 은행

Jon Gold  | Computerworld 2023.10.12
잉글랜드 은행의 금융 기술 전문가의 한 보고서에 따르면 현재 금융 부문은 생성형 AI 모델의 빠른 도입은 아직 시기상조라고 판단하고 있다. 생성형 AI 모델의 암묵적 편향성 때문이다.

수요일 발표된 캐슬린 블레이크의 보고서는 AI 모델 편향을 기본 학습 데이터에 기반한 편향과 모델 출력 결과에 기반한 편향의 두 가지로 분류한다. 두 가지 모두 개발자와 제작자가 AI 모델에 인간의 편견을 주입하는 것을 말하지만, 전자의 경우 여성이나 비백인을 나타내는 데이터포인트를 제거하는 것만으로는 대응할 수 없다.
 
ⓒ Getty Images Bank

블레이크는 데이터 편향을 모기지 대출의 레드라이닝 관행에 비유했다. 레드라이닝 시스템에서는 주택 보험사와 모기지 대출 기관이 거주 지역을 기준으로 비백인 고객의 위험성이 높다고 판단해 유색인종의 신용 및 보험 가입을 어렵게 만드는 결과를 가져온다. 그러나 가입을 직접 거부하거나 높은 가격 책정을 인종과 직접적으로 연결하지는 않는다. 블레이크는 AI 시스템에서도 이미 비슷한 논리를 관찰할 수 있다고 지적했다.

블레이크는 “이 모델은 보호되지 않는 특징에 기반해 편향된 의사 결정을 내리는 근본적 상관관계를 만든다. 즉, 보호되지 않는 나머지 특징이 보호되는 특징의 프록시 역할을 한다”라고 설명했다.

반면, 사회적 편견은 “한 사회의 규범과 부정적 유산이 사각지대를 만드는 경우”에 해당한다. 블레이크는 역사적으로 남성이 더 자주 채용되는 경향이 있다는 데이터에 따라 여성보다 남성 후보자를 더 추천하는 경향이 있는 아마존 채용 알고리즘을 예로 들었다.

또한, 블레이크는 AI 편향이 금융 부문에서 특히 위험하다고 경고했다. 인간 의사 결정권자보다는 현저하게 차별 수준이 낮지만, 여전히 백인 모기지 고객에 비해 흑인이나 라틴계 모기지 고객의 금리를 더 높게 책정하는 등, AI 편견으로 은행 시스템에 대한 신뢰가 심각한 위험에 처해 있다. 또한, 독점 모델의 불투명한 블랙박스적 특성은 중요한 대규모 기업들이 유사한 목적으로 이 모델을 사용하면 경제 전체에 큰 영향을 미칠 수 있고, 예측도 불가능할 가능성이 크다.

이러한 유형의 AI 사건은 아직 발생하지 않았지만, 블레이크는 애플과 골드만삭스가 알고리즘적으로 여성의 신용 한도를 더 낮춘 혐의로 뉴욕주 금융서비스국의 조사를 받은 2021년 사례를 들며 위험이 매우 현실적이라고 경고했다.

블레이크는 “편견, 공정, 윤리와 관련된 본질적 문제를 넘어 금융 기관이나 시스템 전체의 안정성 문제로 이어질 수 있다”라고 덧붙였다.
editor@itworld.co.kr 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.