AIㆍML / BI|분석

머신러닝 실패 사례에서 배우는 다섯 가지 교훈

Bob Violino | InfoWorld 2019.04.12


그 결과, 데이터에는 잘못 분류된 여러 라벨의 샘플들이 포함된다. 그리고 이는 훈련시킨 신경망의 성능에 악영향을 준다.

또한 단기간에 많은 양의 데이터를 수집하기도 아주 어렵다. 데이터 수집에 최대 몇 개월이 소요될 수도 있다. 인터넷 등 공개 데이터 소스에서 수집한 데이터의 경우, ‘사실’이 정확히 반영되어 있지 않을 수도 있다. 예를 들어, 스튜디오나 실험실에서 촬영한 사진과 실제 거리 사진, 공장의 생산 현장에서 촬영한 사진이 크게 다를 수 있다. 이 경우, 신경망의 성능과 결과물이 나빠지는 문제가 발생한다.

이 회사가 고객들을 위한 프로젝트의 일부로 온라인에 게시된 셀카에서 안경을 식별할 수 있게끔 신경망을 트레이닝 할 때 이런 문제가 발생했다. 소셜 미디어에서 일부 사진들을 수집해 분류(라벨링 처리)했다. 그런데 신경망의 작동 품질이 아주 낮았다. 눈 아래 피부가 어두운 사람들을 안경을 착용한 사람들로 오해했다.

고객이 제공한 2장의 도시 ‘위성 사진’과 관련된 문제도 있었다. 신경망이 위성 사진에서 차량과 그 수를 대략 식별하도록 트레이닝을 시도했다. 그런데 신경망은 건물 지붕의 렛지(ledge)를 차량으로 잘못 식별했다. 작은 사각형, 어두운 색상 등 형태가 차량과 비슷했기 때문이다.

애슈마노프는 “오차에 대해 주의를 기울이는 것이 중요하다. 휴리스틱을 구현하고, 데이터 전처리 과정을 향상시키고, 후처리 동안 확인해야 한다.”고 강조했다.

교훈 4. 미묘한 차이가 있는 분류는 혼동을 초래할 수 있다
법 관련 산업과 시장을 대상으로 하는 e-디스커버리 기술 전문업체 케이스포인트(Casepoint)는 머신러닝이 완벽하지 않다는 것을 깨닫는 문제를 경험했다. 문서 분류 및 예측 분석에 머신러닝을 사용하고 있는데, 법무 부서의 문서 검토 및 분류 시간을 크게 줄일 수 있다.

케이스포인트의 최고 전략 책임자 데이빗 칸즈에 따르면, 머신러닝을 이용한 문서 분류는 아주 효과적이지만 단점도 존재한다. 아주 미묘한 차이가 있는 분류에 머신러닝을 사용하려 시도했는데, 머신러닝에 지나치게 의존하면서 이런 문제를 경험했다.

예를 들어, 법무 분야에서는 ‘문서 생산 요청’에 대응하기 위해 문서를 식별하는데 머신러닝 기반 문서 분류 도구를 사용하는 경우가 많다. 구체적으로 설명하면, A가 특정 주제나 내용과 관련된 문서를 요청하면, B는 머신러닝 문서 분류 도구를 사용해 문서 저장소에 해당되는 문서를 찾는다.

효과가 있어, 변호사들이 반복적으로 문서 TAR(Technology-Assisted Review)을 사용하기 시작했다. 칸즈는 “그 결과, 아주 미묘한 문서 분류에도 맹목적으로 머신러닝 문서 분류 도구를 사용하게 되었다. ‘변호사와 의뢰인 사이의 비밀 유지 특권’에 따라 보호받는 문서 분류를 예로 들 수 있다”고 설명했다.

머신러닝을 사용해 문서 분류 도구에 ‘특권 문서’를 구성하는 내용을 학습시키는 것은 어렵지 않다. 그러나 문제는 문서의 청중(대상), 기밀성, 수령 시기, 법적 조언, 소송 등에 따라 해당 문서에 ‘비밀 유지 특권’이 적용되는지 여부가 결정된다는 것이다. 대부분의 머신러닝 문서 분류 도구는 이런 추가적인 맥락들을 토대로 적절하게 분류하지는 못한다.

칸즈는 “머신러닝 분류 도구가 특권이 적용될 수 있는 문서 선별과 분류에 도움을 주지 못한다는 의미는 아니다. 그러나 법무 분야 종사자들은 이런 특권에 대한 판단을 내리면서, 전적으로 머신러닝에만 의존해서는 안 된다”고 지적했다. 지금은 변호사가 직접 특권이 적용될 수 있는 문서를 검토 해서 특권 적용에 대한 최종 결정을 내리고 있다.

교훈 5. 테스트/훈련 오염은 머신러닝을 망칠 수 있다
미국의 자동화 관련 업체인 인디코(Indico)는 몇 년째 고객들에게 엔터프라이즈 인공 지능 및 딥러닝 서비스를 제공하고 있다. 인디고가 안고 있는 지속적인 문제 중 가장 큰 것은 머신러닝에 사용하는 테스트 및 트레이닝 데이터의 오염 문제이다.

인디고의 CTO 슬레이터 빅토로프에 따르면, 고객사 한 곳은 특정 뉴스가 주가에 영향을 미치는지 판단하는 모델을 만들었다. 영향이 초래되는 시간을 정확히 판단하기는 아주 힘들었다. 그래서 다음 날 초래되는 영향을 예측하는 모델을 만들었다.

빅토로프는 “그런데 데이터 과학의 ‘기본’을 경시했다. 테스트와 트레이닝 데이터를 분리하고, ‘클린’하게 유지해야 한다는 것이다. 다음 날 초래되는 영향에 대한 예측의 정확성이 거의 100%에 가까운 것으로 나왔다. 그러나 실제는 ‘임의의 확률’보다 나을 것이 없었다”고 말했다.

또 다른 고객사는 내부에서 개발한 자연어 처리(NLP) 시스템에 문제가 있었다. 이 회사는 몇 년 전부터 머신러닝 모델 기능을 만들어 계속 업데이트하는 팀을 운영하고 있다. 이 팀은 동일한 검색 세트를 토대로 계속 테스트를 실시하고 있다. 그런데 테스트/트레이닝 오염으로 인한 문제가 발생했다. 빅토로프는 “테스트 오류가 발생하면, 알고리즘을 바꿔 테스트 오류를 향상시킨다. 그런데 이럴 때마다 정확성이 떨어진다”고 말했다.

상황을 제대로 이해하지 못해 이런 문제가 발생했다. 내부적으로, 특정 작업에 대한 모델의 정확도는 100%에 가깝다. 빅토로프는 “그러나 프로덕션 단계에서 시스템은 거의 제 기능을 하지 못했다. 자신은 모르는 상태에서 결과를 오염시켰기 때문이다. 조직이 머신러닝과 관련해 범하는 가장 큰 실수가 ‘테스트/트레이닝 데이터 오염’이다”고 말했다.  editor@itworld.co.kr

Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.