AIㆍML / 글로벌 트렌드

글로벌 칼럼 | 법정에 서는 AI와 방어적인 설계의 필요성

David Linthicum | InfoWorld 2024.02.26
생성형 AI를 포함한 모든 AI가 법원의 시험을 치러야 하는 것은 분명하다. 클라우드 및 AI 아키텍트는 법정에서 곤란을 겪지 않으려면 방어적인 설계와 거버넌스를 실천해야 한다.

최근 소액 청구 법원에서 진행된 소송에서 에어캐나다는 AI 기반 챗봇이 조문 요금(Bereavement Fare)에 대한 잘못된 정보를 제공했다는 이유로 패소했다. 챗봇은 승객이 조문 요금을 소급적으로 신청할 수 있다고 제안했지만, 이는 에어캐나다의 조문 요금 정책과 모순되는 것이었다. 물론 챗봇의 답변에 해당 정책에 대한 링크가 포함됐지만, 법원은 항공사가 승객이 챗봇이 제공한 정보를 무조건 신뢰해서는 안 되는 이유를 설명하지 않았다고 판단했다.
 
ⓒ Getty Images Bank

이번 소송은 인공지능과 법적 책임의 교차점에 주목했으며, 인공지능의 잘못된 정보와 편견이 가져올 수 있는 법적, 재정적 영향을 보여주는 좋은 사례이다.
 

빙산의 일각

필자는 인간이 AI를 그다지 좋아하지 않는다는 사실을 알고 있다. 특히 자신이 동의하지 않을 수 있는 답을 내놓을 때 더욱 그렇다. 이는 소액 청구 법원에서 끝난 에어캐나다 사례처럼 간단한 것부터 특정 인종에 대한 혜택을 거부하는 AI 모델의 시스템적 편견처럼 심각한 것까지 다양하다.

에어캐나다 사례에서 법원은 항공사가 챗봇의 정확성을 보장하기 위해 합리적인 주의를 기울이지 않았다는 의미의 '과실에 의한 부실 표시’에 해당한다고 판결했다. 이 판결은 AI 기반 시스템의 성능에 대한 기업의 책임에 의문을 제기한다는 점에서 중요한 의미가 있다.

또한 이 사건은 부정확성이란 AI 도구의 취약점을 드러낸다. 이 취약점은 대부분 잘못되거나 편향된 정보가 포함된 학습 데이터를 이용할 때 발생한다. 이 취약점은 고객에게 불리한 결과를 불러올 수 있으며, 고객은 이런 문제를 발견하고 해당 기업을 고발하는 데 능숙한 편이다.

이번 사례는 기업이 AI의 역량 범위는 물론, AI 시스템이 만들어 낸 잘못된 정보가 초래할 법적 재정적 위험에 대해 재고할 필요가 있다는 것을 강조한다. 
 

법정에서 증언하듯 AI 시스템 설계 검토하기

기업이 꼭 그래야만 하는 이유는 무엇일까? 그렇게 될 가능성이 높기 때문이다.

필자는 생성형 AI 시스템을 구축하고 배포하는 데 필요한 많은 설계와 아키텍처가 언젠가는 법정에서 또는 AI 시스템의 작동 방식에 문제가 있는지 알아내려는 다른 사람들에 의해 의문을 제기당할 것이라고 생각한다.

정기적으로 편향성 및 발생할 수 있는 모든 환각을 감지하는 등 테스트 데이터를 추적하고 기록하는가? 또한, 적시에 적절한 질문을 하고 편향성 및 기타 법정으로 끌려갈 수 있는 문제에 대한 테스트를 감독할 수 있는 AI 윤리 전문가가 있는가?

생성형 AI 시스템만이 문제일까? 그렇지 않다. 필자는 수년간 소프트웨어 책임 문제를 다뤄왔으며 이번에도 다르지 않다. 다른 점이라면 투명성이다. AI 시스템은 코드를 통해 작동하는 것이 아니라 수많은 데이터에서 생성된 지식 모델을 통해 작동한다. 이 데이터에서 패턴을 찾아내면 인간과 같은 답을 도출하고 학습을 계속할 수 있다.

이 과정을 통해 AI 시스템은 더욱 혁신적으로 발전할 수 있다. 하지만 형편없는 학습 데이터를 수집해 편견과 잘못된 결정을 내릴 수도 있다. 마치 매일 스스로를 재프로그래밍하고 그에 따라 다른 접근 방식과 답을 내놓는 시스템과 같다. 때로는 잘 작동해 엄청난 가치를 창출하기도 하지만, 때로는 에어캐나다의 경우처럼 엉뚱한 답을 내놓을 때도 있다.
 

자신과 조직을 보호하는 방법

먼저 방어적 설계를 실천해야 한다. 기술과 플랫폼이 선택된 이유를 포함해 설계 및 아키텍처 프로세스의 각 단계를 문서화하기 바란다. 

편견과 실수에 대한 감사를 포함해 테스트를 문서화하는 것이 가장 좋다. 문제를 발견하는지가 중요한 것이 아니다. 문제는 언제나 존재한다. 중요한 것은 지식 모델이나 대규모 언어 모델에서 이런 오류를 제거하고 필요한 재테스트를 포함해 그 과정을 문서화할 수 있는 역량이다.

물론 가장 중요한 것은 AI 시스템의 목적을 고려하는 것이다. 무엇을 해야 하는가? 어떤 문제를 고려해야 하는가? 앞으로 어떻게 발전할 것인가?

AI를 사용해야 하는지에 대한 문제를 제기할 가치도 있다. 클라우드나 온프레미스에서 AI를 활용하려면 더 많은 비용이 들고 위험도 커지는 등 복잡한 문제가 많다. 기업은 종종 잘못된 사용례에 AI를 사용하거나 더 전통적인 기술을 사용했어야 했는데 그렇지 못해 곤경에 처하기도 한다.

이렇게 한다고 해서 법정에 서는 일을 완전히 피할 수는 없을 것이다. 하지만 소송에서 도움이 될 것이다.
editor@itworld.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.