Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

세상의 모든 IT 리서치 자료 - 넘버스 Numbers

“AI에 대한 기대보다는 우려가 더 크다”
52
%
자료 제목 :
인공지능과 활용에 대한 인식 이해를 위한 연구
Study to understand attitudes about artificial intelligence and its uses
자료 출처 :
Pew Research Center
원본자료 다운로드
발행 날짜 :
2023년 08월 28일
AIㆍML / 글로벌 트렌드

글로벌 칼럼 | AI가 직면한 중대한 문제점 “대중이 신뢰하지 않는다”

Rob Enderle | Computerworld 2023.09.01
최근 퓨 리서치 센터(Pew Research Center)가 미국 성인 1만 1,201명을 대상으로 실시한 설문조사 결과에 따르면, AI에 대한 신뢰도가 2년 사이 급격하게 낮아진 것으로 나타났다.
 
ⓒ Getty Images Bank

2021년 같은 조사에서는 “AI에 대한 기대보다 우려가 더 크다”라고 답한 응답자가 37%에 불과했다. 작년 조사에서도 결과는 비슷(38%)했지만, 올해 조사에서는 그 수치가 52%로 크게 뛰었다. 반면 AI에 대해 기대감을 표한 응답자 비율은 2021년 18%에서 올해 10%로 감소했다. 

AI를 효과적으로 활용하기 위해서는 생성형 AI 툴을 학습시켜야 하는데, 학습 과정에서 데이터가 손상되거나 유출될 수 있는 여러 문제가 수면 위로 떠올랐기 때문에 이런 결과가 나온 것이라고 본다. 사람들은 신뢰하지 않는 것을 지지하지 않을 뿐 아니라 오히려 반대할 가능성도 있다. 그 누가 신뢰하지 않는 것을 지지하겠는가? 

신뢰 부족으로 인해 생성형 AI의 발전이 더뎌질 수 있고 더 많은 도구와 플랫폼에 적용된 AI 모델이 손상돼 설정된 작업을 수행하지 못할 수도 있다. 일부 문제는 의도적으로 기술을 약화시키려는 사용자로 인해 발생하는데, 이는 문제를 더 강조할 뿐이다. 


생성형 AI가 특별한 이유

생성형 AI는 사용자를 통해 학습한다. 처음에는 LLM(Large Language Model)로 학습할 수 있지만, 더 많은 사람이 사용하게 되면 그 사용자의 패턴을 파악한다. 이는 각 사용자와의 커뮤니케이션을 최적화하기 위함이다. 자녀가 부모에게 배우고 그 지식을 또래와 공유하는 것처럼 각 사용자에게 배운 것은 인스턴스 전체에 전파되는데, 이때 제공된 정보가 부정확하거나 편향되면 연쇄적인 문제가 발생할 수 있다. 

AI 시스템은 드물게 발생하는 실수를 처리하고 이를 바로잡기 위해 조정할 수 있지만, AI 도구가 의도적으로 잘못된 방향으로 인도하는 경우에는 자가 수정 능력이 미흡하다는 것이 입증됐다. 직원이 자신의 업무 결과물만 망가뜨리는 경우와 다른다. AI의 세계에서는 잘못 행동한 직원의 데이터가 다른 인스턴스 학습에 사용되면 AI 도구를 사용하는 모든 사람의 업무에 영향을 미칠 수 있다. 

즉, 생성형 AI 도구의 성능을 저해하는 직원은 자신이 수행하는 작업 결과물 외에도 회사에 심각한 피해를 준다.


신뢰가 중요한 이유

직장을 잃을까 걱정하는 사람은 일반적으로 자신의 위치가 자신이 훈련한 직원으로 대체될 수 있다는 두려움을 갖는다. 이 때문에 다른 직원을 제대로 교육하지 못한다. 자신의 역할이 생성형 AI로 대체될 것을 우려한다면 AI 모델 학습을 거부하거나 손상시킬 수 있다. 

지금이 바로 그 시점이다. 미디어에서는 AI 도구가 어떻게 사용자의 일과 삶의 균형을 개선하고 더 많은 작업을 하지 않고도 생산성을 높이고 적절히 훈련된 경우 실수를 줄이는 데 도움이 되는지에 대한 정보는 거의 찾아볼 수 없다. 반면 AI가 어떻게 사람의 일자리를 빼앗고 온갖 종류의 오류를 일으키며, 해를 끼치는 데 악용되는지는 꾸준히 들린다.
 
사람들이 AI를 경계하는 것은 어찌 보면 당연한 일이다.


변화는 어렵고 위험하다

IT 담당자는 사용자가 싫어하는 기술을 배치하는 것이 까다롭다는 사실을 잘 알고 있다. 사용자가 해당 기술을 피하거나 망가뜨리려 하기 때문이다. 회사의 모든 사무직과 일부 블루 컬러 일자리에 영향을 미칠 기술의 경우 특히 문제가 된다. AI 도구를 직원의 대체제가 아니라 보조 도구로 포지셔닝하고 기술을 적절히 사용하는 사람이 더 앞서갈 수 있다는 점을 강조하면 직원들이 기술 활용에 동참하고 성숙시키는 데 큰 도움이 될 것이다.

원하지 않는 직원에게 새로운 기술 사용을 강요하는 것은 항상 위험하다. 특히 직원이 새로운 기술로 인해 일자리를 잃을 수 있다고 생각한다면 이는 큰 실수가 될 수 있다. 생성형 AI를 올바르게 사용하려면 직원이 기술에 흥미를 갖고 지지할 수 있도록 노력을 기울여야 한다. 그렇지 않으면 배포 노력이 기대에 미치지 못할 뿐 아니라 결국 이를 도입하려는 기업에 상당한 피해를 줄 것이다.
editor@itworld.co.kr
 Tags AI 생성형AI 신뢰 퓨리서치 설문조사

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.