카스퍼스키의 최근 조사에 따르면, 설문조사에 참여한 1,863명의 영국 및 EU 지역 CEO 중 거의 대부분(95%)은 직원들이 생성형 AI를 정기적으로 사용하고 있다고 답했다. 생성형 AI가 특정 부서의 주요 도구로 자리 잡았다고 응답한 CEO는 절반 이상(53%)이었다.
응답자 59%는 직원이 AI를 사용함으로써 민감한 회사 정보를 위태롭게 하고 핵심 비즈니스 기능에 대한 통제력을 완전히 상실하게 되는 잠재적인 위험에 대해 깊은 우려를 나타냈다. 중대한 보안 위험이나 데이터 유출에서 보호하기 위해 직원들이 내부 데이터를 어떻게 사용하는지 이해할 필요가 있음을 인지하는 응답자는 91%에 달했지만, 정작 생성형 AI 사용을 모니터링하기 위한 규정 수립에 대해 논의한 응답자는 22%에 그쳤다.
생성형 AI 정책 및 직원 교육 부족
전 세계 디지털 신뢰 전문가 2,300명을 대상으로 한 정보시스템감사통제협회(ISACA)의 조사에서는 생성형 AI 사용이 증가하고 있지만, 대부분 기업은 정책이나 효과적인 위험 관리 방안을 마련하지 않은 것으로 드러났다. 응답자 41%는 직원이 생성형 AI를 사용하고 있다고 답했고 35%는 잘 모르겠다고 답한 것을 감안하면 실제 사용자는 더 많을 것으로 예상된다. ISACA에 따르면, 직원들은 서면 콘텐츠 제작(65%), 생산성 향상(44%), 반복 업무 자동화(32%), 고객 서비스 제공(29%), 의사 결정 개선(27%) 등 다양한 방식으로 생성형 AI를 사용하고 있다.
또한 응답자 41%는 AI 구현을 위한 윤리적 표준에 대한 관심이 부족하다고 생각했지만, AI 위험 관리를 최우선 순위로 고려하는 기업은 1/3에도 못 미쳤다. 응답자가 AI 기술의 가장 큰 위험 요소로 다음과 같은 사항을 꼽은 것을 고려하면 아이러니한 결과다.
- 잘못된 정보/왜곡된 정보(77%)
- 개인정보 침해(68%)
- 소셜 엔지니어링 공격(63%)
- 지식재산권 손실(58%)
- 일자리 이동 및 기술 격차 확대(각각 35%)
‘초보자를 위한 AI(Artificial Intelligence for Beginners)’ 저자 래프 미우위세는 “ISACA 설문조사는 생성형 AI가 다양한 용도로 널리 사용되고 있지만, 윤리적 고려 사항과 보안 조치에 있어서는 현격한 격차가 있음을 보여준다. 모든 직원에게 포괄적인 교육을 제공하는 조직은 6%에 불과하며, 54%는 전혀 교육을 제공하고 있지 않다”라고 지적했다.
윤리적 기준에 대한 관심과 교육 부족은 악의적 행위자의 악용과 같은 위험 증가로 이어진다. 미우위세는 “위협 행위자의 생성형 AI 악용을 우려하는 응답자가 57%에 달하는 것은 놀랍지 않다”라고 말했다.
지난 9월 디지털 마케팅 기업 애드 피플(Add Peopl)이 영국 노동자 2,000명을 대상으로 생성형 AI 사용 현황에 대해 조사한 결과, 응답자 1/3은 관리자 몰래 챗GPT 같은 도구를 사용하고 있었다. 이런 AI 도구의 사용을 규제하는 기업은 10%뿐이었다.
editor@itworld.co.kr