AIㆍML

“신중한 가드레일ㆍ의식적 보호 전략” 생성형 AI를 도입하는 안전한 출발점

Paula Rooney | CIO 2023.05.16
최근 AI의 기술력은 이전과 비교할 수 없는 수준으로 높아졌지만, AI가 가진 위험성도 높아지고 일부는 제대로 발견되지 않았다. 점점 더 논란이 되는 AI를 비즈니스에 어떻게 잘 활용할 수 있을까?
 
ⓒ Getty Images Bank 

AI에 대한 과대광고와 그에 따른 반발이 본격화되면서, IT 리더들은 AI를 기업 전사에 도입할 때 다양한 요소를 고려해야 하는 상황이다. 거기다 일론 머스크를 비롯해 수많은 전문가가 AI 연구 중단을 제안하고, 최근 구글을 퇴사한 제프리 힌턴 교수가 AI의 위험을 경고하고 있으니 IT 리더들은 앞으로 나아갈 길에 대한 조언을 얻기 위해 전세계 전문 기관, 컨설팅 회사, 변호사들에게 연락을 취하고 있다.

미디어 기업 허스트(Hearst) SVP 겸 CIO 아티 리아지는 “일론 머스크와 같은 기술 CEO들이 인공지능의 잠재적인 위험에 대해 경고한 발언은 기업이 혁신으로 인한 부작용을 완화하기 위한 조치를 충분히 취하고 있지 않다는 것을 보여준다. 책임 있게 혁신을 추구하는 것과 기술이 인간의 삶과 사회, 문화에 초래하는 결과를 이해해야 한다. 그것이 혁신가로서 우리가 가져야 할 의무다”라고 말했다.

아티 리아지의 견해에 많은 IT 리더들이 동조하고 있다. 특히 디지털 트랜스포메이션 시대에는 혁신이 불가피하고 장려되어야 하지만 기업이 참사나 더 심각한 사태를 예방하기 위해 적절한 규칙과 규정이 마련되어야 한다고 보고 있었다. 제약회사 리제네론(Regeneron)의 CIO 밥 맥코완은 “일부 업계나 리스크가 활용 사례에는 AI 도입을 보류하는 것이 적절하다는 데 동의하지만 그 밖의 많은 상황에서는 AI가 제공하는 기회를 전속력으로 탐색하고 추진해야 한다”라고 말했다.

맥코완은 “많은 이사회 임원이 AI 기술을 채택해야 하는지 혹은 AI가 너무 많은 위험을 가져오지 않을지 묻는다. 나는 둘 다라고 본다. 무시하고 중단해 버리면 중대한 기회를 놓치게 되지만, 통제 장치가 마련되지 않은 상태로 직원들에게 자유분방한 접근권을 제공하는 것 역시 조직에 위험을 가져올 수 있다”라고 덧붙였다.

AI 도구는 수년간 사용되어 왔지만 최근에 일반인을 대상으로 챗GPT가 출시되면서 훨씬 더 많은 논란을 가져왔다. 이에 많은 CIO와 이사회 임원은 AI 도입을 두고 망설이고 있다. 일부 CIO들은 업계와 인류에 미치는 위험을 매우 심각하게 받아들이고 있다. 미국증권위원회(SEC)에 보고하는 핵심 규제기관인 금융산업규제당국(FINRA)의 CIO 스티브 랜디크는 “이 문제에 대한 나의 걱정은 매일 늘고 있다”고 말했다.

랜디크는 최근 본 그래프에 따르면 AI 프로그램의 ‘정신’ 능력이 쥐의 정신 능력을 막 넘어섰고 10년 내에는 인류 전체의 정신 능력을 넘어설 것이라면서 “특히 AI 프로그램이 악성 행위자들에 의해 영향을 받는 점과 원자력 코드 같은 것이 해킹될 수 있다는 점이 우려된다”고 말했다.

MIT 슬론 경영대학원 선임 강사 조지 웨스터만은 전 세계 기업 임원들이 MIT 슬론을 비롯한 여러 기관들로부터 생성형 AI 사용의 윤리, 위험, 잠재적 책임에 대한 조언을 구하고 있다고 말했다. 그래도 웨스터만은 대부분의 CIO들이 이미 최고 임원진 및 이사회와 소통한 상태이며 생성형 AI 자체가 부과하는 법적 책임은 새로운 것이 없고 기업 및 임원진이 현재 이미 준수하고 있는 것이라고 믿고 있다.

웨스터만은 AI 기술 사용의 좋지 않은 결과에 대한 CIO들의 개인적인 법적 책임에 대해 “다른 모든 회사 임원들과 마찬가지로 공식 임무에 대한 법적 보호가 있을 것이라고 예상한다”면서 이 기술을 개인적인 이익을 위해 부적절하게 사용하는 것은 예외라고 말했다.
 

생성형 AI 따라잡기

한편, 챗GPT의 출시 이후 규제 감독 기관은 혼란에 빠졌다. 유럽연합(EU)은 지난달 AI 법을 제정할 계획이었으나 정책들이 실시되기도 전에 시대에 뒤처지게 될 것이라는 많은 이들의 우려를 감안하여 중단하기로 했다. 유럽위원회(European Commission) 및 관련 기관은 생성형 AI의 영향을 분석하여 해결책을 찾기 위해 노력하고 있으며, 유럽과 미국의 회사 임원진은 그런 정부 기관의 경고를 심각하게 받아들이고 있다.

영국에 본사를 두고 미국 동부 지역에서도 영업 중인 내셔널 그리드(National Grid)의 그룹 최고 정보 및 디지털 책임자(CIDO) 아드리아나 카라부티스는 “AI가 사회 환경의 핵심 부분이 되고 좁은 AI가 일반 AI로 변모하면 누가 책임을 지는가? 기술 책임자? 무생물 기계 모델? 훈련 모델을 결정 및 변경하는 인간 간섭자인가? 기술은 빠르게 움직이고 있지만 관련 통제 장치와 윤리는 그렇지 않다”라고 지적했다.

또한 카라부티스는 “따라잡기 시합이 진행되고 있다. 이를 위해, 그리고 당분간은, 기업 내 AI 관리는 기업 및 조직 위험을 감독하는 최고임원들의 책임이다. AI의 발전으로 인해 정보 위험성을 관리하는 주체는 CTO/CIO/CTO/CDO/CISO 등 특정 최고 임원에 국한되지 않는다”라며 “IT는 CEO와 C레벨 모든 임원과 연관이 되며, AI의 막대한 이득과 위험을 모두 공유하는 기업 문화와 인식이 필요하다”라고 덧붙였다.

스웨덴 통신회사 에릭슨(Ericsson)의 VP 겸 기업 자동화 및 AI 책임자 리카드 위젤포르스에 따르면, 에릭슨은 생성형 AI에 큰 장점이 있다고 보고 대규모 언어모델(LLM)을 비롯한 다수의 생성형 AI 모델에 투자하고 있다.

위젤포르스는 “AI 업계 내에는 건전한 자아비판이 있으며 우리는 책임 있는 AI를 매우 진지하게 받아들이고 있다. AI 훈련에 사용되는 텍스트나 소스코드에 대한 지적 재산권 측면에 관해 해답이 없는 질문들이 여럿 있다. 또한, 모델 질의 시 데이터 유출, 편향, 사실 관계 착오, 완전성과 세밀함 부족, 모델 정확성 부족으로 인해 확실히 AI 모델을 사용할 수 있는 대상이 제한된다. 큰 능력에는 큰 책임이 따른다. 우리는 현재의 자아비판 정신과 AI가 세상에 무엇을 제공할 수 있을지에 대한 철학적 반성을 지지하고 참여한다”라고 설명했다.

초이스 호텔스(Choice Hotels)의 브라이언 커크랜드와 같은 일부 CIO들은 AI 기술을 추적 관찰하고 있지만 생성형 AI가 상업적 용도로 완전히 준비되었다고 생각하지 않는다.

커클랜드는 “챗GPT와 같은 생성형 AI 기술 사용의 위험과 보상, 영향을 업계가 반드시 인지하도록 조치하는 것이 매우 중요하다. 데이터 소유권에 대한 위험이 존재한다. 또한, 생성된 컨텐츠는 회사에 미치는 부정적인 영향을 피하기 위해 이해하고 관리해야 한다. 이와 동시에, 많은 장점과 기회도 고려해야 한다. 이런 시스템에 있는 공개 데이터와 비공개 데이터 집합을 안전하게 통합하는 능력이 있다면 장점이 상당할 것이다”라고 말했다. 

그는 “생성된 AI 컨텐츠부터 복잡하고 의미 있는 비즈니스 분석과 의사결정에 이르는 모든 것을 통해 AI와 머신러닝이 비즈니스 가치를 실현하는 방식에 극적인 변화가 있을 것이다”고 덧붙였다.

인터뷰에 참여한 CIO 중 AI 기술에 대한 전면적인 보류를 제안하는 사람이 아무도 없었다. 그뿐만 아니라 최근 가트너가 2,500명이 넘는 임원들을 대상으로 실시한 설문 조사에서 응답자 45%는 챗GPT에 대한 관심 때문에 AI 투자를 늘렸다고 응답했다. 70% 이상은 소속 기업이 현재 생성형 AI를 탐색 중이며 19%는 시범 프로젝트 또는 본격적인 생산 단계가 진행 중이라고 밝혔다. 유니레버(Unilever) 사례 및 카맥스(CarMax) 사례에서 볼 수 있듯이  AI는 기업에게 긍정적 영향을 가져다 주고 있다. 

전 IBM 연구원이자 현 MIT 슬론 제휴 연구원인 블라다우스키-버거는 AI 때문에 예상되는 유전체학의 중대한 발전을 언급하며 “우리 업계는 생성형 AI에 대해 모두 기대가 크다”고 말했다.

그러나 블라다우스키-버거는 AI 기술을 채택하는 기업에게 요구되는 실사는 간단한 작업이 아닐 것이라면서 “필요한 일이 너무 많다. 무엇이 효과가 있고 무엇이 안전하며 어떤 실험을 해야 하는지 알아내야 한다”라고 설명했다.

제약회사 조에티스(Zoetis)의 CIO인 와파 마밀리는 “생성형 AI가 제약회사들에게 인간의 만성 질환을 치료할 자신감을 높여주고 있다”라며 “유전학 연구에서 생성형 AI 기술과 컴퓨팅 성능의 발전으로 미국과 일본, 유럽에서 이제 당뇨병 치료를 목표로 한 실험이 진행되고 있다”라고 말했다.
 

가드레일과 가이드라인 : 생성형 AI의 필수사항

미국 증권가는 업계가 생성형 AI를 빠르게 수용하는 모습을 예의 주시하고 있다. IDC에 따르면, 2022년은 생성형 AI 스타트업에 대한 관련 투자액이 기록을 경신한 해였다. 관련 자본금 조달액은 26억 달러를 넘어섰다. 생성형 AI에 대한 최근 IDC 보고서에 따르면, 재스퍼(Jasper.ai)를 사용한 컨텐츠 생성, 미드저니(Midjourney)를 사용한 이미지 생성, 애저 오픈AI(Azure OpenAI) 서비스를 사용한 텍스트 처리 등 비즈니스의 다양한 측면을 향상시킬 AI 기반 모델이 있다.

리제네론의 맥코완은 CIO들에게 이미 생성형 AI 시범 프로젝트를 안전하게 추진하기 위한 가드레일 설치 수단이 있다고 전했다. 맥코완은 “AI 기술을 사용할 주체의 행동과 접근을 관리하고 직원에게 지적 재산, PII(개인식별정보)를 보호할 것을 계속 알려줘야 한다. 그뿐만 아니라 공유되는 내용이 공개될 수 있음을 반복하여 강조하는 정책 및 가이드라인을 갖추는 것이 매우 중요하다”라고 덧붙였다.

그는 “투자자들과 변호사들을 함께 이러한 도구를 사용하는 위험 기반 모델을 찾아내고 어떤 데이터를 노출해도 괜찮고, 이런 솔루션이 내놓은 결과물에 대해 어떤 권리를 갖는지 명확히 해야 한다. 위험이 덜한 사용 사례로 AI 기술을 사용하기 시작하고, 각각의 반복 과정으로부터 학습해야 한다. 시작하지 않으면 손해를 보게 될 것”이라고 강조했다.

포레스터 리서치 애널리스트 데이빗 트루오그는 기업들이 시범 프로젝트를 시작하고 생성형 AI를 생산 단계에 사용하기에 앞서 AI 리더들이 생성형 AI에 경고 라벨을 붙여야 하며, 충분히 실행 가능한 과정이라고 설명했다. 트루오그는 “AI를 중단하거나 보류하는 것이 올바른 길이라고 생각하지 않는다. 보다 실용적이고 건설적인 길은 특수 AI가 도움이 될 수 있는 사용 사례를 신중히 선택하고, 사려 깊은 가드레일을 설치하고, 의도적인 보호 전략을 갖추는 것이다. 그것이 출발점이 될 것이다”라고 말했다.

한 컨설팅 회사의 데브옵스 IT 최고 책임자는 CIO들이 생성형 AI 사용 시 위험을 완화할 수 있는 여러 가지 방안을 소개했다. 예를 들면, 벤처 투자가처럼 생각하기, 생성형 AI 기술의 가치를 명확히 이해하기, 테스트 전에 윤리적 및 법적 고려사항을 결정하기, 실험하되 성급히 투자하지 않기, 고객의 관점에서 영향 고려하기 등이다.

미국의 소프트웨어 개발 도구 업체 퍼포스(Perforce)의 CTO 로드 코프는 “똑똑한 CIO들은 조직의 실행 과정을 안내할 수 있고 책임 있는 사용을 촉진할 가이드라인 설정을 도울 수 있는 외부 컨설턴트들과 협력하거나 감독 위원회를 구성할 것이다. AI에 대한 투자는 기업에게 막대한 가치를 제공하지만 이를 기술 스택 내에 구현하려면 사려 깊은 고려가 있어야 본인과 소속 조직, 그리고 고객을 보호할 수 있다”라고 말했다.

생성형 AI의 등장은 확실히 사람의 일자리에 영향을 미칠 전망이다. 그러나, 관리 서비스 제공업체 멧텔(MetTel) CTO 에드 폭스를 포함한 일부 IT 리더들은 비록 모든 사람이 AI 적응해야 하고, 그렇지 않으면 뒤처질 가능성이 높은 것도 사실이지만, AI에 의한 부정적인 영향은 과장된 것일 수 있다고 생각하고 있었다.

폭스는 “생성형 AI의 출현으로 일각에서 예측하는 정도는 아니지만 어떤 사람들은 일자리를 잃을 것이다. 마치 실시간 백과사전 같은 생성형 AI를 적극 활용하지 않는 사람들은 뒤처질 것이다”라고 말했다.

위의 모든 요소를 아우르는 핵심 결론은 CIO가 선택할 수 있는 최선의 길은 신중하게 AI 도입을 검토하는 것이다. 적어도 직접 관여해야 한다. 

컨설팅 기업 위프로(Wipro) 구글 비즈니스 그룹 총괄 담당자 톰 리처는 신중하게 AI 도입을 검토하기 위해 코넬 대학교와 AI 이니셔티브 협력을 진행하고 있다는 점을 언급하며 “CIO들은 AI가 책임 있게 개발되고 사용될 수 있도록, 혁신을 억누르는 엄격한 규제와 가이드라인 사이에 균형을 유지해야 한다”라고 강조했다.

그는 “CIO들과 IT 임원들이 생성형 AI의 잠재적인 위험과 이득을 인지하고 이 분야의 전문가들과 협력하여 책임 있는 생성형 AI 사용 전략을 개발하는 것이 중요하다. 이러한 협력에는 대학교, 대형 기술 회사, 싱크탱크, 정부 연구 센터를 참여시켜 기술의 AI 개발 및 배포에 대한 모범 사례를 개발해야 한다”라고 덧붙였다.
ciokr@idg.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.