AIㆍML

기업이 생성형 AI를 도입하기 전에 던져야 할 7가지 질문

Maria Korolov | CIO 2023.06.27
IT 리더, 나아가 기업 전체는 생성형 AI의 힘을 즉시 이용할 줄 알아야 한다. 이때 생성형 AI의 잠재적인 취약성, 편향성, 여러 위험성을 이해하고 관리하는 능력이 뒷받침돼야 한다. 그래야 민감한 데이터를 보호하고, 고객의 신뢰를 유지하며 성공적인 생성형 AI 프로젝트를 도입할 수 있다. 
 
ⓒ Getty Images Bank 


생성형 AI는 기업에서 다양하게 활용되고 있다. 어떤 회사는 코드를 작성을 위해, 어떤 회사는 마케팅 텍스트를 만들거나 챗봇을 구축하기 위해 생성형 AI를 이용하고 있다. 구독형 치과 교정 서비스를 제공하는 스마일다이렉트클럽(SmileDirectClub)의 경우, 고객 서비스 개선을 위한 이미지 생성 과정에서 생성형 AI를 이용하고 있다.

미국에 본사를 둔 스마일다이렉트클럽은 치아 모형을 만들기 위해 생성형 AI를 도입했다. 좀 더 구체적으로 말하자면 고객이 어떻게 치아가 교정될지 이해를 돕기 위해서 AI를 사용하고 있다.

스마일다이렉트클럽 CIO인 저스틴 스키너는 “우리는 스마일메이커(SmileMaker)이라는 플랫폼을 만들었다. 스마일메이커로 치아를 스마트폰으로 찍으면, 3D 모형을 만들어 교정 기구를 착용한 치아는 어떤 형태인지, 교정 시간은 얼마나 걸리는지, 그리고 교정이 전부 끝났을 때 모습은 어떠한지 AI로 미리 볼 수 있다”라고 말했다.

오픈AI의 챗GPT, 구글 바드, 스테이블 디퓨젼과 같은 기존의 생성형 AI 플랫폼은 훈련 과정에서 치아의 3D 이미지 데이터를 활용하지 않았다. 그래서 스마일다이렉트클럽이 기술을 개발할 때는 기존 AI 모델을 이용하기 어려웠다.

스마일다이렉트클럽은 자체 데이터 세트를 사용하여 HIPAA, GDPR 및 기타 규정을 준수하는 생성형 AI를 자체 서버에 구축했다. 3년 전 처음 이 프로젝트를 시작할 때 스마일다이렉트클럽은 외부 파트너와 기술 개발을 진행했지만, 이후 기술력을 확보하고 독점적인 모델을 만들기 위해 전문 팀을 사내에 따로 만들었다. 

스키너는 “AI 기술의 결과물은 정확성 측면에서 우리가 원하는 수준까지 올라오지 않았다. 그만큼 치아를 3D 형태로 재현하는 것은 매우 까다로운 작업이다. 사람마다 치아 상태가 매우 미세하게 다르기 때문에 스마트폰에서 정확한 3D 모델을 얻는 것은 쉽지 않았다”라고 말했다.

스마일다이렉트클럽이 만든 1세대 스마일메이커 툴은 호주에서 작년 11월, 미국에서는 올해 5월에 출시됐다. 지금까지 약 10만 명이 사용했다. 차세대 버전은 치아 표현 과정에서 ‘포토리얼리스틱(Photorealistic)’ 기법을 적용할 예정이다.

스키너에 따르면, 스마일다이렉트클럽의 AI 도구는 고객에게 간단한 치아 모델링 정보만 제공한다. 고해상도의 치료 후 사진이 필요하다면, 직접 치과 의사를 만나거나 별도의 키트를 사용해서 3D 사진을 만들어야 한다. 다만 향후 기술이 발전함에 따라 현재 AI 도구의 역할도 바뀔 수도 있다고 한다.

앞으로 스마일다이렉트클럽은 생성형 AI를 활용을 확대할 예정이다. 스키너는 “비용 절감과 효율성을 확보할 수 있기 때문에, 챗GPT 및 바드와 같은 툴을 활용하는 것을 모색하고 있다. 마이크로소프트 코파일럿 이용도 검토하고 있다”라고 말했다.

스마일다이렉트클럽처럼 생성형 AI를 도입하는 기업은 최근 늘고 있다. 시장조사기관 더해리스폴(The Harris Poll)이 솔루션 기업인 인사이트 엔터프라이즈(Insight Enterprises)가 공동으로 임원을 대상으로 실시한 여론조사에 따르면, 기업의 39%가 이미 생성형 AI를 중심으로 정책이나 전략을 수립했으며 42%가 실제 기술을 개발 중인 것으로 나타났다. 또 다른 17%는 계획은 하고 있지만 아직 착수하지 않았다. 생성형 AI에 대한 계획을 수립할 생각이 없는 기업은 1%에 불과하다.

스마일다이렉트클럽이 고객 관리 영역에서 생성형 AI를 적극 도입한 것처럼 기업은 생성형 AI 전략 또는 정책을 수립할 수 있다. 특히 성공적인 생성형 AI 프로젝트 성과를 내기 위해서는 기업 내 CIO가 다음 7가지 질문에 미리 답을 준비하면 좋다. 
 

질문 1. 비즈니스 가치는 어디에 있는가?

더해리스폴에 따르면 임원의 72%가 직원 생산성 향상을 위해 향후 3년 내에 생성형 AI 기술을 채택할 계획이라고 한다. 66%는 고객 서비스 개선에 사용할 계획이라고 답했다. 또한 53%는 생성형 AI가 연구 개발에 도움이 될 것이라고 답했으며, 50%는 소프트웨어 개발 또는 테스트 자동화에 도움이 될 것이라고 답했다. 

앞으로는 비슷한 조사에서 더 많은 기업이 생성형 AI 기술을 활용할 것이라는 대답할 가능성이 크다. 그만큼 생성형 AI 시장은 빠르게 변화하고 있다.

스키너는 “CIO는 개발 동향을 파악하기 위해 열심히 노력해야 한다”라고 조언했다. 더 중요한 것은 CIO가 일반적으로 생성형 AI의 가능성이 비즈니스에 어떻게 구체적으로 적용되는지 이해해야 한다는 점이다.

스키너는 “그게 바로 처음으로 생각해야 하는 질문이다. 정말 AI와 비즈니스를 결합해 잘 이해하고 있는가? 가치를 얻기 위해 내 비즈니스에 어떻게 적용해야 하는지 깊이 이해하고 있는가? 같은 질문을 생각해야 한다”라고 말했다. 

빠른 변화 속도를 감안할 때, 생성형 AI를 제대로 이해하려면 직접 경험해 보며 규모가 커졌을 때 모습도 예측할 줄 알아야 한다. 이런 접근 방식은 실제로 인사이트 엔터프라이즈가 도입하고 있다. 

미국의 솔루션 통합 서비스를 제공하는 인사이트 엔터프라이즈는 현재 1만 명의 직원이 생성형 AI 툴을 사용하고 경험을 공유하고 있다. 덕분에 기업 전체가 생성형 AI의 장점과 단점 모두를 파악하고 있다.

인사이트의 수석 엔터프라이즈 아키텍트이자 CTO인 데이비드 맥커디는 “우리가 하는 일은 생성형 AI 관련해서 매우 큰 프로젝트다. 나는 CTO로서 AI 모델이 잘하는 것과 못하는 것을 파악하는 데 주력하고 있다”라고 설명했다.

또한 맥커디는 생성형 AI는 참신해 보여 멋질 수 있지만, 실제로 이용해보면 대단히 유용한 것은 아니라고 평가했다. 맥커디는 “우리는 생성형 AI 솔루션 관련 계약서를 함께 검토하고, 책임 소재는 어디에 있고 위험성은 어디에 있는지 미묘한 영역을 스스로 확인했다. 이런 과정은 기술을 자세히 파악하기에 정말 도움이 되고 100% 효과적이었다. 전 세계 다른 기업도 이런 과정을 도입하면 유용할 것이다”라고 말했다.

실제로 인사이트 엔터프라이즈의 직원 중 한 명은 SAP용 스크립트를 작성하는 과정에서 생성형 AI를 도입했다. 맥커디는 “해당 직원은 문의를 남기거나 다른 사람에게 물어볼 필요 없이 생성형 AI로 스크립트를 바로 작성했다. 이런 예시가 생성형 AI 교육으로 내가 추구하려는 것이다. 실제 그 결과는 놀라울 정도다”고 말했다.

맥커디에 따르면, 모든 CIO가 스스로에게 물어야 할 첫 번째 질문은 ‘회사가 향후 1~2년 동안 생성형 AI를 어떻게 사용할 계획인가’이다. 맥커디는 “생성형 AI에 대해 논의할 생각이 아직 없다고 말하는 사람들이 있는데, 아주 큰 실수다. 어떤 사람들은 좀 더 두고 볼 계획이라고 말하는데, 이 경우 결국 생산성이 떨어질 것이다. 이사회와 CEO들은 ‘왜 다른 회사들이 생성형 AI 기술을 좋아하는가? 왜 우리는 그렇지 않은가?’라고 질문할 것이다”라고 덧붙였다.

다만 생성형 AI 기술 시장은 아직 초기이므로 향후 생성형 AI로 얻을 기회는 더 많아질 수 있다는 점도 고려해야 한다. 
 

질문 2. 우리의 구축 전략은 무엇인가?

생성형 AI 게임에 진출하고자 하는 기업은 다양한 전략을 가지고 있다. 예를 들어, 어떤 기업은 자체 모델을 미세 조정하고 실행하고 있다. 새로운 오픈 소스 모델을 내놓은 기업도 많아지고 있다. 데이터 및 AI 공급업체는 온프레미스 또는 프라이빗 클라우드에서 실행할 수 있는 대체 AI 기술을 제공하고 있다.

그 다음으로 세일즈포스, 마이크로소프트, 구글과 같은 전통적인 SaaS 공급업체는 모든 서비스에 생성형 AI를 내장하고 있다. 이러한 모델은 특정 비즈니스 사용 사례에 맞게 사용자 정의되며 개인 정보 보호 및 위험 관리 방법을 이미 알고 있는 공급업체가 유지 관리한다.

마지막으로, 챗GPT와 같은 공용 모델이 있는데, 이런 모델은 중소기업이 공용 인터페이스를 통해 직접 접근할 수 있다. 기업 규모가 큰 경우, 보안성이 높은 프라이빗 클라우드를 통해 모델을 이용할 수 있다. 예를 들어 인사이트는 프라이빗 애저 클라우드에서 호스팅 되는 오픈AI의 GPT 3.5 터보 및 GPT 4.0을 운영하고 있다.

몇 가지 요구조건을 충족해야 하지만 자체 모델 훈련에 관심이 없는 기업이라면, 챗GPT와 같은 모델을 사용한 다음 벡터 데이터베이스를 통해 회사 데이터를 활용할 수 있다. 

맥커디는 “기존 모델에 자체 데이터를 결합하면 많은 가치를 만들 수 있다. 혁신과 생산성 모두를 얻을 수 있을 것이다”라고 설명했다.

자체 데이터를 넣어 두면 마치 챗GPT에 필요한 사전 정보를 알려주는 것과 동일한 효과를 누릴 수 있다. 이때 데이터를 매번 붙여 넣을 필요는 없다. 예를 들어, 인사이트는 지금까지 작성한 백서와 인터뷰 원고를 모두 가져와 생성형 AI가 참조할 수 있도록 벡터 데이터베이스에 업로드 했다.
 

질문 3. 데이터, 고객, 직원을 안전하게 유지할 수 있을까?

5월 PwC보고서에 따르면, 거의 모든 비즈니스 리더들은 회사가 단기적으로 AI 시스템과 관련된 최소한 하나 이상의 이니셔티브를 우선시하고 있다고 말했다.

그러나 임원의 35%만이 향후 12개월 동안 AI 시스템의 거버넌스 개선에 주력할 것이라고 답했으며, 위험 전문가의 32%만이 현재 생성형 AI 애플리케이션의 기획 및 전략 단계에 관여하고 있다고 답했다.

지난 4월 KPMG가 고위 임원을 대상으로 실시한 유사한 설문조사에 따르면, 생성형 AI의 위험을 평가하고 위험 마이그레이션 전략을 구현할 전담 팀을 갖춘 조직은 6%에 불과했다. 그리고 19%의 업체들이 그것에 집중하고 있고 절반 가까이는 만들 계획이라고 답했지만, 성숙하고 책임감 있는 AI 거버넌스 프로그램을 시행 중인 업체는 5%에 불과했다.

처음부터 자체적으로 구축하기보다는 외부의 생성형 AI 플랫폼을 사용하려는 기업에게 이런 보안과 신뢰성은 특히 중요하다. 예를 들어 스마일다이렉트클럽의 스키너도 잠재적인 생산성 이점을 위해 챗GPT와 같은 플랫폼을 검토하고 있지만 데이터 및 개인 정보 보호 위험에 대해 우려하고 있다. 스키너는 “뛰어들기 전에 먼저 데이터가 어떻게 보호되는지 이해하는 것이 중요하다”라고 밝혔다.

실제로 스마일다이렉트클럽의 직원들은 현재 기술 상황과 생성형 AI의 장점과 한계를 이해할 수 있도록 사내 커뮤니케이션 및 교육 캠페인을 시작할 예정이다.

스키너는 “회사에서 보안 정책을 설정하고 팀원들이 정책이 무엇인지 알고 있는지 확인해야 한다. 현재로서 우리의 정책상 고객 데이터를 이러한 플랫폼에 업로드할 수 없다”라고 설명했다.

스마일다이렉트클럽은 또한 생성형 AI 기술 중에서도 기업용 서비스를 주시하고 있다. 스키너는 “마이크로소프트 코파일럿은 오피스 365와의 통합으로 인해 가장 먼저 확장성 있게 활용될 것이다”라고 말했다.

EY US의 신기술 부문 리더인 매트 배링턴에 따르면, 그가 상담하는 기업의 약 절반이 챗GPT 및 유사한 플랫폼에 대한 전면적인 접근 방식 및 이에 따른 잠재적 위험에 대해 걱정하고 있었다. 그는 “우리가 생성형 AI를 이해할 수 있을 때까지, 일단은 사용을 막고 있다”라고 말했다. 나머지 절반은 사람들을 훈련시키고 가능하게 하는 올바른 프레임워크를 어떻게 구축할 수 있는지 알아보고 있다. 배링턴은 “조심해야 하지만 가능하게는 만들어야 한다”라고 설명했다.

배링턴은 “게다가, 챗GPT에 제동을 건 50%의 사람들도 여전히 그것을 사용한다. 이미 기차는 떠났고, 생성형 AI 툴의 힘은 너무 커서 제어하기가 어렵다. 클라우드 컴퓨팅의 초창기와 같다”라고 덧붙였다.
 

질문 4. 편견으로부터 어떻게 보호해야 하는가?

편견 문제는 명확하게 정의된 데이터 세트로 작업하는 전통적인 머신 러닝 시스템에서는 충분히 해결되기 여렵다. 그러나 코드, 텍스트 또는 이미지 생성에 사용되는 것과 같은 대형 기본 모델에서는 이런 교육 데이터 세트는 완전히 미지의 것일 수 있다. 또한 모델이 학습하는 방법은 매우 불투명하다. 모델을 개발한 연구원들 조차 결과물이 어떻게 발생하는지 아직 완전히 이해하지 못한다. 이런 영역을 특히 규제 당국이 우려하고 있다.

EY의 배링턴은 “규제 부분은 유럽 연합(EU)이 선도하고 있다. EU는 AI 법안을 준비하고 있으며, 오픈AI의 샘 알트만은 강력한 규제를 요구하고 있다. 앞으로도 많은 것들이 남아있다”라고 말했다.

규제를 요청하는 것은 알트만뿐만이 아니다. 6월 보스턴 컨설팅 그룹이 약 1만 3,000명의 비즈니스 리더, 관리자 및 일선 직원을 대상으로 실시한 설문 조사에 따르면 79%가 AI 규제를 지지하고 있다.

배링턴은 “기업이 수집하는 데이터의 민감도가 높을수록 더욱 조심해야 한다”라고 설명했다. 그는 “우리는 AI가 비즈니스에 미칠 영향에 대해서는 낙관적이지만 책임감 있고 윤리적인 구현에 대해서도 그만큼 조심스럽다. 앞으로 집중해야 할 영역에는 AI의 책임 있는 사용이 있다”라고 말했다.

배링턴은 “어떤 기업이 생성형 AI를 효과적으로 활용할 뿐만 아니라 정확성, 제어 및 책임 있는 사용을 보장하는 방법을 학습하는 데 앞장서면 기술과 규정이 계속 변화하더라도 그 기업은 한 발 앞서게 될 것”이라고 말했다.

녹취록 관련 업체인 레브(Rev)는 책임 있는 AI를 고려해 자사가 제공하는 도구 모음에 생성형 AI를 단계적으로 추가하고 있다. 설립된 지 12년 가까이 된 레브는 사람이 작성해주는 녹취 서비스를 제공하고 있으며, 최근 AI 툴을 추가하며 인력을 늘리고 있다. 

이제 레브는 회의 요약을 자동으로 만들기 위해 생성형 AI의 사용을 모색하고 있다. 레브의 R&D 및 AI 책임자인 미구엘 제트는 “우리는 약간의 시간을 들여 주의 의무를 다하고 있고 이러한 작업이 우리가 원하는 방식으로 수행되도록 하고 있다”라고 밝혔다.

제트는 “요약은 생성형 AI의 다른 애플리케이션만큼은 위험하지 않다. 이것은 잘 정의된 문제 공간이며 모델이 작동하는지 확인하기가 어렵지 않다. 프롬프트에서 이미지를 생성하듯이 완전히 개방적인 것은 아니지만 그래도 가드레일이 필요하다”라고 덧붙였다.

제트는 “특히 모델이 공정하고, 편견이 없으며, 설명 가능하고, 책임감이 있고, 개인 정보 보호 요건을 준수하는지 확인해야 한다”라며 “또한 우리의 제품이 우리가 예상한 대로 작동하는지 확인하기 위해 몇몇 최대 사용자들과 함께 상당히 엄격한 알파 테스트도 하고 있다. 현재 우리가 가지고 있는 사용법은 매우 제한적이며, 생성형 모델의 잘못된 행동에 대해 크게 걱정하지는 않는다”라고 말했다.
 

질문 5. 누구와 협력할 수 있을까?

포레스터 리서치의 애널리스트 미셸 고에츠는 대부분의 기업에서 생성형 AI를 구현하는 가장 효과적인 방법은 신뢰할 수 있는 파트너에 의존하는 것이라고 말했다.

고에츠는 “그것이 가장 쉬운 방법이고, 내장된 것이다”라고 말했다. 그녀는 기업들이 자체 생성형 AI 기능을 출시하기까지는 적어도 3년이 걸릴 것이라고 예측했다. 그때까지 기업들은 즉각적인 구현을 위해 기존 공급업체 파트너에 의존하면서 안전 지대에서 생성형 AI를 사용하고 실험할 것이다.

그러나 기업들은 여전히 주의의무를 기울여야 할 것이라고 그녀는 설명했다. 그녀는 “공급업체들이 AI를 서비스형으로 운영하고 있으며 그것은 나뉘어 있다고 말한다. 그러나 그것은 아직 모델을 훈련시키고 있을 수 있으며, 여전히 기초 모델에 대한 지식과 지적 재산권이 있을 수 있다”고 밝혔다.

예를 들어, 어떤 직원이 교정을 위해 민감한 문서를 업로드한 후 AI가 해당 상호 작용에 대해 교육을 받게 되면 해당 문서의 내용을 학습하고 해당 지식을 사용하여 다른 회사에 속한 사용자의 질문에 답변함으로써 민감한 정보가 유출될 수 있다.

고에츠는 원래 교육 데이터의 출처, 검증 및 관리 방법 등과 같이 CIO가 공급업체에 묻고 싶은 다른 질문도 있다고 말했다. 또한 모델이 어떻게 업데이트되고 데이터 소스가 시간이 지남에 따라 어떻게 관리되는지도 마찬가지다.

고에츠는 “CIO는 공급업체가 올바른 일을 하고 있다는 것을 믿어야 한다. 이러한 이유로 인해 효과적으로 제어할 수 없는 영역에서 최신의 생성형 AI를 도입할 준비가 되어 있지 않은 조직이 많다”고 말했다. 그녀는 특히 규제가 심한 분야에서 더욱 그러하다고 강조했다.
 

질문 6. 비용이 얼마나 들 것인가?

임베디드 AI의 비용 부과 방식은 비교적 단순하다. 마이크로소프트, 구글, 어도비 및 세일즈포스와 같은 기업의 소프트웨어 회사에서 생성형 AI를 도구 세트에 추가하면 가격이 비교적 명확해진다. 하지만, 기업들이 자체적으로 생성형 AI를 구축하기 시작하면 상황은 훨씬 더 복잡해진다.

생성형 AI에 대한 모든 흥분 속에서 기업들은 때때로 대규모 언어 모델이 매우 높은 컴퓨팅 요구 사항을 가질 수 있다는 사실을 잊어버릴 수 있다.

맥킨지&컴퍼니의 선임 파트너인 루벤 쇼브렉은 “사람들은 계속해서 결과를 보고 싶어하지만 규모에 맞게 그것을 실행하는 것에 대한 의미를 곰곰히 생각해보지는 못했다. 그들은 개인 정보보호, 보안, 그리고 다른 이유들 때문에 공용 챗GPT를 사용하고 싶어하지 않는다. 그리고 그들은 자신의 데이터를 사용하여 챗GPT와 같은 인터페이스로 쿼리할 수 있게 하려고 한다. 또한 자체 데이터를 기반으로 대형 언어 모델을 개발하는 조직도 있다”라고 말했다.

한편, 소형 언어 모델은 빠르게 등장하고 진화하고 있다. 쇼브렉은 “여기서 변화의 속도는 엄청나다. 기업들이 개념 증명을 실행하기 시작했지만, 총 소유 비용에 대한 논의는 아직 많지 않으며, 그것은 우리가 많이 듣지 않는 질문이지만 순진하게 받아들여서는 안 된다”라고 설명했다.
 

질문 7. 데이터 인프라는 생성형 AI를 위한 준비가 되어 있는가?

임베디드 생성형 AI는 공급업체가 작동에 필요한 데이터 바로 옆에 AI를 추가하고 있기 때문에 기업이 쉽게 배포할 수 있다.

예를 들어, 어도비는 포토샵에 생성형 AI 채우기를 추가하고 있으며, 작업에 필요한 소스 이미지는 바로 포토샵 안에 있다. 구글이 지메일에 생성형 AI를 추가하거나 마이크로소프트가 오피스 365에 생성형 AI를 추가하면, 필요한 모든 문서를 바로 이용할 수 있다. 그러나 더 복잡한 엔터프라이즈 구현에는 견고한 데이터 기반이 필요하며, 이를 위해 많은 기업들이 여전히 노력 중이다.

데이터 및 애널리틱스 컨설팅 회사인 다스42의 CEO인 닉 아마바일은 “많은 회사가 아직 준비되지 않았다”라고 말했다. 그는 데이터가 AI 애플리케이션을 위해 중앙 집중화되고 최적화되어야 한다고 말한다. 예를 들어, 어떤 기업이 서로 다른 백엔드 시스템 간에 데이터를 퍼뜨릴 수 있으며, AI의 가치를 최대한 활용하려면 해당 데이터를 수집하고 상호 연관시켜야 한다. 아마바일은 “AI의 큰 장점은 인간이 할 수 없는 규모로 데이터를 분석하거나 합성할 수 있다는 것이다”라고 설명했다.

AI와 관련하여 데이터는 연료라고 젠팩트의 AI/ML 서비스 담당 부사장 겸 글로벌 리더인 스리칸스 메논은 설명했다. 메논은 “따라서 기업이 올바른 데이터, 정제된 데이터, 툴, 데이터 거버넌스 및 가드레일을 통해 AI를 지원할 수 있도록 하는 것이 그 어느 때보다 시급하다”라며 “현재의 데이터 파이프라인은 생성형 AI가 성공할 수 있을 만큼 충분하다”라고 덧붙였다. 

그것은 기업이 생성형 AI를 준비하기 위해 취해야 하는 것의 시작일 뿐이라고 그는 말했다. 예를 들어, 기업들은 생성형 AI가 설명 가능하고 투명하며 윤리적인지 확인하고자 할 것이다. 이를 위해서는 옵저버빌리티 플랫폼이 필요할 것이며, 이들 플랫폼은 대형 언어 모델에 대해서만 나타나기 시작했다고 메논은 말했다.

이러한 플랫폼은 결과의 정확성뿐만 아니라 비용, 대기 시간, 투명성, 편향, 안전 및 프롬프트 모니터링도 추적할 수 있어야 한다. 그런 다음, 일반적으로 모델이 시간이 지남에 따라 부패하지 않도록 지속적으로 감독해야 한다. 메논은 “지금 당장은 가드레일과 지침 원칙을 시행해야 한다”라고 말했다. 그러면 기업은 생성형 AI를 배양하기 시작하고 성숙해지면 전체 기업으로 이를 민주화할 수 있다.
ciokr@idg.co.kr

 Tags 생성형AI CIO

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2023 International Data Group. All rights reserved.