Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

세상의 모든 IT 리서치 자료 - 넘버스 Numbers

챗GPT가 추천한 주식에 대한 신뢰 정도
3.08
/5
자료 제목 :
미국인은 챗GPT의 주식 추천에 회의적이다
Americans Are Skeptical of ChatGPT’s Stock Recommendations
자료 출처 :
Motley Fool
원본자료 다운로드
발행 날짜 :
2023년 08월 08일
AI / 머신러닝|딥러닝 / 오픈소스 / 훈련|교육

기고 | 책임 있는 AI 구현은 ‘AI 교육’에서 시작된다

Peter Wang | InfoWorld 2024.05.23
점점 더 많은 사람이 AI를 업무와 의사결정에 이용하고 있다. AI가 확산되고 있지만 정작 AI가 작동하는 기본 원리에 대한 교육은 부족하다. AI 기업은 물론 공공, 오픈소스 커뮤니티가 모두 나서 이를 바꿔야 한다.
 
ⓒ Getty Images Bank

2023년 5월부터 백악관은 AI 기업과 협력하여 책임 있는 AI 개발을 위한 포괄적인 프레임워크를 개발하고 있다. 아직 확정된 것은 아무것도 없지만, AI 보안 문제를 해결하기 위해 민간 기업 스스로 자율적인 규제안을 제시하는 사례도 늘고 있다.

AI 기업이 스스로 개발하는 도구와 모델에 안전 장치를 넣으려고 하는 것은 분명 긍정적인 변화다. 그러나 이러한 중요한 논의는 보다 공개적으로 진행되어야 한다. AI가 책임감 있고 포용적으로 진화하기 위해서는 'AI 지식의 민주화'가 필수적이다.

AI의 급속한 발전으로 널리 이용 가능한 도구가 폭발적으로 증가하면서 최종 사용자가 기술과 상호작용하는 방식이 근본적으로 바뀌고 있다. 예를 들어 챗봇은 우리 일상의 일부로 자리 잡았다. 투자기업 모틀리풀 설문조사에 따르면, 미국인 중 47%가 주식 추천을 위해 챗GPT와 같은 AI를 이용하고 있다. 컨설팅 기업 임팩트 리서치의 연구에 따르면, 초·중·고등학교 재학생 중 42%는 학업 목적으로 챗GPT을 이용하고 있다.

AI가 광범위하게 도입되는 만큼 사용자는 그 기반이 되는 대규모 언어 모델(LLM)을 더 잘 이해하고 있어야 한다.

환각을 줄이기 위해 고려해야 할 2가지
AI에 대한 이해도가 부족하면 ‘환각’이 더 많아질 수 있다. 환각은 LLM이 의도치 않게 잘못된 정보를 유포하는 현상이다. 방대한 데이터로 학습된 AI 모델은 고의로 또는 의도치 않게 잘못된 데이터를 기반으로 잘못된 응답을 생성할 수 있다.

많은 사람이 정보를 찾을 때 기술에 많은 의지를 하는 만큼, 그럴듯해 보이는 동시에 잘못된 AI 결과물은 엄청난 영향력을 갖고 있다. 일반 사용자가 AI 결과물의 진위 여부를 직접 확인해 보고 싶어도 검증이 불가능할 수도 있다. 최악의 경우 개인, 기업, 교육 기관 등은 AI가 생성한 정보를 의심 없이 받아들여 잘못된 결정을 내릴 수 있다.

이런 상황에서 우리가 생각해야 할 것은 두 가지다. 첫째, 사용자는 AI의 잘못된 정보를 식별할 수 있는 능력을 갖춰야 한다. 둘째, 사용자는 AI가 생성한 콘텐츠를 검증하는 습관을 길러야 한다. 단순히 기업 보안성을 높이자고 이런 조치를 취하자는 게 아니다. 생성형 AI로 검증되지 않은 허위 정보는 사회 그리고 정치에 미치는 파급 효과가 엄청나기 때문이다. 미리 이를 막기 위한 노력을 다같이 해야 한다.

개방형 협업의 필요성
프론티어 모델 포럼(Frontier Model Forum)은 이러한 과제를 해결하는 데 도움을 주고 있다. 업계 리더인 오픈AI, 구글, 마이크로소프트 등이 주도해 만든 프론티어 모델 포럼은 AI 도구 및 모델에 대한 신뢰와 안전성을 높이는 작업을 공동으로 추진하고 있다. 하지만 AI가 지속 가능하고 책임감 있게 발전되기 위해서는 보다 폭넓은 접근 방식이 필요하다. 즉, 기업 울타리를 넘어 공공 및 오픈소스 커뮤니티까지 함께하는 협업이 이뤄져야 한다.

다양한 주체가 함께하면 AI 모델의 신뢰성을 높일 수 있다. 그뿐만 아니라 오픈소스 커뮤니티가 이뤘던 공동 작업의 노력을 AI 업계에서도 만들 수 있다. 다시 말해 오픈소스 커뮤니티는 다양한 이해관계자가 함께 보안 위협과 취약성을 식별하며 위기를 공동으로 대응했는데, 이런 문화를 AI 산업에도 심을 수 있는 것이다.  

신뢰와 안전성을 높이는 AI 교육
업계 전체의 AI 지식 수준을 높이려면 최종 사용자에게 AI 내부 작동 원리부터 교육하는 작업이 필요하다. 특히 데이터 소싱, 모델 학습, 그리고 이러한 도구의 내재된 한계에 대한 정보를 알려줘야 한다. 이러한 기초 지식은 신뢰를 구축할 뿐만 아니라 사람들이 AI를 보다 생산적이고 안전하게 사용할 수 있게 만든다. 기업 전체가 높은 AI 이해도를 가지면, AI를 효율성을 높이는 도구로 사용하는 것을 넘어, 정보 기반의 의사결정을 내리는 환경을 구현할 수 있다.

질문과 회의 중심의 문화를 보존하고 장려하는 것은 AI 시대에서 더욱 중요하다. 특히 교육 업계에서 AI를 올바르게 사용하는 방법을 알려줘야 한다. 교육자와 학생 모두 AI를 완벽하고 절대적인 도구로 보기보단 아이디어 발상, 질문 구성 및 연구에서 인간의 역량을 강화하는 도구로 인식하도록 교육받아야 한다.

AI는 분명 강력한 도구다. 하지만 AI의 메커니즘을 제대로 이해하지 못한 채 AI에 지나치게 의존한다면, 생산성과 품질 모두에 부정적인 영향을 미칠 수 있다.

AI가 많은 제품에 빠르게 통합되고 있지만, 이와 관련된 지침이나 교육은 아직 부족하다. AI를 안전하고 발전시키고 사용하려면 AI 교육이 보다 더 광범위하게 이뤄져야 한다. 모두가 함께 노력하고 이해해야만 AI 관련 도전과제를 해결하고 잠재력을 최대한 끌어낼 수 있을 것이다.

*필자 피터 왕(Peter Wang)은 오픈소스 파이썬 배포판 개발 기업인 아나콘다(Anaconda)의 공동 창립자이자 최고 AI 및 혁신 책임자이다.
ciokr@idg.co.kr
 Tags 책임있는AI 생성형AI AI교육

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.