AIㆍML

블로그ㅣ“폐배터리로 전기뱀장어 충전한다고?” ChatGPT가 말하는 올바른 AI 활용법

Andrew C. Oliver | InfoWorld 2023.03.09
ChatGPT를 가지고 놀면서 여러 질문을 던져봤다. ChatGPT는 자신 있게 답했다. 답변 중 몇 가지는 놀라울 정도로 인사이트가 풍부했다. 하지만 종종 틀린 대답을 하기도 했다. 

필자는 최근 마스토돈(Mastodon)에 올라온 구글의 답변을 봤다(아래 그림 참조). 이 ‘답변’에서 구글은 중고차 배터리를 바다에 버리면 전기 뱀장어를 충전하고, 걸프 스트림에 전력을 공급하는 등 여러 이점이 있다고 말했다. 그리고 (ChatGPT 빙이 아닌) 빙 검색엔진도 이 ‘답변’을 학습했는지, 불법 배터리 폐기의 환경적 이점을 언급했다. 이런 결과 때문에 사람들이 잔디에 비료를 주기 위해 자동차 오일을 사용할 수 있다는 사실을 구글도 알고 있는지 궁금하다(작성자 주: 노파심에 말하자면 절대 배터리를 바다에 버리거나 엔진 오일을 잔디밭에 비료로 주면 안 된다!).
 
ⓒFoundry

아마도 이것을 검색해 본 사람은 농담거리를 찾고자 한 것 같지만, 필자에게는 흥미로운 질문을 제기했다. 더 많은 사람이 ChatGPT를 사용하고, 그 결과를 웹에 게시하며, AI 시스템이 자체적으로 생성한 답변을 수집해 학습하게 되면 어떤 일이 일어날까? 

그래서 필자는 ChatGPT에 “많은 사람이 ChatGPT의 응답을 게시하고, ChatGPT가 자체 산출물을 학습하게 되면 어떤 일이 일어날까?”라고 물어봤다. 

봇은 다음과 같이 말했다. 
 

많은 사람이 ChatGPT의 응답을 게시하고, ChatGPT가 자체 산출물로 모델을 학습시키는 것을 자가 학습 또는 자기 지도 학습이라고 한다. 이 시나리오에서 모델은 자체 산출물을 학습하여 잠재적으로 성능을 향상시킬 수 있다.”

“하지만 자가 학습 시 고려해야 할 잠재적 위험이 있다. 한 가지 위험은 ‘장님 코끼리 만지기’처럼 모델이 자체 산출물에 과적합(overfit)될 수 있다는 점이다. 즉, 이전에 접한 질문에 응답하는 데 지나치게 특화돼, 새로운 데이터나 보이지 않는 데이터에서는 모델의 성능이 저하될 수 있다.” 

“또 다른 위험은 자가 학습 중에 적절하게 모니터링 및 감독되지 않으면 모델이 무의미하거나 부적절한 응답을 생성할 수 있다는 점이다. 모델이 자체 출력에서 패턴이나 편향을 포착하고 증폭시킬 수 있다. 따라서 ChatGPT 같은 언어 모델을 자가 학습시킬 때는 주의를 기울이고, 성능과 출력을 유의 깊게 모니터링해 고품질 응답을 계속 생성할 수 있도록 하는 것이 중요하다.”


이 결과는 많은 사람이 ChatGPT를 믿고 ChatGPT가 옳다고 생각한다면 무서운 결과를 초래할 수 있다는 점을 시사한다. 그래서 필자는 “많은 사람이 ChatGPT에 의존하고 ChatGPT가 자가 학습으로 말도 안 되는 응답을 내놓기 시작하면 사회에 미치는 영향은 어떨까?”라고 물어봤다. 

로봇은 다음과 같이 말했다. 
 

많은 사람이 ChatGPT 같은 언어 모델에 지나치게 의존하고, ChatGPT가 자가 학습으로 무의미한 응답을 생성하기 시작하면 몇 가지 부정적인 사회적 영향이 있을 수 있다. 첫째, ChatGPT가 무의미하거나 부적절한 답변을 제공하면 사용자는 좌절하거나 혼란스러워할 수 있다. 이는 의사소통 단절과 기술에 대한 불신으로 이어질 수 있다.”

“둘째, 사용자가 중요한 의사결정을 내릴 때 ChatGPT에 의존하는 상황에서 모델이 말도 안 되는 답변을 내놓는다면 그 결과는 심각할 수 있다. ChatGPT 기반 챗봇이 의학적 판단을 제공하거나 건강 상태를 진단하는 데 활용됐다고 가정해보자. 이때 사용자가 말도 안 되는 결과를 받아들인다면 심각한 건강 위험을 초래할 수 있다.”

“셋째, 소셜 미디어나 기타 온라인 플랫폼용 콘텐츠를 생성하는 데 ChatGPT를 사용하면 잘못된 정보나 가짜 뉴스가 확산될 수 있다. 잘못된 정보는 여론을 조작하거나 민주적 절차를 훼손하는 데 사용될 수 있기 때문에 심각한 사회적, 정치적 결과를 초래할 수 있다.”


ChatGPT 같은 언어 모델은 신중하게 사용해야 한다. 아울러 정확하고 적절한 응답을 계속 생성할 수 있도록 성능을 주의 깊게 모니터링해야 한다. 이런 모델의 한계를 인식하고 인간의 지능과 전문성을 대체하는 모델로 생각하지 않는 것도 중요하다. 

당연히 기술이란 책임감을 가지고 사용해야 한다. ChatGPT는 어떻게 생각하는지 궁금했다. “인간이 신기술을 책임감 있게 사용한 적이 거의 없다는 점을 감안할 때, 이 시나리오의 결과는 어떻게 될까?”라고 물어봤다. 
대답은 다음과 같다. 
 

인간이 과거에 신기술을 책임감 있게 사용하는 데 어려움을 겪었던 것은 사실이지만, 각각의 신기술은 자체적인 위험과 과제를 안고 있다는 점을 인식하는 것이 중요하다. 따라서 ChatGPT 같은 언어 모델과 관련된 시나리오의 결과가 어떻게 될지 확실하게 예측하기는 어렵다.”

“그렇지만 이 기술의 잠재적으로 부정적인 영향을 최소화하기 위해 할 수 있는 조치가 있다. 예를 들면 언어 모델 개발자와 사용자가 기술 개발 및 배포 과정에서 발생할 수 있는 편견이나 윤리적 문제를 파악하고 해결하기 위해 노력할 수 있다. 여기에는 잘못된 정보나 부적절한 콘텐츠 확산을 방지하는 안전장치를 구현하고, 모델이 다양하고 대표성 있는 데이터로 학습하도록 지원하는 것이 포함된다.”

“또 정부와 규제기관은 ChatGPT 같은 언어 모델이 책임감 있게 사용되고, 아울러 대중을 보호할 수 있는 안전장치가 마련돼 있는지 확인해야 한다. 여기에는 특정 산업이나 애플리케이션에서의 언어 모델 사용 규정, 기술 개발 및 배포 투명성과 책임에 관한 요구가 포함된다. 요약하자면, ChatGPT 같은 언어 모델 사용과 관련된 위험은 분명 존재하지만, 책임감 있는 개발과 배포, 규제 감독, 대중의 인식을 통해 위험을 완화할 수 있다.”


ChatGPT가 규제를 받아야 한다고 생각하는가? 오픈AI에게 동의하는지 묻는 이메일을 보냈지만, 아직까지 답변을 받진 못했다. 

많은 사람은 오랫동안 ‘구글에 답을 구하는’ 훈련을 받아왔다. 그리고 이제는 ‘ChatGPT에 물어보는’ 훈련을 시작했다. 하지만 ChatGPT는 인터넷의 일부를 빨아들여 사용자에게 되돌려주는 것뿐이라는 점을 항상 유념해야 한다. ChatGPT는 괜찮은 도구가 될 수 있지만 쓰레기가 들어가면 쓰레기가 나오기 마련이다. 

모든 기술과 마찬가지로 ChatGPT도 BYOB다. 인간의 두뇌를 내팽개치고 장어에게 자동차 배터리를 먹이지 말자. 
editor@itworld.co.kr
 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.