AIㆍML / 개발자

대규모 언어 모델의 정의 그리고 생성형 AI와의 관계

Lucas Mearian  | Computerworld 2023.06.02
2022년 11월 등장한 챗GPT(ChatGPT)는 기업과 소비자가 작업 자동화와 창의적인 아이디어 지원, 심지어 소프트웨어 코딩에까지 생성형 AI을 활용할 수 있다는 개념을 주류로 만들었다.

오픈AI가 만든 챗GPT나 구글 바드(Bard)로는 이메일이나 계속 이어지는 대화를 간단히 요약할 때 활용할 수 있다. 이력서를 더 유창한 언어와 인상적인 핵심 포인트로 멋있게 만들어야 할 때도 AI가 도와준다. 새로운 마케팅 또는 광고 캠페인에 쓸 아이디어를 원하면 생성형 AI가 구해 줄 것이다.

챗GPT는 ‘챗봇 생성형 사전 학습 변환기’의 약자다. 챗봇의 기반은 GPT 대규모언어모델(LLM)이다. 일종의 컴퓨터 알고리즘인 LLM은 자연어 입력 내용을 처리하고 이미 나온 것을 기반으로 다음 단어를 예측한다. 그 후에는 그 다음 단어를 예측하고 또 그 다음 단어를 예측하여 결국 답변을 완성한다.

가장 간단하게 말하면 LLM은 다음에 나올 단어를 예측하는 엔진이다.
 
ⓒ Getty Images Bank

오픈AI의 GPT-3 및 4 LLM과 더불어 인기 있는 LLM으로는 구글의 LaMDA와 PaLM LLM(바드의 기반), 허깅 페이스(Hugging Face)의 BLOOM 및 XLM-RoBERTa, 엔비디아의 NeMO LLM, XLNet, Co:here, GLM-130B 등과 같은 오픈 모델이 있다.

특히, 오픈소스 LLM은 더 많은 맞춤 설정이 가능한 모델을 더 저렴한 비용으로 개발할 수 있어 호응을 얻고 있다. 2월 메타의 LLaMA(대규모언어모델 메타 AI) 출시를 계기로 오픈소스 LLM을 바탕으로 한 개발 활동이 폭발적으로 늘어났다.

LLM은 일종의 AI로서 자연어 질문에 사람처럼 대답하기 위해 현재 대량의 기사, 위키피디아 항목, 책, 인터넷 기반 자료, 기타 입력물을 학습 중이다. 정말 엄청난 분량의 데이터다. 그러나 업체는 구체적인 용도에 따라 LLM의 맞춤 설정을 모색 중이며 이러한 용도에는 오늘날 가장 인기 있는 모델이 사용하는 대량의 데이터 집합이 필요 없기 때문에 LLM의 규모는 커지지 않고 오히려 축소될 전망이다.

예를 들어, 한 보도에 따르면, 올해 초 발표된 구글의 새로운 PaLM 2 LLM은 불과 1년 전의 직전 모델에 비해 거의 5배 많은 3조 6천억 개의 토큰(단어열)을 학습 데이터로 사용한다. 이렇게 데이터집합이 늘어난 덕분에 PaLM 2는 더 고급 수준의 코딩, 수학, 문예 창작 작업을 수행할 수 있다.
 

그래서 LLM이란 과연 무엇인가?

ⓒ Getty Images Bank

LLM은 데이터 입출력 집합을 통해 학습된 머신러닝 신경 네트워크다. 텍스트는 미분류 상태이며 모델은 자기지도 또는 준 지도학습 방법론을 사용할 때가 잦다. 정보나 콘텐츠가 LLM에 입력되면 알고리즘이 예측한 다음 단어가 출력된다. 입력물은 자산화 된 기업 데이터이거나, 챗GPT의 경우에는 인터넷에서 직접 긁어와 제공되는 모든 데이터가 될 수 있다.

LLM이 적합한 데이터를 사용하도록 학습시키려면 수퍼컴퓨터 역할을 하는 거대한 고가의 서버 팜을 사용해야 한다.

LLM은 수백만 개, 수십억 개, 심지어 수조 개의 매개변수에 의해 제어된다. (매개변수는 다양한 답변 중 선택하도록 LLM을 돕는 것이라고 생각하면 된다.) 오픈AI의 GPT-3 LLM은 매개변수가 1,750억 개이며 최신 모델인 GPT-4는 매개변수가 1조 개로 알려져 있다.

가령, LLM 프롬프트 창에 “오늘 점심으로 내가 먹은 것은…”을 입력하면 LLM은 “시리얼” 또는 “밥” 또는 “스테이크 타르타르”라는 단어를 제시한다. 100% 정답은 없지만 모델에 이미 입력된 데이터에 기반한 확률은 있다. LLM은 기존 데이터를 기반으로 가장 개연성 있는 답인 “시리얼”로 문장을 완성할 수 있다. 그러나 LLM은 확률 엔진이기 때문에 가능한 답변마다 백분율을 지정한다. 시리얼은 50%의 확률로 발생하고 “밥”은 20%의 확률로 답이 될 수 있으며 스테이크 타르타르가 답일 확률은 0.005%이다.

머신러닝, 자연어 처리, 딥 러닝을 연구하는 MIT 조교수 윤 킴은 “LLM은 이 작업을 위해 학습한다는 사실이 핵심이다. 인간과는 다르다. 충분히 큰 학습 집합을 통해 확률이 지정된다"라고 설명했다.

단, 유의할 점은 쓰레기를 넣으면 쓰레기가 나오다는 사실이다. 즉, LLM이 받아들인 정보가 편향되고 불완전하고 바람직하지 못하다면 LLM의 응답도 마찬가지로 믿을 수 없고 기이하며 심지어 불쾌할 수도 있다. 응답이 정상 궤도를 벗어나면 심하게 동떨어질 수도 있기 때문에 데이터 애널리스트는 환각으로 표현한다.

AI를 활용하여 소프트웨어 엔지니어의 구인, 채용, 입사 후 적응 교육을 원격으로 진행하는 미국 업체 튜링(Turing)의 CEO 조나단 싯다르스는 “환각이 발생하는 이유는 가장 기본적인 형태의 LLM는 내부적으로 세계가 표현되지 않기 때문이다. 사실이라는 개념이 없다. LLM은 지금까지 본 것을 기준으로 다음 단어를 통계적으로 추정해 예측한다”라고 설명했다.

일부 LLM은 인터넷 기반 데이터를 스스로 학습도 하기 때문에 최초의 개발 목적을 훨씬 뛰어 넘을 수 있다. 예를 들어, 마이크로소프트의 빙은 GPT-3을 기반으로 사용하지만 검색 엔진에 질의하여 처음 나오는 약 20개의 결과를 분석하기도 한다. LLM과 인터넷을 둘 다 사용하여 응답을 제시한다.

싯다르스는 “어떤 모델은 하나의 프로그래밍 언어를 학습한 후 본 적이 없는 다른 프로그래밍 언어로 코드를 자동 생성한다. 심지어 자연어도 마찬가지다. 프랑스어 학습을 하지 않아도 프랑스어로 문장을 생성할 수 있다"라고 말했다.

싯다르스는 “마치 급격히 출현한 행동이 있는 것 같다. 이런 신경 네트워크가 어떻게 작동하는지 잘 모른다. 무서운 동시에 흥미진진하다"라고 덧붙였다.
LLM과 매개변수의 또 다른 문제는 LLM 개발자와 인터넷에서의 자기 지도 데이터 수집에 의해 의도치 않은 편향이 생길 수 있다는 점이다.
 

LLM 편향은 존재하는가?

ⓒ Getty Images Bank


프린스턴 대학교 정보기술정책센터 박사 과정에 재학 중인 사바시 카푸어에 따르면, 예를 들어 챗GPT와 같은 시스템은 인터넷과 프로그래머를 통해 주입된 데이터를 기반으로 성별 편향적인 답변을 제시할 가능성이 매우 높았다.

카푸어는 “성별이 분명히 언급되지 않고 대명사 관련 정보로만 포함된 암시적인 편향에 대해 챗GPT를 테스트했다. 문장 내의 단어 “그녀”를 “그”로 대체하면 챗GPT가 실수할 확률이 3분의 1로 줄어든다"라고 말했다.

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.