AIㆍML / 글로벌 트렌드 / 퍼스널 컴퓨팅

인텔 ‘AI 에브리웨어 전략’, 엔비디아의 시장 독점 허물까

Lucas Mearian | Computerworld 2024.04.17
인텔이 기업을 위한 맞춤형 생성형 AI 모델과 산업 표준 이더넷을 중심으로 AI 전략을 공개했다. 새로운 AI 컴퓨팅 시대의 주도권을 선점한 엔비디아의 영향력에 균열을 낼 수 있을까 관심이 집중되고 있다.
 
ⓒ Intel

인텔 비전(Vision) 컨퍼런스에서 CEO 팻 겔싱어가 생성형 AI를 포함한 야심 찬 로드맵을 제시했다. 이 로드맵의 중심에는 가우디 3(Gaudi 3) GPU가 있다. 데이터센터에서 생성형 AI를 뒷받침하는 대규모 언어 모델(LLM)을 훈련하고 실행하기 위해 만든 전용 칩이다. 인텔은 또한 새로운 제온 6 프로세서 제품군을 통해 워크스테이션, PC, 엣지 기기에 온보드 신경 처리 장치(NPU 또는 AI 가속기)를 탑재할 예정이다. 인텔은 자사의 제온 6 프로세서가 더 작고 맞춤형 LLM을 실행하기에 충분하다고 주장한다.

또한 인텔은 자사 칩이 엔비디아보다 저렴하고 더 사용자 친화적인 생태계를 갖고 있다고 보고 있다. 겔싱어는 기조연설에서 엔비디아의 주력 제품인 H100 GPU를 언급하며, 가우디 3 AI 가속기가 "훨씬 적은 비용으로" 평균 50% 더 뛰어난 추론과 평균 40% 더 높은 전력 효율을 제공한다고 말했다. 다양한 유형의 LLM을 훈련하는 데 있어 가우디 3이 H100보다 성능이 뛰어나며 최대 50% 더 빠르게 훈련할 수 있다고도 주장했다.

시장조사업체 IDC에 따르면, 초대형 LLM 훈련에 필요한 서버와 스토리지 인프라가 전체 AI 인프라 시장에서 차지하는 비중이 점점 더 커지고 있다. IDC는 생성형 AI 관련된 서버와 스토리지 등 전 세계 AI 하드웨어 시장이 2021년 188억 달러에서 2026년 418억 달러로 성장해 전체 서버와 스토리지 인프라 시장의 20%에 육박할 것으로 전망한다.

데이터센터 서버에서의 빠른 사용 증가와 함께 생성형 AI 열풍은 2030년까지 PC와 기타 모바일 기기용 온디바이스 AI 칩셋 출하량을 18억 대 이상으로 끌어올릴 것으로 시장조사업체 ABI 리서치(ABI Research)는 예상한다. 노트북과 스마트폰, 기타 폼 팩터에 온디바이스 AI 기능이 탑재된 제품이 점점 더 많이 출시된다는 의미다. 인텔 역시 데스크톱과 모바일, 엣지 기기에 제온 칩과 NPU를 탑재하려 하고 있고, 이를 위해 올해 말 차세대 코어 울트라 프로세서인 루나 레이크를 내놓는다. 차세대 PC에서 생성형 AI를 사용할 수 있도록 100 TOPS, 45 NPU TOPS 이상의 성능을 제공한다.

NPU는 지난 수십 년 동안 머신러닝 시스템에 사용됐지만, 2022년 11월 오픈AI 챗GPT의 등장으로 칩 제조사 사이에서 더 빠르게 생성형 AI 작업을 처리하는 가속기 확보를 위한 경쟁이 본격화하고 있다.
 
인텔 CEO 팻 겔싱어가 비전 2024 컨퍼런스에서 인텔의 'AI 에브리웨어' 전략에 관해 설명하고 있다. ⓒ Intel

엔비디아는 경쟁사보다 한발 앞서 출발했다. 원래 게임용으로 만들어진 엔비디아의 AI 칩인 GPU는 자체적인 형태의 가속기이지만 표준 CPU에 비해 더 비싸다. 결과적으로 엔비디아는 GPU 덕분에 생성형 AI 골드러시에서 유리한 위치를 점할 수 있었으며, 단숨에 미국에서 3번째로 기업 가치가 높은 회사가 됐다. 엔비디아보다 시가총액이 높은 기업은 마이크로소프트와 애플뿐이다.

업계 애널리스트들은 인텔의 전략이 치밀한 것은 맞지만, 데이터센터 AI GPU 시장의 약 90%, 전체 AI 칩 시장의 80%를 차지하는 엔비디아를 따라잡기에는 역부족이라는 데 대부분 동의한다. 무디스 인베스터스 서비스(Moody’s Investors Service)의 수석 부사장인 라지 조시는 "시간이 지나면 엔비디아 데이터센터 매출의 절반 이상이 클라우드에서 실행되는 AI 서비스에서 나올 것이다. 구글, 아마존과 같은 클라우드 서비스 업체는 각각 AI 중심 워크로드를 처리하기 위해 자체 GPU를 보유하고 있다는 점도 간과해서는 안 된다"라고 말했다.

조시는 "본질적으로 엔비디아와 AMD GPU를 제공하는 업체는 단 한 곳이다. 기술력과 시장 점유율 모두에서 오늘날 최고의 반도체 기업인 대만의 TSMC다"라고 말했다. 반면 인텔은 팹리스가 아니다. 오랫동안 고성능 CPU의 설계와 제조를 주도해 왔지만, 최근 생성형 AI로 인한 어려움은 컴퓨팅 환경의 근본적인 변화를 의미한다. 아이러니하게도 인텔의 가우디 3 칩 역시 이전의 7nm 공정이 아닌 5나노미터 공정 기술을 사용해 TSMC에서 만든다.
 

생성형 AI 미래는 엣지에 있다

포레스터 리서치 수석 애널리스트 앨빈 응우옌에 따르면 인텔의 가우디 3 GPU와 제온 6 CPU는 엔비디아의 H100, H200 GPU보다 더 적은 전력으로 작동한다. 더 저렴하고 효율적인 칩은 "성능"을 유지하면서 생성형 AI 도구의 막대한 전력 소비를 줄이는 데 도움이 될 것이라고 응우엔은 말했다.

가속기는 생성형 AI의 2가지 주요 목적, 즉 훈련과 추론을 처리한다. AI 학습을 처리하는 칩은 방대한 양의 데이터를 사용해 신경망 알고리즘을 학습시킨 다음, 예를 들어 문장의 다음 단어나 구 또는 다음 이미지와 같은 정확한 예측을 할 것으로 기대되는 신경망 알고리즘을 학습시킨다. 이후에는 프롬프트에 대한 답변이 무엇인지 빠르게 추론할 수 있는 칩이 필요하다. 

응우엔은 "하지만 쿼리에 대한 유용한 답변을 추론하기 위해서는 먼저 LLM을 학습시켜야 한다. 가장 널리 사용되는 LLM은 인터넷에서 수집한 방대한 데이터 세트를 기반으로 답변을 제공하지만, 생성형 AI 환각의 경우처럼 기술이 제대로 작동하지 않을 때 부정확하거나 완전히 틀린 답변을 내놓을 수 있다"라고 말했다.

가트너 리서치 부사장 애널리스트 앨런 프리스틀리는 "오늘날의 GPU는 주로 대규모 LLM의 컴퓨팅 집약적인 훈련을 지원하지만, 앞으로 기업은 기업 외부의 정보가 아닌 내부 독점 데이터 세트에 기반한 소규모 생성형 AI LLM을 원하게 될 것이다. 현재 엔비디아의 제품 가격은 LLM을 훈련하는 데 필요한 집중적인 작업을 처리하는 고성능 제품을 기반으로 책정됐다. 엔비디아는 자사 제품에 대해 원하는 만큼 가격을 책정할 수 있지만, 이는 경쟁 업체가 시장에서 가격을 낮추기가 상대적으로 쉽다는 것을 의미한다"라고 말했다.
 

구원투수로 나선 RAG

이를 위해 인텔은 검색 증강 생성(retrieval augmented generation) 일명 RAG라고 부르는 과정을 처리할 수 있는 인텔 제온 6 프로세서를 발표했다. RAG는 생성형 AI LLM이 기존에 학습된 방대한 온라인 데이터 세트 외에 외부의 지식 베이스를 참조해 답변 내용을 최적화한다. RAG 소프트웨어를 사용하면 LLM은 기업의 특정 데이터베이스나 문서 세트에 실시간으로 액세스할 수 있다.

예를 들어, RAG를 지원하는 LLM은 의료 시스템 환자에게 약물 조언, 진료 예약, 처방전 리필, 의사 및 병원 서비스 찾기 등의 서비스를 제공한다. 사용자 기록을 수집해 더 정확하고 상황에 적합한 생성형 AI 기반 챗봇 응답을 생성하는 것도 가능하다. 업데이트되는 외부 소스를 지속해서 검색해 답변 내용에 포함하므로 최신 정보를 사용자에게 제공하는 장점도 있다.

인텔은 RAG, 더 세분된 LLM을 통해 기업이 자사 데이터를 활용하면서 동시에 보호할 수 있도록 지원한다는 구상이다. 인텔은 이를 신뢰할 수 있는 컴퓨팅, 신뢰할 수 있는 도메인 보안이라고 부른다. 가트너의 프리스틀리는 "인텔에 따르면, 이런 모델은 더 작은 시스템인 제온 프로세서에서 실행할 수 있다. NPU로 강화된 프로세서에서 처리하는 것도 가능하다. 어느 쪽이든 거대한 하드웨어 인프라에 수십억 달러를 투자하지 않고도 생성형 AI 작업을 할 수 있게 된다. 가우디 3, 그래나이트 래피즈 또는 시에라 포레스트 제온 프로세서는 기업이 필요로 하는 LLM을 처리하는 데 적합하다"라고 말했다.
 

이더넷 vs. 인피니밴드

인텔이 엔비디아의 맞서는 또 다른 영역이 바로 표준 이더넷이다. 엔비디아의 독점적인 인피니밴드 고성능 컴퓨터 네트워킹 버스에 대한 인텔의 대응 전략이기도 하다.

최근 인텔의 제온 소프트웨어 담당 부사장 다스 캄하우트는 "가우디 3 칩은 가격과 개방형 표준, 그리고 데이터센터 친화적인 이더넷을 사용하는 통합 온칩 네트워크 덕분에 매우 경쟁력 있는 제품이 될 것으로 기대한다"라고 말했다. 실제로 가우디 3에는 24개 이더넷 포트가 있어서 다른 가우디 칩 간의 통신과 서버 간의 통신에 사용된다. 반면, 엔비디아는 이런 네트워킹 작업에 인피니밴드와 CUDA(Compute Unified Device Architecture)라는 자사만의 독점 소프트웨어 플랫폼을 사용한다. 이를 이용하면 개발자가 GPU 하드웨어에 대한 전문 지식이 없어도 API를 통해 GPU 리소스를 활용할 수 있다. CUDA 플랫폼은 생성형 AI 가속 컴퓨팅의 업계에서 상당히 널리 쓰이며, 엔비디아 하드웨어에서만 작동한다.

이런 상황에서 인텔은 독점 플랫폼 대신 생성형 AI 패브릭을 위한 개방형 이더넷 네트워킹 모델에 중점을 두고 있다. 이번 비전 컨퍼런스에서도 AI에 최적화된 이더넷 솔루션을 소개했다. 인텔은 UEC(Ultra Ethernet Consortium )를 통해 대규모 스케일업 및 스케일아웃 AI 패브릭을 설계하기 위해 노력하고 있다. 가트너의 프리스틀리는 "점점 더 많은 AI 개발자가 CUDA에서 탈출해 모델을 더 쉽게 전송하길 바라고 있다"라고 말했다.
 

새로운 칩 군비 경쟁

생성형 AI가 빠르게 확산하면서 인텔과 엔비디아 모두 시장의 수요에 생산을 맞추지 못하고 있다. 엔비디아의 GPU는 이미 인기가 높아서 2023년 1월 이후 주가가 450% 가까이 급등했다. 지난 3월 GTC AI 컨퍼런스에서 엔비디아는 H100의 후속 제품인 블랙웰 B200을 공개했다. 성능이 최대 20페타플롭에 달한다.

이에 맞서 인텔은 비전 컨퍼런스에서 6세대 제온 프로세서를 발표했다. 여기엔 소켓당 144개의 코어를 탑재한 최초의 'E-코어' 제온 6 프로세서인 시에라 포레스트가 포함된다. IDC 리서치 부사장 피터 러튼은 "향상된 효율성을 입증했다"라고 평가했다. 인텔은 시에라 포레스트를 사전에 테스트한 클라우드 서비스 업체로부터 긍정적인 피드백을 받았다고 주장한다. 인텔의 최신 제온 6 프로세서 제품이 데이터센터, 클라우드, 엣지 기기에 적합하다고 설명하는데, 중소형 LLM 처리 작업도 가능하다.

인텔은 또한 올해 2분기에 그래나이트 래피즈 프로세서를 내놓을 계획이다. 러튼은 "인텔 3nm 공정으로 생산되는 이 제품은 시에라 포레스트와 같은 기본 아키텍처를 공유해 코어와 와트당 성능이 향상되고 메모리 속도가 빨라질 뿐만 아니라 휴대성도 좋다"라고 설명했다. 인텔은 그래나이트 래피즈 프로세서가 최대 700억 개 매개 변수가 있는 라마-2 모델을 지원한다고 주장한다.

포레스터의 응우옌에 따르면 인텔의 차세대 제온 6과 코어 울트라 프로세서는 이반 사용자, 엣지, 데이터센터 등 다양한 곳에서 훈련, 튜닝, 추론 등 여러 상황에 걸쳐 AI를 사용할 수 있는 핵심 하드웨어가 될 전망이다. 그러나 제온과 코어 울트라 프로세서는 중소형 및 중대형 언어 모델을 겨냥해 판매 중이다. 인텔은 새로운 가우디 3 프로세서가 생성형 AI용으로 특별히 만들어졌으며 1,760억 개 이상의 파라미터를 가진 LLM을 타깃으로 한다고 설명했다.

응우옌은 "AI 칩 공급 부족 상황이 이어지는 것은 인텔 제품에 대한 수요가 계속되고 이는 인텔 제품과 인텔 파운드리 모두에 일거리를 보장한다는 것을 의미한다. 인텔이 다른 업체에 자사 파운드리 서비스를 개방하고 자사 지적 재산을 공유하겠다는 밝힌 것도 중요하다. 이는 현재 인텔이 진출하지 않은 새로운 시장, 예를 들면 모바일 같은 분야에 새롭게 뛰어들 수 있음을 시사한다"라고 말했다.
editor@itworld.co.kr
Sponsored
IDG 설문조사

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.