퓨처럼 그룹(Futurum Group)의 연구 책임자인 론 웨스트폴은 "오라클은 기업의 지식 또는 데이터를 사용한 대규모 언어 모델(LLM) 사전 학습, 미세 조정, 지속적인 학습에 들어가는 비용과 리소스, 또는 시간을 절감하기 위한 더 간소화된 접근 방식을 제공한다. 즉, 일부 콜센터와 고객 경험 지원 애플리케이션을 제외한 많은 기업 환경에서 현재 걸림돌이 되는 문제를 해결한다"라고 말했다.
웨스트폴에 따르면 오라클이 차별화되는 부분은 퓨전(Fusion)과 넷스위트(NetSuite) 애플리케이션, AI 서비스와 인프라, 그리고 마이SQL 히트웨이브 벡터 스토어(MySQL HeatWave Vector Store) 및 오라클 데이터베이스 AI 벡터 검색(AI Vector Search in Oracle Database)과 같은 데이터 플랫폼용 머신러닝(ML)에 이르기까지 방대한 자체 포트폴리오 역량을 활용해 기업 전반에 걸쳐 생성형 AI 혁신을 이끌 수 있다는 점이다. 이어 AWS와 구글의 경우 오라클의 다양한 엔터프라이즈 애플리케이션에 직접 맞대응은 하지 못하겠지만, IBM과 같은 경쟁사는 전 세계적으로 클라우드 데이터베이스를 제공한다는 측면에서 오라클의 뒤를 따르고 있다고 설명했다.
비용과 복잡성 감소가 핵심
웨스트폴은 오라클이 주요 클라우드 데이터베이스 범주에 걸쳐 뚜렷한 가격 대비 성능 차별화를 제공하며, 이를 통해 클라우드 데이터베이스 환경에서 생성형 AI 도입과 확장에 따르는 기업의 부담을 덜어줄 수 있다고 평가했다.시장조사 업체 옴디아(Omdia)의 수석 분석가인 브래들리 시민은 한 걸음 더 나아가 오라클이 생성형 AI의 근본적인 요소를 자체 기본 제품, 특히 데이터베이스에 통합해 컴퓨팅 리소스를 최적화하고 비용을 낮추려 하고 있다고 말했다. 시민에 따르면 생성형 AI를 중심으로 급속하게 혁신이 일어나면서 오라클과 같은 기술 서비스 업체는 수십억 개의 매개변수가 포함된 AI 모델을 대규모로 배포하면서 지연을 허용 가능한 수준으로 유지하려면 하드웨어 사용을 최적화하는 것이 중요하다는 점을 인식하고 있다. 그는 "검색 증강 생성과 같은 사용 사례에서 볼 수 있듯이, 특히 생성형 AI 기반 제품을 지원하는 데서 데이터베이스와 데이터 처리 툴의 역할이 점점 더 중요해지면서 인접한 데이터 및 분석 영역에서도 같은 종류의 인식이 확산하고 있다"라고 말했다.
시민은 단일 사용자 LLM을 지원하기 위해 PDF 몇 개를 인덱싱할 수 있는 기초적인 검색 증강 생성(RAG) 파이프라인을 구축하는 것과, 끊임없이 변화하는 페타바이트 단위의 기업 데이터에 대해 RAG를 구현하고 이 데이터에서 얻은 인사이트를 1밀리초 내에 전 세계 사용자에게 제공하는 것은 전혀 다른 문제라고 설명했다. 그는 "결국 몽고DB와 같은 많은 데이터베이스 업체가 데이터베이스 내 머신러닝 기능을 도입하고 최근에는 벡터화되는 데이터가 저장된 데이터베이스 내에 벡터 임베딩을 구축, 저장 및 검색하고 있는 것은 놀라운 일이 아니다. 모두 복잡성을 최소화하고 지출을 극대화하기 위한 것이다"라고 말했다.
기본 원칙은 두 데이터베이스 간, 데이터베이스와 저장 매체 간, 그리고 저장 매체와 모델 추론 칩 간의 데이터 이동을 줄이는 것이다. 또한 시민은 기업이 각각 벡터용과 소스 데이터용으로 두 개의 데이터베이스를 유지해야 하는 경우가 많은데, 이 경우 두 데이터베이스 간의 데이터 통합과 지연을 관리하는 데 많은 비용이 지출된다고 지적했다. 시민은 "데이터베이스 처리부터 칩 네트워킹 및 데이터 검색에 이르기까지 클라우드 인프라 최적화를 추구해 온 오라클과 같은 기업은 복잡성을 낮추면서 성능을 높여 기업에 차별화된 가치를 제공할 수 있는 유리한 위치에 있는 것으로 보인다"라고 말했다.
모델 및 서비스에서 경쟁사 대비 '한참 뒤처져'
이런 오라클의 전략은 기업에 매력적일 수 있지만 전반적인 생성형 AI 제품 측면에서 비교하면, 오라클이 경쟁사보다 훨씬 뒤처졌다는 지적도 있다. 컨스텔레이션 리서치(Constellation Research)의 수석 분석가 앤디 투라이는 "오라클이 OCI를 통해 제공하는, 필요한 만큼 사용하는 호스팅 서비스 옵션은 OCI에 비해 더 많은 옵션과 기능을 갖춘 AWS의 훨씬 더 강력한 제품과 경쟁해야 한다. 또한, 오라클의 LLM은 부족하며 그것조차 경쟁사에 비해 사용 범위가 제한적이다"라고 말했다.단, 오라클 클라우드와 온프레미스에서 OCI 전용 지역을 통해 생성형 AI 서비스를 사용하는 오라클의 방식은 다소 독특한 제안으로, 일부 대기업, 특히 규제 대상 산업에 속한 기업에 흥미로울 수 있다. 투라이는 "OCI에서 실행되는 오라클의 ERP, HCM, SCM, CX 애플리케이션과 통합할 수 있는 옵션은 가격만 적절히 책정된다면 오라클 사용자층에 더 매력적일 수 있다. 다만 이렇게 하지 않을 경우 기업 관점에서 AWS를 더 선호하게 될 것이다"라고 말했다.
OCI 생성형 AI 서비스의 새로운 기능
오라클은 지난 1년여 동안 여러 제품에 걸쳐 3계층 생성형 AI 전략을 실행에 옮겼으며, 2023년 9월에는 OCI 생성형 AI 서비스를 베타 프리뷰로 출시했다. 현재 오라클은 코히어(Cohere)와 메타(Meta)의 새로운 모델, 새로운 AI 에이전트, 오픈소스 LLM을 관리하기 위한 새로운 로우코드 프레임워크를 발표하고 서비스를 정식 출시했다. 새 모델에는 채팅 사용 사례에 최적화된 텍스트 생성 모델인 메타의 라마(Llama) 2 70B, 커맨드(Command), 서머라이즈(Summarize), 임베드(Embed)와 같은 코히어 모델 최신 버전이 포함된다. 오라클은 이런 모델을 API 호출을 통해 사용할 수 있는 관리형 서비스로 제공할 예정이며, 기업은 업데이트된 서비스를 통해 미세하게 조정도 할 수 있다.검색 증강 생성을 위한 AI 에이전트
오라클은 새로운 모델 외에 새로운 AI 에이전트를 서비스에 추가했다. 이 에이전트를 이용하면 기업이 대규모 언어 모델을 사용하고 생성형 AI 기반 애플리케이션을 구축하는 과정에서 엔터프라이즈 데이터를 최대한 활용할 수 있다.베타 버전으로 출시된 첫 번째 AI 에이전트는 RAG 에이전트다. OCI 생성형 AI 서비스 부사장인 비노드 맘타니에 따르면 이 에이전트는 랭체인(LangChain)과 비슷한 방식으로 작동하며 OCI 오픈서치(OpenSearch)에 구축된 LLM과 엔터프라이즈 검색의 강점을 결합해 엔터프라이즈 데이터로 강화된 컨텍스트화된 결과를 제공한다. 기업 사용자가 비즈니스 애플리케이션을 통해 RAG 에이전트에 자연어 쿼리를 입력하면 쿼리는 벡터 또는 시맨틱 검색의 한 형태인 OCI 오픈서치로 전달된다. 그러면 OCI 오픈서치는 기업의 데이터 저장소에서 관련 정보를 읽고 수집한다. 이후 리랭커(ReRanker) LLM이 검색 결과 순위를 매기고, 자연어로 쿼리에 답변하는 텍스트 생성 LLM에 이 순위를 전달한다.
텍스트 생성 LLM은 반환된 응답에 근거가 있는지, 즉 사용자가 활용하기에 적절한지 확인한다. 반환된 쿼리가 근거 요건을 충족하지 못하면 루프가 다시 실행되며, 이를 통해 개발자와 데이터 과학자 같은 전문가의 필요성이 사라진다고 오라클은 설명했다. 맘타니는 "검색된 정보는 최신이며(동적 데이터 저장소도 마찬가지), 결과는 원본 소스 데이터에 대한 참조와 함께 제공된다"라고 말했다.
2024년 상반기에 출시될 예정인 RAG 에이전트 업데이트에서는 데이터 검색 및 집계 툴에 대한 지원 범위가 더 확대되고 AI 벡터 검색(Vector Search)이 포함된 오라클 데이터베이스 23c 및 벡터 스토어(Vector Store)가 포함된 마이SQL 히트웨이브(MySQL Heatwave)에 대한 액세스도 제공된다. 비슷한 시점에 출시될 다른 기능으로는 OCI 콘솔 내에서 AI 에이전트를 생성할 수 있는 기능이 있다. 맘타니는 "수행해야 할 작업을 지정하고 데이터 소스에 연결하는 방법으로 에이전트를 생성할 수 있으며, 이런 에이전트는 기본적으로 라마 2 또는 코히어 LLM을 사용한다"라고 말했다.
리액트 프레임워크 기반의 AI 에이전트
오라클에 따르면 이런 AI 에이전트는 프린스턴 대학교와 구글 연구원이 발표한 리액트(ReAct) 논문을 참조해 개발됐다. 에이전트는 리액트 프레임워크를 사용해 일련의 생각, 행동, 관찰을 기반으로 추론, 행동, 계획한다. 맘타니는 "이런 기능을 통해 에이전트가 정보 검색 작업에 그치지 않고 사용자 대신 API를 호출하거나 기타 작업을 자동화할 수 있게 된다"라고 말했다. 또한 오라클은 요청 시 과거 상호작용 기억을 보존할 수 있는 멀티턴 에이전트를 서비스에 추가해서 모델 컨텍스트와 응답을 더 보강할 할 계획이다.오라클에 따르면 이런 에이전트와 작업의 대부분은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite), 오라클 서너(Cerner)와 같은 산업 애플리케이션을 포함한 오라클 SaaS 애플리케이션 제품군에 추가할 수 있다. 또한 오라클은 기업이 오픈소스 라이브러리와 함께 LLM을 사용하고 관리하는 데 도움이 되도록 OCI 데이터 사이언스(OCI Data Science) 제품에 AI 퀵 액션(AI Quick Actions)이라는 새로운 기능을 추가한다. 이 기능은 2024년 2월 베타 버전으로 출시되며, 이를 이용하면 다양한 오픈소스 LLM에 코드 없이 액세스할 수 있다.
editor@itworld.co.kr