AIㆍML / 클라우드

블로그 | 클라우드 플랫폼에 LLM을 효과적으로 배포하는 3가지 비결

David Linthicum | InfoWorld 2024.04.17
10년 전과 같은 실수를 반복하지 말자. 클라우드에 대규모 언어 모델을 보다 비용 효율적이고 적은 위험으로 배포할 수 있다.

지난 2년 동안 필자는 기존 시스템 프로젝트보다 대규모 언어 모델(LLM)을 사용하는 생성형 AI 프로젝트에 더 많이 참여했다. 서버리스 클라우드 컴퓨팅에 대한 향수가 생길 정도이다. 새로 구축하는 생성형 AI 기반 애플리케이션은 대화형 AI를 개선하는 것부터 산업 전반에 걸쳐 복잡한 분석 솔루션을 제공하는 것까지 다양하다. 많은 기업이 LLM을 클라우드 플랫폼에 배포하는 이유는 퍼블릭 클라우드 서비스 업체로 구성된 생태계가 이미 준비되어 있고, 저항이 가장 적은 경로이기 때문이다. 또한 클라우드는 확장성, 효율성, 고급 연산 기능(온디맨드 GPU)과 같은 다른 이점도 제공한다. 하지만 비용이 저렴하지는 않다. 
 
ⓒ Getty Images Bank

그런데, 퍼블릭 클라우드 플랫폼의 LLM 배포 프로세스에는 성공과 실패에 큰 영향을 미칠 수 있는 잘 알려지지 않은 비결이 있다. 아마도 LLM을 다룰 수 있는 AI 전문가가 많지 않고, 전문가라도 이런 작업을 오래 하지는 않아 지식의 공백이 많기 때문일 것이다.

AI 엔지니어조차도 모를 수 있는 클라우드에 LLM을 배포하기 위한 잘 알려지지 않은 3가지 팁을 살펴본다. AI 엔지니어 대부분이 고액 연봉을 받는다는 점을 고려하면, 이제 이들에게 AI 프로젝트를 제대로 수행하기 위해 필요한 세부사항까지 물어야 할 시점일지도 모른다. 모두가 머리에 불이 붙은 것처럼 생성형 AI에 뛰어들면서 그 어느 때보다 많은 실수가 드러나고 있다.
 

비용 효율성 및 확장성 관리

LLM 배포에 클라우드 플랫폼을 사용하는 큰 매력 중 하나는 필요에 따라 자원을 확장할 수 있다는 점이다. 클라우드 플랫폼에는 마우스 클릭 한 번으로 또는 자동으로 할당할 수 있는 자원이 있기 때문에 용량 계획에 능숙할 필요가 없다.

하지만 클라우드 컴퓨팅을 처음 사용할 때와 같은 실수를 똑같이 저지를 수 있다. 규모를 확장하면서 비용을 관리하는 것은 많은 기업이 효과적인 방법을 찾는 데 도움이 필요한 기술이다. 클라우드 서비스는 사용한 자원에 따라 요금이 부과된다. 전기나 가스처럼 기능한다는 점을 기억해야 한다. 연산 처리를 더 많이 할수록 더 많은 비용을 지불해야 한다. 더구나 GPU는 더 많은 전력을 소모하고 더 비싸기 때문에 퍼블릭 클라우드 상의 LLM에서 핵심 고려사항이다.

비용 관리 툴을 제대로 활용해야 한다. 클라우드 플랫폼에서 제공하는 비용 관리 도구와 서드파티 비용 거버넌스 및 모니터링 전문업체가 제공하는 툴을 모두 활용해야 한다. 이런 툴을 통해 자동 확장 및 스케줄링 구현, 적절한 인스턴스 유형 선택, 비용 최적화를 위한 예약 인스턴스 사용 등을 활용할 수 있다. 또한 배포를 지속적으로 모니터링해 예측된 부하만 사용하는 것이 아니라 사용량에 따라 자원을 조정하는 것도 잊지 말자. 다시 말해, 모든 역량을 동원해 오버프로비저닝을 피해야 한다.
 

멀티테넌트 환경의 데이터 프라이버시

LLM을 배포하려면 민감한 데이터나 독점 데이터를 포함할 수 있는 방대한 양의 데이터와 학습된 지식 모델을 처리해야 하는 경우가 많다. 퍼블릭 클라우드를 사용할 때의 위험은 동일한 물리 하드웨어에서 작동하는 인스턴스 형태의 이웃이 있다는 점이다. 따라서 퍼블릭 클라우드는 데이터가 저장되고 처리될 때 퍼블릭 클라우드 데이터 센터의 동일한 물리 하드웨어에서 실행되는 다른 가상머신이 액세스할 수 있는 위험을 수반한다.

퍼블릭 클라우드 서비스 업체에 이에 대해 문의하면, 업데이트된 파워포인트 프레젠테이션을 가져와 그런 일은 일어나지 않는다고 보여줄 것이다. 이들의 말은 대체로 사실이지만 완벽한 것은 아니다. 모든 멀티테넌트 시스템에는 이런 위험이 있으므로 완화책을 마련해야 한다. 필자는 데이터 스토리지와 LLM에 관해서는 한 국가에서만 운영되는 클라우드 서비스 업체처럼 규모가 작을수록 이런 문제가 발생할 가능성이 더 높다는 것을 알게 됐다. 

비결은 전송 중 암호화, ID 및 액세스 관리(IAM), 격리 정책 등 입증할 수 있는 엄격한 보안 표준을 준수하는 클라우드 서비스 업체를 선택하는 것이다. 물론 클라우드에서 멀티테넌트 LLM을 사용할 때 위험을 낮추기 위해 관련 보안 전략과 보안 기술 스택을 구현하는 것이 훨씬 더 좋은 생각이다.
 

스테이트풀 모델 배포 처리

LLM은 대부분 스테이트풀 워크로드이므로 한 인터랙션에서 다음 인터랙션으로 넘어갈 때까지 정보를 유지한다. 이 오래된 기법은 지속적인 학습 시나리오에서 효율성을 향상시킬 수 있다. 그러나 기본 설계 상 인스턴스가 임시적이거나 스테이트리스인 클라우드 환경에서 이런 스테이트풀 모델을 관리하는 것은 까다로운 일이다.

이때는 스테이트풀 배포를 지원하는 쿠버네티스와 같은 오케스트레이션 툴이 도움이 된다. 이들 툴은 LLM을 위한 영구 저장소 옵션을 활용할 수 있으며, 세션 전반에서 상태를 유지 및 운영하도록 구성할 수 있다. 이는 LLM의 연속성과 성능을 지원하기 위해 필요하다.

많은 기업이 클라우드 플랫폼에 LLM을 배포하는 것은 예견된 일이다. 대부분 기업에 클라우드를 사용하는 것만큼 편리한 방법은 없다. 하지만 이렇게 서두르다 보면 쉽게 해결할 수 있는 문제를 놓치고, 결국에는 대부분 피할 수 있는 값비싼 실수를 많이 저지르게 된다. 필자의 우려는 바로 이것이다.
editor@itworld.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.