AIㆍML / 데이터ㆍ분석

“다양한 지표의 통합과 연계 분석이 핵심” 데이터독의 AI 서비스 모니터링 및 AI옵스 활용 전략

김혜정 | ITWorld 2024.04.04
AI가 일상에 스며들고 있다. 이미 많은 직장인이 일상 업무에 챗GPT와 같은 생성형 AI 서비스를 활용하고 있으며, 전사적인 AI/ML 도입을 준비하는 기업도 적지 않다. ITWorld의 설문 조사에 따르면, 클라우드 기반 AI 서비스를 이용하고 있거나 검토 중이라고 답한 기업은 무려 93%에 달한다. AI 관련 특허 출원 수와 AI 투자도 매년 꾸준히 증가하는 추세다. 

하지만 AI/ML을 도입하는 기업은 다양한 장애물에 맞닥뜨린다. 가장 대표적인 문제가 관리 및 운영의 어려움이다. 비즈니스 요구사항에 맞춰 AI 기술 스택을 기존 서비스와 융합해 제공하는 것은 매우 까다로우며, 그렇다 보니 AI 모델의 운영과 비용을 예측하고 성능 문제를 파악하는 것도 복잡하다.
 
3월 21일 서울 그랜드 인터컨티넨탈 서울 파르나스 국화룸에서 개최된 'Cloud & AI Research Summit 2024'에서 데이터독 조용원 SE가 발표하고 있다. ⓒ ITWorld

모니터링 플랫폼 업체 데이터독(Datadog Korea)의 조용원 세일즈 엔지니어(SE)는 3월 21일 ITWorld와 CIO가 주최한 'Cloud & AI Research Summit 2024'에서 AI/ML 서비스의 관리 복잡성을 최소화할 수 있는 방법으로 통합된 생성형 AI 모니터링과 AI옵스(AIOps) 도입을 제안했다. AI 서비스를 구성하는 기술 스택별로 필요한 지표를 함께 분석하고 AI옵스를 통해 자동화하면 생성형 AI 서비스를 보다 효율적으로 관리할 수 있다는 설명이다.


기술 스택별 필수 모니터링 지표를 연계 분석하라

조용원 SE는 우선 생성형 AI의 기술 스택을 ▲인프라 및 컴퓨팅 ▲데이터 관리 ▲모델 서빙 및 배포 ▲모델 ▲오케스트레이션 프레임워크 5가지 계층으로 구분하고, 각 계층에서 어떤 지표를 모니터링해야 하는지 설명했다. 

먼저 인프라 및 컴퓨팅 계층에서는 빠른 처리 속도와 병렬 처리가 중요하다. 따라서 GPU 상태, 온도 및 팬 속도, 클라우드 사용량과 같은 지표를 확인하면 좋다. 데이터 관리 계층에서는 벡터 데이터베이스의 자료 구조를 반영한 모니터링이 필요하다. 예를 들면 샤드별 활성 LSM 세그먼트 개수, LSM 세그먼트별 엔트리 개수, 샤드 내 블룸필터 오퍼레이션 응답 시간 등이 있다. 

모델 서빙 및 배포 계층은 AI 모델을 비즈니스 요구사항에 맞게 구성하는 단계에서 활용한다. 조용원 SE는 "각 모델을 디자인, 테스트, 배포하는 단계이므로 AI 모델의 학습/추론 작업이 원활하게 수행되는지 품질을 확인할 수 있는 지표가 필요하다"라고 설명했다. 구체적으로 학습 및 결과 출력 시 GPU, 메모리, 네트워크와 같은 리소스 사용량과 예측 건수, 에러, 응답 시간과 같은 모니터링 지표를 확인하면 운영 전 성능 검증에 도움이 된다. 

AI 모델 계층에서는 모델 혹은 API가 애플리케이션과 연결된다. AI 모델 및 서비스별 성능과 사용량, 비용에 대한 가시성 확보가 요구되는 계층이다. 여기서는 서비스/모델/API의 토큰 사용량, 요청 및 응답 시간과 같은 지표 모니터링을 통해 가시성을 확보할 수 있다. 

마지막으로 서비스 체인이라고 불리는 오케스트레이션 프레임워크 계층에서는 구성한 AI 모델을 조합해 애플리케이션을 모듈화한다. 서비스 단계에 대한 모니터링이기 때문에 애플리케이션에 사용되는 요청량과 에러, 응답 시간, 토큰 사용량을 모니터링해 성능 및 비용 현황과 문제 발생 여부를 빠르게 파악할 수 있다.
 
조용원 SE는 생성형 AI의 기술 스택별 모니터링 지표를 연계 분석해야 한다고 강조했다. ⓒ Datadog Korea
 
인프라부터 서비스 체인까지 각 계층에서 확인해야 하는 모든 모니터링 지표는 서로 연계 분석할 필요가 있다. 조용원 SE는 "응답 시간이 길어져서 모델 성능이 저하된다고 판단되면 실제 이용되고 있는 토큰량과 리소스 사용량을 검토한 후 성능에 어떤 문제가 있는지 검토할 수 있다. 이것이 AI 서비스를 효과적으로 운영/관리하는 모니터링 전략"이라고 강조했다.


비용 절감을 위한 모니터링 전략을 채택하라

이어 비용을 절감할 수 있는 모니터링 전략이 소개됐다. 조용원 SE는 "클라우드의 사용량 기반 소비 모델은 비용을 유연하게 운용할 수 있다는 이점이 있지만, 과도한 프로비저닝의 위험이 존재한다. 즉, 클라우드 비용을 잘 관리하기 위해서는 실제 리소스 사용량을 모니터링해야 한다"라고 말했다.

기술 스택 모니터링과 마찬가지로 클라우드에서도 성능 및 비용 지표를 종합적으로 검토함으로써 실제 사용량에 기반해 비용을 평가할 수 있다. 조용원 SE에 따르면, 데이터독은 부서별, 서비스별 클라우드 사용 현황을 기간별로 제시하고 어떤 곳에 위치한 서비스의 CPU 코어를 줄여야 하는지, 어떤 배포의 프로비저닝을 변경해야 하는지 등 비용을 절감하는 활동을 추천하는 서비스를 제공한다. 
 
데이터독은 부서 및 서비스별 비용을 분석하고 비용 절감에 도움이 되는 방법을 제안한다. ⓒ Datadog Korea
 
또한 데이터독 같은 모니터링 플랫폼은 매출 등의 비즈니스 지표 대비 비용 분석을 지원하며, 컴퓨팅 자원 사용량 시각화 및 분석을 통해 클라우드 원가율 데이터를 제공한다. 구매 관리 부서 혹은 클라우드 리소스 관리 부서에서는 이런 데이터를 KPI 지표로 삼을 수 있다.


통합 모니터링 플랫폼을 통해 AI옵스를 구현하라

또한 조용원 SE는 "AI 서비스 모니터링 전략을 세울 때는 AI 서비스와 함께 구성되는 다른 서비스도 함께 모니터링해야 한다는 점을 잊지 말아야 한다"라며 통합된 모니터링 환경이 제공하는 이점을 설명했다.

분산된 환경에서는 기술 스택마다 다른 모니터링 채널을 사용하고 데이터 저장소 및 파이프라인이 분산돼 데이터를 활용해 부가가치를 창출하기 어렵다는 단점이 있다. 하지만 SaaS 기반 통합 모니터링 솔루션을 사용하면, 도입하려는 기술에 대한 TTM(Time to market)을 줄이고 TCO(Total cost of ownership) 절감에 기여할 수 있다. 또한 여러 기술 스택에 대해 통합된 모니터링 뷰와 동일한 데이터를 제공하므로 부서별 소통 비용을 줄일 수 있으며, 데이터 간 연계 분석을 지원해 대응 시간 단축에도 기여한다.

특히 조용원 SE는 SaaS 기반 통합 모니터링 솔루션이 AI옵스 구현에 이점이 있다고 역설했다. AI옵스는 플랫폼에서 수집한 데이터를 AI가 학습해 이상 현상 탐지, 원인 분석, 연계 분석, 분류 및 조사, 사후 조치까지 일련의 관리를 자동화하는 관리 방식이다.

데이터독과 같은 통합 모니터링 솔루션은 발견한 장애를 조직 전반에 알리고 여러 팀이 장애 분석 내용과 처리 현황을 확인할 수 있는 타임라인을 제공해 매끄러운 협업을 지원한다. 또한 롤백과 같은 프로세스를 자동화해 피해를 최소화하며, 생성형 AI를 활용해 재발 방지를 위한 개선 대책까지 제안한다.

효과적인 AI 서비스 모니터링 전략은 결국 AI옵스 도입으로 귀결된다. 조용원 SE는 AI옵스를 기반으로 "자원 및 비용 관리를 위해 서비스 성능 지표와 리소스 사용량, 비용 지표를 모두 함께 분석하는 전략을 권장하며, AI 서비스와 기존 서비스의 연관 데이터를 통합해 모니터링하는 전략을 고민할 필요가 있다"라고 설명했다.

또한 AI옵스를 지원하는 모니터링 플랫폼을 도입하더라도 AI옵스를 위한 프로세스와 조직 문화도 기업 전반에 정착해야 한다. 조용원 SE는 "데이터 수집과 이슈 탐지, 자동화를 플랫폼에 맡기더라도 운영자는 선제적 대응을 위한 워크플로우를 만들고 AI옵스 플랫폼을 활용한 운영 시나리오를 설계해야 한다"라고 조언했다.
mia.kim@foundryco.com
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.