AI 시장의 분위기가 바뀌었다. 내부 서비스나 가능성 확인 수준을 넘어 상용 서비스를 염두에 둔 AI 프로젝트가 본격화되면서 안정적이고 효율적인 운영이 또 하나의 핵심 과제가 됐다. 데이터 전처리부터 모델 개발, 학습, 배포 운영까지 AI 라이프사이클 전체를 최적화하는 MLOps의 필요성도 그만큼 커졌다.
하지만 오픈소스가 주도하는 AI/ML 환경은 진입 장벽이 낮지 않다. 대형 클라우드의 AI/ML 플랫폼도 해법이 될 수 있지만, 사용량에 따른 비용과 종속 문제가 걸림돌이 된다. AI/ML 사이클의 각 단계에 도사린 위험과 해결과제를 알아보고, HPE 에즈메랄 유니파이드 애널리틱스가 제안하는 오픈소스 기반의 효율적이고 효과적인 MLOps 전략을 알아본다.
주요 내용
- “공유와 체계화 부재” AI 개발을 가로막는 장애물
- MLOps를 구현하는 3가지 방법
- 오픈소스의 유연성, 확장성을 살린 엔터프라이즈급 MLOps 플랫폼
- 통합 개발 환경부터 모델 배포까지 표준화
- 대규모 학습의 분산 병렬 처리 자동화
- 상용 AI 서비스를 위한 엔드 투 엔드 솔루션