AIㆍML / 데이터ㆍ분석 / 클라우드

“클라우드 GPU 경쟁 본격화” 구글, 분 단위 요금체계와 신형 하드웨어로 차별화

Serdar Yegulalp | InfoWorld 2016.11.17
아마존이 GPU를 이용하는 클라우드 인스턴스를 출시한 것은 2010년의 일이다. 최근에는 마이크로소프트 애저와 IBM 소프트레이어가 자사 버전의 클라우드 GPU를 출시했다. 각 업체의 서비스는 요금 구조와 인스턴스 형태가 모두 다르다.

마지막 남은 대형 클라우드 업체인 구글은 내년부터 GPU 인스턴스를 구글 컴퓨트 엔진과 구글 클라우드 머신 러닝을 통해 제공할 계획이다.

후발주자인 구글이 내세우는 차별점은 세밀함이 될 것으로 보인다. 아마존의 머신러닝 지향 GPU 인스턴스는 시간 단위로 이용할 수 있고, 기존 인스턴스와는 다른 별도의 형태이다. 하지만 구글은 인스턴스의 종류와 관계없이 “최대 8개의 GPU를 모든 비공유 코어 머신에” 붙일 수 있다.

여기에 더해 구글의 GPU 요금 체계는 기존 모델, 즉 구글의 VM과 마찬가지로 분 단위로 계산된다. 이는 단지 일관성의 문제가 아니라 GPU 기반의 머신러닝이 어떻게 사용되는지를 반영한 것이다. 만약 머신러닝 애플리케이션이 GPU를 학습에만 사용한다면, GPU를 사용하지 않는 작업을 할 때는 인스턴스 종류를 바꿀 필요없이 GPU 기능을 끄기만 하면 된다.

구글은 “인스턴스가 몇 개냐에 관계없이 사용한 만큼만 내면 된다”라고 강조했다.

구글은 또한 사용자의 요구사항이나 애플리케이션 특성에 따라 선택할 수 있는 세 종류의 GPU를 제공한다. AMD 파이어프로 S9300 x2는 원격 그래픽 워크스테이션을 대상으로 하며, 딥러닝용으로는 엔비디아 테슬라 GPU를 제공한다. 테슬라 GPU는 기존의 2012 K80과 신형 파스칼 아키텍처의 P100 두 가지를 제공한다.

아마존의 클라우드는 현재로써는 K80만을 제공하며, 마이크로소프트의 애저 클라우드 역시 마찬가지이다. K80은 안정적이고 이해도가 높다는 것이 장점이다.

구글의 요금 체계는 서버가 없는 람다(Lamda) 아키텍처와 연결하면 한층 더 설득력이 커진다. 이 아키텍처는 애플리케이션과 하드웨어가 서로 가능한 한 분리되어 있기 때문이다. 머신 러닝 애플리케이션은 수집, 훈련, 보고의 마이크로서비스로 제공되고, 서버 없는 아키텍처는 마이크로서비스에 최적의 상태로 만들어 준다.

물론 아직은 이런 환경이 구글의 시스템에 대규모로 구축된 것으로 보이지는 않는다. 구글의 네이티브 람다 아키텍처인 구글 클라우드 펑션(Google Cloud Funtions)은 아직 알파 단계이다. 만약 클라우드 펑션이 정식으로 출시되면, 클라우드 GPU를 사용해야 할 또 하나의 큰 이유가 될 것이다.  editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.