2014.06.30

구글 데이터플로우, 하둡의 ‘대체제’가 아닌 이유

Serdar Yegulalp | InfoWorld
구글은 지난주, 클라우드 데이터플로우(Cloud Dataflow) 서비스를 발표하는 것으로 아마존의 실시간 데이터 처리(streaming-data processing) 서비스인 ‘키네시스(Kinesis)’와 ‘하둡(Hadoop)’과 같은 빅데이터 분석 기술에 정면으로 도전장을 내밀었다.

구글은 클라우드 데이터플로우를 통해 하둡의 맵리듀스(Mapreduce) 프레임워크를 대체할 심산이다. 맵리듀스는 원래 구글이 처음 개발하고 이후에 오픈소스로 공개된 프로그램이지만, 지난주 열린 구글 I/O 개발자 컨퍼런스에서 구글 테크니컬 인프라스트럭처 수석 부사장 우르스 휄즐은 “우리는 이제 더 이상 맵리듀스를 사용하지 않는다”고 밝힌 바 있다.

클라우드 데이터플로우는 ‘플룸(Flume)’과 ‘밀윌(MillWheel)’이라는 두 개의 프로젝트에 기반해 구축됐다. 플룸은 데이터 처리를 할 때 사용자가 병렬 파이프라인(pipeline)을 관리할 수 있도록 도와준다. 이는 맵리듀스 내에서는 지원하지 않았던 기능이다. 밀윌은 “낮은 레이턴시의 데이터 처리 애플리케이션을 구축하기 위한 프레임워크”라고 묘사되는데, 이는 최근 구글이 활발하게 적용하고 있는 기술이다.

구글은 클라우드 데이터플로우가 특히 ‘데이터 처리량’에 있어서 맵리듀스보다 우수하다고 강조하고 있다. 휄즐은 “데이터가 수 페타바이트에 이르면 맵리듀스의 효율성이 현저하게 떨어진다”고 설명했다.

영국의 시장조사 전문업체 ‘오범(Ovum)’의 애널리스트 토니 베어는 구글 클라우드 데이터플로우가 “여태까지 ‘빅데이터’와 동일시되었던 맵리듀스를 대체해 빅데이터를 분석, 해부하고자 현재 우후죽순처럼 등장하고 있는 수많은 프레임워크 가운데 하나”라고 설명했다. 베어는 이어, “사용자는 이제 맵리듀스 외에도 스파크(Spark), 지래프(Giraph)와 같은 대체안들을 비교하며 가장 적합한 분석 도구를 실험할 수 있게 됐다”고 말했다.

이러한 ‘탈-맵리듀스’ 움직임은 하둡에서도 관찰되고 있다. 하둡은 최근, ‘아파치 스파크(Apache Spark)와 같은 맵리듀스보다 더 고차원적인 데이터 처리 알고리즘에 관심을 보이고 있다. 인포월드(Infoworld)의 앤디올리버는 "많은 문제들은 이제 ‘맵’ 과정과 ‘리듀스’ 과정의 단순한 2차원적 접근으로는 해결할 수 없다”고 설명하며, “실제 맵-리듀싱 과정으로 처리할 수 있는 문제들도 맵리듀스 프레임워크보다 스파크에서 더 신속하게 처리할 수 있다”고 강조했다.

베어 또한 이 같은 주장에 동의하며, “구글의 클라우드 데이터플로우는 스파크와 어느 정도 공통점이 보이는데, 바로 맵리듀스의 메모리 및 비용 문제를 해결하기 위해 노력한다는 점”이라고 말했다.

이처럼 구글의 새로운 데이터 처리 서비스는 하둡의 사용자층을 노리고 설계된 것처럼 보인다. 그러나 자세히 살펴보면, 실제 하둡의 빅데이터 분석 기능과 비교했을 때 클라우드 데이터플로우는 좀더 좁고 특화된 사용 영역에 적합하다.

구글은 클라우드 데이터플로우를 가르켜 “모든 사용자가 데이터를 생성하고 분석할 수 있도록 하는, 구글의 최근 결실”이라고 설명했다. 그러나 여기서 한가지 주목할 점은, 구글이 ‘데이터 분석’ 보다는 ‘애플리케이션 가공’ 쪽을 더 강조했다는 것이다.

즉, 클라우드 데이터플로우와 하둡의 가장 큰 차이는 ‘처리 원리’라기보다는 ‘사용 영역’이라고 할 수 있다. 사용자는 데이터를 저장된 장소에서 처리, 분석하는 경향이 있다. 이 때문에 하둡은 데이터 처리 시스템이자 동시에 데이터 저장소로 널리 사용되고 있다.

이 때문에 사용자들은 현재 하둡에 저장된 수 페타바이트에 달하는 데이터를 굳이 구글 클라우드 데이터플로우에 옮기는 수고를 하지 않을 것이다. 클라우드 데이터플로우는 하둡을 대체하기 보다는, 하둡과는 별개로 구글 클라우드에 이미 저장돼 있는 데이터를 가공할 때 사용될 가능성이 더 많아 보인다.

베어는 이에 대해 "구글 클라우드 데이터플로우가 하둡의 사용자층을 ‘이민’시킬 수 있을 것 같지는 않다”라고 말했다. 즉, 클라우드 데이터플로우는 하둡을 대체할 ‘분석’ 서비스라기 보단 사용자-개발자가 자신의 계정에 저장한 애플리케이션을 더 쉽고 다양하게 ‘가공’할 수 있도록 도와주는, 분석 요소가 가미된 클라우드 서비스에 더 가깝다고 할 수 있는 것이다. editor@itworld.co.kr 


2014.06.30

구글 데이터플로우, 하둡의 ‘대체제’가 아닌 이유

Serdar Yegulalp | InfoWorld
구글은 지난주, 클라우드 데이터플로우(Cloud Dataflow) 서비스를 발표하는 것으로 아마존의 실시간 데이터 처리(streaming-data processing) 서비스인 ‘키네시스(Kinesis)’와 ‘하둡(Hadoop)’과 같은 빅데이터 분석 기술에 정면으로 도전장을 내밀었다.

구글은 클라우드 데이터플로우를 통해 하둡의 맵리듀스(Mapreduce) 프레임워크를 대체할 심산이다. 맵리듀스는 원래 구글이 처음 개발하고 이후에 오픈소스로 공개된 프로그램이지만, 지난주 열린 구글 I/O 개발자 컨퍼런스에서 구글 테크니컬 인프라스트럭처 수석 부사장 우르스 휄즐은 “우리는 이제 더 이상 맵리듀스를 사용하지 않는다”고 밝힌 바 있다.

클라우드 데이터플로우는 ‘플룸(Flume)’과 ‘밀윌(MillWheel)’이라는 두 개의 프로젝트에 기반해 구축됐다. 플룸은 데이터 처리를 할 때 사용자가 병렬 파이프라인(pipeline)을 관리할 수 있도록 도와준다. 이는 맵리듀스 내에서는 지원하지 않았던 기능이다. 밀윌은 “낮은 레이턴시의 데이터 처리 애플리케이션을 구축하기 위한 프레임워크”라고 묘사되는데, 이는 최근 구글이 활발하게 적용하고 있는 기술이다.

구글은 클라우드 데이터플로우가 특히 ‘데이터 처리량’에 있어서 맵리듀스보다 우수하다고 강조하고 있다. 휄즐은 “데이터가 수 페타바이트에 이르면 맵리듀스의 효율성이 현저하게 떨어진다”고 설명했다.

영국의 시장조사 전문업체 ‘오범(Ovum)’의 애널리스트 토니 베어는 구글 클라우드 데이터플로우가 “여태까지 ‘빅데이터’와 동일시되었던 맵리듀스를 대체해 빅데이터를 분석, 해부하고자 현재 우후죽순처럼 등장하고 있는 수많은 프레임워크 가운데 하나”라고 설명했다. 베어는 이어, “사용자는 이제 맵리듀스 외에도 스파크(Spark), 지래프(Giraph)와 같은 대체안들을 비교하며 가장 적합한 분석 도구를 실험할 수 있게 됐다”고 말했다.

이러한 ‘탈-맵리듀스’ 움직임은 하둡에서도 관찰되고 있다. 하둡은 최근, ‘아파치 스파크(Apache Spark)와 같은 맵리듀스보다 더 고차원적인 데이터 처리 알고리즘에 관심을 보이고 있다. 인포월드(Infoworld)의 앤디올리버는 "많은 문제들은 이제 ‘맵’ 과정과 ‘리듀스’ 과정의 단순한 2차원적 접근으로는 해결할 수 없다”고 설명하며, “실제 맵-리듀싱 과정으로 처리할 수 있는 문제들도 맵리듀스 프레임워크보다 스파크에서 더 신속하게 처리할 수 있다”고 강조했다.

베어 또한 이 같은 주장에 동의하며, “구글의 클라우드 데이터플로우는 스파크와 어느 정도 공통점이 보이는데, 바로 맵리듀스의 메모리 및 비용 문제를 해결하기 위해 노력한다는 점”이라고 말했다.

이처럼 구글의 새로운 데이터 처리 서비스는 하둡의 사용자층을 노리고 설계된 것처럼 보인다. 그러나 자세히 살펴보면, 실제 하둡의 빅데이터 분석 기능과 비교했을 때 클라우드 데이터플로우는 좀더 좁고 특화된 사용 영역에 적합하다.

구글은 클라우드 데이터플로우를 가르켜 “모든 사용자가 데이터를 생성하고 분석할 수 있도록 하는, 구글의 최근 결실”이라고 설명했다. 그러나 여기서 한가지 주목할 점은, 구글이 ‘데이터 분석’ 보다는 ‘애플리케이션 가공’ 쪽을 더 강조했다는 것이다.

즉, 클라우드 데이터플로우와 하둡의 가장 큰 차이는 ‘처리 원리’라기보다는 ‘사용 영역’이라고 할 수 있다. 사용자는 데이터를 저장된 장소에서 처리, 분석하는 경향이 있다. 이 때문에 하둡은 데이터 처리 시스템이자 동시에 데이터 저장소로 널리 사용되고 있다.

이 때문에 사용자들은 현재 하둡에 저장된 수 페타바이트에 달하는 데이터를 굳이 구글 클라우드 데이터플로우에 옮기는 수고를 하지 않을 것이다. 클라우드 데이터플로우는 하둡을 대체하기 보다는, 하둡과는 별개로 구글 클라우드에 이미 저장돼 있는 데이터를 가공할 때 사용될 가능성이 더 많아 보인다.

베어는 이에 대해 "구글 클라우드 데이터플로우가 하둡의 사용자층을 ‘이민’시킬 수 있을 것 같지는 않다”라고 말했다. 즉, 클라우드 데이터플로우는 하둡을 대체할 ‘분석’ 서비스라기 보단 사용자-개발자가 자신의 계정에 저장한 애플리케이션을 더 쉽고 다양하게 ‘가공’할 수 있도록 도와주는, 분석 요소가 가미된 클라우드 서비스에 더 가깝다고 할 수 있는 것이다. editor@itworld.co.kr 


X