2017.02.10

오픈소스 스파크, 그 다음 단계는 무엇인가

Jon Gold | Network World
오픈소스 프로젝트 하나만 다루는 컨퍼런스라고 하면 기조 연설자 한 명이 어느 지방 대학 강의실에 모인 100명 남짓의 사람들 앞에서 발표하는 장면이 연상된다. 그러나 스파크 서밋 이스트(Spark Summit East)는 전혀 그렇지 않았다.

총 1,503명의 사람들이 하인스 컨벤션 센터의 행사장을 찾아 미국 캘리포니아 버클리 대학 마테이 자하리아가 처음 개발한 빅데이터 처리 엔진, 스파크의 미래에 대해 5명의 기조 연설자가 전하는 이야기를 경청했다.

스파크는 세일즈포스, 페이스북, IBM을 비롯한 많은 기업이 사용하는 대규모 데이터 기반 애플리케이션의 근간이 되고 있으며, 모래사장과 같은 데이터베이스에서 모래 알갱이와 같은 데이터를 분류하고 분석하고 찾아내는 데 힘을 보태고 있다.

무대에 오른 자하리아는 스파크가 이처럼 부상한 이유 가운데 하나로 최근 무어의 법칙이 크게 둔화됐다는 점을 들었다. 평균적인 데이터센터 네트워크 연결 속도는 7년 전에 비해 약 10배 더 빨라졌고 평균 스토리지 I/O 속도 역시 이와 비슷하게 향상됐지만 CPU 속도는 그 때나 지금이나 거의 비슷한 수준에 머물러 있다.

하드웨어 제조업체들은 GPU, FPGA와 같은 더 단순한 소자를 사용하는 방법으로 대처하고 있지만 자하리아는 전혀 다른 반도체 기반으로 애플리케이션을 옮기는 것은 상당히 어려운 일이 될 수 있다고 말했다.

자하리아에 따르면, 스파크는 새로운 하드웨어 플랫폼을 활용하기 위해 발전하는 동시에 기존 시스템에서의 성능을 극대화하기 위한 작업도 진행 중이다.

자하리아는 "이것이 이른바 프로젝트 텅스텐(Project Tungsten)이다. 약 2년 전에 시작된 텅스텐 프로젝트는 두 가지 요소를 사용해 스파크의 CPU와 메모리 사용을 최적화한다. 하나는 '자바 가상 머신'을 벗어나 더 이상 그 제약에 묶이지 않는 바이너리 스토리지 포맷, 다른 하나는 런타임 코드 생성"이라고 말했다.

이번 행사의 주 후원사 가운데 하나로 호스팅 형태의 스파크 환경을 판매하는 데이터브릭스(Databricks)의 엔지니어 마이클 암브러스트에 따르면, 스파크의 기원은 크로스 시스템 복잡성, 즉 하나의 문제를 해결하기 위해 여러 그룹의 컴퓨터를 사용하는 데 따르는 오류가 향후 발전을 가로막는 장애물이 될 것이라는 자하리아의 인식까지 거슬러 올라간다.

최적화는 여전히 스파크 개발에 있어 핵심적인 개념이지만 최적화가 이뤄지는 방법은 약간 다르다.

암브러스트는 "2013년부터 많은 사람이 스파크를 사용하고 있지만 연산을 튜닝하는 데 시간을 소비하는 사람들이 많다. 가비지 수집과 같은 오버헤드를 최소화해야 하고, 코어의 성능을 남김없이 활용해야 한다. 사람들이 정말 원하는 것은 일반적인 연산을 신속하고 간결하게 표현할 수 있는 고수준 언어"라고 말했다.

이런 수요와 95% 이상의 스파크 사용자가 SQL 데이터베이스를 운용한다는 사실이 함께 어우러져 "그냥 원하는 것을 신속하게 말하고, 그 연산을 수행하는 가장 효율적인 방법이 무엇인지 알아내는 일은 스파크에게 맡길 수 있게 해주는" 언어인 스파크 SQL 개발로 이어졌다.

세일즈포스 선임 엔지니어링 관리자 알렉시스 루스는 스파크 기능을 사용해 세일즈포스의 주력 상품 세일즈클라우드(Salescloud)와 세일즈포스 인박스(Salesforce Inbox) 제품의 범위를 더 넓힌 방법을 자세히 전했다.

루스는 "AI를 사용해 세일즈포스 인박스를 더 스마트하게 만들 수 있다"며, 유력한 잠재 고객이 누구인지, 어떤 연락 방법을 어떤 순서에 따라 수행해야 할지 정확히 판별하기 위해 이 시스템이 수행할 수 있는 복잡한 형태의 연결에 대해 설명했다. 루스는 "사용자들에게 이메일이 왜 중요한 지를 설명해야 하지만 목표는 거기서 멈추는 것이 아니다. 사용자들에게 이메일로 무엇을 해야 하는 지도 설명해야 한다"고 말했다.

데이터 규모 측면에서 유튜브에 필적하는 방대한 디지털 정보를 사용해 유전체학을 연구하는 MIT와 하버드의 브로드 연구소(Broad Institute) 수석 엔지니어인 코튼 시드는 다른 누구보다 큰 데이터 집합을 다룬다. 브로드는 매일 17TB의 새로운 게놈 데이터를 생성하며 총 45PB의 정보를 관리한다.

매일 25TB를 생성하고 총 데이터는 86PB에 이르는 유튜브가 여전히 더 크지만 시드에 따르면 머지 않아 그 순위는 뒤바뀔 전망이다. 시드는 "2025년까지 전세계 유전체학 연구 데이터 규모가 매년 20EB(200억GB) 이상이 될 것"이라고 말했다.

시드는 "순수 스토리지 비용만 매달 약 4억 달러가 들 것"이라면서 예를 들어 구글 클라우드에서 이 데이터를 분석하기 위해 필요한 연산 작업을 수행할 경우 매월 60억 달러 가까운 사용료가 발생할 것이라고 말했다. 구글 클라우드 플랫폼 견적 툴에서 "정확하게 입력한 것이 맞습니까?"라는 확인 메시지가 뜨는 것은 덤이다.

시드는 "생체 의학에서 지금과 같은 혁신 속도를 계속 유지하려면 컴퓨팅 기술과 대규모 데이터 분야에서 혁신이 필요할 것"이라고 말했다.

시드의 팀은 유전 데이터를 더 효율적으로 처리하기 위해 스파크 기반 플랫폼인 헤일(Hail)을 만들었다. 헤일은 고수준 언어, 스파크 SQL을 사용해서 기본적인 분석 작업을 자동화하며 확장성이 뛰어나고 컴퓨터 과학자가 아닌 사람들, 즉 유전체학 연구실에서 일하는 대부분의 사람들도 손쉽게 사용할 수 있도록 설계됐다. editor@itworld.co.kr  


2017.02.10

오픈소스 스파크, 그 다음 단계는 무엇인가

Jon Gold | Network World
오픈소스 프로젝트 하나만 다루는 컨퍼런스라고 하면 기조 연설자 한 명이 어느 지방 대학 강의실에 모인 100명 남짓의 사람들 앞에서 발표하는 장면이 연상된다. 그러나 스파크 서밋 이스트(Spark Summit East)는 전혀 그렇지 않았다.

총 1,503명의 사람들이 하인스 컨벤션 센터의 행사장을 찾아 미국 캘리포니아 버클리 대학 마테이 자하리아가 처음 개발한 빅데이터 처리 엔진, 스파크의 미래에 대해 5명의 기조 연설자가 전하는 이야기를 경청했다.

스파크는 세일즈포스, 페이스북, IBM을 비롯한 많은 기업이 사용하는 대규모 데이터 기반 애플리케이션의 근간이 되고 있으며, 모래사장과 같은 데이터베이스에서 모래 알갱이와 같은 데이터를 분류하고 분석하고 찾아내는 데 힘을 보태고 있다.

무대에 오른 자하리아는 스파크가 이처럼 부상한 이유 가운데 하나로 최근 무어의 법칙이 크게 둔화됐다는 점을 들었다. 평균적인 데이터센터 네트워크 연결 속도는 7년 전에 비해 약 10배 더 빨라졌고 평균 스토리지 I/O 속도 역시 이와 비슷하게 향상됐지만 CPU 속도는 그 때나 지금이나 거의 비슷한 수준에 머물러 있다.

하드웨어 제조업체들은 GPU, FPGA와 같은 더 단순한 소자를 사용하는 방법으로 대처하고 있지만 자하리아는 전혀 다른 반도체 기반으로 애플리케이션을 옮기는 것은 상당히 어려운 일이 될 수 있다고 말했다.

자하리아에 따르면, 스파크는 새로운 하드웨어 플랫폼을 활용하기 위해 발전하는 동시에 기존 시스템에서의 성능을 극대화하기 위한 작업도 진행 중이다.

자하리아는 "이것이 이른바 프로젝트 텅스텐(Project Tungsten)이다. 약 2년 전에 시작된 텅스텐 프로젝트는 두 가지 요소를 사용해 스파크의 CPU와 메모리 사용을 최적화한다. 하나는 '자바 가상 머신'을 벗어나 더 이상 그 제약에 묶이지 않는 바이너리 스토리지 포맷, 다른 하나는 런타임 코드 생성"이라고 말했다.

이번 행사의 주 후원사 가운데 하나로 호스팅 형태의 스파크 환경을 판매하는 데이터브릭스(Databricks)의 엔지니어 마이클 암브러스트에 따르면, 스파크의 기원은 크로스 시스템 복잡성, 즉 하나의 문제를 해결하기 위해 여러 그룹의 컴퓨터를 사용하는 데 따르는 오류가 향후 발전을 가로막는 장애물이 될 것이라는 자하리아의 인식까지 거슬러 올라간다.

최적화는 여전히 스파크 개발에 있어 핵심적인 개념이지만 최적화가 이뤄지는 방법은 약간 다르다.

암브러스트는 "2013년부터 많은 사람이 스파크를 사용하고 있지만 연산을 튜닝하는 데 시간을 소비하는 사람들이 많다. 가비지 수집과 같은 오버헤드를 최소화해야 하고, 코어의 성능을 남김없이 활용해야 한다. 사람들이 정말 원하는 것은 일반적인 연산을 신속하고 간결하게 표현할 수 있는 고수준 언어"라고 말했다.

이런 수요와 95% 이상의 스파크 사용자가 SQL 데이터베이스를 운용한다는 사실이 함께 어우러져 "그냥 원하는 것을 신속하게 말하고, 그 연산을 수행하는 가장 효율적인 방법이 무엇인지 알아내는 일은 스파크에게 맡길 수 있게 해주는" 언어인 스파크 SQL 개발로 이어졌다.

세일즈포스 선임 엔지니어링 관리자 알렉시스 루스는 스파크 기능을 사용해 세일즈포스의 주력 상품 세일즈클라우드(Salescloud)와 세일즈포스 인박스(Salesforce Inbox) 제품의 범위를 더 넓힌 방법을 자세히 전했다.

루스는 "AI를 사용해 세일즈포스 인박스를 더 스마트하게 만들 수 있다"며, 유력한 잠재 고객이 누구인지, 어떤 연락 방법을 어떤 순서에 따라 수행해야 할지 정확히 판별하기 위해 이 시스템이 수행할 수 있는 복잡한 형태의 연결에 대해 설명했다. 루스는 "사용자들에게 이메일이 왜 중요한 지를 설명해야 하지만 목표는 거기서 멈추는 것이 아니다. 사용자들에게 이메일로 무엇을 해야 하는 지도 설명해야 한다"고 말했다.

데이터 규모 측면에서 유튜브에 필적하는 방대한 디지털 정보를 사용해 유전체학을 연구하는 MIT와 하버드의 브로드 연구소(Broad Institute) 수석 엔지니어인 코튼 시드는 다른 누구보다 큰 데이터 집합을 다룬다. 브로드는 매일 17TB의 새로운 게놈 데이터를 생성하며 총 45PB의 정보를 관리한다.

매일 25TB를 생성하고 총 데이터는 86PB에 이르는 유튜브가 여전히 더 크지만 시드에 따르면 머지 않아 그 순위는 뒤바뀔 전망이다. 시드는 "2025년까지 전세계 유전체학 연구 데이터 규모가 매년 20EB(200억GB) 이상이 될 것"이라고 말했다.

시드는 "순수 스토리지 비용만 매달 약 4억 달러가 들 것"이라면서 예를 들어 구글 클라우드에서 이 데이터를 분석하기 위해 필요한 연산 작업을 수행할 경우 매월 60억 달러 가까운 사용료가 발생할 것이라고 말했다. 구글 클라우드 플랫폼 견적 툴에서 "정확하게 입력한 것이 맞습니까?"라는 확인 메시지가 뜨는 것은 덤이다.

시드는 "생체 의학에서 지금과 같은 혁신 속도를 계속 유지하려면 컴퓨팅 기술과 대규모 데이터 분야에서 혁신이 필요할 것"이라고 말했다.

시드의 팀은 유전 데이터를 더 효율적으로 처리하기 위해 스파크 기반 플랫폼인 헤일(Hail)을 만들었다. 헤일은 고수준 언어, 스파크 SQL을 사용해서 기본적인 분석 작업을 자동화하며 확장성이 뛰어나고 컴퓨터 과학자가 아닌 사람들, 즉 유전체학 연구실에서 일하는 대부분의 사람들도 손쉽게 사용할 수 있도록 설계됐다. editor@itworld.co.kr  


X