2016.12.30

2017년 빅데이터와 BI 트렌드, "머신러닝, 데이터 레이크, 그리고 하둡과 스파크"

Scott Carey | Computerworld UK
2016년과 마찬가지로 2017년을 맞이하면서 여전히 자사의 데이터를 운영하는 조직에 대해 얘기하고 있다. 비즈니스 사용자들이 유용하고 실행 가능한 데이터가 필요로 할 때 언제 어디서나 제공받을 수 있을 것이다.



데이터 저장 비용은 지속적으로 하락하고 SaaS를 통해 분석 솔루션의 가용성이 확산됨에 따라 기업들은 직원들에게 그 어느 때보다 싸고 쉽게 통찰력을 제공할 수 있게 됐다. 2017년 빅데이터, 분석, 그리고 BI(Business Intelligence) 분야 트렌드는 다음과 같다.

머신러닝 받아들이기
오범은 2017년 빅데이터 분석에서 가장 큰 장애물은 머신러닝이 될 것이라고 말했다.

토니 베어의 빅데이터 동향 보고서에 따르면, 상승 곡선에 있는 머신러닝은 여전히 성장세를 유지할 것이다. 그러나 대부분의 경우 머신러닝은 맞춤형 개발보다는 애플리케이션과 서비스에 탑재될 것이다. 이는 디지털 온라인 비즈니스를 다룰 줄 아는 데이터 과학자들을 확보할 수 있는 조직들이 거의 없기 때문이다.

벤더들은 사전 패키지 형태로 판매하기 때문에 데이터 세트에 머신러닝을 적용하는 것이 그 어느 때보다 쉬워졌다. 그래서 예측 분석, 고객 통찰력, 개인화, 추천 엔진, 사기 및 위협 탐지 등에서 활용할 수 있을 것으로 기대하고 있다.

하둡, 그 너머의 움직임
오픈소스 데이터 저장 솔루션인 아파치 하둡(Apache Hadoop)은 지난 수년동안 BI 업계에서 회자되어 왔지만 실행 가능한 대안으로 인기있는 프레임워크, 특히 아파치 스파크(Apache Spark)가 더욱 더 많이 거론되기 시작했다.

베어의 보고서에서 지적한 것처럼 지난 수년 동안 이 인메모리 데이터 처리 엔진은 많은 거품이 있긴 하지만 클라우드 내 스파크를 배포하는 기능만큼은 탁월하다. 베어는 클라우드 기반, 머신러닝, 그리고 IoT 서비스에서의 스파크는 하둡을 고려하고 있는 기업들에게 대안을 제공할 것이라고 말했다.

"스파크와 하둡은 서로 다른 제품이지만, 베어는 다음과 같은 장단점이 있음을 강조했다. 논쟁의 여지가 있긴 하지만, 범용 데이터 처리 및 저장 엔진(하둡의 경우 얀(YARN))의 오버헤드를 없앤다면 스파크는 훨씬 더 효율적으로 실행할 수 있다. 독립형 스파크 클러스터는 하둡의 보안 또는 데이터 거버넌스 기능이 부족하다는 것이 단점으로 지적된다."

데이터 시각화 전문업체인 태블로(Tableau)는 하둡을 늦게 채택한 기업은 셀프서비스 데이터 프레퍼레이션(self-service data preparation) 툴의 이점을 가질 수 있다고 덧붙였다.

셀프서비스 데이터 프레퍼레이션 툴은 스스로 하둡 데이터를 소스로 준비할 수 있을 뿐만 아니라 빠르고 쉽게 탐사를 할 수 있는 스냅샷으로 데이터를 제공한다. 알테릭스(Alteryx), 트리팍타(Trivacta), 팍사타(Paxata)와 같은 빅데이터를 위한 최종 사용자 데이터 준비에 초점을 맞춘 영역이 2017년 혁신의 중심에 서게 될 것이다.

사용할 수 있는 데이터 레이크
지난 수년 동안 기업에서는 여러 개의 사일로로 흩어진 데이터를 하나의 데이터 소스로 통합해 옴으로써 조직 전체를 아우르는 통찰력을 공유하기가 쉬워졌다. 기업들은 데이터 레이크(거대한 비정형 데이터세트)를 이행하고 있다. 이는 새로운 것은 아니지만 2017년이 올바른 관리와 운영의 해가 될 수 있다.

데이터 관리 전문 업체 렐티오(Reltio) CMO 레이먼 첸은 "초기에 데이터 레이크를 도입한 많은 기업은 상당히 많은 비용을 지불했다. 저비용 스토리지와 프로세스와 함께 빅데이터 풀을 모아 상호 연관시키고 더 많은 통찰력을 제공한다는 약속과는 달랐다"고 말했다.

기존 빅데이터 프로젝트를 통해 기업들은 신뢰할 수 있는 데이터의 필요성을 인식하고 있다. 새로운 프로젝트들은 전체 데이터 관리 전략과 결합되고 있어 마침내 데이터 레이크들은 그들의 약속을 지킬 수 있을 지 모른다.

오범의 베어는 데이터 레이크가 일상적으로 사용하게 되면 조직들은 엑셀 스프레드시트 프로세스에서 벗어나게 될 것이라고 말했다. 데이터 레이크를 적용한 기업의 공통점은 데이터의 목록 작성 및 보안에 연관이 있다는 것이다.

데이터 프레퍼레이션은 독립형 엑셀 스트레드시트에 대한 의존도를 없애려는 첫번째 단계다. 데이터 통합 업체에서부터 제품 기능에 이르기까지 분석과 데이터 과학 툴의 일부로 데이터 프레퍼레이션 기능이 널리 사용하는 것이 2017년에 예상되는 주요 변화 가운데 하나다.

기업들은 여전히 데이터 과학자가 필요하다
기업에서 필요한 데이터 과학자들은 조금씩 줄어들고 점점 더 많은 스마트한 졸업생들이 이 시장에 뛰어들고 있지만 2017년 이 직업에 대한 수요는 여전할 것이다.

구인정보업체 '하이어드(Hired)'의 2016년 마인드 더 갭(Mind The Gap) 보고서에 따르면, 데이터 과학자 연봉은 지난 18개월 동안 29%나 증가했다. 또한 이 보고서는 같은 기간동안 데이터 엔지니어에 대한 요청이 234%나 증가했다는 것을 보여준다.

더 많은 셀프서비스 BI
인메모리 분석업체인 엑사졸(EXASOL) CEO 아론 올드는 2017년에도 비즈니스 사용자가 분석 및 통찰력에 직접 액세스할 수 있는 셀프서비스 BI 툴이 BI의 트렌드가 될 것이라고 믿고 있다.

올드는 "셀프서비스 툴 기업과 신생 기업들 모두에게 이익을 가져다 주고 있다"며, "기업들은 데이터베이스와 가시성 툴(태블로와 팍사타와 같은 데이터 프렙 툴과 같은)과 함께 데이터 분석 영역에서 자체 비즈니스 핵심을 통합시킴으로써 비즈니스 전환을 꾀할 것이다"고 말했다.

클라우드 기반의 분석
데이터 시각화 전문업체인 태블로는 2017년에는 더 많은 핵심 데이터 저장소와 분석 워크플로우가 클라우드로 전환하게 될 것이라고 예상했다. 기업들의 데이터가 좀더 많이 클라우드로 이동하게 되면 클라우드 내에서 분석은 주류로 자리잡게 될 것이다.

태블로 측은 "2017년 기업에서는 데이터 중력이 발생해 데이터가 어디에 있든지 모든 데이터가 가장 큰 데이터 세트가 위치한 곳으로 이동해 분석을 위해 이용될 것이다. 아마존 레드시프트(Amazon Redshift)와 같은 클라우드 데이터웨어하우스는 가장 인기있는 데이터 목적지가 될 것이며 결과적으로 클라우드 분석은 보편화될 것이다"고 예측했다.

스트리밍 분석
스트리밍 분석은 기존 배치 분석 대신 조직 내 스트리밍되는 데이터들을 모니터링한다. 특히 이는 핵심 인프라스트럭처나 장치들의 상태를 모니터링할 때 유용하다. 스크리밍 분석은 IoT(Internet-of-Things) 배포를 고려하는 더 많은 조직들로 인해 수요가 지속적으로 증가할 것으로 보인다.

오범의 베어는 스트리밍 분석이 나온 지는 이미 수십 년이 됐지만, 최근에서야 오픈소스 기술이 진입 장벽을 낮췄다고 전했다. 현재 기업에서 커낵티드 기기와 IoT의 확산으로, 특히 2017년에는 제조업체와 헬스케어 분야에서 스트리밍 분석은 본격적인 활개를 펴게 될 것이다.

2017 데이터 트렌드 요약
빅데이터는 기업의 어려운 숙제로 남아 있지만, 클라우드는 기업이 데이터 과학자들을 고용하지 않고도 데이터로 더 많은 것을 할 수 있도록 저렴하고 간단한 방법을 제시한다.

AWS, 마이크로소프트와 같은 주요 클라우드 제공업체는 머신러닝용 APIs를 발표하고 있다. 구글은 오픈소스 툴인 텐서플로우(TensorFlow)를 발표하며, 2017년에는 첨단 데이터 처리 기술이 주류가 될 것이다. editor@itworld.co.kr  


2016.12.30

2017년 빅데이터와 BI 트렌드, "머신러닝, 데이터 레이크, 그리고 하둡과 스파크"

Scott Carey | Computerworld UK
2016년과 마찬가지로 2017년을 맞이하면서 여전히 자사의 데이터를 운영하는 조직에 대해 얘기하고 있다. 비즈니스 사용자들이 유용하고 실행 가능한 데이터가 필요로 할 때 언제 어디서나 제공받을 수 있을 것이다.



데이터 저장 비용은 지속적으로 하락하고 SaaS를 통해 분석 솔루션의 가용성이 확산됨에 따라 기업들은 직원들에게 그 어느 때보다 싸고 쉽게 통찰력을 제공할 수 있게 됐다. 2017년 빅데이터, 분석, 그리고 BI(Business Intelligence) 분야 트렌드는 다음과 같다.

머신러닝 받아들이기
오범은 2017년 빅데이터 분석에서 가장 큰 장애물은 머신러닝이 될 것이라고 말했다.

토니 베어의 빅데이터 동향 보고서에 따르면, 상승 곡선에 있는 머신러닝은 여전히 성장세를 유지할 것이다. 그러나 대부분의 경우 머신러닝은 맞춤형 개발보다는 애플리케이션과 서비스에 탑재될 것이다. 이는 디지털 온라인 비즈니스를 다룰 줄 아는 데이터 과학자들을 확보할 수 있는 조직들이 거의 없기 때문이다.

벤더들은 사전 패키지 형태로 판매하기 때문에 데이터 세트에 머신러닝을 적용하는 것이 그 어느 때보다 쉬워졌다. 그래서 예측 분석, 고객 통찰력, 개인화, 추천 엔진, 사기 및 위협 탐지 등에서 활용할 수 있을 것으로 기대하고 있다.

하둡, 그 너머의 움직임
오픈소스 데이터 저장 솔루션인 아파치 하둡(Apache Hadoop)은 지난 수년동안 BI 업계에서 회자되어 왔지만 실행 가능한 대안으로 인기있는 프레임워크, 특히 아파치 스파크(Apache Spark)가 더욱 더 많이 거론되기 시작했다.

베어의 보고서에서 지적한 것처럼 지난 수년 동안 이 인메모리 데이터 처리 엔진은 많은 거품이 있긴 하지만 클라우드 내 스파크를 배포하는 기능만큼은 탁월하다. 베어는 클라우드 기반, 머신러닝, 그리고 IoT 서비스에서의 스파크는 하둡을 고려하고 있는 기업들에게 대안을 제공할 것이라고 말했다.

"스파크와 하둡은 서로 다른 제품이지만, 베어는 다음과 같은 장단점이 있음을 강조했다. 논쟁의 여지가 있긴 하지만, 범용 데이터 처리 및 저장 엔진(하둡의 경우 얀(YARN))의 오버헤드를 없앤다면 스파크는 훨씬 더 효율적으로 실행할 수 있다. 독립형 스파크 클러스터는 하둡의 보안 또는 데이터 거버넌스 기능이 부족하다는 것이 단점으로 지적된다."

데이터 시각화 전문업체인 태블로(Tableau)는 하둡을 늦게 채택한 기업은 셀프서비스 데이터 프레퍼레이션(self-service data preparation) 툴의 이점을 가질 수 있다고 덧붙였다.

셀프서비스 데이터 프레퍼레이션 툴은 스스로 하둡 데이터를 소스로 준비할 수 있을 뿐만 아니라 빠르고 쉽게 탐사를 할 수 있는 스냅샷으로 데이터를 제공한다. 알테릭스(Alteryx), 트리팍타(Trivacta), 팍사타(Paxata)와 같은 빅데이터를 위한 최종 사용자 데이터 준비에 초점을 맞춘 영역이 2017년 혁신의 중심에 서게 될 것이다.

사용할 수 있는 데이터 레이크
지난 수년 동안 기업에서는 여러 개의 사일로로 흩어진 데이터를 하나의 데이터 소스로 통합해 옴으로써 조직 전체를 아우르는 통찰력을 공유하기가 쉬워졌다. 기업들은 데이터 레이크(거대한 비정형 데이터세트)를 이행하고 있다. 이는 새로운 것은 아니지만 2017년이 올바른 관리와 운영의 해가 될 수 있다.

데이터 관리 전문 업체 렐티오(Reltio) CMO 레이먼 첸은 "초기에 데이터 레이크를 도입한 많은 기업은 상당히 많은 비용을 지불했다. 저비용 스토리지와 프로세스와 함께 빅데이터 풀을 모아 상호 연관시키고 더 많은 통찰력을 제공한다는 약속과는 달랐다"고 말했다.

기존 빅데이터 프로젝트를 통해 기업들은 신뢰할 수 있는 데이터의 필요성을 인식하고 있다. 새로운 프로젝트들은 전체 데이터 관리 전략과 결합되고 있어 마침내 데이터 레이크들은 그들의 약속을 지킬 수 있을 지 모른다.

오범의 베어는 데이터 레이크가 일상적으로 사용하게 되면 조직들은 엑셀 스프레드시트 프로세스에서 벗어나게 될 것이라고 말했다. 데이터 레이크를 적용한 기업의 공통점은 데이터의 목록 작성 및 보안에 연관이 있다는 것이다.

데이터 프레퍼레이션은 독립형 엑셀 스트레드시트에 대한 의존도를 없애려는 첫번째 단계다. 데이터 통합 업체에서부터 제품 기능에 이르기까지 분석과 데이터 과학 툴의 일부로 데이터 프레퍼레이션 기능이 널리 사용하는 것이 2017년에 예상되는 주요 변화 가운데 하나다.

기업들은 여전히 데이터 과학자가 필요하다
기업에서 필요한 데이터 과학자들은 조금씩 줄어들고 점점 더 많은 스마트한 졸업생들이 이 시장에 뛰어들고 있지만 2017년 이 직업에 대한 수요는 여전할 것이다.

구인정보업체 '하이어드(Hired)'의 2016년 마인드 더 갭(Mind The Gap) 보고서에 따르면, 데이터 과학자 연봉은 지난 18개월 동안 29%나 증가했다. 또한 이 보고서는 같은 기간동안 데이터 엔지니어에 대한 요청이 234%나 증가했다는 것을 보여준다.

더 많은 셀프서비스 BI
인메모리 분석업체인 엑사졸(EXASOL) CEO 아론 올드는 2017년에도 비즈니스 사용자가 분석 및 통찰력에 직접 액세스할 수 있는 셀프서비스 BI 툴이 BI의 트렌드가 될 것이라고 믿고 있다.

올드는 "셀프서비스 툴 기업과 신생 기업들 모두에게 이익을 가져다 주고 있다"며, "기업들은 데이터베이스와 가시성 툴(태블로와 팍사타와 같은 데이터 프렙 툴과 같은)과 함께 데이터 분석 영역에서 자체 비즈니스 핵심을 통합시킴으로써 비즈니스 전환을 꾀할 것이다"고 말했다.

클라우드 기반의 분석
데이터 시각화 전문업체인 태블로는 2017년에는 더 많은 핵심 데이터 저장소와 분석 워크플로우가 클라우드로 전환하게 될 것이라고 예상했다. 기업들의 데이터가 좀더 많이 클라우드로 이동하게 되면 클라우드 내에서 분석은 주류로 자리잡게 될 것이다.

태블로 측은 "2017년 기업에서는 데이터 중력이 발생해 데이터가 어디에 있든지 모든 데이터가 가장 큰 데이터 세트가 위치한 곳으로 이동해 분석을 위해 이용될 것이다. 아마존 레드시프트(Amazon Redshift)와 같은 클라우드 데이터웨어하우스는 가장 인기있는 데이터 목적지가 될 것이며 결과적으로 클라우드 분석은 보편화될 것이다"고 예측했다.

스트리밍 분석
스트리밍 분석은 기존 배치 분석 대신 조직 내 스트리밍되는 데이터들을 모니터링한다. 특히 이는 핵심 인프라스트럭처나 장치들의 상태를 모니터링할 때 유용하다. 스크리밍 분석은 IoT(Internet-of-Things) 배포를 고려하는 더 많은 조직들로 인해 수요가 지속적으로 증가할 것으로 보인다.

오범의 베어는 스트리밍 분석이 나온 지는 이미 수십 년이 됐지만, 최근에서야 오픈소스 기술이 진입 장벽을 낮췄다고 전했다. 현재 기업에서 커낵티드 기기와 IoT의 확산으로, 특히 2017년에는 제조업체와 헬스케어 분야에서 스트리밍 분석은 본격적인 활개를 펴게 될 것이다.

2017 데이터 트렌드 요약
빅데이터는 기업의 어려운 숙제로 남아 있지만, 클라우드는 기업이 데이터 과학자들을 고용하지 않고도 데이터로 더 많은 것을 할 수 있도록 저렴하고 간단한 방법을 제시한다.

AWS, 마이크로소프트와 같은 주요 클라우드 제공업체는 머신러닝용 APIs를 발표하고 있다. 구글은 오픈소스 툴인 텐서플로우(TensorFlow)를 발표하며, 2017년에는 첨단 데이터 처리 기술이 주류가 될 것이다. editor@itworld.co.kr  


X