Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

빅 데이터

빅 데이터의 이해 - IDG Tech Report

2012년 IT 최대 유행어를 얘기하라면 빅 데이터를 빼놓을 수 없다. 빅 데이터라는 단어가 나온 지는 얼마 되지 않았지만, 이미 거의 모든 IT 업체들이 관련 솔루션을 제시하고 있다. 마치 2000년대 초, CRM처럼 말이다. 특히 BI 업계를 필두로 빅 데이터를 이용할 수 있다면, 엄청난 비즈니스 기회를 가질 수 있다고 설파한다. 이 또한 CRM과 유사하다. 과연 빅 데이터가 CRM처럼 한때 지나가는 마케팅 용어에 불과한 것인지, 정말 새로운 비즈니스를 가져올 것인지 스스로 판단하는 시간을 가져보자.  주요 내용 - 빅 데이터란 무엇인가  - 데이터 증가 속도가 기술 발전을 능가  - 빅 데이터 기술, 3V 가운데 두 개는 충족해야  - 빅 데이터 인프라 기술, 하둡이 전부가 아니다  - 빅 데이터 효과는 CRM 효과와 유사?  - 빅 데이터에는 데이터 과학자가 필요하다 

빅 데이터 데이터 과학자 2012.04.26

하둡을 활용해 스토리지의 한계를 극복하는 방법

스토리지 기술은 발전하고 성숙해 많은 데이터센터에서 상품의 단계에 접근하는 수준에까지 이르렀다. 그럼에도 불구하고 기업들은 BI(Business Intelligence) 역량을 더욱 거대한 데이터 셋에 적용하는 빅 데이터 분석에 대한 압박 등 스토리지 기술의 한계에 직면할 수 있는 상황에 처해 있다.   하지만 빅 데이터의 분석 과정은 일반적으로 기존의 스토리지 패러다임을 넘어서는 역량을 필요로 한다. 쉽게 말해 SANs와 NAS 등의 전통적인 스토리지 기술은 기본적으로 구조화되지 않은 테라바이트(Terabyte)와 페타바이트(Petabyte) 수준의 정보를 처리할 수 없다는 뜻이다.   성공적인 빅 데이터 분석을 위해서는 대규모의 데이터를 처리할 수 있는 새로운 방법 등이 필요하다. 즉, 새로운 스토리지 플랫폼의 이데올로기가 필요하게 된 것이다.   하둡에 관심을 가져보자 빅 데이터를 처리할 수 있는 플랫폼을 제공하는 오픈 소스 프로젝트 하둡으로 들어가보자. 비록 하둡이 개발된 지는 시간이 꽤 흘렀지만 점차 많은 기업들이 이제 막 그 기능을 활용하기 시작했다.   하둡 플랫폼은 막대한 용량의 데이터 가운데서도 복잡하고 구조화되지 않았거나 구조화된 정보를 복합적으로 포함하고 있어 테이블에 적절히 배치되지 않는 데이터에 의해 발생하는 문제를 해결하도록 설계됐다. 하둡은 클러스터링(Clustering)과 타겟팅(Targeting)처럼 심오하고 계산적으로 대규모인 분석의 지원을 필요로 하는 상황에 적합하다.   그렇다면 빅 데이터를 활용하려는 IT 전문가에게 하둡은 어떤 의미를 가질까? 간단히 말하면 하둡은 막대한 용량의 데이터를 효율적으로 저장하고 접근함으로써 빅 데이터와 관련된 대부분의 보편적인 문제를 해결한다.   하둡의 고유한 디자인 덕분에 메모리 또는 디스크를 전혀 공유하지 않는 다수의 기기에서 작동할 수 있...

ETL 하둡 빅 데이터 2012.04.20

빅 데이터 해결사, 2012년 하둡의 현주소 - IDG Deep Dive

빅 데이터의 부상과 함께 하둡은 빅 데이터 처리의 핵심 엔진으로 초미의 관심사가 되고 있다. 기존 데이터베이스와 비교하면 그저 새싹에 불과한 하둡이지만, 가능성을 알아 본 많은 업체들이 하둡 지원에 발 벗고 나섰으며, 기업들 역시 하둡 도입을 적극적으로 검토하고 있다. 하지만 아직 하둡은 한창 성장하고 있는 기술인 만큼 장점 못지 않게 보완해야 할 점도 많고, 기업이 고려해야 할 점도 많다. 하둡의 특장점에서부터 기존 RDBMS와의 비용 분석, 하둡을 관리하기 위해 갖춰야 할 것, 하둡을 사용하는데 따르는 이익과 문제점, 주요 하둡 솔루션 등을 알아보면서 2012년 하둡의 현주소를 정리해 본다. 주요 내용 모든 산업을 바꿀 수 있는 잠재력, 빅 데이터의 힘 엔터프라이즈 IT를 설득한 하둡이 넘어야 할 벽  하둡과 RDBMS 비용 분석… '운영비용 3배 차이' 엔터프라이즈 하둡, 더 쉬워진 빅 데이터 처리 확장 가능한 프레임워크를 통한 빅 데이터 분석 과제 해결

하둡 빅 데이터 Hadoop 2012.04.13

EMC, 7년 만에 IT 인프라 가상화 86%... 3단계 가상화 성공의 방법론 제시

"가상화 수준이 높아지고 IaaS 수준이 높아지면 IT 조직의 근본적인 구조 변화가 뒤따른다."    EMC의 CIO 산제이 머천다니는 "가상화 수준이 높아지면 사일로 구조로 분화되어 있던 IT 부서는 필요없게 되며, 근본적인 구조 변화를 꾀해야 한다"고 주장했다. 2004년부터 물리적인 IT 인프라에 가상화 기술을 접목하기 시작한 EMC는 2012년 현재 가상화 3단계 86%를 달성했다.    4월 9일 한국을 방문한 산제이 머천다니는 IT 조직의 구조 변화 방법론으로 세 가지를 고려해야 한다고 설명했다. 이 세 가지 고려 사항은 바로 핵심역량, IT 역할, 그리고 IT 조직이다. 먼저 IT 조직을 변화시키는 것이 아니라 우선 핵심역량을 먼저 파악하고 이에 맞는 역할을 구성한 뒤, 이를 기준으로 IT 조직을 재배치해야 한다는 것이다.    이 날 머천다니는 "오늘날 CIO들이 안고 있는 가장 큰 현안 가운데 하나는 IT 부서의 내부 고객인 일반 사업부서들이 필요로 하는 클라우드 컴퓨팅을 어떻게 효과적으로 구현할 수 있을 것인가에 있다"면서, "EMC 역시 많은 고객사들과 마찬가지로 비즈니스 규모의 확대에 따른 정보량의 증가, IT 인프라의 비효율성, 애플리케이션 및 데이터센터 환경의 복잡성 등 여러 문제에 직면해 있었다"고 말했다.    이를 해결하기 위해 EMC는 VM웨어의 ESX 기술을 바탕으로 고도로 가상화된 IT 인프라로의 변화를 도모했으며, 이를 통해 IT가 전달되고 소비되는 방법에 변화를 줄 수 있는 클라우드 컴퓨팅 전략을 수립했다.   머천다니는 "EMC의 클라우드를 향한 여정은 ▲주변 업무들을 먼저 가상화하고 통합해서 IT 간소화를 이루는 IT  프로덕션(인프라에 초점) ▲핵심 업무들을 가상화해서 확장성과 ...

emc 빅 데이터 클라우드 2012.04.10

아모레퍼시픽, 빅 데이터에서 고객의 속마음을 꿰뚫어 개인 맞춤 서비스 제안 - IDG Case Study

국내 미용 업계 1위인 아모레퍼시픽의 평생 고객 캠페인은 빅 데이터를 기반으로 한다. 아모레퍼시픽은 고객의 구매 정보부터 피부 진단 결과, 콜센터 불만, 페이스북 댓글에 이르는 모든 데이터를 통합하고, 신속한 분석을 위해 데이터를 70% 압축해 처리 속도를 최대 500배 향상시켜 최적의 환경을 구축했다. 국내를 넘어 글로벌 선두 기업들도 주목하는 이 회사의 평생 고객 캠페인의 핵심은 상품이 아니라 고객 개개인을 중심으로 접근했다는 점이다.   주요 내용 미션 ‘숨은 고객 정보를 찾아라!’ SNS•콜센터 정보까지 담은 빅 데이터 대용량을 신속하게 처리할 수 있는 네티자 선택 글로벌 업계도 주시하는 ‘고객 분석기술’

BI 분석 아모레퍼시픽 2012.04.04

SAS, 첨단 분석 기술과 빅 데이터 융합 위해 하둡 전격 지원

SAS코리아는 최근 업그레이드한 SAS 데이터통합서버를 통해 오픈소스 프레임워크인 하둡(Hadoop)을 전격 지원한다고 밝혔다. 이제 사용자들은 범용 오픈소스 데이터 환경에서도 SAS 비즈니스 분석(Business Analytics) 제품들을 활용해 빅 데이터 자산의 가치를 증대시킬 수 있다. 현재 아파치(Apache) 소프트웨어재단이 후원하는 하둡은 분산 컴퓨팅 환경에서 대량의 데이터를 처리하기 위한 자바(JAVA) 기반의 오픈소스 프레임워크로, SAS는 아파치 하둡 분산 환경과 통합된다. SAS는 하둡과의 통합 완성도를 높이기 위해 분산 컴퓨팅 구조인 맵리듀스(MapReduce)의 병렬 처리 방식을 적용하고, 이를 통해 일반적인 빅 데이터 분석과 분석 활용 가상 시나리오 작업 등이 간소화될 것이라고 설명했다. SAS코리아 조성식 대표는 “하둡의 가치와 활용도를 높이 평가하고 도입을 확대하려는 기업들이 늘어나면서 그 중요성이 점점 커지고 있다”면서, “SAS의 애널리틱스와 하둡이 통합되면 분산 처리 능력의 이점을 활용할 수 있을 뿐만 아니라 하둡 환경을 효과적으로 관리할 수 있다”고 말했다. editor@itworld.co.kr

SAS 하둡 빅 데이터 2012.04.02

크레아랩, B2B 소셜 분석 서비스 개발

‘빅데이터’ 분석 마케팅서비스 전문기업 크레아랩은 B2B 소셜 분석 서비스를 개발해 발표했다. 크레아랩이 개발한 B2B 서비스는 ▲팬과 기업과의 소통 글을 분석하고 확산하는 ‘팬페이지 분석’, ▲트위터를 통해 팔로워와 소통한 글을 분석하고 확산하는 ‘기업 트위터 분석’, ▲실시간 키워드, 키워드 추이, 연관 키워드, 경쟁 브랜드, 인플루언서 분석 등이 가능한 ‘브랜드 분석’, ▲주변 키워드와 조회수, 댓글 등 포스트의 확산 종합 분석이 가능한 ‘SNS 포스트 분석’, ▲특정 분야의 이슈 키워드 추출 및 분석할 수 있는 ‘업계 현황 분석’ 등으로 구성된다. 또한, 위기가 발생했을 때 해당 사안을 파악해 사실 관계 문서를 준비하고 각 채널과 직접 대응할 수 있도록 하며, 키워드 대상 전체 목록 보기, 실시간 통계 분석, 일일보고서 생성 등으로 기업 운영을 돕는다. 이 외에도 크레아랩과 협력 관계를 맺고 있는 블로거와 소셜러가 참여해 TI 시스템(토끼북 분석 시스템)을 활용한 바이럴 효과분석과 분석리포트 등을 제공하는 블로그, 소셜 마케팅 TI 대행 서비스도 제공할 예정이다. 현재 이슈 소셜 미디어 사이트 ‘토끼북(http://tokibook.com)을 운영하고 있는 크레아랩은 빅데이터의 처리 기술과 소셜미디어의 분석플랫폼을 확보하고 있으며, 페이스북과 유튜브의 데이터까지 수집해 소셜 평판 관리 시스템, 소셜 입소문 분석 시스템, 브랜드 마케팅 제어 센터, 엔터테인먼트 인기도 관리 등을 지원한다. 한편, 크레아랩에서 운영하고 있는 토끼북은 오는 3월 13일까지 사이트 오픈 이벤트를 실시한다. ‘도전 확산왕’, ‘토끼북을 메모해주세요’, ‘토끼 좋아요’ 등 다양한 이벤트를 통해 아이패드3, 리더십 오거나이저 메모...

빅 데이터 크레아랩 B2B 소셜 분석 서비스 2012.03.09

퀀텀, 빅 데이터 관리 위한 ‘스토어넥스트 어플라이언스’ 출시

퀀텀(www.quantum.com/kr)은 자사의 스토어넥스트(StorNext) 어플라이언스 제품군에 기하급수적으로 증가하는 비정형 데이터를 보다 효율적으로 관리할 수 있는 새로운 스토어넥스트 어플라이언스 신제품 2종을 추가했다고 발표했다. 이번에 추가된 스토어넥스트 G300 게이트웨이(StorNext G300 Gateway) 어플라이언스는 빅 데이터 환경에서 유연하며 효율적으로 데이터를 엑세스할 수 있도록 고속 네트워킹 기술들을 적용하고 보다 단순화시켰다. 두 가지 모델로 제공되는 게이트웨이 어플라이언스는 고성능 스토어넥스트 파일 시스템에 의해 관리되는 대용량 데이터들에 대한 IP 연결을 통해 가상 및 높은 가용성의 엑세스 기능을 제공하는 것이 특징이다. 스토어넥스트 G300 어플라이언스는 영화 편집, 변환 부호, 사이즈믹 프로세싱, 게놈 시퀀싱 등을 포함, 데이터 집약 부문 운영에 적합하다. 또한, 공유 빅 데이터 파일의 확장성을 지닌 인프라스트럭처에 고성능으로 병렬 엑세스(Parallel access)를 하고자 하는 사용자들에게 최적화돼 있다. 이와 함께, 퀀텀은 고성능 및 고가용성을 제공하는 스토어넥스트 QS2400 스토리지 시스템을 퀀텀 1차 디스크 제품 라인에 추가, 기업의 스토어넥스트 어플라이언스 제품군을 보다 강화했다. 퀀텀 파일 시스템 및 아카이브 제품 부문 수석 부사장 자네 스토우 리는 “디지털 콘텐츠를 비용대비 효과를 보려는 기업은 데이터를 보호하고 간편하게 엑세스할 수 있는 솔루션을 필요로 한다”며, “새로운 게이트웨이 어플라이언스는 이러한 문제를 해결하고자 하는 퀀텀의 노력이 반영된 결과로, 고객의 요구 사항을 해결하기 위한 지속적인 제품군 확대를 통해 빅 데이터 시장을 주도해나갈 것”이라고 덧붙였다. editor@itworld.co.kr

퀀텀 빅 데이터 스토어넥스트 어플라이언스 2012.03.08

인터뷰 | 더그 커팅, "오픈소스 하둡, 빅 데이터를 효과적으로 다룬다"

대량의 데이터 처리를 위해 만들어진 소프트웨어 프레임워크인 아파치 하둡의 창시자 더그 커팅과 만나 이야기를 나눴다.   2011년 '클라우드'에 이어 가장 큰 화두가 된 용어는 빅 데이터였다. 2012년 빅 데이터는 공공과 민간 분야의 많은 IT 조직들이 본격적으로 도입을 고민해야 할 기술이 될 것으로 보인다.   근본적인 문제는 결국 '최종 사용자가 생성하는, 많은 경우 막대한 양의 비정형 데이터를 어떻게 저장하고, 이것을 의미있고 유용한 정보로 변환하려면 어떻게 해야 하는가'다.   기업들이 이 문제를 해결하기 위해 도입한 툴 가운데 하나가 대규모 데이터의 분산 처리를 위한 오픈 소스 프레임워크인 하둡(Hadoop)이다.   하둡을 만든 더그 커팅은 "하둡을 통해 조직들은 이전보다 훨씬 더 많은 양의 정보를 분석할 수 있게 됐다"며, "하둡은 검색 엔진들이 웹 전체를 분석하기 위해 사용하는 기술을 토대로 개발됐다. 지금은 이 기술이 다른 많은 영역에서 사용되고 있다"고 말했다.   올해 안으로 하둡 2.0 출시될 듯  지난 1월 하둡은 마침내 버전 1.0에 도달했다. 현재 이 소프트웨어는 아파치 소프트웨어 재단의 후원하에 개발되고 있다.   커팅은 "올해에는 하둡 2.0이 나오게 된다. 향상된 성능과 높은 가용성, 분산 컴퓨팅 메타포의 증대를 통해 더 많은 애플리케이션을 지원할 것이다. 하둡은 빅 데이터를 위한 분산 운영 체제 커널이 되고 있다"고 전했다.   하둡의 모태는 오픈 소스 검색 엔진을 만들기 위한 프로젝트인 너치(Nutch)다. 커팅도 참여했던 너치 역시 아파치 소프트웨어 재단에서 개발하고 있다.    커팅은 "하둡을 중심으로 한 생태계에서 현재 ...

하둡 빅 데이터 더그 커팅 2012.03.06

준비없는 빅 데이터, "커다란 혼란 야기"

요즘 빅 데이터에 대해 이런저런 말들이 많이 나오면서 기업들이 빅 데이터 관리 문제에 점점 더 많은 관심을 기울이고 있지만, 사실 대부분 빅 데이터가 무엇인지 제대로 이해조차 못하고 있다.   기업용과 클라우드용 LSIP(log and security intelligence platform)을 전문으로 하는 업체인 로그로직 CMO 맨딥 케라에 따르면 기업들은 자신들 손에 쥐어진 수많은 데이터를 효율적으로 관리할 제대로 된 툴도 갖고 있지 않다.   케라는 "기업 대부분은 빅 데이터에 대해 걱정하고 있지만 여전히 그것의 의미를 파악하지 못하고 있다. 빅 데이터에 대해 너무 많은 말들이 오고 갔기 때문에 오히려 명확한 정의가 없고 모든 사람들이 혼란스러워 하는 상태"라고 전했다.   IT 보안리서치 컨설팅업체 애쉴론 원과 로그로직이 함께 수행한 이번 조사에서는 기업 가운데 49%가 빅 데이터 관리에 대해 어느 정도 혹은 아주 많이 신경쓰고 있지만, 38%는 빅 데이터가 무엇인지 알지 못하며, 그 외 27%는 부분적으로만 이해하고 있는 것으로 밝혀졌다.    뿐만 아니라 이 조사에서는 기업의 59%가 자사 IT 시스템에서 나온 데이터를 관리하기 위한 툴을 갖고 있지 않으며, 그 대신 분리된 개별 시스템 혹은 심지어 스프레드 시트로 전환, 관리하고 있는 것으로 나타났다.    케라는 "데이터는 보안, IT 운용, 컴플라이언스 등 여러 측면에서 중요하다는 사실을 알고 있다. 기업들은 더 현명한 의사 결정을 내릴 수 있도록 훨씬 더 효과적으로 데이터를 관리해야 한다"고 주장했다.    전세계적으로 진행된 이 설문조사는 부장급 이상 등급의 207명을 대상으로, 응답자들은 제조업체, 교육, 정부, 금융, 의료, 운송, 미디어, 출판 등등 다양한 업계에 몸담고 있다. ...

빅 데이터 2012.02.28

글로벌 칼럼 | "하둡 축제를 준비하자"

오늘날 비즈니스 테크놀로지 세계에서 빅 데이터라는 주제를 다루지 않고서는 말하지 못한다.    간단히 말하면 빅 데이터는 큰 볼륨의, 빠르고 다양한 데이터 세트에 관한 것이며, 전통적인 데이터베이스 툴로는 관리하기가 불가능하다.    2011년 전세계 데이터 출력량은 1.8제타바이트(1제타바이트는 10억테라바이트)였다. 더 충격적인 것은 전세계 데이터의 90%는 불과 2년 전사이에 만들어진 것으로 추정된다는 점이다.    데이터의 폭발적인 증가에는 물론, 비정형 데이터가 있다. 지난해 HP 디스커버 컨퍼런스에서 오토노미 CEO이자 정보관리 부사장인 마이크 린치는 "IT 세계는 정형화, 컴퓨터 친화적인 정보- 잘 관리되어진 원 데이터와 칼럼-에서 단지 문서뿐만 아니라 비디오, 오디오, 이미지를 포함한 이메일과 소셜 미디어와 같이 다양한 소스로부터 나온 비정형, 인간 친화적인 데이터로 이동하고 있다"고 말했다.    아파치 하둡과 관련해 빅 데이터가 떠오른다는 주장이 혹시 소음으로 들릴 지 모른다. 무료 라이선스인 이 소프트웨어 프레임워크는 데이터 집약적인 분산형 애플리케이션들을 지원한다.   하둡은 애플리케이션들이 수천 노드와 페타바이트 급(1,000 테라바이트) 데이터를 실행할 수 있게 한다. 이는 확실히 비정형 데이터 체계화를 위한 성배처럼 보여 모든 이들이 하둡에 편승하는 것에 의문을 갖지 않는다.     웹으로 빠르게 검색해보면 불과 몇 달만에 EMC, 마이크로소프트, IBM, 오라클, 인포메티카, HP, 델, 클라우데라 등등의 업체들은 모두 이 소프트웨어 프레임워크를 채택했다는 것을 알게 될 것이다.    필자는 비즈니스 규모와 스토리지 비용 절감 양쪽 측면에서 하둡을 사용한 야후, 아마존, 컴스코어, AOL과 같은 업체에...

하둡 빅 데이터 2012.01.27

빅 데이터를 위한 개방형 프레임워크, “하둡"의 이해 - IDG Tech Report

이제 하둡(Hadoop)이라는 단어를 처음 접하는IT 전문가는 없을 것이다. 하지만, HDFS, 맵 리듀스, H베이스, 너치, 피그, 하이브 등의 단어가 쏟아져 나오면, DB 전문가가 아닌 이상 갈피를 잡지 못할 것이다. 하둡이란 도대체 무엇인지 기본적인 개념을 이해하고, 이를 구성하는 요소와 하둡의 서브 프로젝트는 어떤 것들이 있는지, 그리고 하둡의 도입 효과는 어떠한지 알아보자.   주요 내용 - 하둡이란 무엇인가 - 하둡의 구성 요소와 하부 프로젝트 - 하둡의 효과 - 하둡의 향후 과제와 발전 방향 

하둡 빅 데이터 HDFS 2012.01.26

빅 데이터의 열쇠 하둡 총정리 3 RDBMS에서 하둡으로 가는 길

하둡이 적합하다고 생각되는 관리자가 있으면 데이터 프레임워크로 구성된 오픈소스 소프트웨어를 다운로드받아 비교적 쉽게 시험해볼 수 있다.   지금까지 하둡 총정리를 통해 하둡을 관리하기 위해 갖춰야 하는 것들, 그리고 하둡을 사용하는데 따른 이익과 문제점들을 알아보았다.    이번 마지막 회에서는 기존의 RDBMS에서 하둡으로 옮겨가는데 따른 비용과 관계된 기술들을 살펴보고, 기업들이 현재 어떻게 하둡을 설치하는지, 하둡 데이터를 다른 어떤 RDBMS보다 훨씬 빠르고 저렴하게 분석하는데 사용할만한 툴 등을 살펴 볼 것이다.   새롭게 부상하는 기술들, 특히 오픈소스의 기술들이 그렇듯, 하둡 역시 원하는 IT 업체들이 직접 시험함으로써 이에 따른 이익을 누리고 있다.    현재 하둡은 기술 미디어와 컨퍼런스 등에서 더 많이 주목받았으며, 이에 따라 최고 경영진들이 하둡의 열풍에 덩달아 뛰어들어 하둡이 기업 비용을 얼마나 줄여 줄 수 있는지 직접 보고 싶어한다.    하둡의 도입에는 현장에서부터(Bottom up) 혹은 경영진으로부터(Top down) 시작되는 두 가지 방식이 있는데, 지금부터 도입 방식에 대해 자세히 들여다보자.   바텀 업 방식, IT 부서가 주도  그림자 같은 IT는 기업에게 있어 하나의 축복이거나 혹은 골칫덩어리다. 하지만 종종 실험적인 구성 혹은 샌드박스(sandbox) 구성이 결국에는 기업에게 엄청난 이익을 안겨주곤 했다. 한 예로 리눅스는 21세기 초에 이런 그림자 IT에 의해 성장한 수혜자다.   아파치 소프트웨어재단(Apache Software Foundation)의 아파치 하둡 부사장 아룬 머시는 "이제 하둡 차례"라고 주장했다.   머시는 "바텀 업 방식의 경우 보통 한두 명의 ...

하둡 빅 데이터 하이브 2012.01.18

2012년 빅 데이터 시장, 더 커지고 더 뜨거워진다

모든 기업 소프트웨어 업체들은 자신들의 제품이 얼마나 큰 인기를 끌고 있는지 설명하려 할 것이다. 하지만 BI와 고급 분석에 관한 생각은 사실이다. 이 제품들은 기업들이 자신들의 사업에 통찰력을 가짐으로써 새로운 아이디어뿐만 아니라 효율성을 극대화하면서 세계 경제 침체의 상황에서도 판매가 지속됐다.   올해 "빅 데이터(Big Data)"라는 용어는 몇 년 전 유비쿼터스 만큼이나 유행이었고 2012년에는 해당 분석 시장이 더욱 크게 성장할 것으로 전망된다. 오늘은 전문가들이 말하는 분석과 관련된 2012년 최대의 화두를 다뤄보고 빅 데이터 분석 시장의 미래를 조망해 보도록 하자.   빅 데이터는 사라지지 않는다 전문 용어로써 빅 데이터는 새로운 SOA(Serivce Oriented Architecture)로 보이며 모든 업체들이 자사의 제품으로 이에 편승하려는 것 같다. 모두들 똑같은 문제를 해결할 수 있다고 주장하고 있다. 즉, 업무에 사용되는 비즈니스 애플리케이션뿐 아니라 소셜 네트워킹 사이트, 센서에서 취합한 비정형 데이터 등이 산처럼 쌓이고 있는 정보에서 가치를 이끌어 낼 수 있다는 것이다.   이 가운데서도 하둡(Hadoop) 오픈소스 프로그래밍 프레임워크는 빅 데이터와 긴밀한 관계를 맺고 있다. 해당 시장에서 하둡 기반의 데이터 저장 기기들이 "내년에 가장 뜨거운 새로운 플랫폼이 될 것"이라고 포레스터 리서치의 애널리스트 제임스 코빌러스는 전했다. 또한 더 많은 기업들이 하둡과 관련된 컨설팅 서비스, 모델링 툴 등의 제품을 선보일 것이다.   인메모리 처리가 화두가 될 것이다 SAP는 지난 18개월 동안 자사의 하나(HANA) 인메모리 데이터베이스의 장점을 강조해 왔다. SAP에 따르면 하나는 전통적인 디스크 대신에 램(RAM)에서 정보를 처리하도록 하기 때문에 데이터 연구와 분석의 속도를 극대화시킨다고 한다...

HP 전망 BI 2011.12.29

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.