2015.09.17

빅데이터를 사용해 IT 운영의 변화를 이끄는 방법

Jesse Rothstein ExtraHop CEO | Network World
지난 5년 동안 기업 시장에는 빅데이터가 들불처럼 번졌고 IT 부서도 예외는 아니었다. 특히 IT 부서를 지원부서에서 수익센터로 변모시킬 수 있다는 데이터 지향 이니셔티브(data-driven initiatives)라는 달콤한 말은 폭발적인 관심을 불러 일으켰다.

데이터센터 규모와 복잡성, 활동량은 사일로 기반의 인프라스트럭처를 중심으로 한 IT 운영 관리 역량을 빠르게 앞질렀다.

IT를 더 스마트하고 기민하게 해준다는 약속과 함께 IT 빅데이터 분석이 새로운 IT 운영 관리의 표준 방법으로 부상했다. 차세대 운영 인텔리전스 제품이라면 거의 모두 일정 수준의 데이터 분석을 포함하고 있다. 그러나 많은 기업들이 직접 경험했듯이, 빅데이터가 항상 성공적인 결과로 이어지지는 않는다.

빅데이터의 4V(Volume(크기), Velocity(속도), Variety(다양성), Veracity(진실성))가 빅데이터를 구축하기 위한 기둥이라고 하지만 여기에 다섯번째 V, 즉 가치(Value)도 포함해야 한다.

모든 빅데이터 이니셔티브는 "이를 통해 얻고자 하는 가치는 무엇인가?"라는 질문으로 시작돼야 한다. 이 질문에 대한 답에 따라 그룹이나 조직이 그 결과를 달성하기 위한 수단이 좌우된다. 그러나 지금까지 가치의 V에 관심을 기울이는 사람은 별로 없다.

조직이 데이터에서 최대한의 가치를 끌어내려면 어떻게 해야 할까? 우선 세 가지 핵심 영역에 주목해야 한다.

데이터 중력(data gravity) 이해
'데이터 중력'은 바쇼 테크놀로지(Basho Technologies) CTO 데이브 맥크로리가 처음 사용한 용어로, 데이터가 관련 서비스와 애플리케이션을 끌어당기는 힘을 의미한다.

맥크로리에 따르면 데이터는 두 가지 방법으로 중력을 행사한다. 첫째, 데이터가 없으면 애플리케이션과 서비스는 사실상 쓸모가 없다. 이런 이유로 애플리케이션과 서비스 공급자는 자연스럽게 데이터에 끌려 움직이게 되며, 데이터 집합의 크기가 클수록 더 많은 애플리케이션과 서비스가 그 데이터에 이끌리게 된다.

둘째, 데이터 집합이 클수록 움직이기가 더 어려워진다. 일반적으로 데이터와 가까운 위치에서 처리를 수행하는 편이 더 효과적이고 비용 효율적이다. 대기업들은 IT 운영 데이터에 클라우드 기반 서비스를 사용하는 경우가 많은데, 데이터 자체도 동일한 클라우드에 위치한다면 별 문제가 없다. 기업 내부에서 생성된 데이터라 해도 크기가 작다면 클라우드에 저장해 분석할 수 있다.

그러나 그 클라우드 외부에서 대용량의 데이터가 생성되는 경우 문제가 발생한다. 예를 들어 기업은 단순히 텔레메트리를 업로드하기 위한 용도로 별도의 전용 대역폭을 구매해야 한다. 대역폭을 구매하더라도 데이터의 용량이 너무 커서 현지의 포워딩이 지연될 경우 결과적으로 몇 시간 뒤에야 데이터를 사용할 수 있게 된다. 이와 같은 경우 데이터 중력을 이해하고 데이터가 생성되는 위치와 가까운 곳에서 데이터를 처리하는 것이 중요하다.

신호 대 잡음 비율에 유의
빅데이터에서는 '입력이 무의미하면 출력도 무의미하다'는 말이 그대로 적용된다. 품질이 떨어지고 신호 대 잡음 비율이 낮은 데이터 소스가 있다. 애플리케이션 로그가 대표적인 예다. 많은 애플리케이션에서 예외와 로그 오류를 정상적인 운영의 일부로 사용한다. 상세 로깅(verbose logging)을 활성화하면 유용한 정보를 얻을 수 있지만 엄청난 양의 쓸데없는 잡음도 같이 따라온다.

또 다른 예는 대규모 데이터 침해 사건과 관련해 뉴스에 종종 언급되는 위협 탐지 시스템이다. 위협 탐지 시스템은 매일 IT와 보안 팀이 실제로 조사할 수 있는 범위를 훨씬 뛰어넘는 수천 개의 경고를 생성한다. 신호 대 잡음 비율이 낮은만큼 담당 부서에서는 경고 자체를 모두 무시하게 되기 쉽고, 결과적으로 그 혼란 중에 숨어 있는 실제 위협을 놓치게 된다.

이런 잡음 속에서 신호를 찾기란 어렵다. 시간이 절대적으로 중요한 상황에서는 잡음을 일일이 헤치고 나아가는 것이 불가능할 수 있다. 쓰레기 더미를 꼼꼼하게 추려내다 보면 주어진 시간 내에 필요한 정보를 찾을 가능성은 급격히 낮아진다.

데이터의 움직임 고려
분석하고자 하는 데이터가 보관된 상태인가, 이동 중인 상태인가? 이에 대한 답은 데이터를 처리하고 보고 분석하는 방법과 거기서 도출할 수 있는 가치에 막대한 영향을 미친다.

대부분의 빅데이터는 보관 상태이며, 샤딩(sharding) 또는 맵리듀스(MapReduce) 기반 기술을 사용하는 인덱싱 및 병렬 처리에 의존하는 일괄 프로세스를 통해 사후에 분석된다.

기본적으로 이 접근 방법의 핵심은 볼륨과 다양성이며 기업들은 다양한 구조적 및 비구조적 데이터에 대해 하둡, 몽고DB(MongoDB), 카산드라(Cassandra)와 같은 여러 프레임워크와 데이터 스토어를 활용하고 있다. 복수의 데이터 소스는 맥락과 넓은 시야를 제공하지만 이 방법은 항상 뒤를 돌아보는 방식이다.

최근에는 더 높은 민첩성과 적응성에 대한 요구에 따라 더 빠른 속도의 분석에 대한 수요가 높아지고 있으며, 그 결과 이동 중인 데이터에 큰 관심이 쏠리고 있다.

대형 소매점의 CIO라고 가정해 보자. 사이버 먼데이(Cyber Monday)를 맞아 웹 사이트 페이지 로드 시간이 평균 30초가 걸리고 있다. 사후 분석은 사이버 먼데이에 대처하는 데 별 도움이 되지 않는다. CEO에게 '내년에는 이런 일이 없을 것'이라고 보고하는 정도가 전부다.

이 CIO는 무엇이 문제이며, 어떻게 해결해야 하는지 즉각 파악해야 한다. 이런 상황에서 가장 중요한 것은 고속으로 이동하는 데이터다. 이 데이터는 현재 시스템 현황을 파악하고 이를 미리 정립해 둔 기준과 비교하고 심층적인 분석을 통해 문제의 원인을 찾을 수 있는 역량을 IT 부서에 부여해준다.

이동 중인 데이터는 큰 가치를 제공하지만 이 데이터를 분석하기 위해서는 스트림 프로세싱과 요약 메트릭스를 기반으로 하는, 근본적으로 다른 접근 방법이 필요하다.

데이터 볼륨이 너무 커서 이동 중에 처리할 수밖에 없는 경우가 많다. 또한 실시간 정보가 더 가치 있고 이전 데이터의 가치는 떨어지는 경우도 있다. 예를 들어 와이어 데이터(wire data)의 경우 저장하기엔 볼륨이 너무 방대하지만 IT 환경의 실시간 현황에 대한 질문에 답하는 데 있어 효용 가치가 매우 크다.

결국 중요한 것은 모든 사람이 만족할 수 있는 하나의 데이터 집합 또는 분석 프레임워크는 없다는 것이다.

하나의 창을 제공하는 도구는 대부분 하나의 골칫거리만 더 더해줄 뿐이다. IT 팀은 복수의 데이터 집합과 분석, 그리고 널리 사용되는 데이터 형식과 목표에 최적화된 가상화 제품을 활용함으로써 상관 관계 속에서 여러 계층에 걸쳐 완벽하게 현재 환경을 볼 수 있으며, 이를 통해 불필요한 소모를 없애고 효율성을 높이고 희소 리소스를 최대한 이용할 수 있다.

이 접근 방법은 IT 부서뿐만 아니라 기업 전체의 가치를 높여준다. editor@itworld.co.kr

*Jesse Rothstein은 IT 인텔리전스와 비즈니스 운영을 위한 실시간 와이어 데이터 분석의 전문업체인 익스트라홉(ExtraHop)의 CEO이자 공동 창업자다.


2015.09.17

빅데이터를 사용해 IT 운영의 변화를 이끄는 방법

Jesse Rothstein ExtraHop CEO | Network World
지난 5년 동안 기업 시장에는 빅데이터가 들불처럼 번졌고 IT 부서도 예외는 아니었다. 특히 IT 부서를 지원부서에서 수익센터로 변모시킬 수 있다는 데이터 지향 이니셔티브(data-driven initiatives)라는 달콤한 말은 폭발적인 관심을 불러 일으켰다.

데이터센터 규모와 복잡성, 활동량은 사일로 기반의 인프라스트럭처를 중심으로 한 IT 운영 관리 역량을 빠르게 앞질렀다.

IT를 더 스마트하고 기민하게 해준다는 약속과 함께 IT 빅데이터 분석이 새로운 IT 운영 관리의 표준 방법으로 부상했다. 차세대 운영 인텔리전스 제품이라면 거의 모두 일정 수준의 데이터 분석을 포함하고 있다. 그러나 많은 기업들이 직접 경험했듯이, 빅데이터가 항상 성공적인 결과로 이어지지는 않는다.

빅데이터의 4V(Volume(크기), Velocity(속도), Variety(다양성), Veracity(진실성))가 빅데이터를 구축하기 위한 기둥이라고 하지만 여기에 다섯번째 V, 즉 가치(Value)도 포함해야 한다.

모든 빅데이터 이니셔티브는 "이를 통해 얻고자 하는 가치는 무엇인가?"라는 질문으로 시작돼야 한다. 이 질문에 대한 답에 따라 그룹이나 조직이 그 결과를 달성하기 위한 수단이 좌우된다. 그러나 지금까지 가치의 V에 관심을 기울이는 사람은 별로 없다.

조직이 데이터에서 최대한의 가치를 끌어내려면 어떻게 해야 할까? 우선 세 가지 핵심 영역에 주목해야 한다.

데이터 중력(data gravity) 이해
'데이터 중력'은 바쇼 테크놀로지(Basho Technologies) CTO 데이브 맥크로리가 처음 사용한 용어로, 데이터가 관련 서비스와 애플리케이션을 끌어당기는 힘을 의미한다.

맥크로리에 따르면 데이터는 두 가지 방법으로 중력을 행사한다. 첫째, 데이터가 없으면 애플리케이션과 서비스는 사실상 쓸모가 없다. 이런 이유로 애플리케이션과 서비스 공급자는 자연스럽게 데이터에 끌려 움직이게 되며, 데이터 집합의 크기가 클수록 더 많은 애플리케이션과 서비스가 그 데이터에 이끌리게 된다.

둘째, 데이터 집합이 클수록 움직이기가 더 어려워진다. 일반적으로 데이터와 가까운 위치에서 처리를 수행하는 편이 더 효과적이고 비용 효율적이다. 대기업들은 IT 운영 데이터에 클라우드 기반 서비스를 사용하는 경우가 많은데, 데이터 자체도 동일한 클라우드에 위치한다면 별 문제가 없다. 기업 내부에서 생성된 데이터라 해도 크기가 작다면 클라우드에 저장해 분석할 수 있다.

그러나 그 클라우드 외부에서 대용량의 데이터가 생성되는 경우 문제가 발생한다. 예를 들어 기업은 단순히 텔레메트리를 업로드하기 위한 용도로 별도의 전용 대역폭을 구매해야 한다. 대역폭을 구매하더라도 데이터의 용량이 너무 커서 현지의 포워딩이 지연될 경우 결과적으로 몇 시간 뒤에야 데이터를 사용할 수 있게 된다. 이와 같은 경우 데이터 중력을 이해하고 데이터가 생성되는 위치와 가까운 곳에서 데이터를 처리하는 것이 중요하다.

신호 대 잡음 비율에 유의
빅데이터에서는 '입력이 무의미하면 출력도 무의미하다'는 말이 그대로 적용된다. 품질이 떨어지고 신호 대 잡음 비율이 낮은 데이터 소스가 있다. 애플리케이션 로그가 대표적인 예다. 많은 애플리케이션에서 예외와 로그 오류를 정상적인 운영의 일부로 사용한다. 상세 로깅(verbose logging)을 활성화하면 유용한 정보를 얻을 수 있지만 엄청난 양의 쓸데없는 잡음도 같이 따라온다.

또 다른 예는 대규모 데이터 침해 사건과 관련해 뉴스에 종종 언급되는 위협 탐지 시스템이다. 위협 탐지 시스템은 매일 IT와 보안 팀이 실제로 조사할 수 있는 범위를 훨씬 뛰어넘는 수천 개의 경고를 생성한다. 신호 대 잡음 비율이 낮은만큼 담당 부서에서는 경고 자체를 모두 무시하게 되기 쉽고, 결과적으로 그 혼란 중에 숨어 있는 실제 위협을 놓치게 된다.

이런 잡음 속에서 신호를 찾기란 어렵다. 시간이 절대적으로 중요한 상황에서는 잡음을 일일이 헤치고 나아가는 것이 불가능할 수 있다. 쓰레기 더미를 꼼꼼하게 추려내다 보면 주어진 시간 내에 필요한 정보를 찾을 가능성은 급격히 낮아진다.

데이터의 움직임 고려
분석하고자 하는 데이터가 보관된 상태인가, 이동 중인 상태인가? 이에 대한 답은 데이터를 처리하고 보고 분석하는 방법과 거기서 도출할 수 있는 가치에 막대한 영향을 미친다.

대부분의 빅데이터는 보관 상태이며, 샤딩(sharding) 또는 맵리듀스(MapReduce) 기반 기술을 사용하는 인덱싱 및 병렬 처리에 의존하는 일괄 프로세스를 통해 사후에 분석된다.

기본적으로 이 접근 방법의 핵심은 볼륨과 다양성이며 기업들은 다양한 구조적 및 비구조적 데이터에 대해 하둡, 몽고DB(MongoDB), 카산드라(Cassandra)와 같은 여러 프레임워크와 데이터 스토어를 활용하고 있다. 복수의 데이터 소스는 맥락과 넓은 시야를 제공하지만 이 방법은 항상 뒤를 돌아보는 방식이다.

최근에는 더 높은 민첩성과 적응성에 대한 요구에 따라 더 빠른 속도의 분석에 대한 수요가 높아지고 있으며, 그 결과 이동 중인 데이터에 큰 관심이 쏠리고 있다.

대형 소매점의 CIO라고 가정해 보자. 사이버 먼데이(Cyber Monday)를 맞아 웹 사이트 페이지 로드 시간이 평균 30초가 걸리고 있다. 사후 분석은 사이버 먼데이에 대처하는 데 별 도움이 되지 않는다. CEO에게 '내년에는 이런 일이 없을 것'이라고 보고하는 정도가 전부다.

이 CIO는 무엇이 문제이며, 어떻게 해결해야 하는지 즉각 파악해야 한다. 이런 상황에서 가장 중요한 것은 고속으로 이동하는 데이터다. 이 데이터는 현재 시스템 현황을 파악하고 이를 미리 정립해 둔 기준과 비교하고 심층적인 분석을 통해 문제의 원인을 찾을 수 있는 역량을 IT 부서에 부여해준다.

이동 중인 데이터는 큰 가치를 제공하지만 이 데이터를 분석하기 위해서는 스트림 프로세싱과 요약 메트릭스를 기반으로 하는, 근본적으로 다른 접근 방법이 필요하다.

데이터 볼륨이 너무 커서 이동 중에 처리할 수밖에 없는 경우가 많다. 또한 실시간 정보가 더 가치 있고 이전 데이터의 가치는 떨어지는 경우도 있다. 예를 들어 와이어 데이터(wire data)의 경우 저장하기엔 볼륨이 너무 방대하지만 IT 환경의 실시간 현황에 대한 질문에 답하는 데 있어 효용 가치가 매우 크다.

결국 중요한 것은 모든 사람이 만족할 수 있는 하나의 데이터 집합 또는 분석 프레임워크는 없다는 것이다.

하나의 창을 제공하는 도구는 대부분 하나의 골칫거리만 더 더해줄 뿐이다. IT 팀은 복수의 데이터 집합과 분석, 그리고 널리 사용되는 데이터 형식과 목표에 최적화된 가상화 제품을 활용함으로써 상관 관계 속에서 여러 계층에 걸쳐 완벽하게 현재 환경을 볼 수 있으며, 이를 통해 불필요한 소모를 없애고 효율성을 높이고 희소 리소스를 최대한 이용할 수 있다.

이 접근 방법은 IT 부서뿐만 아니라 기업 전체의 가치를 높여준다. editor@itworld.co.kr

*Jesse Rothstein은 IT 인텔리전스와 비즈니스 운영을 위한 실시간 와이어 데이터 분석의 전문업체인 익스트라홉(ExtraHop)의 CEO이자 공동 창업자다.


X