클라우드

글로벌 칼럼 | 성공적인 데이터옵스 운영을 위해 측정해야 할 요소는?

Isaac Sacolick | InfoWorld 2022.07.28
품질을 측정하려면 주관적인 속성을 정량화하는 과정이 필요하다. 측정값 또는 성과 지표 같은 형태로 만드는 것이다. 그런 객관적 측정은 기업의 운영과 결과물을 개선한다. 하지만 품질 측정 과정에는 비용이 발생하고, 인력도 필요하다. 또한 어떤 항목까지 사람이 직접 추적해야 하는지도 정해야 한다. 따라서 기업은 무엇이 비즈니스에 가장 영향을 줄지 고민하고 측정 항목을 무엇으로 할지 잘 선택해야 한다. 
 
ⓒ Getty Images Bank

일반적으로 나쁜 품질이 무엇인지는 금방 포착할 수 있어도 좋을 품질은 파악하기 어렵다. 사람마다 좋은 품질의 정의가 다 다르기 때문이다. 그래서 품질을 구성하는 요건을 잘 정해 놓으면 낮은 품질을 규정하는 과정이 쉬어질 뿐만 아니라 품질을 더 높이고, 나아가 최고의 품질을 달성할 때 도움받을 수 있다. 

데이터 업계에서도 다양한 단계에서 품질을 파악한다. 결과물을 확인하는 담당자는 데이터 시각화 자료나 머신러닝 모델의 결과를 들여다보면서 데이터 품질의 수준을 확인한다. 데이터 과학자는 데이터 분석 준비나 데이터 품질 관리 툴을 사용해서 데이터 소스를 프로파일링하고 데이터 필드의 품질을 개선하거나 필요 없는 데이터를 없앤다. 가령 우편번호가 빠진 주소가 활용됐다면 데이터가 누락된 것이고, 풀어 쓴 이름(New York)과 약어(NY)가 하나의 데이터에 뒤섞였다면 정규화가 잘 이뤄지지 않은 것이다. 
 

데이터 품질을 개선하는 '시프트 레프트' 전략

데이터 품질을 개선하기 위해 ‘시프트 레프트(Shift-left)’ 전략을 취해볼 수 있다. 즉 데이터옵스 운영 방식으로 품질을 측정하고 개선 사항을 자동화하는 것이다. 데이터옵스는 데이터를 통합, 변환, 결합하고, 데이터의 활용성을 높이는 모든 과정을 말한다. 고품질 데이터를 이용해 하향식 분석, 데이터 시각화, 머신러닝 활용이 일관적으로 운영하도록 돕기 때문에, 데이터 품질 문제를 파악하고 해결할 수 있다. 최신 연구 및 기사에서 소개되는 데이터 품질 기준은 6가지로 ▲정확성 ▲완전성 ▲일관성 ▲적시성 ▲고유성 ▲유효성이다.

데이터 웨어하우스와 데이터베이스의 데이터 품질을 측정할 때는 일관성과 같은 내부적인 데이터 품질 조건은 독립적으로 유지되며, 안정성 같은 외부 조건은 분석 상황에 따라 달라질 수 있다는 점과 대비된다. 절대적인 수치를 쓰는 것보다 데이터 오류 비율 혹은 데이터 변환 오류율 같은 비율로 데이터 품질을 측정할 때 훨씬 더 나은 메커니즘을 구현할 수 있다. 

문제는 어디서 무엇부터 시작해야 하는지, 그리고 데이터옵스 중에서도 어떤 개선 사항과 기준을 우선시해야 하는지 알기 어렵다는 점이다. 전문가들은 그 해답을 다음과 같이 제시한다. 
 

정확성, 완전성, 사용성

탈렌드(Talend)의 필드 솔루션 전략 책임자인 사이먼 스완은 “경영진의 60%는 자신이 다루는 데이터를 항상 신뢰하지는 않는다. 데이터 기반의 의사 결정을 확대할 때 큰 문제가 되는 사항이다”라고 밝혔다.

스완은 데이터옵스 팀을 위한 제안으로 “첫째 데이터옵스 팀은 정확성, 완전성, 사용성에 관한 데이터 품질 기준을 가장 먼저 개선해야 한다. 그 과정 속에서 사업에 도움을 주는, 눈에 보이는 통찰력을 얻을 수 있을 것”이라고 말했다. 구체적으로 다음과 같은 작업으로 세가지 요소를 개선할 수 있다. 

정확성 : 데이터옵스는 참조 가능한 데이터 소스를 통합하고, 데이터 스튜어드가 자동화된 규칙 및 예외 워크플로우로 충돌을 해결할 때 정확성이 개선된다.

완전성 : 완전성은 사람, 제품 같은 개체 데이터와 관련된 중요한 품질 기준이다. 마스터 데이터 관리 및 고객 데이터 플랫폼을 위한 기술은 데이터옵스 팀에서 여러 데이터 소스를 사용해 기준 레코드를 중앙화하고 완성하는 데 도움을 준다.

사용성 : 데이터 구조의 간소화, 액세스 중앙화, 데이터 사전을 문서화하는 방법으로 사용성이 개선된다.

스완은 “데이터를 신뢰하면 데이터옵스 팀에 운영 탄력성 지표와 사실에 근거한 통찰력을 즉시 제공하며, 비즈니스 성과를 개선할 수 있는 민첩성을 부여한다”라고 덧붙였다.
 

데이터 및 시스템의 가용성

비즈니스 책임자가 데이터를 신뢰하면 의사 결정, 분석, 예측 과정에 데이터를 더 많이 사용한다. 자연스레 시스템의 가용성과 안정성에 대한 관심도 높아진다. 데이터와 네트워크, 핵심 데이터 소스에 접근하기 위해서다. 매틸리언(Matillion)의 개발자 홍보팀 매니저 이안 퍼넬은 “데이터 품질의 최우선 기준점은 가용성이다. 데이터 품질은 소스 데이터에서 시작한다. 비즈니스를 운영하는 것은 소스 데이터이기 때문”이라고 말했다.

퍼넬은 또한 데이터옵스가 데이터 및 시스템 개선을 이끌 수 있다는 것을 보여줘야 한다면서 “데이터옵스는 데이터 처리 수명 주기의 자동화와 관계가 있다. 그 자동화로 데이터를 통합할 수 있다. 또한 데이터옵스로 빠르고 안정적으로 데이터를 처리하고 변경할 할 수 있다”라고 말했다.

몬테 카를로 데이터(Monte Carlo Data)의 CEO 바 모제스 역시 “몇 년 동안 수많은 데이터 팀과 데이터 품질의 영향과 측정 방법에 대해 이야기해보았다. 중요한 기준은 두 가지로 데이터 다운타임의 감지 시간과 해결 시간이다. 이 부분을 염두하고 시작하는 것이 좋다”고 말했다.

모제스는 “데이터 다운타임은 망가지거나 잘못되거나 기타 부정확한 데이터로 인해 발생하는 시간이며, 탐지 시간(TTD)과 해결 시간(TTR)을 더하고 여기에 문제 해결에 소요되는 엔지니어링 시간을 곱해서 측정할 수 있다”라고 말했다. 또한 모제스는 “다운타임 측정은 재무 실적과 연관된 데이터옵스의 핵심 성과 지표를 만들 때 쓸 수 있다. TTD, TTR 및 데이터 다운타임 계산 방식은 데브옵스 운영 과정에서 영감을 받아 직접 테스트하며 만들었다. 낮은 데이터 품질이 재무 상황에 미치는 영향을 더 쉽게 정량화할 수 있을 것”이라고 말했다.
 

데이터 적시성과 실시간 데이터옵스

언레블 데이터(Unravel Data)의 CEO 쿠날 아가왈은 데이터옵스가 기본적인 데이터 품질 및 가용성 기준을 넘어 실시간 역량에 더 집중해야 한다면서 “대부분의 데이터 품질 기준은 정확성, 완전성, 일관성, 무결성에 초점을 두는데, 데이터 적시성도 꼭 염두에 둬야한다”라고 강조했다.

적시성은 공급자 및 배치 처리 지연을 포함해 캡처, 처리, 가용성에서 데이터 흐름을 처음부터 끝까지 포착한다. 아가왈은 “안정적인 적시성 기준으로 내부 및 서드파티 업체의 SLA를 훨씬 더 쉽게 평가하고 수행할 수 있다. 궁극적으로 데이터 분석의 성능과 속도를 높인다”고 설명했다. 

스완 역시 데이터 적시성 개선의 중요성에 공감하며 “데이터옵스는 높은 속도와 적시성을 보장해 사용자들이 모든 환경에서 최신 데이터에 접근할 수 있도록 지원해야 한다. 데이터는 실시간에 가깝게 비즈니스의 요구에 보조를 맞춰야만 효용성이 있다”라고 말했다.

비즈니스 리더가 데이터를 신뢰하고 실시간에 가까운 데이터를 제공받는 환경을 만드는 것은 쉽지 않다. 많은 기업이 데이터 부채 문제, 분석된 적이 없는 많은 다크 데이터를 보유하고 있으며 스프레드시트에 과도하게 의존한다. 데이터 품질 측정 기준을 마련할 수 있다면, 비즈니스, 데이터 과학자, 기술 리더들의 지지를 보다 쉽게 이끌어낼 수 있을 것이다. 
editor@itworld.co.kr 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.