2018.08.14

"데이터를 넣으면 인텔리전스가 나온다" 머신러닝 파이프라인 풀어보기

Serdar Yegulalp | InfoWorld

머신러닝(Machine Learning)을 보면 마술 상자가 생각난다. 데이터를 집어넣으면 예측이 나온다. 하지만 머신러닝에 마술은 없다. 데이터와 알고리즘, 그리고 알고리즘을 통해 데이터를 처리함으로써 만들어지는 모델이 있을 뿐이다.

머신러닝을 통해 데이터에서 실체적 인사이트를 도출하는 일을 하는 사람에게는 이 프로세스가 블랙박스처럼 느껴져서는 안 된다. 상자 내부에 대해 잘 이해할수록 데이터가 예측으로 변환되는 과정의 각 단계를 더 정확히 이해할 수 있고 예측이 갖는 힘은 더 강력해진다.

데브옵스 분야에는 소스 코드에서 배포에 이르기까지 소프트웨어의 진행 과정을 설명하는 “빌드 파이프라인”이란 것이 있다. 개발자에게 코드 파이프라인이 있다면, 데이터 과학자에게는 머신러닝 솔루션을 통해 흐르는 데이터 파이프라인이 있다. 이 파이프라인을 마스터하는 것은 머신러닝 자체를 세부적으로 파악하기 위한 효과적인 방법이다.

Image Credit : GettyImagesBank

머신러닝을 위한 데이터 소스와 흡수
위키본 리서치(Wikibon Research)의 분석가 조지 길버트가 설명했듯이 머신러닝 파이프라인은 4개의 단계로 구성된다.

1. 데이터 흡수
2. 데이터 준비(데이터 탐색 및 거버넌스 포함)
3. 모델 학습
4. 예측 제공

머신러닝 파이프라인을 시작하기 위해서는 학습할 데이터와 학습을 수행할 알고리즘, 두 가지가 필요하다. 대부분의 경우 데이터는 다음과 같은 둘 중 하나의 형태로 제공된다.

1. 어딘가에서 이미 수집 및 집계 중인 라이브 데이터. 이 데이터를 사용해서 정기적으로 업데이트되는 예측을 수행할 계획이다.
2. 다운로드해서 그 상태 그대로 사용하거나, 기존 데이터 소스에서 ETL 작업을 통해 얻는 “동결된” 데이터 집합.

동결된 데이터의 경우 일반적으로 한 가지 종류의 처리만 한다. 이 데이터로 모델 학습을 수행하고 모델을 배포하며 필요에 따라 주기적으로 모델을 업데이트한다.

그러나 라이브 또는 “스트리밍되는” 데이터의 경우 이 데이터로 모델과 결과를 얻기 위한 방법은 두 가지다. 첫 번째는 데이터베이스와 같은 어느 장소에 데이터를 저장(“데이터 레이크”)한 다음 나중에 이 데이터를 사용해 분석을 하는 방법이다. 두 번째는 스트리밍 데이터가 들어오는 대로 모델을 학습시키는 것이다.

머신러닝 솔루션 제공업체 빅ML(BigML)의 찰스 파커가 설명한 바와 같이 스트리밍 데이터를 사용한 학습은 다시 두 가지 형식으로 구분된다. 하나는 정기적으로 신선한 데이터를 모델에 공급해서 예측을 수행하는 시나리오로, 이 경우 기반 모델을 크게 조정하지는 않는다. 두 번째는 오래된 데이터는 그다지 쓸모가 없어서 수시로 신선한 데이터를 사용해서 완전히 새로운 모델을 학습시키는 시나리오다.

알고리즘을 일찌감치 선택하는 것이 중요한 이유가 여기에 있다. 증분식 재교육을 지원하는 알고리즘도 있지만 그렇지 않아서 새 데이터로 처음부터 다시 재교육해야 하는 경우도 있다. 항상 신선한 데이터를 스트리밍해서 모델을 재교육할 예정이라면, 증분 재교육을 지원하는 알고리즘을 선택해야 한다. 예를 들어 스파크 스트리밍(Spark Streaming)이 이러한 사용 사례를 지원한다.

머신러닝을 위한 데이터 준비
학습에 사용할 데이터 소스를 확보했다면 다음 단계는 이 데이터를 학습에 사용할 수 있도록 하는 것이다. 데이터에서 일관성을 확보하는 과정을 통틀어 정규화라고 한다.

실제 세계의 데이터에는 노이즈가 많다. 데이터베이스에서 가져오는 데이터는 어느 정도의 정규화가 된 데이터라고 가정할 수 있다. 그러나 많은 머신러닝 애플리케이션은 데이터 레이크 또는 다른 이질적 소스에서 직접 데이터를 가져올 수도 있는데, 이 경우 프로덕션 사용에 맞게 데이터가 정규화되어 있다는 보장이 없다.

파이썬 머신러닝(Python Machine Learning)의 저자 세바스티안 라슈카는 정규화와 일반적인 데이터 집합 유형에서 정규화를 달성하는 방법을 세부적으로 다룬 글을 쓴 적이 있다. 라슈카가 사용한 예제는 파이썬을 중심으로 하지만 기본 개념은 보편적으로 적용된다.

머신러닝 환경에 따라 정규화가 명시적인 단계로 존재하기도 한다. 예를 들어 마이크로소프트 애저 머신러닝 스튜디오(Azure Machine Learning Studio)에는 데이터 실험에 추가할 수 있는 “데이터 정규화(Normalize Data)” 모듈이 따로 있다.

정규화가 항상 필요할까? MIT AI 박사 과정에 있는 프랭크 더논코트는 스택 오버플로우(Stack Overflow)의 이 주제에 관한 심층적인 토론에서 정규화가 항상 필요한 것은 아니지만 “해서 해로운 경우는 거의 없다”고 말했다. 더논코트는 중요한 점은 특정 사용례에서 정규화가 가진 이점을 아는 것이라고 말했다. 인공 신경망의 경우 정규화가 필수는 아니지만 경우에 따라 유용할 수도 있다. 그러나 K 평균 클러스터링 알고리즘으로 모델을 구축하는 경우 정규화가 핵심적이다.

‘데이터에서 배우기(Leaning from Data)’의 공동 저자 맬릭 매그돈 이스마일에 따르면. 정규화가 바람직하지 않은 한 가지 경우는 “데이터의 규모에 의미가 있을 때”다. 예를 들어 “여신 승인에서 수입이 부채보다 두 배로 중요하다면 수입의 크기가 부채의 두 배가 되는 것이 적절할 것이다.”

데이터 흡수와 준비 단계에서 고려해야 할 또 한 가지는 데이터와 정규화, 또는 두 가지 모두를 통해 모델에 편견이 유입될 수 있다는 점이다. 머신러닝의 편견은 현실적인 문제를 일으킬 수 있다. 따라서 그러한 편견이 존재할 가능성이 있는 지점을 찾아서 대처하는 방법을 알면 도움이 된다. 깨끗한(읽을 수 있고 일관적인) 데이터라고 해서 무조건 편견이 없는 데이터로 간주해서는 안 된다.

머신러닝 모델 학습
데이터 집합을 완성했다면 다음 차례는 데이터를 사용해서 예측을 수행할 모델을 생성하는 학습 프로세스다. 일반적으로 여러 가지 알고리즘을 시도해 보고 데이터에 가장 잘 맞는 하나를 찾는다.

초매개변수
앞서 언급했듯이 알고리즘 선택은 해결하려는 문제의 유형뿐만 아니라 원하는 모델이 일괄 데이터로 한꺼번에 학습시킬 모델인지 증분적으로 재교육할 모델인지에 따라서도 달라진다. 모델 학습의 또 다른 핵심적인 측면은 결과 모델의 정확도를 높이기 위해 학습을 튜닝하는 방법, 즉 초매개변수화(hyperparameterization)다.



2018.08.14

"데이터를 넣으면 인텔리전스가 나온다" 머신러닝 파이프라인 풀어보기

Serdar Yegulalp | InfoWorld

머신러닝(Machine Learning)을 보면 마술 상자가 생각난다. 데이터를 집어넣으면 예측이 나온다. 하지만 머신러닝에 마술은 없다. 데이터와 알고리즘, 그리고 알고리즘을 통해 데이터를 처리함으로써 만들어지는 모델이 있을 뿐이다.

머신러닝을 통해 데이터에서 실체적 인사이트를 도출하는 일을 하는 사람에게는 이 프로세스가 블랙박스처럼 느껴져서는 안 된다. 상자 내부에 대해 잘 이해할수록 데이터가 예측으로 변환되는 과정의 각 단계를 더 정확히 이해할 수 있고 예측이 갖는 힘은 더 강력해진다.

데브옵스 분야에는 소스 코드에서 배포에 이르기까지 소프트웨어의 진행 과정을 설명하는 “빌드 파이프라인”이란 것이 있다. 개발자에게 코드 파이프라인이 있다면, 데이터 과학자에게는 머신러닝 솔루션을 통해 흐르는 데이터 파이프라인이 있다. 이 파이프라인을 마스터하는 것은 머신러닝 자체를 세부적으로 파악하기 위한 효과적인 방법이다.

Image Credit : GettyImagesBank

머신러닝을 위한 데이터 소스와 흡수
위키본 리서치(Wikibon Research)의 분석가 조지 길버트가 설명했듯이 머신러닝 파이프라인은 4개의 단계로 구성된다.

1. 데이터 흡수
2. 데이터 준비(데이터 탐색 및 거버넌스 포함)
3. 모델 학습
4. 예측 제공

머신러닝 파이프라인을 시작하기 위해서는 학습할 데이터와 학습을 수행할 알고리즘, 두 가지가 필요하다. 대부분의 경우 데이터는 다음과 같은 둘 중 하나의 형태로 제공된다.

1. 어딘가에서 이미 수집 및 집계 중인 라이브 데이터. 이 데이터를 사용해서 정기적으로 업데이트되는 예측을 수행할 계획이다.
2. 다운로드해서 그 상태 그대로 사용하거나, 기존 데이터 소스에서 ETL 작업을 통해 얻는 “동결된” 데이터 집합.

동결된 데이터의 경우 일반적으로 한 가지 종류의 처리만 한다. 이 데이터로 모델 학습을 수행하고 모델을 배포하며 필요에 따라 주기적으로 모델을 업데이트한다.

그러나 라이브 또는 “스트리밍되는” 데이터의 경우 이 데이터로 모델과 결과를 얻기 위한 방법은 두 가지다. 첫 번째는 데이터베이스와 같은 어느 장소에 데이터를 저장(“데이터 레이크”)한 다음 나중에 이 데이터를 사용해 분석을 하는 방법이다. 두 번째는 스트리밍 데이터가 들어오는 대로 모델을 학습시키는 것이다.

머신러닝 솔루션 제공업체 빅ML(BigML)의 찰스 파커가 설명한 바와 같이 스트리밍 데이터를 사용한 학습은 다시 두 가지 형식으로 구분된다. 하나는 정기적으로 신선한 데이터를 모델에 공급해서 예측을 수행하는 시나리오로, 이 경우 기반 모델을 크게 조정하지는 않는다. 두 번째는 오래된 데이터는 그다지 쓸모가 없어서 수시로 신선한 데이터를 사용해서 완전히 새로운 모델을 학습시키는 시나리오다.

알고리즘을 일찌감치 선택하는 것이 중요한 이유가 여기에 있다. 증분식 재교육을 지원하는 알고리즘도 있지만 그렇지 않아서 새 데이터로 처음부터 다시 재교육해야 하는 경우도 있다. 항상 신선한 데이터를 스트리밍해서 모델을 재교육할 예정이라면, 증분 재교육을 지원하는 알고리즘을 선택해야 한다. 예를 들어 스파크 스트리밍(Spark Streaming)이 이러한 사용 사례를 지원한다.

머신러닝을 위한 데이터 준비
학습에 사용할 데이터 소스를 확보했다면 다음 단계는 이 데이터를 학습에 사용할 수 있도록 하는 것이다. 데이터에서 일관성을 확보하는 과정을 통틀어 정규화라고 한다.

실제 세계의 데이터에는 노이즈가 많다. 데이터베이스에서 가져오는 데이터는 어느 정도의 정규화가 된 데이터라고 가정할 수 있다. 그러나 많은 머신러닝 애플리케이션은 데이터 레이크 또는 다른 이질적 소스에서 직접 데이터를 가져올 수도 있는데, 이 경우 프로덕션 사용에 맞게 데이터가 정규화되어 있다는 보장이 없다.

파이썬 머신러닝(Python Machine Learning)의 저자 세바스티안 라슈카는 정규화와 일반적인 데이터 집합 유형에서 정규화를 달성하는 방법을 세부적으로 다룬 글을 쓴 적이 있다. 라슈카가 사용한 예제는 파이썬을 중심으로 하지만 기본 개념은 보편적으로 적용된다.

머신러닝 환경에 따라 정규화가 명시적인 단계로 존재하기도 한다. 예를 들어 마이크로소프트 애저 머신러닝 스튜디오(Azure Machine Learning Studio)에는 데이터 실험에 추가할 수 있는 “데이터 정규화(Normalize Data)” 모듈이 따로 있다.

정규화가 항상 필요할까? MIT AI 박사 과정에 있는 프랭크 더논코트는 스택 오버플로우(Stack Overflow)의 이 주제에 관한 심층적인 토론에서 정규화가 항상 필요한 것은 아니지만 “해서 해로운 경우는 거의 없다”고 말했다. 더논코트는 중요한 점은 특정 사용례에서 정규화가 가진 이점을 아는 것이라고 말했다. 인공 신경망의 경우 정규화가 필수는 아니지만 경우에 따라 유용할 수도 있다. 그러나 K 평균 클러스터링 알고리즘으로 모델을 구축하는 경우 정규화가 핵심적이다.

‘데이터에서 배우기(Leaning from Data)’의 공동 저자 맬릭 매그돈 이스마일에 따르면. 정규화가 바람직하지 않은 한 가지 경우는 “데이터의 규모에 의미가 있을 때”다. 예를 들어 “여신 승인에서 수입이 부채보다 두 배로 중요하다면 수입의 크기가 부채의 두 배가 되는 것이 적절할 것이다.”

데이터 흡수와 준비 단계에서 고려해야 할 또 한 가지는 데이터와 정규화, 또는 두 가지 모두를 통해 모델에 편견이 유입될 수 있다는 점이다. 머신러닝의 편견은 현실적인 문제를 일으킬 수 있다. 따라서 그러한 편견이 존재할 가능성이 있는 지점을 찾아서 대처하는 방법을 알면 도움이 된다. 깨끗한(읽을 수 있고 일관적인) 데이터라고 해서 무조건 편견이 없는 데이터로 간주해서는 안 된다.

머신러닝 모델 학습
데이터 집합을 완성했다면 다음 차례는 데이터를 사용해서 예측을 수행할 모델을 생성하는 학습 프로세스다. 일반적으로 여러 가지 알고리즘을 시도해 보고 데이터에 가장 잘 맞는 하나를 찾는다.

초매개변수
앞서 언급했듯이 알고리즘 선택은 해결하려는 문제의 유형뿐만 아니라 원하는 모델이 일괄 데이터로 한꺼번에 학습시킬 모델인지 증분적으로 재교육할 모델인지에 따라서도 달라진다. 모델 학습의 또 다른 핵심적인 측면은 결과 모델의 정확도를 높이기 위해 학습을 튜닝하는 방법, 즉 초매개변수화(hyperparameterization)다.



X