2019.08.26

“데이터 과학자 없는 머신러닝” AutoML의 이해

Martin Heller | InfoWorld
머신러닝(전통적인 머신러닝과 딥러닝 모두) 사용을 가로막는 두 가지 가장 큰 장애물은 기술력과 컴퓨팅 자원이다. 여기서 컴퓨팅 자원 문제는 가속 하드웨어(고성능 GPU를 탑재한 컴퓨터 등)를 구매하거나 클라우드의 컴퓨팅 자원(예를 들어 GPU, TPU, FPGA가 연결된 인스턴스)를 임대하는 방식으로, 즉 돈을 들여서 해결할 수 있다.

그러나 기술력 문제를 해결하기는 어렵다. 데이터 과학자는 인건비가 상당히 비싼 경우가 많고, 그나마도 찾기 힘들다. 구글은 많은 자체 직원들에게 텐서플로우(TensorFlow) 프레임워크를 교육시켰지만, 일반 기업은 교육은 커녕 스스로 머신러닝 및 딥러닝 모델을 구축할 만큼의 기술력 있는 인력도 갖추지 못한 경우가 많다.
 
ⓒ GettyImagesBank


AutoML이란?

자동화된 머신러닝, 즉 AutoML은 머신러닝과 딥러닝 모델을 구축하는 데 있어 기술력을 갖춘 데이터 과학자란 필요조건을 제거하는 데 목적을 둔다. AutoML 시스템을 사용하면 레이블링된 학습 데이터를 입력으로 제공하고 최적화된 모델을 출력으로 받을 수 있다.

방법은 두 가지다. 하나는 소프트웨어에서 단순히 데이터에 대해 모든 종류의 모델을 학습시킨 다음 가장 결과가 좋은 모델을 선택하는 방법이다. 이를 개량하는 방법 중 하나는 다른 모델을 결합하는 하나 이상의 앙상블 모델을 만드는 것이다. 이렇게 하면 (항상 그렇지는 않지만) 더 나은 결과를 얻을 수도 있다.

두 번째 방법은 최적 모델의 초매개변수(hyperparameter)를 최적화해서 더 나은 모델을 학습시키는 것이다. 특성 엔지니어링(Feature Engineering)은 모든 모델 학습에서 유용하다. 딥러닝의 탈숙련화 방법 중 하나는 전이 학습(Transfer Learning)을 사용해서 기본적으로 잘 학습된 범용 모델을 특정 데이터에 대해 맞춤 구성하는 것이다.
 

초매개변수 최적화란?

모든 머신러닝 모델에는 매개변수, 즉 모델의 각 변수 또는 특성에 대한 가중치가 있다. 매개변수는 일반적으로 확률적 기울기 하강(Stochastic Gradient Descent)과 같은 옵티마이저의 통제 하에 반복과 오류의 역전파(back-propagation)에 의해 결정된다.

대부분의 머신러닝 모델에는 학습 루프 외부에 설정되는 초매개변수도 있다. 학습률, 배제율, 그리고 랜덤 포레스트(Random Forest)의 트리 수와 같은 모델별 매개변수 등이 초매개변수에 포함된다.

초매개변수 튜닝 또는 초매개변수 최적화(HPO)는 하나 이상의 모델 초매개변수를 자동으로 탐색 또는 검색해서 최선의 학습된 모델로 이어지는 집합을 찾는 것이다. 탐색(외부 루프)의 각 초매개변수 값에 대해 모델을 다시 학습시켜야 하므로(내부 루프) 많은 시간이 소비될 수 있다. 많은 수의 모델을 병렬로 학습시키면 하드웨어를 늘려 필요한 시간을 줄일 수 있다.
 

특성 엔지니어링이란?

특성은 관찰 대상 현상의 측정 가능한 개별 속성 또는 특징이다. “특성” 개념은 선형 회귀와 같은 통계 기법에 사용되는 설명 변수와 관련된다. 특성 벡터는 단일 행의 모든 특성을 하나의 수치 벡터로 결합한다. 특성 엔지니어링은 모든 학습 프로세스의 입력을 위해 최적의 변수 집합과 최적의 데이터 인코딩 및 정규화를 찾는 과정이다.

특성을 선택하는 기법 중 하나는 문제를 설명하는 독립 변수의 최소 집합을 선택하는 것이다. 두 개의 변수가 고도로 상호 연관된다면, 둘을 하나의 특성으로 결합하거나 하나를 배제해야 한다. 주성분분석(PCA)을 수행해서 상호 연관된 변수를 선형적 비상관 변수 집합으로 변환하는 경우도 있다.

머신 분류에 범주 데이터를 사용하려면 텍스트 레이블을 다른 형식으로 인코딩해야 한다. 일반적으로 사용되는 인코딩은 두 가지다.

하나는 각 텍스트 레이블 값이 숫자로 대체되는 레이블 인코딩, 다른 하나는 각 텍스트 레이블 값이 이진 값(1 또는 0)이 있는 열로 변환되는 원핫 인코딩(one-hot encoding)이다. 대부분의 머신러닝 프레임워크는 변환을 위한 함수가 있다. 레이블 인코딩의 경우 머신러닝 알고리즘이 인코딩된 열이 순서가 지정된 것으로 착각하는 경우가 있으므로 일반적으로 원핫 인코딩이 더 많이 사용된다.

머신 회귀에 수치 데이터를 사용하려면 일반적으로 데이터를 정규화해야 한다. 그렇지 않으면 범위가 더 큰 수치가 특성 벡터 간의 유클리드 거리를 독점해서 그 영향이 다른 필드의 희생을 통해 확대되고 가장 가파른 하강 최적화의 수렴에 어려움이 발생할 수 있다. 머신러닝을 위해 데이터를 정규화, 표준화하는 방법은 여러 가지다. 최소최대 정규화, 평균 정규화, 표준화, 단위 길이로 스케일링 등이 포함된다. 이 프로세스를 흔히 특성 스케일링이라고 한다.

새 특성을 구축하거나 특성 벡터의 차원을 줄이기 위해 사용되는 일부 변환은 간단하다. 예를 들어 Year of Death에서 Year of Birth를 빼면 Age at Death를 구축할 수 있고, 이는 수명 및 사망 분석을 위한 주요 독립 변수다. 특성 구축이 이처럼 명확하지 않은 경우도 있다.
 

전이 학습이란?

전이 학습은 맞춤 머신러닝이라고도 하고 AutoML(주로 구글이 이렇게 지칭함)로도 불린다. 구글 클라우드 AutoML은 데이터로 모델을 처음부터 새로 학습시키는 대신 언어 쌍 번역, 자연어 분류, 이미지 분류를 위해 자동 심층 전이 학습(다른 데이터로 학습된 기존 심층 신경망을 사용해 시작)과 신경 아키텍처 검색(부가적인 네트워크 계층의 적절한 조합을 찾음)을 구현한다.

일반적인 AutoML의 의미와는 다른 프로세스이며, 다루는 사용 사례도 일반적인 AutoML에 비해 적다. 반면 지원되는 영역에서 맞춤화된 딥러닝 모델이 필요한 경우 전이 학습이 더 우수한 모델을 생산하는 경우가 많다.
 

AutoML 구현

시도해볼 수 있는 AutoML 구현은 많다. 유료 서비스도 있고 무료 소스 코드도 있다. 다음 목록은 완전한 목록도, 최종적인 목록도 아니므로 참고만 하기 바란다.
 

AutoML 서비스

3대 클라우드 서비스에는 모두 일종의 AutoML이 있다. 아마존 세이지메이커(Amazon SageMaker)는 초매개변수 튜닝을 수행하지만 자동으로 여러 모델을 시도하거나 특성 엔지니어링을 수행하지는 않는다. 애저 머신러닝의 경우 AutoML(특성과 알고리즘을 탐색)과 초매개변수 튜닝(일반적으로 AutoML에 의해 선택된 최적의 알고리즘을 대상으로 실행)이 모두 있다. 구글 클라우드 AutoML은 앞서 언급했듯이 언어 쌍 번역, 자연어 분류, 이미지 분류를 위한 심층 전이 학습이다.

3대 클라우드 외에도 규모는 작지만 AutoML 서비스를 제공하는 업체가 있다. 예를 들어 AutoML을 창시했다고 주장하는 데이터로봇(DataRobot)은 시장에서 견고한 입지를 보유하고 있다. 닷데이터(dotData)의 경우 시장 점유율이 미미하고 UI도 썩 좋은 편이 아니지만 특성 엔지니어링 기능이 강력하고 많은 기업 사용 사례를 포괄한다. 필자가 2017년에 리뷰했던 H2O.ai 드라이브리스 AI(H2O.ai Driverless AI)는 특성 엔지니어링, 알고리즘 탐색, 초매개변수 최적화를 통일된 방식으로 수행하며 데이터 과학자가 캐글(Kaggle) 마스터와 같은 모델을 도출하는 데 도움이 될 수 있다.
 

AutoML 프레임워크

에이다넷(AdaNet)은 전문가 개입을 최소화하면서 고품질의 모델을 자동으로 학습시키기 위한 가벼운 텐서플로우 기반 프레임워크다. 오토케라스(Auto-Keras)는 텍사스 A&M에서 개발된 자동 머신러닝을 위한 오픈소스 소프트웨어 라이브러리로, 딥러닝 모델의 아키텍처 및 초매개변수를 자동으로 검색하기 위한 함수를 제공한다. NNI(Neural Network Intelligence)는 마이크로소프트가 제공하는 툴킷으로, 사용자가 머신러닝 모델(예를 들어 초매개변수), 신경망 아키텍처 또는 복잡한 시스템의 매개변수를 효율적이고 자동화된 방식으로 설계, 튜닝하는 데 도움이 된다.

또한 깃허브에서 다른 AutoML 프로젝트, 그리고 AutoML에 대한 포괄적인 현재 논문 목록을 볼 수 있다.  editor@itworld.co.kr


2019.08.26

“데이터 과학자 없는 머신러닝” AutoML의 이해

Martin Heller | InfoWorld
머신러닝(전통적인 머신러닝과 딥러닝 모두) 사용을 가로막는 두 가지 가장 큰 장애물은 기술력과 컴퓨팅 자원이다. 여기서 컴퓨팅 자원 문제는 가속 하드웨어(고성능 GPU를 탑재한 컴퓨터 등)를 구매하거나 클라우드의 컴퓨팅 자원(예를 들어 GPU, TPU, FPGA가 연결된 인스턴스)를 임대하는 방식으로, 즉 돈을 들여서 해결할 수 있다.

그러나 기술력 문제를 해결하기는 어렵다. 데이터 과학자는 인건비가 상당히 비싼 경우가 많고, 그나마도 찾기 힘들다. 구글은 많은 자체 직원들에게 텐서플로우(TensorFlow) 프레임워크를 교육시켰지만, 일반 기업은 교육은 커녕 스스로 머신러닝 및 딥러닝 모델을 구축할 만큼의 기술력 있는 인력도 갖추지 못한 경우가 많다.
 
ⓒ GettyImagesBank


AutoML이란?

자동화된 머신러닝, 즉 AutoML은 머신러닝과 딥러닝 모델을 구축하는 데 있어 기술력을 갖춘 데이터 과학자란 필요조건을 제거하는 데 목적을 둔다. AutoML 시스템을 사용하면 레이블링된 학습 데이터를 입력으로 제공하고 최적화된 모델을 출력으로 받을 수 있다.

방법은 두 가지다. 하나는 소프트웨어에서 단순히 데이터에 대해 모든 종류의 모델을 학습시킨 다음 가장 결과가 좋은 모델을 선택하는 방법이다. 이를 개량하는 방법 중 하나는 다른 모델을 결합하는 하나 이상의 앙상블 모델을 만드는 것이다. 이렇게 하면 (항상 그렇지는 않지만) 더 나은 결과를 얻을 수도 있다.

두 번째 방법은 최적 모델의 초매개변수(hyperparameter)를 최적화해서 더 나은 모델을 학습시키는 것이다. 특성 엔지니어링(Feature Engineering)은 모든 모델 학습에서 유용하다. 딥러닝의 탈숙련화 방법 중 하나는 전이 학습(Transfer Learning)을 사용해서 기본적으로 잘 학습된 범용 모델을 특정 데이터에 대해 맞춤 구성하는 것이다.
 

초매개변수 최적화란?

모든 머신러닝 모델에는 매개변수, 즉 모델의 각 변수 또는 특성에 대한 가중치가 있다. 매개변수는 일반적으로 확률적 기울기 하강(Stochastic Gradient Descent)과 같은 옵티마이저의 통제 하에 반복과 오류의 역전파(back-propagation)에 의해 결정된다.

대부분의 머신러닝 모델에는 학습 루프 외부에 설정되는 초매개변수도 있다. 학습률, 배제율, 그리고 랜덤 포레스트(Random Forest)의 트리 수와 같은 모델별 매개변수 등이 초매개변수에 포함된다.

초매개변수 튜닝 또는 초매개변수 최적화(HPO)는 하나 이상의 모델 초매개변수를 자동으로 탐색 또는 검색해서 최선의 학습된 모델로 이어지는 집합을 찾는 것이다. 탐색(외부 루프)의 각 초매개변수 값에 대해 모델을 다시 학습시켜야 하므로(내부 루프) 많은 시간이 소비될 수 있다. 많은 수의 모델을 병렬로 학습시키면 하드웨어를 늘려 필요한 시간을 줄일 수 있다.
 

특성 엔지니어링이란?

특성은 관찰 대상 현상의 측정 가능한 개별 속성 또는 특징이다. “특성” 개념은 선형 회귀와 같은 통계 기법에 사용되는 설명 변수와 관련된다. 특성 벡터는 단일 행의 모든 특성을 하나의 수치 벡터로 결합한다. 특성 엔지니어링은 모든 학습 프로세스의 입력을 위해 최적의 변수 집합과 최적의 데이터 인코딩 및 정규화를 찾는 과정이다.

특성을 선택하는 기법 중 하나는 문제를 설명하는 독립 변수의 최소 집합을 선택하는 것이다. 두 개의 변수가 고도로 상호 연관된다면, 둘을 하나의 특성으로 결합하거나 하나를 배제해야 한다. 주성분분석(PCA)을 수행해서 상호 연관된 변수를 선형적 비상관 변수 집합으로 변환하는 경우도 있다.

머신 분류에 범주 데이터를 사용하려면 텍스트 레이블을 다른 형식으로 인코딩해야 한다. 일반적으로 사용되는 인코딩은 두 가지다.

하나는 각 텍스트 레이블 값이 숫자로 대체되는 레이블 인코딩, 다른 하나는 각 텍스트 레이블 값이 이진 값(1 또는 0)이 있는 열로 변환되는 원핫 인코딩(one-hot encoding)이다. 대부분의 머신러닝 프레임워크는 변환을 위한 함수가 있다. 레이블 인코딩의 경우 머신러닝 알고리즘이 인코딩된 열이 순서가 지정된 것으로 착각하는 경우가 있으므로 일반적으로 원핫 인코딩이 더 많이 사용된다.

머신 회귀에 수치 데이터를 사용하려면 일반적으로 데이터를 정규화해야 한다. 그렇지 않으면 범위가 더 큰 수치가 특성 벡터 간의 유클리드 거리를 독점해서 그 영향이 다른 필드의 희생을 통해 확대되고 가장 가파른 하강 최적화의 수렴에 어려움이 발생할 수 있다. 머신러닝을 위해 데이터를 정규화, 표준화하는 방법은 여러 가지다. 최소최대 정규화, 평균 정규화, 표준화, 단위 길이로 스케일링 등이 포함된다. 이 프로세스를 흔히 특성 스케일링이라고 한다.

새 특성을 구축하거나 특성 벡터의 차원을 줄이기 위해 사용되는 일부 변환은 간단하다. 예를 들어 Year of Death에서 Year of Birth를 빼면 Age at Death를 구축할 수 있고, 이는 수명 및 사망 분석을 위한 주요 독립 변수다. 특성 구축이 이처럼 명확하지 않은 경우도 있다.
 

전이 학습이란?

전이 학습은 맞춤 머신러닝이라고도 하고 AutoML(주로 구글이 이렇게 지칭함)로도 불린다. 구글 클라우드 AutoML은 데이터로 모델을 처음부터 새로 학습시키는 대신 언어 쌍 번역, 자연어 분류, 이미지 분류를 위해 자동 심층 전이 학습(다른 데이터로 학습된 기존 심층 신경망을 사용해 시작)과 신경 아키텍처 검색(부가적인 네트워크 계층의 적절한 조합을 찾음)을 구현한다.

일반적인 AutoML의 의미와는 다른 프로세스이며, 다루는 사용 사례도 일반적인 AutoML에 비해 적다. 반면 지원되는 영역에서 맞춤화된 딥러닝 모델이 필요한 경우 전이 학습이 더 우수한 모델을 생산하는 경우가 많다.
 

AutoML 구현

시도해볼 수 있는 AutoML 구현은 많다. 유료 서비스도 있고 무료 소스 코드도 있다. 다음 목록은 완전한 목록도, 최종적인 목록도 아니므로 참고만 하기 바란다.
 

AutoML 서비스

3대 클라우드 서비스에는 모두 일종의 AutoML이 있다. 아마존 세이지메이커(Amazon SageMaker)는 초매개변수 튜닝을 수행하지만 자동으로 여러 모델을 시도하거나 특성 엔지니어링을 수행하지는 않는다. 애저 머신러닝의 경우 AutoML(특성과 알고리즘을 탐색)과 초매개변수 튜닝(일반적으로 AutoML에 의해 선택된 최적의 알고리즘을 대상으로 실행)이 모두 있다. 구글 클라우드 AutoML은 앞서 언급했듯이 언어 쌍 번역, 자연어 분류, 이미지 분류를 위한 심층 전이 학습이다.

3대 클라우드 외에도 규모는 작지만 AutoML 서비스를 제공하는 업체가 있다. 예를 들어 AutoML을 창시했다고 주장하는 데이터로봇(DataRobot)은 시장에서 견고한 입지를 보유하고 있다. 닷데이터(dotData)의 경우 시장 점유율이 미미하고 UI도 썩 좋은 편이 아니지만 특성 엔지니어링 기능이 강력하고 많은 기업 사용 사례를 포괄한다. 필자가 2017년에 리뷰했던 H2O.ai 드라이브리스 AI(H2O.ai Driverless AI)는 특성 엔지니어링, 알고리즘 탐색, 초매개변수 최적화를 통일된 방식으로 수행하며 데이터 과학자가 캐글(Kaggle) 마스터와 같은 모델을 도출하는 데 도움이 될 수 있다.
 

AutoML 프레임워크

에이다넷(AdaNet)은 전문가 개입을 최소화하면서 고품질의 모델을 자동으로 학습시키기 위한 가벼운 텐서플로우 기반 프레임워크다. 오토케라스(Auto-Keras)는 텍사스 A&M에서 개발된 자동 머신러닝을 위한 오픈소스 소프트웨어 라이브러리로, 딥러닝 모델의 아키텍처 및 초매개변수를 자동으로 검색하기 위한 함수를 제공한다. NNI(Neural Network Intelligence)는 마이크로소프트가 제공하는 툴킷으로, 사용자가 머신러닝 모델(예를 들어 초매개변수), 신경망 아키텍처 또는 복잡한 시스템의 매개변수를 효율적이고 자동화된 방식으로 설계, 튜닝하는 데 도움이 된다.

또한 깃허브에서 다른 AutoML 프로젝트, 그리고 AutoML에 대한 포괄적인 현재 논문 목록을 볼 수 있다.  editor@itworld.co.kr


X