AIㆍML / 데이터ㆍ분석 / 애플리케이션

폭발적인 발전을 거듭하는 "딥 러닝" 이해하기

Martin Heller | InfoWorld 2019.05.28


- CNN 신경망
CNN은 통상 콘볼루션, 풀링, ReLu, 완전 연결, 손실(loss) 계층을 사용해 시각령을 시뮬레이션한다. 콘볼루션 계층은 기본적으로 수 많은 작은 중복 지역의 정수(Integral)를 가져온다. 풀링 계층은 일종의 비선형 다운 샘플링을 실시한다. ReLU 계층은 비포화(Non-saturating) 활성화 함수인 f(x) = max(0,x)를 적용한다. 완전 연결 계층의 경우, 뉴런은 앞선 계층의 모든 활성체와 연결이 된다. 손실 계층의 경우, 분류에는 소프트맥스(Softmax)나 크로스 엔트로피(Cross-entropy) 손실 함수를, 회귀에는 유클리드(Euclidean) 손실 함수를 사용해 예측한 레이블과 진짜 레이블 간 편향을 파악해 조정하는 네트워크 트레이닝에 대해 계산을 한다.

- RNN과 LSTM, 어텐션 기반 신경망
피드포워드 신경망은 인풋에서 숨겨진 계층, 아웃풋 순으로 정보가 전달된다. 이는 네트워크가 한 번에 1개의 상태만 처리하도록 제약한다.
RNN의 경우, 정보가 순환식으로 흐른다. 따라서 네트워크는 이전의 아웃풋을 기억하게 된다. 이를 통해 시퀀스와 시계열을 분석할 수 있다. RNN에는 2가지 일반적인 문제가 있다. 경사도를 중첩시켜 쉽게 고칠 수 있는 ‘경사도 폭발(Exploding gradients)’ 문제와 쉽게 고치기 힘든 ‘경사도 사라짐(Vanishing Gradients)’ 문제다.
LSTM의 경우, 가중치를 수정하는 방법으로 이전 정보를 잊거나, 기억하도록 만들 수 있다. 이는 LSTM에 장단기 기억 능력을 제공하며, ‘경사도 사라짐’ 문제를 해결한다. LSTM은 과거 인풋의 수백 시퀀스를 처리할 수 있다.
어텐션 모델은 인풋 벡터에 가중치를 적용하는 일반화된 게이트이다. 계층적인 뉴럴 어텐션 인코더는 여러 어텐션 모듈 계층을 사용, 수 많은 과거 인풋을 처리한다.

- 랜덤 포레스트
DNN이 아닌, 또 다른 종류의 딥 러닝 알고리즘이 랜덤 포레스트다. 랜덤 포레스터는 수 많은 계층으로부터 구성된다. 그러나 뉴런이 아닌 의사결정 트리로부터 구성된다. 또 아웃풋은 개별 트리의 통계적인 예측치 평균이다(분류의 경우 최빈값, 회귀의 경우 평균). 랜덤 포레스트는 임의성(무작위성, 확률성)을 갖는다. 개별 트리에 부트스트랩 총계치를 사용하고(일명 bagging), 임의의 특징 하위 집합을 가져오기 때문이다.


딥 러닝 프레임워크의 종류

첫 번째 원칙에서 딥 러닝 프로그램을 만들 수도 있지만, 딥 러닝 프레임워크를 사용하는 것이 훨씬 더 효율적이다. 무엇보다, GPU와 기타 액셀레이터(가속기)와 함께 사용할 수 있도록 최적화되어 있기 때문이다. 가장 유명한 프레임워크가 구글이 만든 텐서플로우다. 텐서플로우에서 인기있는 고수준 API는 케라스(Keras)다. 다른 백엔드 프레임워크와 함께 사용할 수도 있다.

페이스북 등의 파이토치(PyTorch)는 텐서플로우의 좋은 대안이 될 수 있다. 동적 신경망을 지원한다는 특징이 있다. 에포크마다 네트워크 특징을 변경할 수 있다는 의미다. 패스트AI(Fastai)는 파이토치를 백엔드로 사용하는 고수준의 서드파티 API다. 

아마존 등의 MXNet도 텐서플로우의 좋은 대안이 될 수 있다. 이들은 확장성이 더 뛰어나다고 주장한다. MXNet에 반드시 필요한 고수준 API는 글루온(Gluon)이다. IBM과 인텔 등의 체이너(Chaniner)가 파이토치에 일정 수준 ‘영감’을 줬다. 신경망을 실행(run)으로 정의하며, 동적 신경망을 지원하기 때문이다.

앞서 언급한 프레임워크는 모두 기본적으로 파이썬(Python)이다. 그러나 스카이마인드(Skymind)에서 시작됐고 지금은 아파치 프로젝트가 된 DL4J(Deeplearning4j)는 주로 자바(Java)와 스칼라(Scala)다. DL4J는 아파치 스파크 및 하둡과 호환된다.

ONNX는 원래 교환이 가능한 API 모델용 오픈 생태계로 제시됐었다. 지금은 교환이 가능한 파일 형식과 함께 런타임을 지원한다. 엔비디아(Nvidia)의 텐서RT(TensorRT)는 엔비디아 GPU를 활용하는 AI 모델용 런타임이다. ONNX 런타임이 텐서RT를 플러그인으로 사용할 수 있다.
 

딥 러닝 전이 학습

전이 학습(Transfer Learning)이란 하나의 데이터 세트에 트레이닝 된 모델을 다른 데이터 세트에 맞춰 조정하는 프로세스다. 전이 학습을 이용하는 것이 처음부터 모델을 트레이닝시키는 것보다 빠르다. 또 트레이닝에 필요한 데이터가 더 적다. 

구글 클라우드 오토ML(Cloud AutoML)에 영상, 번역, 자연어용 딥 러닝 전이 학습이 구현되어 있다. 애저 머신러닝 서비스(Azure Machine Learning Service) 또한 이와 유사한 딥 러닝 전이 학습 서비스를 맞춤형 비전, 맞춤형 스피치, 번역, 맞춤형 검색에 대해 제공하고 있다.
 

분산형 딥 러닝 트레이닝

텐서플로우에도 분산형 트레이닝을 파라미터 서버로 조정하는 독자적인 방법이 있지만, 더 일반적인 방법은 오픈 MPI(Message Passing Interface)를 사용하는 것이다. 우버가 만든 텐서플로우, 케라스, 파이토치용 분산형 트레이닝 프레임워크인 호로보드(Horovod)는 오픈 MPI와 엔비디아 NCCL을 사용한다. 호로보드는 65~90%의 스케일링 효율성이 보존된다. 이는 트레이닝하는 모델에 따라 달라진다.


딥 러닝 관련 책과 자료

딥 러닝 패키지 가운데 하나를 설치하고, 샘플을 테스트하고, 튜토리얼을 읽는 방법으로 딥 러닝에 대해 더 많이 학습할 수 있다. 더 깊이 공부하고 싶다면, 다음 자료 가운데 하나를 선택하면 된다. 

- Neural Networks and Deep Learning, 저자: 마이클 넬슨 
- A Brief Introduction to Neural Networks, 저자: 데이비드 크리셀
- Deep Learning, 저자: 여호수아 벤지오, 이언 굿펠로우, 애런 쿠르빌 
- A Course in Machine Learning, 저자: 할 다움 3세 
- TensorFlow Playground, 저자: 대니얼 스밀코프 및 샨 카터
- CS231n: Convolutional Neural Networks for Visual Recognition, 편찬: 스탠포드 대학 
editor@itworld.co.kr 
 
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.