2021.01.21

"AI 데이터센터는 전기 먹는 하마?" AI로 데이터센터 요금 최적화해야

Andy Patrizio | Network World
인공 지능(AI)과 머신러닝(ML)은 혁신에 박차를 가하는 매우 유용한 툴이 될 수 있지만, CPU와 메모리 사용률을 적절하게 유지하며 실행하는 일반적인 기업 IT 애플리케이션과는 관리 면에서의 요구사항이 다르다. 보통 AI와 ML은 사용률이 매우 강도 높은 연산을 전담하므로 전기와 냉각 비용이 IT 부서의 예상을 뛰어넘을 수 있다.
 
새로운 문제는 아니지만 그 영향은 갈수록 확대되고 있다.
 
데이터 웨어하우징, 비즈니스 인텔리전스 같은 CPU 부하가 큰 애플리케이션이 확산되었을 때도 IT 부서는 전기요금 상승분을 인지하지 못하는 경우가 많았다. 청구서는 보통 IT가 아니라 운영 부서로 전달되기 때문이다.
 
AI 개발 업체 뉴럴(Neural)의 창업자이자 CEO인 마크 스와츠는 “데이터 과학 팀 리더는 언제든, 무엇이든 프로세스할 수 있는 전권을 가진 경우가 많다. 무거운 계산 요구 사항을 해결하기 위한 사치스러운 접근 방법은 향후 5년 이내에 둔화되기 시작할 것”이라고 말했다.
 
기업이 전기 및 냉각 비용을 더 깐깐하게 살피는 이유 중 하나는 데이터 웨어하우징과 비즈니스 인텔리전스 애플리케이션이 표준 시스템에서 실행이 가능한 반면, AI는 고성능 컴퓨팅(HPC)에 의존하는 경우가 많다는 데에 있다. HPC 전문 시장조사 업체인 인터섹트360(Intersect360)의 CEO 애디슨 스넬은 HPC와 AI는 발열량이 훨씬 더 크다면서 당연히 청구서 금액의 증가를 예상해야 한다고 말했다.
 
스넬은 “발열량이 큰 모든 유형의 IT 작업에는 그에 상응하는 비용이 따른다. 마음의 준비를 하지 않고 AI 전력 소모량과 일반 기업 IT 서버가 같을 것이라고 생각하면 전기 및 냉각 비용에 충격을 받을 수도 있다”라고 말했다.
 
충격적인 요금 고지서를 받아 들고 놀라지 않으려면 어떻게 해야 할까? 6가지 단계를 소개한다.
 

1) 전기 요금 낮추는 선택지 물색하기

회사 외부에 데이터센터를 둘 수 있다면, 수력 발전부터 시작해 재생 가능 에너지원을 찾는 방법이 있다. 수력 전기는 비용이 가장 낮은 전기 중 하나다. 하이페리온 리서치(Hyperion Research)의 HPC 시장 선임 자문인 스티브 콘웨이는 “마이크로소프트와 구글이 대형 수원 인근에 데이터센터를 두는 이유가 있다”고 말했다.
 
풍력 발전 역시 화석 연료보다 저렴하다. 많은 데이터센터가 미국 중서부에 몰려 있는 이유다. 또한 대도시보다는 시골 지방의 전기 요금이 낮은데, 대다수의 데이터센터가 주요 도시에 위치하는 이유는 필요에 따른 것이다. 미국의 경우, 데이터센터 시장 규모로 보면 연방 정부와의 근접성이라는 장점을 지닌 버지니아 북부가 가장 크지만 아이오와(마이크로소프트, 구글, 페이스북), 오클라호마(구글), 뉴멕시코(페이스북)에도 데이터센터가 있다.
 
콘웨이는 또한 계산량이 많은 애플리케이션을 야간에 실행하는 방법도 있다면서 사용량이 적은 야간에는 전기 요율이 낮아지는 경우가 많다고 말했다.
 

2) AI를 사용해 전기 사용 최적화

모순이라 생각할 수도 있지만, 데이터센터 컴퓨터를 관리하는 최선의 방법 중 하나는 AI 그 자체다. AI는 전기와 냉각을 최적화하고 워크로드 분산을 개선하고 예측 정비를 통해 임박한 하드웨어 장애를 경고할 수 있다. AI 유형 중에서도 머신러닝이 아닌 모니터링에 속하는 AI로, 시스템에 가하는 부담이 그다지 크지 않다. 또한 스와츠는 서버에서 센서를 사용해서 전원 공급 장치와 CPU 사용량의 급증을 감지하고 시스템 온도가 높은 경우 클라이언트에 알릴 수 있다고 말했다.
 
디지털 기술에 초점을 둔 리서치 및 개발 업체 아이멕(imec)의 CSO 조 드보크는 “AI를 적절히 사용하는 것만으로 에너지를 줄이는 데 도움이 된다. AI를 적용해서 효율성을 높일 수 있는 애플리케이션이 매우 많다”라고 말했다.
 

3) 적절한 곳에 저전력 칩 사용

머신러닝은 학습과 추론의 2단계 프로세스다. 학습은 이미지 또는 사용 패턴과 같은 어떤 것을 인지하도록 시스템을 학습시키는 과정으로, 프로세서 부하가 높은 단계다. 추론은 ‘이것이 모델과 일치하는가?’에 대한 단순한 예/아니요의 문제다. 일치를 찾는 데 필요한 처리 성능은 일치를 인식하도록 시스템을 학습시킬 때의 처리 성능에 비해 훨씬 낮다. 
 
GPU는 학습에 가장 좋은 옵션인 반면, 전기 소비량이 최대 300W에 이른다. 추론에 GPU를 사용할 수는 있지만, 전력 소비가 훨씬 더 낮은 부품으로도 가능한데 굳이 그럴 필요는 없다. 인텔은 특수 추론 칩인 너바나(Nervana)를 제공했는데, 이 칩은 단종되고 하바나(Habana) 칩이 그 뒤를 이었다. 초기 테스트에서 너바나의 추론 시 소비전력은 10~50W에 불과했다.
 
드보크는 해결책은 애플리케이션에 더 특화된 하드웨어를 개발하는 것이라면서 “범용 CPU나 GPU를 사용하는 대신 특화된 하드웨어가 증가하고 있다. 특수한 기능 유닛 빌딩블록을 하드웨어에 추가하면 머신러닝 알고리즘의 학습 효율성을 높일 수 있다”고 말했다.
 

4) 학습 시간 단축

학습의 높은 소비 전력을 피해가는 또 다른 방법은 학습을 덜 하는 것이다. 학습 경험이 축적되면 학습 알고리즘을 재검토해 정확도를 잃지 않으면서 없앨 수 있는 부분을 찾아보라.
 
콘웨이는 “최첨단 추론에서는 단순한 일에도 많은 학습이 필요하다. 기계의 지능이 높아짐에 따라 필요한 학습량을 줄일 수 있도록 추론을 개선하는 작업이 진행되고 있다. 추론의 지능을 높이면 학습을 줄일 수 있다”고 말했다.
 
학습은 일반적으로 단일 정밀도(32비트) 또는 배정밀도(64비트) 계산을 통해 수행된다. 정밀도가 높을수록 처리 속도는 느리지만 전력 소비량에는 변화가 없다. 세밀한 그래픽 정확도가 중요한 이미지와 영상 처리를 제외하면 대부분 그렇게까지 높은 정밀도는 필요 없다는 것이 엔비디아와 구글을 포함한 많은 AI 개발 업체의 중론이다.
 
드보크는 “예를 들어 신경망을 최대한 간소하게 만들거나 알고리즘의 특정 속성을 활용해서 필요한 연산의 수를 줄이는 작업이 활발히 진행되고 있다. 기업은 많은 매개변수가 사실 제로(0)임을 확인한 다음 계산을 실행하지 않거나 줄이는 방법으로 신경망의 구체적인 특성을 활용하기 위해 노력하고 있다. 이 프로세스를 가지치기(pruning)라고 한다”고 말했다. 
 
정밀도를 낮춘 계산에 대한 관심은 지난 몇 년 사이 서서히 높아졌다. bfloat16 형식은 IEEE가 개발한 부동소수점 형식으로, 인텔의 AI 프로세서와 제온 프로세서, FPGA, 구글 TPU와 텐서플로우(TensorFlow) 프레임워크에 사용된다. bfloat16 형식이 인기를 끈 이유는 대부분의 경우에 충분한 정확성을 제공한다는 데 있다.
 

5) 항상 학습 최적화

드보크는 추론 학습을 주기적으로 재실행해서 알고리즘을 개선 및 최적화하는 것도 중요하다면서 “이론적으로 학습을 몇 번만 실행할 수도 있지만 ‘영구적으로 완성됐다’는 개념은 없다. 기업은 AI 알고리즘의 성능을 개선하기 위해 지속적으로 노력하면서 알고리즘을 끊임없이 학습 또는 재학습시킨다”고 말했다.
 
스와츠는 ML/AI 작업 시 모든 팀원이 학습 집합의 문턱값(threshold)과 새 모델을 구축/재구축하는 “베이크 타임(bake time)”에 동의하는 프로세스를 두고 있다고 말했다. 새 학습 정보가 추가되면 모델 재학습에 소비되는 시간이 줄어든다.
 
스와츠는 “모든 모델은 두 모델 사이의 델타를 찾아 ‘새’ 데이터만 다음에 처리할 학습 집합에 추가하는 형식인 전이 학습을 수용해야 한다. 우리 팀은 몇 년 동안 이 작업을 수동으로 했지만 지금은 알고리즘이 스스로 찾을 수 있다”고 말했다.
 

6) 클라우드로 시선 돌리기

모든 주요 클라우드 제공업체는 AI 제품을 보유하고 있으며 구글이 텐서플로우 AI 프로세서로 가장 앞서 있다. 스넬은 특히 처음부터 시작해야 하는 경우 클라우드 업체를 이용하는 편이 더 경제적일 수 있다고 말했다.
 
스넬은 “온프레미스 비용을 상쇄하기 위해 클라우드를 물색하는 경우가 많다. 클라우드가 이득이 되는지는 사용량과 제공업체에 따라 달라진다. 전기는 항상 어딘가에서는 소비된다. 비용에는 클라우드 제공업체에 내는 전기요금이 포함돼 있다. 클라우드가 항상 더 저렴한 것은 아니다. 데이터 과학 같은 스킬셋이 부족하다면 아웃소싱이 더 나을 수 있다”고 말했다. editor@itworld.co.kr 


2021.01.21

"AI 데이터센터는 전기 먹는 하마?" AI로 데이터센터 요금 최적화해야

Andy Patrizio | Network World
인공 지능(AI)과 머신러닝(ML)은 혁신에 박차를 가하는 매우 유용한 툴이 될 수 있지만, CPU와 메모리 사용률을 적절하게 유지하며 실행하는 일반적인 기업 IT 애플리케이션과는 관리 면에서의 요구사항이 다르다. 보통 AI와 ML은 사용률이 매우 강도 높은 연산을 전담하므로 전기와 냉각 비용이 IT 부서의 예상을 뛰어넘을 수 있다.
 
새로운 문제는 아니지만 그 영향은 갈수록 확대되고 있다.
 
데이터 웨어하우징, 비즈니스 인텔리전스 같은 CPU 부하가 큰 애플리케이션이 확산되었을 때도 IT 부서는 전기요금 상승분을 인지하지 못하는 경우가 많았다. 청구서는 보통 IT가 아니라 운영 부서로 전달되기 때문이다.
 
AI 개발 업체 뉴럴(Neural)의 창업자이자 CEO인 마크 스와츠는 “데이터 과학 팀 리더는 언제든, 무엇이든 프로세스할 수 있는 전권을 가진 경우가 많다. 무거운 계산 요구 사항을 해결하기 위한 사치스러운 접근 방법은 향후 5년 이내에 둔화되기 시작할 것”이라고 말했다.
 
기업이 전기 및 냉각 비용을 더 깐깐하게 살피는 이유 중 하나는 데이터 웨어하우징과 비즈니스 인텔리전스 애플리케이션이 표준 시스템에서 실행이 가능한 반면, AI는 고성능 컴퓨팅(HPC)에 의존하는 경우가 많다는 데에 있다. HPC 전문 시장조사 업체인 인터섹트360(Intersect360)의 CEO 애디슨 스넬은 HPC와 AI는 발열량이 훨씬 더 크다면서 당연히 청구서 금액의 증가를 예상해야 한다고 말했다.
 
스넬은 “발열량이 큰 모든 유형의 IT 작업에는 그에 상응하는 비용이 따른다. 마음의 준비를 하지 않고 AI 전력 소모량과 일반 기업 IT 서버가 같을 것이라고 생각하면 전기 및 냉각 비용에 충격을 받을 수도 있다”라고 말했다.
 
충격적인 요금 고지서를 받아 들고 놀라지 않으려면 어떻게 해야 할까? 6가지 단계를 소개한다.
 

1) 전기 요금 낮추는 선택지 물색하기

회사 외부에 데이터센터를 둘 수 있다면, 수력 발전부터 시작해 재생 가능 에너지원을 찾는 방법이 있다. 수력 전기는 비용이 가장 낮은 전기 중 하나다. 하이페리온 리서치(Hyperion Research)의 HPC 시장 선임 자문인 스티브 콘웨이는 “마이크로소프트와 구글이 대형 수원 인근에 데이터센터를 두는 이유가 있다”고 말했다.
 
풍력 발전 역시 화석 연료보다 저렴하다. 많은 데이터센터가 미국 중서부에 몰려 있는 이유다. 또한 대도시보다는 시골 지방의 전기 요금이 낮은데, 대다수의 데이터센터가 주요 도시에 위치하는 이유는 필요에 따른 것이다. 미국의 경우, 데이터센터 시장 규모로 보면 연방 정부와의 근접성이라는 장점을 지닌 버지니아 북부가 가장 크지만 아이오와(마이크로소프트, 구글, 페이스북), 오클라호마(구글), 뉴멕시코(페이스북)에도 데이터센터가 있다.
 
콘웨이는 또한 계산량이 많은 애플리케이션을 야간에 실행하는 방법도 있다면서 사용량이 적은 야간에는 전기 요율이 낮아지는 경우가 많다고 말했다.
 

2) AI를 사용해 전기 사용 최적화

모순이라 생각할 수도 있지만, 데이터센터 컴퓨터를 관리하는 최선의 방법 중 하나는 AI 그 자체다. AI는 전기와 냉각을 최적화하고 워크로드 분산을 개선하고 예측 정비를 통해 임박한 하드웨어 장애를 경고할 수 있다. AI 유형 중에서도 머신러닝이 아닌 모니터링에 속하는 AI로, 시스템에 가하는 부담이 그다지 크지 않다. 또한 스와츠는 서버에서 센서를 사용해서 전원 공급 장치와 CPU 사용량의 급증을 감지하고 시스템 온도가 높은 경우 클라이언트에 알릴 수 있다고 말했다.
 
디지털 기술에 초점을 둔 리서치 및 개발 업체 아이멕(imec)의 CSO 조 드보크는 “AI를 적절히 사용하는 것만으로 에너지를 줄이는 데 도움이 된다. AI를 적용해서 효율성을 높일 수 있는 애플리케이션이 매우 많다”라고 말했다.
 

3) 적절한 곳에 저전력 칩 사용

머신러닝은 학습과 추론의 2단계 프로세스다. 학습은 이미지 또는 사용 패턴과 같은 어떤 것을 인지하도록 시스템을 학습시키는 과정으로, 프로세서 부하가 높은 단계다. 추론은 ‘이것이 모델과 일치하는가?’에 대한 단순한 예/아니요의 문제다. 일치를 찾는 데 필요한 처리 성능은 일치를 인식하도록 시스템을 학습시킬 때의 처리 성능에 비해 훨씬 낮다. 
 
GPU는 학습에 가장 좋은 옵션인 반면, 전기 소비량이 최대 300W에 이른다. 추론에 GPU를 사용할 수는 있지만, 전력 소비가 훨씬 더 낮은 부품으로도 가능한데 굳이 그럴 필요는 없다. 인텔은 특수 추론 칩인 너바나(Nervana)를 제공했는데, 이 칩은 단종되고 하바나(Habana) 칩이 그 뒤를 이었다. 초기 테스트에서 너바나의 추론 시 소비전력은 10~50W에 불과했다.
 
드보크는 해결책은 애플리케이션에 더 특화된 하드웨어를 개발하는 것이라면서 “범용 CPU나 GPU를 사용하는 대신 특화된 하드웨어가 증가하고 있다. 특수한 기능 유닛 빌딩블록을 하드웨어에 추가하면 머신러닝 알고리즘의 학습 효율성을 높일 수 있다”고 말했다.
 

4) 학습 시간 단축

학습의 높은 소비 전력을 피해가는 또 다른 방법은 학습을 덜 하는 것이다. 학습 경험이 축적되면 학습 알고리즘을 재검토해 정확도를 잃지 않으면서 없앨 수 있는 부분을 찾아보라.
 
콘웨이는 “최첨단 추론에서는 단순한 일에도 많은 학습이 필요하다. 기계의 지능이 높아짐에 따라 필요한 학습량을 줄일 수 있도록 추론을 개선하는 작업이 진행되고 있다. 추론의 지능을 높이면 학습을 줄일 수 있다”고 말했다.
 
학습은 일반적으로 단일 정밀도(32비트) 또는 배정밀도(64비트) 계산을 통해 수행된다. 정밀도가 높을수록 처리 속도는 느리지만 전력 소비량에는 변화가 없다. 세밀한 그래픽 정확도가 중요한 이미지와 영상 처리를 제외하면 대부분 그렇게까지 높은 정밀도는 필요 없다는 것이 엔비디아와 구글을 포함한 많은 AI 개발 업체의 중론이다.
 
드보크는 “예를 들어 신경망을 최대한 간소하게 만들거나 알고리즘의 특정 속성을 활용해서 필요한 연산의 수를 줄이는 작업이 활발히 진행되고 있다. 기업은 많은 매개변수가 사실 제로(0)임을 확인한 다음 계산을 실행하지 않거나 줄이는 방법으로 신경망의 구체적인 특성을 활용하기 위해 노력하고 있다. 이 프로세스를 가지치기(pruning)라고 한다”고 말했다. 
 
정밀도를 낮춘 계산에 대한 관심은 지난 몇 년 사이 서서히 높아졌다. bfloat16 형식은 IEEE가 개발한 부동소수점 형식으로, 인텔의 AI 프로세서와 제온 프로세서, FPGA, 구글 TPU와 텐서플로우(TensorFlow) 프레임워크에 사용된다. bfloat16 형식이 인기를 끈 이유는 대부분의 경우에 충분한 정확성을 제공한다는 데 있다.
 

5) 항상 학습 최적화

드보크는 추론 학습을 주기적으로 재실행해서 알고리즘을 개선 및 최적화하는 것도 중요하다면서 “이론적으로 학습을 몇 번만 실행할 수도 있지만 ‘영구적으로 완성됐다’는 개념은 없다. 기업은 AI 알고리즘의 성능을 개선하기 위해 지속적으로 노력하면서 알고리즘을 끊임없이 학습 또는 재학습시킨다”고 말했다.
 
스와츠는 ML/AI 작업 시 모든 팀원이 학습 집합의 문턱값(threshold)과 새 모델을 구축/재구축하는 “베이크 타임(bake time)”에 동의하는 프로세스를 두고 있다고 말했다. 새 학습 정보가 추가되면 모델 재학습에 소비되는 시간이 줄어든다.
 
스와츠는 “모든 모델은 두 모델 사이의 델타를 찾아 ‘새’ 데이터만 다음에 처리할 학습 집합에 추가하는 형식인 전이 학습을 수용해야 한다. 우리 팀은 몇 년 동안 이 작업을 수동으로 했지만 지금은 알고리즘이 스스로 찾을 수 있다”고 말했다.
 

6) 클라우드로 시선 돌리기

모든 주요 클라우드 제공업체는 AI 제품을 보유하고 있으며 구글이 텐서플로우 AI 프로세서로 가장 앞서 있다. 스넬은 특히 처음부터 시작해야 하는 경우 클라우드 업체를 이용하는 편이 더 경제적일 수 있다고 말했다.
 
스넬은 “온프레미스 비용을 상쇄하기 위해 클라우드를 물색하는 경우가 많다. 클라우드가 이득이 되는지는 사용량과 제공업체에 따라 달라진다. 전기는 항상 어딘가에서는 소비된다. 비용에는 클라우드 제공업체에 내는 전기요금이 포함돼 있다. 클라우드가 항상 더 저렴한 것은 아니다. 데이터 과학 같은 스킬셋이 부족하다면 아웃소싱이 더 나을 수 있다”고 말했다. editor@itworld.co.kr 


X