데이터센터

“데이터센터 열 발생이 주춤거리는 이유”

Robert L. Mitchell | Computerworld 2010.01.22

HP의 주요 시설 서비스 사업부 총괄 책임자인 피터 그로스는 2003년부터 2005년까지 2년 동안 데이터센터의 운영전력 집적도는 평방피트당 평균 25와트에서 52와트로 늘어났다고 밝혔다.

 

인더스트리얼 라이트 & 매직의 시스템 엔지니어이자 프로젝트 관리자인 게리 마이어는 최근 평방피트당 200와트를 사용하는 새로운 데이터센터의 설계를 끝냈다. 하지만 마이어는2005년을 생각하면 지금 평방피트당 400와트짜리 데이터센터를 만들어야 하는 것 아닌지 드러내놓고 의문을 제기했다.

 

하지만 이후 몇 가지 완충 요소가 추가되면서 성장곡선은 눈에 띄게 둔화됐다. 이중 하나는 향상된 전략 관리 툴을 개발하고 사용한 것이다. 그리고 또 하나 극적인 변화를 가져온 것은 최신 파워 서플라이를 사용한 것이다. 새로운 파워 서플라이는 활용도가 낮을 때도 전력 효율을 최저 65%에서 90%까지 끌어올렸다. 마지막은 서버에서부터 컴퓨터실 환풍기까지 데이터센터의 모든 곳에 변속 팬을 도입한 것이다.

 

무엇보다도 가장 가시적인 효과를 가져 온 것은 칩 업체들이 프로세서의 클럭 속도 향상 대신에 멀티코어 설계로 방향을 바꾼 것이다. 인텔의 데이터센터 기술 구상 책임자인 다이안 라슨은 “지난 몇 세대 동안 인텔은 발열 설계 포인트를 유지해 왔으며, 프로세서 내에서 전력 완화를 더 효율적으로 관리해 왔다”고 설명했다.

 

하지만 만약 소켓당 전력 소비가 시스템 레벨에서 그대로 유지된다면, 속도가 느려지기는 해도 집적도는 계속 높아질 것이다.

 

IBM의 펠로우이자 데이터센터 효율 부문 최고 엔지니어인 로저 슈미트는 “인텔은 열을 멀티코어에 분산시켰고, 짧은 시간 동안 칩 레벨에서 열 방출 문제를 억제했다. 하지만 사용자들이 서버에서 더 많은 것을 뽑아내려고 하기 때문에 랙에서 소비하는 전력은 계속 높아질 것으로 보인다”고 지적했다. 실제로 서버업체들은 자신들이 출시하는 서버가 고성능으로 구성되었으며, 과거에 비해 더 많은 열이 발생하는 프로세서와 메모리를 사용한다고 말한다.

 

여기에다 사용자들도 메모리에 더 많은 것을 올려놓고 있으며, DIMM 당 메모리 집적도 역시 계속 높아지기 때문에 소켓당 전력 소비는 줄어들지 않을 것이다. 서버업체들이 점진적으로 서버의 소켓 수를 늘려가고 있기 때문에 사용자들은 서버 한 대에 더 많은 가상머신을 구동할 수 있다. 예를 들어 IBM의 블레이드센터 HS22은 DIMM 슬롯 12개에 메모리를 96GB까지 장착할 수 있다. 슈미트는 “메모리가 큰 문제 중 하나”라며, “획기적인 해결책이 등장하지 않는 한 우리는 계속 이 문제와 싸울 것이다. 매우 힘든 일이다”라고 덧붙였다.

 

반어적인 것은 서버 가상화가 이런 열 발생 문제에 한몫을 하고 있다는 것이다. IT 부서는 물리 서버를 거의 30대 1 이상의 비율로 통합해 효율성과 공간의 자유를 얻은 반면, 수많은 가상 서버를 호스팅하는 새로운 플랫폼은 기존 시스템보다 더 높은 전력 집적도를 가질 수밖에 없기 때문이다.

 

가상화가 물리 서버를 엄청난 비율로 통합하면서 데이터센터의 순수 에너지 사용량은 줄어들어야 한다. 하지만 아직은 이런 일이 일어나지 않고 있다. 슈미트는 “모두가 가상화를 하고 있지만, 아직 눈에 띄는 전력 소비 감소는 발견되지 않고 있다”고 지적했다.

 

수많은 물리 서버가 사라졌는데, 왜 전력 소비는 줄어들지 않는 것인가? 슈미트는 “가상화의 규모가 아직 크지 않기 때문인지, 새로운 애플리케이션들이 추가되고 있기 때문인지 이유는 명확하지 않다”고 설명했다.

Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.