데이터센터

8가지 획기적인 데이터센터 전력 비용 절감 방안

Mel Beckman | InfoWorld 2011.04.07

오늘날의 데이터센터 관리자들은 소프트 이코노미가 부과한 예산 제한을 가지고 더욱 경쟁적인 마켓의 사업 수요에 맞추기 위해 곡예하듯 안간힘을 쓰고 있다. 그들은 운용비용(OPEX)을 줄일 방법을 모색하는데, 그 중에서도 데이터센터의 운용비용을 가장 많이 차지하면서도 가장 빠르게 증가하는 것은, 주로 서버와 냉각기에 의해 사용되는 전력 비용이다.

 

안타깝게도, 몇몇의 가장 효율적인 에너지 절약 기술들은 상당한 선행 투자를 필요로 하고 회수되는 비용은 향후 몇 년에 걸쳐서 측정된다. 하지만 종종 간과해버리는 몇몇 기술들은 비용이 거의 들지 않는다 ?그것들은 비현실적이거나 혹은 너무 급진적으로 보여 고려 되지 않는다. 여기에 설명할 8가지 전략적인 절약 방법들은 실제 데이터센터 환경에서 시도하고 테스트해서 그 효율성을 입증한 것들이다. 어떤 것들은 적은 투자만으로 바로 착수할 수도 있고 다른 것들은 어느 정도의 설비 투자(capex)를 필요로 하지만, 기존의 IT 설비 투자보다 훨씬 빠르게 투자 수익률(ROI)을 되돌려줄 것이다.

 

궁극적인 데이터센터의 에너지효율성 지표(metrics)는 전력사용효율성(Power Usage Effectiveness, PUE) 평가로 숫자가 낮을수록 좋으며 1.0이 이상적인 목표이다. PUE는 전체 데이터센터의 소모 전력 중에서 유용한 컴퓨팅 작업으로 전환된 양을 환산한다. 드물지 않게 보이는 2.0이란 수치는 데이터센터에 들어오는 2와트 중 1와트만이 서버에 도달한다는 의미이다. 손실된 전력은 열로 변환되고 전통적인 데이터센터의 냉각 장치를 통해 이 열을 없애기 위해서는 다시 전력을 필요로 한다.

 

다른 모든 간단한 지표들과 마찬가지로, PUE 역시 그 것이 의미하는 용도에 맞게 사용되어야 한다: PUE는 전력 효율성의 척도이다. 그것은 전체 전력 비용을 낮출 수 있는 주변의 환경에너지, 지열에너지, 혹은 수소연료 등과 같은 다른 에너지원들을 고려하지 않는다. 기술들은 기업의 측정 가능한 PUE값을 줄일 수도 줄이지 못할 수도 있지만 기업에서는 월별 전기 요금 고지서를 보고 간단하게 효율성을 평가해볼 수 있다. 어찌됐든 결국 그것이 관건이다.

 

여기에 소개되는 일종의 요령들은 태양에너지, 풍력에너지, 수소에너지 등을 이야기하진 않을 것이다. 이러한 대체 에너지원들은 선진 기술에 상당히 많은 투자를 필요로 하고 이는 지금의 경제 위기에 비용 절약을 너무 많이 지연시킬 것이다. 그에 반해, 다음의 여덟 가지 기술 중 어떠한 것도 팬, 덕트, 배관 등 그 이상으로 복잡한 기술을 요구하지 않는다.

 

여덟 가지 방안은 다음과 같다:

1. 온도를 더 높여라

2. 사용하지 않는 서버의 전원을 꺼라.

3. 외부 공기를 이용하여 ‘무료’로 냉각시켜라.

4. 데이터센터의 열로 사무실을 데워라.

5. 자주 사용되는 읽기-전용의 데이터 셋에는 SSD를 이용하라.

6. 데이터센터에 직류를 사용하라

7. 열을 땅에 묻어버려라

8. 관을 통해 열을 바다로 옮겨라.

 

획기적인 에너지 절약 방안 1: 온도를 더욱 높여라

당장 오늘 오후부터 전력을 절약할 수 있는 가장 간단한 방법을 실행에 옮길 수 있다: 데이터센터의 온도 조절기를 높이는 것이다. 종래의 지식으로는 데이터센터의 온도를 화씨 68도 이하로 낮출 것을 요구하는데, 이러한 온도가 장비의 수명을 늘려주고 냉각 시스템이 고장난 경우 좀더 시간을 가지고 대처할 수 있다고 논리적으로 설명한다.

 

경험적으로, 작동 온도가 올라갈수록 서버 구성 요소들, 특히 하드 디스크의 고장이 더 잦아지는 것을 볼 수 있다. 하지만 최근 몇 년간, IT 경제는 중대한 변화를 맞았다: 이제는 취득 원가보다 서버 운용 비용이 일반적으로 더 높다. 이로 인해, 운용 비용 절감보다 하드웨어 보존의 우선 순위가 더 낮아질 수 있다.

 

작년 그린넷(GreenNet) 컨퍼런스에서, 구글의 에너지 사업 담당자 빌 웨일은 구글이 데이터센터의 온도를 높인 경험을 예로 들어, 데이터센터에 몇 가지 필수 전제 조건만 만족된다면 화씨 80도가 문제없이 새로운 기준이 될 수 있다고 설명했다: 더운 공기와 차가운 공기의 흐름을 되도록 분리시키고, 필요하다면 커튼이나 단단한 장벽을 이용할 수 있다.

 

화씨 80도가 “안전한” 온도 향상임에도 불구하고 마이크로소프트의 예는 온도를 더 높일 수도 있음을 보여준다. 마이크로소프트의 더블린(Dublin, Ireland)에 있는 데이터센터는 “냉각기를 덜 사용하는” 상태에서 작동되고 있는데 무료로 외부 공기를 이용해서 냉각시키고 서버의 입구는 화씨 95도까지 온도가 올라갈 수 있다. 그러나 온도가 높아짐으로 인해 서버의 팬 속도가 빨라지고 이는 전력 소모를 증가시켜, 어느 순간 수익이 체감된다는 사실에 유의해야 한다.

 

획기적인 에너지 절약 방안 2: 사용하지 않는 서버의 전원을 꺼라

가상화는 사용하지 않는 프로세서, 디스크, 메모리 등을 스핀 다운할 경우 생겨나는 에너지 절약 효과를 잘 보여준다. 그렇다면 전체 서버의 전원을 꺼버리면 어떨까? 언제나 준비되어 있도록 서버를 지키는 “비즈니스 민첩성”을 증가시키는 것이 서버가 소모하는 초과 전력에 대한 비용을 들일만큼 가치가 있을까? 만약 파워를 내려도 될만한 서버들을 찾을 수 있다면 최소한 그 서버들에서는 가장 낮은 전력 사용량-영(zero)-을 달성할 수 있을 것이다. 그러나 그 전에 안 된다고 주장하는 사람들의 반대에 우선 맞서야 할 것이다.

 

우선 한 가지 반대 이유는, 일반적으로 전원 사이클링은 메인보드의 커패시터(capacitor)와 같이 필드에서 교체가 불가능한 구성 요소들에 압박을 가하여 서버의 기대 수명을 단축시킨다고 생각되기 때문이다. 그러나 이는 근거 없는 얘기로 밝혀졌다: 실제적으로 서버는, 자동차나 의료 기구 같이 일상적으로 잦은 전력 사이클링이 발생하는 기기들에 사용되는 것과 같은 부품들로 구성된다. 서버에서 일종의 전력 사이클링이 지속된 결과 평균고장간격(MTBF;mean time between failure)이 감소한다고 할만한 어떠한 증거도 없다.

 

두 번째로, 서버가 작동을 시작하기까지 너무 오래 걸린다고 반대한다. 하지만 부트 타임에 진단 검사와 같은 불필요한 것들 끄기, 이미 작동중인 서버 스냅샷에서 부팅하기, 몇몇 하드웨어에서 가능한 웜-스타트 기능 이용하기 등을 통해 서버 스타트업 시간을 단축시킬 수 있다.  

 

세 번째로는, 늘어난 로드를 수용하기 위해 서버의 전원을 올려야 한다면 얼마나 빨리 부팅이 되든 간에 유저들은 기다려주지 않을 거라고 불평한다. 그러나 대부분의 애플리케이션 아키텍처들은 새로운 유저들에게 프로세스가 더 느리게 요청한다는 간단한 말조차 일러주지 않는다. 따라서 유저들은 자신들이 서버가 스핀 업 하기까지 기다리고 있다는 사실을 알지 못한다. 애플리케이션이 인원수의 한계에 다다르면, “우리는 당신의 요청을 빨리 처리하기 위해 추가 서버를 스타트업하고 있다”라는 간단한 메시지로 계속 알려주는 한, 유저들은 기꺼이 거기에서 기다릴 것이다.

#######

획기적인 에너지 절약 방안 3: 외부 공기를 이용하여 “무료”로 냉각시켜라

데이터센터의 온도가 올라가면 선뜻 외기 냉방이라고 불리는 두 번째 파워 절약 기술을 이용하게 된다. 온도가 낮은 외부 공기를 냉각 공기의 소스로 사용하여 비싼 냉각 장치를 우회하도록 하는 방법으로 마이크로소프트의 더블린 데이터센터에서 채용한 방식이다. 만약 화씨 80도를 유지하고자 하는데 바깥 온도는 화씨 70도라면, 바깥 공기를 데이터센터로 불어넣는 것만으로 필요한 냉각 효과를 모두 얻을 수 있다.

 

이를 구현하는 일은 온도조절기를 높이는 첫 번째 처방보다 약간 더 시간과 노력을 요한다: 바깥 공기를 안으로 들여오기 위해 덕트의 경로를 변경해야 하고, 민감한 전자 장비들이 확실히 손상을 입지 않도록 아주 기본적인 안전 조치들-공기 정화 장치(air filter), 기수 분리 장치(moisture trap), 방화 댐퍼(fire damper), 온도 감지기(temperature sensor) 등-을 마련해야 한다.

 

통제 실험에서 인텔(Intel)은 외부 공기를 이용할 경우 전력 소모의 74%가 감소한다는 사실을 밝혀냈다. 두 대의 트레일러에 각각 서버를 싣고 하나는 기존의 냉각기를 이용하고 나머지 하나는 냉각기와 큰-입자 필터링을 거친 외부 공기를 함께 이용하게 한 채 열 달 동안 구동시켰다. 공기가 자유롭게 드나드는 트레일러는 구동 시간 중 91%에 해당하는 시간 동안 오직 공기만 이용해서 냉각할 수 있었다. 또한 인텔은 외부 공기로 냉각된 서버에서 상당한 층의 먼지를 발견했는데, 이는 효과적인 미세-입자 필터링의 필요성을 한층 강화시켰다. 아마도 필터를 자주 바꿔야 할 것이고, 청소할 수 있고 재사용할 수 있는 필터의 비용을 고려해야 할 것이다.

 

인텔은 상당한 먼지와 습도의 넓은 변화폭에도 불구하고 외부 공기를 사용하여 냉각한 트레일러에서 고장률이 증가하지 않음을 발견했다. 데이터센터가 10MW를 소모한다고 가정하고 연간 절감되는 냉각 비용을 추정해보면 거의 3백만 달러(한화 약 3천 억 원) 에 달한다. 이와 함께 어떤 지역에서는 그 자체로 비싼 상품이 되기도 하는 물 역시 76백만 갤런(약 2억 8천 리터)이나 절약된다.

 

획기적인 에너지 절약 방안4: 데이터센터의 열로 사무실을 데워라

데이터센터의 열(BTU; 영국식 열량 단위)을 이용하여 사무실을 데울 경우 에너지 절약 효과가 배가 될 수 있는데 이는 결국 상대적으로 차가운 사무실 공기로 데이터센터를 식히는 것과 같은 말이다. 차가운 기후의 지역에서는 상상컨대, 사람들을 따뜻하게 유지하는데 필요한 열을 모두 얻을 수 있고 추가적인 냉각이 필요할 경우 순전히 외부 공기 만으로도 해결할 수 있을 것이다.

 

외부 공기 냉각법과는 달리, 이번에는 기존의 난방 시스템이 필요 없어질 것이다; 당연히 바깥이 충분히 따뜻하면 사람들로 가득 찬 찜통을 찾지는 않을 것이다. 또한 서버실에 있는 전자 장비들에서 나오는 김에서는 어떠한 화학적 오염도 걱정할 필요가 없다. 현대의 특정 유해물질 사용 제한 지침(RoHS)에 부응하여 서버들은 환경에 비친화적인 오염물질들-카드뮴, 납, 수은, 폴리브롬화 물질 등-을 구성 단계에서부터 제거해나가고 있다.

 

외부-공기 냉각법과 마찬가지로 이 것을 실행하기 위해 필요한 유일한 기술은 훌륭한 오랜 HVAC(난방, 환기, 공기 조절) 노하우이다; 팬, 덕트, 온도조절기 등을 말한다. 데이터센터가 기존의 난방 시스템을 대체하기에는 너무 많은 열을 방출한다는 것을 아마 알 수 있을 것이다. 스위스 유이티콘(Uitikon, Switzerland)에 있는 IBM의 데이터센터는 지역 수영장을 무료로 데워줄 수 있었는데 이는 집 80채의 난방에 해당하는 에너지 절약이다. 파리에 있는 텔레시티 그룹(TeleityGroup)은 심지어 서버에서 나오는 열로 기후 변화 연구에 사용되는 온실들을 연중 내내 따뜻하게 데워주고 있다.

 

난방 시스템을 변경하는 일은 주말 프로젝트 이상의 것들을 수반하겠지만 비용은 아마도1년 혹은 그 안에 절약으로 거두어들일 수 있을 만큼 충분히 낮을 것이다.

 

획기적인 에너지 절약 방안5: 자주 사용되는 읽기-전용의 데이터 셋에는 SSD를 이용하라

SSD는 빠른 접근 시간, 낮은 전력 소모, 매우 낮은 열 방출량 등으로 인해 넷북, 타블렛, 노트북 등에 많이 쓰여왔다. 물론 서버에도 쓰이긴 하지만 최근까지 그 가격과 신뢰도가 서버에 적용하는 데에 걸림돌이 되었다. 그러나 다행스럽게도, SSD는 지난 2년동안 상당히 가격이 많이 떨어졌으며, 덕분에 데이터센터의 빠른 에너지 절약을 위한 후보로 여겨지고 있다. ?다만 사용자가 그것들을 올바르게 적용시킬 수 있다면 말이다. 정확하게 사용된다면, SSD는 디스크 어레이에 들어가는 전력과 냉각 비용을 상당히 많이 떨어트릴 수 있는데, 전기 소비량은 약 50% 수준으로 낮추고 열은 거의 발생시키지 않게 된다.   

 

SSD가 해결하지 못한 한가지 문제는 쓰기 동작(write operation)의 횟수가 제한되어 있다는 점인데, 현재로서는SLC(Single Level Cell) 당 약 5백만 번의 쓰기가 가능한 장비가 서버 스토리지에 적합하다. 가격이 저렴하고 소비자를 대상으로 한 MLC(Multi Level Cell)은 더 높은 용량을 갖추었지만 내구성은 SLC의 10분의 1에 불과하다.

 

SSD에 관한 좋은 소식은 플러그가 호환되는 드라이브를 사서 손쉽게 기존의 전력 소모가 크고 열이 많이 방출되는 장비들을 대체할 수 있다는 것이다. 빠른 전력 감소를 위해, 스트리밍 비디오 보관소와 같이 크고 주로 읽기-전용의 데이터 셋을 SSD로 대체해야 한다. 그렇게 하면 SSD가 낡아가는 문제에 부딪히지 않으면서, 전력과 냉각 비용의 감소뿐만 아니라 즉각적인 성능 향상 효과까지 누릴 수 있을 것이다.

 

데스크톱 용도가 아닌 서버 용으로 특정하게 설계된 드라이브를 선택해서 사용해야 한다. 그러한 드라이브들은 전형적으로 작업 처리량을 늘리기 위해 다중 채널 구조를 가지고 있다. 가장 흔한 인터페이스는 SATA2.0으로 전송 속도는 3Gbps이다. 히타치/인텔(Hitachi/Intel)의 울트라스타(Ultrastar)와 같은 고가의 SAS 장비들은 6Gbps까지 속도를 높일 수 있고 용량은 400GB에 달한다. 비록 SSD 장비들이 어떤 설계적 결함에 직면했다 하더라도, 이것들은 원래 서버 저장 장치와는 관련없는 인자들- 바이오스(BIOS) 암호와 바이오스 암호화 등-을 수반하는 데스크톱과 노트북의 드라이버들과 호환하여 사용해 왔음을 기억해야 한다.

 

적어도 처음에는 SSD의 사용을 다소 주의 깊게 살펴보아야 한다. 인텔과 다른 SSD 생산업체들은 쓰기 실패가 발생하는 경우를 비롯해 읽기/쓰기 사이클을 추적할 수 있는 분석 툴을 제공한다. SSD 디스크는 균등 분배(load leveling)라고 불리는 프로세스를 통해 심지어 기기 반대쪽으로까지 덜 마모된 곳으로 쓰기를 자동적으로 리맵 하는데, 게다가 이를 통해 에러를 감지하고 복구할 수도 있다. 하지만 정말 심각한 쓰기 실패가 발생하기 시작하면, 그것은 곧 드라이브를 교체할 때가 왔음을 의미한다.

 

획기적인 에너지 절약 방안 6: 데이터센터에 직류 전류를 사용하라

그렇다, 직류 전류는 구식이다. 이 변덕스러워 보이는 에너지원은 전기 기술이 떴다가 쇠퇴하기를 반복하는 동안 주기적으로 부각되고 있다. 직류의 매력은 단순한 데에 있다: 서버들은 내부적으로 직류를 사용하므로 파워를 직류로 바로 공급하게 되면 서버 내부 전원에서 교류에서 직류로 변환 작업을 수행할 필요가 없어져 전력을 절약할 수 있다.

#######

2000년대 초반에는, 그 시기에 나오던 서버들의 전원 공급 변환 효율이 75% 정도로 낮았기 때문에 직류가 인기가 많았다. 하지만 그 뒤로 전원 공급 효율이 개선되었고 데이터센터들 역시 훨씬 효율적인 208V AC로 옮겨갔다. 2007년에 이르러서는, 직류의 인기가 완전히 시들해졌다. 심지어 인포월드는 2008년에 “전력 소비 줄이기에 관한 10가지 잘못된 이야기”란 기사에서 그것이 근거 없는 이야기들 중 하나에 속한다고 밝혔다. 그러고 나서 2009년에 직류는 고전압 데이터센터 장비의 도입에 힘입어 다시 상승세를 타기 시작했다.

 

초기 데이터센터에서는, 발전소로부터 공급되는 16,000VAC(교류전압)의 유틸리티 전기가 먼저 건물 안에서 라우팅을 위해 440VAC로 변환되고, 그 다음에는 200VAC, 최종적으로는 110VAC로 변환되어 서버에 제공되었다. 각 변환마다 100%보다 낮은 효율로 인해 전력이 손실되었고, 손실된 전력은 열로 바뀌었다(이 열은 냉각 시스템을 통해 제거해야 하고 이는 더 많은 전력 비용을 초래한다). 208VAC로 바꾸게 되면서 변환 한 단계가 줄어들었고 서버 내부 전원 공급은 95%의 효율을 얻을 수 있었고 그 이상 더 얻을 것이 없었다.

 

하지만 2009년에 13,000VAC에서 곧바로 575VDC(직류전압)으로 변환되는 새로운 라인의 데이터센터 장비가 출시되었고 그 이후에 이것은 랙에 직접적으로 연결되어, 여기에서 나온 전기는 최종적으로 컨버터가 랙에 있는 서버들이 사용할 수 있도록 48VDC로 변환시켜 준다. 각 변환 단계는 지난 AC 변압기 기술보다 약 2배 정도 효율적이며 열도 훨씬 덜 방출한다. 제조업체들은 전기와 냉각 시스템의 감소로 인한 절약 비용을 합치면 50%에 달한다고 주장하지만, 대부분의 전문가들은 25%로 받아들여야 한다고 말한다.

 

이 획기적인 접근 방법은 새로운 기술에 어느 정도의 지출을 요구하긴 하지만 관련 기술들은 복잡하지도 않고 믿을만한 것으로 입증되었다. 한 가지 잠재적인 간접 비용은 48VDC를 분배하기 위해 필요한 구리 함유량이 높은 케이블에서 발생할 수 있다. 줄의 법칙(Joule’s Law)이 지적하듯, 전압이 낮아질수록 전류가 높아지기 때문에 고전압과 같은 파워를 전달하기 위해서는 더 강력한 전도체가 필요하다. 데이터센터에 필요한 또 다른 비용 요소는 AC에 비해 DC의 경우 거리에 따라 전압이 큰 폭으로 떨어진다는 점이다(100피트 당 약 20%). 바로 이 때문에 48VAC 변환이 유틸리티 파워가 들어올 때가 아닌 랙에서 이루어지는 것이다.

 

물론 직류로 변환하기 위해서는 서버가 48VDC의 전원 공급을 수용할 수 있어야 한다. 일부에게는 DC로 변환하는 일이 비교적 간단하다. 예를 들면 블레이드 서버와 같은 샤시 기반의 서버들은, 여러 서버들이 하나의 전원을 공유하기 때문에 변환 비용이 더 저렴할 것이다. 구글은 서버 전원 공급을 12V 배터리들로 바꾸는 저차원적 기술의 방법을 사용하여, 기존의 AC전원이 공급되던 UPS(무정전 전원 공급) 인프라 시설의 99%에 해당하는 효율을 얻었다고 주장한다.

 

만약 서버 업그레이드를 계획하고 있다면 최근에 제퍼디 쇼(Jeopardy Show)에서 왓슨(Watson) 등의 경쟁자를 물리친 IBM의 파워50와 같이, 575VDC에서 바로 전원을 공급받을 수 있는 더 큰 시스템을 고려하게 될지도 모른다. 시라쿠스 대학(Syracus University)이 작년에 데이터센터를 구축하면서 575VDC로 IBM Z와 파워 메인프레임들에 전원을 제공하듯, 새로운 구성은 아무 것도 없는 상태에서의 시작에 따른 이익들을 누릴 수 있을 것이다.

 

획기적인 에너지 절약 방안7: 열을 땅에 묻어버려라

따뜻한 지역에서는 외부-공기 냉각법을 연중 내내 이용할 수 없다. 예를 들면 아이오와주는 겨울이 비교적 따뜻하지만 여름은 매우 더워서 공기 온도가 화씨 90도에서 100도 사이에 달하며, 이는 공기를 이용한 절약에 적합하지 않다.

 

하지만 땅을 아래로 조금만 파보면, 땅의 온도가 보통 일정하고 비교적 낮다는 걸 알 수 있다. 지구 표면 아래는 비나 열과 같이 기존 장비에 많은 부담을 주던 바깥 날씨 조건에 별로 영향을 받지 않는다. 땅 아래로 파이프를 연결하면, 서버에서 발생한 열을 나르는 뜨거운 물이 땅 속 깊이 흘러내려가 주변 토양으로 열을 전도시킴으로써 열을 처리할 수 있다.

 

이것도 마찬가지로 기술이 로켓공학처럼 복잡하지 않다. 지열을 이용한 냉각을 위해 상당한 양의 파이프가 필요할 뿐이다. 성공적인 지열 기구 설치를 위해서는 세심한 사전 분석이 역시 필요하다. 데이터센터는 열을 지속적으로 발생시키기 때문에, 열을 한 공간으로만 흘려 보내는 것은 그 땅을 포화시키고 냉각 효과의 손실을 초래할 수 있다. 데이터센터 주변 토양의 용량에 대한 분석을 통해 주어진 지역이 얼마나 열을 흡수할 수 있으며 지하대수층에서 보조적인 열-전도가 열의 분산을 향상시킬 수 있을지, 그리고 만약 환경적인 영향이 발생할 수 있다면 그게 무엇인지 등을 결정하게 된다.

 

아이오와 주의 경우에는, 비영리 미국 대학 입학 학력고사 기관이 아이오와 시의 데이터센터들을 위한 토양의 히트싱크를 배치했다. 또다른 중서부에 위치한 기업인, 헤이스팅스(Hatings) 근처의 프레리 벙커스(Prairie Bunker) 사의 경우에는 몇 개의 5000 평방 피트 넓이의 군사 기지를 자급자족의 데이터센터로 전환 시켜서 데이터센트 파크(Data Center Park)를 만들기 위해 지열 냉각법을 추구하고 있다.

 

획기적인 에너지 절약 방안 8: 관을 통해 열을 바다로 옮겨라

토양의 히트싱크와는 달리, 바다는 사실상 데이터센터의 사용을 위한 무한한 히트 싱크가 되어줄 수 있다. 요령은 비슷하기는 하지만 일반적으로 생각하는 것보다는 훨씬 그럴 듯해 보인다. 미국과 캐나다 국경 사이에 있는 5대호(Great Lakes)와 같이 충분히 큰 수역이라면 얼마든지 냉각수 저수지로 기능할 수 있다.

 

궁극적으로 바다를 이용한 냉각 시나리오는 인근 지역의 바다를 이용할 수 있는 ‘데이터센터 아일랜드’를 건설하여 바다로부터 민물로 열 교환기를 사용하는 것이다. 개념 자체는 훌륭해서 구글은 지난 2007년에 그것의 특허권을 취득했다. 구글의 접근방법은 그것의 첫 단계로 섬을 취득하거나 건설해야 한다는 점에서 이 기사의 목적과 거리가 멀다.

 

그럼에도 만약 이미 데이터센터가 해안에 꽤 가까이 위치하고 있다면 개념 자체는 그다지 억지스럽지 않다. 원자력 발전소들은 몇 십 년째 바다와 호수의 물을 이용하여 냉각하고 있다. 지난 가을, 컴퓨터 스웨덴(Computer Sweden의 구글의 영어 번역 버전)에 보고되었듯 구글은 핀란드 하미나(Hammina, Finland)에 있는 개조된 종이 펄프 제조 공장에 이러한 접근방법을 적용하였다. 차가운 발틱해(Baltic Sea)의 바닷물을 새로운 메가 데이터센터를 냉각시키는 유용한 수단으로 사용할 뿐 아니라 긴급 화재 예방을 위해 바닷물을 제공하여 이러한 접근의 높은 신뢰도를 보여주고 있다. 펄프 공장은 발틱해로부터 2피트 반경의 파이프로 물을 제공받으며 이는 프로젝트의 구현 비용을 감소시켰다.

 

담수 호는 데이터센터를 냉각시키는데 성공적으로 사용되어 왔다. 뉴욕 주 이타카(Ithaca, N.Y.)에 위치한 코넬 대학의 캠퍼스는 카유가(Cayuga) 호수로부터 거의 2.5조 갤런에 해당하는 물을 공급받아 데이터센터를 냉각시킬 뿐 아니라 캠퍼스 전체를 시원하게 유지하고 있다. 이러한 냉각 시설 중 으뜸은 2000년에 건설된 레이크-소스-쿨링(Lake Source Cooling)이다. 시간당 35,000갤런(약 13만 리터)을 퍼 올려서 2.5마일 떨어진 곳에 위치한 학교 건물들에 화씨 39도(약 섭씨-17도)의 물을 공급하고 있다.

 

바닷물과 담수를 이용한 냉각시스템 모두 다소 비싼 구성요소를 하나 필요로 한다: 데이터센터를 식히기 위해 바로 사용되는 물로부터 천연 물을 분리해내는 열 교환기이다. 이러한 분리는 환경과 민감한 서버 장비 모두를 보호하는 데 필수적이며, 또한 냉각 시스템에서 물이 어디론가 빠져나가야 한다. 그러나 이 비싼 요소 하나만 제외하면 바닷물과 담수를 이용한 냉각시스템은 시중의 평범한 파이프 이상으로 복잡하지 않다.

 

얼마나 많은 돈을 절약할 수 있는가?

이러한 기술들의 가치는 이들 중 어떤 것도 상호 배타적이지 않다는 데에 있다: 이러한 비용 절약 방안들을 단기간의 예산과 장기의 목적에 맞도록 적절히 조합하여 사용할 수 있다. 데이터센터의 온도를 높이는 단순한 조치부터 시작해서 그 다음엔 첫 단계의 절약 효과에 비추어 다른 기술들의 유용성을 평가해보면 된다. editor@idg.co.kr

 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.