Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
데이터센터 / 클라우드

공급난 타격의 전방위적 여파 "모든 워크로드가 클라우드로"

Maria Korolov  | Network World 2021.12.21
메시지 서비스 업체 인터롭 테크놀로지(Interop Technologies)는 고객에 서비스를 제공하고 자체 백오피스 시스템을 운영하는 용도로 3곳의 데이터센터를 소유하고 있다. 사용자 사이트에 있는 턴키 하드웨어/소프트웨어 솔루션을 판매하는 것도 인터롭의 업무다. 그러나 팬데믹이 초래한 하드웨어 공급난, 특히 서버와 스토리지의 공급 부족으로 인터롭은 사업에 심각한 타격을 입었다.

이 업체의 인프라 부문 이사 조슈아 콜라조는 “조달 부문을 들여다보면 여기도 저기도 온통 재고가 없어 처리하지 못한 이월 주문뿐”이라고 표현했다.

팬데믹 이전까지 이 업체는 많은 기회를 빠르게 잡을 수 있었다. 그러나 콜라조는 “그것은 이제 먼 과거의 이야기가 되었다. 애드호크로 대표되는 즉석 시스템은 도도새처럼 멸종한 것이나 마찬가지”라고 말했다.

인터롭은 계절성 공급망 붕괴에 적응하는 중이다. 특히 그 중에서도 연말 특수에 적응하는 중이었다. 그러나 현재는 움직임이 없이 멈춘 부문이 훨씬 많다.
 
ⓒ Getty Images Bank

주문량이 많을수록 문제는 커진다. 상자 2, 3개가량만 필요한 기업에 작은 시스템을 프로비저닝하는 데에는 보통 1개월이 걸렸지만, 콜라조는 “20, 30, 50개의 상자가 필요한 주문은 6개월을 기다려야 한다. 9~18개월이 걸리는 프로젝트를 고려하면 여기에 6개월을 더해야 하고, 상황이 더 어려워진다”고 설명했다.
 

워크로드를 클라우드로 옮기기

인터롭은 핵심 서비스를 프라이빗 데이터센터에서 클라우드로 옮기는 것을 이전부터 고려했지만 실행하기는 쉽지 않았다.

클라우드 제공업체는 메시지 서비스에 최적화되지 않았고, 인프라를 인터롭 자체 운영할 경우 유연성이 훨씬 컸기 때문이다. 콜라조는 “전체 스택을 직접 제어하면 아마존 로드 밸런싱보다 선택지가 조금 더 늘어난다. 아마존은 자신만의 방식이 있고, 모든 것을 클라우드 업체의 역량에 맞춰 조절해야 한다는 것이 단점”이라고 꼬집었다.

“(그래서)시스템을 퍼블릭 클라우드에 넣을 수 있는 확실한 리팩터링 툴을 찾고 있다.”

공급망의 긴장 상태에 적절히 대응하기 위해 인터롭은 데이터센터의 활용 수준을 최대한 높이고자 했다.

콜라조는 “최대한 민첩하고 유연하게 쿠버네티스 같은 핵심 기술을 활용하려고 노력한다”고 설명했다. 이 업체는 다양한 데이터센터가 레거시 시스템의 단일 플랫폼처럼 기능하도록 플러리버스 네트워크(Pluribus Networks) 사의 적응형 클라우드 패브릭을 배포했다. 이를 통해 단일 데이터센터 안에서 실행되도록 설계된 애플리케이션 코드를 다시 쓰지 않고도 사용량을 극대화할 수 있었다.

그러나 수익 창출, 고객 서비스 제공 등의 핵심 시스템이 기능하도록 데이터센터 용량을 확보할 때 가장 중요한 요소는 결국 백오피스를 클라우드로 이전하는 것이었다.

콜라조는 이미 업그레이드가 예정되어 있었던 데이터센터를 클라우드로 옮기면서 일거양득의 효과를 얻었다고 설명했다. 코로나19로 인한 원격 근무 환경에 대비하기 위해 어차피 상당한 변경이 필요한 백오피스 시스템도 많았다.

백오피스 애플리케이션을 클라우드로 옮기면서 인터롭은 앱 업그레이드, 온디맨드형 용량 액세스가 가능하게 되었고, 이러한 변화는 모든 직원이 재택근무를 할 때 꼭 필요한 것이기도 했다. 그러나 보안을 이유로 클라우드로 이전하게 된 백 오피스 시스템의 제품명을 밝히기는 꺼렸다.
 

하이퍼스케일러 수요로 공급망 문제가 심화되다

팬데믹과 관련한 하드웨어 수급난에 대응하기 위해 클라우드로 워크로드를 이전하려고 나선 것은 인터롭만이 아니다.

인사이트와 IDG의 조사 결과에 따르면 IT 의사결정자 91%가 공급난 붕괴에 심각한 타격을 입었다고 답했다. 44%의 응답자가 그 대응책으로 여파를 줄이기 위해 클라우드로의 이전 프로세스를 계획하고 있다고 답했다. 43%는 막판에 임박한 즉석 구매를 피하고 있으며, 42%는 설비에 필요한 장기적인 가시성을 얻기 위해 미래 예측 역량을 개선하고 있다고 답했다.

인사이트의 수석 부사장 메건 암달은 공급망 문제가 2022년 중반까지도 계속될 것이며, 비단 반도체에만 국한되지 않을 것이라고 경고했다.

뉴클리어스 리서치의 애널리스트 아이작 굴드도 “단순 강철판조차도 수요를 맞추기 어려울 것이라는 이야기가 제조업체의 주류 의견이다. 물론 메인보드와 그래픽 카드 제조에는 어마어마한 반도체가 필요하고, 일반 가전 제품도 상황이 비슷하기 때문에 공급난이 가중되고 있다. 단순 공급 부족뿐 아니라, 팬데믹과 이동 제한에 따른 부담이 수요 급증으로 이어지고 있다”고 설명했다.

굴드는 제조 및 생산물이 가장 먼저 이동하는 곳이 하이퍼스케일 클라우드 업체라고 주장했다.

굴드는 “하이퍼스케일러가 공급의 대부분을 잡아먹고 있다. 새로운 데이터센터는 지금 이 순간에도 계속 생겨나고 있으며 그 속도가 늦춰질 기미가 보이지 않는다. 이런 상황에서 손해를 보는 것은 중소업체다. 반도체 수급 부족이 문제가 아니라, 생산되는 반도체의 대부분이 거대 업체의 신규 데이터센터에 몰린다는 점이 문제다. 아마존, 구글, 마이크로소프트, 오라클을 말한다”고 주장했다.

언스트 앤 영 아메리카의 클라우드 인프라 전략 이사인 팀 리핵 역시 “하이퍼스케일러는 규모적 이점을 분명히 누리고 있다. 대형 하이퍼스케일러 업체가 심각한 하드웨어 부족난을 겪는다는 이야기는 들어본 적이 없다”고 동의했다. 

결과적으로 이미 팬데믹 전에도 어느 정도 가속화되었던 클라우드로의 이전 곡선은 더 가파른 기울기를 보이게 되었다.

리핵은 “팬데믹을 겪기 전에도 이보다 더 빠를 수 없다고 했었지만 거기서 더 속도가 붙었다. 이제 새로운 사업은 거의 전부 클라우드에서 시작한다”고 최근의 경향을 밝혔다.
 

레거시 워크로드를 재고하는 기업들

클라우드로 향하는 줄에는 새로운 워크로드만 서 있는 것이 아니다. 레거시 시스템까지 온프레미스에서 클라우드로 옮기려는 기업이 늘고 있다.

리핵은 업데이트와 확장이 필요한 온프레미스 애플리케이션을 운영하는 기업을 예로 들었다. 팬데믹으로 인한 공급망 긴장이 없었더라면 더 많은 하드웨어를 주문했을 기업이다. 이들이 이제는 클라우드로의 이전을 고려하고 있다.

물론 지연 완화에 필요한 요구조건과 보안 우려 때문에 온프레미스에 두어야 할 애플리케이션도 있다. 아니면 레거시 시스템이 문제 없이 잘 작동해서 하드웨어가 낡아가도 이전할 필요가 없는 경우도 있다. 리핵은 이베이에서 NIC 카드나 구형 서버 부품을 구입해서까지 계속 낡은 하드웨어를 잘 돌리는 기업을 여럿 보았다고 전했다.

원래 계획했던 하드웨어 업그레이드를 연기하는 방식으로 공급난에 대처하는 기업도 있다. 딜로이트 컨설팅 이사인 마이클 바브크는 보증 기한이 지난 기술에 대한 유지 관리 업체에 더 많은 비용을 지출하는 이른바 ‘기술 부채’를 늘린 기업을 목격했다고 밝혔다.

리핵에 따르면 이중에서도 공급난 문제의 압력이 가장 급박하게 와닿는 경우는 가용 용량 한계에 도달한 기업이다. 리핵은 “현재의 워크로드를 확장하고 데이터센터 용량을 확보하기 위해 데이터센터 외부로 내보낼 워크로드를 선별하는 일부 기업도 있다”며 “이러한 현상을 목도하고 있다”고 전했다. editor@itworld.co.kr 
 Tags 하이퍼스케일 클라우드 마이그레이션
IDG 설문조사

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.