2016.11.01

'포스트 무어의 법칙 시대'에 대처하는 엔터프라이즈 컴퓨팅의 자세

BrandPost Sponsored by HPE
Derek Slater | HPE


미래의 프로세싱 수요를 충족하려면 새로운 기술 패러다임이 필요합니다. 매일 증가하는 정보를 처리하며 세계 경제를 움직이는 데이터센터는 21세기의 공장이라 할 수 있습니다. 전 세계적으로 데이터의 규모나 복잡성은 모두 기하급수적으로 증가하고 있습니다. 2년마다 유사 이래 인간 역사가 축적한 모든 것과 동일한 양의 데이터가 추가됩니다. 이 속도는 앞으로 더욱 가속화될 것입니다.

관련 업계와 학계의 많은 연구원이 미래의 데이터 처리량을 담당할 수 있는 에너지 효율적인 방법을 연구하고 있습니다. 새로운 기술 개발은 매우 중요합니다. 컴퓨팅이 전 세계적으로 에너지를 잡아먹는 블랙홀이 되어가고 있기 때문입니다. 퍼블릭 클라우드는 이미 전 세계 항공 산업보다 훨씬 많은 에너지를 소비하고 있습니다. 만약 데이터센터가 하나의 국가라면, 중국, 미국, 러시아, 인도에 이어 세계 5번째 에너지 소비국이 될 것입니다.

챌린지(Challenges) 저널의 최근 조사에 따르면, 2030년까지 커뮤니케이션 기술은 전 세계 전기 공급량의 51%를 소비하고 온실가스의 23%를 배출하는 요인이 될 수 있습니다. 지속 가능한 성장과는 굉장히 거리가 멀죠.

대안으로 고려되는 것은 메모리 중심 컴퓨팅(Memory-Driven Computing), 뉴로모픽(Neuromorphic) 컴퓨팅, 광자 컴퓨팅, 양자 컴퓨팅 등의 기술입니다. 물론 이 중 대다수가 현실화되기까지 오랜 시간이 걸리겠지만, 전문가들은 머지 않은 미래에 이 기술들의 특징을 골고루 통합한 하이브리드 시스템이 등장할 것으로 예상하고 있습니다.

새로운 컴퓨팅 플랫폼은 현재로서는 상상할 수 없는 데이터 세트와 분석 작업을 처리할 것입니다. 비즈니스와 기술 변화의 속도가 빨라질수록 기업은 실질적 가치를 창출하는 파트너십이나 연합, 인수 등의 활동에 초점을 맞추기 위해 냉정하게 주변 정리에 나서야 할 것입니다.

고든 무어와 무어의 법칙
1965년 고든 무어는 집적 회로에 담을 수 있는 트랜지스터의 수가 1950년 초 이 기술이 등장한 이후 매년 2배로 증가했다는 것을 알아냈습니다. 무어는 이런 추세가 무한히 계속될 것으로 예측했습니다.

‘무어의 법칙’이라고 알려진 그의 예측은 지난 50년간 거의 정확하게 들어 맞았습니다. 지속적이고 기하급수적인 집적 회로의 성능 향상은 디지털 이미지에서 스마트폰, 소셜 미디어 혁명, 정보 경제, 그리고 사물 인터넷까지 현대의 많은 기술과 소셜 트렌드를 가능하게 했습니다.

하지만 무어의 법칙은 곧 한계를 맞이할 것입니다. 왜냐하면 컴퓨터의 성능과 속도가 향상되면서 컴퓨터 칩의 에너지 소비량과 발열 또한 폭발할 것이기 때문입니다. 현재 칩 제품에 들어가는 내부 회로는 지나치게 많습니다. 발열과 효율성은 따라잡기 힘든 장애물이 된 지 오래입니다.

더 많은 트랜지스터를 칩에 담기 위해 제조사들은 나노 단위로 칩을 설계합니다. 현재 트랜지스터는 14나노미터의 폭(인간의 머리카락 두께는 7만 5,000나노미터)으로 설계됩니다. 이들 트랜지스터는 한동안은 계속 작아질 것이며, 인텔은 2017년 7월 10나노 기술을 도입할 계획입니다. 하지만 과학자들은 무어의 법칙이 5나노 정도에서 한계에 부딪힐 것이라고 생각합니다. 최근 과학전문지 네이처 기사에서 마이클 월드롭은 “5나노 단위에서는 전자의 행동이 양자 불확실성(Quantum Uncertainties)에 의해 통제되기 때문에 트랜지스터들이 극도로 불안정해질 것이다”라고 지적했습니다.

에너지 먹보 데이터센터
오늘날의 데이터센터는 미국 온실가스의 단 1%만을 배출합니다. 빌딩과 발전소에 비하면 많지 않은 양이지만, 성장 속도는 가장 빠르다는 점이 문제입니다. 전문가들은 2010년대 데이터센터의 온실가스 배출량이 71%에 달할 것이며, 다른 온실가스 배출원 전체를 합해도 6%에 그칠 것이라고 예측합니다.

전통적인 컴퓨터 아키텍처 역시 한계에 도달하고 있습니다. 현재의 선형 아키텍처는 거대한 데이터 세트에서 실시간 인사이트를 얻기에 적절하지 않습니다. 과학자들은 현재 훨씬 적은 에너지를 소비하고 훨씬 강력한 새로운 컴퓨팅 패러다임을 다각적으로 연구하고 있습니다.

자기장 얼음과 카본 나노튜브 같은 첨단 재료부터 신경회로 칩을 가진 양자 시스템까지 옵션은 많습니다. 어떤 접근방식이 성공할지를 놓고 다투는 경주는 이미 시작되었습니다. 그리고 HPE는 여러 패러다임의 요소를 결합한 이종 아키텍처가 승리할 것으로 내다봅니다.

“미래의 발전은 새로운 소재, 구조, 아키텍처에서 나올 것이다.”
스탠 윌리엄스(Stan Williams) 휴렛패커드 연구소 선임 펠로우

유니버설 메모리
한 가지 전도유망한 기술은 메모리 중심 컴퓨팅(Memory-Driven Computing)으로, 전통적 컴퓨터의 메모리 상하관계를 유니버설 메모리(Universal Memory)는 단일 계층으로 통합하는 것입니다. 유니버설 메모리는 영구적 속성을 가지는데, 이는 전력 없이 데이터를 보존할 수 있다는 의미입니다. 메모리 중심 컴퓨팅 역시 전통적인 컴퓨팅보다 더 효율적인데, 영구적 메모리가 프로세서에 최대한 가까이 위치하기 때문입니다. 그 결과 데이터는 스토리지 계층 간을 오가거나 프로세서로 이전할 필요가 없어집니다. 동시에 스토리지에서 데이터를 회수하는 데 걸리는 지연시간도 줄어듭니다.

2008년부터 휴렛패커드 연구소의 연구원들은 멤리스터(Memristor)라는 새로운 유형의 메모리 칩을 개발해 왔습니다. DRAM같은 전통적인 휘발성 메모리 기술은 전력이 꺼지면 데이터가 사라집니다. 반대로 멤리스터는 전력이 꺼지기 전 상태를 “기억”하는 방식으로 데이터 손실을 피합니다.

멤리스터는 NVM(non-volatile memory)라는 새로 부상하는 메모리 범주에 포함됩니다. NVM은 아주 작게 만들 수 있기 때문에 작은 공간에 큰 용량을 담을 수 있습니다. 또 메모리만이 아니라 다른 유형의 칩과 결합해 더 적은 부품과 에너지로 연산에 활용할 수 있습니다. 멤리스터를 통해 메모리와 스토리지를 융합하고 “유니버설 메모리”를 개발해 수평적인 데이터 상하위 관계를 구축하면, 전통적인 컴퓨팅 모델과 비교해 성능과 효율성을 현격히 높일 수 있습니다.

IEEE-CS(Institutes of Electrical and Electronics Engineers-Computer Society)의 최근 보고서는 이렇게 발표했습니다.

“커넥티드 환경이 기하급수적으로 증가함에 따라 메모리 수요도 높아집니다. 2016년 새로운 형태의 NVM 개발에 큰 진전이 있을 것이고, 이를 통해 세계가 더 적은 비용과 전력으로 더 많은 데이터를 저장할 수 있을 것입니다. 말 그대로 컴퓨팅의 지형을 바꾸어 놓아 소형 기기는 지금보다 더 많은 데이터를, 대형 기기는 더욱 막대한 정보를 저장할 수 있게 됩니다.”

컴포저블 인프라(Composable infrastructure)
메모리 중심 컴퓨팅은 10년 전에는 상상도 할 수 없었던 많은 일을 가능하게 합니다. 이 새로운 기술을 충분히 활용하기 위해서 인프라는 더욱 민첩해져야 합니다. 이제 컴포저블 인프라 환경이 시작됩니다. 컴포저블 인프라는 자동 프로비저닝으로 모든 워크로드를 지원하는 소프트웨어 정의 데이터센터로 요약할 수 있습니다. 전통적인 인프라와 달리 확장이 손쉽기 때문에 수요를 충족할 수 있습니다. 정전과 씨름하는 전력 회사나 연말 연시 성수기를 맞은 유통업체 모두를 지원할 수 있습니다.

컴포저블 인프라는 전통적인 기업 시스템의 고질적인 문제인 낮은 활용도를 최소화하므로, 비용 절감 효과가 매우 큽니다. 기존 데이터센터에서는 컴퓨팅, 스토리지, 네트워킹이 각기 다른 플랫폼에서 실행되어 활용도가 매우 낮은 자원이 모인 고립된 섬을 만들어냈습니다. 관리 툴도 플랫폼의 경계를 넘나들지 못하는 경우가 많아 관리 사일로가 늘어나게 됩니다.

컨버지드 인프라와 하이퍼컨버지드 인프라 접근방식도 나름의 장점이 있지만, 궁극적 목표, 즉 ‘모든 워크로드를 처리할 수 있는 단일 운영 모델과 단일 플랫폼’이라는 관점에서는 부족할 수밖에 없습니다. 이 궁극적 목표를 현실화하려면 플랫폼은 물리, 가상, “컨테이너화된” 폭넓은 워크로드를 지원할 수 있어야 하고, 소프트웨어 정의 접근방식을 주어진 애플리케이션이나 워크로드의 수요에 맞춰 통해 구성될 수 있어야 합니다.

양자 논리학
기존 컴퓨팅 아키텍처의 영역 확장이라는 목표를 위해 전 세계 연구원들이 양자 물리 원리를 적용해 기존 범용 컴퓨터로 풀지 못했던 문제를 해결할 수 있는 컴퓨팅 기술을 열심히 연구하고 있습니다.

통상적인 컴퓨터들은 이진수, 즉 비트로 인코딩 된 데이터를 필요로 하며, 각 데이터는 항상 0 아니면 1 둘 중 하나로 정의된 상태입니다. 양자 컴퓨팅은 기본 데이터 단위로 전통적인 비트가 아닌 큐빗(Qubit)을 사용합니다. 큐빗은 동시에 하나 이상의 상태로 존재할 수 있는 입자입니다. 광자를 비롯한 다른 아원자 입자는 양자 결맞음(Quantum Coherence)이라는 특성을 가지고 있는데, 양자 결맞음은 파도가 상호작용하는 것과 비슷한 방식으로 서로 간의 상호작용을 할 수 있도록 합니다. 두 개의 입자는 양자 얽힘(Quantum Entanglement)라는 과정을 통해 다른 입자의 행동에 영향을 미치는데, 서로 물리적으로 연결되어 있지 않아도 됩니다.

양자 컴퓨터는 양자의 메커니즘에 내재한 불확실성을 반영해 확실한 답보다는 확률을 계산합니다. 통상적 컴퓨터가 1+1=2 계산을 위해 이진수 처리를 사용하지만, 양자 컴퓨터는 1+1=2라는 99.9999%의 확률을 찾아냅니다. 이론적으로 큐비트는 동시에 다수의 계산을 수행할 수 있어서 암호화와 데이터 해독 같은 복잡한 계산에 매우 유용합니다.

양자 컴퓨팅 연구는 아직 초기 단계에 머물러 있습니다. 실용적인 양자 컴퓨터는 아마 10년에서 15년 후에나 등장할 것으로 보입니다. 하지만 특정 회로와 칩에서의 양자 컴퓨팅 기법 활용의 경우, 휴렛패커드 연구소는 실현 시기를 10년 앞으로 앞당기고 “하이브리드” 이기종 아키텍처로 통합될 수 있을 것으로 전망합니다.

양자 컴퓨팅의 한 가지 단점은 현재 암호화 시스템을 무력화할 수 있다는 점입니다. 전통적인 컴퓨터는 온라인 암호화 해킹에 연 단위의 엄청난 시간이 소요되지만, 양자 컴퓨터는 훨씬 속도가 빠릅니다. 양자 컴퓨터가 기존 보안 시스템을 무용지물로 만들어 인프라와 금융 시스템을 테러리스트와 사이버 해적들에게 개방할 수 있다는 위험이 존재합니다. 당연한 일이겠지만, 에드워드 스노든이 유출한 한 문서에서는 미국 NSA가 양자 컴퓨팅에 중점을 둔 8,000만 달러짜리 프로젝트에 착수했다는 것이 드러나기도 했습니다.

“인간의 두뇌를 구축하라”
여러 가지 측면에서 인간의 두뇌는 이상적인 컴퓨터라 할 수 있습니다. 작고 효율적이면서 많은 유형의 입력 데이터를 거의 즉각적으로 처리할 수 있죠. 컴퓨터는 컴퓨터 과학의 초창기부터 두뇌와 비교되어 왔습니다. 최근 연구자들은 인간 두뇌 작동방식을 모델로 한 컴퓨터 설계에 착수했는데, 이 분야를 뉴로모픽 컴퓨팅(Neuromorphic Computing)이라고 합니다.

두뇌는 계산에 있어서는 컴퓨터와 경쟁이 안됩니다. 시간이 지나면서 프로그래머들은 이미지 애니메이션과 체스 게임 같은 두뇌 집약적인 작업을 일련의 수학적 계산으로 축소시켜 왔습니다. 아직 컴퓨터는 인간이 쉽다고 여기는 인지 기능에 있어 어려움을 겪고 있습니다. 예를 들어 컴퓨터는 약간만 학습하면 고양이와 의자를 정확히 인지하고 구분할 수 있습니다. 하지만 고양이가 의자를 뛰어넘는 비디오를 설명하는 데는 어려움을 겪습니다.

프로그래머들은 컴퓨터가 물체를 쉽게 인지하도록 하는 알고리즘 작성에 어려움을 겪고 있습니다. 여기에는 인지 이면의 뇌신경 프로세스가 명확히 알려져 있지 않다는 점도 작용합니다. 두뇌에는 대략 860억 개의 뉴런 세포가 있는데, 이들은 서로 시냅스라는 통로로 그물망처럼 연결되어 있습니다. 연구자들은 계산을 수행하는 뉴런과 시냅스 그룹이 기억 저장을 맡고 있다는 결론을 내렸습니다. 뉴런과 시냅스 그룹은 또한, 많은 개별적 작업을 병렬적으로 처리할 수도 있습니다.

전통적인 컴퓨터는 뉴런과 시냅스처럼 작동하지 않습니다. 컴퓨터와 애플리케이션은 전형적으로 순차적 방식으로 문제를 풀거나 작업을 수행하고 정보를 매 단계에서 프로세서와 메모리 사이에 건네주도록 설계되어 있습니다.

뉴로모픽 컴퓨팅의 새로운 이론 중 하나는 병렬 처리, 즉 큰 문제를 동시에 실행 가능한 작은 작업들로 나누는 것입니다. 두뇌에서 동시에 뉴런이 일하는 것과 비교할 수 있습니다. 수십 년간 존재해온 병렬 처리는 주로 전문화된 고성능 컴퓨팅 작업에 사용되어 왔습니다. 뉴로모픽 연구의 목표는 대규모 컴퓨팅 작업을 더 빠르게 해내기 위해 모든 컴퓨팅에 병렬주의를 이식하는 것입니다.

뉴로모픽 컴퓨팅의 원칙을 따르는 컴퓨터는 사회적 신호를 읽거나 이미지의 의미를 추출하고, 뉴스에 대한 실시간 논평을 제공할 수 있을 것입니다. 또한, 발견하기 힘든 의학적 상태도 빨리 진단하고, 정교한 컴퓨터 보안 공격을 수 초안에 감지할 수 있습니다. 연습이 곧 완벽함으로 가는 길이라는 격언을 적용할 수 있습니다. 컴퓨터가 더 자주 작업을 수행할수록, 인간의 개입 없이도 더 정확하고 더 빨라질 수 있다는 의미입니다.

환경과 함께 인터랙션 할 수 있는 로봇을 상상해 보십시오. 집이나 업무 환경에서 마주칠 모든 상황에 대처하는 집약적 프로그래밍 대신, 로봇이 아이들처럼 학습하는 것입니다. 어떤 장난감이 어느 통에 들어가는지, 진공 청소기를 어떻게 제대로 사용하는지 등이 그 예가 될 것입니다. 뉴로모픽 컴퓨팅은 인간과 인공 지능 사이의 경계를 허물어 인간과 기계를 새로운 상황 속에서 함께 배치할 것입니다.

3D 기술
10년 안에 진정한 양자 컴퓨터와 뉴로모픽 컴퓨터를 만나기란 어려울 것 같습니다. 하지만 3D 컴퓨팅이라는 새로운 칩 아키텍처가 그 중간 단계 기술이 될 수 있습니다. 카본 나노튜브를 활용해 연구자들은 메모리와 프로세서 계층을 3차원으로 구체화하고 있습니다.

이 기술은 전자가 전통적인 기판을 통해 이동하면서도 전형적인 “왕복 시간”을 단축해 더욱 효율적으로 만들어 줍니다. 3D 메모리 솔루션 중 하나는삼성이 개발한 3D NAND 기술인데, 마이크론과 SK하이닉스도 2016년 3D NAND를 출하할 것으로 예상되며, 도시바와 샌디스크도 내년부터 동참할 예정입니다.

3D NAND는 차세대 NVM 기술이 미래에 비용 대비 성능의 장벽을 극복하면 몰아내고자 하는 표적 기술이기도 합니다.

빛으로 생각하기
오늘날 데이터센터가 소비하는 전력의 40% 정도가 데이터센터 내의 정보 이동에 사용됩니다. 이런 정보 전달에 사용되는 전력을 절반으로 줄일 수 있는 더욱 효율적인 대안이 있는데, 절전 효과는 무려 250개의 대형 발전소를 줄이는 것과 같습니다.

포토닉스(Photonics) 데이터 전송이 기존 전자 전송의 대안으로 부상하고 있습니다. 실리콘 포토닉스는 작은 광학 부품이 광 펄스를 보내 컴퓨터 칩 사이에서 높은 속도로 대량의 데이터를 전송합니다. 빛을 사용하면 데이터 집약적인 애플리케이션에 훨씬 더 큰 데이터 전송속도와 대역폭을 제공할 수 있습니다.

최근 휴렛패커드 연구소의 과학자들은 반도체 제조에 사용된 기계의 용도를 변경해 각각 인간 머리카락 1/10 정도 크기의 빠른 레이저 다발과 이를 통해 데이터를 전송하는 데 필요한 부품들을 생산하는 방법을 개발했습니다. 이 연구는 광자 혹은 빛을 활용해 단거리에서 막대한 양의 정보를 전송하는 비용 효율적인 방법을 만들어 낼 것입니다.

만약 데이터 전송과 연산에 빛을 사용할 수 있다면 어떨까요? 광학 처리 기술은 전압 대신 빛을 활용해 트랜지스터의 게이트를 열고 닫습니다. 들어오는 빛의 강도가 전자 트랜지스터에 적용된 전압의 양과 같은 방식으로 광학 트랜지스터에 영향을 미쳐 0과 1의 2진 코드를 처리하게 합니다.

지금까지 광학 프로세서는 비용과 정확성 등 여러 가지 이유로 반도체에 비해 뒤처져 있었습니다. 특히 포토닉스 연산과 데이터 전송이 폭넓게 도입되면, 데이터센터의 전력 소비를 안정화시키는데 도움을 줘 IT 분야가 막대한 에너지 위기를 유발하지 않고 지속적으로 성장할 수 있게 해줄 것입니다.

엔터프라이즈 컴퓨팅 책임자에게 던지는 질문
- 귀사는 데이터 규모가 기하급수적으로 증가해도 데이터를 관리하는 컴퓨팅 규모를 확장할 수 있습니까?
- 귀사의 비즈니스는 무제한 메모리를 중심으로 구축된 디지털 인프라로 어떤 혜택을 얻을 수 있습니까?
- 귀사의 성장 동력은 무엇입니까? 귀사의 비즈니스 요소 중 포기할 수 있는 것은 무엇입니까? 

2016.11.01

'포스트 무어의 법칙 시대'에 대처하는 엔터프라이즈 컴퓨팅의 자세

BrandPost Sponsored by HPE
Derek Slater | HPE


미래의 프로세싱 수요를 충족하려면 새로운 기술 패러다임이 필요합니다. 매일 증가하는 정보를 처리하며 세계 경제를 움직이는 데이터센터는 21세기의 공장이라 할 수 있습니다. 전 세계적으로 데이터의 규모나 복잡성은 모두 기하급수적으로 증가하고 있습니다. 2년마다 유사 이래 인간 역사가 축적한 모든 것과 동일한 양의 데이터가 추가됩니다. 이 속도는 앞으로 더욱 가속화될 것입니다.

관련 업계와 학계의 많은 연구원이 미래의 데이터 처리량을 담당할 수 있는 에너지 효율적인 방법을 연구하고 있습니다. 새로운 기술 개발은 매우 중요합니다. 컴퓨팅이 전 세계적으로 에너지를 잡아먹는 블랙홀이 되어가고 있기 때문입니다. 퍼블릭 클라우드는 이미 전 세계 항공 산업보다 훨씬 많은 에너지를 소비하고 있습니다. 만약 데이터센터가 하나의 국가라면, 중국, 미국, 러시아, 인도에 이어 세계 5번째 에너지 소비국이 될 것입니다.

챌린지(Challenges) 저널의 최근 조사에 따르면, 2030년까지 커뮤니케이션 기술은 전 세계 전기 공급량의 51%를 소비하고 온실가스의 23%를 배출하는 요인이 될 수 있습니다. 지속 가능한 성장과는 굉장히 거리가 멀죠.

대안으로 고려되는 것은 메모리 중심 컴퓨팅(Memory-Driven Computing), 뉴로모픽(Neuromorphic) 컴퓨팅, 광자 컴퓨팅, 양자 컴퓨팅 등의 기술입니다. 물론 이 중 대다수가 현실화되기까지 오랜 시간이 걸리겠지만, 전문가들은 머지 않은 미래에 이 기술들의 특징을 골고루 통합한 하이브리드 시스템이 등장할 것으로 예상하고 있습니다.

새로운 컴퓨팅 플랫폼은 현재로서는 상상할 수 없는 데이터 세트와 분석 작업을 처리할 것입니다. 비즈니스와 기술 변화의 속도가 빨라질수록 기업은 실질적 가치를 창출하는 파트너십이나 연합, 인수 등의 활동에 초점을 맞추기 위해 냉정하게 주변 정리에 나서야 할 것입니다.

고든 무어와 무어의 법칙
1965년 고든 무어는 집적 회로에 담을 수 있는 트랜지스터의 수가 1950년 초 이 기술이 등장한 이후 매년 2배로 증가했다는 것을 알아냈습니다. 무어는 이런 추세가 무한히 계속될 것으로 예측했습니다.

‘무어의 법칙’이라고 알려진 그의 예측은 지난 50년간 거의 정확하게 들어 맞았습니다. 지속적이고 기하급수적인 집적 회로의 성능 향상은 디지털 이미지에서 스마트폰, 소셜 미디어 혁명, 정보 경제, 그리고 사물 인터넷까지 현대의 많은 기술과 소셜 트렌드를 가능하게 했습니다.

하지만 무어의 법칙은 곧 한계를 맞이할 것입니다. 왜냐하면 컴퓨터의 성능과 속도가 향상되면서 컴퓨터 칩의 에너지 소비량과 발열 또한 폭발할 것이기 때문입니다. 현재 칩 제품에 들어가는 내부 회로는 지나치게 많습니다. 발열과 효율성은 따라잡기 힘든 장애물이 된 지 오래입니다.

더 많은 트랜지스터를 칩에 담기 위해 제조사들은 나노 단위로 칩을 설계합니다. 현재 트랜지스터는 14나노미터의 폭(인간의 머리카락 두께는 7만 5,000나노미터)으로 설계됩니다. 이들 트랜지스터는 한동안은 계속 작아질 것이며, 인텔은 2017년 7월 10나노 기술을 도입할 계획입니다. 하지만 과학자들은 무어의 법칙이 5나노 정도에서 한계에 부딪힐 것이라고 생각합니다. 최근 과학전문지 네이처 기사에서 마이클 월드롭은 “5나노 단위에서는 전자의 행동이 양자 불확실성(Quantum Uncertainties)에 의해 통제되기 때문에 트랜지스터들이 극도로 불안정해질 것이다”라고 지적했습니다.

에너지 먹보 데이터센터
오늘날의 데이터센터는 미국 온실가스의 단 1%만을 배출합니다. 빌딩과 발전소에 비하면 많지 않은 양이지만, 성장 속도는 가장 빠르다는 점이 문제입니다. 전문가들은 2010년대 데이터센터의 온실가스 배출량이 71%에 달할 것이며, 다른 온실가스 배출원 전체를 합해도 6%에 그칠 것이라고 예측합니다.

전통적인 컴퓨터 아키텍처 역시 한계에 도달하고 있습니다. 현재의 선형 아키텍처는 거대한 데이터 세트에서 실시간 인사이트를 얻기에 적절하지 않습니다. 과학자들은 현재 훨씬 적은 에너지를 소비하고 훨씬 강력한 새로운 컴퓨팅 패러다임을 다각적으로 연구하고 있습니다.

자기장 얼음과 카본 나노튜브 같은 첨단 재료부터 신경회로 칩을 가진 양자 시스템까지 옵션은 많습니다. 어떤 접근방식이 성공할지를 놓고 다투는 경주는 이미 시작되었습니다. 그리고 HPE는 여러 패러다임의 요소를 결합한 이종 아키텍처가 승리할 것으로 내다봅니다.

“미래의 발전은 새로운 소재, 구조, 아키텍처에서 나올 것이다.”
스탠 윌리엄스(Stan Williams) 휴렛패커드 연구소 선임 펠로우

유니버설 메모리
한 가지 전도유망한 기술은 메모리 중심 컴퓨팅(Memory-Driven Computing)으로, 전통적 컴퓨터의 메모리 상하관계를 유니버설 메모리(Universal Memory)는 단일 계층으로 통합하는 것입니다. 유니버설 메모리는 영구적 속성을 가지는데, 이는 전력 없이 데이터를 보존할 수 있다는 의미입니다. 메모리 중심 컴퓨팅 역시 전통적인 컴퓨팅보다 더 효율적인데, 영구적 메모리가 프로세서에 최대한 가까이 위치하기 때문입니다. 그 결과 데이터는 스토리지 계층 간을 오가거나 프로세서로 이전할 필요가 없어집니다. 동시에 스토리지에서 데이터를 회수하는 데 걸리는 지연시간도 줄어듭니다.

2008년부터 휴렛패커드 연구소의 연구원들은 멤리스터(Memristor)라는 새로운 유형의 메모리 칩을 개발해 왔습니다. DRAM같은 전통적인 휘발성 메모리 기술은 전력이 꺼지면 데이터가 사라집니다. 반대로 멤리스터는 전력이 꺼지기 전 상태를 “기억”하는 방식으로 데이터 손실을 피합니다.

멤리스터는 NVM(non-volatile memory)라는 새로 부상하는 메모리 범주에 포함됩니다. NVM은 아주 작게 만들 수 있기 때문에 작은 공간에 큰 용량을 담을 수 있습니다. 또 메모리만이 아니라 다른 유형의 칩과 결합해 더 적은 부품과 에너지로 연산에 활용할 수 있습니다. 멤리스터를 통해 메모리와 스토리지를 융합하고 “유니버설 메모리”를 개발해 수평적인 데이터 상하위 관계를 구축하면, 전통적인 컴퓨팅 모델과 비교해 성능과 효율성을 현격히 높일 수 있습니다.

IEEE-CS(Institutes of Electrical and Electronics Engineers-Computer Society)의 최근 보고서는 이렇게 발표했습니다.

“커넥티드 환경이 기하급수적으로 증가함에 따라 메모리 수요도 높아집니다. 2016년 새로운 형태의 NVM 개발에 큰 진전이 있을 것이고, 이를 통해 세계가 더 적은 비용과 전력으로 더 많은 데이터를 저장할 수 있을 것입니다. 말 그대로 컴퓨팅의 지형을 바꾸어 놓아 소형 기기는 지금보다 더 많은 데이터를, 대형 기기는 더욱 막대한 정보를 저장할 수 있게 됩니다.”

컴포저블 인프라(Composable infrastructure)
메모리 중심 컴퓨팅은 10년 전에는 상상도 할 수 없었던 많은 일을 가능하게 합니다. 이 새로운 기술을 충분히 활용하기 위해서 인프라는 더욱 민첩해져야 합니다. 이제 컴포저블 인프라 환경이 시작됩니다. 컴포저블 인프라는 자동 프로비저닝으로 모든 워크로드를 지원하는 소프트웨어 정의 데이터센터로 요약할 수 있습니다. 전통적인 인프라와 달리 확장이 손쉽기 때문에 수요를 충족할 수 있습니다. 정전과 씨름하는 전력 회사나 연말 연시 성수기를 맞은 유통업체 모두를 지원할 수 있습니다.

컴포저블 인프라는 전통적인 기업 시스템의 고질적인 문제인 낮은 활용도를 최소화하므로, 비용 절감 효과가 매우 큽니다. 기존 데이터센터에서는 컴퓨팅, 스토리지, 네트워킹이 각기 다른 플랫폼에서 실행되어 활용도가 매우 낮은 자원이 모인 고립된 섬을 만들어냈습니다. 관리 툴도 플랫폼의 경계를 넘나들지 못하는 경우가 많아 관리 사일로가 늘어나게 됩니다.

컨버지드 인프라와 하이퍼컨버지드 인프라 접근방식도 나름의 장점이 있지만, 궁극적 목표, 즉 ‘모든 워크로드를 처리할 수 있는 단일 운영 모델과 단일 플랫폼’이라는 관점에서는 부족할 수밖에 없습니다. 이 궁극적 목표를 현실화하려면 플랫폼은 물리, 가상, “컨테이너화된” 폭넓은 워크로드를 지원할 수 있어야 하고, 소프트웨어 정의 접근방식을 주어진 애플리케이션이나 워크로드의 수요에 맞춰 통해 구성될 수 있어야 합니다.

양자 논리학
기존 컴퓨팅 아키텍처의 영역 확장이라는 목표를 위해 전 세계 연구원들이 양자 물리 원리를 적용해 기존 범용 컴퓨터로 풀지 못했던 문제를 해결할 수 있는 컴퓨팅 기술을 열심히 연구하고 있습니다.

통상적인 컴퓨터들은 이진수, 즉 비트로 인코딩 된 데이터를 필요로 하며, 각 데이터는 항상 0 아니면 1 둘 중 하나로 정의된 상태입니다. 양자 컴퓨팅은 기본 데이터 단위로 전통적인 비트가 아닌 큐빗(Qubit)을 사용합니다. 큐빗은 동시에 하나 이상의 상태로 존재할 수 있는 입자입니다. 광자를 비롯한 다른 아원자 입자는 양자 결맞음(Quantum Coherence)이라는 특성을 가지고 있는데, 양자 결맞음은 파도가 상호작용하는 것과 비슷한 방식으로 서로 간의 상호작용을 할 수 있도록 합니다. 두 개의 입자는 양자 얽힘(Quantum Entanglement)라는 과정을 통해 다른 입자의 행동에 영향을 미치는데, 서로 물리적으로 연결되어 있지 않아도 됩니다.

양자 컴퓨터는 양자의 메커니즘에 내재한 불확실성을 반영해 확실한 답보다는 확률을 계산합니다. 통상적 컴퓨터가 1+1=2 계산을 위해 이진수 처리를 사용하지만, 양자 컴퓨터는 1+1=2라는 99.9999%의 확률을 찾아냅니다. 이론적으로 큐비트는 동시에 다수의 계산을 수행할 수 있어서 암호화와 데이터 해독 같은 복잡한 계산에 매우 유용합니다.

양자 컴퓨팅 연구는 아직 초기 단계에 머물러 있습니다. 실용적인 양자 컴퓨터는 아마 10년에서 15년 후에나 등장할 것으로 보입니다. 하지만 특정 회로와 칩에서의 양자 컴퓨팅 기법 활용의 경우, 휴렛패커드 연구소는 실현 시기를 10년 앞으로 앞당기고 “하이브리드” 이기종 아키텍처로 통합될 수 있을 것으로 전망합니다.

양자 컴퓨팅의 한 가지 단점은 현재 암호화 시스템을 무력화할 수 있다는 점입니다. 전통적인 컴퓨터는 온라인 암호화 해킹에 연 단위의 엄청난 시간이 소요되지만, 양자 컴퓨터는 훨씬 속도가 빠릅니다. 양자 컴퓨터가 기존 보안 시스템을 무용지물로 만들어 인프라와 금융 시스템을 테러리스트와 사이버 해적들에게 개방할 수 있다는 위험이 존재합니다. 당연한 일이겠지만, 에드워드 스노든이 유출한 한 문서에서는 미국 NSA가 양자 컴퓨팅에 중점을 둔 8,000만 달러짜리 프로젝트에 착수했다는 것이 드러나기도 했습니다.

“인간의 두뇌를 구축하라”
여러 가지 측면에서 인간의 두뇌는 이상적인 컴퓨터라 할 수 있습니다. 작고 효율적이면서 많은 유형의 입력 데이터를 거의 즉각적으로 처리할 수 있죠. 컴퓨터는 컴퓨터 과학의 초창기부터 두뇌와 비교되어 왔습니다. 최근 연구자들은 인간 두뇌 작동방식을 모델로 한 컴퓨터 설계에 착수했는데, 이 분야를 뉴로모픽 컴퓨팅(Neuromorphic Computing)이라고 합니다.

두뇌는 계산에 있어서는 컴퓨터와 경쟁이 안됩니다. 시간이 지나면서 프로그래머들은 이미지 애니메이션과 체스 게임 같은 두뇌 집약적인 작업을 일련의 수학적 계산으로 축소시켜 왔습니다. 아직 컴퓨터는 인간이 쉽다고 여기는 인지 기능에 있어 어려움을 겪고 있습니다. 예를 들어 컴퓨터는 약간만 학습하면 고양이와 의자를 정확히 인지하고 구분할 수 있습니다. 하지만 고양이가 의자를 뛰어넘는 비디오를 설명하는 데는 어려움을 겪습니다.

프로그래머들은 컴퓨터가 물체를 쉽게 인지하도록 하는 알고리즘 작성에 어려움을 겪고 있습니다. 여기에는 인지 이면의 뇌신경 프로세스가 명확히 알려져 있지 않다는 점도 작용합니다. 두뇌에는 대략 860억 개의 뉴런 세포가 있는데, 이들은 서로 시냅스라는 통로로 그물망처럼 연결되어 있습니다. 연구자들은 계산을 수행하는 뉴런과 시냅스 그룹이 기억 저장을 맡고 있다는 결론을 내렸습니다. 뉴런과 시냅스 그룹은 또한, 많은 개별적 작업을 병렬적으로 처리할 수도 있습니다.

전통적인 컴퓨터는 뉴런과 시냅스처럼 작동하지 않습니다. 컴퓨터와 애플리케이션은 전형적으로 순차적 방식으로 문제를 풀거나 작업을 수행하고 정보를 매 단계에서 프로세서와 메모리 사이에 건네주도록 설계되어 있습니다.

뉴로모픽 컴퓨팅의 새로운 이론 중 하나는 병렬 처리, 즉 큰 문제를 동시에 실행 가능한 작은 작업들로 나누는 것입니다. 두뇌에서 동시에 뉴런이 일하는 것과 비교할 수 있습니다. 수십 년간 존재해온 병렬 처리는 주로 전문화된 고성능 컴퓨팅 작업에 사용되어 왔습니다. 뉴로모픽 연구의 목표는 대규모 컴퓨팅 작업을 더 빠르게 해내기 위해 모든 컴퓨팅에 병렬주의를 이식하는 것입니다.

뉴로모픽 컴퓨팅의 원칙을 따르는 컴퓨터는 사회적 신호를 읽거나 이미지의 의미를 추출하고, 뉴스에 대한 실시간 논평을 제공할 수 있을 것입니다. 또한, 발견하기 힘든 의학적 상태도 빨리 진단하고, 정교한 컴퓨터 보안 공격을 수 초안에 감지할 수 있습니다. 연습이 곧 완벽함으로 가는 길이라는 격언을 적용할 수 있습니다. 컴퓨터가 더 자주 작업을 수행할수록, 인간의 개입 없이도 더 정확하고 더 빨라질 수 있다는 의미입니다.

환경과 함께 인터랙션 할 수 있는 로봇을 상상해 보십시오. 집이나 업무 환경에서 마주칠 모든 상황에 대처하는 집약적 프로그래밍 대신, 로봇이 아이들처럼 학습하는 것입니다. 어떤 장난감이 어느 통에 들어가는지, 진공 청소기를 어떻게 제대로 사용하는지 등이 그 예가 될 것입니다. 뉴로모픽 컴퓨팅은 인간과 인공 지능 사이의 경계를 허물어 인간과 기계를 새로운 상황 속에서 함께 배치할 것입니다.

3D 기술
10년 안에 진정한 양자 컴퓨터와 뉴로모픽 컴퓨터를 만나기란 어려울 것 같습니다. 하지만 3D 컴퓨팅이라는 새로운 칩 아키텍처가 그 중간 단계 기술이 될 수 있습니다. 카본 나노튜브를 활용해 연구자들은 메모리와 프로세서 계층을 3차원으로 구체화하고 있습니다.

이 기술은 전자가 전통적인 기판을 통해 이동하면서도 전형적인 “왕복 시간”을 단축해 더욱 효율적으로 만들어 줍니다. 3D 메모리 솔루션 중 하나는삼성이 개발한 3D NAND 기술인데, 마이크론과 SK하이닉스도 2016년 3D NAND를 출하할 것으로 예상되며, 도시바와 샌디스크도 내년부터 동참할 예정입니다.

3D NAND는 차세대 NVM 기술이 미래에 비용 대비 성능의 장벽을 극복하면 몰아내고자 하는 표적 기술이기도 합니다.

빛으로 생각하기
오늘날 데이터센터가 소비하는 전력의 40% 정도가 데이터센터 내의 정보 이동에 사용됩니다. 이런 정보 전달에 사용되는 전력을 절반으로 줄일 수 있는 더욱 효율적인 대안이 있는데, 절전 효과는 무려 250개의 대형 발전소를 줄이는 것과 같습니다.

포토닉스(Photonics) 데이터 전송이 기존 전자 전송의 대안으로 부상하고 있습니다. 실리콘 포토닉스는 작은 광학 부품이 광 펄스를 보내 컴퓨터 칩 사이에서 높은 속도로 대량의 데이터를 전송합니다. 빛을 사용하면 데이터 집약적인 애플리케이션에 훨씬 더 큰 데이터 전송속도와 대역폭을 제공할 수 있습니다.

최근 휴렛패커드 연구소의 과학자들은 반도체 제조에 사용된 기계의 용도를 변경해 각각 인간 머리카락 1/10 정도 크기의 빠른 레이저 다발과 이를 통해 데이터를 전송하는 데 필요한 부품들을 생산하는 방법을 개발했습니다. 이 연구는 광자 혹은 빛을 활용해 단거리에서 막대한 양의 정보를 전송하는 비용 효율적인 방법을 만들어 낼 것입니다.

만약 데이터 전송과 연산에 빛을 사용할 수 있다면 어떨까요? 광학 처리 기술은 전압 대신 빛을 활용해 트랜지스터의 게이트를 열고 닫습니다. 들어오는 빛의 강도가 전자 트랜지스터에 적용된 전압의 양과 같은 방식으로 광학 트랜지스터에 영향을 미쳐 0과 1의 2진 코드를 처리하게 합니다.

지금까지 광학 프로세서는 비용과 정확성 등 여러 가지 이유로 반도체에 비해 뒤처져 있었습니다. 특히 포토닉스 연산과 데이터 전송이 폭넓게 도입되면, 데이터센터의 전력 소비를 안정화시키는데 도움을 줘 IT 분야가 막대한 에너지 위기를 유발하지 않고 지속적으로 성장할 수 있게 해줄 것입니다.

엔터프라이즈 컴퓨팅 책임자에게 던지는 질문
- 귀사는 데이터 규모가 기하급수적으로 증가해도 데이터를 관리하는 컴퓨팅 규모를 확장할 수 있습니까?
- 귀사의 비즈니스는 무제한 메모리를 중심으로 구축된 디지털 인프라로 어떤 혜택을 얻을 수 있습니까?
- 귀사의 성장 동력은 무엇입니까? 귀사의 비즈니스 요소 중 포기할 수 있는 것은 무엇입니까? 

X