Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

HPC

ISC 2022 살펴보기··· AMD-인텔-엔비디아 간 HPC 경쟁 치열

전 세계 슈퍼컴퓨터 상위 500대 순위(TOP 500) 발표와 함께, 2022 국제 슈퍼컴퓨터 컨퍼런스(International Supercomputer Conference; ISC)가 이번 주 독일 함부르크에서 개막했다. 톱 500에서는 美 에너지부(DoE) 산하 오크릿지 국립연구소의 ‘프론티어(Frontier)’가 전 세계에서 가장 빠른 슈퍼컴퓨터로 선정됐다.    ‘프론티어’는 AMD EPYC CPU와 AMD 인스팅트 MI250 GPU를 탑재한 HPE-크레이 EX 시스템이며, 1초에 100경 번의 연산을 수행하는 최초의 엑사급(exascale) 슈퍼컴퓨터다. 인텔은 에너지부 산하 다른 국립연구소의 슈퍼컴퓨터(‘오로라(Aurora)’)로 엑사급 경쟁에서 승리하고자 했지만 AMD에 패배했다. 또한 프론티어는 엑사급 경쟁에서 중국과 일본의 경쟁자도 물리쳤다.  AMD 칩을 사용한 슈퍼컴퓨터가 1위에 오른 것은 또 다른 이정표다. AMD의 서버 프로세서가 이제 인텔의 최고 성능 제품보다 경쟁력 있으며, 아울러 인스팅트(Instinct)는 적수였던 엔비디아의 코프로세서와 경쟁할 수 있음을 보여준다. AMD는 인텔을 추격하면서 서버 분야에서 꾸준히 입지를 확보해왔다. 하지만 AI와 HPC 분야는 엔비디아가 거의 독점하고 있다. (따라서) AMD는 아직 샴페인을 터트릴 때가 아니다. 엔비디아 코프로세서는 500대 슈퍼컴퓨터 가운데 154개에서 찾을 수 있다. 한편 크레이(Cray)와 AMD는 자랑할 게 한 가지 더 있다. 프론티어가 슈퍼컴퓨터의 전력 효율에 따른 순위를 매기는 ‘그린500(Green500)’에서도 가장 에너지 효율이 높은 슈퍼컴퓨터로 뽑혔다.    인텔, HPC 로드맵 업데이트 한동안 인텔은 자사 최고 성능의 HPC 프로세서 ‘폰테 베키오(Ponte Vecchio)’를 내세워왔다. 이는 인텔 ‘Xe GPU 아키텍처’의 데이터센터 버전이다. 아울러 폰테 베키오는 엔비디아의 암페어 A100(Ampere ...

슈퍼컴퓨터 AMD 인텔 2022.06.03

“워크로드에 최적화하라” AI/HPC를 위한 GPU 인프라 구축 실전 가이드 - IDG Summary

엔터프라이즈 컴퓨팅 환경에서 GPU 기반 서버의 기능과 역할이 빠르게 확대되고 있다. GPU를 활용한 워크로드 증가는 제조, 금융, 공공, 통신, 미디어, 쇼핑, 생명과학, 서비스 등 업종을 가리지 않는 트렌드로 자리 잡고 있다. GPU 기반 클러스터 구축과 운영은 전통적인 엔터프라이즈 컴퓨팅 방식과는 차이가 있다. 많은 조직이 인프라 구축과 확장 과정에서 시행착오를 겪는 이유다.  그렇다면 어떻게 하면 고가의 GPU 자원을 더 효율적이고 합리적으로 활용하는 가운데 수요 증가에 맞춰 탄력적으로 확장해 나아갈 수 있을까? 답은 바로 워크로드에 최적화된 서버, 네트워크, 스토리지 그리고 운영과 관리를 위한 플랫폼과 도구 환경을 갖추는 것이다. HPE의 경험과 솔루션을 통해 그 방법을 알아보자.  주요 내용 - 급증하는 GPU 가속 기반 워크로드 - 워크로드 특성을 고려한 접근이 필요 - 워크로드에 맞는 GPU 선택 가이드 - HPE의 GPU 가속 기반 HPC, AI 서버 및 소프트웨어 포트폴리오 - 워크로드 유형별 주요 사례

GPU 워크로드 HPC 2022.03.08

"온디맨드 슈퍼컴퓨터" 애저 HPC의 이해

오래 전, 누군가 온 세계에 필요한 컴퓨터는 단 5대라고 말했다고 한다. 마이크로소프트 애저, 아마존 웹 서비스, 구글 클라우드 플랫폼 등은 모두 대규모 확장이 가능한 컴퓨팅 클러스터로, 각 서버와 각 데이터센터는 또 하나의 구성요소이고, 이들이 모여 거대한, 전 지구급 규모의 컴퓨터가 된다고 말할 수도 있다. 사실 클라우드를 움직이는 기술의 상당수는 원래 일반적인 기성품 하드웨어를 사용해서 슈퍼컴퓨터를 만들고 운용하기 위해 개발된 기술이다.    클라우드를 활용해 문제를 해결하는 동안에만 존재하는 HPC(High Performance Computing) 시스템을 만들고 구축하고 실행하면 좋지 않을까? 웨타 데지털(Weta Digital)의 영화 제작자들이 렌더 팜(render farm: 킹콩, 호빗과 같은 영화의 CGI 효과를 위해 구축된 하드웨어 서버 룸)에 대해 생각하는 것과 거의 똑 같은 방식으로 클라우드를 생각하면 된다. 렌더 팜은 영화 제작에 사용되지 않을 때는 뉴질랜드 정부를 위한 임시 슈퍼컴퓨터로 활용된다.  퍼블릭 클라우드의 첫 대규모 사례 연구는 이 부분, 즉 과거라면 온프레미스 HPC 하드웨어를 사용했을 일시적인 폭발적 용량을 위해 퍼블릭 클라우드를 사용하는 데 초점을 맞췄다. 이를 통해 데이터센터 공간, 스토리지, 전력에 대한 투자 없이 HPC를 이용해 상당한 비용을 절감할 수 있다는 것을 확인했다.   애저 HPC 소개  HPC 기능은 애저를 비롯한 클라우드에서 여전히 중요한 기능이다. 클라우드는 더 이상 일반 하드웨어에 의존하지 않고 이제 HPC에 초점을 둔 컴퓨팅 인스턴스를 제공하고 HPC 솔루션 업체와 협력해 전문 툴을 서비스로 제공한다. 특히 HPC를 요구사항에 따라 확장 가능한, 빠르고 쉽게 실행할 수 있는 동적 서비스로 취급한다.  애저의 HPC 툴은 마이크로소프트가 말하는 “빅 컴퓨팅”을 제공하는 데 초점을 둔 아키텍처 원칙 모음이라고 생각하는 것이 가장 정확할 ...

HPC 슈퍼컴퓨터 매니지드서비스 2022.01.14

글로벌 칼럼 | HPC 혁신을 이끄는 클라우드와 빅 컴퓨트

약 25년 전, 몇 가지 오픈소스 기술을 결합해 사업을 하고 수익을 창출할 수 있는 강력한 커머셜 인터넷이 개발됐다. LAMP(Linux, Apache, HTTP Server, MySQL, PHP/Perl/Python)라는 이름이 붙은 이 오픈소스 결합물은 당시 개발자의 표준 개발 스택으로 자리 잡았다. 그리고 이제 또 다른 LAMP 스택의 탄생을 눈앞에 두고 있다.   제2의 LAMP 스택은 당시와 상황이 다르다. 애완견 사료를 온라인으로 판매하는 새로운 방식을 만드는 데 초점이 맞춰져 있지 않다. 대신 많은 양의 컴퓨트 리소스를 소비하는 복잡하고 큰 워크로드를 알고리즘으로 해결하려 한다. 코로나19 백신, 새로운 초음속 제트기 제작, 자율 주행 자동차 같은 것이다. 현재 과학 및 공학 분야는 과거 어느 때보다 빠르게 연구를 진행하면서 더 새로운 혁신을 전달하고 있다. 어떻게 이런 일이 가능할 수 있었을까. 클라우드 덕분이다. 그러나 클라우드가 전부는 아니다.   ‘빅 컴퓨트’ 또는 ‘딥 테크‘의 태동 클라우드는 현재 벌어지고 있는 일을 표현하기에는 너무 피상적이다. '인터넷에 대한 LAMP 스택'처럼 이런 기술적인 변화를 설명할 좋은 약칭이 아직은 없다. 핵심은 어떤 계기가 박사급 인재들이 알고리즘으로 워크로드를 제어하는 데 도움이 되는 매우 복잡한 컴퓨팅 엔진을 혁신하는 데 몰입할 수 있도록 한 것이다. 이런 워크로드는 초기 LAMP 스택이 등장하던 때 프렌즈스터(Friendster)나 펫스닷컴(Pets.com)이 약속했던 것보다 훨씬 더 근본적인 방식으로 우리 일상을 바꿔 놓고 있다. 이런 워크로드에 가장 많이 붙는 약칭이 고성능 컴퓨팅(HPC)인데, 이렇게 불릴 때는 퍼블릭 클라우드가 새로운 애플리케이션에 활용할 수 있는 플랫폼이 되기 이전이다. 세계에서 가장 빠른 슈퍼컴퓨터 500위 목록을 보면, 퍼블릭 클라우드에 기반을 둔 슈퍼컴퓨터의 수가 점점 늘어나고 있다. 이는 우연이 아니다. 온프레미스 슈퍼컴퓨터와 초대형 ...

HPC 클라우드 빅컴퓨트 2021.07.08

인프라 패러다임 변화 이끄는 게임체인저··· Arm 네오버스 플랫폼에 주목할 이유 - IDG Tech Insight

엣지부터 하이퍼스케일까지 컴퓨팅 스펙트럼이 그 어느 때보다 다양해졌다. 갈수록 저장하고 처리해야 할 데이터도 기하급수적으로 증가하고 있다. 클라우드 서비스 제공업체, 서버 장비 업체, 대규모 데이터센터를 유지 및 관리하는 업체 등에서 IT 인프라와 관련해 더욱더 효율적이고 확장 가능한 방식을 모색하기 시작했다. 클라우드, 5G 네트워크, HPC 등을 모두 다룰 수 없을까? 계속해서 성능을 향상시킬 수 없을까? 그러면서도 에너지 효율성, 사용자 정의, 확장성까지 충족할 순 없을까? 하나의 플랫폼에서 전체 컴퓨팅 스펙트럼에 걸쳐 다양한 요구사항을 해결하는 Arm의 네오버스(Neoverse) 플랫폼은 이에 대한 적절한 해답이 될 수 있다. 주요 내용 - “네오버스, 허물어진 또 하나의 장벽” Arm 코리아 황선욱 지사장 - 클라우드 투 엣지 인프라 혁신 가속화한다··· ‘Arm 네오버스’ 안내서 - “클라우드가 핵심” 2021년 엔터프라이즈 데이터센터 네트워킹 전망

Arm 네오버스 클라우드 2021.04.19

IBM Public Cloud 고객 사례집

본 자료는 IBM Public Cloud를 이용해 좋은 성과를 거둔 사례를 모은 고객 사례집입니다. IBM 퍼블릭 클라우드는 AI부터 분석, 보안, 데브옵스, 웹/모바일 등 폭넓은 영역에서 190개 이상의 고유 서비스를 제공합니다. 본 사례집에서는 금융, 제조, 게임, 헬스케어 등 다양한 산업군에서 IBM 퍼블릭 클라우드를 이용해 비즈니스 과제를 해결한 17개 기업의 사례를 소개합니다. <34p> 주요 내용 - IBM Public Cloud 소개 - 금융 사례 - 제조/유통 사례 - 게임 사례 - 항공 사례 - 컴퓨팅 / 소프트웨어 사례

IBM퍼블릭클라우드 산업별사례 Cloud 2021.03.11

개발자가 만들고 과학자·엔지니어가 강화하는 클라우드 역할 변화

시장분석 업체 레드몽크(Redmonk)가 퍼뜨린 “개발자는 새로운 킹메이커”라는 말은 이제 상투적인 표현에 가까워졌다. 그러나 개발자에게 (인프라를 통해) 역량을 부여하는 것의 핵심에 있는 것은 개발자가 아니라, 기업이 제품을 구축하는 방식의 변화였다.   또 궁극적으로는 이러한 제품을 구축하는 주체가 누구인지가 핵심 논점이다. 물론 개발자가 중심에 있지만, 최근 마이크로소프트와 엔비디아, 삼성이 모두 참여한 리스케일(Rescale)의 시리즈 C 펀딩을 보면 지금은 개발자가 구축한 플랫폼에서 다른 사람들이 어떤 결과물을 내고 있는지 살펴보기에 적절한 시점인 것 같다. 구체적으로는 엔지니어와 과학자들이 큰 수혜자이며 결과적으로 이들이 과학적 진보의 속도를 비약적으로 높이고 있다.     PhD 생산성 견인 우선 개발자로 돌아가 보자. 모든 기업이 소프트웨어 기업이 되려고 부산하게 움직이는 지금, 개발자는 모든 기업이 귀중하게 여기는 보물과 같다. 개발 팀은 더 이상 아웃소싱해야 하는 코스트 센터가 아니라 이제 비즈니스를 견인하는 최상위 수익 창출자로 인식된다. 경영진은 성장의 동력으로 개발자에게 투자해야 한다는 것을 배웠다. OpEx 클라우드 컴퓨팅이 부상하면서 이 추세는 더욱 공고해졌다.   하지만 개발자는 그 자체로는 최종 목표가 된 역사가 없다. 개발자는 다른 사람들이 기업의 생산성에 더 완전하게 기여할 수 있도록 길을 닦는 역할을 했을 뿐이다. 구체적으로 말해, 개발자의 스포트라이트 중 일부를 이제는 엔지니어와 과학자가 가져와야 한다. 이러한 고임금 전문가들(보통 박사 학위자)은 엄청나게 비싸면서도 연구 속도를 늦추는 맞춤형 온프레미스 하드웨어에서 방대한 워크로드를 실행하려고 대기 행렬을 만드는 데 익숙하다. 그리고 마지막 작업에서 배운 것을 반복하려면 다시 줄의 맨 뒤로 가야 한다.   하지만 과거는 과거고 지금은 지금이다.   엔지니어와 과학자들이 클라우드라는 바뀐 환경에서 실제 세계 조건을 시...

과학자 CICD 잼스택 2021.02.17

IBM Public Cloud 고객 사례집

본 자료는 IBM Public Cloud를 이용해 좋은 성과를 거둔 사례를 모은 고객 사례집입니다. IBM 퍼블릭 클라우드는 AI부터 분석, 보안, 데브옵스, 웹/모바일 등 폭넓은 영역에서 190개 이상의 고유 서비스를 제공합니다. 본 사례집에서는 금융, 제조, 게임, 헬스케어 등 다양한 산업군에서 IBM 퍼블릭 클라우드를 이용해 비즈니스 과제를 해결한 17개 기업의 사례를 소개합니다. <34p> 주요 내용 - IBM Public Cloud 소개 - 금융 사례 - 제조/유통 사례 - 게임 / 항공 사례 - 컴퓨팅 / 소프트웨어 사례

IBM퍼블릭클라우드 산업별사례 Cloud 2020.11.18

슈퍼컴퓨팅을 위한 최첨단 스토리지 솔루션 소개

IBM Spectrum Scale 스토리지 시스템은 과학 및 HPC 커뮤니티를 위한 최첨단 스토리지 솔루션입니다. 최신 버전인 5.0.0에서 IBM은 AI/ML/DL 활동을 위한 새로운 IO 프로파일을 도입하기 위해 몇 가지 개선사항을 추가했으며, 특히 이 새로운 워크로드에 필요한 작은 파일의 IO 성능을 개선했습니다. 본 문서에서는 IBM Spectrum Scale 5.0.0의 몇 가지 개선사항과 더불어 새로운 워크로드와 앞으로 나올 워크로드를 수용할 수 있는 세계 최고 속도의 HPC 슈퍼컴퓨팅 환경을 개발하기 위해 미국 내 여러 연구소가 공동으로 추진하고 있는 이니셔티브에서 이러한 개선사항이 어떻게 입증되었는지 설명합니다. <8p> 주요 내용 - IBM Spectrum Scale 5.0.0 개선사항 - 새로운 AI/ML/DL IO 요구사항 - 오크리지 국립연구소의 새로운 스토리지 시스템 요구사항 - IBM ORNL 서밋 스토리지 시스템 결과 - 추가 성능 개선사항

스토리지 SpectrumScale AI 2020.11.10

“DIM 소켓 없는 ARM 기반 HPC” 후지쯔의 슈퍼컴퓨팅 승부수

서버용 ARM 프로세서는 처참한 실패(Calxeda)로 시작해서 적당한 성공(ThunderX2)으로, 그리고 마침내 제대로 된 경쟁자(ThunderX3, Ampere)로 부상했다. 일본의 대형 IT 기업인 후지쯔의 ARM 프로세서에 대한 세부 정보가 공개됐는데, 후지쯔는 엔비디아 GPU보다 더 적은 전력으로 더 높은 성능을 구현할 수 있다고 주장한다.   후지쯔는 ARM8 파생 버전인 48코어 A64FX를 고성능 컴퓨팅 전용 프로세서로 개발하고 있는데, 범용 코어가 아니라 인공지능이나 머신러닝 등에 특화된 연산 엔진을 추가했다. 이 프로세서는 후가쿠(Fugaku)란 이름의 새 슈퍼컴퓨터에 탑재된다. 후가쿠는 포스트 K라고도 불리는데, 한때 세계 최고의 슈퍼컴퓨터였던 K 슈퍼컴퓨터의 후속작이다. K는 맞춤형 스팍 칩을 사용했다. 후지쯔는 관련 세부 정보 일부를 공개했는데, 꽤 인상적이다. 우선 A64FX의 설계는 전통적인 방식에서 시작한다. AMD 에픽이나 일부 제온과 같은 치플렛 설계 대신 단일 모놀리식 설계를 선택했다. 더 중요한 것은 HBM2 칩 4개가 들어간다는 것이다. CPU와 연결되는 이 값비싼 고속 메모리는 고성능 시스템에만 사용된다. 각각 2개의 8GB 모듈이 CPU 양옆에 배치되어 CPU당 32GB의 HBM2 메모리를 제공한다. 이 때문에 A64FX의 메인보드 프로토타입에는 RAM DIMM 소켓이 없다.  HPC 환경에서는 메모리 대역폭이 병목지점이 되는 경우가 많다. 특히 분석이나 시뮬레이션, 머신러닝 같은 데이터 집약적인 워크로드에서 성능 저하가 발생하는 원인이 된다. 실제로 데이터를 처리하는 데 드는 처리 성능의 100배 정도가 데이터를 옮기는 데 사용된다. 따라서 전력 효율을 높이기 위해서는 데이터를 가능한 한 조금 움직여야 한다. 따라서 A64FX의 설계는 표준 ARM 칩이나 x86 칩과는 완전히 다르다. 시스템 메모리가 없으며, 프로세서당 32GB의 초고속 메모리가 느린 메모리 버스 대신 고속 상호연결 기술을...

후지쯔 HPC 슈퍼컴퓨터 2020.04.07

"GPU 성능 파워업!" LMS기술 테스트 결과

딥러닝(Deep learning)이든 전통적인 HPC(High Performance Computer)든 GPU(Graphics Processing Unit)를 사용하시는 모든 분들이 골치 아파하시는 것 중 하나가 바로 ‘GPU 메모리’입니다. GPU에서 무언가를 연산하기 위해서는 해당 로직과 데이터를 CPU 메모리에서 GPU 메모리로 복사(Copy)부터 해야했습니다. 그런데 보통 12GB~24GB 정도인 작은 GPU 메모리 때문에 원하는 데이터를 다 복사해 올 수도 없고 속도도 느려 성능상 만족스럽지 못했죠. IBM은 이를 보완하기 위해 획기적인 솔루션, LMS(Large Model Support)을 개발했습니다. 그리고 테스트를 통해 월등히 나아진 성능을 확인할 수 있었습니다. 주요 내용 - GPU 메모리 부족(out of memory) 문제 해결 - ‘유니파이드 메모리(UM)’ 개발... 편리하지만 활용도 낮아 - IBM, 새로운 돌파구 ‘LMS’로 GPU 성능 끌어올린다 - 경희대 MLVC Lab, 고해상도 영상 위해 IBM LMS 테스트 - LMS 테스트 결과, 눈에 띄게 향상된 GPU 성능  

메모리 HPC gpu 2019.12.03

레노버, 하버드 대학교에 수냉식 슈퍼컴퓨터 제공

레노버 데이터센터 그룹(이하 레노버)이 하버드 대학교 문리대학부 연구 컴퓨팅센터(Harvard University Faculty of Arts and Sciences Research Computing, 이하 FASRC)에 수냉식 슈퍼컴퓨터를 제공했다고 밝혔다.  레노버는 최첨단 고성능 컴퓨팅(HPC) 기술 및 기능을 가능한 많은 이용자에게 제공하고자 하는 ‘엑사스케일에서 에브리스케일까지’라는 미션 아래, 하버드 대학교 FASRC에 서버를 냉각시키면서 에너지를 효율적으로 이용할 수 있는 기술을 제공한 것이다.  FASRC는 최첨단 컴퓨팅 서비스를 제공해 복잡한 연구를 발전시키고자 2007년에 설립됐다. 최근 FASRC는 최대 규모의 HPC 클러스터 캐넌(Cannon)을 발표했다.  FASRC 캐넌 클러스터는 대규모의 HPC 시스템으로, 600개 이상의 실험실 그룹과 4,500명 이상의 하버드 연구원을 위한 과학, 공학, 사회 과학, 공중 보건과 교육 모델링 및 시뮬레이션을 지원한다.  FASRC는 레노버와 인텔이 지속적으로 협업해온 데이터센터 내 HPC 및 인공지능(AI) 기능 향상에 주안점을 두고, 기존 클러스터인 오디세이(Odyssey)를 새롭게 개선하기로 했다. FASRC는 모든 계산 처리의 25%는 단일 코어에서 실행된다는 점을 인지하고, 프로세서 수를 높이는 동시에 개별 프로세서의 성능을 향상시키고자 했다. 현재의 향상된 성능 수준을 지원하는 데 수냉식 기술이 매우 큰 역할을 하였으며, 향후 용량을 추가할 때도 이 기술은 중요하게 작용된다. FASRC의 연구 컴퓨팅 디렉터 스콧 요클은 “캐넌 클러스터의 컴퓨팅 성능이 향상되고 처리 속도가 빨라지면서 연구원들이 데이터 실험에서 무언가를 시도하고 실패한 후 다시 시도할 수 있는 기회가 생겼다”며, “실패를 하나의 옵션으로 허용하는 것은 연구원들의 경쟁력을 더욱 높여준다”고 말했다. editor@itworld.co.kr

레노버 HPC 슈퍼컴퓨터 2019.11.19

'슈퍼컴퓨터 대신 고성능 컴퓨팅', 정말 필요한 분야와 기업은 과연 어디?

현대의 데이터 중심 세계에서 고성능 컴퓨팅(High performance computing, 이하 HPC)은 유전체학, 컴퓨터 화학, 재무 위험 모델링과 지질 탄성파 영상화 등 다양한 분야에서 심층적인 통찰력을 얻으려는 기업이 추구하는 플랫폼으로 부상하고 있다. HPC는 복잡한 수학적 계산을 해야하는 과학자들에 의해 처음 수용되었고, 이제 여러 분야에 걸쳐 광범위한 기업의 주목을 받고 있다. HPC 데이터 스토리지 시스템 공급업체 파나사스(Panasas)의 시스템 엔지니어링 책임자 데일 브랜틀리는 “데이터 수집, 분석 및 배포를 주로 하고, 엄청난 계산 능력으로 능률적인 워크플로우를 지원하기 위한 안정적인 시스템이 필요한 환경이라면 HPC가 필요하다”고 말한다. 중소 기업에서는 채택률이 상대적으로 낮지만, 기술과 직원의 전문성에 기꺼이 투자하려는 조직에는 HPC의 잠재력이 크다. 일반적으로 HPC의 사례는 특정 유형의 시뮬레이션에 집중돼 있다. 구글 클라우드의 HPC 및 양자 컴퓨팅 기술 책임자인 케빈 키셀은 “날개에 가해지는 기류 시뮬레이션, 엔진 연소, 행성 기상 시스템, 핵 반응 또는 투자 포트폴리오 평가와 같은 분야가 있다. 다른 사례로는 광고 ROI 측정, 사업부 성과 평가와 같은 분석도 있고, 번역이나 영화필름 및 비디오 렌더링과 같은 변환으로 분류되는 사용 사례도 있다”고 설명했다.    슈퍼 컴퓨터가 필요 없는 고성능 컴퓨팅 흔히 많은 기업과 IT 경영자가 모든 HPC 시스템이 슈퍼 컴퓨터 기반이라고 오해하기 쉽다. 아토스, IBM, HPE/크레이, 후지쯔 등이 생산한 슈퍼컴퓨터는 수많은 특수 HPE 시스템의 핵심이지만, 더욱 널리 쓰이는 접근법은 여러 대의 소형 컴퓨터를 상호 연결된 클러스터에 통합하여 HPE 기능을 제공하는 것이다. 이 방식에서 클러스터 내의 각 컴퓨터는 노드 역할을 한다. 각 노드에는 일반적으로 계산 작업을 하는 컴퓨트 코어라고 하는 멀티 프로세서가 탑재돼 있다. 각 노드 내의 프로세서, 그래픽 처리 ...

HPC 고성능컴퓨팅 2019.10.08

자율 주행에서 머신 비전까지··· ‘HPC+AI’ HPE 글로벌 사례 집중 분석 - IDG Summary

점점 더 많은 기업이 인공지능(AI)과 머신러닝을 활용하면서 여러 가지 현장 적용 사례가 나오고 있다. 이때 AI의 효과를 극대화하려면 엣지에서 이루어지는 작업과 데이터센터 혹은 클라우드에서 처리하는 작업을 모두 고려해 인프라를 설계하는 것이 중요하다.  그렇다면 기업이 구체적으로 어떻게 준비해야 할까? 씨게이트의 엣지-투-코어 온프레미스 구축 사례, HPE 스위스 공장의 머신 비전 도입 사례 등을 통해 이상적인 AI용 인프라 구축 방안을 살펴보자. 또한, 비디오 분석과 감시를 활용한 안전 강화 사례, 자율주행차의 ADAS 시스템 지원 체계 구축 사례 등을 통해 엣지-투-코어 기술의 폭넓은 활용 가능성을 확인해 보자. 주요 내용 - AI 장점을 극대화하는 인프라 구축이 필요한 이유 - 사례 1. 씨게이트, 엣지-투-코어 HPE 제품 기반 온프레미스 구축 - 사례 2. HPE 스위스 공장, 머신 비전으로 서버 불량 25% 감소 - 사례 3. 비디오 분석과 감시를 활용한 안전 강화 - 사례 4. 자율주행, AI-HPC-빅데이터의 결합 - 요건에 맞는 엣지-투-코어 아키텍처를 구성하는 방법

씨게이트 HPC 인공지능 2019.09.30

자율 주행에서 머신 비전까지··· ‘HPC+AI’ HPE 글로벌 사례 집중 분석 - IDG Summary

점점 더 많은 기업이 인공지능(AI)과 머신러닝을 활용하면서 여러 가지 현장 적용 사례가 나오고 있다. 이때 AI의 효과를 극대화하려면 엣지에서 이루어지는 작업과 데이터센터 혹은 클라우드에서 처리하는 작업을 모두 고려해 인프라를 설계하는 것이 중요하다.  그렇다면 기업이 구체적으로 어떻게 준비해야 할까? 씨게이트의 엣지-투-코어 온프레미스 구축 사례, HPE 스위스 공장의 머신 비전 도입 사례 등을 통해 이상적인 AI용 인프라 구축 방안을 살펴보자. 또한, 비디오 분석과 감시를 활용한 안전 강화 사례, 자율주행차의 ADAS 시스템 지원 체계 구축 사례 등을 통해 엣지-투-코어 기술의 폭넓은 활용 가능성을 확인해 보자. 주요 내용 - AI 장점을 극대화하는 인프라 구축이 필요한 이유 - 사례 1. 씨게이트, 엣지-투-코어 HPE 제품 기반 온프레미스 구축 - 사례 2. HPE 스위스 공장, 머신 비전으로 서버 불량 25% 감소 - 사례 3. 비디오 분석과 감시를 활용한 안전 강화 - 사례 4. 자율주행, AI-HPC-빅데이터의 결합 - 요건에 맞는 엣지-투-코어 아키텍처를 구성하는 방법

씨게이트 HPC 인공지능 2019.05.02

엔터프라이즈 AI 환경을 위한 최상의 서버

오늘날 확대되고 있는 첨단 AI, HPC, 실시간 분석 등의 데이터 집약적인 워크로드는 이전의 전통적인 서버와는 다른 초고속 인프라를 통해서만 원활하게 해결될 수 있습니다. IBM 은 CPU와 GPU 간의 NVLink를 활성화하는 유일한 아키텍처를 기반으로 새로운 차원의 가속 컴퓨팅을 제공하는 AI 워크로드에 최적화된 서버, IBM Power AC922를 설계했습니다. AI에 최적화되어 설계된 AI 맞춤 서버를 통해 귀사의 AI 실현을 앞당기십시오.  주요 내용 - 첨단 GPU 와 더 빠른 I/O -  POWER9 CPU와 NVIDIA Tesla V100(NVLink GPU)을 페어링하는 유일한 서버로, x86 서버의 PCIe gen3 대비 최대 5.6배의 대역폭 제공 - 최강의 POWER9 CPU - AI 시대를 위해 설계되어 x86 대비 2배의 스레드 처리 및 최대 44코어 지원  - 엔터프라이즈급 AI 솔루션 - 간단한 딥러닝 구축 및 우수한 성능 제공/ 간편한 엔드 투 엔드 AI 툴 인 제공/ 검증된 API 성능 및 확장성  - 이미 전 세계적으로 검증 완료 -  CORAL Summit 수퍼 컴퓨터의 중추 역할을 하면서 HPC에서 200페타플롭 이상,  AI에서 3 엑사플롭의 서비스 성능 입증

HPC POWER AI 2019.03.26

HPC 공략 나서는 오픈소스 컨테이너…싱귤러리티 성장에 주목

오픈소스 컨테이너가 업계 누구도 기대하지 않은 방향으로 움직이고 있다. 컨테이너는 오랫동안 애플리케이션을 필요한 구성요소와 함께 패키징하는 효과적인 방안으로 인식됐다. 하지만 일각에서는 오늘날 컴퓨팅 세계에서 가장 도전적인 분야 중 하나인 HPC(High Performance Computing)에 도전장을 던졌다. 컨테이너는 HPC 세계에 새로운 차원의 효율성을 가져다줄 수 있을 뿐만 아니라 HPC와 같은 작업을 하는 기업 IT 부서를 위한 새로운 작업 방식도 제시한다. 컨테이너는 애플리케이션을 배포할 방법을 찾는 조직에 많은 이점을 제공한다. 라이브러리 같은 애플리케이션의 여러 의존성을 자체 유지 가능한 이미지로 결합해 수많은 설치 문제를 해결한다. 운영체제 배포판의 차이가 영향을 미치지 않기 때문에 별도 버전의 애플리케이션을 마련하고 유지할 필요가 없으며, 덕분에 개발자의 작업도 한층 쉬워진다. 꽤 최근까지도 빅데이터와 슈퍼컴퓨터에 중점을 둔 HPC 시장은 컨테이너에 무관심했다. 이는 슈퍼컴퓨팅의 엄격하게 결합된 기술 모델이 느슨한 연결을 특징으로 하는 컨테이너의 마이크로서비스 세계와는 잘 맞지 않았기 때문이다. 보안 우려도 있었다. 예를 들어, 도커 애플리케이션은 흔히 실행을 위해 루트 특권을 부여하는데, 보안이 극도로 중요한 슈퍼컴퓨팅 세계에는 도저히 적용할 수 없는 방식이다. 하지만 HPC에 중점을 둔 컨테이너 시스템인 싱귤러리티(Singularity)가 나오면서 의미있는 변화가 이루어졌다. 현재 사이랩스(Sylabs)가 공급하는 싱귤러리티는 2015년 로렌스 버클리 국립연구소에서 시작한 오픈소스 프로젝트이다. 싱귤러리티는 컨테이너에 대한 관심이 고조될 때, 하지만 일반적으로 많이 사용하는 도커가 HPC 사용례를 지원하지 않을 때 탄생했다. 과학자들은 컨테이너를 사용했고, 작업물을 도커 허브에서 공유했지만, 도커는 HPC 상에서 지원되지 않았다. 싱귤러리티는 이런 사용자의 요구에 대한 응답으로 만들어졌다. 현재 싱귤러리티의 상용 버전은 싱귤...

HPC 컨테이너 도커 2018.12.19

IDG 설문조사

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.