AIㆍML

인텔-OSC, 새로운 HPC 클러스터 ‘카디널’ 공개 “AI 처리 능력 2배 향상”

편집부 | ITWorld 2024.02.23
인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(Ohio Supercomputer Center, OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 ‘카디널(Cardinal)’을 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 AI 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 특별히 설계됐다.
 

AI/ML은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이런 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용되고 있다.

카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 기능과 용량 모든 면에서 이번 새로운 클러스터는 2016년에 출시된 오웬스 클러스터(Owens Cluster)를 대체할 시스템보다 더 대규모의 업그레이드가 될 것이다.

카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성(portability) 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지(Dell PowerEdge) 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈(Intel Xeon CPU Max Series)를 활용한 이기종 시스템이다. 총 3만 9,312 CPU 코어를 제공하는 756개 맥스 시리즈(Max Series) CPU 9470 프로세서로 구성되며, 128GB HBM2e 및 노드 당 512GB의 DDR5 메모리를 제공한다.

단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다고 업체 측은 설명했다. 

이 시스템은 또한 32개의 노드로 104개의 코어, 1TB의 메모리, 4개의 NV링크(NVLink) 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어(H100 Tensor Core) GPU 4개를 탑재했다.

초당 400Gbps의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2 인피니밴드로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭(petaflop)의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공한다. 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업을 처리할 수 있다. 

인텔 데이터센터 AI 솔루션 제품군 총괄 부사장 오기 브르기치는 “인텔 제온 CPU 맥스 시리즈는 가장 널리 채택된 AI 프레임워크와 라이브러리를 활용하여 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지”라며 “이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 밝혔다.
editor@itworld.co.kr
 Tags 인텔

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.