서버

슈퍼마이크로, AI·HPC·클라우드 워크로드 가속화 위한 서버 출시

편집부 | ITWorld 2021.10.18
슈퍼마이크로컴퓨터는 엔비디아 암페어 아키텍처 GPU 및 AI 액셀러레이터 ‘슈퍼마이크로 X12 시리즈’가 탑재된 3세대 인텔 제온 스케일러블 프로세서를 기반으로 하는 새로운 시스템을 발표했다.


이번에 새롭게 발표된 서버는 로우 레이턴시와 뛰어난 애플리케이션 성능을 요구하는 까다로운 AI 애플리케이션을 위해 설계됐다고 업체 측은 설명했다. 2U 엔비디아 HGX A100 4-GPU 시스템은 고속 CPU-GPU 및 GPU-GPU 상호연결을 통해 최신 AI 훈련 클러스터를 대규모로 배포하는 데 적합하다. 

슈퍼마이크로 2U 2-노드 시스템은 전원 공급 장치와 냉각 팬을 공유함으로써 탄소 배출량뿐만 아니라 에너지 사용량 및 비용을 절감한다. 또한 각 워크로드에 적합한 다양한 개별 GPU 액셀러레이터를 지원한다. 이 두 시스템은 최신 인텔 소프트웨어 가드 익스텐션(Intel Software Guard Extensions)에 의해 활성화되는 고급 하드웨어 보안 기능을 포함한다.

슈퍼마이크로 찰스 리앙 사장 겸 CEO는 “슈퍼마이크로는 시장에 소개된 다른 설계 방식들에 비해 비용, 공간, 전력 소비 등을 절감하는 고성능 GPU 기반 시스템 포트폴리오를 한 차원 더 확대했다”며, “슈퍼마이크로 2U 2-노드 시스템은 전력 및 냉각 구성요소를 공유하도록 설계되어 운영비용을 절감하고 환경에 대한 영향을 줄여준다”고 말했다.

2U 엔비디아 HGX A100 서버는 인텔 딥러닝 부스트 기능이 탑재된 3세대 인텔 제온 스케일러블 프로세서를 기반으로 하며 분석, 훈련, 추론 워크로드에 최적화돼 있다. 이 시스템은 4개의 A100 GPU가 엔비디아 NV링크와 완전히 상호 연결돼 최대 2.5 페타플롭의 AI 성능을 제공할 수 있으며, 최대 320GB의 GPU 메모리를 제공하고 엔터프라이즈 데이터 사이언스 및 AI 분야 혁신을 가속화한다. 

이 시스템은 BERT 라지 인퍼런스(large inference)와 같은 복잡한 대화형 AI 모델을 위한 이전 세대 GPU 보다 최대 4배 빠르며, BERT 라지 AI 훈련에 대해 최대 3배 향상된 성능을 제공한다.

새로운 슈퍼마이크로 2U 2-노드 시스템은 각 노드가 최대 3개의 더블 슬롯 GPU를 지원하도록 설계된 에너지 효율적인 리소스 절약형 아키텍처다. 각 노드는 최대 40개의 코어와 AI 및 HPC 액셀러레이터가 탑재된 싱글 3세대 인텔 제온 스케일러블 프로세서가 특징이며, 이러한 CPU와 GPU의 균형은 다양한 AI, 렌더링 및 VDI 애플리케이션에 큰 이점을 줄 수 있다.

또, 빠르고 유연한 네트워킹 기능을 위해 슈퍼마이크로의 고급 I/O 모듈(AIOM) 확장 슬롯이 탑재돼 있어 워크로드 및 학습 모델을 보호하면서 까다로운 AI/ML 애플리케이션, 딥러닝 훈련 및 추론을 위한 대규모 데이터도 처리할 수 있다. editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.