지난 몇 년 동안 IDC는 많은 기업이 광범위한 AI 기능 개발을 시작하는 것을 목격했습니다. 이와 동시에 IT 부서 역시 AI를 실행하는 인프라 측면에서 학습 곡선을 경험하게 되었습니다. 이제 딥 러닝 학습 또는 추론 작업을 위한 인프라 요구 사항 및 제품화 환경을 위한 확장 방법은 매우 명백합니다.
딥 러닝 학습에는 다른 워크로드과 구별되는 특정한 인프라가 필요합니다. 딥 러닝 학습에는 강력한 프로세서, 대용량 코프로세서, 고속 상호 연결, 대규모 I/O 대역폭, 대규모 메모리가 준비된 클러스터드 노드가 필요합니다. 이제 IT 부서가 해야 할 최선의 의사 결정은 AI 워크로드에 사용할 노드당 성능을 어떻게 할지 결정하는 것입니다. <16p>
주요 내용
- 클라우드 대비 온프레미스
- 코어 기아 현상
- AI 인프라 고려 사항
- IBM POWER SYSTEM AC922
- 당면 과제와 기회, 향후 전망