2017.10.30

AWS, 아마존 EC2용 P3 인스턴스 공개

편집부 | ITWorld
아마존웹서비스(Amazon Web Services 이하 AWS)는 차세대 아마존 EC2 GPU 인스턴스 ‘P3 인스턴스’를 공개했다.

P3 인스턴스는 머신 러닝, 전산 유체 역학, 전산 금융, 지진파 분석, 분자 모델링, 유전체학 및 자율주행차 시스템 등과 같이 병렬적 부동 소수점 연산 성능을 요하는, 연산 집약적 애플리케이션을 위해 설계됐다.

엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 현재 클라우드에서 사용할 수 있다.

P3 인스턴스를 사용하면 이전 세대의 아마존 EC2 GPU 컴퓨팅 인스턴스보다 최대 14배 우수한 성능으로 고급 애플리케이션을 구축 및 배포할 수 있다. 또한 수일 소요되던 머신 러닝 애플리케이션 트레이닝도 단 몇 시간 안에 할 수 있게 된다. 최대 8개의 엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 1페타플롭의 혼합 정밀도(mixed-precision), 125 테라플롭의 단일 정밀도(single-precision), 그리고 62 테라플롭의 부동 소수점 배정밀도(double-precision) 성능을 제공한다.

엔비디아의 제2세대 NV링크 인터커넥트(NVLink interconnect)는 용량이 300GB/s이며, GPU간 고속, 로우 레이턴시(low-latency) 통신을 지원한다. P3 인스턴스는 맞춤형 인텔 제온 E5 프로세서와 488GB D램을 바탕으로 최대 64개의 vCPU를 갖추고 있으며, ENA(Elastic Network Adapter)를 통해 25Gbps 전용 네트워크 대역폭을 제공한다.

AWS의 아마존 EC2 부문 매트 가먼 부사장은 “P2 인스턴스에 비해 최대 14배 우수한 성능을 갖춘 P3 인스턴스는 머신 러닝 모델 학습에 소요되는 시간을 대폭 단축해 준다”며, “이를 통해 개발자들은 신속하게 실험할 수 있게 되며, 온프레미스 GPU 클러스터에 많은 자본을 투자하지 않고도 머신 러닝을 최적화할 수 있도록 한다”고 말했다.

현재 AMI(AWS Deep Learning Machine Images)는 AWS 마켓플레이스(Marketplace)에서 제공되고 있다. 딥 러닝 AMI에는 테슬라 V100 GPU를 지원하는 최신 아파치 MXNet(Apache MXNet)과 카페2(Caffe2), 텐서플로(TensorFlow)가 설치돼 있다. 또한 마이크로소프트 코그너티브 툴키트와 파이토치 등 다른 머신 러닝 프레임워크가 테슬라 V100 GPU를 지원하게 된다면, 그 즉시 딥 러닝 AMI를 업데이트해 P3 인스턴스를 지원할 예정이다. editor@itworld.co.kr


AWS
2017.10.30

AWS, 아마존 EC2용 P3 인스턴스 공개

편집부 | ITWorld
아마존웹서비스(Amazon Web Services 이하 AWS)는 차세대 아마존 EC2 GPU 인스턴스 ‘P3 인스턴스’를 공개했다.

P3 인스턴스는 머신 러닝, 전산 유체 역학, 전산 금융, 지진파 분석, 분자 모델링, 유전체학 및 자율주행차 시스템 등과 같이 병렬적 부동 소수점 연산 성능을 요하는, 연산 집약적 애플리케이션을 위해 설계됐다.

엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 현재 클라우드에서 사용할 수 있다.

P3 인스턴스를 사용하면 이전 세대의 아마존 EC2 GPU 컴퓨팅 인스턴스보다 최대 14배 우수한 성능으로 고급 애플리케이션을 구축 및 배포할 수 있다. 또한 수일 소요되던 머신 러닝 애플리케이션 트레이닝도 단 몇 시간 안에 할 수 있게 된다. 최대 8개의 엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 1페타플롭의 혼합 정밀도(mixed-precision), 125 테라플롭의 단일 정밀도(single-precision), 그리고 62 테라플롭의 부동 소수점 배정밀도(double-precision) 성능을 제공한다.

엔비디아의 제2세대 NV링크 인터커넥트(NVLink interconnect)는 용량이 300GB/s이며, GPU간 고속, 로우 레이턴시(low-latency) 통신을 지원한다. P3 인스턴스는 맞춤형 인텔 제온 E5 프로세서와 488GB D램을 바탕으로 최대 64개의 vCPU를 갖추고 있으며, ENA(Elastic Network Adapter)를 통해 25Gbps 전용 네트워크 대역폭을 제공한다.

AWS의 아마존 EC2 부문 매트 가먼 부사장은 “P2 인스턴스에 비해 최대 14배 우수한 성능을 갖춘 P3 인스턴스는 머신 러닝 모델 학습에 소요되는 시간을 대폭 단축해 준다”며, “이를 통해 개발자들은 신속하게 실험할 수 있게 되며, 온프레미스 GPU 클러스터에 많은 자본을 투자하지 않고도 머신 러닝을 최적화할 수 있도록 한다”고 말했다.

현재 AMI(AWS Deep Learning Machine Images)는 AWS 마켓플레이스(Marketplace)에서 제공되고 있다. 딥 러닝 AMI에는 테슬라 V100 GPU를 지원하는 최신 아파치 MXNet(Apache MXNet)과 카페2(Caffe2), 텐서플로(TensorFlow)가 설치돼 있다. 또한 마이크로소프트 코그너티브 툴키트와 파이토치 등 다른 머신 러닝 프레임워크가 테슬라 V100 GPU를 지원하게 된다면, 그 즉시 딥 러닝 AMI를 업데이트해 P3 인스턴스를 지원할 예정이다. editor@itworld.co.kr


AWS
X