아크로팬

산업 경제 테크 게임
사회 생활 자동차 미디어

엔비디아, 페타스케일급 워크그룹 서버 ‘DGX 스테이션 A100’ 발표

  • 2020-11-17 13:34
  • ACROFAN=권용만
  • yongman.kwon@acrofan.com
엔비디아(CEO 젠슨 황)는 세계 유일의 페타스케일급 워크그룹 서버 엔비디아 DGX 스테이션 A100(DGX Station A100)을 발표했다. 혁신적인 2세대 인공지능(AI) 시스템인 DGX 스테이션 A100은 기업 사무실, 연구시설은 물론, 가정에서 근무하는 직원들의 까다로운 머신러닝(ML) 및 데이터 사이언스 워크로드를 가속화하도록 설계됐다.

2.5페타플롭스(PF)의 AI 성능을 제공하는 DGX 스테이션 A100은 엔비디아 NV링크(NVLink)로 완전히 상호 연결된 4개의 최신 엔비디아 A100 텐서 코어(Tensor Core) GPU를 탑재한 유일한 워크그룹 서버로, 최대 320GB의 GPU 메모리를 제공하여 기업의 데이터 사이언스 및 AI 혁신을 지원한다.

엔비디아 DGX 스테이션 A100은 또한 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원하는 유일한 워크그룹 서버이다. MIG 기술을 통해 단일 DGX 스테이션 A100은 최대 28개의 개별 GPU 인스턴스를 제공하여 시스템 성능에 영향을 미치지 않으면서 병렬 작업을 수행하고, 여러 사용자를 지원한다.

DGX 스테이션 A100은 데이터센터급 전력이나 쿨링을 요구하지 않지만, 엔비디아 DGX A100 데이터센터 시스템과 동일한 수준의 원격 관리 기능을 갖춘 서버급 시스템이다. 시스템 관리자는 데이터 사이언티스트와 연구자가 가정 및 연구실에서 작업할 때 원격 연결을 통해 모든 관리 작업을 쉽게 수행할 수 있다.

DGX 스테이션 A100에는 80GB 또는 40GB의 엔비디아 A100 텐서 코어 GPU가 4개 탑재돼 있어 데이터 사이언스 및 AI 연구팀의 고유한 워크로드 및 예산에 맞춰 시스템을 선택할 수 있다. DGX 스테이션 A100은 BERT 라지 인퍼런스(BERT Large inference)와 같은 복잡한 대화형 AI 모델을 지원하기 위해 이전 세대 DGX 스테이션 대비 4배 이상 빠른 속도를 제공한다. 또한, BERT 라지 AI 훈련에 있어 약 3배 향상된 성능을 제공한다.

향상된 데이터센터 워크로드를 지원하기 위해 DGX A100 시스템은 새로운 엔비디아 A100 80GB GPU를 탑재한다. 이를 통해 GPU 메모리 용량을 시스템당 두 배인 640GB으로 늘려 대규모의 데이터셋과 모델을 통해 정확성을 높일 수 있다.

새로운 엔비디아 DGX A100 640GB 시스템은 엔터프라이즈용 엔비디아 DGX 슈퍼POD(SuperPOD) 솔루션에도 통합될 수 있다. 조직들은 20개의 DGX A100 시스템 유닛으로 제공되는 턴키 방식의 AI 슈퍼컴퓨터를 통해 대규모 AI 모델을 구축하고 교육 및 배포할 수 있다.

DGX A100 640GB가 탑재된 DGX 슈퍼POD 시스템은 영국의 헬스케어 연구 발전을 위한 케임브리지-1 슈퍼컴퓨터와 미 플로리다 주 전역에서 AI를 통한 다양한 발견을 지원하는 플로리다 주립대학교의 하이퍼게이터(HiPerGator) AI 슈퍼컴퓨터에 최초로 도입됐다.

엔비디아 DGX 스테이션 A100 및 엔비디아 DGX A100 640GB 시스템은 전세계의 엔비디아 파트너 네트워크 리셀러를 통해 이번 분기에 제공될 예정이다. 엔비디아 DGX A100 320GB 고객을 대상으로 업그레이드 옵션 또한 지원한다.