아크로팬

산업 경제 테크 게임
사회 생활 자동차 미디어

[Intel DCI Summit 2018] 프리젠테이션 - AI & 클라우드 세션

  • 2018-08-15 11:04
  • ACROFAN=권용만
  • yongman.kwon@acrofan.com
인텔(Intel)은 8월 8일 미국 캘리포니아 주 산타클라라(Santa Clara) 인텔 본사에서 ‘데이터 센트릭 이노베이션 서밋 2018(Data-Centric Innovation Summit 2018)’ 행사를 열고, ‘데이터 중심’ 시대를 위한 인텔의 전략을 소개했다. 이번 행사에서는 인텔의 프로세서 뿐 아니라 메모리, 네트워크 등 데이터센터를 위한 다양한 기술과 관련된 신제품과 전략들이 선보였다.

현재 세계에 존재하는 데이터의 90%는 지난 2년 내에 생성되었으며, 이러한 데이터의 양은 계속 기하급수적으로 증가해, 2025년에는 오늘날의 10배 크기에 해당하는 163ZB에 이를 것으로 예상된다. 하지만 이들 데이터의 1% 정도만이 의사결정을 위해 활용되고 있을 뿐이며, ‘데이터 중심’의 환경은 조직의 경쟁력을 결정하기도 한다. 그리고 인텔은 데이터를 더 빠르게 이동시키고, 더 많은 데이터를 저장하고, 다루는 방법 등 ‘데이터 중심 비즈니스’의 총 유효시장의 규모는 2022년 2,000억 달러로 추산하며, 이는 인텔 역사상 가장 큰 규모의 기회에 해당한다고 소개했다.

인텔은 이번 서밋 기간에 차세대 제온 스케일러블 프로세서 시리즈인 ‘캐스캐이드 레이크(Cascade Lake)’가 새로운 VNNI 명령어 및 DLBoost 기술을 통해 AI 추론 성능을 대폭 향상시킬 것이라고 밝혔다. 또한 ‘옵테인 DC 퍼시스턴트 메모리(Optane DC Persistent Memory)’는 기존 메모리 시스템 기반에서 사용할 수 있는 대용량의 메모리 스토리지 공간을 제공하며, 더욱 효율적인 스토리지 구성을 위해서는 옵테인 DC SSD와 새로운 QLC 3D NAND 기반 신제품들의 조합을 소개했다. 한편 데이터의 더 빠른 이동을 위한 네트워크 측면에서는 ‘실리콘 포토닉스(Silicon Photonics)’와 새로운 SmartNIC 제품 라인을 소개했다.

 
▲ 나빈 라오 인텔 AI 제품 그룹 부사장

 
▲ AI의 활용을 예상할 수 있는 모든 위치에 대응하는 솔루션 조합이 갖추어져 있다

인텔의 AI와 관련된 프리젠테이션은 인텔 AI 제품 그룹(AI Products Group)의 나빈 라오(Naveen Rao) 부사장이 진행했다. 그는 먼저, AI 시장은 빠르게 성장하고 있으며, 데이터센터에서의 AI 로직 실리콘과 관련된 시장 규모는 2017년의 25억 달러에서 2022년에는 100억 달러에 이를 정도로까지, 연 30%의 성장세를 보일 것으로 예상되고 있다고 소개했다. 또한 향후의 시장에 대한 관점으로, 기존에는 명확하게 나뉘어져 있는 훈련과 추론 환경의 경계가 모호해질 것이라는 점과, 중요한 워크로드들에 AI 기술이 통합될 것이라고 덧붙였다.

AI는 이제 단순한 초기 단계의 ‘컨셉 구현’이 아니라, 자율주행이나 AI 스피커, 디지털 비서, 자연어 처리 기술 등에서 현실 세계의 실제 문제를 해결하고 가치를 창출하는 데 본격적으로 이용되는 단계에 진입한 것으로 평가된다. 또한 AI가 적용되는 영역 또한 넓어졌는데, 전통적인 데이터센터 기반의 AI 뿐 아니라, 이제는 엔드포인트와 IoT에서, 엣지, 데이터센터까지 다양한 영역에서 각자의 특성에 맞는 AI 기술이 활용되고 있다. 이에 인텔은, 향후 다양한 위치에서 AI를 활용하기 위한, 다양한 성격의 플랫폼과 제품이 필요해질 것으로 예상했다.

AI를 위한 인텔의 전략은 ‘One size does not fit all’로, 다양한 위치에서 AI 구현을 위한 다양한 솔루션을 가장 적합한 형태로 선보이는 것이다. 이에 엔드포인트에서는 아톰이나 코어 프로세서 등과 모비디우스의 솔루션 등을 결합해 IoT 센서나 자율주행차, 데스크톱과 모바일 등의 수요에 대응하고, 엣지 레벨에서는 범용성을 갖춘 제온 프로세서에 FPGA 가속기, 모비디우스의 솔루션을 결합하며, 데이터센터에서는 제온 프로세서와 FPGA, 딥러닝을 위해 너바나(NERVANA)의 솔루션의 조합을 제시한다. 한편 인텔은 이미 현재도 AI 관련 비즈니스에서 10억 달러 이상의 매출을 올리고 있으며, 다양한 기업들로 구성된 폭넓은 생태계가 함께 하고 있다는 점을 강조했다.

 
▲ AI의 ‘학습’을 위한 NNP L-1000은 첫 상업적 NNP로 2019년 중 등장할 예정이다

 
▲ nGraph 컴파일러는 다양한 하드웨어와 프레임워크 조합의 성능 최적화 문제를 해결한다

AI 개발의 전반적 생애 주기는 데이터 통합부터 시작해 개발, 추론, 적용 범위 확대로 넘어가며, 인텔은 최근 큰 관심을 받고 있는 ‘학습’은 이 전체 라이프사이클에서 한 부분이라는 점을 강조했다. 또한 인텔은 이 AI 개발의 전체 단계에서 다양한 솔루션을 제공하고 있다고 소개했다. ‘제온 스케일러블 프로세서’는 AI 워크로드에서도 가장 중요한 위치에 있으며, 소프트웨어 라이브러리 등의 최적화를 통해, 현재는 출시 당시보다 추론은 5.4배, 트레이닝은 1.4배 향상된 성능을 제공하고 있다. 또한 ‘캐스캐이드 레이크’에서는 DLBoost와 VNNI를 통해 이보다 두 배 높은 성능을 제공할 것이라 덧붙였다.

2019년 중 선보일 예정으로 첫 상업 판매용 NNP가 될 인텔 너바나 NNP L-1000은 AI 워크로드에 특화된 제품으로, 기존 제품 대비 메모리와 대역폭, 왈용도와 전력 소비 등의 최적화와 함께, 첫 세대의 NNP 제품보다 3~4배의 트레이닝 성능을 제공할 것이라 소개되었다. 또한 고대역폭, 저지연 인터커넥트로 뛰어난 확장성을 갖추고, bfloat16을 지원할 것이라고 밝혔다. 한편 소프트웨어 지원에서도 라이브러리와 툴킷, 재단 운영까지 다양한 방법으로 접근하고 있으며, 특히 인텔 nGraph 컴파일러는 다양한 하드웨어와 다양한 프레임워크 사이를 최적의 형태로 연결하는 딥러닝 컴파일러로, 다양한 하드웨어의 성능을 쉽게 최대한 활용할 수 있도록 한다고 설명했다.

인프라의 확장 측면에서는 높은 효율을 제공하는 ‘옴니패스 아키텍처’가 소개되었으며, 멀티스케일 신경망 네트워크 환경을 위한 최적화된 텐서플로우와 옴니패스 아키텍처의 적용을 통해, 8노드 구성에서 6.6배 성능 향상이라는 높은 효율을 얻을 수 있다고 소개했다. 또한 타뷸라(Taboola)는 제온 스케일러블 프로세서와 이에 최적화된 텐서플로우를 적용, 추론 성능을 2.5배 향상시켰다고 발표했다. 한편 개발자 지원 측면에서는 오픈소스 커뮤니티의 성장 지원과 함께 AI 아카데미와 데브클라우드, 개발자 컨퍼런스 등을 진행하고 있다고 덧붙였다.

 
▲ 래지네 스킬런 인텔 데이터센터 그룹 부사장

 
▲ 인텔의 ‘맞춤형’ 제품은 이미 주류의 반열에 올라가 있는 상황이다

인텔 데이터센터 그룹의 래지네 스킬런(Raejeanne Skillern) 부사장은 클라우드의 성장과 변화에 따른 인텔의 전략에 대해 소개했다. 이제 IT에서 ‘클라우드’는 어디에서나 찾을 수 있고, 데이터센터의 아키텍처를 포함해 많은 것을 바꾸고 있으며, 디지털 변혁(Digital Transformation)의 핵심이기도 하다. 그리고 퍼블릭 클라우드의 지속적인 성장과 함께, 인텔의 데이터센터 그룹 매출 중 클라우드 관련이 차지하는 비중은 이제 43% 가량에 이르렀으며, 지난 해 대비 성장 폭 도한 43%에 이를 정도이고, 향후에도 이 정도로 크지는 않겠지만 꾸준한 성장이 기대되고 있다고 언급했다.

이 부분에서 주목할 만한 시장으로는 2021년 4조 9천억 달러 규모의 시장이 예상되는 ‘디지털 리테일’, 4000억 달러 규모의 시장이 예상되는 ‘디지털 광고’, 작지만 빠르게 성장해 1200억 달러 규모 시장으로 자리잡을 ‘디지털 비디오&미디어’, 그리고 3000억 달러 규모 시장이 예상되는 ‘클라우드 서비스 등이 꼽혔다. 그리고 이런 클라우드 시장에 대한 인텔의 접근은 ‘긴밀한 협력’으로, 플랫폼 기술의 변혁, 전체 플랫폼에서 고객의 환경에 최적화된 솔루션의 최적화와 차별화, 시장의 가속화를 위한 정책 등이 꼽혔다.

인텔은 프로세서, 메모리와 스토리지, 가속기와 연결성, 이들을 잇는 소프트웨어까지 인프라 전반의 역량을 갖추고 있으며, 이를 기반으로 표준 제품 뿐 아니라 고객의 워크로드에 최적화된 ‘맞춤형’ 모델도 선보이고 있다. 인텔은 이러한 ‘맞춤형’ 제품의 비중이 이미 50% 가량에 이르고 있을 정도라고 소개하며, ‘세미 커스텀 프로세서’에서는 인텔의 IP와 서드파티 IP를 함께 패키징한 제품도 공급할 수 있다고 밝혔다. 이 ‘맞춤형’ 모델의 사례로는 AWS의 특정 EC2 인스턴스를 위한 프로세서가 꼽혔는데, 이 프로세서는 제온 스케일러블 기반으로 전체 코어의 동작 속도를 최대 4GHz까지 끌어올려 서비스 성능을 최적화했다.

 
▲ 시장 가속화를 위한 ‘클라우드 인사이더 프로그램’은 더 강화될 것이라 소개되었다

워크로드 최적화의 사례에서는 AI 추론 성능을 16배 향상시킨 텐센트(Tencent)의 위챗(WeChat), 텐서플로우를 통한 AI 훈련 성능을 최대 7.4배 향상시킨 AWS의 딥러닝 AMI의 사례가 꼽혔다. 또한 파이썬(python)의 렌더링 코드 개선을 통해서는 20배 이상의 성능 향상도 가능했다고 밝혔다. 이 외에도 서비스 차별화를 위한 사례에서는 애저 컨피덴셜 컴퓨팅(Azure confidential computing)의 사례가 소개되었는데, 보안 측면의 강화를 위해 인텔의 SGX(Software Guard Extensions) 기술을 사용, 서비스의 보안 측면을 차별화했다고 덧붙였다.

시장 가속화를 위한 전략으로는 650개 이상의 회원이 참여하고 있는 인텔 인사이더 프로그램(Intel Cloud Insider Program)이 꼽혔다. 이 프로그램은 마케팅 지원과 맞춤화된 세일즈 도구 지원, 각종 교육과 훈련 관련의 지원 등을 포함하고 있으며, 특히 인텔은 조인트 마케팅 부분에 대한 투자를 강화할 예정이라는 점을 강조했다. 또한 ‘어드밴스드 테크놀로지 샌드박스 테스팅’은 최신 하드웨어 기반에서의 샌드박스 테스팅으로, 실제 사용 사례에서의 독특한 구성을 그대로 반영해 평가할 수 있게 한다고 소개했다.