IT DONGA

[뉴스줌인] 엔비디아, 이젠 그래픽카드 아닌 AI 업체?

김영우

IT동아 김영우 기자] IT동아 편집부에는 하루에만 수십 건을 넘는 보도자료가 온다. 대부분 새로운 제품, 혹은 서비스 출시 관련 소식이다. IT동아는 이 중에 독자들에게 도움이 될 만한 것 몇 개를 추려 기사화를 한다. 다만, 기업에서 보내준 보도자료 원문에는 전문 용어, 혹은 해당기업에서만 쓰는 독자적인 용어가 다수 포함되기 마련이다. 이런 용어에 익숙하지 않은 독자를 위해 IT동아는 보도자료를 해설하는 기획기사인 ‘뉴스 줌인’을 준비했다.

출처: 엔비디아 코리아(2017년 3월 16일)
제목: 엔비디아 테슬라 P100, 페이스북 인공지능 서버 'Big Basin'에 활용

엔비디아 테슬라 P100

본문: AI 컴퓨팅 분야의 세계적인 선도기업 엔비디아(nvidia, CEO 젠슨 황)의 파스칼(Pascal) 아키텍처 기반 엔비디아 테슬라 P100(Tesla P100)가 페이스북(Facebook)의 차세대 AI 서버 ‘Big Basin’에 활용된다. 본 서버에 탑재된 8개의 테슬라 P100 GPU는 향상된 성능으로 페이스북 내 게재된 이미지의 사물 또는 사람의 얼굴을 인식하거나, 실시간 텍스트 번역, 사진 및 동영상 콘텐츠의 내용을 보다 정확히 이해할 수 있도록 지원한다.

해설: 엔비디아는 흔히 ‘지포스’로 대표되는 그래픽카드용 GPU(그래픽처리장치) 제조사로 알려져 있지만 최근에는 ‘AI(인공지능)’도 강조한다. CPU에 비해 부동소수점 연산속도가 훨씬 빠른 GPU의 특성을 이용, 이를 AI나 분자 구조 분석, 암호 해독 등의 범용적인 용도에 이용하는 경우가 늘어나고 있기 때문이다. 페이스북의 Big Basin 서버에 탑재되었다는 테슬라 P100 역시 이러한 범용 연산에 특화된 GPU 장치다.

본문: 엔비디아 테슬라 P100은 이전 세대인 맥스웰(Maxwell) 기반 솔루션보다 12배 향상된 뉴럴 네트워크(neural networks) 트레이닝 성능을 선보이는 하이퍼스케일 데이터센터 가속기이다. 테슬라 P100은 빅데이터 작업을 위한 HBM2(고대역폭 메모리)을 탑재한 CoWoS(Chip on Wafer on Substrate) 형태의 혁신적인 메모리 디자인을 통해 이전 서버 대비 초당 720GB, 또는 3배 이상 높은 메모리 대역폭 성능을 제공한다. 진보된 성능과 확장성, 프로그래밍 효율성으로 연산 집약적인 AI 및 HPC(고성능 슈퍼컴퓨터) 데이터센터 애플리케이션에 최적화된 효율성이 특징이다.

해설: 테슬라 P100는 엔비디아의 최신 그래픽카드인 지포스 10 시리즈와 마찬가지로 파스칼(Pascal) 아키텍처를 기반으로 설계되었으며, 기존의 맥스웰 아키텍처에 비해 소비전력 대비 연산 능력이 높아진 것이 가장 큰 특징이다. 뉴럴 네트워크(neural networks)란 인간의 뇌와 같이 스스로 상황을 판단에 적합한 결정을 하는 방식으로, 트레이닝(학습) 기능과 결합해 한층 향상된 성능을 기대할 수 있다.

엔비디아 테슬라 P100

HBM(High Bandwidth Memory)은 기존의 DDR, GDDR 메모리보다 훨씬 높은 대역폭(데이터가 지나가는 통로)을 확보할 수 있는 메모리 기술로, 2015년에 출시된 AMD의 ‘라데온 R9 퓨리’ 그래픽카드에 탑재된 바 있다. 다만, 가격이 비싸고 고용량을 확보하기 어려운 것이 단점이었다. HBM2는 기존 HBM의 개선형으로, 성능 및 생산성, 용량, 가격 등 모든 면에서 향상되었다는 점을 업체들은 강조한다. 일단은 전문가용 GPU 제품인 테슬라 P100에 우선 탑재되지만, 언젠가는 일반 그래픽카드에도 HBM2가 탑재되는 날이 올 것으로 예상된다.

본문: Big Basin은 엔비디아 초고속 NV링크(NVLink) 상호연결 기술을 지원하는 테슬라P100 GPU 로 확장성을 극대화하고, 메모리 용량 또한 이전 시스템의 12GB에서 16GB로 증가시켜 향상된 연산 능력을 갖췄다. 이에 따라 Big Basin은 이전 대비 30% 이상 많은 머신러닝 모델을 훈련할 수 있으며, 표준화된 인공신경망 모델 테스트에서는 2배 가량 향상된 처리속도를 달성한 바 있다(후략).

NV링크는 엔비디아 고유의 데이터 전송 인터페이스로, 기존의 범용 인터페이스인 PCI 익스프레스 3.0 대비 5배 가량 빠르게 데이터 전송이 가능한 것이 특징이다. 머신러닝(Machine Learning)은 컴퓨터를 학습시켜 스스로 일정한 규칙을 형성, 미래를 예측하게 하는 것으로, 인공지능 분야의 핵심 중 하나다.

글 / IT동아 김영우(pengo@itdonga.com)

이전 다음