‘하드웨어+소프트웨어’ 플랫폼으로 인공지능 생태계 장악 노리는 엔비디아의 속내는?
[IT동아 강형석 기자] 2024년 3월 18일, 세너제이 SAP 센터(미국 캘리포니아 소재)에서 GTC 2024가 개최됐다. 3월 21일까지 진행되는 행사에서는 인공지능부터 로보틱스, 디지털 트윈, 헬스케어, 자율주행, 사이버 보안 등 산업 분야에서 다양한 기술이 언급될 예정이다.
이날 기조연설에 나선 젠슨 황 엔비디아 CEO는 “다양한 데이터 모델은 획기적이지만 기업이 사용하기 어렵다. 어떻게 작업 흐름(워크플로우)에 적용하고 통합할 것인가? 각 요소에 대한 최적화를 수행하고 연산 구조를 구축해야 된다. 우리는 새로운 방법을 제안하고자 한다. 이것은 기본적으로 우리가 컨테이너라 부르는 디지털 상자 안에 들어 있다”고 말하며 엔비디아 추론 마이크로서비스(NVIDIA Inference Microservice)를 소개했다.
엔비디아는 기본적으로 잘 알려져 있는 컴퓨팅 연산 관련 명령어 외에 쿠다(CUDA – Computed Unified Device Architecture) 생태계를 어느 정도 구축해 왔다. 쿠다는 엔비디아 하드웨어와 자연스레 녹아 있어 최적의 성능을 이끌어낼 수 있고 쉽게 설치해 쓰는 이점으로 인해 관련 분야 종사자들이 선호하는 도구가 되었다. 꾸준히 업데이트하며 알려진 문제와 기능을 추가하기도 한다. 이는 경쟁사가 쉬이 구현할 수 있는 부분이 아니다.
이미 자사 하드웨어와 연계되어 있는 도구는 쿠다 뿐만이 아니다. 인공지능 엔터프라이즈 플랫폼, 데이터 과학, 대규모 언어 모델을 위한 니모(NeMo) 프레임워크, 옴니버스 플랫폼 등 자체 구축한 데이터센터를 기반으로 다양한 지원 생태계를 구축해 놓은 상태다. 하지만 엔비디아는 그 이상을 바라보고 있다. 엔비디아 추론 마이크로서비스와 아이작(Issac) 로보틱스 플랫폼 등은 엔비디아 인공지능 생태계 확장의 시발점이라 하겠다.
하드웨어 완성도 + 소프트웨어 생태계 = 수익 확대
GTC 2024 기조연설에 나선 젠슨 황 엔비디아 CEO는 차세대 인공지능 가속처리장치, 블랙웰(Blackwell)을 공개하며 “블랙웰은 칩이 아니고 플랫폼 이름이다. 사람들은 우리가 GPU를 만든다고 생각하고 실제로 만들고 있지만, 이제 GPU를 과거처럼 보지 않는다”라고 말했다.
엔비디아는 블랙웰을 공개하며 다양한 형태의 하드웨어 솔루션을 제안했다. 기본적으로 2개의 블랙웰 가속장치와 그레이스(Grace) 중앙처리장치를 연결한 GB200을 시작으로 GB200을 36대 배치한 GB200 NVL 72가 있다. 이 외에도 x86 기반 중앙처리장치에서 쓸 수 있는 서버 보드 HGX B200이 있다. B200 장치 8개를 장착할 수 있다. 이후 인공지능 가속장치만으로 구성된 B100 혹은 B200이 합류할 가능성이 있다.
성능은 기존 호퍼 기반 시스템 대비 큰 폭의 향상을 이뤄냈다. 젠슨 황 CEO는 GPT-MoE-1.8T 모델을 90일간 학습하는 환경에서 호퍼는 8,000개의 처리장치와 15메가와트(MW)의 전력을 필요로 하지만, 블랙웰은 2,000개 처리장치와 4메가와트 전력만 있으면 된다고 설명했다. 단순히 같은 공간에 블랙웰 연산 시스템을 구축할 경우 호퍼와 동일한 전력소모로 4배 이상 빠른 처리가 가능함을 말한다.
탄탄한 하드웨어 기틀 위에 엔비디아는 소프트웨어 생태계를 더했다. 엔비디아 추론 마이크로서비스는 엔비디아의 또 다른 시도가 될 전망이다. 우선 사전 훈련된 일부 오픈소스 인공지능 모델을 패키지로 제공되는데 이를 사용하는 라이브러리에 더해 쓸 수 있다. 랭체인(Langchain), 라마인덱스(LlamaIndex) 등 다양한 거대 언어 모델 프로그래밍에 대응한다.
완전 무료는 아니다. 1,000개의 추론 크레딧이 무료로 제공되어 사전 제작에 사용 가능하고 모두 사용하면 인공지능 엔터프라이즈 라이선스를 구매해 쓰는 식이다.
아이작 로보틱스 플랫폼은 조금 다르다. 엔비디아 젯슨 토르(Jetson Thor) 칩과 연동하는 시뮬레이션, 인공지능 작업흐름 인프라를 위한 도구다. 이 칩 역시 블랙웰 설계 기반으로 대규모 연산을 지원한다. 여기에 아이작 연구소(Issac Lab)로 강화 학습을, 오즈모(OSMO)로 컴퓨팅 조정을 지원한다. 엔비디아는 사전 훈련된 로봇 모델과 라이브러리 등이 포함된 아이작 조종자(Iaasc Manipulator), 아이작 인식자(Preceptor) 등도 공개했다.
하드웨어와 소프트웨어 생태계를 동시에 구축하는 이유는 간단하다. 자사 플랫폼을 사용하는 고객에게 최상의 도구를 쥐어 주고 계속 사용하도록 유도하는 전략이라고 봐도 무방하다. 엔비디아는 지금까지 구축한 생태계를 바탕으로 하드웨어와 소프트웨어 기반 고객을 유지 또는 확장함으로써 수익을 유지할 수 있다. 단기적으로 드러나지 않더라도 장기적인 관점에서 봤을 때 엔비디아의 하드웨어 점유율이 높아지면 생태계는 강력한 무기가 된다.
후발주자, 경쟁력 갖추기 위해 노력해야
엔비디아가 인공지능 하드웨어 시장에서 크게 앞서가는 분위기 속에 긴장해야 될 곳은 후발주자들이다. 하드웨어 성능 못지않게 소프트웨어 생태계 구축을 하지 못하면 대체재 이미지를 벗기 어려울 수 있다. 특히 엔비디아 차세대 인공지능 가속장치가 초기 수요를 따라가지 못할 가능성이 높은 현재 상황이 기회다.
경쟁사의 소프트웨어, 라이브러리 확보는 현재진행형이다. AMD는 인공지능 처리 도구와 모델, 라이브러리 등을 모은 ROCm으로 생태계 구축에 힘을 쏟는 중이다. 그 외 인공지능 가속장치 개발사도 허깅페이스(인공지능 라이브러리 플랫폼)와의 협업이나 전용 라이브러리 생태계 확보에 나서는 모습이다.
젠슨 황 CEO는 생성형 인공지능에 의해 탄생한 새로운 산업이 100조 달러(원화 환산 약 13경 3,890조 상당)에 달한다고 강조했다. 산업 성장에 따라 인공지능 하드웨어에 대한 수요 역시 폭발적으로 증가할 것으로 예상된다. 하드웨어 기업의 경쟁도 가속화될 것이다. 동시에 시장에 다양한 선택지와 기술 발전을 위한 후발주자의 노력 또한 필요한 시점이다.
글 / IT동아 강형석 (redbk@itdonga.com)