GPU 넘어 NPU 시대…국산 AI 반도체 '실전 배치' 본격화
[IT동아 김영우 기자] 인공지능(AI) 열풍이 전 산업군으로 확산되면서 AI 반도체 시장이 하루가 다르게 팽창하고 있다. 글로벌 시장조사업체 모도르 인텔리전스(Mordor Intelligence)가 2026년 초 발표한 보고서에 따르면, 올해 글로벌 AI 가속기 시장 규모는 약 1746억 달러(한화 약 240조 원)에 달할 것으로 전망된다.

최근 이 거대한 시장의 구조를 자세히 들여다보면 뚜렷한 패러다임의 변화가 감지된다. 과거에는 엔비디아(NVIDIA)로 대표되는 범용 그래픽처리장치(GPU)가 AI 인프라 시장을 사실상 독점했으나, 최근 들어 신경망처리장치(NPU)가 그 강력한 대안으로 부상하며 빠르게 점유율을 넓혀가는 추세다.
이러한 하드웨어 시장의 변화는 AI 생태계가 ‘도입기’를 지나 ‘실질적 활용’이 중요해지는 단계로 접어들었음을 시사한다. 무게 중심이 AI 모델을 만드는 '학습(Training)'에서, 만들어진 모델을 실제 서비스에 적용하는 '추론(Inference)'으로 재편되고 있기 때문이다.
여기서 GPU와 NPU의 역할이 갈린다. GPU는 본래 그래픽 처리를 위해 고안된 장치로, 수천 개의 코어를 이용해 방대한 데이터를 동시에 처리하는 병렬 연산 능력이 탁월해 AI '학습'에 필수적이다. 반면 NPU는 인간의 뇌 신경망을 모방하여 AI 연산만을 위해 최적화된 설계가 특징이다. NPU는 학습된 모델을 구동하는 '추론' 작업에 특화되어 있으며, GPU 대비 전력 소모가 적고 비용 효율이 높아 GPU 의존도를 낮추려는 기업들의 실질적인 선택지로 주목받고 있다.
이러한 NPU의 등장은 엔비디아가 장악한 ‘학습용 반도체’ 시장의 높은 벽을 넘지 못했던 한국 팹리스(반도체 설계) 기업들에게 새로운 기회가 되고 있다. 범용성이 중요한 학습 시장과 달리, 추론 시장은 각 산업별 최적화 기술이 핵심인 만큼 우리 기업들이 가진 세밀한 설계 역량으로 승부수를 던질 수 있기 때문이다. 현재 국내 시장에서는 퓨리오사AI, 리벨리온, 딥엑스 등이 대표적인 NPU 시장의 '플레이어'로 활약하고 있다.
틈새시장 공략 및 AI 주권 힘입어 기회 잡은 K-반도체
물론 냉정하게 현실을 직시할 필요도 있다. 수백조 원 규모의 글로벌 전체 AI 반도체 시장을 놓고 보면, 한국 NPU 기업들의 매출 규모나 시장 점유율은 아직 '기타(Others)' 범주를 벗어나지 못하고 있는 것이 사실이다. 글로벌 시장조사업체 IOT애널리틱스가 2025년 3월 발표한 조사 결과에 따르면, 전 세계 데이터센터 AI 반도체 시장은 아직 엔비디아가 92%의 점유율을 독식하고 있는 구조다.
그러나 전문가들이 한국 NPU 기업들을 주목하는 이유는 '절대적인 파이의 크기'가 아니라 '성장 속도와 영토의 질'에 있다. 이들은 글로벌 대기업의 영향력이 압도적인 범용 GPU 시장에서 전면전을 벌이는 대신, 전력 효율과 가성비가 생명인 '추론'과 '실물 경제'라는 확실한 틈새시장을 정해 글로벌 고객사를 빠르게 확보해 나가고 있다.
특히 미국과 중국의 기술 패권 경쟁 속에서 자국 데이터와 인프라로 독립적인 기술을 구축하려는 'AI 주권(소버린 AI·Sovereign AI)' 확보 움직임은 국내 기업들에게 강력한 호재다. 특정 해외 벤더에 대한 종속을 피하고 국가 차원의 AI 주권을 굳건히 지키기 위해 국산 AI 반도체가 전략적인 공급망 다변화의 대안으로 부상하고 있기 때문이다.
'실전 배치'도 본격화, 매출 확대 기대
가장 눈여겨볼 변화는 국산 NPU가 그동안의 연구실 성능 테스트나 단순 홍보 수준을 넘어, 철저히 수익성을 따지는 민간 기업의 실제 비즈니스 영역으로 본격 진입했다는 점이다.

최근 클라우드 전문 기업 가비아가 국내 AI 반도체 기업 리벨리온의 NPU 'ATOM-Max(아톰 맥스)'를 기반으로 한 클라우드 서비스 'NPUaaS(NPU as a Service)'를 출시한 것이 실전 배치의 대표적인 사례다. NPUaaS는 기업들이 고가의 하드웨어를 직접 구축하지 않고 NPU 인프라를 클라우드 방식으로 구독해 사용하는 서비스 모델이다.
해당 서비스에 탑재된 ATOM-Max 칩은 1장 기준 128 TFLOPS(FP16)의 연산 성능과 64GB의 NPU 메모리를 제공해, 대규모 언어 모델(LLM) 서빙이나 비전 AI, 멀티모달 AI 등 실무에서 요구되는 다양한 워크로드를 매끄럽게 지원한다. 또한 가비아는 인스턴스 기반으로 OS 커널 수준의 세밀한 환경 설정을 지원하며, 전문 인력이 직접 참여하는 'AI 추론 프레임워크 최적화 컨설팅'을 결합해 새로운 칩 도입에 따른 기술적 진입 장벽을 낮추고 있다.
이러한 상용 서비스로의 실전 배치는 곧장 국내 NPU 팹리스들의 폭발적인 실적 성장으로 이어지고 있다. 리벨리온은 2025년 약 320억 원의 매출을 기록하며 전년 대비 3배 이상 성장했고, 최근 대규모 투자를 유치하며 기업가치 3조 4000억 원의 유니콘으로 등극했다. 딥엑스 역시 글로벌 고객사 30여 곳을 확보하며 올해 약 600억 원의 매출 목표를 예고했고, 퓨리오사AI 또한 올해 2세대 NPU 2만 장 양산 목표를 밝히며 본격적인 공급망 싸움에 뛰어들었다.
가비아 클라우드사업 관계자는 "AI 활용이 추론 중심으로 재편되면서 국산 NPU 시장이 본격적인 성장기에 접어들었다"며 "전력 효율과 비용 경쟁력이 필수인 추론 영역은 NPU가 활약하기에 최적의 환경이다"라며 "특히 기술 자립을 위한 ‘AI 주권’ 논의가 활발해지며 국산 NPU는 공급망 다변화의 핵심 수단으로 떠오르고 있다. 이번 가비아 NPUaaS 같은 상용화 사례가 쌓일수록 국내 AI 반도체 생태계의 선순환도 가속화될 것이다"라고 강조했다.
IT동아 김영우 기자 (pengo@itdonga.com)

