국민 앞에 선 '국가대표 AI', 중간 발표로 확인한 K-AI의 현주소
[IT동아 남시현 기자] 대한민국의 인공지능(AI) 주권을 확보하기 위한 ‘독자 AI 파운데이션 모델’ 사업의 1차 발표회가 12월 30일 서울 삼성동 코엑스에서 개최됐다. 독자 AI 파운데이션 모델은 국가와 기업, 국민을 위한 ‘모두의 AI’를 만드는 사업으로 글로벌 AI 경쟁에서 대한민국이 자체적으로 구축하고 운용할 수 있는 AI 기반을 만드는 게 목표다. 과학기술정보통신부는 지난 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원 다섯 개 컨소시엄을 ‘국가대표 AI 정예팀’으로 선정하고 인프라 및 사업 지원을 제공해 왔다.
사업 목표는 발표 6개월 이내의 세계적인 AI 모델과 비교해 95% 이상의 성능을 발휘하는 것이며, 6개월 단위 평가를 통해 최종적으로 두 팀을 선정해 대한민국 대표 AI로 활용한다. 따라서 이번 발표회 이후 1월 15일 이내 한 개 컨소시엄이 탈락한다. 사업 규모는 데이터 분야에 628억 원, GPU 지원에 1576억 원, 인재 영입비에 250억 원이 할당됐고, 2026년 상반기 내 1차 개발을 끝내고 오픈소스로 AI 모델을 제공할 예정이다.

배경훈 과학기술정보통신부 장관은 “독자 AI 파운데이션 모델은 한국이 AI 3대 강국이 되기 위해 가장 먼저 거쳐야 할 관문이다. 다섯 개 컨소시엄 모두 세계 최고 수준에 도전 중이며 여기에는 승자도 패자도 없다. 어떤 결과가 나오든 정부가 함께할 것이며 그 결과를 가지고 컨소시엄에 참여하는 많은 기업과 함께 서비스와 플랫폼을 만들고 전 세계를 향하도록 지원하겠다”라고 말했다.
이어서 “한국은 아태지역의 AI 수도로서 자리잡고, 더 많은 AI 인프라와 데이터센터들이 한국에 지어질 것이다. 과기정통부는 독자 AI 파운데이션 사업을 바탕으로 과학 분야별 맞춤 AI 연구를 지원할 예정이다. 이를 통해 한국판 제네시스 미션(미국 연방정부가 주도하는 대규모 AI 프로젝트)을 완성해 한국의 과학기술을 한 단계 더 끌어올리겠다. 이번 사업으로 한국의 AI 대전환을 이뤄낼 것이며, 그 출발점에 여러분이 함께하고 있다는 점에 자부심을 가져달라”라고 말했다.
네이버클라우드 정예팀, 옴니 모델로 복합적 AI 환경에 대응
네이버클라우드가 생각하는 좋은 AI는 주어진 문제를 어떻게 해결하고 안정적으로 가져가는 가다. 네이버가 생각하는 좋은 모델의 조건은 이를 위해 비용 효율성과 뛰어난 모델 성능, 그리고 모델의 실용성을 갖춰야 한다. 이 세 개를 통합적으로 이해하고 동작해야 한다. 아울러 ‘모두를 위한 AI’라는 조건은 ▲ 누구나 쉽게 접근할 수 있는가 ▲ 국가 산업 경쟁력을 강화하는가 ▲AI로부터 소외된 계층에 먼저 다가가는가를 충족해야 한다는 시각이다.

이를 실현하기 위해 네이버클라우드가 선택한 것은 ‘옴니(Omni) 파운데이션 모델’이다. 네이버클라우드 정예팀은 옴니 파운데이션 모델을 기반으로 하는 첫 번째 버전인 하이퍼클로바 X 시드 8B 옴니(HyperClova X SEED 8B Omni) 모델과 추론형 AI에 시청각 활용 역량을 끌어올린 하이퍼클로바 X 시드 32B 씽크(HyperClova X SEED 8B Omni) 모델을 오픈소스로 공개하고, 본격적인 AI 에이전트 구현으로 진입한다.
옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 여러 형태의 데이터를 동시에 이해하고 생성하는 AI 모델이다. 하이퍼클로바 X 시드 옴니 모델은 기반부터 옴니 형식으로 데이터를 이해하도록 구축됐다. 성낙호 기술 총괄은 “텍스트 기반 대형언어모델(LLM), 광학 문자 인식(OCR) 모델을 별도로 연동할 필요 없이 AI가 알아서 차트를 직접 보고 유기적으로 정보를 이해한다. 또한 정보를 처리할때도 여러 모델을 호출하고 복잡한 단계를 거칠 필요 없어 새로운 현장에 도입할 때 유연하다. 산업현장에 많이 쓰기 위해서는 성능, 비용을 모두 달성하기 위해 옴니 모델은 필수”라고 말했다.

성능 면에서는 글로벌 최신 모델의 95%를 달성해야 한다는 목표를 충족한다. 하이퍼클로바 X 시드 32B 씽크 모델의 한국어 성능은 멀티모달 LLM 중 네이티브 멀티모달 사전 학습을 도입한 인턴VL3_5-38B 씽킹 모델과 비교해도 높다. 비전 인식과 AI 에이전트 수행 능력 면에서도 큐웬3-VL-32B 씽크 모델보다 높다. 대학 수능 문제를 사진만 찍어서 제공해도 알아서 OCR로 인식하고 계산해 국어 2등급을 제외한 전 과목에서 1등급을 달성했다. 소형 모델인 8B 모델 역시 옴니 기능을 지원해 텍스트와 이미지, 오디오 입력과 출력을 교차적으로 지원한다.

네이버클라우드는 32B 및 8B 모델을 활용해 하이퍼클로바의 옴니모델 사업을 확장하고 나선다. 성낙호 기술 총괄은 “각 산업과 서비스마다 개별적으로 AI를 구축하는 것보다는 초대규모 옴니모델을 완성한 뒤 경량화 파생 모델을 만드는 것이 더 효율적인 접근이다”라고 말했다. 이어서 AI 에이전트 측면에서는 ▲일상을 위한 온서비스 AI ▲ 산업 분야별로 대응하는 버티컬 AI ▲ 사람 중심의 포용적 AI로 접근한다.
온서비스 AI는 이미 네이버 포털에 적용돼 있으며, 내년 2월에는 행정안전부와 함께 전자증명서 에이전트, 공유누리 예약 에이전트를 네이버 톡톡으로 제공한다. 성낙호 기술 총괄은 “네이버의 소버린 AI는 사양한 생태계가 쌓여서 완성됐고, 풀스택 AI를 구축해왔다. 네이버클라우드는 AI 혜택을 모든 국민에게 확장하고 비즈니스 기회를 확장하기 위한 목표다. 이를 통해 개인의 삶은 더 나아지고 산업과 산업이 함께 성장하는 AI를 만들겠다”라고 말했다.
NC AI, VAETKI LLM 앞세운 산업 분야별 특화 AI로 경쟁
이연수 NC AI 대표는 “NC AI가 생각하는 산업 특화 AI의 정의는 분야별 전문성과 유연한 활용이 가능한가다. 그러면서도 기업의 데이터를 보호하기 위해 구축형도 지원하고, 무조건 많은 매개변수를 확보하기보다는 근거를 기반으로 정확하게 답변하는 게 중요하다. NC AI는 14개의 컨소시엄과 참여 기관, 40여 곳의 수요기관과 함께 핵심 산업을 위한 버티컬 AI 엔진’ 베키(VAETKI)’를 구축했다”라며 설명을 시작했다.

베키는 다양한 산업군에서 피지컬 AI까지 활용하는 게 목표다. 1차 사업을 통해 100B 규모의 모델과 한국어 데이터 및 산업 특화 데이터까지는 확보했고, 이를 바탕으로 28개 산업 확산 프로젝트를 수행하며 성과를 만들고 있다. 대표적으로 제조업 AX(AI 전환) 전문 기업 인터엑스와 함께 우리나라 중소기업 제조 기업의 스마트 팩토리 전환을 지원하며, 현대오토에버와도 산업용 AX로 협력한다. 또 포스코, 롯데와 글로벌 유통사의 물류 AX 프로젝트를 수행하고, 항공·건설 부문에서도 특화 모델을 만들고 있다.
공공 부문에서는 4개 거점 도시에서 멀티모달 기반의 지능형 관제, 안전 생태계를 구축하고, 국방 분야에서 육군 인공지능 센터와 협업해 국방 혁신 프로젝트를 수행 중이다. 한국콘텐츠진흥원과 문화방송과의 문화 콘텐츠 관련 협업도 함께 제시했다.

이렇게 완성된 베키는 효율성과 확산성 확보를 위해 4개 모델로 파생된다. 이연수 대표는 “고성능 100B-A10 MoE(전문가 혼합) 모델, 그리고 확산형으로 20B-A2B MoE, 7B-A1B MoE, 확산형으로 전용 비전모델을 적용한 7B-A1B MoE VLM 모델로 다양한 확장성에 대응한다”라면서 “데이터 확보를 위해 최대 20조 토큰 규모에서 안정성을 검증했으며, 멀티모달 데이터와 현장 특화 데이터를 중점적으로 확보했다. 또 한국 제조 산업 분석을 포함한 14종의 멀티모달 데이터로 성능을 다듬었다”라고 말했다.
베키 AI 엔진의 특징은 다른 AI 모델과의 결합이다. 베키 LLM과 3D 생성 모델을 결합한 ‘바르코’는 텍스트 입력만으로 3D 자산과 오브젝트를 구축하며, 4주 이상 걸리는 생성 작업을 10분 이내로 단축한다. 문화 콘텐츠 산업이나 산업 현장 등에서 다양하게 쓸 수 있다. 또 사운드와 결합하면 LLM이 상황에 맞는 효과음을 자동으로 추론하고 생성해서 적용한다.

이연수 대표는 “NC AI는 1차 사업으로 100B 모델을 구축했고, 2차 사업에서 200B, 3차 사업에서는 산업 특화 및 확산형 LLM 개발, 4차 사업부터는 멀티 스케일러와 멀티모달 패키지를 통해 경량, 확산형 모델을 만들 계획이다. 검증된 모델을 바탕으로 빠르고 효율적으로 AI 모델을 제공한다는 방침이다. 또 비전문가를 위한 도메인 AI를 구축해 산업 전반의 AI 확산에 기여하겠다”는 뜻을 밝혔다.
스타트업 정예팀 업스테이지, 현장 라이브 데모로 기술력 과시

김성훈 업스테이지 대표는 “혁신적인 AI를 만들어 모두에게 도움이 되자는 목표를 갖고 5년째 업스테이지를 이끌고 있다. AI를 개발할 시점에 LLM이 등장하며 솔라 LLM 개발을 시작했고, 10.7B를 시작으로 솔라 프로 2까지 성공적으로 개발했다. 원래라면 30B 수준에 도전할 단계지만 독자 AI 파운데이션 사업을 통해 100B 모델을 완성했다”라며 발표를 시작했다.
이어서 “세금으로 투입된 그래픽 처리 장치(GPU)가 낭비되지 않도록 래블업과 함께 공동으로 학습 과정을 효율화했다. 자동으로 장애를 감지해 즉시 시작하는 체계를 만들고 복구 시간도 절반 이상 단축했다. 커널과 학습 코드 효율화로 토큰과 학습량을 크게 늘려서 2억 번 이상 학습할 수 있었다”라고 말했다.

솔라-오픈-100B는 1020억 개의 매개변수를 갖췄으며, 질문에 따라 102억 개의 매개변수가 개별로 동작하는 MoE 방식으로 동작한다. 김성훈 대표는 “블라인드 테스트를 통해 다른 글로벌 모델과 시험 중이다. 한국어의 미묘한 뉘앙스와 진정성까지 세부적으로 잡아내며 간략하지만 순서에 맞게 잘 설명한다”라고 말했다. 또한 글로벌 LLM에서 지원하는 딥리서치는 물론 슬라이드(PPT)나 보고서 생성 같은 복잡한 기능도 지원한다. 원래 중요한 발표일수록 설명을 영상으로 대체하는 게 기본이지만 김성훈 대표는 실제로 현장에서 서비스를 실현해 완성도가 높다는 점을 강조했다.

솔라-오픈-100B 모델은 허깅페이스에 무료로 공개돼 있으며, 현재 컨소시엄에서 사업화 중이다. 김성훈 대표는 “마키나락스는 사업계획서 작성에 사용하고, 뷰노는 헬스케어, 플리토는 초개인화 AI 통번역, 로앤컴퍼니는 법률 분야 등에 우리 모델을 쓰고 있다. 노타나 래블업, 오케스트로도 각자 서비스에 활용 중이며 데이원컴퍼니는 솔라 LLM을 활용한 전 국민 해커톤을 구상 중이다”라면서, “또한 LLM 기업 올거나이즈와 일본 내 사업도 함께할 예정이다”라고 말했다.
마지막으로 김성훈 대표는 “업스테이지는 AI 구축 경험을 공유하기 위해 모델 제작자 10명을 추려서 누구나 무료로 볼 수 있도록 제공하고 있다. 또 학교와 비영리 기관에도 솔라-오픈-100B를 비롯한 모든 업스테이지 설루션을 무료로 제공한다”라면서, “100B 모델을 통해 딥리서치 실현을 달성했고, 여기에 멈추지 않고 200B, 300B, 멀티모달 모델까지 이루려 한다. 함께 하는 컨소시엄과 함께 한국형 AI가 글로벌에 우뚝 설 수 있도록 해내 보이겠다”라고 말했다.
SK텔레콤, 초거대 500B 모델로 승부수
SK텔레콤 정예팀은 크래프톤, 포티투닷, 리벨리온, 라이너, 셀렉트스타, 서울대 산학협력단, 한국과학기술원으로 구성되며 ‘언어·멀티모달 행동을 융합한 차세대 트랜스포머 기반 초거대 모델 개발 및 K-AI 서비스 구현’을 목표로 사업에 참여했다. 규모 면에서는 5개 컨소시엄 중 가장 큰 규모인 500B(5000억 개) 매개변수 모델을 구축했다. 정석근 AI CIC장은 “500B 모델은 중국, 프랑스, 일본, 한국만 이뤄놓은 단계며, 미국만이 1000B 모델에 닿고 있다. A.X K1은 글로벌 AI 선도국가들과 어깨를 나란히 할 수 있는 강력한 발판이 될 것이다”라며 발표를 시작했다.

정석근 AI CIC장은 “모델이 크다고 무조건 좋은 건 아니다. 하지만 AI 세계에서 모델의 크기는 더 좋은 성능과 가능성으로 직결된다. 미국이 1조 개 이상 모델을 만드는 이유도 인간 언어의 맥락을 더 완벽하게 이해하기 위함이다”라고 말했다. A.X K1은 대규모 데이터센터 상에 500B(5000억 개) 매개변수를 갖추고, 사용할 때 MoE를 통해 33B로 동작한다. 데이터의 규모가 크기 때문에 기본적인 성능은 높이고, 사용자가 필요한 전문 분야에 맞춘 소형 AI가 동작하므로 전력 효율은 높일 수 있다.

SKT는 500B 규모가 국내 산업의 AI 지원을 위한 사회간접자본 역할을 할 수 있다는 점을 부각하며, AI 인프라부터 AI 모델, 서비스로 이어지는 차별점을 강조한다. 정석근 AI CIC장은 “글로벌 벤치마크인 딥시크 V 3.1과 비교해 사용자 지시 정확도와 한국어 시험 결과를 봤을 때 각각 148%, 110%까지 높은 것으로 확인됐다. 우리가 만드는 AI는 국민 모두가 쉽고 편리하게 누릴 수 있도록 할 예정이다”라면서, “장기적으로 1조, 2조 규모의 모델까지 진화시킬 예정이다. SK텔레콤 정예팀은 반도체, 데이터센터, 모델 서비스로 이어지는 대한민국 독자 AI생태계 구축에 힘쓰며, 이를 통해 대한민국이 AI 소비국에서 AI 수출국이 되도록 힘쓰겠다”라고 말했다.

현장에서는 A.X K1을 챗봇 형태로 접해볼 수 있었다. AI는 빠르게 답변받을 수 있는 신속 모드와 추론 방식으로 동작하는 사고 모드(Thinking Mode)로 동작한다. 또한 SKT가 1,000만 이용자를 보유한 AI 서비스 에이닷을 운영하고 있고 SK하이닉스, SK이노베이션, SK AX 등 관계사와의 협업을 통해 대한민국 산업 대전환에 이바지하겠다는 게 SK의 목표다.
LG AI 연구원, K-엑사원 무료 공개하고 생태계 확보 나서

최정규 LG AI 연구원 AI 에이전틱 그룹장 “2020년 설립 이후 한국 AI의 기준을 만들어왔다. 2021년 엑사원 1.0을 시작으로 전문 데이터 기반의 2.0 오픈 웨이트 기반의 3.0과 3.5를 통해 한국 AI의 경쟁력을 전 세계에 알렸다. 올해에는 최고 수준의 성능을 갖춘 엑사원 딥, 하이브리드 모델인 4.0도 출시했다. 현재 LG AI 연구원이 만든 모델의 허깅페이스 누적 다운로드는 880만 건, 파생 모델만 300건 이상에 달한다”라고 말했다. 마이크로소프트가 현재 엑사원 4.0 모델을 중국 딥시크와 동등한 세계 3위 수준의 모델로 평가할 정도다.
이어서 “엑사원 4.0은 글로벌 AI 모델의 빠른 출시 주기로 인해 순위가 밀리고 있지만, 정부 지원을 통해 K-엑사원 모델로 그 위상을 회복하려 한다. 1차수와 2차수에서는 오픈웨이트를 기반으로 최고 성능의 모델을 만들고, 3·4차수에서 글로벌 최고 모델에 도전한다. 현재 1차수에서는 엔비디아 블랙웰 B200 512장을 바탕으로 MoE 구조의 K-엑사원 236 모델을 개발했고, 알리바바 큐웬 3-235B와 경쟁할 수 있다”라고 말했다.

K-엑사원의 특징으로는 전문가 모델의 효율성 향상, 그리고 하이브리드 어텐션을 통한 연산량 감소다. 최정규 그룹장은 “K-엑사원은 다수의 전문가 네트워크가 상황에 맞춰 최적으로 선택되는 구조다. 다만 기존 모델보다 복잡해 안정성이 떨어진다는 단점이 있는데 이를 보완하기 위해 댄스 트랜스 블록 기술로 학습 안정성을 크게 개선했다”라고 말했다. 이어서 “하이브리드 어텐션 기술을 통해 일반 트랜스포머 어탠션과 비교해 메모리 요구량과 연산량을 최대 30% 수준으로 줄였다. 덕분에 기존 엑사원 4.0보다 더 빠르고 엔비디아 A100같은 소형 GPU에서도 운용할 수 있다”라고 말했다.
여기에 자체 고안한 추론 성능 강화를 위한 강화학습(AGAPO)을 적용해 복수의 답변을 효과적으로 제공하고, 적은 데이터로도 효과적으로 성장하는 구조를 채택했다. K-엑사원은 오픈AI GPT-OSS 120B, 큐웬 3 235B와 비교해 추론, 수학, 코딩, 한국어 특화 성능면에서 앞선 성능을 보여준다.

최정규 그룹장은 “K-엑사원 모델 측면에서 LG유플러스, LG CNS, 슈퍼브 AI와 협력 중이며, 생태계 확장을 위해 퓨리오사AI와 프렌들리AI와도 협력 중이다. 한컴, 뤼튼, 이스트소프트와 이스트에이드 역시 엑사원을 활용해 우수성과를 내고 있다. LG AI 연구원 컨소시엄은 제조, 연구개발, 공공, 바이오 등 국내 산업 전반에서 AI 전환 생태계를 마련했다”라면서, 석유 화학 분야의 나프타 최적화 입고 AI나 화장품 신물질 소재 단축 개발, 런던 증권 거래소와의 협력, LG 그룹 전사 AI 확산 등의 사례를 만들고 있다.

마지막으로 최정규 그룹장은 “LG AI 연구원은 퓨리오사AI와 함께 K-엑사원과 RNGD를 하나로 구성한 패키지를 제공하고, 프렌들리AI와는 자신만의 AI를 배포하는 서비스형 플랫폼을 제공한다. 수퍼브AI는 원천학습 데이터 취득 및 가공 등으로 생태계를 확장한다. 내년 1월 중 프렌들리AI를 통해 무료로 K-엑사원이 배포되니 많은 이용 바란다”라고 말했다.
‘모두가 승자’라지만, 녹록지 않은 현실의 벽

혹자는 독자 AI 파운데이션 사업의 예산이 과도하다고 말한다. 하지만 유럽의 오픈AI로 불리던 독일의 ‘알레프 알파(Aleph Alpha)’의 사례에서 우리는 독자 AI 파운데이션 모델의 존재 이유를 알 수 있다. 알레프 알파는 미국이 아닌 유럽 내에서 독립적으로 형성된 AI 모델을 주창하며 SAP, 보쉬, 슈바르츠 그룹 등 독일 산업계로부터 대규모 투자를 유치했다. 하지만 국가적 지원이 아닌 스타트업 한 곳이 ‘유럽산 모델’이라는 명분만으로 성과를 내고 소버린 AI를 실현하기는 어렵다는 결론을 냈다.
요나스 안드룰리스 CEO는 “단순히 수천억 원을 GPU에 쏟아붓는 방식은 경제적으로 말이 되지 않는다”라며 자체 LLM 개발에서 기업용 AI 운영체제 회사로 방향을 전환하고 독자적인 초거대 AI 모델 구축 경쟁에서 하차했다. 이 사례에서 우리는 소버린 AI, 주권 AI는 소수의 기업 여러 곳으로 이뤄낼 수 있는 사업이 아니라는 것을 알 수 있으며, 독자 AI 파운데이션 사업의 당위성을 확인할 수 있다.
하지만 AI 모델 자체가 수천억 원을 GPU에 쏟아붓는 방식인 만큼 5개 기업 모두를 지원하는 것이 현실적으로 어렵다는 것을 알 수 있다. ‘담대한 도전, 5개 정예팀 모두가 승자’라는 따뜻한 멘트가 곳곳에 붙어있지만 결론은 철저히 실력 중심의 기업만 살아남는 구조다. 이번 발표를 바탕으로 2026년 1월 15일 이전에 독자 AI 파운데이션 1차 결과가 발표된다. 이번 사업에 참여하는 모두의 노력과 성과가 글로벌 경쟁력을 갖춘 국가 AI의 결실로 끝나기를 바라본다.
IT동아 남시현 기자 (sh@itdonga.com)

