LG AI연구원, 퓨리오사AI·프렌들리AI와 함께 '엑사원 4.0 생태계' 만든다
[IT동아 남시현 기자]
“LG AI연구원은 더 높은 곳을 향해 도약 중이며, 세 가지의 가치 혁신을 실현하고 있다. 첫 번째는 자체 파운데이션 모델 개발을 통한 글로벌 경쟁력 확보, 두 번째는 AI 모델 개발을 넘어 실제 산업 현장에 적용해 범용성과 전문성을 확보하는 것, 마지막으로 파트너사와 함께 AI 생태계를 구축하는 것이다. 여전히 많은 산업에서 AI의 기술 혁신 가치가 필요한 상황이며, LG AI연구원은 이를 혁신하고자 한다. 그룹 내 생태계 적용을 넘어 대한민국 AI 활용 생태계를 주도하겠다”
임우형 LG AI연구원 공동연구원장은 지난 7월 22일 진행된 LG AI 토크 콘서트 2025에서 LG AI연구원을 관통하는 핵심 가치 세 가지를 이렇게 정리했다. LG AI연구원은 2020년 설립 이후 2021년 12월에 국내 최초 자체기술 기반의 멀티모달 모델 엑사원 1.0(EXAONE 1.0)을 개발했고, 2023년에는 국내 최초 유네스코 AI 윤리실행 파트너십을 체결하는 등 국내 AI 생태계의 중재자 역할을 해오고 있다.
지난해 8월에는 국내 최초 연구용 오픈소스 모델인 엑사원 3.0을 출시했고, 2025년 3월에는 출시일 기준 동급 최고 추론 모델인 엑사원 딥, 4월에는 스탠퍼드 AI 보고서에 엑사원 3.5가 국내 AI 모델 중 유일하게 소개되는 등 국내 AI 생태계에서 주도적 역할을 하고 있다. 엑사원은 현재 510만 회의 다운로드와 200개 이상의 파생 모델로 출시된 상태다.
엑사원 4.0, 엑사원 패스 2.0 등 새 고효율 모델 대거 등장
엑사원 패스 2.0(EXAONE Path 2.0)은 현미경으로 촬영한 환자의 조직 샘플인 ‘병리 이미지’를 분석하는데 특화된 AI 모델이다. 1세대 모델은 특정 작업을 영역별로 나눠 진행하는 패치 단위로 처리했지만 2.0 모델은 슬라이드 전체를 학습한다. 모델 구축에는 3만 7000개 이상의 전체 슬라이드 이미지가 학습에 쓰였고, 기존에 2주 이상 소요되던 유전자 검사 시간을 1분 이내로 줄였다.
LG AI연구원은 임상용 AI와 관련해 다양한 상태로 존재하는 ‘멀티 스테이트 단백질’을 연구해 차세대 단백질 구조를 예측하는 AI를 개발 중이며, 이를 통해 신약 개발이나 치료제 활용 등에 도움을 줄 예정이다.
중추 모델인 엑사원 4.0은 리즈닝(Reasoning) 기능을 갖춘 전문가용 32B(매개변수 320억 개) 모델과 소형 장치를 위한 1.2B(12억 개) 모델 두 가지로 출시된다. 리즈닝 기능은 AI가 사람이 생각하는 것과 비슷하게 논리적인 단계를 거쳐 문제를 해결하는 능력이다. 4.0은 긴 문장을 이해하는 능력, 추론 과정이 많은 수학, 과학, 개발, AI에이전트의 도구 활용 영역 등에서 동급의 큐웬 3 32B(Qwen 3 32B), 젬마-3 27B(Gemma-3 27B), 미스트랄 스몰 3.2 24B(Mistral small 3.2 24B) 등 동급의 매개변수 모델과 비교해 앞서는 성능을 보여줬다.
엑사원 4.0 1.2B는 스마트폰이나 노트북, 단독으로 동작하는 AI 기기를 위한 초소형 모델이다. 성능 측면에서는 큐웬 3 1.7B 및 0.6B, 스몰LM3 3B, 젬마-3 1B 등 매개변수가 비슷한 모델과 비교해 전반적으로 비슷하다. 차이점은 지식 측면에서 높은 성능을 보인 큐웬 3 및 젬마 3 1B가 과학 연산에 약한 모습을 보인 것과 달리 엑사원 4.0은 지식, 연산, 텍스트 이해 등에서 성능이 고르게 나타난다.
마지막으로 소개된 모델은 엑사원 4.0 기반의 전문 문서 이해 특화 모델 엑사원 4.0 VL이다. 엑사원 4.0 VL은 LG AI연구원이 외부로 처음 공개하는 멀티모달 AI다. 멀티모달 AI는 시각, 청각 등 다양한 종류의 데이터를 종합적으로 학습하는 AI 모델이다.
성능 면에서는 일반적인 이미지 인식은 쉽게 이해하고, 복잡한 문서 이해 능력도 갖췄다. 현재 많은 산업 현장과 업계에서 내부 문서를 디지털화하는 작업을 필요로 하고, AI가 이에 대한 실마리가 되고 있다. LG AI연구원은 해당 모델이 문서 인식을 통한 데이터 베이스 구축에 역할을 할 것으로 본다. 자체 측정 결과에서 엑사원 4.0 VL 33B 모델은 메타 라마-4 스카우트 109B(1090억 개)보다도 영문 문서, 한글문서, 일반영역 문서 모두 뛰어난 것으로 제시됐다.
LG AI연구원은 그간 연구용으로만 공개되던 엑사원 라이선스를 앞으로는 교육기관에서도 별도 허가 없이 쓸 수 있도록 개방한다.
프렌들리AI, 퓨리오사AI와의 전략적 협업 세부사항도 공개
일반 사용자라면 웹페이지 등을 통해 대형언어모델(LLM)을 활용하나, 이를 고도화하고 다양한 형태의 AI로 가공하기 위해서는 애플리케이션 형태로 제공되는 API와 서비스를 연결해야 한다. LG AI연구원은 프렌들리AI와 전략적 파트너십을 체결하고 누구나 엑사원 4.0을 쓸 수 있도록 상용 API 서비스를 시작한다.
전병곤 프렌들리AI 대표는 “AI 모델을 실제 사용자가 활용하려면 AI 모델이 유용한 결과를 도출하는 추론(Inference) 과정이 필요하다. 프렌들리AI는 이 추론을 효율화하는 기술 기업이다. 실제 추론 과정은 매우 복잡하며, 전 세계 수많은 사용자가 동시에 던지는 복잡한 질문들을 소화해야 한다. 사용자들은 모두 빠르게 결과를 얻길 원하고, 이를 신속하고 안정적으로 처리하는 것이 AI 추론 기술의 핵심”이라며 소개를 시작했다.
이어서 “LG AI연구원이 프렌들리AI를 선택한 이유는 우리가 전 세계 최고의 AI 추론 기술, GPU에서 가장 빠르게 토큰을 처리하는 기술을 보유하고 있어서다. 또 프렌들리AI는 조 단위의 토큰을 99.99%의 높은 가용성으로 처리하며, 이런 이유도 허깅페이스도 프렌들리AI를 선택했다. 프렌들리AI의 추론 기술은 연산에 필요한 장치 수를 줄여 AI 사용료를 획기적으로 낮출 수 있으며, 엑사원 4.0의 운용 비용을 챗GPT 10분의 1 가격으로 제공할 예정”이라고 말했다.
AI 반도체 설계 기업 퓨리오사AI와의 협력 사례도 공개됐다. LG AI연구원은 보안 및 오프라인 환경에서 AI를 수행하는 조건을 위한 ‘엑사원 온프레미스 풀스택 패키지’를 소개했다. 이 패키지를 활용하면 폐쇄망이나 네트워크가 없는 조건에서도 데이터 정리나 문서 인식, AI 에이전트 기능 등을 쓸 수 있다. 훈련 과정이 필요하다면 엔비디아의 그래픽 처리 장치도 탑재되겠으나, LG AI연구원은 퓨리오사AI의 신경망 처리 장치(NPU)인 RNGD도 사용하기로 했다.
백준호 퓨리오사AI 대표는 “LG AI연구원과의 협력은 가격경쟁력과 효율적인 AI 컴퓨팅 환경을 만족하고, 이를 바탕으로 한국 산업 현장에 AI를 실질적으로 구현하겠다는 뜻에서 이뤄졌다”라면서, “퓨리오사AI의 AI 반도체 RNGD는 엑사원 3.5 32B 모델에서 인풋 길이가 4K일 때 첫 토큰은 0.3초 만에 처리하고 초당 60개의 토큰을 생성한다. 더 복잡한 32K 길이도 첫 토큰은 4.5초, 초당 50개의 토큰을 만들었다”라고 말했다. 이는 짧은 질문은 빠르게 처리하고, 긴 질문도 성능 저하 없이 처리한다는 뜻으로 LLM 처리 시 엔비디아 GPU와 견줄 수준이라는 의미다.
이어서 “온프레미스 조건에서 엔비디아 A100 대비 2.3배의 전력당 성능을 제공한다. 또한 8개의 RNGD 카드를 엮어 초당 4페타플롭스의 연산 성능을 제공하며, 총 384GB의 HBM 메모리와 12TB의 대역폭, 전력 소모량은 경쟁 제품 대비 낮은 3kW 수준”이라고 답했다. 엔비디아 A100 8개가 탑재된 DGX A100의 최대 전력 소비량은 6.5kW다. 백준호 대표는 “엑사원 온프레미스 풀스택 솔루션의 기능과 성능, 효율에 맞게 지속적으로 성능을 가다듬고, 전체 서비스를 국내 고객들에게 빠르게 제공할 것”이라는 뜻을 밝혔다.
2025년 그 이후 준비하는 기업들, PoC 넘어 도입사례로 나아가야
업계에서는 AI 생태계의 발전 단계를 총 세 단계로 나눈다. 첫 번째는 챗GPT 등의 생성형 AI 단계, 두 번째는 AI가 사용자 목표를 이해하고 작업 처리에 결과까지 도출하는 AI 에이전트 단계, 세 번째는 AI가 물리적 장치와 결합해 현실 차원에서도 영향을 미치는 피지컬 AI(물리AI) 단계다. 각 단계를 넘기 위해서는 AI 생태계가 성숙해야 하는데, 그러기 위해서는 AI 도입 사례와 결과, 상업적 가능성까지 다 갖춰져야 한다.
이렇게 볼 때 우리나라 AI 생태계는 조금 더 분발해야 하는 상황이다. 많은 AI 기업들이 이제 막 제품을 완성하고 출하를 앞두고 있으며, 제품을 팔기 위해 동분서주하고 있다. 그러려면 대외적으로 보여줄 수 있는 도입사례를 만들어야 하는데, 이번 협력을 통해 구체적인 도입 사례들이 만들어질 전망이다. 이는 추후 사업성 확보에도 도움을 주고, 더 나아가 국내 AI 반도체 및 생태계 전반에 영향을 줄 것이다.
LG AI연구원은 이번에 공개된 퓨리오사AI, 프렌들리AI와의 협업 사례를 제외하고도 다양한 많은 국내 기업들과 소통하며 도입사례와 서비스를 개발 중이다. 앞으로 더 많은 협업 사례들이 등장할 것이며, 그 모든 결과가 국내 AI 생태계의 발전에 이바지할 것이다.
IT동아 남시현 기자 (sh@itdonga.com)