
[딜사이트 신지하 기자] LG AI연구원이 최근 공개한 추론 인공지능(AI) 모델 '엑사원 딥'이 글로벌 AI 시장에서 주목받고 있다. 중국 딥시크의 'R1'보다 훨씬 적은 매개변수로 더 높은 추론 성능을 보이며, 저비용·고성능이라는 측면에서 경쟁력을 입증했다는 평가다. 특히 국내 기업이 독자 개발한 최초의 추론 AI 모델로, 다소 침체됐던 국내 AI 기술 생태계에 다시 활력을 불어넣을지 관심이 모인다.
오픈소스 AI 모델 공유 플랫폼인 허깅페이스에 따르면 LG AI연구원의 엑사원 딥 시리즈 누적 다운로드 건수는 24일 기준 4만건에 달한다. 이 시리즈 중 매개변수 규모가 가장 큰 '엑사원 딥-32B'는 허깅페이스 인기 모델 상위 9위에 이름을 올렸다.
LG AI연구원이 오픈소스로 선보이는 AI 모델은 연구 목적에 한해 무료로 이용 가능하다. 상업적 활용을 위해서는 LG AI연구원과의 별도 라이선스 계약이 필요하다. 이를 고려하면 이번 엑사원 딥 시리즈 관련 수치는 이례적으로 높은 수준이라는 게 업계 평가다.
엑사원 딥 시리즈가 주목받는 이유는 적은 매개변수로도 경쟁 모델 대비 추론 성능에서 우수한 결과를 보여주고 있기 때문이다.
대표 모델인 엑사원 딥-32B(매개변수 320억개)는 중국 딥시크의 'R1(6710억개)'과 비교해 매개변수 규모가 약 5%에 불과하지만 수학 관련 주요 평가 지표에서는 오히려 더 높은 성능을 기록했다. 미국 수학 올림피아드 초청 시험(AIME 2024)과 2025학년도 수능 수학영역(CSAT 2025)에서 각각 90점, 94.5점을 받아 딥시크 R1의 86.7점, 89.9점을 앞섰다.
32B 모델을 경량화한 7.8B(78억개)와 온디바이스 환경에 최적화된 2.4B(24억개) 2개 모델도 경쟁사와 비교해 높은 추론 성능 수치를 나타냈다. 7.8B의 경우 대학 수준 이상의 수학 문제 해결 능력을 평가하는 'MATH-500'에서 94.8점을 받아 미국 오픈AI의 추론 모델 'o1 미니(90점)'보다 높은 점수를 획득했다. 같은 평가에서 2.4B는 92.3점으로 동급 모델인 'R1-Distill-Qwen-1.5B(83.9점)'을 제쳤다.
최근 AI 모델은 '저비용·고성능'이 핵심 경쟁력으로 떠오르고 있다. 지난 1월 공개된 딥시크의 R1이 주목받았던 이유도 오픈AI의 GPT 모델보다 훨씬 적은 비용으로 유사하거나 더 나은 성능을 구현했기 때문이다. 현재 전 세계적으로 추론 AI 모델을 독자 개발하는 기업은 오픈AI, 구글, 딥시크, 알리바바 등 파운데이션 모델을 보유한 일부 빅테크에 국한돼 있는데 국내에서는 엑사원 딥이 유일하다.
LG AI연구원이 글로벌 빅테크와의 경쟁에서 이 같은 의미 있는 성과를 낼 수 있었던 배경에는 LG의 꾸준한 투자 덕분이라는 평가가 나온다. LG는 지난 2020년 12월 그룹 차원에서 AI 경쟁력 강화를 목표로 LG AI연구원을 설립, 이후 매년 1000억원 이상의 연구개발(R&D) 예산을 투입해 온 것으로 전해졌다. 올 상반기 중에는 현재 분산돼 있는 300여명 규모의 LG AI연구원 인력을 서울 마곡 일대로 한데 모아 엑사원 고도화에 속도를 낼 계획이다.
이는 최근 자체 AI 모델 개발보다는 외산 모델과의 협업에 무게를 두는 국내 다른 업체들의 움직임과는 대조적이다. 과거 파운데이션 모델 개발에 나섰던 기업들 상당수가 최근에는 오픈AI나 구글 등 해외 기업의 모델을 도입하거나 협업하는 방향으로 전략을 선회하고 있다. 업계 한 관계자는 "엑사원 딥이 주목받는 이유는 기술력도 있지만 국내 업계가 주저하거나 발을 빼고 있는 영역에 계속해서 도전하고 있다는 점에서 더 큰 의미가 있다"고 말했다.
ⓒ새로운 눈으로 시장을 바라봅니다. 딜사이트 무단전재 배포금지