[아이뉴스24 윤소진 기자] 인공지능(AI) 기술 기업 업스테이지(대표 김성훈)는 자체 개발한 거대언어모델(LLM) ‘솔라 오픈 100B’를 오픈소스로 전면 공개했다고 6일 밝혔다.
![업스테이지는 자체 개발한 거대언어모델(LLM) ‘솔라 오픈 100B’를 오픈소스로 전면 공개했다고 6일 밝혔다. [사진=업스테이지]](https://image.inews24.com/v1/4fbb83a7219207.jpg)
‘솔라 오픈’은 업스테이지가 주관사로 참여 중인 과학기술정보통신부의 ‘독자 AI 파운데이션 모델 프로젝트’의 첫 번째 결과물이다.
데이터 구축부터 학습에 이르는 과정 전반을 독자적으로 수행하는 ‘프롬 스크래치’ 방식으로 개발했다. 업스테이지는 해당 모델을 글로벌 오픈소스 플랫폼 ‘허깅페이스’에 공개하는 한편, 개발 과정과 기술적 세부 내용을 담은 테크 리포트도 함께 발표했다.
1020억 매개변수 모델인 솔라 오픈은 성능 면에서 글로벌 프런티어급 모델들과 어깨를 나란히 했다. 중국의 대표 AI 모델인 ‘딥시크 R1(DeepSeek R1-0528-671B)’ 대비 사이즈는 15%에 불과하지만, 한국어(110%), 영어(103%), 일본어(106%) 등 3개 국어 주요 벤치마크 평가에서 이를 상회하는 성과를 거뒀다.
특히 한국 문화 이해도(Hae-Rae v1.1), 한국어 지식(CLIcK) 등 주요 한국어 벤치마크 결과 딥시크 R1 대비 2배 이상의 성능 격차를 보였다. 오픈AI의 유사 규모 모델인 ‘GPT-OSS-120B-Medium’과 비교해서도 100% 앞선 성능을 기록했다.
수학, 복합 지시 수행, 에이전트 등 고차원적 지식 영역에서도 딥시크 R1과 대등한 성능을 확보했다. 오픈AI GPT-OSS-120B-Medium과 비교해서도 종합 지식과 코드 작성 능력 등에서 대등한 경쟁력을 보였다.
이러한 고성능의 배경에는 약 20조 토큰 규모의 고품질 사전학습 데이터셋이 있다. 업스테이지는 대표적 ‘저자원 언어’인 한국어 데이터 부족을 극복하고자 다양한 합성 데이터와 금융·법률·의학 등 분야별 특화 데이터 등을 학습에 활용하고, 다양한 데이터 학습 및 필터링 방법론을 고도화했다.
향후 업스테이지는 해당 데이터셋의 일부를 한국지능정보사회진흥원(NIA)의 ‘AI 허브’를 통해 개방해 국내 AI 연구 생태계 활성화를 위한 공공재로 환원한다. 기업 경쟁력의 핵심 자산인 원천 데이터를 공개하는 것은 업계에서도 매우 이례적이다.
김성훈 업스테이지 대표는 “솔라 오픈은 업스테이지가 처음부터 독자적으로 학습해낸 모델로, 한국의 정서와 언어적 맥락을 깊이 이해하는 ‘가장 한국적이면서도 세계적인 AI’다”라며 “이번 솔라 오픈 공개가 한국형 프런티어 AI 시대를 여는 중요한 전환점이 될 것”이라고 말했다.
/윤소진 기자(sojin@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기