K-AI 경쟁 2차전…업스테이지 "솔라 오픈2, 전작의 2~3배 성능"
News

K-AI 경쟁 2차전…업스테이지 "솔라 오픈2, 전작의 2~3배 성능"

zdnet.co.kr
2026.03.23
·News·by 이호민
#AI#K-AI#LLM#Model Performance#Open Source

핵심 포인트

  • 1업스테이지는 정부 독자 AI 파운데이션 모델(독파모) 사업의 2차 평가를 앞두고 차세대 오픈소스 모델 '솔라 오픈2'가 어블레이션 실험에서 전작 대비 2~3배의 성능 향상을 보였다고 밝혔다.
  • 2솔라 오픈2는 매개변수 1000억 개 규모의 전작 '솔라 오픈 100B'와 같이 적은 매개변수로 고성능을 구현하는 경량 고성능 전략을 계승하며, 추론 능력 강화와 함께 관련 직군 채용을 진행 중이다.
  • 3독파모 1단계에서 업스테이지의 '솔라 오픈 100B'를 포함한 국내 주요 AI 모델들은 에포크 AI와 허깅페이스 트렌딩에 등재되며 글로벌 시장에서 주목받았다.

업스테이지는 정부 주도 인공지능(AI) 파운데이션 모델(독파모) 개발 사업의 2차 단계평가를 앞두고 자사의 차세대 오픈소스 모델인 '솔라 오픈2(Solo Open 2)'가 전작인 '솔라 오픈1(Solo Open 1)' 대비 2~3배 향상된 성능을 보인다고 발표했습니다. 이는 김성훈 업스테이지 대표가 사회관계망서비스(SNS)를 통해 직접 밝힌 내용으로, 특히 모델 구성 요소를 하나씩 제거하거나 변경하며 성능 변화를 검증하는 'ablation(절제 실험)' 결과에서 이와 같은 성능 개선이 확인되었다고 언급했습니다.

솔라 오픈2 개발에는 모델이 정답을 맞히면 보상을 주어 추론 성능을 높이는 'RLVR(Reinforcement Learning from Verified Rewards)'과, 사전 학습을 마친 모델이 사용자 명령을 이해하고 실제 서비스에 활용될 수 있도록 추가 학습시키는 'post-training(사후 학습)' 기법이 적극 활용될 것으로 예상됩니다. RLVR은 수학이나 코딩처럼 정답이 명확한 문제에서 모델의 추론 능력을 강화하는 데 사용되며, DeepSeek 등이 이를 통해 성능 도약을 이루어 주목받았습니다. Post-training은 '지도 학습 기반 미세조정(SFT)'과 '강화학습' 등을 포함하며, 모델의 실용성을 높이는 핵심 과정입니다.

업스테이지는 독파모 1단계에서 매개변수 1,000억 개 규모의 '솔라 오픈 100B(Solo Open 100B)'를 선보여 비교적 적은 parameter로 대규모 모델 수준의 성능을 구현하는 효율 중심 전략을 내세웠습니다. 이 모델은 1차 단계평가 중 세계 개별 benchmark 부문에서 10점 만점을 획득하며 그 기술력을 입증했습니다. 솔라 오픈2 역시 이러한 '경량 고성능' 전략을 계승하면서 추론 능력(inference ability)을 대폭 강화할 것으로 기대됩니다.

과학기술정보통신부가 지난해 8월 시작한 독파모 사업은 세계 AI 모델 의존도 문제 해결을 목표로 하며, LG AI연구원, SK텔레콤, 업스테이지 등 3개 팀이 1차 평가를 통과해 2단계에 진출했으며, 이후 Motif Technologies가 추가 합류했습니다. 업스테이지의 '솔라 오픈 100B'는 LG AI연구원의 'K-Exawon-236B', SK텔레콤의 'A.X K1'과 함께 미국 AI 연구기관 'Epoch AI'의 '주목할 만한 AI 모델'에 등재되고 Hugging Face trending page에 동시에 오르며 글로벌 인정을 받기도 했습니다.