Solar Pro 2 Preview is here: a compact 31B model that rivals 70B giants, now with hybrid reasoning mode. Still small but smarter, and free to use until July 15 on the Upstage Console.
요약
상세 내용
Solar Pro 2 Preview는 31B parameters 규모임에도 불구하고, 70B 모델과 동등한 성능을 자랑합니다. 이는 Llama 3.3 70B 및 Qwen2-72B와 같은 모델들과 비견될 수준입니다. 이러한 고효율적인 성능은 'advanced optimization'과 'targeted pre-training'을 통해 달성되었습니다. Advanced optimization은 모델의 연산 효율성과 메모리 사용량을 최적화하는 기술을 의미하며, 이는 경량화 기법(예: quantization, pruning)이나 효율적인 아키텍처 설계 등을 포함할 수 있습니다. Targeted pre-training은 특정 데이터셋이나 task에 초점을 맞춰 모델을 사전 학습함으로써, 주어진 parameter budget 내에서 최대의 성능을 이끌어내는 전략을 지칭합니다. 이 방법론을 통해 Solar Pro 2 Preview는 훨씬 적은 비용으로 배포 가능하면서도 Top-tier performance를 제공합니다.
언어적 강점으로는 영어, 일본어에 능하며 특히 한국어에서 두각을 나타내어 여러 벤치마크에서 약 70B 모델들을 능가하는 성능을 보입니다.
또한, Solar Pro 2 Preview는 두 가지 'hybrid modes'를 제공합니다. 'Chat mode'는 빠른 응답을 위해 설계되었으며, 'Reasoning mode'는 복잡한 QA, Multi-hop queries, Agent planning과 같은 구조화된 다단계 문제 해결에 특화되어 있습니다. 사용자는 'reasoning_effort' flag를 통해 이 두 모드 간에 원활하게 전환할 수 있습니다. Reasoning 성능 측면에서는 Qwen3-32B와 같은 유사 크기 모델들과 동등한 수준으로 평가됩니다. 본 모델의 Reasoning 성능은 통상적인 수학, 코딩, Multi-hop task 중심의 벤치마크 대신, 더 넓은 task coverage와 Enterprise use cases와의 정렬을 고려하여 General chat benchmarks를 통해 평가되었습니다.
주요 업그레이드 외에도 사용자 편의성과 성능을 향상시키는 추가 개선 사항이 있습니다. 'Extended context window'는 기존 32K token 제한을 두 배인 64K token으로 확장하여 훨씬 긴 입력 및 출력을 단일 pass로 처리할 수 있게 합니다. 또한, 'Tokenizer update'를 통해 특정 시나리오, 특히 Document-heavy 또는 한국어 관련 task에서 2–30%의 Token savings를 달성하여 속도와 비용 효율성을 모두 개선했습니다.
Solar Pro 2 Preview는 현재 Upstage Console에서 2025년 7월 15일까지 무료로 사용할 수 있습니다. Upstage는 Solar Pro 2의 정식 출시를 준비 중이며, 여기에는 Enterprise 채택을 위한 Usability 및 Stability 개선, 그리고 Cloud marketplaces 및 On-premises를 통한 Enterprise-grade deployment가 포함될 예정입니다.