목록으로
upstage/Solar-Open-100B at main
Feed2026.01.04

upstage/Solar-Open-100B at main

요약

Solar Open 100B은 한국 스타트업 Upstage AI가 개발한 대규모 언어 모델입니다.
️ 이 모델은 약 100B개의 파라미터를 가진 Mixture of Experts (MoE) 아키텍처를 기반으로 한국어 및 영어 텍스트 생성을 지원합니다.
Transformers 라이브러리를 통해 텍스트 생성 파이프라인에 활용되며, Solar-Apache License 2.0으로 배포됩니다.

상세 내용

제공된 문서는 특정 연구 논문이 아닌, upstage/Solar-Open-100B 모델의 Hugging Face 저장소 파일 모음입니다. 이 파일들을 통해 모델의 특성 및 구조에 대한 정보를 추출하여 요약합니다.

Solar-Open-100B 모델 분석 요약

이 문서 집합은 Upstage AI에서 개발한 대규모 언어 모델인 Solar-Open-100B에 대한 상세 정보를 제공합니다. 이 모델은 특히 한국어와 영어를 지원하는 텍스트 생성 및 대화형 AI 애플리케이션을 위해 설계되었습니다.

1. 모델 개요 및 개발사:
Solar-Open-100B는 한국 스타트업 Upstage AI에서 개발한 100B 파라미터급 대규모 언어 모델(LLM)입니다. 해당 모델의 지식 마감일(knowledge cutoff)은 2025년 7월로 설정되어 있습니다. 텍스트 생성(text-generation)이 주된 파이프라인 태그로 명시되어 있으며, 대화형(conversational) 사용 시나리오에 적합하도록 설계되었습니다.

2. 핵심 방법론: Mixture-of-Experts (MoE) 아키텍처:
모델의 핵심적인 기술적 특징은 Mixture-of-Experts (MoE) 아키텍처를 채택하고 있다는 점입니다. config.jsonconfiguration_solar_open.py 파일에서 확인된 주요 MoE 관련 파라미터는 다음과 같습니다:
* num_local_experts: 각 MoE 레이어에 포함된 전문가(expert)의 총 개수를 나타내며, 이 모델에서는 8로 설정되어 있습니다.
* num_experts_per_tok: 각 토큰(token)이 활성화시키는 전문가의 수를 의미하며, 2로 설정되어 있습니다. 이는 각 토큰이 8명의 전문가 중 2명을 선택하여 연산을 수행함을 의미합니다.
* 라우팅(routing) 메커니즘은 topk_map_config와 같은 설정을 통해 최적화된 expert selection이 이루어지도록 합니다. 이는 모델이 입력 토큰의 특성에 따라 가장 적합한 전문가를 동적으로 선택하여 연산 효율성을 높이고, 특정 작업에 대한 전문성을 강화하는 데 기여합니다.

일반적인 트랜스포머(Transformer) 아키텍처의 구성 요소들도 명시되어 있습니다:
* num_hidden_layers: 48
* hidden_size: 6144
* num_attention_heads: 48

MoE 아키텍처는 모델의 전체 파라미터 수는 크지만, 특정 시점에는 일부 전문가만 활성화되어 추론 시 계산 비용을 효율적으로 관리할 수 있도록 합니다. 이는 대규모 모델의 효율적인 배포와 운영에 중요한 장점입니다.

3. 모델 구조 및 파일 시스템:
모델의 가중치(weights)는 safetensors 형식으로 저장되어 있으며, 이는 sharded: true로 명시되어 있어 여러 파일로 분할되어 저장되었음을 나타냅니다. 이는 대규모 모델의 로딩 및 관리를 용이하게 합니다. 총 파라미터 수는 BF16 기준으로 102,651,793,408 (약 102.65B)로, 100B급 모델임을 재확인합니다.

4. 대화 템플릿 및 도구 사용(Tool Use) 지원:
chat_template.jinja 파일은 모델과의 상호작용을 위한 대화 포맷을 정의합니다. 이는 사용자(user), 시스템(system), 어시스턴트(assistant), 도구(tool) 메시지 간의 명확한 구분을 포함합니다. 특히, 이 템플릿은 모델이 외부 도구를 호출하고(Tool Call) 그 응답을 처리하는(Tool Response) 메커니즘을 지원하도록 설계되어 있습니다.
* Tool Call Format:

json{ "id": "<tool_call_id>", "type": "function", "function": { "name": "<tool_name>", "arguments": <json_object_of_arguments> } }

여기서 <toolcallid><tool_call_id>는 10자리 소문자 알파벳 및 숫자로 구성된 무작위 문자열입니다.
* Tool Response Format: 도구 호출에 대한 응답은 tool 역할로 제공되며, 해당 응답은 tool_call_id를 포함하여 어떤 도구 호출에 대한 응답인지 명확히 식별합니다.

모델은 reasoning 필드를 통해 추론 과정을 명시적으로 출력할 수 있으며, 이는 특히 복잡한 질문이나 도구 사용 시 모델의 판단 과정을 이해하는 데 도움을 줍니다. think_render_option 파라미터는 all 또는 lastthink로 설정될 수 있어, 추론 과정의 표시 여부를 제어합니다.

5. 언어 지원 및 라이선스:
이 모델은 영어(en)와 한국어(ko)를 모두 지원하도록 태그가 지정되어 있어, 다국어 환경에서의 활용 가능성을 시사합니다. 라이선스는 Apache License 2.0을 따릅니다.

원본 보기
Hugging Face
Shared by Anonymous