189회 VibeQuant: End-to-End 퀀트 리서치 자동화부터 실거래까지 (퀀트스타트 허예찬)
Video

189회 VibeQuant: End-to-End 퀀트 리서치 자동화부터 실거래까지 (퀀트스타트 허예찬)

2026.03.31
·YouTube·by 배레온/부산/개발자
#Agent#AI#Automation#LLM#Quant Trading

핵심 포인트

  • 1퀀트스타트 허예찬 대표는 데이터 관리부터 백테스팅, 전략 제안까지 퀀트 리서치 전 과정을 자동화하는 멀티 에이전트 프레임워크인 'Vibe Quant'를 소개했습니다.
  • 2Vibe Quant는 LLM의 할루시네이션을 '증강(Augmentation)'으로 활용하며, 백테스팅, 리서치, 플래너, 인사이트, 피드백 에이전트 등 다양한 AI 에이전트들이 협력하여 인간 개입을 최소화합니다.
  • 3이를 통해 사용자는 간단한 목표 제시만으로 수천 개의 전략을 생성하고 검증할 수 있으며, 실제 시장에서 시장 중립적인 초과 수익을 추구하며 높은 샤프비율을 달성하고 있습니다.

바이브 퀀트는 정량 투자(Quant Trading) 연구의 전 과정을 자동화하는 것을 목표로 하는 Multi-Agent 프레임워크입니다. 데이터 관리, 리서치, Backtesting, 전략 제안부터 실거래까지의 파이프라인을 포함하며, 궁극적으로는 R&D Agent의 역할을 수행합니다.

핵심 방법론 (Core Methodology)

Vibe Quant는 다양한 Agent들의 유기적인 협업을 통해 Quant Research 파이프라인을 자동화합니다. 주요 Agent 구성 및 작동 방식은 다음과 같습니다.

  1. Automated Backtesting Agent:
    • 문제 인식: 기존의 Backtesting 코드 작성 및 디버깅은 반복적이고 지루한 작업이었습니다.
    • 해결책: LLM Agent가 사용자의 간단한 요청(예: "돈을 버는 전략을 찾아달라")을 받으면, 이를 구체적인 전략 Spec(Core logic, Parameter)으로 "Augmentation"합니다. 발표자는 LLM의 "Hallucination"을 오히려 "Feature"로 활용하여 아이디어를 확장하는 접근 방식을 강조했습니다.
    • 코드 생성 및 검증: Augmentation된 Spec을 기반으로 Python Backtesting 코드를 생성합니다. 이때, 생성된 코드가 실제 시장 데이터 특성(예: commutative sum과 같은 연산에서 발생하는 Look-ahead bias 방지)을 반영하도록 별도로 구축된 견고한 Backtester Engine을 사용하여 결과의 유효성을 검증합니다. LLM이 자체적으로 Backtester를 만들게 하지 않고, Validation Framework를 명확히 분리하여 신뢰성을 확보합니다.
    • 출력: Backtesting 결과는 수익률 Curve, MDD(Maximum Drawdown) 등의 지표를 포함한 Plot 형태로 시각화됩니다.
  1. Automated Research Agent:
    • 문제 인식: 단순한 Backtesting 자동화를 넘어, 실제 Quant Research 과정(Jupyter Notebook을 활용한 데이터 분석, 가설 검증, Debugging, Plotting)은 많은 시간과 노력이 소요됩니다.
    • 해결책: Research Agent는 사용자가 제공한 가설(Hypothesis)을 Iterative하게 검증합니다.
      • 가설 확장 및 단계 분할: 가설을 Augmentation하고, 이를 실행 가능한 여러 단계(Step)로 분할합니다.
      • 반복 실행: 각 단계를 Jupyter Notebook 셀처럼 순차적으로 실행하며, 실행 결과를 바탕으로 다음 단계의 계획을 수정하거나 보완합니다. 이는 연구자가 직접 Jupyter Notebook을 조작하는 워크플로우와 유사합니다.
      • Jupyter Notebook Interface: 내부적으로는 Python 코드를 생성하여 실행하며, 그 결과는 Jupyter Notebook 형식으로 저장됩니다.
    • Output Reporting: 모든 실행 과정을 저장하지만, 사람이 모든 코드를 직접 검토하는 대신, Agent가 연구 결과를 요약한 "Report"를 자동으로 생성합니다. 이 Report는 "Why (이 연구를 왜 했는지)", "How (어떻게 했는지)", "Conclusion (결론이 무엇인지)"를 담고 있으며, 긴 Context를 효율적으로 요약하여 제공합니다. 이는 인턴에게 작업을 맡기고 최종 결과물만 검토하는 방식에 비유됩니다.
  1. Planner Agent (Team Leader Agent):
    • 문제 인식: Backtesting 및 Research Agent가 자동화되었지만, 여전히 사용자가 직접 Agent와 소통하며 워크플로우를 제어해야 합니다. 밤새도록 연구를 진행할 수 없는 한계가 있습니다.
    • 해결책: Planner Agent는 "Goal Mode"로 작동하여, 사용자로부터 하나의 최종 목표(Goal)를 받으면, 자체적으로 그 목표 달성을 위한 전체 워크플로우를 Orchestration합니다.
      • 자율성: Planner Agent는 하위 Research Agent 및 Backtesting Agent에게 작업을 할당하고, 그 결과를 평가하여 다음 단계를 결정합니다. 이는 Quant 팀의 PM(Project Manager) 또는 Team Leader와 유사한 역할을 수행합니다.
      • 리소스 할당: Agent에게 작업을 할당할 때, Maximum Step, Temperature(창의성), Token Budget, Model Selection(모델 비용 효율성) 등 자원 배분(Resource Allocation) 관련 파라미터를 조절할 수 있습니다. 이는 강화 학습(Reinforcement Learning)의 MDP(Markov Decision Process) 개념과 유사하게 동작합니다.
      • Smart Scaling: 작은 데이터셋 또는 짧은 기간으로 먼저 검증한 후, 점진적으로 규모를 확장하여 효율적으로 리서치를 진행하는 Smart Scaling 전략을 사용합니다.
      • Parallelization: 여러 연구를 병렬로 수행하여 효율성을 극대화합니다.
  1. Insight Agent & Feedback Explorer Agent:
    • 문제 인식: Planner Agent가 자율적으로 연구를 진행하면서, 아이디어 고갈 또는 중복 연구 문제가 발생할 수 있습니다. 또한, 실패한 연구를 통해 배우는 과정이 필요합니다.
    • 해결책:
      • Insight Agent: 과거의 모든 연구 결과(Memory System)를 분석하여, "무엇을 가장 많이 시도했는지", "무엇을 아직 시도하지 않았는지", "어떤 아이디어가 고갈되었는지" 등을 파악합니다. 이는 새로운 연구 방향을 제시하고 중복을 제거하며, 창의적인 아이디어를 발굴하는 데 도움을 줍니다. 파일 시스템 기반의 효율적인 검색(Lex, Grep 등)을 통해 과거 리서치 정보를 활용합니다.
      • Feedback Explorer Agent (Retrospective Feedback System): 연구 과정에서 발생한 실패(Critical Failure)나 예상치 못한 결과들을 기록하고, 그 원인(예: Implementation Gap, Overfitting, Data Quality Issues)을 분석하여 학습합니다. 이는 마치 연구자가 오답 노트를 작성하듯이, Agent가 스스로의 경험을 통해 "Continuous Learning"을 수행하도록 합니다. 이 과정을 통해 Agent는 복잡한 전략보다 간단한 전략이 더 유용하다는 등 실제 Quant Trade에서 중요한 인사이트를 스스로 발견하기도 합니다.

LLM 활용 철학 및 팁:

  • LLM의 역할: LLM은 "정답을 내려주는 기계"가 아니라 "확률적으로 답변하는 존재"입니다. LLM의 학습 데이터에서 직접적인 투자 전략을 이끌어내기보다는, 사용자(연구자)가 제공하는 가설과 방향성을 기반으로 작업을 수행하고, 지속적인 튜닝(Prompt Engineering)을 통해 효율성을 높여야 합니다.
  • Agent 간 의존성: Agent 간의 명확한 역할 분담(R&R: Role & Responsibilities)과 프로토콜 정의를 통해 의존성 문제를 해결해야 합니다.
  • 모델 선택: Tool Calling에는 Claude가 유리하며, 논리적 추론에는 Gemini가 강점을 보입니다. 코드를 잘 짜는 측면에서는 Code LlamaCodeGeex 같은 전문 모델도 활용됩니다.
  • 오픈소스 모델 vs. API: GPU 구매 및 자체 호스팅은 비용 및 시간 효율성 측면에서 비효율적이므로, GroqOpenRouter와 같은 상용 API 서비스를 활용하는 것이 좋습니다.
  • Prompt Engineering: 너무 Specific한 Prompt는 Agent를 Local Minima에 빠뜨릴 수 있고, 너무 Generic한 Prompt는 결과의 질을 저하시킵니다. 핵심은 최대한 예시(Example) 없이도 원하는 결과를 만들어낼 수 있는 "추상화된 규칙(Rule)"을 만드는 것입니다.
  • 비즈니스 로직: 복잡한 비즈니스 로직을 LLM에게 직접 부여하기보다는, LLM은 자율성을 가지고 목표 달성을 위한 선택지를 탐색하도록 설계하는 것이 효율적입니다.

실제 성과 (Live Trading Results):

Vibe Quant가 생성한 전략들은 실제 시장(Live Trading)에 적용되어 수익을 창출하고 있습니다. 여러 Alpha 전략들을 생성하고, 이들 간의 상관관계(Correlation)가 낮은(예: Pearson Correlation Coefficient ρ<0.1\rho < 0.1) 전략들을 조합하여 포트폴리오를 구성합니다. 이는 개별 전략이 약하더라도 포트폴리오 차원에서 안정적인 수익과 높은 Sharpe Ratio를 달성할 수 있도록 합니다. 발표자는 약 5개월간의 실거래에서 4가 넘는 Sharpe Ratio를 기록했으며, 시장 중립적(Market Neutral) 전략으로 Long/Short 포지션이 혼합된 형태를 사용한다고 설명했습니다.