Open Responses
Service

Open Responses

2026.01.17
·Web·by 이호민
#LLM#OpenAI API#Interoperability#Specification#Agent

핵심 포인트

  • 1Open Responses는 OpenAI Responses API 기반의 오픈소스 사양 및 생태계로, 다중 LLM provider에 걸쳐 상호운용 가능한 인터페이스를 구축하여 통일된 경험을 제공합니다.
  • 2각기 다른 방식으로 요소를 인코딩하는 LLM API 문제 해결을 위해, Open Responses는 요청을 한 번 정의하면 여러 provider에서 실행할 수 있는 공유 명세와 도구를 제공합니다.
  • 3이 프로젝트는 portability, interoperability, 그리고 LLM 제품을 위한 공유 기반을 추구하는 개발자 커뮤니티에 의해 유지되며, spec 및 OpenAPI 참조 등을 통해 참여할 수 있습니다.

Open Responses는 OpenAI Responses API를 기반으로 LLM 인터페이스를 구축하기 위한 오픈 소스 규격(specification) 및 생태계(ecosystem)입니다. 이 프로젝트의 핵심 목표는 LLM 제공자(provider)에 관계없이 언어 모델 호출, 결과 스트리밍, 그리고 에이전트 워크플로우(agentic workflows) 구성에 대한 통일된(unified) 경험을 제공하는 것입니다.

이러한 필요성은 각 LLM 제공자가 메시지(messages), 툴 호출(tool calls), 스트리밍(streaming), 그리고 멀티모달 입력(multimodal inputs)과 같은 공통 빌딩 블록을 고유하게 인코딩(encodes)하기 때문에 발생합니다. Open Responses는 개발자가 요청(requests)과 출력(outputs)을 한 번만 기술(describe)하고 최소한의 변환(translation) 작업으로 여러 제공자에서 실행할 수 있도록 공유된, 개방형 규격과 참조 툴링(reference tooling)을 제공합니다.

Open Responses의 핵심 설계 원칙은 다음과 같습니다:

  • Multi-provider by default: 단일 스키마(schema)가 다수의 모델 제공자에 깔끔하게 매핑될 수 있도록 설계되었습니다. 이는 여러 제공자의 API 복잡성을 추상화(abstract)하여 단일 표준 인터페이스를 통해 접근할 수 있게 합니다.
  • Friendly to real-world agentic workflows: 일관된 스트리밍 이벤트(streaming events), 툴 호출 패턴(tool invocation patterns), 그리고 모델 출력(model output) 및 툴 사용(tool use)의 원자 단위(atomic unit)로서 'items'를 정의함으로써 복잡한 에이전트 기반 애플리케이션 개발을 용이하게 합니다. 여기서 'items'는 모델의 응답이나 툴의 결과 등 모든 종류의 단일 데이터 조각을 표준화된 방식으로 표현하는 개념입니다.
  • Extensible without fragmentation: 핵심 기능은 안정적으로 유지하면서, 아직 일반화되지 않은 제공자별(provider-specific) 기능을 위한 확장성을 허용하여 파편화(fragmentation)를 방지합니다.

이 프로젝트는 산업 전반의 빌더(builders)들의 기여로 유지되는 개방형 커뮤니티 프로젝트이며, LLM 제품의 이식성(portability), 상호 운용성(interoperability), 그리고 공유된 기반(shared foundation)을 목표로 합니다. 개발 시작을 위해 'items', 'streaming events', 'tool use'와 같은 핵심 개념을 포함하는 규격을 읽고, OpenAPI 레퍼런스를 통해 전체 API 표면 영역과 타입을 검토하며, 'acceptance tests'를 사용하여 API를 검증할 것을 권장합니다.