OpenAIは2026年1月15日、Responses APIを基盤とした、マルチプロバイダー対応かつ相互運用可能なLLMインターフェース構築のためのオープンソース仕様
Today we’re announcing Open Responses: an open-source spec for building multi-provider, interoperable LLM interfaces built on top of the original OpenAI Responses API.
— OpenAI Developers (@OpenAIDevs) January 15, 2026
✅ Multi-provider by default
✅ Useful for real-world workflows
✅ Extensible without fragmentation
Build… pic.twitter. com/ SJiBFx1BOF
Open Responsesは、LLMプロバイダに依存しない統一された体験を実現するための共有スキーマ、クライアントライブラリ、およびツール層を定めたものである。これにより、言語モデルの呼び出し、結果のストリーミング、およびエージェントを使ったワークフローの構築が可能となる。
現在のLLM APIはメッセージ、ツール呼び出し、ストリーミング、マルチモーダル入力といった構成要素において概ね収束傾向にあるものの、各プロバイダごとの実装方法は異なっているのが実情である。Open Responsesはこの課題に対し、オープンな仕様とリファレンスを提供することで、開発者がリクエストや出力を一度記述すれば、最小限の調整で複数のプロバイダ間での実行を可能にすることを目指している。
Open Responsesは、主に以下の3点を重視して設計されている。
- マルチプロバイダ対応:単一のスキーマで多数のモデルプロバイダへマッピングできる。
- 実用的なエージェンティック・
ワークフロー:一貫性のあるストリーミングイベントやツール呼び出しパターンに加え、モデル出力およびツール使用の最小単位として 「アイテム (items)」という構造を採用している。 - 拡張可能性:一般化されていないプロバイダ固有の機能についても対応できる。
このプロジェクトは、エコシステムのために構築されたオープンプロジェクトであり、OpenAIのほか、OpenRouter、Vercel、Hugging Face、LM Studio、Ollama、vLLMが名を連ねている。