OpenAIは2025年8月5日、2つのオープンモデル
gpt-ossはモデルアーキテクチャにMixture of Experts
コンテキスト長は128kをサポートしている。データのトークン化には、o4-miniとGPT-4oで使われているトークナイザーのスーパーセットである
gpt-oss-120bは単一の80GB GPU上で効率的に動作し、OpenAI o4-mini相当の性能を示す。gpt-oss-20bは16GB GPUを持つデバイス上で動作可能で、o3-mini相当の性能を示している。両モデルはエージェント型タスクに最適化されており、指示への追従能力や、ウェブ検索・
gpt-oss-120b matches OpenAI o4-mini on core benchmarks and exceeds it in narrow domains like competitive math or health-related questions, all while fitting on a single 80GB GPU (or high-end laptop).
— OpenAI (@OpenAI) August 5, 2025
gpt-oss-20b fits on devices as small as 16GB, while matching or exceeding… pic.twitter. com/ Zn2wDiWcNb
安全性については、化学
なお、gpt-ossはOpenAIの製品やAPIにシステムレベルで組み込まれている保護機能を備えているわけではないため、場合によっては追加の安全対策の検討も必要になることを注意している。特に、gpt-ossは医療専門家の代替や診断・
gpt-ossのモデルカードが公開されているので、詳しくはそちらを参照のこと。上述のリスク評価についてはarXivで詳細な説明が公開されている。
- gpt-oss-120b と gpt-oss-20b Model Card
- Estimating Worst-Case Frontier Risks of Open-Weight LLMs - arXiv
gpt-ossのplaygroundが公開されており、gpt-oss-120bおよびgpt-oss-20bのデモを体験できる。OpenAIは、gpt-ossがビデオゲームをどのように構築するかを紹介している。
Want to see our open models in action?
— OpenAI (@OpenAI) August 5, 2025
Watch how gpt-oss builds a video game—using tools step-by-step within chain-of-thought reasoning 👾🍓 pic.twitter. com/ WNeV0cpwM2
両モデルはApache 2.
利用方法はgpt-ossのCookBookにまとまって紹介されている。Ollamaを使う場合やvLLMを使う場合を見ると、gpt-oss-20bを動作させるのに16GB以上のVRAMが、gpt-oss-120bを動作させるのに60GB以上のVRAMが必要とされている。また、NVIDIA TensorRT-LLMを使う場合は、gpt-oss-20bを動作させるのに20GB以上のVRAMを持つNVIDIA GPUを必要とすることが記載されている。
gpt-ossがリリースされたことを記念して、OpenAI Open Model Hackathonが開催される。期間は本日から2025年9月11日まで。またHuggingFace協力のもと、研究者や学生がgpt-ossを調査するために50ドル分のHuggingFaceクレジットを先着500名に提供している。
gpt-ossシリーズは今後、APIへの対応を検討しているという。