Alibaba⁠エージェントを活用するコーディングのためのオープンモデル「Qwen3-Coder」発表 —⁠—高性能なオープンモデル「Qwen3-235B-A22B-Instruct-2507」公開

Alibabaは2025年7月22日、エージェントを活用したコーディングのためのオープンモデル「Qwen3-Coder」を新たに発表した。

Qwen3-Coderは複数サイズで展開されるが、今回、最上位モデルのQwen3-Coder-480B-A35B-Instructを公開した。これは480Bのパラメータ、35BのアクティブパラメータをもつMoE(Mixture-of-Experts)モデルで、コンテキスト長は標準で256Kトークンまで対応し、YaRNなどの拡張手法を使うことで最大1Mトークンまで入力できる。

また、Agentic Coding(エージェントを活用したコーディング⁠⁠、Agentic Browser-Use(エージェントを通したブラウザ操作⁠⁠、Agentic Tool-Use(エージェントを通したツール利用)といった分野で、オープンモデル中で最高水準の性能を示し、商用モデルのClaude Sonnet 4に匹敵すると言及している。

事前学習には7.5兆トークンを使用し、そのうち約70%をプログラミングのソースコードで構成したことで、コード生成能力と一般的な言語・数学的能力の両立が実現できたという。さらにQwen2.5-Coderを活用してノイズの多いデータをクリーンアップし、データ品質を向上させているとのこと。

事後学習には、実世界のコーディング課題に対して大規模な実行駆動型強化学習(Code RL)を適用した。また、SWE-Benchなどにみられるソフトウェア開発の課題に対しては、ツール利用・計画・フィードバックを含む複数ターンの対話を通じて解決するlong-horizon RL(Agent RL)も導入。これにより、コーディング能力を向上させたという。

モデルはHugging Faceで公開されている。ライセンスはApache 2.0。

実際にQwen3 Coderを使うために、Qwen Code(Gemini CLIベース)も提供している(このライセンスもApache 2.0⁠⁠。Node.jsインストール後にnpm i -g @qwen-code/qwen-codeで導入できる。標準ではAlibaba CloudのAPIを利用する設定が必要となる。詳しくは公式ブログを参照のこと。

Qwenチームは今後、Qwen3-Coderのさらなるサイズ展開や、コスト効率の高いモデル提供を予定している。さらに、Coding Agent自身が自己改善できるか、という新たな可能性についても探求していくとのこと。

モデルQwen3-235B-A22B-Instruct-2507も公開

また、Alibabaは2025年7月22日、モデル「Qwen3-235B-A22B-Instruct-2507」を公開した。ユーザーからの指示(instruction)に従って適切な応答を返す能力を重視したモデルであり、非思考モード専用として設計されている。ライセンスはApache 2.0。

このモデルは従来のQwen3-235B-A22Bの非思考モードをベースに、一般能力を大幅に強化したバージョン。パラメータ数は235B(うち22Bがアクティブパラメータ)で、コンテキスト長は256Kトークンまで対応している。

性能面では、主要ベンチマークでKimi K2やClaude Opus 4 Non-thinking、Deepseek-V3-0324と比べて同等以上のスコアを記録していることを示している。

今回のモデルについて、コミュニティからのフィードバックなどを踏まえて、従来のQwen3-235B-A22Bのハイブリッド型の思考モードの使用をやめて、InstructモデルとThinkingモデルを別々にトレーニングすることで、それぞれの品質改善を目指していくことが述べられている。

おすすめ記事

記事・ニュース一覧