Alibabaは2025年7月22日、エージェントを活用したコーディングのためのオープンモデル
>>> Qwen3-Coder is here! ✅
— Qwen (@Alibaba_Qwen) July 22, 2025
We’re releasing Qwen3-Coder-480B-A35B-Instruct, our most powerful open agentic code model to date. This 480B-parameter Mixture-of-Experts model (35B active) natively supports 256K context and scales to 1M context with extrapolation. It achieves… pic.twitter. com/ Z8HfyrVScE
Qwen3-Coderは複数サイズで展開されるが、今回、最上位モデルのQwen3-Coder-480B-A35B-Instructを公開した。これは480Bのパラメータ、35BのアクティブパラメータをもつMoE
また、Agentic Coding
事前学習には7.
事後学習には、実世界のコーディング課題に対して大規模な実行駆動型強化学習
モデルはHugging Faceで公開されている。ライセンスはApache 2.
実際にQwen3 Coderを使うために、Qwen Codenpm i -g @qwen-code/
で導入できる。標準ではAlibaba CloudのAPIを利用する設定が必要となる。詳しくは公式ブログを参照のこと。
Qwenチームは今後、Qwen3-Coderのさらなるサイズ展開や、コスト効率の高いモデル提供を予定している。さらに、Coding Agent自身が自己改善できるか、という新たな可能性についても探求していくとのこと。
モデルQwen3-235B-A22B-Instruct-2507も公開
また、Alibabaは2025年7月22日、モデル
このモデルは従来のQwen3-235B-A22Bの非思考モードをベースに、一般能力を大幅に強化したバージョン。パラメータ数は235B
性能面では、主要ベンチマークでKimi K2やClaude Opus 4 Non-thinking、Deepseek-V3-0324と比べて同等以上のスコアを記録していることを示している。
Bye Qwen3-235B-A22B, hello Qwen3-235B-A22B-2507!
— Qwen (@Alibaba_Qwen) July 21, 2025
After talking with the community and thinking it through, we decided to stop using hybrid thinking mode. Instead, we’ll train Instruct and Thinking models separately so we can get the best quality possible. Today, we’re releasing… pic.twitter. com/ 9QmPaPkANi
今回のモデルについて、コミュニティからのフィードバックなどを踏まえて、従来のQwen3-235B-A22Bのハイブリッド型の思考モードの使用をやめて、InstructモデルとThinkingモデルを別々にトレーニングすることで、それぞれの品質改善を目指していくことが述べられている。