国立情報学研究所
✏️ニュースリリース
— 国立情報学研究所(NII) (@jouhouken) April 3, 2026
約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」 「LLM-jp-4 32B-A3Bモデル」 をオープンソースライセンスで公開
~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~https://t. co/ 7jyqQmfTmB
大学共同利用機関法人 情報・システム研究機構…
今回発表された
これにより同モデルは最大で約6万5千トークンの入出力まで処理が可能で、言語モデルの日本語理解能力を測る
LLMCではより大規模なパラメータを備えたモデルの開発を進めており、2026年度中に順次公開予定とのこと。
「LLM-jp-4 8Bモデル」