NVIDIA⁠高性能で軽量な日本語特化言語モデルNemotron-Nano-9B-v2-Japaneseを公開

NVIDIAは2026年2月18日、軽量で高度な日本語理解能力を持つ言語モデルNVIDIA Nemotron-Nano-9B-v2-Japaneseを公開した。

NVIDIA-Nemotron-Nano-9B-v2-Japaneseは、同社の言語モデルNemotron-Nano-9B-v2アーキテクチャを元に推論タスクと非推論タスクの両方に対応する統合モデルとして設計され、Nemotron-Personas-Japanデータセットを用いた追加学習により日本語に特化して最適化されている。パフォーマンスでは日本語能力ベンチマークサイト「Nejumi LLMリーダーボード 4」のパラメータ数10B以下において、Qwen3-8Bを凌ぐ性能を発揮したという。

同社によると、これまで日本のエンタープライズAI環境には、⁠高度な日本語能力」「エージェンティックAIとしてのタスク遂行能力」を兼ね備えた言語モデルがほとんど存在しないという課題があったという。NVIDIA-Nemotron-Nano-9B-v2-Japaneseにより、機密データを扱う企業で、プライベートネットワーク内でのモデル運用においても実用レベルの性能を維持しつつ、インフラ面の導入ハードルを大幅に下げることができる。また実証済みのエージェント能力を持つ強力な日本語ベースモデルからAI開発を開始することで、ファインチューニングのサイクルを短縮でき、特定のドメインへの適応に計算リソースを集中させることが可能になるという。

Nemotron-Nano-9B-v2-JapaneseはNVIDIA Nemotron Open Model LicenseにもとづいてHugging Face上で公開されており、商用利用が可能。

おすすめ記事

記事・ニュース一覧