Google⁠Gemma 3ベース⁠55言語を網羅したオープンな翻訳モデルTranslateGemmaをリリース

Googleは2026年1月15日、Gemma 3ベースの翻訳モデル「TranslateGemma」を、Apache 2.0ライセンスのもとオープンソースとしてリリースした。日本語を含む55言語に対応し、4B、12B、27Bのパラメータモデルが用意されている。

TranslateGemmaは、人間が翻訳したテキストとGeminiによって生成された高品質な合成翻訳を使った教師ありファインチューニング(SFT)と、MetricX-QEやAutoMQMといった高度なメトリクスを含む報酬モデルのアンサンブルを用いた強化学習(RL)により、効率性と翻訳品質の両立に成功した。これにより、効率性ではMetricXを用いたWMT24++ベンチマークにおいて、12BのTranslateGemmaモデルが2倍以上のパラメータを持つGemma 3の27Bベースラインモデルを上回る結果を記録したという[1]。また正確性では、55言語で構成されるWMT24++データセットでTranslateGemmaをテストしたところ、すべての言語においてベースラインGemmaモデルとよりエラー率を大幅に低減したとのこと。

またTranslateGemmaは55の言語ペアで厳格なトレーニングと評価が行われ、主要言語(スペイン語、フランス語、中国語、ヒンディー語など)はもちろん、多くの⁠低リソース言語⁠においても高い信頼性と優れたパフォーマンスを実現しているという。加えて、約500の追加言語ペアでトレーニングも実施され、研究者が特定の言語ペア向けに独自の最先端モデルを調整したり、低リソース言語の品質向上のためのベースとなるよう設計されている。詳しくは技術レポートを参照。

さらにTranslateGemmaはGemma 3と同様のマルチモーダル機能をもつ。Vistra画像翻訳ベンチマークを用いたテストでは、TranslateGemmaのトレーニングプロセス中に特別なマルチモーダルの微調整を行わずに、テキスト翻訳の改善が画像内のテキスト翻訳にも反映されたという。

TranslateGemmaは以下の3つのパラメータサイズで提供される。

  • 4Bモデル:モバイル、エッジコンピューティング向けに最適化
  • 12Bモデル:コンシューマ向けラップトップ上でスムーズに動作、ローカル開発環境に研究所レベルの翻訳性能を実現
  • 27Bモデル:クラウド内で単一のH100 GPU/TPUで実行可能、最高のパフォーマンスと品質を発揮

これら各モデルはKaggleHugging Faceからダウンロードできるほか、Gemma Cookbookから試すことができる。また、Googleクラウド上でVertex AIにデプロイして利用可能。

おすすめ記事

記事・ニュース一覧