Googleは2025年8月14日、2億7000万パラメータをもつコンパクトなモデル
The model is built for fine-tuning on focused tasks where efficiency is everything:
— Google AI Developers (@googleaidevs) August 14, 2025
🔹 Massive 256k vocabulary for expert fine-tuning
🔹 Extreme energy efficiency for on-device AI
🔹 Production-ready with INT4 Quantization Aware Training pic.twitter. com/ LiCsMPaQRp
Gemma 3 270Mは、コンパクトながら新しいアーキテクチャにより高性能を両立させているという。2億7000万パラメータのうち1億7000万は膨大な語彙サイズをもつ埋め込みパラメータで、これにより256,000トークンの語彙数をもち、特定の分野や言語向けに微調整できる強力なベースモデルとなっている。
また、Gemma 3 270Mは最も電力効率の高いGemmaモデルで、同社のスマートフォンPixel 9 Pro SoCを用いた社内テストでは、INT4量子化モデルは25回の会話でバッテリー消費量が0.
さらに、強力な指示追従機能とテキスト構造化機能をトレーニング済みの状態でリリースされているため、複雑な会話ユースケースには向かないが、一般的な指示にはすぐに従えるようになっているという。量子化を考慮したトレーニング済み
このように特化されたGemma 3 270Mは、大規模で明確に定義されたタスクがある場合に大きな効果をもたらし、感情分析、エンティティ抽出、クエリルーティング、非構造化テキストから構造化テキストへの処理、クリエイティブライティング、コンプライアンスチェックなどの機能に最適という。
また微調整されたGemma 3 270Mは軽量で低コストのインフラストラクチャ、またはデバイス上で直接実行でき、本番環境での推論コストを大幅に削減、あるいはゼロにし、ユーザーへのレスポンスを高速化できる。迅速な反復処理とデプロイが必要な場面でも効果的で、小サイズにより迅速な微調整実験が可能で、ユースケースに最適な構成をに日単位でなく数時間で発見することもできる。
Gemma 3 270Mは、事前学習済みモデルと命令チューニング済みモデルの両方がリリースされており、Hugging Face、Ollama、Kaggle、LM Studio、そしてDockerから入手できる。また、Vertex AI上で試すこともできる。