Googleは2026年4月2日、軽量言語モデルGemmaの最新バージョン
Start building with Gemma 4 now in @GoogleAIStudio.
— Google DeepMind (@GoogleDeepMind) April 2, 2026
You can also download the model weights from @HuggingFace, @Kaggle, or @Ollama. Find out more → https://t. pic.co/ GENFuH25uN twitter. com/ b0C0giCnlf
Gemma 4は、ユーザーが自身のハードウェア上で実行できる同社で最も高性能なモデルファミリー。140以上の言語でネイティブに学習済みで、関数呼び出し、構造化されたJSON出力、およびネイティブシステム命令、高品質なオフラインコードをサポート、高度な推論とエージェント型ワークフローのために構築されており、Effective 2B
このうちE2BとE4Bの2モデルは128Kのコンテキストウィンドウを備え、パラメータ数よりもマルチモーダル機能、低遅延処理を優先して、リアルタイムのテキスト、ビジョン、オーディオ処理に対応したモバイル向けに設計されている。スマートフォン、Raspberry Pi、NVIDIA、Jetson Orin Nanoなどのエッジデバイス上で完全オフラインで動作する。
また、26B MoEと31B Denseは最大256Kまでのコンテキストウィンドウに対応しており、リポジトリや長文ドキュメントを1つのプロンプトで渡すことができる。パラメータあたりのインテリジェンスを重視し、ハードウェアのオーバーヘッドを大幅に削減しながら、高度なローカル推論タスクに向けに優れた性能を発揮し、カスタムコーディングアシスタントや科学データセットの分析などに対応する。量子化されていないbfloat16ウェイトは80GBのNVIDIA H100 GPU 1枚に収まるほか、量子化バージョンはコンシューマー向けGPU上でネイティブに動作する。
Gemma 4はGoogle AI Studio
Android向けには、Android Studioのエージェントモードを強化し、ML Kit GenAI Prompt APIを使用してAndroid上で本番環境向けのアプリ開発を開始できる。
また、HuggingFace、Kaggle、Ollamaからモデルウェイトをダウンロードすることができる。
Local is the future of AI because it’s free, safer & faster. It’s also the best way to mitigate current and future compute shortages and distribute control & power!
— clem 🤗 (@ClementDelangue) April 2, 2026
Local AI is having its moment and we’re here for it!
The blogpost with all the weights and best ways to use is… pic.twitter. com/ PM0XEWjJed
このほか、NVIDIAでは同社のGPUやモバイル用ハードウェアでGemma 4を活用する方法を紹介している。
🙌 Congrats @GoogleDeepMind and teams on the release of your @googlegemma 4 models!🎉
— NVIDIA AI Developer (@NVIDIAAIDev) April 2, 2026
The new multimodal and multilingual models are built for fast, efficient, and secure AI across devices – and optimized to run locally on NVIDIA RTX, RTX PRO, DGX Spark, and Jetson.
👉… https://t. pic.co/ i80og31Qp7 twitter. com/ msnwIjXTgx