Google DeepMindは2026年5月12日、マウスポインターをAI時代のインターフェースとして捉え直す取り組みを発表した。Geminiを組み合わせた実験的な仕組みで、
We’re reimagining a 50-year-old interface - the mouse pointer - with AI. 🖱️
— Google DeepMind (@GoogleDeepMind) May 12, 2026
These experimental demos show how people can intuitively direct Gemini on their screens using motion, speech, and natural shorthand to get things done 🧵 pic.twitter. com/ p6fhgNcopz
「これ」「あれ」で指示できるAIインターフェース
AI対応ポインターの特徴は、ユーザーが別ウィンドウに移動したり長いプロンプトを書いたりしなくても、ポインターの下にある対象をAIが文脈として扱える点にある。Google DeepMindは、AIを別アプリに迂回させないこと、ポインター周辺の文脈をAIが把握すること、
例として、PDFを指してメール用の箇条書き要約を依頼する、統計表にホバーして円グラフへの変換を頼む、レシピの材料をハイライトして分量を2倍にする、といった操作を挙げている。また、走り書きのメモの写真をToDoリストに変換したり、一時停止した旅行動画のフレームからレストランの予約リンクを作成したりする例も紹介している。
Google AI StudioとChromeで用途別に展開
AI対応ポインターの考え方は、Google AI Studioで試せるデモと、既存プロダクトに取り入れられる機能に分かれている。
Google AI Studio:AI-Pointerのデモを試せる
Google AI Studioでは、発表時点で
Chrome:Webページ上の関心部分をGeminiに質問
Google DeepMindによると、Chromeでもこの考え方を取り入れている。同日からは、複雑なプロンプトを書く代わりに、Webページ上の関心がある部分をポインターで示してGemini in Chromeに質問できるようになっているという。ページ内の複数の商品を選んで比較を依頼する例や、部屋の画像でソファを置きたい場所を指して可視化を頼む例が挙げられている。
同日発表された今秋発売予定のGooglebookにも