Pixel 4でMotion Senseと新しいGoogleアシスタントが利用可能に
Google Pixel 4で、Motion Senseと新しいGoogleアシスタントが利用可能になりました。Motion Senseは、Pixel 4の発売地域で日本だけが使えない機能となっていたので、ようやく使えるようになりました。
国内でもMotion Senseが利用可能に
2月4日、GoogleはGoogle Pixel 4で「Motion Sense」と「新しいGoogleアシスタント」が利用可能になったとGoogle Japan Blogで公表しました。
Motion Senseは、小型のレーダ技術「Soli」を活用したもので、端末に手が近づくのを検知して画面をオンにしたり、端末に触れることなくジェスチャで操作できる技術です。Pixel 4は、北米、ヨーロッパ、アジアの12ヵ国で発売されましたが、この中で日本だけMotion Senseが使えませんでした。理由は電波法の規制のためで、2020年春ごろにはソフトウェアアップデートで使えるようになるとアナウンスしていました。
Motion Senseは、設定の「システム」>「Motion Sense」で「オン」にすれば使えます。
Soliレーダとは
Motion Senseで使われるSoliレーダは、Google ATAPがProject Soliと銘打ち5年の歳月をかけて開発した技術です。これは、57GHzから64GHz帯の周波数を利用しており、Pixel 4のディスプレイ上部に搭載できるほど小型化されています。
動きの読み取りならばカメラを使うことを考えますが、Soliレーダは感度が高く、細かな動きでも読み取れるところが特徴で、空中でボリュームをつまんで回すような操作やスライダーをつまんで動かすような操作を読み取れます。
これを知るとPixel 4が対応しているジェスチャーは、おおざっぱなものばかりです。
Motion Senseが立ち上がりのタイミングなので、ジェスチャは誰にでもわかりやすく覚えやすいものを選んで実装しているとも考えられますが、AndroidのUIに、何かをつまんで回すや動かすようなコントロールがないので、現状ではSoliレーダの特性を活かされていない可能性もあります。
Googleは、Motion Senseで対応可能な操作を増やしていくとしています。
スマートフォンであたりまえに使われているスワイプ操作時に、突き出している指や手の形を読み取ることで、実行コマンドの意味を変えることは、Motion Senseでの実装の可能性があるかもしれません。たとえば、指2本で上から下に振り下ろしたら通知パネルが表示されて、下から上に振り上げればホーム画面が表示されるなどは、Motion Senseに不慣れな筆者でもすぐ思い付くので早々に実装されるかもしれません。
音声ユーザインターフェースとの相性が良さそう
先のような操作があたりまえになれば、スマートフォンが手のひらの上で使うものから脱却します。これが進めば、何かするために目の前にあるものを操作する概念が希有になるはずなので、音声と組み合わせて使う方法も考えられます。
たとえば、腕を上げ下げするジェスチャーに対しても、音声で操作対象物や操作方法を指定してやることで、同じジェスチャーでも別の操作ができます。たとえば、「エアコンの温度」と発話したあとで、上から下に腕を動かすジェスチャーをすればエアコンの温度を下げる操作ができる。これを「照明の明るさ」と発話するようにすれば、照明の明るさを調整する操作に変えられます。
こうした使い方ができれば、何かを操作するために専用のジェスチャを覚える必要がなくなります。また、音声コマンドは、実行のために目的を明確にして伝える必要があります。やってみて心地良いところで調整する操作をしようとすると、同じことを何度も発話する必要がありストレスになります。ジェスチャと音声コマンドを組み合わせることで、腕を動かした分が調整幅にできるので感覚的な操作にも対応できます。
新しいGoogleアシスタントにも期待
Pixel 4のGoogleアシスタントは、OSやアプリとの結び付きがより強くなりました。
たとえば、アプリの起動やWebサイトの表示、音量の調整やWi-Fiのオン・オフ操作など音声コマンドで実行できます。この先には、先でも書いたようにMotion Senseとの組み合わせで、感覚的に操作できるインターフェースが実装される可能性もあります。
こうなれば、スマートフォンではなくGoogle Nest Hubのようなデバイスで実現されると、Googleが提唱するアンビエントコンピューティングとも相性が良さそうです。
今週は、このあたりで、また来週。