CES 2026からお届け!

AI時代の想像力を育むためのLEGOの挑戦
――LEGO Press Conferenceより

CESでは一般向け展示会の2日前から、Media Daysとしてメディア登録者向けのプレス・カンファレンスが行われます。

各社ここで技術なりビジネス関連の新発表を行うわけですが、CES 2026ではそのリストにLEGOが名前を連ねました

LEGOが一体何をCESで出すんだろう?という好奇心で覗いてみました。今回は、スピーチの細部やデモで示されたことを網羅的にまとめるのではなく、筆者が(コンピュータ屋として)気になった点にフォーカスしてレポートしてみます。

写真1 会場の廊下に出ていたLEGOプレスカンファレンスの案内

LEGO初のCES Press Conference

同じ好奇心にかられた人たちが多かったのか、参加者がいっぱいでした。

写真2 LEGO人形のアニメーションによるオープニングに聴衆の多くから歓声が

さまざま紹介されましたが、メインはこのSMART Brickです。

写真3 LEGO SMART Brick

どうやらいくつかのセンサとプロセッサが入ったブロックのようで、次の写真のようにそれ自身で光り、近くの他のSMART Brickや「タグ」と反応して何かしらのインタラクションをプレーヤに与える、というものです。

写真4 操縦手の前にある光っている部分がSMART Brickブロック

ただ、デモの説明者は単にタグとしか言わなかったのでどのような技術によるものか、どのような制約、機能上の限界があるかはわかりませんでした。

今調べてみると素早く、そしてかなり詳細な技術説明がもう出ています[1]ので、そのあたりを参照していただければと思います。

このインテリジェントなブロックを使った遊びをSMART PLAYと名付け、いくらかデモが行われました。

次の写真のデモは(レゴで作った)車の屋根の上にSMART Brickを付けて、その右にあるスピーカ?サウンドボックス的なものに近づけたり遠ざけたりすると、それに応じてエンジン音が変化するところです。

写真5 SMART PLAYのデモ(車を動かすと音が変化する)

たとえば車ではなく飛行機にSMART Brickを付けて動かすと、今度は飛行機っぽい音が出たりします。

他にも何種類かの動きをするデモがありましたが、振る舞いが異なるのはSMART Brickのすぐ下に付けた「タグ」が違うことからきているようです。上の写真の車の屋根の後ろ半分にある赤い色の薄いパーツがタグです。

また、壇上に子どもを2人上げて、3人でプレイするゲームのデモも行われました。

まずLEGOブロックで転がせる車のようなものを3つと、ターゲットとなるタワーを作り、それぞれにSMART Brickを付けます。

車にはそれぞれの色を示すタグがついているようで、テーブルの端から各自がそれぞれの車をタワーめがけて転がすと、最も近いところで止まった車の色がどれかをタワーのSMART Brickが色で示す、という内容です。

つまりタワーのブロックは、どの色の車のSMART Brickが最も近いかを判定し、その色を点灯し、保持する、という機能を設定されているものと思えます。

写真6 タワー(画面右端、テーブル上の茶色の背が高いブロック)に車を近づけるゲームのデモ

STAR WARS

また今回の発表では映画『STAR WARS』との連携の深さを示す新商品のリリースについても案内がありました。発表ではチューバッカやC-3PO・R2D2コンビも出演しており、なかなか楽しめました。

写真7 ここにSMART Brickを入れて、タイ・ファイターとすれ違うとそれっぽい音が出る、といった演出になるのでしょうか

ソフトウェアとその設計について

今回の発表はASICを起こしている、とかMesh Networkを構成するなどコンピュータ屋にとって興味深いことが多くありました。

ただ、そのあたりの技術的な機能・限界に関する情報は先述の記事などにお任せするとして、筆者が気になったのはソフトウェア的な側面でした。

つまり「タグによって振る舞いが変わる」ということは、⁠このタグだったらどんな動きをするか」がどこかにプログラムとして用意されているはずです。そこはどうなっているんだろう?という好奇心ですね。

ところでLEGOは以前にMindstormsというロボットコントローラ的な製品群を出しています。

起源となる製品は1998年あたりからあるのですが、多くの読者の記憶にありそうなのは2006年のMindstorms NXTでしょうか。

今回のSMART Brickは、ブロックだけの操作でさまざまなことが起きる、という点ではMindstormsとは一線を画したもので、あのサイズに多くのセンサ機能と、その処理能力を詰めたことは2000年代からの技術進歩を反映して良いなと思います。

ただ、今年の発表ではソフトウェア的な面についてはほぼ触れられませんでした。

これ以降は筆者の想像というか、技術屋として気になったことの思考実験および考察(妄想?)です。

「タグによって振る舞いが変わる」と言いながら、それぞれのタグが「車」「飛行機」のタグだと決め打ち(ハード的に固定されている)であり、それに対応する音(あるいは音のベース)もやはり決め打ち(固定的なデータが予め用意されている)であれば話は簡単です。

しかし「1番のタグは宇宙船の音」⁠宇宙船の音はこんな感じで」などとユーザがプログラムできた方がやっぱり楽しいので、そのようになっているかもしれないな、と筆者は思っています。

先に挙げた「近づいたタグ(あるいはSMART Brick)のに合わせて色を出す」ゲームも、誰かがそのように振る舞うようプログラムしたはずです。ユーザがプログラムできるようにするほうがクリエイティブですよね。

では、そのような設定をどのようにして行うか、ソフトウェア的な仕組みをどうすれば良いか考えてしまうのです。

普通であれば、Mindstormsでやったようなブロック・プログラミングを子どもに習得してもらうようなアプローチでしょう。

しかし今回は「ディスプレイなどを使わない(ブロックで体験として完結する⁠⁠」ことを目指す、つまり自らに課しているような状況です。

「画面を使わず、ブロックだけで完結する」という制約を真面目に考えると、素直に思いつくのは音声(自然言語)インターフェースです。つまり、話しかけることでAIに指示して、必要な制御プログラムを書かせて実行するアプローチですね。

「このタグをこれから潜水艦につけるから、音はそれっぽいのにしてね」と言えば、⁠この音で良いですか?」⁠もっとSFっぽいのがいい、それからすれ違ったときはピカピカ光ってね」というやりとりで音源や振る舞いをプログラムできないか、ということですね。

今回のプレスカンファレンス終了後に、デモと取材を申し込めるQRコードが提示されました。筆者もこれに申し込みました。もしうまくいったら、そのあたりを聞いてこようと思います。

ところで先日行われたUnveiled(明日から始まる展示に出すもののメディア向けプレビュー会・写真8では、⁠自分たちの(以前の)モデル」「生成AIをつけたらこんなことができるようになりました」というものが目立ちました。たとえば補聴器的な製品に対して翻訳機能をつける、といったものです。

そうではなく、本来の製品のゴール(画面を使わずに自由度の高いプログラマビリティを実現する)に近づける方向で生成AIの機能を利用したものが、展示会場で多く見られることを期待しています。

写真8 CES Unveiled会場入り口

おすすめ記事

記事・ニュース一覧