はじめに
ECサイトでは、自分の好みに合った商品が「おすすめ」として表示される。スマートフォンのアプリでは、写真の人物が誰なのか自動で認識されている。地図アプリを開けば、いま自分がいる場所がピタリと表示される。ChatGPTに話しかければ、こちらの意図をある程度汲んだ自然な文章が返ってくる——これらの技術は私たちの生活をあらゆる場面で便利で快適なものにしてくれています。この点、これらの技術の裏側では、数学 が大きな役割を担っていることを誰もが知っているでしょう。それがどのような数式なのか具体的には示せなくても、数学が生成AIをはじめとする最先端技術の基盤を支えていることは、周知の事実です。
しかし、いざ「その数学の仕組みを理解したい」と思い立って書店に足を運ぶと、景色はがらりと変わります。棚には生成AIだけでなく、画像認識、ロボット工学、信号処理、衛星測位……と、テーマごとに個別の専門書が並んでいます。それぞれの本を読むだけでもかなり骨の折れる内容で、ページをめくる手がだんだん重くなってしまう。しかも、昨今の技術は1冊の本で語り切ることが困難なくらい多くの基礎技術が組み合わさっていて、どれだけ専門書を読み進めればよいのか見通しが立たない…。これが、先端技術の数理を本格的に学ぼうとする方が挫折しやすい原因の1つだと私は考えています。
ただ、AIを支える数学が、今や人類にとってかけがえのない知的資産になっていることは紛れもない事実です。2024年以降、ACMチューリング賞 とノーベル物理学賞 、すなわち2つの世界最高峰の学術賞が、いずれも「現在のAI技術の土台を築いた研究」に対して授与されました。ACMチューリング賞を受賞したのは、AIが自ら試行錯誤を重ねながら学習していく強化学習の仕組みの基礎を築いたAndrew G. Barto氏とRichard S. Sutton氏。ノーベル物理学賞を受賞したのは、現在のディープラーニングの基礎技術(脳の神経回路を模した計算のしくみで、人工ニューラルネットワークと呼ばれます)を構築したJohn J. Hopfield氏とGeoffrey Hinton氏です。昨今のAIの核心部分を担う2つの領域が、世界最高峰の学術賞で同時期に揃って讃えられたという事実は、偶然では片付けられない出来事ではないでしょうか。いま私たちがAIなどを通じて体感している技術の進化の本質が、まさに「数理モデルの進化」そのものであることを、これらの事実がはっきりと示しています。
さて、2024年に技術評論社から刊行された『独学で鍛える数理思考〜先端AI技術を支える数学の基礎 』と、続編『独学で鍛える数理思考2〜次世代AIを生み出す数学の基礎 』( 2026年、技術評論社)は、上記の人類の叡智として讃えられた技術を含めつつ、先に述べた「分野間のつながりの見えにくさ」を真正面から解こうとした2冊です。2冊あわせて全12章。検索エンジンから生成AI、さらには衛星測位やロボット制御までを、数学の基礎から初学者向けに丁寧に解説し、体系化した一本の学習カリキュラムとして描いた本となっています。
本稿ではまず、2冊12章を一望できる「全体像 」をお見せします。どの章が、どんな数学を積み重ねて、どの先端技術にたどり着くのか、全体像をざっとご覧いただきます。そのうえで、本シリーズがタイトルとしている「数理思考 」をどのような力として捉え、どのように鍛えていくのかを、両書の中身に即して解説していきます。これから数理思考の独学に挑む方、あるいはこれまで断片的に学んできた知識を一度整理したい方に、本シリーズを読み始める前の「地図 」と「羅針盤 」をお渡しすることが、本稿の目的です。
12章の全体像: 1枚の対応表で見る
まずは、下の対応表をご覧ください。各行は第1章から第6章までの章番号、各列は1冊目と2冊目の対応するテーマ、そして両書に共通する設計意図を示しています。両書はそれぞれ単独で読み切れる構成ですが、章番号を合わせて並べてみると、私がこの全12章を「ひとつの学習カリキュラム 」として設計していたことが、かなりはっきりと浮かび上がってきます。
2冊12章の対応表:各章のテーマと使用する数理領域を1枚で俯瞰するマップ(図を拡大する )
表が示す通り、シリーズ2作の各章には明確な対応関係を持たせています。この対応関係を見据え、シリーズ2作を設計したうえで執筆に取り掛かりました。ここから、各章がどのような役割を担っているのかを、順にひとつずつ解説していきます。
第1章の共通項: 「数理モデル」という考え方を、 まず手に入れる
1冊目の第1章では、情報検索——つまりGoogle検索のような仕組みを題材に、「 検索結果の並び順は、どうやって決めているのか?」という問いを数理的に解き明かしていきます。中心になるのはTF-IDF という、単語の重要度を「ある文書によく出てくる単語ほど重要」「 ただし、どの文書にも共通して出てくるようなありふれた単語は、かえって重要度が下がる」というシンプルな発想で判断するモデルです。使う数学は実にシンプルで、数列の分野で登場する総和記号Σ 、対数 、ベクトル 、そして中学校で学習する「割合 」の考え方。ほぼ高校1〜2年までに学習する範囲に収まっています。
この章のもうひとつの主役は、機械学習のさまざまな場面で登場する2つの指標——再現率(Recall) と適合率(Precision) です。平たく言えば「取りこぼさずに拾えたか」と「拾ったもののうち当たりがどれだけあったか」 。この2つの割合を、検索という身近な場面から考え直していきます。そして本書では、両者のあいだには必ず、一方を上げると他方が下がるというトレードオフ の関係が生まれることを、検索結果の現実的な制約から示します。公式を丸暗記するのではなく、「 数式を自分で作り、それが現実世界に当てはまるかを自分で確かめる」という思考訓練そのものを読者に体験してもらう。そんな狙いが、この章には最初から貫かれています。
一方、2冊目の第1章は強化学習 です。強化学習はAIが自律的に試行錯誤しながら最適な行動を学習していく仕組みで、2024年のACMチューリング賞で世界的に讃えられた、いま最も注目を集めている分野のひとつです。専門分野ということもあり、初学者にとっては確かに登場する専門用語の多さに圧倒されるかもしれません。ですがここで大切にしていただきたいのは、登場する専門用語の数ではなく、数理モデルを現実の問題解決に適用可能なようにアップデートしていく思考プロセスそのものです。本章では3マスだけの空間でロボットが行動し、その過程を学習していく様子を例題形式で解説しますが、その中で強化学習の理論がいかにして発展を遂げているのかを、数理モデルを具体的に"進化"させながら解き明かしていきます。この「数理モデルを、現実の要請に合わせて一歩ずつ進化させていく」プロセスそのものが、本章の裏テーマです。
このように、両作の第1章に共通するのは、「 目の前の現象に合わせて、いかにして数理モデルを進化させるか」という点です。高校数学までの「与えられた問題を解く」数学ではなく、まさに「問題を自分で数式に翻訳し、モデルを少しずつ磨き上げていく」という、AI時代に本当に必要となる思考の型の最初の一歩を私なりの視点で表現し、数理思考を鍛えられる題材となるよう組み立てました。
第2章の共通項: 行列で大量データを扱い、 AIを「学習させる」
1冊目の第2章は、AmazonやYouTubeの「おすすめ機能」 、つまり「あなたにはこれがオススメ」と出してくるあの仕組みを題材にします。最初のアプローチは単純です。ユーザーとアイテム(映画や商品など)の対応関係を行列 に見立て、「 評価の傾向が似ているユーザー同士を見つけ、その人が気に入ったものを勧める」というアプローチで始めます。ここで使う道具は、2つのデータを「矢印」として見立てて、矢印の向きがどれくらい揃っているかで似ているかどうかを測る方法(コサイン類似度 )です。コサイン類似度は先端技術のさまざまなテーマで登場する、極めて優れた数理的手法と言えます。
ところが、この単純なやり方だと似たりよったりなおすすめ商品ばかりが表示され、ワクワクするような商品と出会いづらくなります。つまり、「 思わぬ発見(セレンディピティ )が生まれにくい」という現実的な弱点があるのです。そこで本書では、この問題を解決する ために、問題そのものを定義し直し、新たな数理モデルを設定して考察を展開していきます。その中で、あらゆる最適化問題に通底する勾配降下法 という手法についても丁寧に解説しています。この過程で扱った数理思考 は、他の分野にも転用できる汎用性の高いものとなっています。
2冊目の第2章では、第1章の強化学習を深層強化学習 へと発展させていきます。第1章で学んだ強化学習に、ディープラーニングを組み合わせたものです。具体的には、「 どの状況でどの行動がどれくらい得なのか」を示すQ値 の表(Qテーブル)が極めて大きなサイズになったとき、その役割をニューラルネットワークに肩代わりさせるDQN (Deep Q-Networkの略。2015年にNature誌に掲載され、深層強化学習の出発点となった手法)の仕組みを、もととなる論文を解釈しながら数理的に解き明かしていきます。学習のしくみ自体は、1冊目の第2章で学んだ勾配降下法と、それを効率よく計算するための誤差逆伝播法 の延長線上にあります。
ここで、2024年の2つの受賞の話をもう一度思い出してください。深層強化学習とは、ACMチューリング賞が讃えた強化学習(Barto氏・Sutton氏)と、ノーベル物理学賞が讃えた人工ニューラルネットワーク(Hopfield氏・Hinton氏) 、その2つが交わる形で生まれた分野です。つまり2冊目第2章は、2024年に世界が同時に讃えた2つの潮流がちょうど合流する「その交差点」を、自分の手で式を動かしながら、その核心を体感できる章になっているのです。これほど知的好奇心を刺激するテーマは、探してもなかなか見つからないかもしれません。
両作の第2章を行き来することで、「 AIが学習するとは、要するに、ズレ(誤差 )の大きさを表す関数(損失関数 )を、パラメータを少しずつ動かすことでズレを小さくしていくことだ」というアイデアを、具体的な計算として強い手触り感を得ながら習得できるはずです。ぜひ、横断的な学習に取り組んでみてください。
第3章の共通項: 画像認識AIの二つの主役、 CNNとViT
1冊目の第3章は画像認識、つまりコンピュータが写真を見て「これは犬」「 これは車」などと分類する仕組みを扱います。中心となるのはCNN (Convolutional Neural Network、畳み込みニューラルネットワーク)と呼ばれるAI(深層学習モデル )で、簡単に言えば「画像のあちこちの小さな領域を順に見ていき、そこに写っている特徴を少しずつ拾い上げていく」タイプのAIです。画像から特徴を拾う層(畳み込み層 ) 、拾った特徴をまとめ上げる層(プーリング層 ) 、最後に「犬である確率は何%か」を出す部分(ソフトマックス関数 )といった各パーツを、ひとつずつ数式で追いかけていきます。そして、画像認識がなぜ人間の能力を超えるところまで来たのかを解き明かします。
続く2冊目の第3章では、CNNの後継としてViT (Vision Transformer、2020年発表)を取り上げます。ViTは、近年の生成AIの基礎となっているTransformer というAIモデルを、画像認識の世界に応用したものです。その肝は、画像を「パッチ」と呼ばれる小さな正方形のブロックに分割し、それぞれのパッチを単語のように扱って処理するという発想の転換にあります。
ところで、1冊目第3章のコラムで述べているのですが、深層学習モデルが「説明しづらい」ものに見える根本原因は、学習で決めるべき数値(パラメータ )の多さにあります。実務で使われている深層学習モデルのパラメータ数は桁違いに多く、数百億から兆の単位にまで達します。この事実を数理的に理解したうえで「AIはブラックボックスだ」と語るのと、理解しないまま語るのとでは、議論の深さがまったく違ってきます 。
以上を踏まえたうえでぜひ読み解いていただきたいのは、CNNとViTを横断的に学ぶことで、画像認識という技術を多角的に考察できるようになる ことです。1つの技術を数理的な観点から多角的に捉え、考察できる力は、本シリーズを通じて身につく数理思考の重要な要素なのです。
第4章の共通項: Transformerが結ぶ、 生成AIとマルチモーダルAI
1冊目の第4章は、ChatGPTに代表される生成AIの心臓部、Transformer を扱います。大規模言語モデル (LLM: Large Language Model)の出発点となった論文 "Attention Is All You Need"(2017年)をベースにしながら、「 生成AIの出力は、結局のところ行列積 を基礎とした計算の積み重ねで作られている」という事実を、数式のレベルまで踏み込んで追い切ります。膨大な図表を掲載し、数式だけでなくTransformerの構造を徹底的に紐解いている点も大きな特徴です。本質を理解しようとすると膨大な計算プロセスを避けては通れませんが、本書ではそのすべてを省略せず、ひとつずつ丁寧に解説しています。
2冊目の第4章では、AIによるデータ理解の能力をテキストだけでなく画像にも広げたマルチモーダルAI (文字と画像のように、異なる種類の情報を同時に扱えるAIのこと)の技術の中でも、2021年にOpenAIが発表したCLIP (Contrastive Language-Image Pre-training)を取り上げます。CLIPのアイデアをひと言で言えば、「 言葉の意味を表す数値の並び」と「画像の意味を表す数値の並び」を同じ"土俵"に並べ、対応する言葉と画像どうしが近い位置に来るように学習させる、というものです。いま私たちが使っているChatGPTが画像を「理解」する、その基礎にあたる技術の数理が、この章で解き明かされています。
章の対応表で第4章に添えた「学びを積み上げれば、最先端AIの仕組みが数理的に理解できる 」という主張は、決して大げさな表現ではありません。第1章から第3章までで学んだ数理的手法、すなわちベクトル、行列、対数、三角関数、内積、微分などは、両作の第4章で総動員されるように構成されているからです。こうして積み上げた数理への理解が、最先端AIの核心部分まで数式レベルで理解できることに繋がるのです。
第5章の共通項: 積分と確率を、 腰を据えて扱う
1冊目の第5章は、音声解析です。「 いかにして"音"を数学で表すか?」という問いから出発し、「 どんなに複雑な音の波形も、じつは多数の単純な波、すなわち三角関数 の足し合わせで書き表せる」という、フーリエ級数展開 のアイデアへとたどり着きます。そこから、連続的な音をコンピュータが扱える形(離散値 )に変換する流れ(離散フーリエ変換 )までを、数式レベルで丁寧に解説しています。扱う数学は三角関数 、微分 、そして積分 です。高校数学の範囲を総ざらいしたうえで、応用数学の入り口であるフーリエ解析 まで扱います。
2冊目の第5章は、自律移動ロボットの「自己位置推定 」です。つまり「いま自分がどこにいるか」をロボット自身に考えさせる仕組みです。扱っているのは、ベイズ推定 とカルマンフィルタ です。ベイズ推定とは、「 新しい情報が入るたびに、手元の推測を少しずつ更新していく考え方」のことで、カルマンフィルタはその考え方を、動きながら自己位置を測るロボットに応用したものです。ざっくり言えば、「 ノイズ混じりのセンサー情報と、いくつかの前提から、いま自分がどこにいる確率が一番高いかを推定する仕組み」を数理モデルで構築します。そのために、「 ある条件のもとで、ある出来事が起きる確率はどれくらいか」を扱う確率の基本道具から出発し、約100ページにわたって、数理モデルや定理を妥協なく導出しながら考察を積み上げていきます。
1冊目第5章と2冊目第5章に共通する鍵は、ずばり「積分 」です。そのうえで2冊目第5章は、そこに「確率 を土台にした本格的な議論」を重ねます。AIを数理的に扱ううえで、確率 は避けて通れません。
第6章の共通項: 幾何学と物理学に、 いよいよ踏み込む
1冊目の第6章は、GPS (衛星を使って「いまどこにいるか」を測る仕組み)の数理です。スマートフォンの地図アプリに「いまここ」と表示される裏側では、上空のGPS衛星からの電波と、連立方程式 を基礎とした計算アルゴリズムが駆動しています。本章ではそこから出発し、衛星がなぜ地球のまわりを楕円を描いて周回するのか(物体の運動を説明するニュートンの運動法則 と、17世紀の天文学者ケプラーが天体観測から導いた法則) 、そしてGPSが示す位置にごくわずかな誤差が生まれる根本原因——アインシュタインの相対性理論 から導出される「時間のズレ」 ——までを、順に解き明かしていきます。最終的には、一般相対性理論 の基本的な解のひとつであるシュヴァルツシルト解 (重い天体のまわりで空間と時間がどのように歪むかを記述する有名な解)にまで踏み込みます。手もとのスマホの現在地表示が、じつは一般相対性理論と地続きなのだという事実は、多くの読者にとって、ちょっとした驚きではないでしょうか。あるいは、そのような話を耳にしたことがあるという方でも、数理にまで踏み込んだ考察は初見かもしれません。ぜひ、壮大な物理現象を数理で解き明かすダイナミズムを体感してください。
2冊目の第6章はロボットアームの制御を扱うロボット工学 です。まず、高校数学の最初の方で扱う三角比 の復習から始まり、「 関節をどれだけ回すと、アームの先端がどこに届くか」ということを数式で記述していきます。そこから、アームを目標の位置に持っていくために必要な関節の角度を逆向きに求める方法、アームの運動を支配する方程式、さらにはそのアームにかかる重力 の影響を示す式の導出、そして関節を1本・2本と増やしたときの応用へと進むなかで、高校・大学初年で習うニュートン力学 から、大学で本格的に学ぶ解析力学 への橋渡しを、具体的なロボットアームを通して体験していきます。
両章の共通項は、幾何学 と物理学 です。線形代数・微分積分・確率といったAIの数理的な基礎を積み上げてきた読者が、最後に物理世界で動くシステム——衛星やロボット——の数理モデルに触れることで、「 AIは数学だけでなく、物理 とも地続きなのだ」と確信に至る。これが、第6章の共通項が行き着く着地点です。
本シリーズが鍛える「数理思考」とは何か
ここまで全12章の内容をざっと追ってきましたが、本シリーズのタイトルにある「数理思考」とは、具体的にどのような力を指すのでしょうか。あくまで私見ですが、少なくとも次の4つの力は重要なものであり、本シリーズを通じて大いに鍛えられる力だと考えています。
第1に、現象を数式に翻訳する力 です。本書は、各テーマにおいて「いかにして数理モデルを設計し、問題を解くか」ということを、繰り返し読者に問いかけます。「 与えられた方程式を解く」姿勢ではなく、「 自分で数理モデルを設計する」姿勢が、章を追うごとに求められていきます。
第2に、既存の方法の限界を見抜き、より良い方法に作り替える力 です。「 現実の壁にぶつかったら、モデルを作り替えて再挑戦する」というこの思考反復そのものを、各章で題材にしています。単なる数式の暗記ではなく、問題に対して自力で数理を通じて解決策を提示するという、まさに数理思考を実践する力です。
第3に、計算を省略せず、最後まで手を動かし切る力 です。本書では、途中式を原則として省略していません。途中に現れる多少複雑な計算まで、読者が自分の手でペンを動かして追えるように書いています。公式を覚えるための数学ではなく、公式を自分で導くための数学こそが鍛える対象である、という考え方が、最初から最後まで一貫しています。
第4に、ブラックボックスを自ら開き、強みと弱みを自力で見極める力 です。生成AIのハルシネーション(事実と異なる内容を、いかにも正しそうに返してしまう現象)のような不可解な振る舞いも、「 そのシステムの数理的な構造から生じていると理解できれば、得体の知れない現象ではなくなる」とし、「 確かな数理思考を備えていれば、いかなる最先端技術の数理モデルでも自らその仕組みを理解し、強みと弱みを自らの知識と知恵で見極め、技術の恩恵と限界を主体的に評価できるようになる」のです。モデルごとの前提と限界を、自分の頭で評価できる力を身につけること。それが、本シリーズの目標の1つでもあります。
逆に言えば、本シリーズは「わかりやすい解説だけを集めた入門書」ではありません。私自身、「 わかりやすく教えやすい内容だけを、わかりやすく教える」というコンテンツのあり方に対して、両書の「はじめに」で明確に疑問を呈しています。読者に求めたいのは、各章で登場する数式に、紙とペンでしっかり向き合い、徹底的に考え抜くことです。その代わりに得られるのが、ここで述べた4つの「数理思考の土台」なのです。
結び
『独学で鍛える数理思考 』シリーズ全12章は、検索エンジンからロボット制御までを意図的に連続したカリキュラムとして構築したものです。そのカリキュラムを通じて、読者に数理思考を身につけてもらうことを、本シリーズは真正面から目指しています。この春、あるいはGWの連休の間に「学び直し」や「キャリアのステップアップ」 、あるいは「将来目指すキャリアや研究テーマ」と真剣に向き合いたい方に、ぜひ手に取っていただきたいシリーズです。