書籍概要

図解即戦力

図解即戦力
AIのしくみと活用がこれ1冊でしっかりわかる教科書

著者
発売日
更新日

概要

これからAIを学ぶエンジニアやAI関連業種に携わるビジネスマン向けに,「AIとは何か」から始まり,しくみや手法,利用例など技術的な側面を分かりやすく説明します。

こんな方におすすめ

  • AIの技術と活用例を知りたいエンジニア,ビジネスパーソン,学生

サンプル

目次

第1章 AIとは

  • 01 AIの定義
  • 02 AIの得意な分野と苦手な分野
  • 03 AIの発展過程
  • 04 機械学習とは
  • 05 ディープラーニングとは
  • 06 機械学習とディープラーニングの違い

第2章 AIの基礎知識

  • 07 機械学習と統計学
  • 08 相関関係と因果関係
  • 09 機械学習とデータマイニング
  • 10 教師あり学習とは
  • 11 教師なし学習とは
  • 12 強化学習とは
  • 13 AIとビッグデータ
  • 14 データ別に見るAIの特徴
  • 15 AIシステムの開発フロー

第3章 自然言語処理の手法とモデル

  • 16 自然言語処理(NLP)とは
  • 17 NLPにおける曖昧性と困難性
  • 18 NLPの前処理
  • 19 言語モデルと分散表現
  • 20 注釈付きコーパスと対訳コーパス
  • 21 再帰型ニューラルネットワーク(RNN)
  • 22 Transformer
  • 23 BERT
  • 24 GPT-3

第4章 GANを中心とした生成モデル

  • 25 クリエイティブに進出するAI
  • 26 生成モデルの基礎的なアルゴリズム
  • 27 GANを用いた画像生成
  • 28 敵対的攻撃と防御
  • 29 GANのこれからの広がり

第5章 画像認識の手法とモデル

  • 30 画像認識のタスク
  • 31 畳み込みニューラルネットワーク(CNN)
  • 32 画像認識の発展のきっかけとなったCNN
  • 33 CNNの精度とサイズのバランス
  • 34 学習の工夫1
  • 35 学習の工夫2
  • 36 ディープラーニングの説明可能性
  • 37 画像認識の評価指標

第6章 テーブルデータの機械学習アルゴリズム

  • 38 テーブルデータの前処理
  • 39 精度の評価指標と汎化性能
  • 40 教師あり学習1:線形回帰モデル
  • 41 教師あり学習2:決定木
  • 42 教師あり学習3:ランダムフォレスト
  • 43 教師あり学習4:XGBoost
  • 44 教師あり学習5:ロジスティック回帰モデル
  • 45 教師あり学習6:ニューラルネットワーク
  • 46 教師あり学習7:k-NN(k-Nearest Neighbor)
  • 47 教師なし学習1[クラスタリング]:k-means法
  • 48 教師なし学習2[クラスタリング]:階層的クラスタリング
  • 49 教師なし学習3[クラスタリング]:スペクトラルクラスタリング
  • 50 教師なし学習4[次元削減]:主成分分析
  • 51 教師なし学習5[次元削減]:UMAP
  • 52 教師なし学習6[次元削減]:行列分解
  • 53 教師なし学習7[次元削減]:オートエンコーダ

サポート

正誤表

本書の以下の部分に誤りがありました。ここに訂正するとともに,ご迷惑をおかけしたことを深くお詫び申し上げます。

(2024年7月5日最終更新)

P.236 本文下から6行目

UMAPは全体の傾向の考慮しつつ
UMAPは全体の傾向考慮しつつ

P.243 本文下から7行目

レコメンデーションで使う場合、課外があります。
レコメンデーションで使う場合、課があります。

以下,4刷で修正済み

P.80 本文11行目

NLPは一筋縄ではないことが
NLPは一筋縄ではいかないことが

P.108 図「LSTMの3種類のゲート」「忘却ゲート」の1行目

1つ前の下方の記憶セルC
1つ前の記憶セルC

P.116 本文8~9行目

「ファインチューニング(fine-turning)という考え方
「ファインチューニング(fine-turning)という考え方

P.140 本文6~7行目の以下の文章を削除

CycleGANには、生成器はGxとGyの2個、識別器もGxとGyの2個があります。

P.167 まとめ内4行目

学習済みモデルを転用学習に用いることができる
学習済みモデルを転学習に用いることができる

P.176 本文5行目,6行目

再急降下法
急降下法

P.179 本文2行目

「Adam(Adaptive moment:適用的モーメント)」
「Adam(Adaptive moment:適的モーメント)」

P.189 本文8行目の以下の文章を削除

この場合は再現率を重視するべきです。

P.202 「ジニ不純度の計算方法」図右の説明3番目の項目

全体のジニ不純度=右のジニ不純度×5/9+~
全体のジニ不純度=のジニ不純度×5/9+~

P.221 まとめ内1行目

データを丸暗記するオンライン学習アルゴリズム
データを丸暗記するリアルタイム学習アルゴリズム

P.222 表内④

一番近い中心点を、そのデータが所属するクラスタとする
中心点が一番近いクラスタを、そのデータが所属するクラスタとする

P.223 上部の図の2段目右

③中心点を計算
中心点を計算

P.231 本文7~9行目

隣接行列は、行列も列数もエッジ(辺)数となっている正方形の行列です。たとえば次の無向グラフを隣接行列にする場合は、エッジの数が6件なので、6×6の正方形になります
隣接行列は、行列も列数もノード(頂点)数となっている正方形の行列です。たとえば次の無向グラフを隣接行列にする場合は、ノードの数が6件なので、6×6の正方形になります。

(以下2023年5月16日更新)

以下,3刷で修正済み

P.89 本文7行目

つまり、その単語が口コミ総数の中で何回出現したかを
つまり、その単語を含む文書が口コミ総数の中で何回出現したかを

(以下2023年1月19日更新)

以下,2刷で修正済み

P.75 図「第3章の流れ」の3-18 本文部分

NPLを行う上で
NLPを行う上で

P.107「LSTMの構造」の図

p107zu_20230116.png

P.116 本文9行目 図左側の吹き出し

(fine-turning)
(fine-tuning)

「r」が不要です。

商品一覧