図解即戦力
                    図解即戦力
ChatGPTのしくみと技術がこれ1冊でしっかりわかる教科書
                    
                  
                  
                  - 中谷秀洋 著
 - 定価
 - 2,640円(本体2,400円+税10%)
 - 発売日
 - 2024.9.24
 - 判型
 - A5
 - 頁数
 - 296ページ
 - ISBN
 - 978-4-297-14351-0 978-4-297-14352-7
 
概要
ChatGPTの登場によってAIが身近に感じられるようになりました。AIを使いこなすことによって生活が豊かになる、そんな未来がすぐそこまできています。本書では、「大規模言語モデル」の基本から「トランスフォーマー」や「APIを使ったAI開発」まで、ChatGPTを支える技術を図を交えながら詳しく解説しています。
こんな方にオススメ
- ChatGPTや大規模言語処理について知りたい人
 
目次
1章 ChatGPT
- 01 ChatGPTとは
- ChatGPTの始め方
 - ChatGPTの利用例
 
 - 02 ChatGPTの便利な機能
- チャットコメントの編集と操作
 - チャット履歴と共有
 
 - 03 プロンプトエンジニアリング
- プロンプトとコンテキスト
 - プロンプトエンジニアリング
 
 - 04 ChatGPTのエンジン(大規模言語モデル)
- GPT-4とGPT-3.5
 - Web検索連携機能
 - マルチモーダル機能(画像を用いたチャット)
 - Code Interpreter(プログラムの自動実行)
 
 - 05 GPTs(AIのカスタマイズ機能)
- GPTs
 - GPTビルダー
 
 - 06 ChatGPT以外のAIチャットサービス
- Google Gemini
 - Microsoft Copilot
 - Anthropic Claude
 
 - 07 AIチャットの利用における注意点
- ランダム性がある
 - 間違いを含む可能性がある
 - 禁止行為
 - 入力データの扱い
 - GPTsの利用における注意点
 
 
2章 人工知能
- 08 AI(人工知能)
- 人工知能とは
 
 - 09 AIの歴史
- AI研究の歴史
 
 - 10 生成AIと汎用人工知能
- 生成AI
 - 汎用人工知能(AGI)
 
 
3章 機械学習と深層学習
- 11 機械学習
- 機械学習≠機械が学習
 - 機械学習の種類
 - 推論と学習
 - 最適化
 - 汎化と過適合
 
 - 12 ニューラルネットワーク
- ニューラルネットワークとは
 - ニューラルネットワークの仕組み
 
 - 13 ニューラルネットワークの学習
- 勾配法による学習
 - 誤差逆伝播法
 
 - 14 正則化
- ドロップアウト
 - バッチ正規化
 - ResNet(残差ネットワーク)
 
 - 15 コンピュータで数値を扱う方法
- 2進数による整数と小数の表現
 - 浮動小数点数
 - 浮動小数点数の代表的なフォーマット
 - 浮動小数点数の精度とダイナミックレンジ
 
 - 16 量子化
- モデルサイズとGPUのVRAMの関係
 - 量子化
 
 - 17 GPUを使った深層学習
- 計算を速くする方法
 - GPU vs CPU
 - GPUの成り立ちと汎用計算
 - 深層学習への特化が進むGPUとNPU
 - GPU/NPUのソフトウェアサポート
 
 
4章 自然言語処理
- 18 自然言語処理
- 深層学習以前の自然言語処理
 - 自然言語処理と深層学習
 
 - 19 文字と文字コード
- 文字コード
 - Unicode
 
 - 20 単語とトークン
- 文をコンピュータに扱えるように分割する
 - 単語や文字による分割
 - サブワード
 
 - 21 トークナイザー
- トークナイザーの学習
 - 語彙数とトークン数のトレードオフ
 
 - 22 Word2Vec
- 「概念」を扱う方法
 - Word2Vecによる単語のベクトル表現
 - Word2Vecが意味を獲得する仕組み
 
 - 23 埋め込みベクトル
- トークンのベクトルは「意味」を表さない
 - 埋め込みベクトル
 - さまざまな埋め込みベクトル
 
 
5章 大規模言語モデル
- 24 言語モデル
- モデルとは
 - 言語モデルとは
 
 - 25 大規模言語モデル
- 大規模言語モデルと「普通の言語能力」
 
 - 26 ニューラルネットワークの汎用性と基盤モデル
- ニューラルネットワークによる特徴抽出
 - 基盤モデル
 - 基盤モデルで精度が上がる仕組み
 
 - 27 スケーリング則と創発性
- スケーリング則と創発性
 - 大規模言語モデルのパラメータ数
 
 - 28 言語モデルによるテキスト生成の仕組み
- 言語モデルによるテキスト生成
 - 自己回帰言語モデル
 - 貪欲法
 
 - 29 テキスト生成の戦略
- ランダムサンプリングとソフトマックス関数
 - 「温度」の働き
 - 単語生成の樹形図
 - ビームサーチ
 
 - 30 言語モデルによるAIチャット
- 文生成によるAIチャット
 - 大規模言語モデルによるAIチャットの問題点
 
 - 31 ローカルLLM
- ローカルLLMとは
 - ローカルLLMの環境
 - ローカルLLMによる推論のプロセス
 
 - 32 大規模言語モデルのライセンス
- ローカルLLMのエコシステム
 - ソフトウェアライセンス
 - 大規模言語モデルのライセンスの種類
 
 - 33 大規模言語モデルの評価
- 大規模言語モデルの評価方法
 - リーダーボード
 
 - 34 大規模言語モデルの学習〜事前学習〜
- 事前学習と基盤モデル
 - 自己教師あり学習
 - 基盤モデルの追加学習
 - 事前学習の訓練データ
 
 - 35 大規模言語モデルの学習〜ファインチューニング〜
- ファインチューニング
 - ファインチューニングの方法
 - RLHF(Reinforcement Learning from Human Feedback)
 - LoRA(Low-Rank Adaptation)
 
 - 36 コンテキスト内学習
- コンテキスト内学習(In-Context Learning)
 
 
6章 トランスフォーマー
- 37 回帰型ニューラルネットワーク(RNN)
- ベクトルの次元
 - 回帰型ニューラルネットワーク
 - 言語モデルとしてのRNN
 - 長距離依存性とLSTM
 - エンコーダー・デコーダー
 
 - 38 注意機構(Attention)
- 人間の認知と注意機構
 - 注意機構の基本
 - エンコーダー・デコーダーと注意機構
 
 - 39 注意機構の計算
- 注意機構の計算
 - 注意機構がうまく動く理由
 
 - 40 トランスフォーマー(Transformer)
- トランスフォーマーの基本構成
 - 位置エンコーディング
 - マルチヘッド注意機構
 
 - 41 BERT
- BERT(バート)の特徴
 - BERTの事前学習
 
 - 42 GPT(Generative Pretrained Transformer)
- GPTモデルの基本構造
 - Mixture of Experts
 
 
7章 APIを使ったAI開発
- 43 OpenAI APIの利用
- OpenAI API
 - OpenAI API利用上の注意
 
 - 44 テキスト生成API(Completion API等)
- テキスト生成APIの種類
 
 - 45 OpenAI APIの料金
- OpenAI APIのトークン
 - テキスト生成モデルの種類と料金
 - OpenAIトークナイザーライブラリtiktoken
 - 言語ごとのトークン数の違い
 
 - 46 テキスト生成APIに指定するパラメータ
- テキスト生成APIのパラメータ
 
 - 47 テキスト生成APIと外部ツールの連携〜Function Calling〜
- Function Calling
 - LangChainライブラリ
 - 機械可読化ツールとしてのFunction Calling
 
 - 48 埋め込みベクトル生成APIと規約違反チェックAPI
- 埋め込みベクトル生成(Embeddings)API
 - 埋め込みベクトル生成APIのモデルの種類
 - 規約違反チェック(Moderation)API
 
 - 49 OpenAI以外の大規模言語モデルAPIサービス
- Microsoft Azure OpenAI API
 - Google Vertex AI
 - Amazon Bedrock
 
 - 50 Retrieval Augmented Generation(RAG)
- 外部知識を使ったAIアプリケーションの開発
 - RAG(Retrieval Augmented Generation)
 
 
8章 大規模言語モデルの影響
- 51 生成AIのリスクとセキュリティ
- 生成AIによる悪影響
 - 生成AIの悪用
 - 生成AIが不適切な出力を行うリスク
 - 生成AIを使ったサービスへの攻撃
 - 対策とガイドライン
 
 - 52 AIの偏りとアライメント
- 学習データの偏りがAIに与える影響
 - AIの偏りを制御する方法
 
 - 53 ハルシネーション(幻覚)
- AIは間違える
 - ハルシネーションの正体
 - ハルシネーションの対策
 - ハルシネーションをなくせるか?
 
 - 54 AIの民主化
- AI利用の民主化
 - AI開発の民主化
 - ビッグテックの計算資源
 
 - 55 大規模言語モデルの多言語対応
- ChatGPTは何ヵ国語で使える?
 - 大規模言語モデルの言語間格差
 - 大規模言語モデルと認知・文化との関係
 
 - 56 AIと哲学
- 知能とは? 言語とは?
 - 中国語の部屋
 
 
プロフィール
中谷秀洋
サイボウズ・ラボ(株)所属。子供のころからプログラムと小説を書き、現在は機械学習や自然言語処理、LLMを中心とした研究開発に携わる。著書に『[プログラミング体感まんが]ぺたスクリプト ── もしもプログラミングできるシールがあったなら』『わけがわかる機械学習 ── 現実の問題を解くために、しくみを理解する』(ともに技術評論社)がある。