エンジニア選書 LLMの原理、RAG・エージェント開発から読み解く コンテキストエンジニアリング

「LLMの原理、RAG・エージェント開発から読み解く コンテキストエンジニアリング」のカバー画像
著者
蒲生弘郷がもうひろさと 著
定価
3,300円(本体3,000円+税10%)
発売日
2026.2.10
判型
B5変形
頁数
240ページ
ISBN
978-4-297-15419-6

概要

大規模言語モデル(LLM)へ与える、プロンプトを含む多様な入力情報である「コンテキスト」。LLMの挙動を健全にコントロールするために、どんなコンテキストを構築するか――限られた入力領域において、何を与え、何を捨て、どのようにして良いコンディションを保つのか――この技術の総体が「コンテキストエンジニアリング」であり、LLM活用を目指すエンジニアが知るべき最重要トピックです。本書では、AIモデルの基礎の仕組みやAPIの挙動をコンテキストの観点から順にひも解き、RAG(Retrieval-Augmented Generation)やAIエージェントなど実践的な開発において発生し得るコンテキストエンジニアリングのテクニックを存分に紹介します。

こんな方にオススメ

  • LLMアプリケーションの開発に興味のあるITエンジニア

目次

第1章 LLMの仕組みから見るコンテキストの正体

  • 1.1 LLMの動作を知る意義
  • 1.2 LLMを構成するニューラルネットワークの基本
    • 1.2.1 ニューラルネットワークの歴史
    • 1.2.2 機械学習における基本的な考え方
    • 1.2.3 推論の呼称について
    • 1.2.4 機械学習における学習の流れ
  • 1.3 LLMによるトークン生成のしくみ
    • 1.3.1 ニューラルネットワークの強力な応用「Transformer」
    • 1.3.2 LLMのベースとなるTransformerにおけるデコーダ
    • 1.3.3 LLMによるトークン生成における処理の概要
  • 1.4 対話型LLMに施された工夫や注意点
    • 1.4.1 ロール指定による振る舞いの切り替え
    • 1.4.2 応答例への追従性
    • 1.4.3 入力テキストの位置による認識精度の差(Lost in the Middle)
    • 1.4.4 過去会話の揮発性
    • 1.4.5 言語間の性能格差
  • 1.5 Reasoningモデルの進化へ
    • 1.5.1 Reasoningモデルの登場経緯
    • 1.5.2 Reasoningモデル特有の挙動
  • 1.6 まとめ

第2章 APIサービス利用におけるコンテキストの扱いと基礎機能

  • 2.1 LLMのAPIサービスの概要
  • 2.2 LLMベンダーが直接提供するAPIサービス
    • 2.2.1 OpenAI API
    • 2.2.2 Claude API
    • 2.2.3 Google AI Studio
    • 2.2.4 その他のLLMベンダー提供API
  • 2.3 クラウドベンダーが提供するAPIサービス
    • 2.3.1 Azure OpenAI Service (Microsoft Foundry)
    • 2.3.2 Amazon Bedrock
    • 2.3.3 Google Cloud Vertex AI
  • 2.4 APIやモデルの選定基準
    • 2.4.1 回答品質の判断
    • 2.4.2 コストの考え方
    • 2.4.3 コンテキストキャッシュの有無
    • 2.4.4 コンテキストウィンドウの大きさ
    • 2.4.5 モダリティの種類
    • 2.4.6 コンテンツフィルター機能の有無や種類
    • 2.4.7 組み込みツールの種類と性能
    • 2.4.8 その他の着目すべき機能
  • 2.5 APIの基本的な使い方
    • 2.5.1 APIキーの取得
    • 2.5.2 APIクライアントのセットアップ
    • 2.5.3 APIリクエストの基礎とコンテキストとの関係
    • 2.5.4 レスポンスの取り扱い
  • 2.6 LLMによるツール利用
    • 2.6.1 Function Callingを使ったツール利用
    • 2.6.2 Model Context Protocol(MCP)を通じたツール利用65
    • 2.6.3 API組み込みのツール利用
    • 2.6.4 組み込みツール使用のリクエスト
  • 2.7 出力スキーマの固定化
    • 2.7.1 LLMによる構造化出力の必要性
    • 2.7.2 Sturctured Outputの概要
    • 2.7.3 Structured Outputの例
  • 2.8 Function CallingとStructured Output使用時のテクニック
    • 2.8.1 パラメータ出力の精度の向上のアイデア
    • 2.8.2 出力順序の意識
  • 2.9 コンテキストキャッシュの仕組み

第3章 指示プロンプト開発の基礎

  • 3.1 前提となるリファレンス
  • 3.2 指示プロンプト開発時に把握しておくべき全体指針
    • 3.2.1 曖昧語の排除、具体性・再現性の確保
    • 3.2.2 英語の使用
    • 3.2.3 否定形を避ける
    • 3.2.4 指示を矛盾させない
    • 3.2.5 複数項目の指示・出力はなるべく避ける
    • 3.2.6 重要な情報は冒頭に書く
    • 3.2.7 HowよりWhatを重視する
  • 3.3 指示プロンプトの記述に活用される記法
    • 3.3.1 ベースとなる記法Markdown
    • 3.3.2 XMLライクなタグの活用
    • 3.3.3 複雑な結合や入れ子の表現で活躍するHTML
    • 3.3.4 柔軟なデータ表現や出力に用いるJSON
    • 3.3.5 可読性が高くトークン消費が少ないYAML
  • 3.4 指示プロンプトの基本構造
    • 3.4.1 Role
    • 3.4.2 Task
    • 3.4.3 Input
    • 3.4.4 Output Format
    • 3.4.5 Guidelines
    • 3.4.6 Prohibited Actions
    • 3.4.7 Timestamp・User Informationなど
    • 3.4.8 Knowledge Base
    • 3.4.9 Example
  • 3.5 指示プロンプトの管理
  • 3.6 指示プロンプトの精度向上の技法
    • 3.6.1 Few-Shot Prompting
    • 3.6.2 モデルから得るコンテキストを活用するChain of Thought

第4章 RAGにおけるコンテキスト整備

  • 4.1 RAGとは
  • 4.2 検索エンジン関連用語の整理
  • 4.3 RAGの全体のフロー
  • 4.4 RAGを使うかどうかの判断
  • 4.5 RAGで用いられる基盤技術
    • 4.5.1 フルテキスト検索
    • 4.5.2 ベクトル検索
    • 4.5.3 ハイブリッド検索
    • 4.5.4 リランク
    • 4.5.5 取得結果のデータの構成
  • 4.6 検索を伴うRAGの精度向上のための工夫
    • 4.6.1 実務で見るべきチューニングポイント
    • 4.6.2 検索エンジンの選定と設定
    • 4.6.3 適切なクエリの作成
    • 4.6.4 ファイル形式ごとのテキスト抽出方法
    • 4.6.5 中間生成テキストの作り方の基本
    • 4.6.6 インデックス化(チャンク・検索対象テキストの抽出)
    • 4.6.7 RAGの監視・評価の重要性
  • 4.7 その他の話題
    • 4.7.1 高度なRAG手法に本書で触れない理由
    • 4.7.2 CAGという選択肢
    • 4.7.3 MCPの活用によるRAGの再利用
    • 4.7.4 マネージドRAGによるコンテキスト取得
    • 4.7.5 データを知識グラフ化して参照するGraph RAG

第5章 AIエージェント×ワークフローによる作業自動化

  • 5.1 AIエージェントはなぜ注目されたのか
    • 5.1.1 チャットUIのLLMアプリケーションの問題点
    • 5.1.2 市場におけるAIエージェントへの期待
    • 5.1.3 最も簡単なAI エージェント―――プロンプトベースエージェント
    • 5.1.4 プロンプトベースエージェントの限界
    • 5.1.5 AIエージェントの精度低下の根本原因と対策
  • 5.2 ワークフロー化によるコンテキストの分散
    • 5.2.1 ルールベース処理
    • 5.2.2 シンプルなAI/ML処理
    • 5.2.3 AIエージェント
    • 5.2.4 ワークフロー化の注意点と弊害
  • 5.3 市場が期待した「AIエージェント」の正体
  • 5.4 エージェントワークフローに関連するリファレンス
  • 5.5 具体例を見ながらエージェントワークフロー設計を学ぶ
    • 5.5.1 AIエージェントの本書での取り扱い
    • 5.5.2 サンプルシナリオの概要
    • 5.5.3 自動化対象フローの整理
    • 5.5.4 エージェントワークフローにおけるUX/UI
    • 5.5.5 プロンプトベースエージェントのコンテキスト開発
    • 5.5.6 コンテキスト削減のためのワークフロー化へ
  • 5.6 コンテキスト肥大化に伴うその他の課題と対策
    • 5.6.1 ツール定義の肥大化
    • 5.6.2 ターン経過によって肥大化するコンテキスト
    • 5.6.3 コンテキストによるコスト増大への対策

プロフィール

蒲生弘郷がもうひろさと

外資系IT企業所属のクラウドソリューションアーキテクト、エバンジェリスト。上智大学大学院 応用データサイエンス学位プログラム 非常勤講師。大手システムインテグレーターにてキャリアをスタート。社会インフラ関連領域のデータサイエンティストとしての活動、ブロックチェーンを活用した異業種間データ流通サービスの立ち上げなどを経て現職へ。ChatGPTの登場した2022年以来、Azure OpenAI Serviceなどを使ったLLMアプリケーションの構築支援・アドバイザリーおよび技術情報の発信に従事。「ChatGPT - Azure OpenAI大全」などの資料が「2023 Most Viewed Deck 25」に選出。共著に『Azure OpenAI ServiceではじめるChatGPT/LLMシステム構築入門』。

X@hiro_gamo