第1章 AIを「魔法」ではなく「系」として見る

1.1 同じAIなのに、答えの質が変わる

ある実験データがある。たとえば、温度と時間の測定表だとしよう。この表を AI に渡して「説明してください」と頼むとする。

1回目の指示はこうである。

この結果を短く説明してください。

AI は何か返す。だが、返ってきた文章は焦点が定まらず、何を伝えたいのかはっきりしない。

2回目は指示を変える。

次の順に100字で説明してください。目的 → 観測された特徴 → 考えられる理由 → 結論。

今度の出力は、同じ AI であるにもかかわらず、格段にまとまりがよい。

ここで問いを立てる。2回目のほうが良くなったのは、AI の能力が上がったからか。それとも、与えた条件が変わったからか。

答えは後者である。AI 自体は同じままで、入力の構造が変わった。この事実が、本書全体を貫く出発点になる。

1.2 AIをブラックボックスとして見る

物理では、ある装置の内部構造がわからなくても、入力と出力の関係を調べることで装置の振る舞いを記述できる。これをブラックボックスの見方と呼ぶ。

AI にも同じ見方を適用する。AI の内部——ニューラルネットワークの重みやアーキテクチャ——には立ち入らず、外から観測できる関係だけで振る舞いを記述する。

最も簡潔に書けば、次の式になる。

\[ \text{出力} = f(\text{入力}, \text{状態}) \]

ここで各項の意味は以下の通りである。

  • 入力:人間が与える指示、質問、資料、データ
  • 状態:AI がすでに保持している情報。会話履歴、前回の応答、事前に読み込まれたルールなど
  • 出力:AI が返す文章、提案、要約、行動指示

この式は厳密な数理モデルではない。AI の出力には確率的な揺らぎがあるし、内部の仕組みはこの式よりはるかに複雑である。本書ではモデル自体は固定されている前提で議論する。この式は、その前提のもとで「AI の振る舞いは入力と状態の組み合わせで決まる」という見方を簡潔に表したものであり、以降のすべての章で使う基盤になる。

ノート補足:\(f(x)\) の記法について

\(f(\text{入力}, \text{状態})\) は「入力と状態を受け取り、出力を返す対応関係」を表す記法である。高校数学の \(y = f(x)\) と同じ発想で、ここでは入力が2つに増えただけと考えてよい。

ここで重要なのは、この式が示す因果の向きである。出力の質を変えたければ、AI そのものを取り替えるのではなく、入力と状態を設計すればよい。これが本書の基本姿勢である。

1.3 物理との対応づけ

物理で馴染みのある概念と、AI の要素を対応づけると、見通しが良くなる。

表 1: AI と物理実験の対応表
物理の概念 AI における対応
外力・境界条件 入力(指示、資料) 「100字で要約せよ」という指示
系の状態 内部状態(会話履歴、ルール) 前回のやり取りで決めた方針
測定値・応答 出力(文章、提案) AI が返す要約文
実験条件の調整 再質問、制約の追加、道具の変更 「表形式で」と条件を足す
測定の不確かさ 出力の揺らぎ 同じ入力でも毎回わずかに異なる出力

この対応が教えるのは、AI の出来不出来は AI 単体ではなく、与えた条件との組み合わせで決まるということである。物理で同じ装置でも初期条件が違えば結果が変わるように、AI も条件次第で出力が変わる。

ここで一つ注意がある。AI を擬人化しすぎないことが重要である。「AI がわかってくれるはず」と考え始めると、条件設計の責任が曖昧になる。本書では設計上の便宜として、AI を理解する主体としてではなく、条件に応じて応答する系として扱う。この区別は、本書を通じて繰り返し使う。

1.4 AIが失敗する典型パターン

AI に仕事を頼んで「期待通りにならなかった」とき、多くの人は「AI がダメだった」と結論づける。しかし、失敗の原因を分解すると、AI の能力不足は原因の一部に過ぎないことがわかる。

ここでは、AI の失敗を5つのパターンに分類する。

A. 目的が曖昧

「いい感じにまとめて」のような指示は、何が「いい感じ」なのかが定義されていない。AI は何かを返すが、人間の期待とずれやすい。物理でいえば、測定対象を決めずに装置を動かすようなものである。

B. 必要な情報が足りない

対象読者、字数制限、締切、前提知識が入力に含まれていない。AI は不足情報を推測で埋めるが、その推測が正しい保証はない。

C. 途中の状態を保持していない

長い課題で、前に決めた方針を AI が「忘れる」ように見える場合がある。これは AI の記憶力の問題というより、状態管理の設計が不足している問題である。この点は第6章で詳しく扱う。

D. 評価基準がない

「正しい」「十分」の判定基準が与えられていないと、AI は出力のどこを改善すべきか判断できない。人間も確認のしようがない。

E. 人間の確認点がない

出力をそのまま提出・送信してしまう運用では、AI の誤りがそのまま外部に出る。最終確認の設計がないこと自体が失敗の原因である。

重要AI の失敗は「能力不足」だけではない

失敗の5パターンのうち、AI 自体の能力に帰属できるのはごく一部である。残りは、入力の設計、状態の管理、評価基準の設定、人間の確認体制——つまり条件設計の不足である。物理実験に置き換えれば、実験計画書の粗さに似ている。

1.5 本書で学ぶこと

ここまでで、AI を「入力・状態・出力をもつ系」として見る準備ができた。では、この系を安定して働かせるには何が必要か。本書は12章をかけて、その答えを組み立てる。

全体像を先に示しておく。

第I部(第1〜6章):1体のAIを安定させる

  • 第1章(本章):AI を系として見る
  • 第2章:反復して仕事する構造(エージェントループ)を理解する
  • 第3章:AI に道具(tool)を持たせる
  • 第4章:作業計画と状態管理を設計する
  • 第5章:必要な知識を必要なときだけ参照する仕組みを作る
  • 第6章:長い作業で文脈が溢れる問題に対処する

第II部(第7〜11章):複数のAIを協調させる

  • 第7章:役割分担(サブエージェント)で文脈の衝突を減らす
  • 第8章:仕事の依存関係を設計し、並列化する
  • 第9章:AI 同士の連絡を構造化する
  • 第10章:共有ルールの中で自分で仕事を見つけるAI
  • 第11章:並列作業の干渉を防ぐ

第III部(第12章):安全と責任

  • 第12章:権限設計、安全統制、倫理、人間の最終責任

本書の背景にある考え方は、「モデルがエージェント(agent)であり、コードはハーネス(harness)である」というものである。ハーネスとは、もともと馬や盲導犬につける「装具」のことである。馬そのものの力を変えるわけではないが、手綱や轡(くつわ)を通じて、力の向きや速さを人間が制御する。AI におけるハーネスもこれと同じ発想で、AI の外側から、道具・計画・知識・権限などを通じて振る舞いを制御する仕組みを指す。AI の賢さはモデル側にある。我々が設計すべきなのは、そのモデルが安定して仕事できるようにする外側の仕組み——道具、計画、知識、文脈管理、役割分担、権限——のほうである。本書はこの「外側の設計」を学ぶ教材である。

演習:AIを系として分解する

形式:3〜4人グループ、20分

以下の仕事から1つを選ぶ(または自分で設定してよい)。

  • 実験レポートの要約
  • 文化祭ポスターのたたき台作成
  • プレゼン発表の構成案作成
  • 就職活動の自己紹介文の下書き

各グループは次のワークシートを埋める。

表 2: 演習用ワークシート
項目 内容
目的 AI に何をさせたいか
入力 最初に与える情報は何か
状態 途中で保持すべきことは何か
出力 何が出てくれば成功か
外部道具 必要な資料、検索、表、ファイルは何か
人間の確認点 最後に誰が何を確認するか
失敗しやすい点 どこでズレるか

観察のポイント

  • 「入力」しか書かず「状態」を忘れる学生が多い
  • 「出力」が曖昧なまま進める学生も多い
  • 「人間の確認点」を最初から入れられるかが、この章の理解を測る指標になる

各グループ1分で共有し、教員は「目的・状態・確認点」が明確なグループを拾って講評する。

章末課題

課題:「AIを1つの系として設計するシート」を作成する

自分の学生生活・専門学習に関わる仕事を1つ選び、A4 1枚でまとめよ。

必須項目

  1. 仕事の名前
  2. AI に任せたい部分
  3. 入力
  4. 途中で保持すべき情報
  5. 出力
  6. 必要な外部道具
  7. 失敗リスク
  8. 最終的に人間が責任を持つ点

提出形式:図と300〜500字の説明文

評価観点

  • 構造が \(\text{出力} = f(\text{入力}, \text{状態})\) の枠で整理されているか
  • リスクが具体的か
  • 人間の役割が抜けていないか

第1章のまとめ

本章では、AI を「魔法の箱」でも「高性能な検索装置」でもなく、入力と状態に応じて出力を返す系として捉える見方を導入した。

要点を整理する。

  1. AI の出力は、入力と状態の組み合わせで決まる:\(\text{出力} = f(\text{入力}, \text{状態})\)
  2. 同じ AI でも、条件設計が変われば出力の質は変わる
  3. AI の失敗は「能力不足」だけでなく、条件設計の不足として分類できる
  4. 条件設計の責任は人間にある
  5. 本書は、AI を安定して働かせる「外側の設計」を学ぶ教材である

次の第2章では、AI が単発の応答ではなく、反復して仕事を進める構造——エージェントループ——を導入する。「考えて、道具を使って、結果を見て、また考える」。この繰り返しが、AI を「チャット相手」から「仕事をする存在」に変える核心である。