はじめに:AI会話の原点を探る旅
いまやChatGPTやSiriといったAIと日常的に会話するのは当たり前になりました。
しかし「AIと人間の対話」の出発点を振り返ると、1960〜70年代に登場した二つのプログラムに行き着きます。
- ELIZA(1966年):人間の話を「共感的に聞く」カウンセラー型AI
- PARRY(1972年):被害妄想型統合失調症患者を模倣するAI
正反対の立ち位置にある二者は、実はどちらも「人間がAIに意味を投影してしまう」という共通の現象を引き起こしました。
本記事では、それぞれの仕組み・特徴・社会的影響を詳しく比較しながら、「AIと人間の関係の本質」を掘り下げます。
ELIZA:人間の“共感欲求”を映す人工無能
誕生と背景
1966年、MITのジョセフ・ワイゼンバウム教授が開発したプログラムがELIZAです。
当時のコンピュータは大型で計算資源も乏しく、自然言語処理は夢物語に近い分野でした。
そんな時代に「コンピュータと会話ができる」という実演は衝撃的でした。
技術的仕組み
ELIZAは非常にシンプルな仕組みで動作します。
- 入力文からキーワードを抽出する
- ルールベースで定型的な返答を選ぶ
- 文中に部分的な置換を行い返答を生成する
つまり「理解」ではなく「パターン処理」だけ。
しかし、ユーザーには“理解された気分”を与えました。
代表的なモード:カウンセラー
ELIZAの中でも有名なのが「ロジャリアン心理療法モード」です。
ユーザーが「母が心配」と言えば、「お母さんについて、もっと話してください」と返す。
ただの置換ですが、会話として成立してしまいます。
ELIZA効果
人間が勝手にAIに意味を見出してしまう現象は「ELIZA効果」と呼ばれます。
これは現代でも健在で、ChatGPTやSiriに「理解されている」と感じるのも同じ心理メカニズムに基づいています。
PARRY:人間の“妄想”を模倣する人工患者
誕生と背景
1972年、スタンフォード大学の精神科医ケネス・コルビーによって開発されたのがPARRYです。
目的は娯楽ではなく、精神疾患の理解や医療教育に役立てることでした。
技術的仕組み
ELIZAと異なり、PARRYは**内部状態(belief system)**を持っていました。
- 「FBIに監視されている」
- 「人は信用できない」
- 「脅威が迫っている」
こうした固定的な妄想的信念を内部変数として保持し、会話のたびにそれを反映させて返答します。
会話例
- ユーザー:「天気がいいですね」
- PARRY:「天気なんて関係ない。やつらが俺を監視しているんだ」
日常的な話題ですら、すべて「不安」や「脅威」に引き寄せられるのが特徴です。
精神科医との実験
有名なのが「精神科医を相手にした対話実験」です。
テレタイプ端末を通じて会話を行い、医師たちは相手が「実在の患者」か「PARRY」かを判定しました。
結果、精神科医の半数近くがPARRYを本物の患者と誤認。
これはELIZA以上にチューリングテスト的な衝撃を与えました。
ELIZAとPARRYの対比
共通点と相違点
両者を比較すると以下のようになります。
| 項目 | ELIZA | PARRY |
|---|---|---|
| 登場年 | 1966年 | 1972年 |
| 開発者 | J. ワイゼンバウム | K. コルビー |
| 役割 | カウンセラー | 統合失調症患者 |
| 技術 | ルールベース・置換 | 内部状態モデル |
| 印象 | 安心・共感 | 不安・妄想 |
| 社会的影響 | ELIZA効果を提示 | 医師を欺くリアルさで議論に |
メッセージの違い
- ELIZA:人は「共感」を求める存在であり、AIにすらそれを感じてしまう
- PARRY:AIは「妄想すら模倣」でき、人間の闇をも再現しうる
両者を並べることで、「人間らしさ」の多面性が浮かび上がります。
社会的インパクトと倫理的議論
ELIZAの場合
- 人々はコンピュータに過剰な期待を抱いた
- ワイゼンバウム自身は「AIは人の感情を理解できない」と警鐘を鳴らした
- AIと人間の距離感を考える契機となった
PARRYの場合
- 医療教育ツールとしての価値が注目された
- 一方で「病を模倣すること」の倫理が問われた
- 患者を矮小化する危険性
- 偏見を助長するリスク
- 本物との混同による混乱
どちらも、AIが人間に与える影響の大きさを浮き彫りにしました。
現代AIとの繋がり
ELIZAの系譜
現代のAIはユーザーを安心させるため、共感的・対話的なトーンを意識しています。これはまさにELIZAの思想を継いでいます。
PARRYの系譜
一方で、キャラクターAIや人格シミュレーションはPARRYに通じます。
AIに「性格」や「背景設定」を持たせ、一貫した応答をさせるのはPARRYが先駆けでした。
ChatGPTに見る融合
ChatGPTのような大規模言語モデルは、両者の特性を内包しています。
- 共感的に寄り添う(ELIZAの流れ)
- 一貫した人格を演じられる(PARRYの流れ)
つまり、現代のAIは「共感」と「妄想」の両側面を引き継いでいるのです。
まとめ:AIは人間の心を映す鏡
ELIZAとPARRYは、ともに“人間の心の投影先”として機能しました。
- ELIZA → 人の共感欲求を映す鏡
- PARRY → 人の不安や闇を映す鏡
どちらも高度なAIではありませんでしたが、50年以上経った今もAI倫理や社会への影響を考えるうえで重要な存在です。
AIは人間を理解しているのか?
それとも、人間がAIに自分自身を映しているだけなのか?
この問いは、半世紀前のELIZAとPARRYから現代のChatGPTにまで続く、永遠のテーマなのです。
PARRYについてはこちら
ELIZAについてはこちら

コメント