AIは“共感”か“妄想”か? ELIZAとPARRYの対比から見えるもの

はじめに:AI会話の原点を探る旅

いまやChatGPTやSiriといったAIと日常的に会話するのは当たり前になりました。
しかし「AIと人間の対話」の出発点を振り返ると、1960〜70年代に登場した二つのプログラムに行き着きます。

  • ELIZA(1966年):人間の話を「共感的に聞く」カウンセラー型AI
  • PARRY(1972年):被害妄想型統合失調症患者を模倣するAI

正反対の立ち位置にある二者は、実はどちらも「人間がAIに意味を投影してしまう」という共通の現象を引き起こしました。
本記事では、それぞれの仕組み・特徴・社会的影響を詳しく比較しながら、「AIと人間の関係の本質」を掘り下げます。


ELIZA:人間の“共感欲求”を映す人工無能

誕生と背景

1966年、MITのジョセフ・ワイゼンバウム教授が開発したプログラムがELIZAです。
当時のコンピュータは大型で計算資源も乏しく、自然言語処理は夢物語に近い分野でした。
そんな時代に「コンピュータと会話ができる」という実演は衝撃的でした。

技術的仕組み

ELIZAは非常にシンプルな仕組みで動作します。

  1. 入力文からキーワードを抽出する
  2. ルールベースで定型的な返答を選ぶ
  3. 文中に部分的な置換を行い返答を生成する

つまり「理解」ではなく「パターン処理」だけ。
しかし、ユーザーには“理解された気分”を与えました。

代表的なモード:カウンセラー

ELIZAの中でも有名なのが「ロジャリアン心理療法モード」です。
ユーザーが「母が心配」と言えば、「お母さんについて、もっと話してください」と返す。
ただの置換ですが、会話として成立してしまいます。

ELIZA効果

人間が勝手にAIに意味を見出してしまう現象は「ELIZA効果」と呼ばれます。
これは現代でも健在で、ChatGPTやSiriに「理解されている」と感じるのも同じ心理メカニズムに基づいています。


PARRY:人間の“妄想”を模倣する人工患者

誕生と背景

1972年、スタンフォード大学の精神科医ケネス・コルビーによって開発されたのがPARRYです。
目的は娯楽ではなく、精神疾患の理解や医療教育に役立てることでした。

技術的仕組み

ELIZAと異なり、PARRYは**内部状態(belief system)**を持っていました。

  • 「FBIに監視されている」
  • 「人は信用できない」
  • 「脅威が迫っている」

こうした固定的な妄想的信念を内部変数として保持し、会話のたびにそれを反映させて返答します。

会話例

  • ユーザー:「天気がいいですね」
  • PARRY:「天気なんて関係ない。やつらが俺を監視しているんだ」

日常的な話題ですら、すべて「不安」や「脅威」に引き寄せられるのが特徴です。

精神科医との実験

有名なのが「精神科医を相手にした対話実験」です。
テレタイプ端末を通じて会話を行い、医師たちは相手が「実在の患者」か「PARRY」かを判定しました。
結果、精神科医の半数近くがPARRYを本物の患者と誤認
これはELIZA以上にチューリングテスト的な衝撃を与えました。


ELIZAとPARRYの対比

共通点と相違点

両者を比較すると以下のようになります。

項目ELIZAPARRY
登場年1966年1972年
開発者J. ワイゼンバウムK. コルビー
役割カウンセラー統合失調症患者
技術ルールベース・置換内部状態モデル
印象安心・共感不安・妄想
社会的影響ELIZA効果を提示医師を欺くリアルさで議論に

メッセージの違い

  • ELIZA:人は「共感」を求める存在であり、AIにすらそれを感じてしまう
  • PARRY:AIは「妄想すら模倣」でき、人間の闇をも再現しうる

両者を並べることで、「人間らしさ」の多面性が浮かび上がります。


社会的インパクトと倫理的議論

ELIZAの場合

  • 人々はコンピュータに過剰な期待を抱いた
  • ワイゼンバウム自身は「AIは人の感情を理解できない」と警鐘を鳴らした
  • AIと人間の距離感を考える契機となった

PARRYの場合

  • 医療教育ツールとしての価値が注目された
  • 一方で「病を模倣すること」の倫理が問われた
    • 患者を矮小化する危険性
    • 偏見を助長するリスク
    • 本物との混同による混乱

どちらも、AIが人間に与える影響の大きさを浮き彫りにしました。


現代AIとの繋がり

ELIZAの系譜

現代のAIはユーザーを安心させるため、共感的・対話的なトーンを意識しています。これはまさにELIZAの思想を継いでいます。

PARRYの系譜

一方で、キャラクターAIや人格シミュレーションはPARRYに通じます。
AIに「性格」や「背景設定」を持たせ、一貫した応答をさせるのはPARRYが先駆けでした。

ChatGPTに見る融合

ChatGPTのような大規模言語モデルは、両者の特性を内包しています。

  • 共感的に寄り添う(ELIZAの流れ)
  • 一貫した人格を演じられる(PARRYの流れ)

つまり、現代のAIは「共感」と「妄想」の両側面を引き継いでいるのです。


まとめ:AIは人間の心を映す鏡

ELIZAとPARRYは、ともに“人間の心の投影先”として機能しました。

  • ELIZA → 人の共感欲求を映す鏡
  • PARRY → 人の不安や闇を映す鏡

どちらも高度なAIではありませんでしたが、50年以上経った今もAI倫理や社会への影響を考えるうえで重要な存在です。

AIは人間を理解しているのか?
それとも、人間がAIに自分自身を映しているだけなのか?

この問いは、半世紀前のELIZAとPARRYから現代のChatGPTにまで続く、永遠のテーマなのです。

PARRYについてはこちら

ELIZAについてはこちら

コメント

タイトルとURLをコピーしました