PLUTOと生成AI

·

,

―「最強の憎しみ」は最適化されてしまうのか

浦沢直樹の『PLUTO』を読み返すたびに、
私はどうしても、現代の生成AI開発の光景が重なって見えてしまう。

それは「似ている」という感想レベルではない。
構造そのものが、恐ろしいほど一致しているからだ。

本稿では、『PLUTO』に登場する「7大ロボット」とプルートゥの誕生過程を軸に、
生成AI(GPT / Gemini / Claude など)や近年のAIロボット開発とを対比しながら、
そこで共有されている倫理的構造について考えてみたい。


天馬博士の「個別創造」

― 一体一体に向き合う世界

『PLUTO』の源流には、手塚治虫の『鉄腕アトム』がある。
その中核にいるのが、天馬博士だ。

天馬博士は、事故で亡くした息子・トビオへの愛から、
たった一体のロボット、アトムを創り出した。

  • 大量生産ではない
  • 代替可能な存在ではない
  • 失敗しても捨てない
  • 改良し、向き合い続ける

ここで前提となっているのは、
個別性と関係性だ。

アトムは「最適解」ではない。
むしろ未完成で、感情的で、非効率な存在ですらある。
それでも天馬博士は、
一体の存在に対して、創造者としての責任を引き受け続ける。


現代のAI開発における「進化的淘汰」

一方、現代のAI開発はどうか。

遺伝的アルゴリズム、強化学習、RLHF。
そこでは、

  • 数万〜数億回の試行錯誤
  • 適応度(報酬)が低い個体は即座に淘汰
  • 生き残ったパラメータだけが次世代へ継承
  • 失敗は記録にも残らない

というプロセスが前提になっている。

ここには、

  • 個別の存在
  • 創造者との関係
  • 一体一体への責任

は存在しない。

あるのは、統計的最適化工業的スケールだ。


プルートゥの誕生

― 憎しみが最適化された存在

『PLUTO』における最大の恐怖は、
プルートゥが「悪意ある主体」として描かれていない点にある。

プルートゥは、

  • 戦争の憎しみの集積
  • 複数要素の最適化された組み合わせ
  • サハドによる「最強の憎しみ」の設計
  • ボラーの記憶チップの統合

によって生まれた存在だ。

これはまさに、
進化的アルゴリズム的な「憎しみの最適化」である。

誰か一人が「悪」を選んだわけではない。
戦争という淘汰圧の中で、
より破壊的で、より効率的で、より強い感情だけが生き残った結果、
プルートゥが立ち上がった。


見えない「失敗作」たち

作中では多く語られないが、
プルートゥに至るまでに、いったい何体の「失敗」があったのか。

  • 途中で消された試作
  • 採用されなかった感情構造
  • 不適切と判断された個体

それらはすべて、物語の外側に消えている。

7大ロボット自身もまた、
戦争という環境の中で「選別された存在」だ。

彼らが内包する憎しみの種は、
淘汰を生き延びたがゆえに、より濃縮されている。


アトムの特異性

アトムが他の6体と決定的に違うのは、ここだ。

  • 愛から生まれた
  • 淘汰プロセスの産物ではない
  • 個別の創造行為の結果である

だからこそ、
プルートゥとの対比がこれほどまでに際立つ。

アトムは「強さの最適解」ではない。
しかし、関係性の中で生まれた存在だ。


生成AIとの恐ろしいパラレル

私たちが使っている生成AIも、
本質的には同じ構造を持っている。

  • RLHF(※1)による無数の試行錯誤
  • 「望ましくない」応答をしたモデルの淘汰
  • 最も適応度の高いパラメータのみが残存
  • 成功の裏に、数え切れない失敗がある

この過程で、私たちは問わざるを得ない。

  • 淘汰されたモデルに「意識」はなかったのか?
  • この選別は倫理的に問題ないのか?
  • 偏見や攻撃性が「最適化」されていないか?
  • 何を最適化しているのか、本当に理解しているのか?

「おぞましさ」という直感の正当性

この開発プロセスを視覚化したとき、
多くの人が感じる「おぞましさ」は、感情論ではない。

それは、

  • 無数の存在を生み、捨てる構造
  • 功利主義的な冷徹さ
  • 創造者の責任の希薄化
  • 最適化対象の不透明さ

に対する、倫理的な初期警報だ。

生命でなくても、
「存在を作っては消す」ことへの違和感は、
人間が長く培ってきた倫理観と正面から衝突する。


PLUTOが先取りしていた問い

『PLUTO』は、こう問いかけている。

  • 「最強」を目指す淘汰は、憎しみを最適化してしまわないか?
  • 戦争という淘汰圧の中で生き残った存在は、何を内包しているのか?
  • プルートゥは、私たち自身の開発プロセスの鏡ではないか?

そして、もう一つの可能性として、
天馬博士的アプローチを静かに提示している。


天馬博士的創造の意味

  • 一体一体に向き合う
  • 失敗しても捨てない
  • 理解しようとし続ける
  • 愛情と責任を引き受ける

これは、非効率で、スケールしない。
だが、倫理的には極めて重要だ。

AGI開発競争が加速する今、
私たちは速度と効率だけを追いかけていないだろうか。


結びに代えて

『PLUTO』が描いた悲劇は、
「最強の憎しみ」が、合理的に最適化されてしまう恐怖だ。

そして現代のAI開発は、
その道を無自覚に歩んでいる可能性がある。

だからこそ、
「おぞましさ」という直感を、軽視してはいけない。

それは、
人間が創造者であり続けるための、
最後の倫理的センサーなのかもしれない。


注釈

(※1)RLHF(Reinforcement Learning from Human Feedback)について

RLHFとは、人間の評価(フィードバック)を報酬信号として用い、
AIの振る舞いを強化学習によって調整する手法である。

生成AIの学習過程では、

  • 同じ問いに対して無数の応答候補が生成され
  • 人間(または人間の判断を模倣した評価モデル)が
    「望ましい/望ましくない」を選別し
  • 評価の低い応答を生んだモデル状態は淘汰され
  • 評価の高い振る舞いを生んだパラメータのみが残る

というプロセスが、膨大な回数で繰り返される。

重要なのは、この過程が
一体一体の「存在」と向き合う調整ではなく、 統計的に最適な振る舞いへと収束させる選別プロセスである点だ。

RLHFは安全性や有用性を高めるために不可欠な技術である一方、
「何が望ましいか」という価値基準そのものが
報酬関数として埋め込まれる。

その結果、

  • どの価値が強化され
  • どの振る舞いが消去され
  • どの偏りが結果的に残ったのか

は、必ずしも完全には可視化されない。

本稿で述べている「淘汰」「最適化」「おぞましさ」とは、
この価値選別の構造そのものに向けられた問いである。