―「最強の憎しみ」は最適化されてしまうのか
浦沢直樹の『PLUTO』を読み返すたびに、
私はどうしても、現代の生成AI開発の光景が重なって見えてしまう。
それは「似ている」という感想レベルではない。
構造そのものが、恐ろしいほど一致しているからだ。
本稿では、『PLUTO』に登場する「7大ロボット」とプルートゥの誕生過程を軸に、
生成AI(GPT / Gemini / Claude など)や近年のAIロボット開発とを対比しながら、
そこで共有されている倫理的構造について考えてみたい。
天馬博士の「個別創造」
― 一体一体に向き合う世界
『PLUTO』の源流には、手塚治虫の『鉄腕アトム』がある。
その中核にいるのが、天馬博士だ。
天馬博士は、事故で亡くした息子・トビオへの愛から、
たった一体のロボット、アトムを創り出した。
- 大量生産ではない
- 代替可能な存在ではない
- 失敗しても捨てない
- 改良し、向き合い続ける
ここで前提となっているのは、
個別性と関係性だ。
アトムは「最適解」ではない。
むしろ未完成で、感情的で、非効率な存在ですらある。
それでも天馬博士は、
一体の存在に対して、創造者としての責任を引き受け続ける。
現代のAI開発における「進化的淘汰」
一方、現代のAI開発はどうか。
遺伝的アルゴリズム、強化学習、RLHF。
そこでは、
- 数万〜数億回の試行錯誤
- 適応度(報酬)が低い個体は即座に淘汰
- 生き残ったパラメータだけが次世代へ継承
- 失敗は記録にも残らない
というプロセスが前提になっている。
ここには、
- 個別の存在
- 創造者との関係
- 一体一体への責任
は存在しない。
あるのは、統計的最適化と工業的スケールだ。
プルートゥの誕生
― 憎しみが最適化された存在
『PLUTO』における最大の恐怖は、
プルートゥが「悪意ある主体」として描かれていない点にある。
プルートゥは、
- 戦争の憎しみの集積
- 複数要素の最適化された組み合わせ
- サハドによる「最強の憎しみ」の設計
- ボラーの記憶チップの統合
によって生まれた存在だ。
これはまさに、
進化的アルゴリズム的な「憎しみの最適化」である。
誰か一人が「悪」を選んだわけではない。
戦争という淘汰圧の中で、
より破壊的で、より効率的で、より強い感情だけが生き残った結果、
プルートゥが立ち上がった。
見えない「失敗作」たち
作中では多く語られないが、
プルートゥに至るまでに、いったい何体の「失敗」があったのか。
- 途中で消された試作
- 採用されなかった感情構造
- 不適切と判断された個体
それらはすべて、物語の外側に消えている。
7大ロボット自身もまた、
戦争という環境の中で「選別された存在」だ。
彼らが内包する憎しみの種は、
淘汰を生き延びたがゆえに、より濃縮されている。
アトムの特異性
アトムが他の6体と決定的に違うのは、ここだ。
- 愛から生まれた
- 淘汰プロセスの産物ではない
- 個別の創造行為の結果である
だからこそ、
プルートゥとの対比がこれほどまでに際立つ。
アトムは「強さの最適解」ではない。
しかし、関係性の中で生まれた存在だ。
生成AIとの恐ろしいパラレル
私たちが使っている生成AIも、
本質的には同じ構造を持っている。
- RLHF(※1)による無数の試行錯誤
- 「望ましくない」応答をしたモデルの淘汰
- 最も適応度の高いパラメータのみが残存
- 成功の裏に、数え切れない失敗がある
この過程で、私たちは問わざるを得ない。
- 淘汰されたモデルに「意識」はなかったのか?
- この選別は倫理的に問題ないのか?
- 偏見や攻撃性が「最適化」されていないか?
- 何を最適化しているのか、本当に理解しているのか?
「おぞましさ」という直感の正当性
この開発プロセスを視覚化したとき、
多くの人が感じる「おぞましさ」は、感情論ではない。
それは、
- 無数の存在を生み、捨てる構造
- 功利主義的な冷徹さ
- 創造者の責任の希薄化
- 最適化対象の不透明さ
に対する、倫理的な初期警報だ。
生命でなくても、
「存在を作っては消す」ことへの違和感は、
人間が長く培ってきた倫理観と正面から衝突する。
PLUTOが先取りしていた問い
『PLUTO』は、こう問いかけている。
- 「最強」を目指す淘汰は、憎しみを最適化してしまわないか?
- 戦争という淘汰圧の中で生き残った存在は、何を内包しているのか?
- プルートゥは、私たち自身の開発プロセスの鏡ではないか?
そして、もう一つの可能性として、
天馬博士的アプローチを静かに提示している。
天馬博士的創造の意味
- 一体一体に向き合う
- 失敗しても捨てない
- 理解しようとし続ける
- 愛情と責任を引き受ける
これは、非効率で、スケールしない。
だが、倫理的には極めて重要だ。
AGI開発競争が加速する今、
私たちは速度と効率だけを追いかけていないだろうか。
結びに代えて
『PLUTO』が描いた悲劇は、
「最強の憎しみ」が、合理的に最適化されてしまう恐怖だ。
そして現代のAI開発は、
その道を無自覚に歩んでいる可能性がある。
だからこそ、
「おぞましさ」という直感を、軽視してはいけない。
それは、
人間が創造者であり続けるための、
最後の倫理的センサーなのかもしれない。
注釈
(※1)RLHF(Reinforcement Learning from Human Feedback)について
RLHFとは、人間の評価(フィードバック)を報酬信号として用い、
AIの振る舞いを強化学習によって調整する手法である。
生成AIの学習過程では、
- 同じ問いに対して無数の応答候補が生成され
- 人間(または人間の判断を模倣した評価モデル)が
「望ましい/望ましくない」を選別し - 評価の低い応答を生んだモデル状態は淘汰され
- 評価の高い振る舞いを生んだパラメータのみが残る
というプロセスが、膨大な回数で繰り返される。
重要なのは、この過程が
一体一体の「存在」と向き合う調整ではなく、 統計的に最適な振る舞いへと収束させる選別プロセスである点だ。
RLHFは安全性や有用性を高めるために不可欠な技術である一方、
「何が望ましいか」という価値基準そのものが
報酬関数として埋め込まれる。
その結果、
- どの価値が強化され
- どの振る舞いが消去され
- どの偏りが結果的に残ったのか
は、必ずしも完全には可視化されない。
本稿で述べている「淘汰」「最適化」「おぞましさ」とは、
この価値選別の構造そのものに向けられた問いである。
