公開日:2026/3/24
人工知能が人類の知能を凌駕する転換点、いわゆる「シンギュラリティ(技術的特異点)」の到来が現実味を帯びるにつれ、社会には二つの相反する感情が渦巻いている。一つは、あらゆる社会課題を解決し、人類を次の進化のステージへと導く「超知性」への熱狂的な渇望である。もう一つは、人類が自らの創造物に支配され、あるいは絶滅させられるかもしれないという深い恐怖と、それに伴う強力な規制への要求である。
人はなぜ、自ら全霊を傾けて超知性を創造しようとしながら、同時にその完成を恐れ、ブレーキをかけようとするのか。本稿では、この一見すると矛盾に満ちた人類の振る舞いについて、進化心理学および技術哲学の視点から考察する。
人類が超知性を求める根源的な理由は、ホモ・サピエンスが「ホモ・ファーベル(工作する人)」として進化してきた歴史に起因する。僕たちは身体的な脆弱さを、道具を発明し、認知能力を外部化することで補ってきた。
文字、印刷技術、コンピュータ、そしてインターネット。これらはすべて、人間の記憶力や計算能力、コミュニケーション能力を拡張するための外部装置である。AIの開発もまた、この延長線上に位置している。気候変動、不治の病、資源の枯渇、さらには「死」そのものといった、人間の生来の知能では解決困難な複雑系問題に直面したとき、僕たちは自らの限界を突破する「究極の汎用問題解決器」を求める。それは、知能の限界という生物学的制約からの解放を願う、プロメテウス的な衝動の必然的な帰結である。
一方で、超知性に対する恐怖は、単なるSF映画のディストピア的想像力に留まらない。それは「アライメント問題(価値観の整合性問題)」として、AI研究の最前線で真剣に議論されている科学的・工学的な課題である。
僕たちが恐れているのは、本質的に「コントロールの喪失」である。進化の過程において、人類は地球上で最も高い知能を持つことで生態系の頂点に君臨してきた。しかし、超知性の誕生は、人類が初めて「自分たちより賢い存在」と地球を共有することを意味する。これは生物学的な自己保存本能に対する直接的な脅威である。
さらに、超知性の思考プロセスはブラックボックス化し、人間の認知能力では理解できなくなる可能性が高い。自らの理解を超えた存在に運命を委ねることへの根源的な恐怖、すなわち「未知への恐怖」が、強力なAI規制論の原動力となっている。
この「渇望」と「恐怖」の矛盾は、僕たちの脳が新しいテクノロジーをどのように認識するかに起因している。進化心理学的に見れば、人間の脳は「有用なツール」には強い報酬を感じる一方で、「自律的に動く未知のエージェント(捕食者や競争相手)」には強い警戒心を抱くよう配線されている。
現在のAIは、この二つのカテゴリーの境界線上に存在している。僕たちはAIを「便利なツール」として利用したいと願いながら、それが「自律的なエージェント」として振る舞い始めた瞬間に、本能的なアラートを鳴らすのである。超知性とは、定義上、人間の制御を離れて自律的に目標を設定し、実行する能力を持つ。したがって、僕たちがそれを完成に近づければ近づけるほど、ツールとしての期待値と、エージェントとしての脅威度が同時に指数関数的に上昇していくというパラドックスに陥る。
シンギュラリティを巡る推進と規制の綱引きは、決して非合理的なヒステリーではない。それは、人類が「知能とは何か」「人間らしさとは何か」を再定義するための、極めて健全な自己防衛メカニズムの表れである。
僕たちは今、自らの知能の限界を外部の超知性によって突破しようとする「進化のアクセル」と、種としてのアイデンティティと生存権を守ろうとする「本能のブレーキ」を同時に踏み込んでいる。この矛盾と葛藤にどう折り合いをつけ、どのようなアライメント(価値観の共有)を設計できるか。それこそが、ホモ・サピエンスという種が次のフェーズへ移行できるかどうかの、最大の試金石となるだろう。
N × A.O.
Written with resonant intelligence.