本連載「松岡功の『今週の明言』」では毎週、ICT業界のキーパーソンたちが記者会見やイベントなどで明言した言葉を幾つか取り上げ、その意味や背景などを解説している。
今回は、Eurasia Group創業社長で国際政治学者のIan Bremmer氏と、トレンドマイクロ セキュリティエバンジェリストの岡本勝之氏の「明言」を紹介する。
「2025年は“制御不能なAI”がもたらすリスクが増大する」
(Eurasia Group創業社長で国際政治学者のIan Bremmer氏)

Eurasia Group創業社長で国際政治学者のIan Bremmer氏
地政学リスクを専門とする米コンサルティング会社Eurasia Group(ユーラシア・グループ)の創業社長で国際政治学者のIan Bremmer(イアン・ブレマー)氏は、同社が先頃発表した2025年の世界の「10大リスク」レポートの中で、その1つとして「制御不能なAI」を挙げて上記のように述べた。Bremmer氏のAIについて強い警鐘がもっと周知されるようにしたいと思い、明言として取り上げた。
10大リスクの内容については発表資料をご覧いただくとして、ここではその8つ目に挙げられた「制御不能なAI」についてエッセンスを紹介したい。なお、Eurasia Groupのウェブサイトでは、これらのリスクについてBremmer氏が解説している動画も公開している(図1)。

(図1)2025年の世界の「10大リスク」8つ目の英語表記(出典:Eurasia Groupのウェブサイト)
「2025年にAIの能力と性能はさらに向上し、新たなモデルは自律的に行動し、自己複製を作り出し、人間と機械の境界をさらに曖昧にするだろう。しかし、ほとんどの政府が規制を緩和する方向を選択し、国際協力が進まない中、“制御不能なAI”がもたらすリスクと2次的被害が増大するだろう」
こう切り出したBremmer氏は、現状認識について次のように述べた。
「2年足らず前には、AI研究の第一人者たちがAI開発の6カ月間停止を呼びかけ、世界のリーダーたちが英国に集まり、AIの安全リスクに共同で取り組んだ。現在に話を進めると、ほとんどの政府はAIの経済的利益を失うことを恐れてAIの規制をためらう一方で、AIのリスクについて警鐘を鳴らしていた著名なテクノロジー企業の最高経営責任者(CEO)たちは、今では公然とそのリスクを軽視している。 AIの成長を抑制するどころか、政府や企業は新しいモデルのトレーニングに何十億ドルもの資金を投入している」
その上で、2025年について次のように述べた。
「2025年には既存の安全対策を強化するどころか、わずかに存在するガバナンスの枠組みさえも侵食されてしまうだろう。ワシントンではトランプ次期大統領が、ビッグテック企業と緊密に連携して作成されたバイデン政権のAIに関する大統領令の撤回を公約しており、説明責任や透明性確保のための措置が消滅し、高リスクAIシステムに対する安全性テストの手順が解体される恐れがある。トランプ政権はデビッド・サックス、ピーター・ティール、マーク・アンドリーセンといったシリコンバレーの重鎮たちを強化する方針だ。彼らはAIのガードレールを『ウォーク(社会正義に目覚めた)』『時代遅れ』で『厄介』なものであり、米国が中国との地政学的な競争に打ち勝つ上で障害になると考えている。イーロン・マスクでさえ、AIの存在論的リスクに懸念を抱きながらも、AI自体の規制よりもAIを活用して規制を抑制することに重点を置いている。彼の企業xAIは、世界で最も強力なコンピュートクラスター(性能向上のためにネットワーク上のコンピュータを結合したシステム)の一つを運用している」
さらに、上記とは違った観点で、次のように警鐘を鳴らしている。
「2025年には、フロンティアモデルの開発と汎用(はんよう)人工知能の実現に向けた競争が加速し、電力、水、土地資源に対するかつてない需要が生じるだろう。エネルギー利用と二酸化炭素排出への影響を超えて、AIの破壊的な潜在能力は劇的に高まるだろう。新しいモデルは、人間の監視は最小限で自律的に目的を追求することが可能になる。これらの『エージェント』は独立して行動し、現実世界のシステムと相互作用し、不測の事態に即座に適応することができる。その洗練度が向上するにつれ、2025年には、市場操作やデマの拡散がより効率的に行われるようになるという、かつてないリスクももたらす。最も進化したモデルは、人間の制御に対する抵抗の兆候をますます示すようになる」
「AIの能力がさらに向上し、より高速で、チェックが少ない状態で利用されるようになると、大惨事につながる事故や制御不能なAIの“暴走”のリスクが高まる。AIシステムが重要なインフラに統合され、生死にかかわる医療上の判断から、数兆ドル規模の金融システムに至るまで、あらゆるものの管理に関わるようになり、リスクは増幅する。サプライチェーンを最適化するAIが、意図せずして世界的な物流を混乱させ、必需品の不足を引き起こす可能性もある。多数のAI取引エージェントが相互に作用し、市場の失敗につながる可能性もある。高度なモデルは、不正行為者のために人間のオペレーターを操ることを学習する可能性もある。また、兵器システムへのAIの統合が進むにつれ、世界は自律的な戦争に近づいていくことになるだろう」
まさしく制御不能なAIのリスク増大に向けた“あり得る話”だ。改めて、人類はAIにどう向き合うか。人類の問題として今こそ、しっかりと論議していく必要があるだろう。