スケーリング競争の先に見えるAGIと局在リスク (AGIの理論、AGIと社会、そして日本の選択:パート2)

はじめに

現在のAIの発展は「スケーリング則」によって大きく説明されています。つまり、モデルのパラメータ数、学習に用いるデータ量、計算資源(FLOPs)が指数的に拡大することで性能が向上し、これまで不可能と考えられていたタスクが可能になってきました。この延長線上に「AGI(汎用人工知能)」があるのかどうかは、広く関心を集めてきました。

 前回のパート1では、近年Transformer型モデルがソロモノフ帰納(SI)に漸近し得るとする理論研究が同時多発的に発表されており、スケーリング競争の延長上にAGIの姿が見えつつある現状を紹介しました。そして、もしAGIが実現した場合の社会への大きな影響を考えると、「現在の技術競争の延長線上にはAGIは存在しない」という強い仮定を置くことにはリスクがあることを議論しました。

したがって、「AGIは飛躍によって到来するものではなく、連続的に到達し得る」というシナリオを社会として十分に認識しておく必要があります。


本シリーズ記事では、全3回にわたり、現代のAI開発競争がAGIと連続している可能性とその意味について、以下の三つの観点から論じます。

  • パート1:Transformer型モデルがソロモノフ帰納に漸近し得るとする最近の学習理論研究を紹介し、AIとAGIが従来考えられていたよりも密接に連続している可能性を示しました。

  • パート2(本記事):AIがAGIへと連続する可能性を踏まえ、米中の巨大企業が主導するスケーリング競争の意味や、望ましい将来に向けての戦略的論点を検討します。

  • パート3:日本が取るべき研究・政策上の進路を考察し、いくつかの具体的提案を提示します。



スケーリングとAGIの連続性

−根本的飛躍なしにAGIに到達する可能性を考慮すべき−

長らく、AGIの実現には「根本的に新しいアルゴリズム」や「未知のパラダイム」が必要だと考える立場が存在しました。しかし、理論研究の進展はこの見方を相対化しつつあります。現在のTransformerを基盤とした学習アルゴリズムは、データと計算を増大させればソフロモノフ帰納に近づく可能性があり、もしそうであれば、AGIに向かう道筋は「飛躍」ではなく「漸近」と表現出来るものとなります。

学術的な厳密さをもって言えば、当然ながら、これは「必ずAGIが実現する」という断言ではありません。言えるのは、あくまで「理論的な連続性がある」ということです。しかし、この違いは社会にとって大きな意味を持ちます。なぜならば、AGIの実現までに今後あとどれだけのスケーリングが必要かが不明な現状において、将来的にAGIが実現した場合に備えた準備を怠ることは、もし実際にAGIが実現した際に取り返しのつかない遅れを生むからです。


「AGI到達」シナリオを基軸に

リスクアセスメントの基本は、

検討の優先度 = 生起確率 × 現実化した場合のインパクト

です。AGI技術が実現した場合の社会に対する極めて広範かつ深いインパクトを考えるならば、もし実現確率に相当程度の不確実性があったとしても、「AGIに到達しない」ことを主シナリオとするのはリスクが高すぎると言えるでしょう。

この考え方は、気候変動対策の議論に似ています。仮に温暖化が予測より進まなかったとしても、準備のための投資には一定の価値があります。しかし、温暖化が急速に進んだにもかかわらず備えがなければ、社会は重大な危機に直面します。AGIについても同様に、政策や制度設計において「AGIへの到達」を主要シナリオの一つとして基軸に据えることは合理的な想定です。

仮に、AGIが最終的に実現しなかったとしても、それは一つの想定されるカタストロフィー類型が顕在化しなかったということで、それに備えた準備が無駄であったということには必ずしもなりません。むしろ、その過程で得られる成果――次世代半導体技術、高効率電源システム、冷却技術、AI教育基盤、人材育成効果――はいずれも独立した利益をもたらし、AGI開発というグランドチャレンジに投資した効果は十分に回収できるでしょう。




局在リスクとその代替シナリオ

AGIをはじめとする高度なAI技術が一部の国や主体によって寡占されることに大きなリスクがあることは、これまで様々な論者が警鐘を鳴らしてきました。

シングルトンシナリオ

AGIやさらに先の超知能(ASI)について語る際にしばしば登場する概念に「シングルトン」があります。これは元オックスフォード大学のニック・ボストロムが提唱したものです。AGIは人間が行える知的なタスクの全てを代替出来る技術を指します。人間が行えるタスクにはAIの改良も含まれるので、AGIは自分自身の改良も行えるということになります。つまり、AIはある推論能力に到達すると、それ以降は人間の助けなしに自分で自分自身を再改良する自己改良ループを実行出来るようになります。シングルトンとは、このような自己改良ループによる指数関数的な性能向上により、単一の主体(AIまたはそれを保有する組織)が圧倒的な知能を独占した状態を指します。ボストロムは、一度この状態に陥ると、初期の能力差の指数的な拡大により寡占状態を覆すことが難しくなると主張しています(「決定的戦略的優位性 decisive strategic advantage」の獲得)。シングルトンが出現すると、その行動が地球全体の未来を一方的に規定してしまうため、人類にとって「存亡リスク」と直結する可能性があるとされます。

多極シナリオ

シングルトンシナリオはボストロムらによって様々な側面からその蓋然性が論じられていますが、物理的・社会的な制約を無視した極限的想定ともいえます。もしシングルトンが出現しないとした場合、次に考えられるのが「多極シナリオ」です。多極シナリオでは、複数の主体(国家や企業など)がAGI/ASI技術を寡占し、相互に競争関係にあります。主体が複数であっても少数に限られる場合、AGI/ASI技術を持つ者と持たざる者の間には大きな力の格差が生じます。また、AGI/ASI同士が常に競争関係にあるため、AI技術を発端とする事故や災厄が起こりやすい不安定なシナリオとされます。

生態系シナリオ

これらの必ずしも好ましくないシナリオに対し、より望ましい代替シナリオが「生態系シナリオ」です。ここでは、単に多極的であるだけでなく、相互依存的なAIネットワークが形成された状態を想定します。AGIを含む様々な種類のAIエージェントと人間社会を構成する個人や法人その他の主体が相互に接続され、相互依存、相互検証、相互抑制、相互移譲、相互監査、そして相互補完の関係を複雑かつ自然発生的に構成することで、自然界の生態系のようなロバスト性を発揮することを期待するものです。これは日本の研究者が東洋的な感覚のもとに発展させてきた独自のアイディアでもあります。

生態系ネットワーク的アプローチには多様な利点があります。あるAIが暴走しようとした場合、他のノードが検証や制御を担うことで、人間社会とAIの複合システム全体を安定的に運用できます。さらに、多様な設計やデータ、文化背景に基づくAIモデルが存在することで、単一の欠陥が全体を覆うリスクが減ります。相互監査による透明性の担保や、意思決定や出力の妥当性を複数の視点から検証する仕組みを提供します。つまり、人類社会の中にAIを生態系的ネットワークとして取り込むことが、安全性・信頼性の観点から望ましい道筋といえるのです。


補足:   ただし、複雑なネットワークを構成したからといって、それが人類社会にとって望ましいものであることが自動的に保証されるわけではありません。どのような条件を満たせば人間社会とAIの複合システムが安定的かつ健全に機能するのか、その条件を理論的、数理的に明らかにすることは、我々AIアライメントネットワークの主要研究テーマの一つです。


なお、これらのシナリオの詳しい説明と成立条件については、次の論文で詳説しています。

将来の機械知性に関するシナリオと分岐点、人工知能学会誌 Vol. 33 No. 6 (2018/11)   


国際的な多極競争の必要性

現状では、巨額の資金とインフラを必要とする先端AI開発は米国と中国の数社の巨大企業に集中しています。これらの企業は巨大な計算資源と膨大な学習データを背景にスケーリング競争を主導しています。技術的成果は大きいものの、国際的には極めて偏在的です。この構造は将来の局在リスクを顕在化するものであり、懸念されます。

AGI技術が実現した後の人類社会全体の安定性を高めるには、米中に次ぐ第3極、第4極以降の勢力をできるだけ多く育成することが必要です。複数の国や企業が主要プレーヤーとして存在すれば、多極構造を生態系ネットワーク型の構造に変化させられる可能性が高まります。そして、社会全体の頑強性や反脆弱性を確保するためには、これらのプレーヤーが多様な文化的・技術的背景を持ち、価値観の多様性が確保されることも重要です。

第3極・第4極以降の候補として、日本や欧州、インド、中東諸国などが期待されます。このなかでも特に日本は、技術基盤・研究人材・国際社会的信頼の面で条件を備えており、大規模投資によってその役割を担うことが可能と考えられます。

まとめ

理論研究が示した「スケーリング競争の連続的延長にAGIが位置付けられる」という知見は、社会に大きな前提変更をもたらします。AGIは「飛躍」ではなく「漸近」で到達する可能性を持つと理解すれば、準備の優先順位は大きく変わります。

すなわち、AGI技術の少数プレーヤーによる寡占の危険性を直視しつつ、多極的・相互依存的なネットワーク型AIの構築を進め、米中に次ぐ勢力を育成するために積極的投資を行う国を増やす必要があります。

日本にとってこの方向性は、人類社会の安定性を高めると同時に、先進国としての競争力維持にも適合する行動です。次回パート3では、このような技術的・国際的状況において、日本が行うべき動きや実現すべき政策について具体的に提案します。

Next
Next

TransformerはAGIに到達できるか? (AGIの理論、AGIと社会、そして日本の選択 :パート1)