TransformerはAGIに到達できるか? (AGIの理論、AGIと社会、そして日本の選択 :パート1)
はじめに
人工知能(AI)は近年、特定のタスクを超えて多様な状況に適応する「汎用性」を急速に高めつつあります。その究極の延長線上に位置づけられるのが 汎用人工知能(Artificial General Intelligence, AGI) です。
AGIとは、人間と同等、あるいはそれ以上の柔軟な知的能力を持ち、未知の環境でも自ら学び、推論し、創造的に行動できる人工システムを指します。ただし、AGIの定義については専門家の間でも統一的な見解は存在しません。 そのため、理論研究の分野では、AGIを直接定義する代わりに「どのような環境でも最適に行動できる理想的な知能」として定式化された 万能AI(Universal AI) の概念がしばしば用いられます。
万能AIは、情報理論に基づく普遍的な知能モデルであり、その代表的な理論形態がマーカス・ハッターによって提案された AIXI と呼ばれる強化学習エージェントです。AIXIは観測と報酬に基づいて未来を予測し、最も期待値の高い行動を選択します。理論上は「完全に合理的な知能」の姿を与えますが、その内部では ソロモノフ帰納(Solomonoff Induction) という数理的な予測原理が使われており、これは無限の計算を要するため、現実の計算機では実行できません。言い換えれば、AGIとはこの理想的な万能AIを有限の資源で近似的に実現する試みと見ることができます。
ソロモノフ帰納は、1960年代にレイ・ソロモノフが提唱したアルゴリズム情報理論に基づく推論の原理で、観察を説明するあらゆる仮説(プログラム)のうち、より短く単純なものに高い確率を与えます。つまり「最も短い説明を採用する」ことで、最も汎化能力の高い予測を得ようとするものです。これは「オッカムの剃刀」を数学的に定式化したものと言え、科学理論の合理性やAIの学習原理を貫く基礎概念として位置づけられています。
こうした理論的背景を踏まえると、現在のAI研究が直面している問いは次のように整理できます。
現代のAIの中心技術であるTransformerは、万能AIにどこまで近づいているのか?
現在のAIの急速な性能向上は、Transformerと呼ばれる深層学習モデルの登場に大きく支えられています。Transformerの革新は、モデルサイズ・データ量・計算量を同時に拡大することで、性能があたかも際限がないように向上する「スケーリング則」を示したことにあります。この経験的法則が、巨大な計算資源と膨大なデータを前提とする開発競争を正当化し、結果としてChatGPT、Claude、Geminiなどの主要AIシステムの発展を支えてきました。
では、このスケーリングを極限まで進めた先に、理論的に定義された万能AI、すなわちAGIが存在するのでしょうか?それとも、全く新しい原理的転換を待たねばならないのでしょうか?
この根源的な問いに対し、2024〜2025年にかけて発表された複数の理論研究が、新たな方向性を提示しています。これらに共通する主張は、Transformerがアルゴリズム情報理論を介してソロモノフ帰納(SI)に漸近し得る、すなわち理論上の万能AIと連続している可能性があるというものです。つまり、現代のAIは単なる経験的な統計モデルではなく、理論的に定義された「最適知能」の方向へと漸近しているかもしれない、という見方が浮上しています。
本シリーズ記事では、全3回にわたり、現代のAI開発競争がAGIと連続している可能性とその意味について、以下の三つの観点から整理します。
パート1(本記事):Transformer型モデルがソロモノフ帰納に漸近し得るとする最近の学習理論研究を紹介し、AIとAGIが従来考えられていたよりも密接に連続している可能性を示します。
パート2:AIがAGIへと連続する可能性を踏まえ、米中の巨大企業が主導するスケーリング競争の意味や、望ましい将来に向けての戦略的論点を検討します。
パート3:日本が取るべき研究・政策上の進路を考察し、いくつかの具体的提案を提示します。
Transformerの学習はソロモノフ帰納に漸近する
2024年から2025年にかけて独立に発表された以下の2報の論文は、Transformer/大規模言語モデル(LLM)が学習を通じてソロモノフ帰納に近づくとする主張を、形式理論および経験的証拠に基づいて展開しています。
論文: Transformers As Approximations of Solomonoff Induction, ICONIP 2024
著者: Young & Witbrock
主な主張: Transformerはあらゆる計算可能な確率分布を混合するSIの「限界上の最適予測器」と比較し得る。Transformerの予測性能・スケーリング挙動をSIとの対応で捉える仮説を立て、その賛否を整理。論文: Large Language Models as Computable Approximations to Solomonoff Induction, arXiv:2505.15784 (2025)
著者: Wan & Mei
主な主張: LLMの訓練過程はSIの事前分布を近似し、次トークンの予測はSI帰納を近似するという形式的定理を示す。その理論から導かれる「低信頼例を優先するfew-shot学習戦略」を実験で検証し、小型モデルで有効性を確認。
(なお、投稿中の研究も存在しますが、本記事では扱いません。)
こうした理論的研究には、いくつかの共通した前提と留保があります。Transformerがソロモノフ帰納に漸近するのは、理論上「無限のデータと計算資源」が与えられた極限の場合であり、現実には時間・メモリ・最適化手法の制約があります。また、モデル規模が小さい場合は複雑な規則性を十分に捉えられず、実データの偏りやノイズも性能を制限します。それでも、few-shot学習やin-context学習の挙動が理論と整合することが確認されており、Wan & Mei (2025) による実験では、理論から導かれたサンプル選択戦略が実際の性能向上に寄与することが示されています。
補足:我々AIアライメントネットワークでも関連研究を進めています。たとえば2025年の論文では、自己予測を用いてAIXIを計算可能に近似する Self-AIXI が、学習によって万能AIに漸近し得ることを示しました。詳細は以下の記事で紹介しています。
AGIの制御と好奇心:論文「Universal AI maximizes Variational Empowerment」公表
TransformerがAGIに到達「しない」と考えることは危険
では、これらの理論研究から何が言えるでしょうか。
従来、スケーリング則がどこまで続くのか、そしてどこに行き着くのかについては明確な答えがありませんでした。しかし、最近の理論研究は「その先にあるのはソロモノフ帰納である」という一定の方向性を示しつつあります。もしTransformerが学習によってソロモノフ帰納に漸近するならば、その先にあるのは万能AIであり、これは理論上はAGIを凌駕する概念です。つまり、スケーリング則の延長上のどこかには必ずAGIが存在するということになります。
もちろん、現実には無限のデータや計算は存在せず、到達可能な範囲にAGIが含まれるかは未確定です。また、不可計算性や最適化、有限リソース、身体性(embodiment)の欠如など、多くの制約が残ります。とりわけ「身体性がなければ柔軟な行動はできない」と考える研究者もいます。
しかし、重要な示唆が一つあります。かつてはAGIに至るまでに未知の理論的・技術的障壁があると考えられていましたが、実際には障壁は存在せず、ハードルは量的拡大だけかもしれない、ということです。この仮説が複数の理論研究者から独立して提示されている点は重みがあります。
したがって、現在のAIがAGIに到達するか否かは未だ未確定ですが、しかし、到達しないと断言することがこれまで以上に困難になったという認識は持っておくべきでしょう。結論として、AGI到達の莫大な社会的影響を考えれば、「AGIには到達しない」との仮定のもとに今後の社会を構想することは危険である、と言えるでしょう。
まとめ
本記事は、全3回シリーズの初回です。今回のパート1では、最近の理論研究に基づき、transformer(およびLLM)がAGIに到達する可能性は「遠い仮説」から「現行技術の延長線上にある現実的シナリオ」へと位置づけが変化しつつあることを紹介しました。
次回パート2では、AIがAGIへと連続する可能性を踏まえ、米中の巨大企業が主導するスケーリング競争の意味や、望ましい将来に向けて何を検討すべきかを議論します。最終回のパート3では、日本が取るべき研究・政策上の進路を検討し、いくつかの具体的提案を提示します。