元OpenAI のLeopold Aschenbrenner 氏が新たな記事「From AGI to Superintelligence: the Intelligence Explosion」を公開しました。
Leopold Aschenbrennerは、ドイツ出身のドイツ系アメリカ人として知られるAI研究者・起業家・投資家です。以下が彼の主な経歴と活動内容です。
•OpenAIでの活動
OpenAIの「Superalignment」チームに所属し、将来実現される超知能(ASI)が人類に与える影響や安全性の確保に関する研究に取り組みました。しかし、内部文書の外部共有を巡る問題(情報漏洩疑惑)が原因で、2024年に解雇され、同チームはその後解散しました。
•エッセイ「Situational Awareness: The Decade Ahead」
彼は将来のAGI(人工汎用知能)から超知能への進化、そしてそれが社会、経済、軍事に及ぼす影響について詳細に分析したエッセイシリーズ「Situational Awareness: The Decade Ahead」を発表し、注目を集めています。
•投資活動
最近は、AGIの実現とその先にある技術的・国家的リスクを背景に、AGIに特化した投資ファームを創設しました。投資家としては、Patrick Collison、John Collison、Nat Friedman、Daniel Grossなど著名な人物が参加していることも特徴です。
総じて、Leopold Aschenbrennerは、先進的なAI技術の進展とその安全性、さらにはその社会的影響に深い洞察を持ち、未来の技術革命に向けた議論や投資活動を通じて、AGIおよび超知能の実現に関するビジョンを発信している人物です。
本記事は、「知能爆発(Intelligence Explosion)」により、AGIレベルのエージェントが間もなく社会実装されることで、我々の社会がどのように大変革するかを論じています。一言にまとめると、AGIレベルのエージェントは「人類が作る最後の発明」となり、以降は複数のエージェントが会議を重ねながら開発を進める時代が到来するということです。
私も3年前の産能大学の講義「メタバースとAI」でお話ししましたが、次の時代では複数のエージェントが開発を進め、人間は安全性を担保するためのディレクション役として、会議を取り仕切り、エビデンスやファクトチェックを人間の視点で行うことになります。
すでに、平面(フィジカル)な領域で計算を必要とする発明が社会変革を推進している一方で、仮想空間では、モビリティ、ゼネコン、インダストリアル産業など、空間に関連するあらゆる分野のフィジカルな発明が根本からリセットされる可能性が示唆されています。
その一例として、既に日本のトヨタ自動車は、エヌビディアの仮想空間「Omniverse」で学習した頭脳(AI)を搭載することを発表しています。これは、かつて最重要な部品とされたエンジンの自社生産を放棄する、いわば戦略的転換を意味しており、この流れは、フィジカルAI(ロボット)やドローン、飛行機、ロケットなど、あらゆる物理的な技術領域へと拡大し、国家の安全保障問題に直結するでしょう。
当該記事「知能爆発(Intelligence Explosion」でもこの点について以下の様に触れています。
「AI研究の自動化:私たちはすべてを自動化する必要はありません——AI研究だけで十分です。
AGI(汎用人工知能)がもたらす変革的な影響に対する一般的な反論の一つに、「AIにはすべてをこなすのは難しいだろう」というものがあります。例えば、ロボット工学を見てみると、懐疑的な人々は「たとえAIが博士号レベルの認知能力を持っていたとしても、それは厄介な問題になる」と指摘します。また、生物学の研究開発(R&D)の自動化についても、多くの物理的な実験作業や人間を対象とした実験が必要になるかもしれません。
しかし、AIがAI研究を自動化するために、ロボット工学は必要ありません——多くのものは必要ないのです。最先端の研究所で働くAI研究者やエンジニアの仕事は、完全に仮想環境で実行できるため、現実世界のボトルネックに直面することはありません」
(原文)
Automating AI research:
We don’t need to automate everything—just AI research. A common objection to transformative impacts of AGI is that it will be hard for AI to do everything. Look at robotics, for instance, doubters say; that will be a gnarly problem, even if AI is cognitively at the levels of PhDs. Or take automating biology R&D, which might require lots of physical lab-work and human experiments.
But we don’t need robotics—we don’t need many things—for AI to automate AI research. The jobs of AI researchers and engineers at leading labs can be done fully virtually and don’t run into real-world bottlenecks in the same way.
また、日本のAI政策には多くの学者や専門家が参加していますが、彼らの背景にはスポンサーの影響がある場合も少なくありません。したがって、今後のビジョンを描く上で最も重要なのは、こうしたキャストのバックグラウンドを十分に調査し、強固な安全保障の視座に立って物事を考えることだと考えます。
以下は、記事「From AGI to Superintelligence: the Intelligence Explosion」の要点をもとに、今後の展開とその影響を強調した内容です。
1. AGIから超知能への飛躍
•人間レベルを超える未来
現在のAI技術は、人間と同等の知能を目指す段階にとどまっていますが、AGI(汎用人工知能)の実現後は、急速に超人的なシステムへと進化する可能性があります。
•加速する進歩の波
数億ものAGIがAI研究を自動化すれば、これまで1デケードかかっていたアルゴリズムの改善(5桁以上のオーダーの向上)が、たった1年以内に実現するかもしれません。
2. 知能爆発のメカニズム
•再帰的自己改善
AGIは自らを改良し続ける能力を持つため、知能が爆発的に向上していく「知能爆発」が起こると予測されます。
•最後の発明になる可能性
I. J. Goodの言葉を借りれば、最初の超知能機械が「人類が作る最後の発明」となり、これまでの技術進歩とは全く異なる変革がもたらされるでしょう。
3. 自動化されたAI研究の大変革
•研究の自動化と大規模展開
AI研究者の業務は仮想環境で自動化可能になっており、自動化された研究システムが多数稼働すれば、現在の数百人の研究者に比べて、何万倍もの研究労力が発揮されます。
•劇的なアルゴリズムブレークスルー
その結果、これまで以上に短期間で画期的なアルゴリズムの進歩が生み出され、技術革新のスピードが飛躍的に加速します。
4. 計算資源とその他の技術的制約
•計算資源のボトルネック
実験や解析に使える計算資源には限りがあります。しかし、自動化されたAI研究者は、効率的な運用により、従来の方法よりも10倍以上有効に計算資源を活用できる可能性があります。
•補完性とロングテール問題
自動化が進んでも、完全には置き換えられない人間の役割(例えば、研究の最後の10%)が存在し、これがボトルネックとなるリスクもあります。
•技術的限界とアイデアの減衰
一方で、これまでの実績からは、さらなるアルゴリズムの飛躍が十分期待できるという見方もあります。初期の急速な進歩の後、革新的なアイデアが見つかりにくくなるリスクはあるものの、膨大な研究労力によってその影響は十分に補われるでしょう。
5. 結論:未来社会への衝撃と変革
•多方面への計り知れない影響
AGIが実現すれば、非常に短期間で超知能が誕生し、社会、経済、軍事などあらゆる分野に根本的な影響を与えます。
•知能爆発がもたらすパラダイムシフト
超知能の台頭は、これまでの技術進歩の枠組みを完全に変え、「知能爆発」として人類の未来を劇的に再定義するでしょう。
•これからの世界
今後、私たちは人間とAIが協働する新たな社会システムの構築、これまでにない経済成長、さらには国際情勢や軍事バランスの大幅な変化など、数多くの大変革に直面することが予想されます。
このように、AGIから超知能への飛躍は、これからの時代における技術革新と社会変革の鍵となるとともに、私たちの生活や産業、国家間の関係性すら根底から変える可能性を秘めています。今後の動向に注目し、未来への準備を進めることが求められるでしょう。
Comments