top of page
検索

Open AI o3とAGI

  • 執筆者の写真: Takashi Kimura
    Takashi Kimura
  • 2024年12月25日
  • 読了時間: 10分


2024年12月20日(米国時間)、Chat GPTで知られるOpenAIが、来年1月に新たなAIモデル「Open AI o3」を公開すると発表しました。このニュースの直後、12月23日にはイーロン・マスク氏が「2025年度中にAIが人間の能力を超える汎用人工知能(AGI)に到達する」との予測を明らかにしました。この流れから、現在のAI技術がどのような状況にあり、AGIへの道筋がどれほど現実味を帯びているのかを探ります。


私は以前の記事で、半導体の性能向上や並列処理の規模から推測して、「AIがすでに人間の能力を超えている可能性」を示しましたが、今回のイーロン・マスク氏の発言は、Open AI o3の性能を前提にした推察であると考えられます。そこで、まずは「Open AI o3」の能力がどの程度のものか、具体的な情報を基に解説します。


国家安全保障や法的問題に焦点を当てた信頼性の高いオンラインメディアLawfareが、2024年12月23日に発表した記事によれば、OpenAIが最新のAIモデル「o3」を公開し、人工汎用知能(AGI)への到達が現実味を帯びてきたことが明らかになりました。


OpenAI o3の性能評価

特筆すべきは、o3が完全に未知の問題(訓練されていない形式の問題)を与えられた際、ルールやパターンを自律的に推測し、正確な答えを導く能力を測るARC-AGIベンチマークにおいて記録した87.5%というスコアです。


これは人間の平均スコアである85%を上回り、AGIに求められる一般知能の特性を備えていることを示唆しています。このベンチマークは、新しい状況でのパターン認識や知識の適用能力を測定するものであり、未知の課題に対する対応力を評価する指標として注目されています。


o3の新たな能力

さらに、o3は従来のAIモデルでは実現できなかった高度な能力を備えており、複雑な問題に即座に対応し、新しいプログラムやアプローチを生成する点で画期的な進展を遂げています。たとえば、未知のパズルに対してそのルールを自律的に推測し、正確な解答を導き出すだけでなく、見たことのないプログラミングエラーに対しても具体的な解決策を提案するなど、その適応力は飛躍的に向上しています。

特に、以下の3点において顕著な成果が見られます。


1.コーディング能力

  • SWE-Bench Verified: 現実世界のソフトウェアタスクを評価するこのベンチマークで、o3は71.7%の精度を達成しました。これは前モデルのo1と比べて20%以上の向上です。

  • Codeforcesレーティング: 競技プログラミングサイトCodeforcesでの評価では、o3はELOレート2727を記録しました。これは人間の上位0.05%に相当するスコアであり、前モデルo1の1891を大幅に上回っています。


2.数学能力

  • AIME 2024: アメリカ数学オリンピック予選の問題セットであるAIME 2024において、o3は96.7%の正答率を達成しました。これは、テストを受ける度に1問だけ間違える高い正答率です。 

  • GPQA Diamond: 博士課程レベルの科学問題セットであるGPQA Diamondでは、o3は87.7%の正答率を示し、前モデルo1の78%を約10%上回る結果となりました。

3.高度な推論能力

  • EpochAI Frontier Math: 非常に難易度の高い数学問題で構成されるこのベンチマークで、o3は25.2%の正答率を達成しました。従来のAIモデルが2%未満の正答率に留まっていたことを考えると、o3の性能は飛躍的な向上を示しています。 

  • ARC-AGI: 未知の問題に対する適応能力を測定するこのベンチマークでも、o3は高いスコアを記録し、汎用人工知能(AGI)に近づく性能を示唆しています。


さらに、o3は複雑な問題に対して即座に新しいプログラムやアプローチを生成する能力を持ち、これは従来のAIモデルには見られなかった特徴です。この進展により、AGIの実現が単なる可能性から避けられない現実へと変わりつつあります。


Deliberative Alignment (熟慮的調整)

わずか数ヶ月の間に、既にAIはさまざまな分野で人間を上回る能力を発揮しています。しかし、この急速な進化は、核エネルギーと同様に人類を脅かす可能性も秘めているため、安全性の確保と適切な管理が極めて重要です。


今回、OpenAIが新たに発表した安全性への取り組み「熟慮的調整(Deliberative Alignment)」は、AIが倫理的な判断を下す際に慎重に熟考しながら、安全性と公平性を保証する仕組みです。このアプローチは、AIが提供する応答や行動が社会的価値観や倫理規範に適合していることを確保する上で、重要な役割を果たします。


熟慮的調整の特徴

  1. 意思決定プロセスの透明性 - AIが出力を生成する前に、内部でポリシーやルールに基づいて判断プロセスを検討。その過程を記録し、人間が後から確認できる形で残します。

  2. 動的な安全性確認 - AIが処理中に安全性ポリシーをリアルタイムで参照。ユーザーの要求や入力内容が倫理的・法的に問題がないかを判断します。

  3. 柔軟な対応 - 単なる拒否にとどまらず、代替案や補足的な回答を提案。ユーザーのニーズを満たしながら、安全性を守る応答を提供します。

  4. 多角的な視点の統合 - 特定の倫理観や文化的背景に偏らず、多様な価値観を考慮して判断を行います。


熟慮的調整の仕組み

  1. 入力内容の解析 - ユーザーの要求を解析し、その意図や目的を理解します。例: 「違法行為に関する質問」か、それとも「知識を得るための正当な質問」かを区別します。

  2. 安全性ポリシーの参照 - 内部の安全性ポリシーと照らし合わせて、要求が倫理的または法的に問題がないかを確認します。

  3. 結果の生成 - 要求がポリシーに反する場合、その理由を明確に説明しつつ拒否。また、可能な場合は関連する代替案や提案を提供します。

  4. フィードバックループ - 応答が適切であったかを分析し、その結果を次回以降の応答に反映させます。


熟慮的調整の社会的意義

  1. AIの信頼性向上

    • 熟慮的調整により、AIが社会全体から信頼されるツールとして認識される。

  2. 倫理的AIの実現

    • AIが単なる技術的成果を超え、人間社会に調和する存在となる。

  3. 政策決定の支援

    • 政策立案や意思決定プロセスで、複雑な倫理的判断を補完。

  4. グローバルな課題解決

    • 異文化間での倫理的な共通基盤をAIが提供し、国際的な調整を促進。


課題

  • 計算コストの増加:  - 熟慮的調整は判断プロセスが複雑なため、応答時間やリソースが増加する。

  • ポリシーの設定:  - 各国の文化や法的基準に適合するポリシーをどのように設計するかが課題。

  • 倫理の多様性:  - 世界中の価値観をどのように調整して統合するか。


この熟慮的調整(Deliberative Alignment)は、AIが安全性や公平性を確保しつつ、複雑な倫理的判断に対応するための重要な枠組みです。この取り組みは、AIの信頼性を高め、社会的な受容性を向上させる上で大きな一歩を示しています。


AIが人間を超える汎用人工知能(AGI)に到達するには、専門的な知識や能力の向上を超え、この熟慮的調整の能力を身につけることが最後の課題といえます。しかし、それは、事故直前に「犬を救うべきか、人を救うべきか」といった判断を求められるような、人間にとっても非常に困難なテーマです。


これから到来するAIやロボットが支える社会において、映画『ターミネーター』や『マトリックス』のような知能の暴走を防ぐためには、AIが「ドラえもん」のように人間の生活を助ける存在として機能することが求められます。その実現には、「熟慮的調整」を徹底し、"人間の様な倫理性"を確保することが不可欠です。


しかし、命の選択という倫理的なジレンマにおいて、AIはデータやアルゴリズムに基づいて答えを導き出しますが、人間の価値観の多様性や文化的背景を完全に理解することは非常に困難です。そのため、無限の学習が続く可能性があります


そもそも、こうした問いに完全な答えを見出すことは人間にとっても極めて困難な課題です。それは、人類がこれまでに戦争や対立を繰り返してきた歴史が示すように、人間そのものが未完成な存在であることを物語っています。このため、「AIがAGIに到達した」という表現自体が、本質的には適切ではないのではないかと考える新たな視点が必要だと感じます。


同時に、OpenAIが発表した「o3」の登場は、多くの分野においてAIが既に人間を超える能力を持つことを示しており、これを正しく認識することは重要です。しかしながら、AIの進化を「ゴールのない定義」の枠組みで捉えると、イーロン・マスク氏が述べた「2025年度中にAIが人間の能力を超えるAGIに到達する」という見解は、一部では正しいと言える反面、一部では異なり、さらに別の観点から見れば価値を持たないメッセージとして解釈することも可能です。


AIと人間の未来を形作るためには、このような多面的な視点が欠かせません。そして、我々がAIとどのように向き合うべきかを深く考える契機として、この問いを大切にする必要があるのではないでしょうか。


最後に

日本の魅力は、その伝統を重んじる気質にあると考えます。他の先進国と比較して、多民族国家ではない日本は、その独自性を保ちながら文化を維持し、独創的な発展を遂げてきました。写楽の浮世絵から現代のアニメ文化に至るまで、日本は諸外国の影響を受けつつも、独自の「異形」の文化を育むことに成功してきました。


ハリウッド映画に浸食されることなく、そのエッセンスを適度に取り込みながら、日本独自の進化を繰り返し、世界中から支持を集めている創作的な気質には、日本のあるべき姿が感じられます。


これから訪れるAI時代において、世界的に技術や創造力が民主化される中で、日本の文化が持つ「様式にとらわれない革新性」は、他国にはない独自の価値を生み出すでしょう。その独創性と独自の文化的視点は、AI時代の世界においても大きな存在感を発揮すると信じています。


Appleの創業者であるスティーブ・ジョブズがスタンフォード大学の卒業式で語った有名な言葉「Stay Hungry, Stay Foolish」(ハングリーであれ。愚かであれ。)には、世間の常識やルールにとらわれず、自由な発想を持つことを促すメッセージが込められています。


ジョブズ自身、大学を中退し、従来のキャリアルートを外れた人生を歩んだことで、この言葉を体現してきました。成功パターンや常識に縛られない姿勢が、新たな価値を生み出す原動力となったのです。


日本は先進国の中でも医療制度、治安、雇用制度、教育の平等性などに優れた国です。失敗によって餓死するような国ではなく、挑戦するための環境が整っています。この特性を活かし、チャレンジを恐れず、多様なイノベーションが生まれることを期待しています。


独自性を持つ日本の気質とAIの融合を想像するだけでも、日本の未来には多くの可能性が広がっています。AIが民主化を進める一方で、日本独特の文化的視点と創造性が新たな価値を生むことで、世界に向けてさらに輝く存在となるでしょう。


  1. 常識や既成概念を疑う。

  2. リスクを恐れず挑戦する。

  3. 初心者の目線を持ち続ける。

  4. 完璧を求めず、学び続ける。

  5. 創造的であれ。


本年は、Nvidiaの技術躍進により、AIの加速的な進化がもたらされたことで、メタバースが経済や安全保障において大きな影響を与える可能性を多くの方が理解するようになった、変革の年でした。特に、Nvidiaが進める地球のデジタルツイン開発は注目を集めており、環境シミュレーションを通じて地球の未来予測を行う取り組みが本格化しています。




さらに、現実世界を3D化する技術が広く認知されるようになり、GoogleのAI、Gemini2では1枚の画像から3Dデータを生成するだけでなく、空間全体を再現する技術も可能となりました。加えて、画像内の構造物の特性をAIが認識し、その機能を模倣する空間設計が自動的に行える技術も実現しています。これにより、現実とデジタルの境界がさらに曖昧になり、新たな産業や活用の可能性が広がっています。




本年も大変お世話になりました。私たち日本メタバース機構は、世界各地で活躍する多分野のスペシャリストからのアドバイスや情報を組み合わせながら、先端技術の紹介において中立性を最優先することをポリシーとしています。そのため、イベント開催や収益を目的としたビジネス、募金活動などは一切行っておりません。


来年も、AIを含むメタバースという、次なる社会のプラットフォームとして拡張され続ける先端技術の情報を、高い精度をもってお伝えしてまいります。引き続きご支援とご愛顧を賜りますようお願い申し上げます。どうぞ良いお年をお迎えください。


一般社団法人日本メタバース機構

代表理事 木村貴志

 
 
 

Comments


©2022 一般社団法人 日本メタバース機構

bottom of page