汎用人工知能(AGI)に関しては、その定義が研究者や開発者の間で一致していません。AGIの進歩を測定し、異なるモデルやリスクを評価する共通の基準が必要とされています。Google DeepMindの研究者たちは、AGIの能力と行動を分類するための新しいフレームワークを提案しました。AGIのパフォーマンス、一般性、および自律性のレベルを導入するものです。
本研究の目的は、自動運転のレベルに類似した方法で、AGIの進歩を運用化することです。研究者らはAGIの既存の定義を分析し、満たすべき6つの原則を抽出しました。
研究者らは、AGIを、進化するプロセスとして議論することを提案しています。もし本研究が広く受け入れられれば、AGIに関連するリスクについて一貫した、より洗練された議論が可能になり、研究者や政策立案者が中長期的なリスクを特定し、優先順位をつけるのに役立つと考えられます。
参照論文情報
・タイトル:Levels of AGI: Operationalizing Progress on the Path to AGI
・著者:Meredith Ringel Morris, Jascha Sohl-dickstein, Noah Fiedel, Tris Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet, Shane Legg
・所属:Google DeepMind
・GitHub:https://doi.org/10.48550/arXiv.2311.02462
本研究の関連記事:LLMは世界モデルを持ち「物事がどのように位置づけられ、時間がどのように進行するか」を理解する可能性
背景
AGIの定義がさまざまな現状
汎用人工知能(AGI)は、その名が示す通り、広範囲のタスクをこなす能力を持つ人工知能を指します。しかし、その詳細な定義は研究者や実践者の間で一致しておらず、その概念は多岐にわたる解釈を持っています。例えば、AGIが人間のように「考え」や「理解」することを含むかどうか、または単に広範なタスクを実行する能力を持つことだけが条件なのか、人や機関によって考えが異なります。
このような定義の不一致は、議論の妨げとなっています。そのため、今まさにAGIの進歩を測定し、モデル間の比較を行い、リスクを評価するための共通言語が必要とされています。AGIの能力、一般性、および自律性を定量化することが、AI研究コミュニティにとって重要な課題です。リスク評価と緩和戦略、政策立案者や規制当局からの明確な基準、研究開発の目標、予測、リスクの特定、そしてAGIへの道筋にとって、共通の認識があるに越したことはありません。
AGIに関する予測とリスク
AGIをどう定義するかは、社会に影響します。例えば広範な労働をどの程度置き換えるのか、そういった基準が経済的・地政学的に持つ役割を変えるためです。
さらに、極端なリスクを懸念する見方もあります。AGIシステムが人間を欺いたり、資源を貯め込んだり、広範な領域で人間を出し抜いたり、人間から重要な役割を奪ったり、勝手に自己改善を繰り返したりする恐れがあるとも推測されています。
AGIの定義は、AIの目標、予測、リスクに直接関連しています。そのため定義を明確にすることは、AI研究コミュニティにとって有意義(あるいは不可欠)であると考えられています。
本記事の関連研究:約1.7万件におよぶLLM論文を調査した結果からわかる現在のLLM研究トレンド arXiv運営のコーネル大より発表
研究フレームワークの概要
DeepMindの研究者たちは、AGIの能力と行動を分類するためのフレームワークを提案しました。AGIのパフォーマンス、一般性、および自律性のレベルに関するものです。自動運転のレベルに類似した方法で、モデルを比較し、リスクを評価し、AGIへの進歩を測定するための共通言語を提供することを目指しています。
1. AGIの定義の分析
研究者たちは既存のAGIの定義を分析し、AGIが満たすべき6つの原則を抽出しました。これらの原則には、メカニズムではなく能力に焦点を当てること、一般性とパフォーマンスを別々に評価すること、そしてAGIへの道のりに沿った段階を定義することが含まれます。
2. AGIのレベルの提案
また研究者らは、AGIのレベルを一般性とパフォーマンスを考慮に入れて定義しました。現在のAIシステムとAGIの定義がどのようにこの枠組みに適合するかを確認し、さらに、生態学的に妥当なAGIベンチマークを開発するための原則の意味にも触れています。
3. リスク評価のためのフレームワーク
AGIのレベルを定義することによって、さまざまなタイプのAIリスクの微妙な議論が可能になります。AGIを一意のゴールとして認識するのではなく、提案されたオントロジーを通じて理解することは、政策立案者が、短期的なリスクを特定し、AGIへの道のりで優先順位を付けるのに役立つと考えられます。
本研究の関連記事:人間とGPT-4の社会的知能を測定するツール『SOTOPIA』登場 GPT-4は秘密を守る力で人間より優れるとの結果も
AGIの原則、6箇条
下記は既存の研究報告を網羅的に分析し、抽出された、「AGI」のエッセンスです。
1. プロセスではなく「能力」に焦点を当てる
AGIの定義は、プロセスではなく、AGIが達成できることに焦点を当てるべきだと考えられます。その過程では、AGIを達成するために必ずしも必要ではない特徴を識別することが重要です。例えば、AGIが人間のように考えたり理解したりすることは、プロセスに焦点を当てたものです。そのため能力に焦点を当てた定義からは除外されます。
2. 「一般性とパフォーマンス」両方に焦点を当てる
AGIの定義は、一般性とパフォーマンスの両方を重視するべきだと考えられます。
一般性はAGIの重要な特性ですが、それが十分にパフォーマンスの発揮に繋がっていなければ、その一般性はまだ要件に達していないことになります。
3. 「認知的およびメタ認知的タスク」に焦点を当てる
AGIは、
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。