AI研究者を対象とした最近の調査では、
現在の技術的アプローチによる人工知能の
進化について、大幅に懐疑的な見方が
示された。
この調査によると、回答者の76%が、既存の
AIモデルを拡張することがAGI
(人間のような認知能力を持つAIシステム)
につながる可能性は「低い」または
「非常に低い」と考えている。
この見解は、現在のAIモデルを
拡張するだけで、最終的にAGIを実現できると
示唆した以前の楽観論からの転換を
意味する。
AIシステムの拡張に多大な投資を
行ってきたにもかかわらず、最近の進歩は
横ばいをやや上回る程度の改善しか
見せておらず、専門家はこの分野の研究の
有効性に疑問を抱き始めている。
カリフォルニア大学バークレー校の
スチュアート・ラッセルは、スケーリングの
利点は頭打ちになっていると指摘し、
単なる拡張にとどまらない、AI開発の
深い理解の必要性を語っている。
さらに、調査対象となった研究者の
80%が、AIの能力に関する一般の認識は
現実とずれていると考えている。
オレゴン州立大学の
トーマス・ディートリッヒは、AIシステムが
特定の役割において人間の成果に匹敵すると
主張しているにもかかわらず、これらの
モデルは依然として根本的な誤りを
犯していると指摘する。
同氏は、AIは研究やコーディングを支援する
貴重なツールとしては役立つが、これらの
領域で人間の労働者に取って代わる
ほどではないと語っている。
この調査では、AIシステムに記号的推論を
組み込むことの重要性も強調されている。
回答者の60%以上が、人間のような推論を
達成するにはAIに少なくとも50%の
記号的手法を取り入れる必要があると
主張しており、AGIに近づくためには
現在のモデルを現在のアーキテクチャを
越えて進化させる必要があることを
示唆している。
これらの調査結果は、AIの可能性と限界を
より精緻に理解する必要性を我々に認識させ、
機械における人間レベルの知能の開発に
内在する、複雑性に対処するための多様な
研究戦略を提唱したものと言えそうだ。
0 件のコメント:
コメントを投稿