AIチャットボット、例えばChatGPTのようなものと
やり取りするのは面白いし、時には役に立つことも
あるが、日常的に使われるAIの次のレベルは、
質問に答えるだけに留まらない。AIエージェントは
あなたに代わってそのタスクを実行する。
OpenAI、Microsoft、Google、Salesforceといった
大手テクノロジー企業は最近、AIエージェントの
開発とリリースの計画を発表した。
これらの企業は、これらのイノベーションが、
医療、ロボット工学、ゲームなどのビジネスで
使用されるシステムの基盤となる技術プロセスと
管理プロセスに新たな効率をもたらすと
これらの企業は主張している。
シンプルなAIエージェントは、電子メールで送られる
標準的な質問に回答するように思考することができる。
より高度なエージェントは、大陸間出張の航空券や
ホテルのチケットを予約することが可能だ。Googleは最近、
画面上のテキストや画像を推論できるChromeの
ブラウザ拡張機能ProjectMarinerを記者に公開した。
NvidiaのCEOジェンスン・フアン氏は、CES2025の
基調講演で、知覚AIから生成AI、エージェントAI、
そして物理AIの台頭に至るまでのAIテクノロジーの
進化について概説し、明らかに何かを
伝えようとしていた。
デモでは、エージェントが食料品チェーンの
ウェブサイトで買い物カートに商品を追加して
食事の計画を手伝い、特定の食材が
手に入らない場合は代替品を探すところが映し出されていた。
購入を確定するにはまだ人がかなり関与する必要があるが、
エージェントにはそこまでの必要な手順をすべて
実行するように指示できる。
―AIエージェントとは―
AIエージェントとは、特定の環境について多くのことを
学習できる技術的なツールのことだ。その後、
人間からの簡単な指示に基づき、その環境で
問題を解決したり、特定のタスクを実行したりする。
―ルールと目標―
スマートサーモスタットは、非常にシンプルな
エージェントの一例だ。環境を認識する能力は、
温度を知らせる温度計に限定されている。部屋の温度が
ある一定のレベルを下回ると、
スマートサーモスタットはヒーターを上げて応答する。
今日のAIエージェントの馴染みのある前身は、ルンバだ。
例えば、ロボット掃除機はカーペット敷きの
リビングルームの広さを学習し、その部屋のカーペットに
どれだけの汚れがあるかを理解している。
そして、その理解に基づき実際に行動をする。
その行動の結果、数分後には、部屋のカーペットは
きれいに掃除されることになる。
スマートサーモスタットは、AI研究者が
単純反射エージェントと呼ぶものの例である。それは
意思決定を行うが、それらの意思決定は単純で、
エージェントがその瞬間に知覚したものだけに
基づいている。ロボット掃除機は、単一の目標を持つ
目標ベースのエージェントである。つまり、
アクセスできるすべての床を掃除することだ。
それが行う決定
(いつ曲がるか、いつブラシを上げ下げするか、
いつ充電ベースに戻るのか)
はすべて、その目標のために役立つ。
目標ベースのエージェントは、必要な手段を
講じることによって単に目標を達成する。ただし、
目標はさまざまな方法で達成でき、その中には
他よりも望ましいものもあれば、望ましくないものもある。
今日のAIエージェントの多くは、目標を達成する方法を
より考慮することを意味するユーティリティベースである。
彼らは、どのように自分の行動を進めるかを決定する前に、
考えられる各アプローチのリスクと利点を比較検討する。
彼らはまた、互いに矛盾する目標を考慮し、達成するのが
より重要なことを決定することができる。彼らは、
ユーザーの固有の好みを考慮したアクションを
選択することで、目標ベースの人間のエージェントを
はるかに超えている。
―意思決定、行動の決定―
テクノロジー企業がAIエージェントについて言及するとき、
ChatGPTのようなチャットボットや
大規模言語モデルについて話をしているわけではない。
ウェブサイトで基本的なカスタマーサービスを提供する
チャットボットは技術的にはAIエージェントだが、
認識と行動は限られている。チャットボットエージェントは、
ユーザーが入力する単語を認識できるが、実行できる
唯一のアクションは、ユーザーに正しく有益な応答を
提供すると思われるテキストで返信することだ。
AI企業が言及するAIエージェントは、ChatGPTのような
大規模言語モデルよりも重要な進歩である。なぜなら、
それらを使用する人や企業に代わって行動する
能力を持っているからだ。
OpenAIは、AIエージェントはすぐに人々や企業が
数日間や数週間も独立して稼働させ続けるツールに
なると述べている。進捗状況や結果を確認する必要はない。
OpenAIとGoogleDeepMindの研究者は、エージェントは
人工汎用知能または「強力な」AIへの道における
もう1つのステップであると述べている。つまり、
さまざまなドメインやタスクで人間の
能力を超えるAIである。
現在人々が使用しているAIシステムは、限定的AIまたは
「弱い」AIと見なされている。システムは
1つのドメイン(例えばチェス)に
熟練しているかもしれないが、チェッカーのゲームに
投入されると、同じAIはスキルが翻訳されないため、
機能する方法がわからなくなる。人工汎用知能システムは、
そのスキルを新しいドメインを見たことがなくても、
あるドメインから別のドメインに転送することができる。
―リスクに値するか―
AIエージェントは人間の働き方を変革する用意が
できているのか?これは、テクノロジー企業が、
エージェントが割り当てられたタスクを
実行できるだけでなく、新しい課題や予期せぬ障害が
発生したときにそれらを克服できることを
証明できるかどうかに依存する。
AIエージェントの採用はまた、人々が潜在的に
機密データへのアクセスを許可する欲求にも依存する。
エージェントの目的によっては、インターネットブラウザ、
電子メール、カレンダー、および特定の割り当てに関連する
その他のアプリやシステムにアクセスできる必要が
あるかもしれない。これらのツールが一般的になれば、
人々は自分のデータをどれだけ共有したいかを
検討する必要がある。
AIエージェントのシステムの侵害により、あなたの生活や
財務に関する私的な情報が不正な人間の手に渡る可能性がある。
エージェントがいくつかの作業を節約できるとしても、
これらのリスクを負うことは問題ないのだろうか?
AIエージェントが間違った選択をしたり、ユーザーが
同意できない選択をしたりした場合はどうだろうか?
現在は、AIエージェントの開発者は人間をループに入れ、
最終的な決定が下される前に人間がエージェントの作業を
確認する機会を設けている。ProjectMarinerの例では、
Googleはエージェントに最終的な購入を実行したり、
サイトの利用規約に同意したりすることは許可していない。
あなたをループに入れることで、システムはあなたが
承認しないエージェントが行った選択から
抜け出す機会を与えている。
他のAIシステムと同様に、AIエージェントにも
バイアスがかかる可能性がある。これらのバイアスは、
エージェントが最初にトレーニングされたデータ、
アルゴリズム自体、またはエージェントの出力の
使用方法から発生する可能性がある。バイアスを
軽減する1つの方法は、人間をループに入れ、決定が
実行される前に人間によって
レビューされるようにすることだ。
これらの質問への答えは、AIエージェントがどれほど
普及するのかを決定する可能性が高く、AI企業が
人々がこれらのエージェントを使用し始めた後に
そのエージェントをどれだけ改善できるかに
依存することになってくるだろう。
0 件のコメント:
コメントを投稿