トピック

AIエージェントの新時代 - 参照型と執行型、社会実装への道筋を探る

「クラウドWatch Day|AI×データ活用セミナー」レポート

 生成AIの次なる革命として注目されるAIエージェント。2025年は「AIエージェント元年」と呼ばれ、2030年には市場規模が500億ドル(約7兆円)を超えると予測されている。しかし、その本格的な社会実装には、技術的課題だけでなく人間との共生という大きなテーマが存在する。2025年3月27日、「クラウドWatch Day|AI×データ活用セミナー」(主催:インプレス、クラウドWatch)に登壇した株式会社ブレインパッド 生成AIタスクフォース責任者であり、新設された株式会社BrainPad AAA(エーキューブ) 代表取締役社長 CEOの辻陽行氏は、AIエージェントの特性と社会受容の条件について、実践的な知見を踏まえながら語った。

株式会社ブレインパッド AI Agent推進室、株式会社BrainPad AAA 代表取締役社長 CEO 辻陽行氏

2025年、AIエージェント元年が示す未来

 AIエージェントとは、与えられた目標に向かって情報を処理し、意思決定を行い、自律的に行動するAIシステムを指す。従来の生成AIとの大きな違いは、人間の介入なしに自ら判断して行動できる点にある。

 「AIエージェントは、人間が都度指示しなくても、自ら目標を理解し、それを達成するために必要なタスクを考え、実行できるAIです。NVIDIAのCEOであるジェンスン・ファン氏はCES 2025の基調講演で『将来的に、あらゆる企業のIT部門がAIエージェントの人事部門のような役割を果たすようになる』と述べています」と辻氏は説明する。

 AIエージェントが注目される背景には、2023年から2024年にかけての大規模言語モデル(LLM)の急速な進化がある。特に推論能力の向上により、与えられた文脈を理解し、適切な行動を選択する能力が飛躍的に高まった。市場調査によると、AIエージェント市場は2025年から5年間で年平均成長率約45%成長するとされており、2030年には500億ドルを超える市場になると予測されている( 図1 )。

図1 AIエージェント市場の成長性 Grand View Research
https://www.grandviewresearch.com/industry-analysis/ai-agents-market-report

参照型と執行型 - 二つのAIエージェント

 辻氏はAIエージェントを「参照型」と「執行型」の二つに分類した。これらの違いを理解することが、AIエージェントの社会実装において重要となる。

 参照型AIエージェントは、情報を自律的に読み取る権限は与えられているが、処理を自律的に実行する権限は持たないエージェントだ。膨大なデータから情報を抽出し、人間では処理困難なデータ量を分析してサマリーを返す機能を持つ。また、分析結果から複数の選択肢を提示したり、優先順位をレコメンドしたりするが、最終的な判断は人間が行う。

 「参照型AIエージェントの具体例として、Googleから発表されているGemini Deep Researchや、OpenAIのDeep Researchがあります。例えば『2024年の経済状況を調査して』といった指示だけで、リサーチの観点や期間を設定し、必要な情報源から自律的に探索を行い、レポートをまとめてくれます」と辻氏は説明する。

 一方、執行型AIエージェントは参照権限に加え、実行権限も持つ。設定された目標に基づいて自分自身で具体的なタスクやフローを考え、人間が事前に承認したプロセスに基づき、日常的な判断や作業を自動的に処理する。

 執行型AIエージェントは、大量処理が必要なタスク、反復的な作業、複数の並行タスクなどに特に適している。人的リソースに依存しない品質向上や効率改善が可能になることから、辻氏は「産業革命レベルの生産性向上が見込まれると言われています」と話した。

 具体的な活用例として、ITサポート(パスワードの再設定やVPN接続トラブルの解決)、人事業務(面接のスケジュール調整)、生産現場(機械の故障リスク検知)などが挙げられる( 図2 )。辻氏によれば、すでにブレインパッドでも面接スケジュール調整にAIエージェントを導入し、効率化を図っているという。

図2 執行型エージェントの活用分野

 さらに、同氏が代表を務める新会社BrainPad AAAでは、データアノテーション(タグ付けなどメタデータを付与する作業)そのものをAIエージェント化する取り組みを進めており、AI導入の前提となるデータ整備の負荷を軽減している。これは、ECサイトの商品情報整備やエラー対応の優先づけ、工場での異常検知など、さまざまな業務への応用が見込まれる。

 「AIエージェントを組織に導入するには正しいデータが必要です。これを整備しない状態でAIエージェントが普及するとは考えにくいため、データを正しく識別し情報を付加するアノテーション領域にも取り組んでいます」と辻氏は語る。

 特に同社が重視するのは、業務の知識を持つ現場の担当者自身が簡単にタグ付けできる仕組みの提供である。これにより、専門スキルに依存せず現場主導でデータ整備を進めることが可能となり、「アノテーションを起点とした生産性向上」が期待されている。

AIエージェントと人間の共生における課題

 AIエージェントが社会に受け入れられるには、いくつかの重要な課題がある。辻氏は特に「責任」の問題を強調した。

 「AIエージェントは、どこまで行っても自分自身で社会的責任を負うことができません。人間であれば罰則や刑事罰などの社会的ペナルティで行動を制御できますが、AIエージェントには直接的な賞罰を与えられないため、最終的には使用者である人間側に責任が帰します」(辻氏)

 参照型AIエージェントの場合、レビューすべき量が膨大になると、人間側がその質を担保できるかという問題が生じる。執行型AIエージェントの場合はさらに、フロー全体の正確性や実行の正当性を管理する必要があり、リスクコントロールの複雑さが課題となる。

 また、無秩序なAIエージェントの活用は、「AI Slop現象」と呼ばれる問題を引き起こす可能性がある。これはAIが生成した低品質なコンテンツがデジタル空間を汚染し、結果としてAIモデル自体の性能劣化を招くという悪循環だ( 図3 )。

図3 無秩序なAIが招く悪循環

 「ニューヨーク大学のゲイリー・マーカス教授は『AI企業は自社製品の負の外部性(ハルシネーション、誤情報の乱用、AI音声を使った詐欺など)に対する責任を1セントも払わず、市民に押し付けようとしている』と批判しています。AIエージェントの能力を制御し、コンプライアンスに沿った形で使用する方法論の確立が急務です」と辻氏は警鐘を鳴らす。

社会実装への道筋と3つの原則

 AIエージェントが社会に受け入れられるためには、「段階的な実装が必要」と辻氏は提言する。最初は参照型AIエージェントから始め、ガイドラインや監視体制、透明性確保の仕組みを整備した上で、限定された領域から執行型AIエージェントへ移行していく。その際に重要となる原則として、まず「正しい判断根拠のデジタル化」が挙げられる。これはAIエージェントが使用するデータの品質を確保し、承認されたフローと情報に基づく判断を徹底することだ。

 次に「明確な承諾の取得」が重要で、特にコストが発生する場合には、ユーザーや管理者から明確な承諾を得る仕組みを構築する必要がある。さらに「参照は大胆に、執行は慎重に」という原則に基づき、判断根拠となる情報は多角的に収集する一方で、実行については必要最低限の処理にとどめ、徐々に拡大させていくアプローチが有効だとしている。

 辻氏は、実際の社会実装ではこれら2つのタイプのAIエージェントをハイブリッドに運用することが主流になると予測し、それぞれの特性に合わせた適材適所の活用が重要だと強調した( 図4 )。

図4 AIエージェント成功の鍵は、参照型・執行型を適材適所で運用すること

 そして「AIエージェントの話を聞くときには、それが参照型なのか執行型なのかを気を付けながら聞いていただければと思います」と辻氏は述べる。

 さらに、「特に執行型のAIエージェントの場合は、どこまでの権限を与えることになるのか、どういうリスクが裏側に潜んでいるのかを意識しながら、開発や実際のサービス導入を検討いただければと思います」とアドバイスした。

●お問い合わせ先
株式会社ブレインパッド
info@brainpad.co.jp