2025年の「AI」はこうなる さらに進化するAI世界の展望 長谷佳明
生成AIが研究者の手を離れ、一般のITエンジニアが活用するデータベースのような製品になる道は思った以上に早いのかもしれない。 ◇自律的に動くAIの制限 2025年は、人間に代わり自律的に課題解決の戦略を考え行動するAIエージェントが注目される。詳細は「新トレンド『AIエージェント』でカギとなる要素は何か?」(24年11月11日掲載)で述べた。ただ、この分野の実用化で先頭を行くセールスフォースの「Agentforce」や、アントグループの「支小宝(ジーシャオバオ)」は現在のところ、自律的といっても限定的で、事前に用意されたシナリオの中から戦略を選んだり、シナリオを組み合わせたりしているに過ぎない。行動に何らルールを設けず自由にふるまうと、意図を読み間違える可能性もあり、効果的な活動ができないためと思われる。 25年中には、おそらくオープンAIの「o1」、「12 Days of OpenAI」の“おおとり”として紹介された、その進化版となる「o3」に見られるように、基盤モデルの戦略立案の能力がもう一段高度になり、シナリオさえも自らが作り出し、遂行するようなケースが出てくるだろう。もちろん、AIエージェントのオーナー(人)の意図をくむために、業務用のAIエージェントであれば業務プロセスと具体的な作業に関するデータが、コンシューマー用であればスマートフォン上で日常的に利用するサービスに関するデータなどが必要になる。 ただ、あまりに自律的になったAIエージェントの行動が、場合によっては意図しない結果を生み出し、問題を起こすかもしれない。状況次第では、大規模なシステムダウンや、セキュリティーインシデントの発生が懸念される。高度化するAIエージェントに対して、どこまでの自律性を許容するのか、まるで、欧州のAI規制法のように、対象の用途によって自律性を制限するようなルールが検討され始めるかもしれない。