【ChatGPT Proが執筆】2025年に生成AIが引き起こしそうな5つの“事件”を大胆予測
■ 激しい企業間競争がもたらすAIとプライバシー問題 2. 大規模LLM(Large Language Model)のコモディティ化と「AIサブスクリプション戦争」 2024年頃から、いわゆる大規模言語モデル(LLM)を活用した生成AIサービスは一気に花開いた。チャット形式のAIアシスタント、画像生成AI、コード生成AIなど、企業・個人を問わず様々な用途で多くの人々が利用するようになった。 しかし2025年になると、これらのAIサービスの差別化がますます難しくなり、「コモディティ化」が進行する。どの企業が作るAIモデルも性能面で大差がなくなり、利用者にとっては「どこを使ってもそれなりに高品質」という状況になったのだ。 こうなると、サービスプロバイダー各社は次なる戦略としてサブスクリプションプランの差別化に乗り出さざるを得ない。 たとえば、ある会社は「あなたの個人データに特化した超高性能AI秘書プラン」を月額1万円で提供。別の会社は「企業向けのセキュリティ重視AIプラン」を月額10万円で売り出した。 また、一部の先進的な企業は「自社独自に最適化したAIモデル」をわざとクローズドにして高額で提供することで、高い付加価値を打ち出した。 ただ、利用者の視点からすると、どのサービスもほとんど同じ性能に見えてしまうため、価格競争が激化。安価なプランをめぐる「サブスクリプション戦争」が勃発し、広告付きの無料プランや、利用データを企業側が分析させてもらう代わりに安価になるプランなどが乱立することになった。 この競争が引き金となり、個人情報の取り扱いが大きな論点として浮上した。生成AIが日常的に個人データを解析し、行動パターンや好み、経歴などを深く把握し始めた結果、いま以上にプライバシー侵害の懸念が高まったのだ。 そして、EU(欧州連合)のGDPR(一般データ保護規則)の流れを汲んだ新たな個人情報保護規制が各国で議論されるようになった。2025年時点では法改正までは至っていないが、今後、AIを使った個人データの二次利用が厳しく制限される事態になるのは必至だ。 一方で、安価かつ高性能なAIを利用したい顧客と、規制を遵守しなければならない企業との間で軋轢も生まれる。2025年は「AIサブスクリプション戦争」が加速すると同時に、「AIとプライバシー問題」が深刻化する年になると考えられる。