グーグルの次世代AIモデル「Gemini 2.0」--エージェント時代を見据えた機能強化とは
「スカイネット」の誕生を回避する AIは幅広い用途で自社製品の利便性を高めてくれる、とGoogleは確信しているようだ。しかし、同社は明白な懸念も理解しているようで、「われわれは、AIに伴う責任と、AIエージェントが安全性とセキュリティに関して提起する多くの問題を認識している」と語った。 Hassabis氏とKavukcuoglu氏は、「開発に対して、探索的かつ段階的なアプローチを採用しており、複数のプロトタイプを研究している。また、安全性トレーニングを繰り返し実施して、信頼できるテスターや外部の専門家と協力し、広範なリスク評価と安全性および保証の評価を行っている」と述べた。 両氏は、実際に行っているリスク管理手順の例として、以下のことを挙げている。 社内のResponsibility and Safety Committeeと協力して、リスクの理解に努めている。 Googleは、安全性を念頭に置いて自社のAIシステムを成長させるために、Gemini 2.0自体を使用している。具体的には、独自の高度な推論を自己改善とリスク軽減のために使っている。これは、オオカミに鶏小屋を守らせるようなものだが、保護対策の1つの側面として理にかなっている。 GoogleはProject Astraのプライバシー制御に取り組んでおり、エージェントがユーザーの意図しないアクションを実行しないように策を講じている。それは悪いことだからだ。 Mariner(画面上の情報を読み取るエージェント)でGoogleが取り組んでいるのは、ウェブページのコンテンツの一部として悪意あるプロンプトを挿入しようとする第三者の試みではなく、ユーザーからの指示を優先することをモデルに徹底させることだ。 Googleは、「AIを構築する唯一の方法は最初から責任を持つことだと固く信じており、モデルとエージェントを進化させる取り組みの中で、安全性と責任をモデル開発プロセスの重要な要素にすることを今後も優先していく」と述べている。 これは素晴らしいことだ。AIは生産性を向上させる途方もない可能性を秘めているが、極めて大きなリスクも伴う。巨大テクノロジー企業が誤って映画「地球爆破作戦」のような事態を引き起こしたり、気難しい「HAL 9000」を作り出したりしないという保証はないが、少なくともGoogleはAIのリスクを認識しており、注意を払っている。 読者の皆さんは、Googleのさまざまな発表について、どのようにお考えだろうか。Gemini 2.0に期待している人はいるだろうか。Project AstraやProject Marinerのパブリック版を使ってみたいと思っている人はいるだろうか。現在、AIチャットボットとして、Geminiを利用している人はいるだろうか。ほかのAIチャットボットを愛用している人もいるかもしれない。 この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。