米大統領選の生成AI悪用に危機感、ビッグテックは個別に対応。ディープフェイク対策は機能するか?
ビッグデックはフェイク防止策に個別対応、「無害化は不可能」か
例えば、アルファベット社傘下のグーグルは、自社のAIチャットボットBardやSGE(生成AIによる検索体験)機能 において、AIツールを用いたコンテンツのデジタル生成・改変を行った場合、その旨を開示するよう選挙広告主に要求。さらに回答できる選挙関連のクエリの種類を制限する方針という。 メタ社は政治キャンペーンにおける新世代型の生成AI広告製品の使用を禁止。さらにフェイスブックやインスタグラムの広告主に対しては、選挙広告の作成・変更にAIツールを使用した場合、その旨を表示することを求める。外国の国営メディアに対しては、ラベリングした上で、米国民をターゲットとした広告をブロック。選挙戦終盤の最終週には新たな政治広告を禁止するなどの措置を明らかにしている。 『Forbes』によれば、ChatGPTやDall-Eを展開するOpenAIは自社ツール上で、政治キャンペーンやロビー活動を行うことを禁止。ツールを使った候補者や当局者へのなりすまし行為も禁止し、有権者が画像を信用するかどうかを判断するのに役立つ認証ツールを導入するとした。 また、マイクロソフトは候補者の肖像権の保護やコンテンツの認証を含む一連のサービスを提供する方針だ。ただ、OpenAIの言語モデルGPT4を使ったマイクロソフトのCopilot(旧称Bing Chat)について、米ITメディア『Wired』は12月、陰謀論や誤情報、古い情報を提供していると報道。しかもこれは個別のミスではなく、システム上な問題だと指摘する外部のリサーチ結果を伝えた。 これに対し、マイクロソフトはAIチャットボットが「信頼できる」結果を提供できるように努力するとしながらも、ある程度の不備を認め、ユーザーには「出典やウェブリンクのチェックで詳細を確認するなど、最善の方法でCopilotを利用することを勧める」とのコメントを発している。全面的な対処はやはり難しく、同社が目指す「選挙の保全」への道のりはかなり険しそうだ。