Microsoft、 AI による選挙関連偽情報やディープフェイク対策の重要課題と新提案のレポートを発表
AI検出の技術とその義務付け
7月下旬に登場したバイデン大統領とハリス副大統領のAI生成動画は、2024年の選挙においてAIによる偽情報の存在についての懸念を浮き彫りにした。その最新の例には、XのCEOであるイーロン・マスク氏がハリス副大統領のディープフェイクを共有したことがある。その行為によりマスク氏が自身のプラットフォームのポリシーに違反した可能性があるとの見方もある。 カーネギーメロン大学のビジネス倫理准教授のデレク・レーベン氏によると、AI生成コンテンツに対する企業や政府の規則を設けるには、何が許可されるべきかについてのしきい値を設定することも必須だという。これは、コンテンツや意図、作成者、動画で描かれる人に基づいたしきい値をどのように決定するのかという問題にもつながると同氏は述べる。 パロディとして作成されたものが、コンテンツの共有方法や共有者によっては偽情報になる可能性もある。 AIと倫理に関する研究と執筆を行っているレーベン氏は、AI検出のためのより優れたツールを構築する一方で、規制と国民の意識向上を推進するマイクロソフトの姿勢は正しいと言う。同氏はまた、政府とユーザーに焦点が当てられることにより、企業責任への重視が薄れる可能性があるとも指摘する。 目標がAIの偽情報によりリアルタイムでだまされるのを実際に防ぐことであるなら、(AI生成コンテンツを示すのに)目立つラベルを用い、真正性を判断するためのユーザーの労力を軽減する必要があると同氏は述べた。 「パロディの多くは作成した人の意図と関係があるが、意図しないところで誤った情報として広まってしまう可能性がある」とレーベン氏は言う。「マイクロソフトのような企業が、(パロディと攻撃的なものを区別して)パロディにではなく、攻撃的な動画に対して対策を講じるのを目指すのは非常に難しい」。
リアルタイムでディープフェイクを検出する方法を模索
専門家らは、AIコンテンツに透かしを入れるだけではAI生成の偽情報を完全に防ぐのには十分ではないと述べる。AIセキュリティ企業のピンドロップ(Pindrop)の最高製品責任者であるラフル・スード氏によると、前述したハリス氏のディープフェイクは合成音声と数秒間の本物の音声の両方を含む「パーシャル(部分)ディープフェイク」の一例だという。 このような動画はますます一般的になっており、ユーザーや報道機関が見破るのは非常に困難になっていると同氏は述べた。 透かしは役に立つものの、AIが生成する偽情報の危険を防ぐには足りないと多くの専門家は語っている。ピンドロップは350を超える音声AI生成システムを追跡しているが、スード氏によると、それらの大部分は透かしを使用していないオープンソースツールだという。市販されているツールはわずか12種類ほどである。 「このテクノロジーはプラットフォームにアップロードされたもののリアルタイム検出を行うために存在する」とスード氏は言う。「プラットフォームにリアルタイム検出の実施を強制させる義務付けが実際にはないようなところが問題だ」。 他企業もディープフェイクを検出するためのさらなる方法を模索している。その1社にはトレンドマイクロ(Trend Micro)があり、同社は電話会議での合成動画の検出をサポートする新しいツールをリリースしたばかりだ。トレンドマイクロの新しい調査によると、回答者の36%がすでに詐欺を経験しており、約60%が詐欺を見破ることができると回答している。 トレンドマイクロの脅威インテリジェンス担当バイスプレジデント、ジョン・クレイ氏は、「今後数年間においてAI関連で直面する最大の課題は、偽情報だ。ディープフェイクの使用だろうと、動画であろうと、音声であろうと、何が本物で何が偽物かを見極めるのがもっとも難しいことのひとつになると思う」と述べた。 [原文:Microsoft report highlights AI efforts around election misinformation and harmful deepfakes] Marty Swant(翻訳:ぬえよしこ、編集:坂本凪沙)
編集部