「AIで延長した動画は報道に使える?」Adobe、生成AI機能に透かしシステム導入しコンテンツの真正性と作業効率化の両立へ
アメリカ・フロリダ州マイアミビーチで10月14~16日(現地時間)、クリエイターの祭典「Adobe MAX 2024」が開催された。その目玉は、生成AIによるプロフェッショナル向けの画像生成、修正機能。そう言われると「フォトショップや、動画編集アプリ・プレミアプロによるフェイクニュースが増えるかも?」「AIの学習データに使われて、クリエイターの権利が侵害されるのでは?」と心配される方も多いと思う。その問題についてご説明しよう。 【写真で見る】Adobe MAXの基調講演を行うシャンタヌ・ナラヤンCEO
■延長した動画は報道で使えるか Adobe MAXでは、ワンクリックで写真に写っている電線を消すなど、余計な人を消したり、フォトショップの魔法のような機能が数多く披露された。また、写真、線画、デザインに続いて、ついに動画に対応したAIモデル「Firefly Video Model」も発表された。 このFirefly Video Modelでは、文言(プロンプトといわれる)から映像を生成したり、撮影した動画が足りなくて「もうちょっと長ければいいのに」と思ったら、引き伸ばすことさえできるようになった。歩いて立ち去る人の映像を引き伸ばすと、その人がそのまま歩いていく映像が生成されるようになったのだ! しかも、単なる「それっぽい映像」が生成されるのではなく、元映像とまったく変わらない雰囲気で、YouTube番組ぐらいなら「使える」であろう映像が生成されるのだ(現状では解像度や色域に制限があるので、映画クオリティは難しい)。
こちらの動画を見ていただきたい。アメリカ西部の荒野に現れた侍風の男性が、歩いていくシーン。音楽に合わせてあともう少し尺(長さ)が欲しい……という時に、いとも簡単に生成してしまえることがおわかりいただけるだろうか? こうなると、「報道ニュースでこれが使われたら何が真実かわからない」と感じる人も多いだろう。 実際には、この機能は映像で2秒、背景音で10秒しか使えない。セリフや音楽などを延長することはできない。あくまで、クリエイティブの最中に「少しだけ伸ばしたい」という時に使うための機能として作られているのだ。