「犬」を「猫」と認識させる? 画像生成AIの“無断学習”を阻止するツールが登場
テキストを入れるだけで、瞬時にリアルでそれっぽい画像を生成してしまう画像生成AI。すでにその活用範囲は広がりを見せているが、アーティストやクリエイターからは著作権の侵害を危ぶむ声や作品保護への要望が上がっている。 そんな中、デジタルアート作品をAIスクレイピングから守るツールも続々と登場している。本記事ではその代表的な2つのツール「Nightshade」と「Kin.art」を紹介する。
AIモデルに「毒」を与えて誤認させる「Nightshade」
シカゴ大学のベン・ザオ教授率いる研究チームは、デジタル作品に「毒」を仕込んでAIに学習させないようにするソフトウェア「Nightshade」を開発した。Nightshadeは無料でダウンロードでき、早速アーティストたちの間で話題となっている。 Nightshadeは画像に対して、人の目には見えないピクセルレベルに「無秩序」で「予測不能」な微細な変更(毒)を加える。するとAIは変更が加えられた間違った情報をモデル学習してしまい、結果的にまったく違うものを表示してしまう。例えば、「毒」を加えた「犬」の画像をAIは「猫」と認識し、犬のつもりで猫を描画してしまうというようなことである。 Nightshadeは、すでに様々なAI画像生成ツールで実験しており、「DALL-E」「Midjourney」「Stable Diffusion」で効果を発揮したと報告している。 同チームはNightshadeの前に「Glaze」というツールを発表している。こちらは画像のピクセルを少し変えて機会学習のアルゴリズムを混乱させ、画像を実存するものと異なるスタイルで認識させるプログラムだ。Nightshadeと似てはいるが、Glazeは「防御的」であるのに対し、「毒」を加えるNightshdeはより「攻撃的」な設計だ。 研究チームは、Nightshadeの目標は「AIによるクリエイター作品の不正使用を防ぐ」ことであり、AIモデルの開発者は“破損していない作品”を有料で利用するようになるべきだと訴えている。