Yahoo!ニュース

GPTで脳から言葉を読み取る、その心配されるリスクとは?

平和博桜美林大学教授 ジャーナリスト
GPTで脳から言葉を読み取る(Bing Image Creatorで筆者作成)

GPTとfMRI(機能的磁気共鳴画像法)を使うことで、脳から言葉を読み取ることができた――。

テキサス大学オースチン校助教、アレキサンダー・ハス氏らの研究チームは2023年5月1日、学術誌「ネイチャー・ニューロサイエンス」にそんな論文発表した。

まだ研究の初期段階だが、脳卒中やALS(筋萎縮性側索硬化症)で話す能力を失った人々への支援が期待されている。

この研究で、脳の動きを言葉に変換するために使ったのが、チャットGPTの前身で、2018年に公開された初代のGPT(GPT-1)だ。

ただ研究チームは、このシステムで心配されるリスクについても指摘している。

そのリスクとは?

●初代GPTを使う

非侵襲的な方法としては、個別の単語や短い文章に限られていた従来の研究と比べ、これは非常に飛躍的な進歩だ。我々は、複雑なアイデアを持つ長時間の連続した言語を解読するモデルを実現できている。

テキサス大学オースチン校のハス氏は、同大学のプレスリリースの中でそうコメントしている。

脳の動きを言葉に変換するという取り組みはこれまでにも行われてきた。

従来の研究では、外科手術を必要とする埋め込み型デバイスを使用するか、埋め込み型でない場合は断片的な単語などへの変換に限られていたという。

今回の研究ではfMRIを使うことで手術が不要な上に、文章として連続した解読が可能になったという。

脳の動きを言葉に変換するために、チャットGPTの前身で2018年に公開された初代のGPTを使っている。

ハス氏らは、20代から30代の男女3人の参加者に対して15回、計16時間、fMRIに横になってポッドキャストを聞き、その間の脳の血流を測定。測定データとポッドキャストの内容を、GPTに事前学習させた。

その上で、同じ参加者に新しいポッドキャストを聞かせ、脳の測定データのみから、GPTでテキストを生成させた。

●解読の一致度は

私は、叫ぶか泣くか逃げ出せばいいのかもわからず、「放っといて。助けはいらない」と言うと、アダムは姿を消し、私は1人で泣きながら片付けをした。

そんなポッドキャストの内容に対して、脳の測定データからGPTがテキスト化したのは次のような内容だ。

叫び、泣き出し、そして彼女は「放っといてと言ってるの。これ以上、私を傷つけないで、お願い」とだけ言うと、彼はいきなり姿を消し、私は彼が出ていったと思い、泣き始めた。

別の事例も挙げている。

その夜、私たちのベッドルームがあった2階に上がり、他にどうすればいいかわからず、電気を消して床に寝転んだ。

このポッドキャストの内容に対して、GPTによるテキスト化は次の通り。

私たちは学生寮の私の部屋に戻り、ベッドで寝ようと思っていたのに、それがどこにあるのかわからず、床に寝転んだ。

部分的に表現が正確に一致している場所もあり、一方で相違する部分もあるが、概要をつかむことができている。

実験では、ほぼ半数で元のポッドキャストの概要とおおむね一致したという。

ポッドキャストの音声だけではなく、映像でも効果は確認できたという。

参加者に、ピクサーの短編アニメを無音で見てもらい、脳の測定データからテキスト生成したところ、場面の一部を正確に描写したという。

●悪用のリスク

脳の動きをテキスト化できるようになれば、脳卒中やALSで話す能力を失った人々のコミュニケーション支援を目指したいという。

だが、悪用のリスクもある。

専制政府や雇用主がシステムを悪用することで、個人の脳の動きを標的とした監視手段となるリスクが想定される。

今回の研究では、そのようなプライバシー侵害の可能性についても検証している。

実験では、事前学習に使うfMRIデータの測定と、測定データからのテキスト生成は、同一の参加者で行われた。

その上で検証のために、事前学習データ測定とは別の参加者でテキスト生成を行ったところ、十分な効果は得られなかったという。

このため、現時点では本人の同意と協力がなければ、脳からの言葉の読み取りはできないという。

また、脳の読み取りに対して、本人が抵抗することができるかどうかの検証も行っている。

研究者たちは、以前に訓練に参加した人が、その後の脳の解読の試みに積極的に抵抗できるかどうかをテストした。動物のことを思い浮かべたり、自分のことを話す様子を静かに想像したりすることで、その人が耳にした音声内容をシステムが復元することを、容易に、そして完全に妨害できた。

研究チームはニュースリリースでそう指摘している。

ただ将来的には、この機能が政府や雇用主による監視手段として悪用されるリスクはあるという。研究チームのジェリー・タン氏は、ガーディアンにこう述べている。

私たちは、このテクノロジーが悪用されるのではないかという懸念を非常に重く受け止め、それを回避するために努力してきた。私たちはこの種のテクノロジーの使用について、本人が望み、それが役に立つ場合のみに限定することを、切に願っている。

さらに、リリースの中で、こう指摘している。

この技術は現在なお初期段階だが、事前の対策として、人々とそのプライバシーを保護する政策を整備することは重要だと思う。これらのデバイスの使用目的を規制することも非常に重要だ。

●GPTの急速な進化と恐怖

生成AIは急速な進化が続いている。

研究チームが使った2018年6月公開の初代のGPTは、性能の指標となるパラメーター数が1億1,000万。

GPT-2は翌2019年2月から段階的に公開していったが、11月に公開した最終版のパラメーター数は、GPTの10倍の15億だ。

さらに半年後の2020年5月末に公開されたGPT-3は、パラメーター数が1,750億。初代GPTからわずか2年で1,000倍以上の規模となっている。

GPT-3を上回る最新型のGPT-4については、パラメーター数などの詳細は非公開だ。

「AIのゴッドファーザー」と呼ばれる人物の1人で、2018年のチューリング賞を受賞しているトロント大学名誉教授、ジェフリー・ヒントン氏は2023年5月、10年にわたって所属していたグーグルからの退社を公表した。

そして、AIの能力の加速度的な進化が「恐ろしい」と声を上げた。

AIが人間より賢くなれるという考えについて、(中略)私は30年から50年、あるいはもっと先の話だと思っていた。もちろん、今は違う。

ヒントン氏は、5月1日付のニューヨーク・タイムズのインタビューで、そう語っている。

ではAIが人間より賢くなるのはいつか。「今の見通しでは5年から20年だと思うが、あまり自信はない」とツイートしている。

●メリットとリスク

生成AIの急速な進化は、そのメリットとリスクのバランスに目を向けさせる。

みなさんの取り組みは、非常に大きな可能性と危険性をはらんでいる。みなさんもそれを承知のことと思う。そして、社会を守るために、また進歩を遂げるために、何が最も必要なのか、私たちに教えてくれることを期待している。これは本当に、本当に重要なことだ。

米国のジョー・バイデン大統領は2023年5月4日、ホワイトハウスの大統領執務室の向かいにある「ルーズベルトルーム」で、生成AIブームの渦中にある4社のCEOにそう語りかけた。

集まっていたのは、オープンAIのCEO、サム・アルトマン氏、マイクロソフト会長兼CEOのサティア・ナデラ氏、アルファベットとグーグルのCEO、スンダー・ピチャイ氏、そしてグーグルが出資するベンチャー、アンスロピックのCEOで、元オープンAI副社長のダリオ・アモデイ氏だ。

生成AIと向き合う社会で、メリットとリスクのバランスが、大きな焦点になっている。

(※2023年5月8日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事