Yahoo!ニュース

「読者はAIだけ」ライターの新たな仕事と"2026年問題"とは

平和博桜美林大学教授 ジャーナリスト
読者はAIだけ Photo by Paul Hudson (CC BY 2.0)

読者はAIだけ、ライターが請け負う新たな仕事とは――。

メディアやライターの仕事が、次々にAIに置き換えられている。そんな中で、ライターが請け負う新たな仕事が登場している。

AIに読ませるためだけに、テキストを書く仕事だ。

AI生成テキストを、そうと気づかぬ多くの人間が目にする時代に、「AI読者」のためだけのライティングの発注が広がる。

その背後には、AIの学習を巡る"2026年問題"があるという。

●「AIのために書いている」

私は週に数時間、数十億ドル規模のテクノロジー企業のために原稿を書いている。(中略)作業量はフレキシブルだし、普段の仕事より給料はいいし、発注は途切れることがない。ただ、書いたものが社外で読まれることはない。なぜなら、人間のために書いているわけではないからだ。AIのために書いているのだ。

ライターのジャック・アポロ・ジョージ氏は、9月7日付の英オブザーバーの記事で、そう述べている。

AI開発の急速な進展は、雇用環境の激変を生み出している。

AIが自動化することで、大規模なリストラの対象となる職種もある。その筆頭の1つに挙げられてきたのが、ライターだ。

オープンAIがペンシルベニア大学の研究チームが2023年3月に発表した論文は、大規模言語モデル(LLM)が雇用に与える影響を調査。効率化の影響を最も大きく受ける職種として、作家、ライターを挙げていた。

※参照:社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?(04/20/2023 AERAdot. 平和博

そして、バズフィードのようにコンテンツ作成に積極的にチェットGPTを導入するメディアもある。

2023年5月から始まった全米脚本家組合(WGA)などによるハリウッドの大規模ストライキの争点の1つも、脚本などへのAI利用の制限だった。

そんな状況の中でのライターの新たな仕事が、「AI読者」向けのテキスト作成なのだという。

●学習データの上限と「モデル崩壊」

現在の大規模言語モデル(LLM)開発のトレンドが続けば、2026年から2032年の間に、利用可能な人間のテキストデータのストックと、ほぼ同規模のデータセットでモデルが学習されるようになり、より大量に学習する場合には、その時期がやや早まることがわかった。

サンフランシスコのAI研究機関「エポックAI」などの研究チームが6月4日付で発表した論文では、大規模言語モデルの開発がこのまま続くと、早ければ2026年に学習のために利用可能なテキストデータの上限に達する、と見立てた。

学習データの「2026年問題」だ。

論文では、その上で、AI生成データの利用や、画像などテキスト以外のデータ利用(転移学習)などの可能性を検討している。

※参照:「AIの学習データが底をつく」"2026年問題"の衝撃度とその対策とは?(07/24/2023 新聞紙学的

その中でも指摘されているのが、データ枯渇の対策として、AIが生成したテキストをAIに学習させることによって起きる「モデル崩壊」の問題だ。

オクスフォード大学などの研究チームが2023年5月に公開し、2024年7月24日に「ネイチャー」に掲載された論文によれば、生成AIがつくり出すコンテンツは、AIの視点で見ると「データの汚染」であり、それを学習し続けることでAIのモデルが崩壊してしまう、と指摘している。

※参照:生成AIによる「データ汚染」で生成AIが崩壊する、それを防ぐには?(06/23/2023 新聞紙学的

チャットGPTなどの大規模言語モデルはこれまで、ネット上に公開されている膨大なテキストを収集したデータセットを学習し、開発されてきた。

だが、その多くはメディアが取材、編集によって品質を担保してきたテキストであり、著作権によって保護されたものだった。

ワシントン・ポストが2023年4月の記事で、グーグルが公開している巨大データセット「C4」の収集源を分析したところ、そのトップ10にはニューヨーク・タイムズ(4位)、ロサンゼルス・タイムズ(6位)、ガーディアン(7位)、フォーブス(8位)、ハフポスト(9位)が入り、メディアの存在感が際立っていた。

※参照:チャットAIの「頭脳」をつくるデータの正体がわかった、プライバシーや著作権の行方は?(04/24/2023 新聞紙学的

メディアのコンテンツをAIの学習データとして無断使用することを巡っては、ニューヨーク・タイムズニューヨーク・デイリー・ニュース、シカゴ・トリビューンなどが、著作権侵害でオープンAI、マイクソフトを提訴している。

一方で、AP通信ニューズ・コープコンデナストアクセル・シュプリンガーフィナンシャル・タイムズなどは、データ利用に関するオープンAIとの契約を締結している。

●新たに人間が学習データを書く

そんな中で登場したのが、AIだけが目にする新たなテキストの作成業務だという。

冒頭で紹介したジョージ氏は、具体的な仕事の内容として、チャットボットの応答で想定される質問への「見本」として、回答用のサンプルテキストを執筆することを挙げる。

さらに、AIが虚偽の回答をする「幻覚」を避けるための修正作業も含まれるという。

AIが間違った内容や有害な内容を回答しないよう、その学習データや回答内容を修正する作業には、膨大な人手がかけられている。

自動化の最先端とみられるAI開発は、一方で労働集約型の業務を抱える。

タイムは2023年1月、オープンAIの学習データから有害な内容を除外するための作業が、時給2ドル以下でケニアにアウトソースされていたと報じ、批判が沸き起こった。

それ以前から、AI開発は、画像学習のラベル付けなど、低賃金のアウトソーシングに依存する部分が少なくなかった。

ただ最近では、より高度な学習用のテキストの需要が高まり、質の高い文章が書けるプロのライターに発注が行われるようになってきたのだという。

ライターへの発注では、時給30ポンド(約5,600円)程度を支払うケースもあるという。

ニューヨーク・タイムズも4月10日付で同様の動きを報じている。

その中で紹介されたサンフランシスコのAI学習データ販売の「スケールAI」による2023年5月のAI学習のためのライター職の求人では、時給25~50ドル(約3,560~7,100円)となっていた。

AI化のあおりを受けるライター向けの報酬としては、悪くはない金額だという。

●「ドラキュラ」を迎える支度

ライターとしてAI企業で働くということは、ドラキュラを迎えるのが仕事だと言われても、丘に逃げ出さず、残ってテーブルの準備をするようなものだ。しかし、われらの破壊者(AI企業)は気前がよく、給料はその疎外感を正当化するのに十分だ。 われらの業界が煙と消えるなら、その煙でハイになった方がましだ。

冒頭のジョージ氏は、やや自嘲気味に述べている。

そうかもしれない。

ただ、ライターたちによる「見本」を学習しても、AIがどこまで「賢く」なるかは、また別の問題だ。

生成AIの高度化、収益化には頭打ち感も漂い、「バブル崩壊」も指摘される。

※参照:「AIバブルは崩壊するか」世界株急落で膨らむ懸念(08/05/2024 新聞紙学的

盛大な迎え支度をしたまま、ドラキュラはしばらくやってこないのかもしれない。

(※2024年9月9日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事