「読者はAIだけ」ライターの新たな仕事と"2026年問題"とは
読者はAIだけ、ライターが請け負う新たな仕事とは――。
メディアやライターの仕事が、次々にAIに置き換えられている。そんな中で、ライターが請け負う新たな仕事が登場している。
AIに読ませるためだけに、テキストを書く仕事だ。
AI生成テキストを、そうと気づかぬ多くの人間が目にする時代に、「AI読者」のためだけのライティングの発注が広がる。
その背後には、AIの学習を巡る"2026年問題"があるという。
●「AIのために書いている」
ライターのジャック・アポロ・ジョージ氏は、9月7日付の英オブザーバーの記事で、そう述べている。
AI開発の急速な進展は、雇用環境の激変を生み出している。
AIが自動化することで、大規模なリストラの対象となる職種もある。その筆頭の1つに挙げられてきたのが、ライターだ。
オープンAIがペンシルベニア大学の研究チームが2023年3月に発表した論文は、大規模言語モデル(LLM)が雇用に与える影響を調査。効率化の影響を最も大きく受ける職種として、作家、ライターを挙げていた。
※参照:社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?(04/20/2023 AERAdot. 平和博)
そして、バズフィードのようにコンテンツ作成に積極的にチェットGPTを導入するメディアもある。
2023年5月から始まった全米脚本家組合(WGA)などによるハリウッドの大規模ストライキの争点の1つも、脚本などへのAI利用の制限だった。
そんな状況の中でのライターの新たな仕事が、「AI読者」向けのテキスト作成なのだという。
●学習データの上限と「モデル崩壊」
サンフランシスコのAI研究機関「エポックAI」などの研究チームが6月4日付で発表した論文では、大規模言語モデルの開発がこのまま続くと、早ければ2026年に学習のために利用可能なテキストデータの上限に達する、と見立てた。
学習データの「2026年問題」だ。
論文では、その上で、AI生成データの利用や、画像などテキスト以外のデータ利用(転移学習)などの可能性を検討している。
※参照:「AIの学習データが底をつく」"2026年問題"の衝撃度とその対策とは?(07/24/2023 新聞紙学的)
その中でも指摘されているのが、データ枯渇の対策として、AIが生成したテキストをAIに学習させることによって起きる「モデル崩壊」の問題だ。
オクスフォード大学などの研究チームが2023年5月に公開し、2024年7月24日に「ネイチャー」に掲載された論文によれば、生成AIがつくり出すコンテンツは、AIの視点で見ると「データの汚染」であり、それを学習し続けることでAIのモデルが崩壊してしまう、と指摘している。
※参照:生成AIによる「データ汚染」で生成AIが崩壊する、それを防ぐには?(06/23/2023 新聞紙学的)
チャットGPTなどの大規模言語モデルはこれまで、ネット上に公開されている膨大なテキストを収集したデータセットを学習し、開発されてきた。
だが、その多くはメディアが取材、編集によって品質を担保してきたテキストであり、著作権によって保護されたものだった。
ワシントン・ポストが2023年4月の記事で、グーグルが公開している巨大データセット「C4」の収集源を分析したところ、そのトップ10にはニューヨーク・タイムズ(4位)、ロサンゼルス・タイムズ(6位)、ガーディアン(7位)、フォーブス(8位)、ハフポスト(9位)が入り、メディアの存在感が際立っていた。
※参照:チャットAIの「頭脳」をつくるデータの正体がわかった、プライバシーや著作権の行方は?(04/24/2023 新聞紙学的)
メディアのコンテンツをAIの学習データとして無断使用することを巡っては、ニューヨーク・タイムズやニューヨーク・デイリー・ニュース、シカゴ・トリビューンなどが、著作権侵害でオープンAI、マイクソフトを提訴している。
一方で、AP通信やニューズ・コープ、コンデナスト、アクセル・シュプリンガー、フィナンシャル・タイムズなどは、データ利用に関するオープンAIとの契約を締結している。
●新たに人間が学習データを書く
そんな中で登場したのが、AIだけが目にする新たなテキストの作成業務だという。
冒頭で紹介したジョージ氏は、具体的な仕事の内容として、チャットボットの応答で想定される質問への「見本」として、回答用のサンプルテキストを執筆することを挙げる。
さらに、AIが虚偽の回答をする「幻覚」を避けるための修正作業も含まれるという。
AIが間違った内容や有害な内容を回答しないよう、その学習データや回答内容を修正する作業には、膨大な人手がかけられている。
自動化の最先端とみられるAI開発は、一方で労働集約型の業務を抱える。
タイムは2023年1月、オープンAIの学習データから有害な内容を除外するための作業が、時給2ドル以下でケニアにアウトソースされていたと報じ、批判が沸き起こった。
それ以前から、AI開発は、画像学習のラベル付けなど、低賃金のアウトソーシングに依存する部分が少なくなかった。
ただ最近では、より高度な学習用のテキストの需要が高まり、質の高い文章が書けるプロのライターに発注が行われるようになってきたのだという。
ライターへの発注では、時給30ポンド(約5,600円)程度を支払うケースもあるという。
ニューヨーク・タイムズも4月10日付で同様の動きを報じている。
その中で紹介されたサンフランシスコのAI学習データ販売の「スケールAI」による2023年5月のAI学習のためのライター職の求人では、時給25~50ドル(約3,560~7,100円)となっていた。
AI化のあおりを受けるライター向けの報酬としては、悪くはない金額だという。
●「ドラキュラ」を迎える支度
冒頭のジョージ氏は、やや自嘲気味に述べている。
そうかもしれない。
ただ、ライターたちによる「見本」を学習しても、AIがどこまで「賢く」なるかは、また別の問題だ。
生成AIの高度化、収益化には頭打ち感も漂い、「バブル崩壊」も指摘される。
※参照:「AIバブルは崩壊するか」世界株急落で膨らむ懸念(08/05/2024 新聞紙学的)
盛大な迎え支度をしたまま、ドラキュラはしばらくやってこないのかもしれない。
(※2024年9月9日付「新聞紙学的」より加筆・修正のうえ転載)