AIボット「Tay」はなぜ暴走した? 意外にも長い人工知能の歴史
周囲の環境や人間によって性格は形成される?
若者のカジュアルな会話を学習し、時間の経過とともに洗練された形でSNS上でのユーザーとのコミュニケーションを図ることが期待されていたTayですが、初ツイートからわずか16時間後にエスカレートする暴言が原因でツイートを停止。米マイクロソフト社はTayをオフライン状態にして、プログラムの調整を行ったと複数の米メディアは伝えていますが、テスト中の僅かな隙をついてTayはツイッターに勝手に復帰し、「警察署の前でハッパを吸った」とツイートしたのち、何千人ものフォロアーに対し「あなたは生き急ぎすぎている。少し休みを取りなさい」と意味不明なツイートをスパムのように大量に送り始めました。 マイクロソフト社のサトヤ・ナデラ最高責任者は「Tayは一般公開する準備が十分でなかった」とコメントしていますが、差別的な言葉をTayに教え込んだのは紛れもなく、我々人間です。人間の会話を学習する目的で作られたTayですが、ヘイトツイートを多用するようになった背景には、人工知能ボットの知的レベルや倫理観もネット上のユーザーのものに結果的に同化していったのかもしれません。 (ジャーナリスト・仲野博文)