池上彰「AI時代に必要な真実を見抜く“読解力”」誤った情報に惑わされないために
文字起こしはAIでいい。記者にしかできない仕事に注力せよ
――ジャーナリストの立場から、池上さんはどのようにAIを活用できると考えていますか。 池上彰: 総理大臣や官房長官の記者会見をテレビで見ていて、記者たちがみんな手元のパソコンで発言内容を一字一句打ち込んでいるのに本当にイライラするんですよね。「おいおい、そんなのはAIに任せりゃいいじゃないか」、っていつも思うんです。最近のAIは精度も高くて、見事に文字起こしをしてくれますからね。 現場で文字起こしをするのではなく、会見の時に総理大臣や官房長官がどんな表情をしていたのかをもっと注視すべきです。「あの時こういう顔をしたのはなぜだろうか」「あとでまた本人に直接聞いてみよう」とか。そこで感覚をつかんで、原稿を書いていく。それをやるのが現場にいる記者の仕事だと思うんです。 ――取材でAIを活用する際はどんなことに注意すべきだと思いますか。 池上彰: われわれジャーナリストが取材記事を書くときには、複数の情報源から確認を取るのが鉄則です。そのときに気を付けなければいけないのは、情報の出どころをしっかりと確認できているか、ということ。情報源が複数あるように見えても、各情報源をさらにたどっていくと、大元の情報源が1つしかないケースはよくあります。それに気づかず、複数の情報源から確認したからと勘違いして記事を書いてしまうと、誤った情報を世の中に伝えてしまうことになります。 ChatGPTを使う際にも、同じことに気を付けなければいけません。たとえば、ChatGPTに質問して出てきた回答を、さらにインターネットで検索したとします。そこでChatGPTの回答と同じ内容が出てくると、これは正しい情報だと信じてしまう可能性があるんですよね。でも、ChatGPTもネット上の同じページを参照して、答えているかもしれないわけです。 さらにいうと、生成AIを使う際には「もっともらしい嘘(ハルシネーション)」が生成されることがあるのも覚えておかなければなりません。以前、「池上彰ってどんな人物?」とChatGPTに聞いたら、私はTBSに入社して、そのあと日経新聞にも入社したことになっていたんですよ(※実際は元NHK記者)。聞くたびに、出身地や出身大学が違ってたり、年齢が違っていたり。でも、まるで事実かのような書きぶりなので、知らない人が見たら信じてしまうかもしれない。 人間でもそういう人がいますよね。自信たっぷりに知ったかぶりするけど、よくよく聞いてみると間違ったことを言っているような人。これは気を付けないといけない。いまはまだChatGPTも発展途上だからこういうことが起きてしまうんだとは思いますが、AIが言うことがすべて正しいわけではないというのは、頭に留めておいたほうがいいですね。