Yahoo!ニュース

「データジャーナリズム」に焦点 -伊ペルージャのジャーナリズム祭

小林恭子ジャーナリスト

新聞通信調査会発行の「メディア展望」7月号に、イタリア・ペルージャのジャーナリズム祭の様子をデータジャーナリズムを中心してまとめてみた。この祭りについては読売新聞オンラインで何度か書いたが、今回は、もっと詳しく書いてみた。以下は、それに若干補足したものだ。

最後に、データジャーナリズムについて参考になる文章を書いている方をまとめてみた。

―「データジャーナリズム」とは

イタリア中部の都市ペルージャで、毎年春、国際ジャーナリズム祭が開催されている。地元のジャーナリストらが2006年に発案し、恒例行事となった。世界中からやってくるジャーナリスト、学者、メディア関係者らがジャーナリズムの現状や未来について話し合い、意見を交換する。参加費は無料で、ペルージャを訪れた人は誰でもセッション会場に入り、議論に参加できる。

今年は4月24日から28日、ペルージャの旧市街に建つ複数のホテルを会場で200を超えるセッションが開催された。500人を超えるスピーカー、約1000人の報道陣が詰めかけ、参加者は5万人以上となった。

―データを活用するジャーナリズム

欧州最大規模のジャーナリズム祭とされるこのイベントで目立ったテーマは「データジャーナリズム」だ。その意味するところや実践例をジャーナリズム祭での進行をたどりながら紹介してみたい。

データとは情報を数値化したものを指し、データジャーナリズムとは「データを活用するジャーナリズム」の意味になるが、これが近年、注目を浴びている。さまざまな情報がデジタルデータ化されており、同時に、大量のデータを分析したり、視覚化するためのツールが容易に手に入るようになったことが背景にある。データ分析ツールを使い、それ以前には見えなかった事実や視点を提供するジャーナリズムを意味するようになった。

ジャーナリズム祭の協賛組織となっている欧州ジャーナリズムセンター(EJC、本部オランダ・マーストリヒト)と英オープン・ナレッジ・ファウンデーション(OKF)は、昨年のジャーナリズム祭で、「データジャーナリズム・ハンドブック」(英語版)をオンライン上で出版した。これからデータジャーナリズムを始めようとする人へのガイド本だ。70人以上の国際的なジャーナリストたちのアイデアを基に作成された。紙版は書籍として有料販売されている。現在までに、無料オンライン版がスペイン語版、ロシア語版で出版されている。

今年のジャーナリズム祭では、EJCとOKFは共同でデータージャーナリズムについてのワークショップ(「データジャーナリズム学校2013」)やセッションを複数開催した。

まず、「データジャーナリズム学校」のワークショップの様子を伝えてみる。

初日の講師となったのは、アリゾナ州立大学ウォルター・クロンカイト・ジャーナリズム・スクール教授のスティーブ・ドイグ氏だ。ハンドブックの作成にも力を貸した。

1980年代、コンピューターを趣味として使っていたドイグ氏は、仕事にも使えることに気づいた。当時は米フロリダ州マイアミ・ヘラルド紙の記者だった。同州のハリケーンによる被害がずさんな建築基準によって悪化したことをデータ分析で証明し、1993年のピューリッツア賞を受賞している。

ラップトップのパソコンを持ち込んで授業に臨んだ参加者の前で、ドイグ氏は「ジャーナリストがデータジャーナリズムを手がける目的は、ストーリー(ネタ)を見つけるため」と切り出した。

小型コンピューターの普及で、記者がデータの中に「パターンを見つける」ことが容易になった、と語る。例えば、以前であれば、飲酒運転についての原稿を書くときに具体的な逸話をいくつか例に出し、結論に導いた。データを使って書けば、「単なる逸話を超えて、論拠を示すことができる」。

データジャーナリズムが頻繁に話題に上るようになったのは「ここ2-3年」だが、米国では1960年代初期、司法体制が有色人種を差別していることを突き止めた例があるとドイグ氏は言う。

データの分析という社会学の研究手法をジャーナリズムにも応用しようという議論が出たのは1970年代。1980年代以降、コンピューターの小型化が進展し、ジャーナリストが大量のデータを活用することが次第に容易になった。

近年の例としては、米国ではUSAトゥデー紙の実践があるという。同紙は、生徒の試験の成績と教師が受け取るボーナスの支払い状況を分析した。結果、教師側がボーナスをもらうために試験の成績をごまかしていたことが分かった。

データ解明ツールには表計算(エクセルなど)、データベース(アクセスなど)、マッピング・位置情報検知(ArcMapなど)、統計分析、ソーシャルメディア分析(NodeXLなど)のソフトをあげた。位置情報検知ソフトを使えば、どの場所で犯罪が発生したかを示す地図が作成でき、NodeXLは人がどんな風に他人とつながっているかを視覚化できる。

ジャーナリズムに利用できるデータは、「例えば予算、歳出、犯罪のパターン、学校別の試験の点数、自動車事故、人口動態、大気環境、スポーツについてのさまざまな数字など」。

データの視覚化にはデータ管理ソフトGoogle Fusion Table、プログラミングのための言語としてRuby, Django, perl, pythonなどをドイグ氏は紹介した。

しかし、プログラミング言語を学ぶところまで行かなくても、エクセルなどの汎用ソフトを使うだけでもジャーナリストはデータをさまざまな形で分析できると教授は言う。例えばソート、フィルター、トランスフォームなどの機能を駆使し、数字の裏にある真実を見つけることができる。

ドイグ教授は会場内で、イタリアの各都市で発生する犯罪件数のファイルを参加者に開けさせた。使用ソフトはエクセルだ。そして、人口当たりの犯罪発生件数を表示してみる。「何故この都市はほかの都市と比較して、犯罪率が格別に高いのか?ここからストーリーが生まれてくる」。

2日目の講師マイケル・バウワー氏は、ジャーナリズム祭に参加したツイッター利用者のつぶやきを分析する方法を見せてくれた。

どんなつぶやきを発しているか、誰が誰のつぶやきを追っているか、誰のつぶやきをリツイート(=他人のつぶやき内容を再発信する)しているかなどの要素を拾い、数理ソフトを使って、グラフ化した。ツイッターの利用者が誰にどのようにつながっているかが分かる図が目の前に広がった。

筆者は、ドイグ教授の授業には終始ついていけたものの、バウアー氏の講義でグラフを自分のラップトップで再現するには時間がかかった。出席したほかの参加者も途中で戸惑いを感じたようで、会場内がざわつく場面が何度かあった。バウアー氏は「もし自分で今できなくても、がっかりしないでください。後で自習できる教材を流します」と説明した。

講義終了後、データジャーナリズムを実践するには、ジャーナリスト側にはどれほどコンピューターの知識が必要なのかをバウアー氏に聞いてみた。「プログラミングができるほどの知識は必要ないと思う。コンピューター技術の専門家とジャーナリストとの共同作業がデータジャーナリズムだと思う」とバウアー氏。「しかし、データを使えば何ができるのかをジャーナリストが知っていることは重要だ。技術者は『こういうことをやってくれ』とジャーナリストから言われることを待っている」。

授業の中でツイッターを通じた人のつながり方がグラフ化されたが、例えばこれはどんな記事を書くために使われるのだろうか?バウアー氏はこの問いにやや呆然としたようだ。少し間があり、「どんな記事ができるのか、という視点では考えていない」と答えた。筆者は、原稿を書く側にいるため、この答えは意外だった。改めて、データによって明るみに出そうとする事柄・文脈を考えるのはジャーナリスト側なのだ、と思った。

「データの学校」の3人目の講師はグレゴール・アイシュ氏。「データの視覚化」のワークショップにはたくさんの人が詰め掛け、会場内に全員が入りきれないほどだった。同氏はグラフ作成ソフトを使って、データをカラフルなグラフに変換する具体例を次々と見せる一方で、「グラフの美しさにごまかされないように」と釘を刺すことを忘れなかった。データジャーナリズムの批判の1つが、「きれいなグラフを作るだけではないか」だからだ。

次に、データジャーナリズムをテーマにしたセッションを見てみよう。

初日のセッションの1つ「データジャーナリズムの2013年の現状」で、パネリストの一人で米ニューヨーク・タイムズ紙のインタラクティブ・ニュース部門を統括するアーロン・フィルホファー氏は、「データジャーナリズムという言葉の響きは地味だが、ピューリッツア賞を取る場合もある」と述べた。

具体例は米南フロリダ州のサン・センチネル紙による「スピーディング・コップス」(スピード違反の警官たち)だ。同紙は、調査に3ヶ月をかけ、約800人の警官がスピード違反をしていたことを暴露した。2012年の一連の報道で、今年、同紙は公共サービス部門でピューリッツア賞を受けた。

データジャーナリズムを担当するチームの話になり、フィルホファー氏はニューヨーク・タイムズでデータジャーナリズムの専門チームは自分ひとりという時代から、現在は18人のスタッフを抱えるまでになったと述べた。

米コンピューター雑誌「ワイヤード」のイタリア語版で働くパネリスト、グイド・ロメオ氏が同誌のデータチームはいまだに自分ひとりだけだと発言すると、フィルホファー氏はデータジャーナリズムの実践には「大掛かりなチームは必ずしも必要ではない。サン・センチネルも小規模のチームで実行した」と補足する。「どのニュース編集室でも、やろうと思えばできる」。

ニュース編集室とウェブ技術とをつなぐ活動を支援する米ナイト・モジラ・オープンニュースのディレクター、ダン・シンカー氏もパネリストの一人となった。同氏は、最近のデータジャーナリズムの優れた例として、米大統領選挙をめぐる報道をあげた。「4年ごとに行われるので、テクノロジーの進展振りが比較できる」。

例えば、公益のための調査報道を主眼とするニュースサイト、プロパブリカが生み出した、選挙期間中に送られた募金依頼の電子メールを分析した「メッセージ・マシン」。プロパブリカはメールと人口動態から、どこでどんなことがトレンドになっているかをサイト上で示した。

複数のパネリストが、選挙結果の予想家として知られる統計学者でブロガーのネイト・シルバー氏の分析を優れたデータジャーナリズムの1つとして挙げた。

2008年、シルバー氏は政府が公表するデータや世論調査の結果から、大統領選で全米50州49州の勝敗を的中させた。昨年の大統領選では50州の投票結果を完璧に予測した。フィルホファー氏は「データジャーナリズムの勝利だ」という。「現状を切り取って見せたと同時に、未来を予言して見せたからだ」。しかし、「危ないのは、世界中の編集幹部が『自分たちもシルバーが欲しい』と言い出すこと」という。

実際に、伊ワイヤード誌のロメオ氏は「何故、シルバー氏のような人材がイタリアにいないのかと悩んだ」という。

「シルバー氏の予測はあくまでも過去の例に基づいたもの。必ずそうなる、ということではない」(フィルホファー氏)。

聴衆の中にいた、英ガーディアン紙のデータジャーナリズム担当者ジェームズ・ボール氏は「確かにシルバー氏は間違うこともある。2010年の英国の総選挙の結果でも予測がはずれた」と発言した。

―共同作業とデータジャーナリズム

EJCとOKFが共同開催した別のセッション「データとジャーナリズム -国境を超えた共同作業」は、ジャーナリズム祭の2日目に開催された。

2010年、内部告発サイト「ウィキリークス」が、米軍にかかわる大量のデータを入手し、ニューヨーク・タイムズ、ガーディアン、仏ルモンド紙、ドイツのシュピーゲル誌など欧米の大手メディアと共同でデータを分析し、数々の報道につなげたことを記憶している方は多いだろう。データの量が膨大で、複数国にまたがる事象を取り扱う場合、共同作業は欠かせないーこれがこのセッションのメイン・テーマだった。

ガーディアンは日常的にデータジャーナリズムのプロジェクトを手がけているため、その手法をウェブサイトに掲載し、情報を共有できるようにしている。

「扱うデータ量が大きくなるにつれて、複数のメディア間で協力をせざるを得なくなっている」と同紙のデータジャーナリズム担当者でパネリストの一人、ボール氏が語る。税金逃れを暴露するプロジェクトの実行には、40以上のメディア組織と共同作業を行ったという。

「データの学校」のワークショップについてさらに詳しく知りたい方は関連ウェブサイトをご参照願いたい。

―データジャーナリズム賞を選出

ジャーナリズム祭4日目の27日、非営利組織「グローバル・エディターズ・ネットワーク」(GEN、本部パリ)が今年の最優秀データジャーナリズム賞の最終候補72を発表した。世界中から送られてきた、300を超える実践例の中から、選出された。

調査報道部門、ストーリーテリング(伝え方)部門、アプリ部門、ウェブサイト部門があり、それぞれの最優秀賞が選ばれる。1つの部門に対し、大手メディアから1つ、中小メディアから1つ選出されるため、合計8つのメディア組織あるいは個人が最優勝賞を受け取る。賞金総額は1万5000ユーロ(約190万円)だ。最終結果は6月19日と20日、パリで開催されるGENニュース・サミットで発表される。日本の媒体では、朝日新聞による、憲法改正についての政治家の姿勢を表にした例が出ている。

***

補足:

この賞の結果を、朝日新聞の平和博記者がブログで報告している。

データジャーナリズム賞を受賞した7作品

***

最後に、基調講演を振り返りたい。

3人のスピーカーの中で、最初が米テクノロジー系ウェブサイト「ギガ・オム」のブロガー、マシュー・イングラム氏だ。講演のタイトルは「魚に歩き方を教えるには?――旧来メディアが新しいメディアから学べる5つのこと」。「旧来メディア」(伝統メディア)とは新聞やテレビを指し、「新しいメディア」とはネットメディアのことだ。

5つの提言とは(1)オープンであること(「読者と意思疎通を取らない旧メディアはまるで『要塞』のようだ」)、(2)情報源を示すこと(「ネット・サイトはハイパーリンクで情報源を示している」)、(3)人間らしさを出すこと(「間違えることもあることを認める」)、(4)ニュースを過程としてとらえること(「24時間の報道体制が現実化し、どんなニュースも『その時点でのまとめ』に過ぎない)、そして(5)「焦点を絞ること」(「すべてをカバーしようとするな」)だった。

筆者は会場で、「ネットで無料情報があふれているが、職業としてのジャーナリズムは将来なくなるか?」と聞いてみた。イングラム氏は「これまでにもお金をもらえなくても発信をする人はいた、例えば芸術家や詩人だ」。市民から報酬をもらうためには「その他大勢とは違う何かを提供できることだ」。

二人の目のスピーカー、エミリー・ベル氏は、米コロンビア大学のタウ・センター・フォー・デジタル・ジャーナリズムのディレクター。同氏もこれからの流れとして「特化と個人化」を指摘したのが印象的だった。「将来、ジャーナリズムの規模はもっと小さくなる」、「一人ひとりの記者が読者とつながり、一つのコミュニティー空間を作ることが必要だ」。

最後のスピーカーは、米起業家でエンジニアのハーパー・リード氏。昨年の米大統領選挙では、オバマ大統領の再選運動に参加した。ビッグデータの分析やソーシャルメディアの活用など、デジタル技術を駆使した。ビッグデータを活用すれば、より深みのある報道ができるとして、「数学をジャーナリズムにもっと使ってもいいのではないか」―。

日々増えてゆくデジタル・データを分析しながら、新たなジャーナリズムを生み出す過程を追体験した数日間だった。

同時に、日本でもこのような国際的なジャーナリズムのイベントが開催されたら、大きな活性剤として働くのではないかとも思った。しかし、「個人化と特定化」といわれても、「中立報道」への圧力が強く、署名記事が一般化してしていない日本の新聞ジャーナリズムにとって、馬耳東風に聞こえる可能性もあるがー。

ご参考

データジャーナリズムについては、上で紹介した朝日の平記者のほかに、以下の方々が継続して書いている。

佐々木俊尚さんによるデータジャーナリズムとは

津田大介さんによる解釈

赤倉優蔵さんによる解説

ジャーナリスト

英国を中心に欧州各国の社会・経済・政治事情を執筆。最新刊は中公新書ラクレ「英国公文書の世界史 -一次資料の宝石箱」。本のフェイスブック・ページは:https://www.facebook.com/eikokukobunsho/ 連載「英国メディアを読み解く」(「英国ニュースダイジェスト」)、「欧州事情」(「メディア展望」)、「最新メディア事情」(「GALAC])ほか多数。著書『フィナンシャル・タイムズの実力』(洋泉社)、『英国メディア史』(中央公論新社)、『日本人が知らないウィキリークス』(洋泉社)、共訳書『チャーチル・ファクター』(プレジデント社)。

小林恭子の最近の記事