2011年6月29日水曜日

報道分野のイノベーション支援から見る今後の方向性

先日、米国のナイト財団が報道分野のイノベーションを促進するために毎年実施している資金提供プログラム「Knight News Challenge」の受賞プロジェクトが発表されました。5回目となる今年は、16個のイノベーティブなプロジェクトに対して資金が提供されるようです。東日本大震災直後に貴重な情報源の一つとして注目されたsinsai.infoで使われているOSS、Ushahidiが名を連ねています。


ちなみにGoogleが提供資金を寄付していますね。


さて、今年の受賞プロジェクトも例年同様、ニュースのビジュアライズに関連したものや、コミュニティ構築を促進するもの、特定地域の市民メディアの立ち上げを支援するものなど多岐に渡ってはいたのですが、大量のデータからニュースを見つけ出す、いわゆる「データジャーナリズム」に関連したプロジェクトが目に付きました。例えば市民が身の回りのデータを収集・調査・共有するためのツール開発を目指すThe Public Laboratory(既に2010年メキシコ湾原油流出事故で活用されているようです)や、大量のデータから意味のある、ニュースとなりそうな情報を抽出するツール開発を目指すOverview、ソーシャルメディアからニュースを見つけ出すツール開発を目指すiWitness、ジャーナリスト向けにウェブページからデータを抽出して共有するためのツール開発を目指すScraperWiki、そして政府や公共機関などが公開するデータを分析するためのツール開発を目指すPANDAなど、16のプロジェクトのうち、実に6つのプロジェクトがデータジャーナリズムに関するものとなっています。Google資金の影響もあるのかもしれませんが、ネット上のデータが増え続けている昨今、これは妥当な動きなのかもしれません。

こちらもご参考までに。そんなことは無いと思いますが「21世紀、特ダネは足で探すのではなく、アルゴリズムで探すようになる」「全てのジャーナリストはデータ(が理解できる)ジャーナリストであるべきだ」と豪語しています。


と、以上は海外の動きです。

日本でもオープンガバメント化が進んでいることや、ソーシャルメディアの利用者層が広がりつつあることを考慮すると、国内の報道機関においてもこうしたデータジャーナリズムのためのツールが必要になる日が遠からずやってきそうですよね。ということで、いずれも興味深いプロジェクトということもあり、今後も少し追ってみようと思います。

余談ですが、上述したScraperWikiはデータジャーナリズムとは関係なく現在既に利用できます。なかなか役立ちそうかつ面白そうなサービスですよ。


データジャーナリズムについては過去の記事もどうぞ。