Kayo Mimizuka

フェイクニュース、ファクトチェック、ジャーナリズム教育に関する海外の情報を発信しています。

YouTubeにもはびこる偽ニュース  アルゴリズムが生む、陰謀論動画の「ネットワーク」

世界で月間約15億人のユーザーを持つYouTube

フェイスブックツイッターに比べ、YouTube上の偽ニュースはこれまで見過ごされがちでしたが、米では2月に起きたフロリダ州の銃乱射事件をきっかけに批判が高まっています。データに詳しい研究者は、大量の不適切動画をつなぐ「ネットワーク」が存在するとも指摘しています。

f:id:kayomimizuka:20180311215913p:plain

https://www.youtube.com/intl/ja/yt/about/policies/#community-guidelines

 

Reuters InstituteのDigital News Report(2017年)によると、米ではYouTubeフェイスブックに次いで人気のSNSで、約56%が利用。日本ではLINEやツイッターをおさえて1位(47%)です。17%がYouTubeでニュースを見ると答えました。

YouTubeのオフィシャルブログによれば、ユーザーは1日に約1時間以上、YouTube動画を携帯電話で視聴。子供向けアプリ「YouTube Kids」も世界約30ヵ国で提供されています。

 陰謀論動画、再生20万回 

 米でYouTubeの不適切コンテンツが改めて批判の的になったきっかけが、フロリダ州パークランドのマージョリー・ストーンマン・ダグラス高校で17人が死亡した銃乱射事件。

事件後、生存者の高校生に関する偽ニュースが拡散。YouTubeでも陰謀論が飛び交い、生徒に対するオンライン・ハラスメント被害が起きました。

f:id:kayomimizuka:20180312185334p:plain

YouTubeのキャプチャ画面

中でも、生存者の1人で銃規制を訴えたDavid Hoggさんに関しては、事件をでっち上げて被害者のふりをする「クライシス・アクター(crisis actor)」だと主張する動画がYouTubeに投稿され、一時トレンドセクションのトップに表示されました。削除される前、動画は20万回以上再生されています。

Business Insiderの記事によると、YouTubeは「トレンドセクションに表示されるべきではなかった。信頼できるニュースソースからの動画を含んでいたため、システムにより誤って分類されてしまった」と認めています。

9千本の「陰謀論ビデオネットワーク」

YouTubeでは、1つの動画を見終わると「次の動画」としておすすめ動画が表示されます。ディープ・ラーニングのアルゴリズムで、ユーザーが興味を持ちそうな関連動画が表示される仕組みですが、研究者はこのアルゴリズムが偽ニュースや不適切なコンテンツの拡散を後押ししていると指摘します。

大学教授でデータ・ジャーナリストのJonathan Albright氏は、フロリダ銃乱射事件に関連する動画を出発点に、YouTubeのアルゴリズムに潜って分析しました。

YouTubeAPIで「クライシス・アクター」と検索、「次の動画」で表示されるものを収集していくと、最終的に約9千本の陰謀論ビデオネットワークが確認され、再生回数は実に40億回に上りました。

f:id:kayomimizuka:20180311220739p:plain

https://medium.com/@d1gi/untrue-tube-monetizing-misery-and-disinformation-388c4786cc3d

ネットワークの中には、過去の事件やテロに関する陰謀論フェイクニュースの動画が含まれていました。アルゴリズムにより、ユーザーはこうした動画を次々に「おすすめ」されることになります。

「結果がこんなにショッキングだとは思わなかった」とAlbright氏は述べています。

YouTube陰謀論ジャンルは、乱射事件やテロなどが起きるたびに大きくなります。(中略)検索、おすすめのアルゴリズムによってこうした動画は自然とつながり、影響力を増すのです」 

ニュースサイト「Motherboard」も、独自の分析から、YouTubeが自身のポリシーに反するコンテンツを放置していると指摘しています。

Motherboardは、YouTubeが削除した動画をモニター・記録するツールを構築。暴力やネオナチのプロパガンダヘイトスピーチ動画などが、数ヶ月、時には何年も視聴できる状態だったことを明らかにしました。さらに、ユーザーが不適切なコンテンツを報告した後も対処されない場合がありました。

対策追いつかず

批判を受け、YouTubeは新たなテクノロジーなども取り入れて取り締まりを強化していますが、追いついていないのが現状です。

YouTubeのスーザン・ウォシッキーCEOは3月13日、正しいコンテンツかどうか議論されている動画の近くにWikipediaの情報を表示し、ユーザーに判断材料を提供する「Information cues」という対策を発表しました。ただ、Wikipediaの情報は誰でも編集できることから、効果については疑問の声も上がっています。
  ・参考記事:YouTube will use Wikipedia to combat conspiracy theories(BBC)

2018年には、ポリシー違反のコンテンツに対処するチームを1万人に増やすとしています。