米フェイスブック(FB)のモニカ・ビッカート副社長が朝日新聞の取材に応じ、テロなどの映像の配信を防ぐ技術を「早く実現できるように多くの社内資源を投入している」と述べた。3月にニュージーランド(NZ)で起きた銃乱射事件では、実行犯が襲撃時の動画をFBで配信。同社は「拡散を防ぐべきだった」と非難され、防止策の徹底を急ぐという。
ビッカート氏は2日、カリフォルニア州メンローパークのFB本社で朝日新聞と会見した。世界で23億人が利用するFBで、同氏はどのような投稿を制限・削除すべきかのガイドラインをつくる責任者だ。「イスラム国」(IS)など過激派組織の宣伝や、人種や宗教の対立をあおるヘイトスピーチは掲載しないといった対策をこれまで進めてきた。
NZ銃乱射事件では、実行犯がイスラム教礼拝所(モスク)でイスラム教徒を狙って銃を乱射する動画をFBで同時配信した。ビッカート氏によると、FBは警察から連絡を受けて公開から数分で問題の動画を削除した。ところが、その後も録画された問題の動画がFBや他のSNSに次々投稿され、FBは最初の投稿から24時間で100万件以上を削除したという。
NZ銃乱射事件の同時配信を受けて、FBには「同時配信は原則禁止し、遅らせて配信させるべきだ」と求める声が強まっている。これに対し、ビッカート氏は「FB上で自殺願望を訴える人もいる。配信を遅らせると、(こうした人を救えなくなり)地域の安全確保にはつながらない」と否定的な見解を示した。
暴力的な内容の投稿を検知するため、FBは人工知能(AI)を活用。テロ関連の検知率は99%以上だが、ヘイトスピーチ関連では52%にとどまっている。ビッカート氏は「ヘイトスピーチと判断するにはニュアンスを理解する必要があり、AIにはまだ困難だ」と説明した。(メンローパーク=尾形聡彦)