Electronic Frontier Foundation

数十年ぶりにはしかの感染者数が増加に転じ、ソーシャルメディア上で反ワクチン(anti-vaccine または “anti-vax”)ミームが山火事のように広がったことを受け、最近、FacebookPinterestYouTube、Instagram、GoFundMeをはじめとする多数の企業が反ワクチンの投稿を禁止した。

しかし、検閲だけがオンラインの虚偽情報(disinformation)対策の唯一の答えというわけではない。反ワクチンのトレンドは、検閲では解決できないほどに深刻な問題だ。テクノロジー企業がこうした言説を全面的に禁止するようになれば、正確で有用な発言まで過剰に修正・検閲され、そうしたポリシーにより虚偽情報がさらに強化される事態にもなりかねないことは歴史証明している。そのため、この種の言説を禁止するプラットフォームは、コンテンツモデレーションにおける透明性と説明責任に関するサンタクララ原則に従い、いつ・どうしてコンテンツが削除されたのかをユーザに通知し、異議申し立ての機会を提供しなくてはならない。

多くの仲介者は、すでにユーザの投稿、コメント、アカウントの検閲者の役割を担っており、ユーザが何を発言してよく、何を発言してはならないかを定めたルールは年々複雑になってきている。しかし、プラットフォームからそうした言説を排除したとしても、根本的な問題を解決することはできない。

テクノロジー企業やオンラインプラットフォームは、問題の中心にあるアルゴリズム的な「メガホン」への対処や、ユーザが自らのフィードを管理できるようにするなど、虚偽情報の急速な拡散に対処する術を他にも有している。

データの空白

反ワクチンに関する情報がインターネット上に氾濫しているのは、インターネットでアクセス可能なワクチンに関する情報が「制限されているか、存在しないか、重大な問題を抱えている」というデータの空白が存在しているためである。ワクチンの有効性は長い間、当然のものと考えられてきたこともあり、山のようにあふれる虚偽情報に比べれば、最新の科学文献や教育的資料はほとんど存在していない。したがって、ワクチンに関する最新情報を得ようとする人々は、ワクチンを支持する実証的な医学研究よりも、反ワクチン情報を発見することになる。

反ワクチン情報の検閲では、この問題には対処できない。インターネットから反ワクチンの虚偽情報を一掃しようと実現不可能な課題に取り組んだとしても、研究者や公衆衛生の専門家らが反ワクチン的言説を学び、その拡散について理解する機会が失われることになるだろう。

最悪の場合、意図的に反ワクチンの言説を禁止すれば、この問題がさらに悪化する可能性すらある。たとえば、Facebookは過去に、適法な教育的衛生コンテンツを犠牲にするような過剰規制を行っている。彼らが定める「過度に示唆的、または性的に挑発的な」広告の禁止ルールは、ティーンエイジャーの望まない妊娠を防ぐオンラインキャンペーンをも検閲したのだ。

アルゴリズムではなく、ユーザに力を

プラットフォームは、虚偽情報がインターネット上に拡散する根本原因の1つである、ユーザがいつ、何のコンテンツを見るかを決定するアルゴリズムの問題に対処しなくてはならない。そのためには、ユーザ自身が目にする情報を理解し、コントロールできるような、より個人化されたツールを提供することから始めるべきである。

FacebookのニュースフィードやTwitterのタイムラインなどのアルゴリズムは、どのニュース、どの広告、どのユーザ生成コンテンツを表示し、どれを表示しないかを決定している。Facebookなどプラットフォームはアルゴリズムを調整して「非インセンティブ化(disincentivize)」や「降格(downrank)」などの取り組みを行ってはいるが、こうしたアルゴリズムによるキュレーションは、ある種の扇動的なコンテンツを増幅する役割を果たすこともある。ユーザが好むであろうコンテンツを見つけやすくすべく設計された機能は、あまりにも容易に虚偽情報の落とし穴にはまってしまう。

プラットフォームがなすべきは、ユーザの検閲ではなく、危険なコンテンツのメガホンとして機能するインフラストラクチャの部分を精査し、問題の根本原因に対処することである。

ここで最も重要なのは、透明性とオープン性だ。プラットフォームのアルゴリズムがどのように機能するかについての透明性と、ユーザが自分のフィードを開放し、作り上げることを可能にするツールは、アルゴリズムによるキュレーション、それが誘因となるコンテンツの種類、そしてそれが引き起こす結果を広く理解するために極めて重要である。Facebookが最近、この領域の透明性を向上させていることは心強いが、しかしまだ十分とは言えない。

ユーザはプラットフォーム独自のアルゴリズムに縛られるべきではない。プラットフォームは「1つのアルゴリズムで全員をルール化」し、ユーザにはほんのわずかな調整しかさせないというのではなく、ユーザにAPIを開放し、自分独自のアルゴリズムのための自分独自のフィルタリングルールを作成できるようにしなくてはならない。報道機関、教育機関、コミュニティグループ、個人はすべて、自分自身のフィードを作り出し、情報のキュレーションや自分の好みの共有するために信頼できる人物を選択できなければならない。

正しい問いかけを

大手テクノロジー企業による検閲は、極めて稀なものでなくてはならず、実施にあたっても十分な正当化が必要である。つまり、企業がある言説を禁止しているのであれば、我々はその企業に説明を求めなくてはならない。その言説を例外としている理由を説明できるか? その境界線を定義するルールは明確かつ予測可能で、その判断の一貫性はデータによって裏づけられるか? どのような場合に、コンセンサスに異を唱える表現が削除されるのか?

虚偽情報は、ある種の表現を禁止することの技術的困難さに加え、ソーシャルメディアに倫理的な課題をも突きつけている。プラットフォーム上の虚偽情報を防ぐために、企業はどれほどの責任を負っているのだろうか。「紛らわしい」あるいは「不正確な」に該当するかしないかを判断するのは誰なのか。そうした判断におけるバイアスの可能性を精査し、検証するのはいったい誰なのだろうか。

Censorship Can’t Be The Only Answer to Disinformation Online | Electronic Frontier Foundation

Author: Jillian C. York, Divid Greene, and Gennie Gebhart (EFF) / CC BY 3.0 US
Publication Date: May 08, 2019
Translation: heatwave_p2p
Header Image: Pettycon