EFFはニュージーランドで発生した大量殺人事件に、深い悲しみに包まれている。被害者とその家族に哀悼の意を捧げる。
この恐ろしい事件には、インターネットに関係する要素が存在する。銃撃犯が事件の模様をライブストリーミングし、ヘイトに満ちた声明をインターネット上に公表していた点である。多くのウェブプラットフォームは利用規約に則り、恐怖のビデオや事件に関連するコンテンツを削除した。
極度の暴力を伴う事件は、どうすればプラットフォームが無辜の声を不当に沈黙させることなく、自らのポリシーを執行できるのかという難しい問題を呼び起こす。オンラインプラットフォームは、既にそうしているように、自らのコミュニティスタンダードに違反する表現を削除する権限を有している。
しかし、ひとたび悲劇が起こると、しばしばプラットフォームは表現を取り締まるよう求める強い圧力に晒される。そして、その取り締まりはしばしば、適法な声までも沈黙させるほどに拡大していく。社会からの阻害を克服しようとしている弱い立場の人々の声までかき消してしまうほどに。
恐るべき犯罪に直面して、より強力なモデレーションポリシーを要求したくなる心情は理解できる。だが残念なことに、そうした提案が裏目に出ることを歴史はたびたび証明している。プラットフォームが過剰に検閲すれば、社会で最も弱い立場にあり、すでに危険にさらされているユーザの声ばかりが沈黙させられることになるのである。
エジプトのジャーナリストで反拷問活動家のワエル・アッバースは、警察の残虐行為を撮影したビデオをYouTubeに削除された。Twitterは、人権侵害を記録した膨大な数の写真、ビデオ、ライブストリームなどを公開するアカウントを凍結。またYouTubeは2017年、シリアの残虐行為を記録した数千点のビデオを誤って削除している。暴力的な過激主義者の主張と、そうした暴力を伝え、非難し、その被害者を守るための主張との線引きは非常に難しい。現在のインターネットプラットフォームの規模を考えれば、その判断を正確に下すことは極めて困難といわざるを得ない。
さらに状況を悪くしているのは、悪意をもった攻撃者が、罪のない人々――多くの場合、組織的なヘイトグループから最も標的とされている人々――を検閲するために、過度に制限的なルールを悪用しているという事実である。それは8chanスタイルのトロールだけにとどまらず、政府関係者が政敵を検閲するために、Facebookのフラグプロセスを組織的に悪用するにまで至っている。今日のインターネット環境において、プラットフォームが削除メカニズムの悪用について慎重に検討しなければ、有害無益なリスクを招くことになる。そして、政府の圧力によってプラットフォームに徹底的な表現の取り締まりを行わせようとする試みは、必然的に意図した以上の検閲を引き起こすことになる。
EFFは、米国自由人権協会、センター・フォー・デモクラシー・アンド・テクノロジーをはじめとする複数の団体や専門家らとともに、オンラインプラットフォームが表現の削除を行うにあたっての簡単なガイドライン「サンタクララ原則」(訳注:関連記事)を提唱している。端的に言えば、この原則はプラットフォームに以下のことを求めている。
- 削除した投稿とアカウントの数に関する透明性の高いデータを提供する
- 投稿やアカウントが削除されたユーザに対し、何がどのようなルールに従って削除したのかとを通知する
- その決定に異議を申し立てる有効な機会を提供する
サンタクララ原則は、プラットフォームによるコンテンツモデレーションの判断が、人権の基準に合致しているかを確認するためにも役立つだろう。モデレーションにおける判断は、今日のインターネットにおける最大の難問の1つと言える。特定のコミュニティスタンダードをめぐって、善意のプラットフォームと団体が意見の一致を見ることがなかったとしても、我々は一致団結して、プラットフォームのルールが最も弱い立場にある人々に対する武器として利用されないための対策を講じなくてはならない。
Our Thoughts on the New Zealand Massacre | Electronic Frontier Foundation