昨秋、大きな話題を呼んだCloudflareによるDaily Stormerのテイクダウンや、YouTubeのLGBTQコンテンツの制限など、プラットフォームによる「自主的な」検閲の事例が後を絶たない。政治家や株主、一般の人々からの圧力が強まるなか、企業は新たな規則を追加し、秘密のアルゴリズムを調整し、コンテンツを管理するスタッフを増員するなど、表現への規制を強めている。また、特定ソースからの広告を禁止し、「オフェンシブ」ではあるが適法なコンテンツを削除してもいる。

こうした動きは、表現をホストするプラットフォーム企業が、どういった表現を削除――あるいは保護――すべきかという議論の最中に進んでいる。また、この議論は、ほんの一握りの大企業がオンラインの表現の大半をホストしている時期に起こっているということも忘れてはならない。憲法修正第一条のもと、媒介者は公衆にどのような表現を伝えるかを決定する権利を有している。しかし、企業が裁判官や陪審員の役割を果たしうるからといって、そうすべきだというわけではない。

まず第一に、問題となるコンテンツの多くは、曖昧な領域に存在している。不愉快な政治的主張から暴言の間に、あるいは、でっちあげのプロパガンダからまっとうな意見の間に存在しているのだ。ある地域では適法だが別の地域では違法だということもあるし、一部のユーザには熱烈に望まれる一方で、別の人達からは毛嫌いされるものもある。多くのケースがグレーゾーンにあるのだとしたら、制度はそれを踏まえた設計でなくてはならない。

万人がインターネットに求めているのは、自由に出会い、創造し、集い、共有し、繋がり、議論し、学べること。私たちの声を、現代テクノロジーが可能にしたやり方で伝えたいのだ。もちろん、嘘をつかれたり、間違いを伝えられたり、憎悪的なメッセージを目にしたり、あるいはニュースフィードがそういう情報で溢れることを望んでいるわけではない。選挙が操作されてはならないし、女性やマイノリティの声がハラスメントによって沈黙させられるべきでもない。私たちはオンライン環境をコントロールする力を持つべきである。私たちが利用するツールによって力を得るとともに、他者の使用に対して無力さを感じないようにしなくてはならない。

しかし、強い危機感に襲われると、つい安直な解決策に飛びついてしまう。特に、コントロール不能な状態への懸念が高まるにつれて、民間プラットフォーム企業に発言者の追跡や特定の強化など、積極的な検閲を仕向ける声が強まっている。

今はまさに、オンラインの自由な表現にとって、そして民主的社会におけるインターネットの役割にとって、重要な分岐点といえるだろう。私たちはこの権利を守らなくてはならない。

プラットフォーム検閲は新しくはない、そして思ったほどに強力ではなく、機能しない

このトピックが広く衆目を集めたのはこれが初めてだろう。しかし、プラットフォームによる検閲そのものは以前から行われてきた。大手プラットフォームはいずれも、ユーザを律するルールを定めている。そうしたルールは非常に複雑で、テロリズムやヘイトスピーチ、著作権、なりすましなど多岐にわたる。プラットフォームの多くは、それぞれのコミュニティレポートを使用している。ルールに違反すると、コンテンツが削除されたり、アカウントが凍結、停止されることもある。私たちはこの10年、こうしたルールがどのように利用され、そして誤用されてきたのかを目にしてきた。

その結果は惨憺たるものだ。ヘイトスピーチの禁止が自らのハラスメント体験を語り合う有色人種の女性同士の対話を消し去り、ハラスメントの禁止がエジプトの著名な反拷問活動家のアカウントを停止するために持ち出され、ヌードの禁止がプライベートグループ内で出産時の画像を共有した女性を検閲したでまかせの著作権・商標権侵害の申し立てが、センシティブな政治的表現を含め、あらゆる種類の適法なコンテンツを削除するために利用されている。

プラットフォーム検閲は、残虐行為を記録したビデオや画像にも向けられる。本来こうしたコンテンツは、私たちのコミュニティの外の世界を認識させてくれるはずのものだが、暴力的なコンテンツを禁じるルールにより、警察の残虐行為シリア戦争ロヒンギャが被った人権侵害の記録が消し去られてしまった。また、ヌードの全面的な禁止により、ベトナム戦争のあの有名な写真は幾度も削除されてきた

こうした削除は、意図的に行われることもあるが、誤ってなされることもある。しかし、CloudflareによるDaily Stomerの締め出しに見られるように、いずれも説明責任や適正な手続きに則ったものではない。その結果、民間プラットフォームによる検閲は、ユーザからの報告やリーク(たとえばガーディアン紙の「Facebook Files」)でしか知りようがない。

こうした歴史を踏まえれば、新たなプレッシャーへのプラットフォームの対応には懸念せざるを得ない。熱心なモデレーションから積極的な検閲までは、坂道を転がり落ちるように突き進んでいくからではない。私たちは既に、その坂道をだいぶ転げ落ちているからだ。表現や思想、結社への規制は、無責任な経営陣に委ねられ、過剰に仕事を抱えた経験不足のスタッフや、秘密のアルゴリズムによって実施されている。こうしたアプローチを推し進めたところで、状況が改善することはないだろう。しかし、Facebookなどの主要プラットフォームや各国政府の権力者を納得させるだけの証拠は出揃ってはいない。むしろ、政策コミュニティをはじめとする多くの人びとが、保護すべき表現と、削除すべき表現とを完全に――魔法のように、そして大規模に――区別するよう企業に圧力をかけ続けている。

私たちがこれまでの経験から学んだことは、政府や企業、その他機関といった権力が行う線引きは、信頼できないということである。

25年に渡り、声なき人々を見守ってきた私たちにとって極めて憂慮すべき事態である。政府、大企業による検閲との戦いは、EFFのミッションの中核をなすものだ。私たちは不埒なコンテンツを喜んで守っているのではない。確かに検閲はナチスに対しても行われうるし、実際に行われているが、ほとんどの場合は、権力の側が力なき者を抑圧するツールとして検閲が行われているのだ。

真っ先に失われるもの:匿名性

民間検閲は、貴重な表現の削除を招く以外にも、匿名言論への攻撃というかたちでも表れている。匿名性偽名性は古代ギリシャの秘密投票や18世紀の英文学、米国初期の風刺など、歴史的にも重要な役割を果たしてきた。インターネットの匿名性のおかげで、ハラスメントやスティグマに晒されることなく、議論の分かれるアイデアを掘り下げ、センシティブな懸念を持つ人びとと繋がることができる。圧政下にある反体制派が、報復を心配せずにストーリーを伝えられるのも匿名性のおかげだ。匿名性はしばしば、弱い立場にある人たちを守る強力な盾となっている。

現在の民間企業の提案は、いずれもインターネットの匿名性を損ねることに繋がる。たとえば、最近Twitterはロシア・トゥデイとスプートニクの広告を禁止したが、これはロシアがコンテンツを拡散するために使用する偽装アカウントを見破ることができるという考えに根ざしている。つまり、Twitterが本当に対策しようとすれば、Twitterの匿名アカウントを特定し、帰属を明らかにする新たなポリシーを採用する必要があり、ユーザの表現、プライバシーの双方を損ねることになる。帰属の問題を考えると、Twitterはロシア政府のコンテンツを広めるすべてのアカウントを禁止するつもりなのだろう。

では、インターネットでの匿名性を放棄する見返りに、何が得られるのだろうか? ほとんど何も得られはしない。Facebookは長年、個人に「本当の」名前を使用するよう強制してきたにも関わらず、ロシアのエージェントによる工作を防ぐことはできなかった。むしろ、匿名性を求める無辜の人々――ドラグァクイーン、LGBTQ、ネイティブ・アメリカン、家庭内・性的暴力の被害者、反体制派、セックスワーカー、セラピスト、医師ら――を害してきた。

多数の研究が、強制的に発言者を特定したとしても、悪意を持って情報をインターネットに広めようとする人びとに有効な対策にはならないとしている。テロ対策の専門家は、「検閲はセキュリティを向上させる有効は方法では断じてなく、ウェブサイトを閉鎖し、オンラインコンテンツを抑圧したとしても、役には立たない。印刷機を打ち壊すのと同じようなことだ」と語っている

私達はもっと良い方法を必要としているのだ。

ステップ1:既存のツールを使い、優先順位を明確化する

検閲は強力なツールであり、容易に悪用されてしまう。だからこそ、ヘイトやハラスメント、詐欺への戦いにおいて、検閲は最終手段でなくてはならない。特に立法的な観点からすると、初めからインターネットを例外的に扱うのではなく、既にあらゆる場所に適用されている法令に目を向けるべきだ。たとえば米国の名誉毀損に関する法律には、他者の評判を害する偽りの言説に責任を負う個人の権利と、公の議論に積極的に参加する公衆の権利のバランスの、数世紀にわたる積み重ねが反映されている。選挙では、外国政府やその代理人が特定候補者を直接支援するキャンペーン広告を(オンラインであれオフラインであれ)購入することが禁止されている。さらに、選挙前の60日間は、外国人の代理人は候補者に言及する広告を購入できない。また、外国代理人登録法は、外国法人が配布した情報資料に帰属を記載した上で、米国司法長官にその写しを提出することを求めている。これらはいずれも、極めて困難な状況においても、耐えうるように設計された法律だ。

また、優先順位についてもよく考える必要がある。私たちはヘイトスピーチと戦いたいのか、それともヘイトと戦いたいのか。外国からの選挙プロセスへの干渉を防ぎたいのか、それとも自由で公正な選挙を望むのか。これらの質問に対する私たちの回答こそが、問題へのアプローチを形成する。ヘイトを振りまく人びとによる現実の暴力に対処することよりも、有権者への妨害やゲリマンダーを防ぐことよりも、より多くの情報を得つつ対話の分断を抑制するプラットフォームを構築する方法を模索するよりも、オンライン広告の匿名性を排除することこそが民主主義を守るために何よりも重要だ、と自らを偽る必要はない。

ステップ2:プラットフォームのより良い実践

しかし、こうした選択肢に不満なのであれば、別の選択肢もある。この数年、EFFはOnlinecensorship.orgなど世界中の市民団体と協力して、検閲に反対し表現を守ろうとする企業に向けた提言を作成してきた。その多くは「マニラ原則」(訳註:明白な「違法」コンテンツにのみ制限を要求しうると宣言した情報流通者の責任に関する国際原則)にもとづき、自社プラットフォームで人権保護を確実にしようとする企業にロードマップを提供する。

2018年、私たちはこれら提言を中核として、企業をより良い実践に向かわせるよう尽力していく。以下にまとめておこう。

意味のある透明性

長年に渡り、EFFや他の団体は、企業に対し表現の削除、特に政府の要請を受けた削除に関する透明性を高めるよう促してきた。しかし、許容される表現や、どのような情報、広告を表示するかといった点について、多くの企業が透明性を欠いている。FacebookやGoogleなどは、利害関係のない真に独立した研究者に、ブラックボックステストやシステムの監査を行わせなければならない。ボットがネットワークにメッセージを氾濫させた場合にはユーザに知らせ、また後述するように、自分自身を守るためのツールも必要となる。意味のある透明性は、どういったコンテンツが削除されたのか、どういったコンテンツがどういった理由でフィードに表示されているのかをユーザ自身が確認できなくてはならないということでもある。つまり、データの収集方法と利用方法をユーザに開示するということだ。さらに、データが保存され、利用される期間の上限を設定する権限をユーザに与えるということでもある。

デュー・プロセス(適正な手続き)

ポリシーを執行する際、企業は間違いを起こすことがある。だからこそ、明確な異議申し立て手続きがない――あるいは異議申し立て手続き自体が存在しない――ケースがほとんどであることに驚きを覚える。すべてのユーザはあらゆるケースについて、企業の削除の決定に異議を申し立てる選択肢など、デュー・プロセスの権利を有するべきである。マニラ原則はそのための枠組みを提供する。

ユーザに権限委譲するプラットフォームツール

プラットフォームは、広告やその他コンテンツのフィルタリングを可能にするツールを提供しているが、これは継続すべきである。このアプローチは「情報バブル」を促進するとして批判されているが、この問題は企業が自社の利益だけを目的としてユーザに表示するコンテンツを決定する場合に顕著になり、ユーザ自身の責任のもとに情報を得ている場合には、その問題は小さくなる。ユーザが自分自身のオンライン・エクスペリエンスをコントロールできるようにすべきなのである。たとえばFacebookは、ユーザが見たい広告の種類を選択できるようにしているが、コンテンツのためにも同様のシステムを実装すべきだ。その機能をインターフェースの奥底に隠すのではなく、ユーザがその場でその決定を下せるようなツールを提供しなければならない。スマートフィルタの使用は、ユーザ自身が見たいコンテンツを選択し、見たくないコンテンツをフィルタリングするのに有用だ。Facebookの機械学習モデルは写真コンテンツを認識できるので、ヌードをすべて禁止するのではなく、「ヌードなし」のオプションを選択できるようにすべきである(ヌードが違法とされる国であれば、「ヌードなし」の選択肢をデフォルトにすればよい)。

政治的な発言に関しては、さらに多くのイノベーションが必要になる。ここには生産的、情報的な対話をを促すようなユーザインタフェースの設計やユーザーコントロールなどが含まれるだろう。乱暴にでっち上げられたコンテンツにラベルづけし、その影響を弱めつつ、読者に透明性を与え、そのプロセスのコントロールを委ねる。これから数年に渡り、これは非常に複雑で、重要なデザイン空間になるだろう。私たちは今後もこれについて、さらに多くの記事を伝えていくつもりだ。

ユーザに権限委譲するサードパーティツール

良いアイデアを生み出すのは、大規模なプラットフォーム企業とは限らない。現在、大規模プラットフォームは、クローズドAPIを使用し、スクレイピングを遮断し、相互運用性を制限するなどして、サードパーティがプラットフォーム上の代替エクスペリエンスを提供するのを阻んでいる。彼らはコンピュータ犯罪取締法(CFAA)、著作権規制、デジタルミレニアム著作権法(DMCA)など多数の法律に基づき、プラットフォーム上のイノベーション制限するために自らの権限を行使している。Facebook、Twitter、YouTubeなど大規模プラットフォームは、競合サービスにもAPIを公開し、スクレイピングを可能にし、サードパーティ製品との相互運用性を保証し、場合によってはサービスをフォークしてでも、ユーザへの権限委譲を促進するべきだ。

事前同意

コミュニティのガイドラインやポリシーは、インターネットの礼節を守るためのものと謳われているが、大抵はさまざまな発言を削除するために使用されている。この問題を軽減するためには、サービスプロバイダがコミュニティガイドラインの1項目1項目について、ユーザから積極的な承認を得て、変更のたびに再度承認してもらうことがもっとも近道である。

賢いフィルタ

プラットフォームによって実装されるもののなかでは、表現を自動的に削除するフィルタリング・テクノロジーを懸念している。オンライン表現は、人間にレビューされるまでオンラインのままにすることをデフォルトにすべきだからだ。ごく一部、例外が適用されることもありうる。たとえば、既に侵害が確認されているファイルと完全に一致する場合や、異議申し立ての機会が残しつつ、削除に対する異議申し立てが行われていない場合だ。しかし一般的には、プラットフォームはスマートフィルタシステム(違法な可能性のあるコンテンツにフラグを立てて人間のレビューを支援し、ユーザがシステムを騙して他者の検閲を行わせようとした場合にもフラグを立てる)を使用できるし、使用すべきだ。

プラットフォーム間の競争とユーザの選択

究極的に、プラットフォームがサービス提供をしていなくても、ユーザがそのプラットフォームを去ることができなければならない。ここで重要となるのは、データのポータビリティである。企業はソーシャルグラフデータの保存方法に関するスタンダードに同意しなければならない。この領域の競争を奨励することは、詐欺的な、偽りの、あるいは憎悪に満ちた悪党からユーザを保護する強力なインセンティブになる。完全な相互運用性とデータ・ポータビリティを可能にするよう企業に圧力をかけることは、ソーシャルネットワークの覇権競争に繋がるかもしれない。

密かな規制は許されない

過去10年に渡り、私たちはインターネット上の行動をコントロールしようとする企業間の密約を目にしてきた。この密約はしばしば政府によって促され、手っ取り早く責任を負わずにすむ規制の代替手段とされてきた。その例は枚挙に暇がない。検索エンジンは昨年、英国知的財産局からの圧力を受け、違法な疑いのあるコンテンツへのリンクの削除についてさらなる措置を求める「自発的行動規則」に合意している。また、ドメイン名レジストラも「自発的な」ドメイン名の凍結を含む、著作権執行への協力を求める圧力に晒されてもいる。同様に、2016年、欧州委員会は大手プラットフォームと合意を交わしている。表向きは欧州で違法とされる表現への対処を求めることになっているが、裁判官や法廷がその違法性を判断するわけでも、拠り所となる法令があるわけでもなく、単に企業の利用規約に依存したものである。

密かな規制は危険であり、民主主義を蝕む。規制は公に行わなければならず、その規制によって影響を受けるさまざまな利害関係者の参加のもとに決められるべきである。この問題を改善するためには、交渉担当官は合意によって大きく影響を受けるすべての団体から意味のある代表者が参加するよう努めなければならない。バランスの取れた透明性の高い審議プロセス、独立した第三者による審査、監査、投票など説明責任の仕組みなども含まれる。

コア・インフラストラクチャはそのままに

昨年、コア・インフラストラクチャ・プロバイダーが検閲に追い立てられたことで、表現を直接ホストする側による検閲の問題は急激に深刻なものとなっている。小さな声が大きな声にかき消されてしまうリスク、さらには巻き添えのリスクも高まっている。インターネット上の表現は、多数のシステムやその運営者同士の脆いコンセンサスに依存している。インターネットでの表現の許容範囲について意見の相違があることを考えれば、表現を改変するためにそうしたシステムを使用することは、コンセンサスの崩壊を招くおそれがある。証明書認証局やコンテンツ・デリバリー・ネットワーク(CDN)などの仲介事業者による削除は、巻き添え検閲を引き起こす可能性が極めて高い。そうした部分をインターネットにおける表現の自由の弱いリンクと呼んできたのはそのためだ。

こうした潜在的な弱いリンクを守るための確実かつ、安定した防衛は、これらをコントロールポイントとして用いようとするすべての試みを単純に拒否することである。彼らはパブリッシャではなく、パイプとしての役割を守るために行動できる。GoDaddyやGoogleなどのドメイン管理企業は、コンテンツの表現に基づいてドメイン名を凍結したり、停止したりしてはならない。

さらなる説明責任に向けて

表現の自由を守るための万能な解決策は存在しない。しかし、この提言リストが示すように、企業や政治家が、危険性をはらみ、うまくいく可能性の低い検閲戦略をに陥ることなく、インターネットユーザを守り、力づけるための方法はたくさんある。

私たちは、新たな法律、新たなテクノロジー、新たな規範であろうと、さまざまな提案を精査し批評しつづける。しかしまた、こうした議論が既存の利害関係者や、短絡的かつ不可逆な行動への素朴な願望に支配されないよう、私たち自身の役割を果たしてもいく。私たちは引き続き検閲の巻き込まれ被害を強調していく。特に、こうした議論で無視され、最も被害を被っている声を守るために。

注:本稿には多数のEFFスタッフが貢献した。特に、ピーター・エカズリ、ダニー・オブライエン、デヴィッド・グリーン、ネイト・カードーゾに感謝する。

Private Censorship Is Not the Best Way to Fight Hate or Defend Democracy: Here Are Some Better Ideas | Electronic Frontier Foundation

Author: CORYNNE MCSHERRYJILLIAN C. YORK, AND CINDY COHN (EFF) / CC BY 3.0 US
Publication Date: January 30, 2018
Translation: heatwave_p2p