Electronic Frontier Foundation

私たちにとって最も実りある対話の中には、センシティブで政治的な話題も含まれる。インターネットは、どこの誰に対しても、対話の空間を提供している。インターネット接続が制限されていない環境であれば、世界中の誰であっても、オンラインコミュニティに集い、日常会話から極めて物議を醸す話題に至るまで語り合い、社会の差し迫った問題に対峙し、共に考えることができる。しかし、米国の政治家たちからは、こうしたインターネットの複雑な対話を禁止する新たな法律を検討しようとの声が日増しに高まっている

米下院国土安全保障委員会のベニー・トンプソン委員長は、テクノロジー企業に対し、プラットフォーム上の「センシティブで暴力的なコンテンツ」の削除を優先するよう求めている。しかし、これまで我々が懸念してきたように、彼の主張はそれだけにとどまらない。企業が自主的な対策をすぐに講じなければ、法規制も辞さないと脅しをかけている。

トンプソン議員は、複数のプラットフォームでライブストリーミングされたニュージーランドの銃撃事件の直後、Google、Twitter、Facebook、Microsoft、Twitterなどの企業に書簡を送付し、プラットフォームが自ら行動を起こさないのであれば、「議会は既に規制法を導入している国々を参考にしつつ、あなた方のプラットフォーム上でテロ関連コンテンツが拡散しないよう規制するための政策を考えなくてはならない」と述べている。凄惨な犯罪に直面したことで、より積極的なモデレーションポリシーを要求したくなる気持ちもわからないではない。特に、大手オンラインプラットフォームがヘイトや暴力を拡散、増幅する個人によって悪用される可能性について十分に対処できていないのだからなおさらだ。より積極的なモデレーションは望ましくはないが、このオンライン環境を改善するためには仕方がない、と主張する人さえいるだろう。

しかし、プラットフォームにユーザ投稿コンテンツへの法的責任を負わせようという願望は、しばしば逆効果を生み、適法な主張――特に社会からの疎外を克服しようとしている人々の声――を黙らせるほどに拡大していく。こうした規制を導入しても、プラットフォームは許されない表現とそうでない表現を区別する能力の向上させたり、行動に影響を及ぼすビジネスモデルの改善したりするのではなく、単純に表現を検閲するよう仕向けられることになる。また、規制を求める主張は概して、規制が高度な技術水準を求めることによって、その水準を満たしうる大手プラットフォームの市場優位性を強化してしまうという問題はほとんど考慮しない。こうした規制が法律に制定されれば、他の国でもそうであったように、プラットフォームは責任を回避するために日常的な対話まで検閲するようになる。

FOSTAが具現化した規制の失敗

政治家がこうした規制のもたらす結果を知りたいのなら、他国の規制を調べる必要などはない。成立から1年も経っていない、性的人身売買と戦うための米国の法律「FOSTA」がもたらした結果を見ればいいのだ。EFFをはじめとするデジタル権利擁護団体は、FOSTAによってインターネット上の表現が広く犯罪化され、セックスワーカーやその支援者たちがターゲットにされることで、インターネットの自由な表現が脅かされる危険性を訴えて、議会で闘ってきた。セックスワーカーや性的人身売買の被害者を密接に支援する団体は、同法案が合意に基づくセックスワーカーと、性的人身売買被害者の双方をいっそう危険に晒す可能性があると議会に警告した。恐ろしいことに、この警告は現実のものとなった。セックスワーカーが暴力の被害を訴え、衛生・安全のための情報を獲得し、コミュニティを形成し、人権擁護活動のために利用してきたオンラインプラットフォームは、彼らを排除してしまったのだ。

FOSTAはサイバースペースに大きな衝撃をもたらし、その結果、本来法律が意図してはいないコンテンツの削除や検閲を生み出した。同法と戦うために様々な人々が原告となって違憲裁判を起こしているが、その被害は既に現実のものとなっている。この法律のために、一部のウェブサイトは明示的な変更を余儀なくされ、たとえばCraigslistはFOSTAがもたらす法的リスクを理由に、個人セクション全体を廃止した。他のコミュニティベースの小規模プラットフォームも、FOSTAの致命的な刑事責任、民事責任に対応することを諦め、サービス全体の閉鎖を余儀なくされている。また、最近のTumblrやFacebookの方針転換も、直接的に同法によるものとは断言できないにしても、FOSTAが影響した可能性もある。Tumblrはあらゆる性的コンテンツを禁止し、Facebookは合意の上での成人のセックスタブーについて規定する「性的勧誘」ポリシーを新たに作成している。

FOSTAの直接的な影響かどうかはさておき、デジタル権利団体の懸念していた最悪の事態が現実となっていることは明白だ。プラットフォームが特定の投稿内容をホストすることに過大な責任を負うようになれば、法的責任を問われうるコンテンツを確実に遠ざけるために、セックス、セクシュアリティ、その他重要なトピックに関して、過剰反応したり、禁止したりすることになる。FOSTAがインターネットやオンライン・プラットフォームに頼るセックスワーカーやその支援者たちに及ぼしたとてつもない萎縮効果を考えれば、インターネットユーザは、「テロ関連」コンテンツの責任をプラットフォームに負わせる法律にがもたらす被害を、議会に理解させなくてはならない。

プラットフォームに「テロ関連コンテンツ」への法的責任を負わせる法案は、たとえそれがわずかな範囲の表現にしか影響を及ぼさないように見えても、プラットフォームに過剰検閲を促し、戦略について論じるアクティビストから、ニュースバリューのある出来事を論じるジャーナリスト、私たちの世界で起こる現実の出来事についての意見を口にする個人に至るまで、幅広い人々に影響を及ぼすことになる。インターネットから特定のトピックを排除してしまえば、私たちが関心を寄せる現実問題を解決するためのチカラが奪われることにもなる。こうした規制は、対話を制限するだけでなく、世界中の困難や悲劇に取り組むことを妨げる。自動化フィルタが現実の性的人身売買と、性的人身売買に関する議論との違いを判別できないように、テロリストのコンテンツとテロリストに関する議論との判別に失敗したプラットフォームが厳しい責任に直面するということになってしまえば、必然的に、無辜の人々を巻き込んで沈黙させてしまうようなフィルターに依存せざるを得なくなる。そしてFOSTAと同様に、テロ行為の影響を最も受けている人々ばかりが害されることになるのだろう。

オンラインプラットフォームは、独自のポリシーを設定し、コミュニティスタンダードに違反したコンテンツを削除する権限を有している。たとえばFacebookは、ニュース報道の一部として共有される恐ろしい映像、あるいはユーザが「暴力を強調し、非難することを実際に意図した」投稿であっても削除する方針を明らかにしている。さらに、最近になって白人至上主義と白人分離主義に関するコンテンツの削除に関するポリシーも改定された。しかし、狭義の「テロ関連コンテンツ」であっても、オンラインに公開することを公式に犯罪化してしまえば、プラットフォームは必然的にバランスを一方向に傾けてしまい、結果としてユーザ・コンテンツを厳しく取り締まり、特定トピックに関連したあらゆる議論を妨げることになる。そうなれば、ジャーナリスト、研究者、活動家をはじめとする重要な声が沈黙させられることになるかもしれない。

よく覚えておいてほしい。プラットフォームはモデレータに高給を支払い、慎重に審査してもらわなければ、誇張とヘイトスピーチ皮肉と真剣な議論暴力の指摘と暴力の煽動とを見分けることはできない。これまで世界中で見られているように、テロリズムへの対抗言論を行ったユーザは、しばしばそのルールの違反者として扱われてきた。パレスチナ人ジャーナリストチェチェンの独立運動家、さらにはヒズボラの指導者ハッサン・ナスラーラの写真にLGBTQのプライドフラッグを重ねた写真を投稿したアラブ首長国連邦のジャーナリストのアカウントが、Facebookによって凍結されている。パロディを用いた明白な対抗言論であったにもかかわらず、Facebookのフィルターもコンテンツモデレータもそれに気づけなかったのだ。

プラットフォームに暴力コンテンツへの責任を負わせることは違憲である

政治家は「センシティブで暴力的なコンテンツ」をホストするプラットフォームに法的責任を負わせるという公約を履行しようとしているが、それは明らかに違憲である。修正第一条は、特に「センシティブで暴力的なコンテンツ」というような不明確で曖昧なカテゴリを対象として、内容に基づいて政府が表現を罰したり、禁止することを厳しく制限している。端的に言えば、修正第一条(訳註:における表現の自由の保護)は、過激主義者やテロリストのコンテンツであっても、そのカテゴリを例外としてはいない。たとえ社会や政治家が、そうした表現は社会的価値をほとんど有していないとか、それが広がれば有害であると考えていたとしても。最高裁が認めているように、「表現の自由の保障は、その時点における相対的な社会的費用・便益のバランスに適う表現のカテゴリにのみ及ぶものではない」のである。にもかかわらず、トンプソン議長はそうではないというのだ。

真の脅威や、無法な活動を直接的に煽動する表現など、ある種の暴力的な表現は修正第一条の保護するところではないのかもしれないが、トンプソン議長が異を唱えるような表現の大多数は、完全に保護されているものである。たとえオンラインプラットフォームが、修正第一条によって保護されない暴力行為を直接的に煽動する表現をホストしていたとしても、プラットフォームが暴力行為の奨励を意図し、それにコミットする具体的な指示を与えていないのであれば、修正第一条はプラットフォームに責任を課すことを禁じているのである。

また、修正第一条は、市民が他者の表現を聞いたり、他者の表現にアクセスすることも保護している。情報を得ることは、自らの表現の自由を行使するための第一歩だからだ。プラットフォームが法的脅威に晒されれば、彼らは単にテロ攻撃の直接的な煽動や真の脅威の表現のみならず、テロに関連するありとあらゆる表現を禁じるようなるだろう。これにより、プラットフォームのユーザは、特定のコンテンツに関するどの表現を許容し、どれを許容しないかを自ら決定できなくなってしまう。これは修正第一条とは直接的に衝突することになる。「センシティブで暴力的なコンテンツ」をホストすることに対してプラットフォームに責任を課すことは、インターネットユーザの修正第一条の権利をも侵害することになる。

世界に広まる過激コンテンツ規制法は益より害をもたらす

米議会が他国の規制法の事例を学ぼうというのであれば、その規制が成功したのかどうかに着目しなければならない。同様の規制によってプラットフォームに表現を制限させるという規制は、米国においてはすでにFOSTAで失敗している。

フランスでは、シャルリー・エブド襲撃事件後に制定されたテロ対策法に対し、ジャーナリスト保護委員会が「解釈の余地が極めて広く、ニュースサイトをふくむ広範囲のコンテンツを検閲するために利用される可能性がある」と指摘している。違法な表現(訳註:主にヘイトスピーチ)について報告から24時間以内に対処することを企業に義務づけるドイツのNetDGは、適法な表現の削除するという結果をもたらしている。さらに、民主主義国家がそのような規制を導入すると、多くの権威主義国家が同様の規制を導入するよう奨励してしまうことにもなる。たとえば、中東や北アフリカ諸国が導入したサイバー犯罪対策法には反テロ条項が含まれ、政府が批判者を黙らせるために利用されている。

先ごろEUが提案した規制――企業に「テロ関連コンテンツ」を1時間以内に削除することを義務づける――は、政治的には正しく思われるかもしれないが、インターネット上の表現に対しては有害である。我々は多数の組織とともに、この規制によって人権の擁護者や表現の自由にもたらされる深刻な影響を考慮するようEU議員に呼びかけてきた。投稿から1時間以内の削除が義務づけられれば、企業は適切な手続きを踏むことなく、まずは問答無用で検閲し、然る後に質問するというようなフィルタを実装しなくてはならなくなるだろう。

政府はこうした規制を悪用できないようにしてくれると安易に思っていなら、考え直してほしい。今月、Center for Media JusticeとACLUは、「黒人アイデンティティ過激主義者」(訳註:日本語関連記事)を「新たな国内テロの脅威」とするでっち上げに基づいて行われた監視活動に関連する文書の開示を拒否したFBIを提訴している。政府機関は幾度となく、定義の決定過程の透明性を欠いたまま脅威を定義してきた。そうすることで、責任を負うことなく監視対象者を決定することができたのだ。誰がオンラインプラットフォームに検閲をさせるのかを決定する権限を政府に与えてはならない。インターネット企業による自主規制は完全な解決策ではないにしても、政府が表現を制限する新たな規制を検討するのであれば、細心の注意を払わねばならない。さもなくば、何の効果もなく、危険で、憲法違反がまかり通る領域に突き進んでいくことになる。

Don’t Repeat FOSTA’s Mistakes | Electronic Frontier Foundation

Author: Jason Kelly and Aaron Mackey (EFF) / CC BY 3.0 US
Publication Date: March 29, 2019
Translation: heatwave_p2p
Materials of Header Images: 1 million cats (CC BY 4.0) / ArtsyBee / Ridderhof