以下の文章は、電子フロンティア財団の「General Monitoring is not the Answer to the Problem of Online Harms」という記事を翻訳したものである。

Electronic Frontier Foundation

オンライン仲介業者が積極的に特定ユーザの発言を検出したり、表示ランクを下げたり、あるいは削除すべきだと考える人であっても、仲介業者に事前にすべてのコンテンツを確認するよう求めること(しばしば「一般監視」あるいは「アップロード・フィルタリング」と呼ばれる)は、表現の自由とプライバシーの双方に深刻な人権上の問題があると考えるだろう。

一般監視(General Monitoring)は、法律で直接的に義務づけられる場合と、義務づけられてはいないがそうしないことによる法的リスクが非常に大きいため事実上義務づけられている場合のいずれにおいても問題がある。後者のような間接的な要件は、プラットフォームが法的責任を回避するために、ユーザ行動の積極的な監視、ユーザコンテンツの審査、議論を呼びそうな投稿/好ましくない投稿/違法かもしれない投稿の削除、内部的なフィルタリングなどを促すことになる。プラットフォームは「合理的」な行動を行わなかった責任、あるいは有害であることを「知っているべきだった」ユーザコンテンツの削除をしなかった責任を回避しようとするので、必然的にオンラインコンテンツの検閲に繋がる。

直接的に義務づけられた場合でも、間接的に動機づけられた場合でも、一般監視は人権とユーザに重大な悪影響を及ぼす。

  • オンラインコンテンツの規模が極めて大きいため、一般監視ではデータセットの偏りを反映した有害なプロファイリングを引き起こす自動的意思決定ツールが広く用いられている。
  • これらの自動アップロード・フィルターは、間違いやすく、不正確であることで知られ、適法な表現を過剰に遮断する傾向がある。
  • アップロードフィルターはさらに、ユーザを自動的に、しばしば恣意的に意思決定の対象とすることで、人権の基本原則の比例性と必要性に反している。
  • ユーザからアップロードされるすべてのファイルを積極的に監視することは、ユーザがオンラインで投稿・アクセスできるコンテンツを制限し、表現の自由と情報アクセスに萎縮効果をもたらす。
  • ユーザの投稿をすべて審査するプラットフォームは、企業、ひいては政府機関にユーザに関する膨大なデータを提供し、ユーザのプライバシーの権利を損なう。これはとりわけ、匿名の発言者にとって大きな脅威となる。
  • 事前スクリーニングは、過剰執行、探り捜査(fishing expeditions:容疑のない証拠探索)、過剰なデータ保持につながるおそれがある。
  • 一般監視はビジネスの自由を損ない、コンプライアンスコストを増大させ、代替プラットフォームのガバナンスモデルを損ねる。
  • 監視技術は、洗練されたフィルタリングツール開発のリソースを持たない小規模プラットフォームでは有効性が低下する。したがって、一般監視は一握りの強力なプラットフォームがゲートキーパーの役割を強化することにはなるが、代替プラットフォームのガバナンスを弱体化させることになる。

我々は以前にも、政府が仲介事業者規制に積極的かつ強引なアプローチを採用していることへの懸念を表明した。世界中の政治家たちがプラットフォームに対して、適法ではあるが「望ましくない」あるいは「有害な」コンテンツをサイトから削除するよう求め、同時に違法コンテンツを検出して削除することまで期待している。そうなれば、国家は基本的な表現の自由を保護すうる責務や、適法なコンテンツに不当な制限を加えることなく自由なオンライン環境を確保する責務を果たせないばかりか、公正でフィルターを通さない情報を共有・受信するユーザの権利が制限されることにもなる。さらに、表現の自由という個人の権利の萎縮にもつながっていく。ユーザは積極的に監視されていることを知れば、自らの行動を変え、自由なコミュニケーションを控えるようになり、自己検閲の文化が生み出されてしまうのである。

仲介事業者の責任に関する最近の政策トレンドとして、欧州連合は先日、デジタルサービス法(DSA)を承認した。DSAは適法で価値ある良質な表現を抑圧する“削除期限”を設けず、事実上のフィルタリング義務化を否定している。それとは対象的に、英国オンライン安全法案は、違法・有害コンテンツへの対策として特定コンテンツの存在を最小限に抑えるようオンラインプラットフォームに注意義務を課すことにで、表現の自由に深刻な懸念をもたらしている。この法案が成立すれば、ユーザコンテンツへの踏み込んだスキャンは避けられないだろう。

では、プライバシーや表現の自由というユーザの権利を保護しつつ、違法コンテンツを確実に検知・削除するにはどうすればよいのか。そのために、我々は他のNGOとともにマニラ原則を策定し、当該コンテンツが完全に違法と判断され、裁判所がその削除を命じた場合を除き、仲介事業者はユーザの発言に責任を負うべきではないことを強調している。コンテンツを違法と判断するのは、独立・公平・自律を備えた司法に委ねられるべきである。裁判所にコンテンツ削除の判断を委ねることで、プラットフォームが自ら不正確かつ強引な判断を下す理由はなくなる。そうすることで、削除命令が、裁判所または同様の権威によって決定された特定の違法コンテンツだけに限定されることを保証できる。

これまでEFFは、規制当局に対し、オンライン仲介事業者が第三者コンテンツへの責任免除の恩恵を享受し続けられることを保証し、追加的な義務を課すことで、表現の自由やイノベーションを損ねてはならないと強く求めてきた。コンテンツを制限するのであれば、そのルールが法律によって規定され、デュープロセスに従い、独立した司法当局がコンテンツを評価し、その制限について決定すべきであるという原則を尊重しなければならない。強調したいのは、仲介事業者がユーザからの通知を受けていて、かつ当該コンテンツを削除しない判断を下していた場合であっても、責任を負わされるべきではないということである。

規制当局は、有害コンテンツに対する有効な対策を講じ、インターネットの自由を支える人権を尊重したモデレーションのフレームワークを採用することで、違法性が疑われるコンテンツへの警告と削除に積極的に介入することを避けるべきである。

General Monitoring is not the Answer to the Problem of Online Harms | Electronic Frontier Foundation

Author: Paige Collins and David Greene / EFF (CC BY 3.0 US)
Publication Date: August 16, 2022
Translation: heatwave_p2p
Material of Header image: Michał Jakubowski