以下の文章は、電子フロンティア財団の「Online Platforms Should Stop Partnering with Government Agencies to Remove Content」という記事を翻訳したものである。
政府によるコンテンツ・モデレーションへの介入は、いかなる場合であっても深刻な人権上の懸念を引き起こす。だが、そうした懸念は、介入が法執行機関を介して行われる場合にはさらに厄介なものになる。先日、我々はMeta監督委員会に対し、この問題を真剣に扱うよう求める意見書を提出した。
プラットフォームが政府機関に協力するようになると、そのプラットフォームには政府に都合の良いバイアスがかけられるようになることは避けられない。つまり政府に対して、公的な対話をコントロールし、批判意見を抑圧し、対立する政治勢力を黙らせ、社会運動を鈍らせるといった、政府自身の政治的目標のためにコンテンツモデレーションシステムを操作する強力な影響力を与えることになってしまう。一旦そのようなシステムが構築されてしまえば、政府、とりわけ法執行機関はそれを利用して、プラットフォームに強制的な圧力をかけ、本来であれば制限されることのなかった表現を簡単に抑圧にできるようになる。
たとえば、ベトナム政府はFacebookの投稿削除の有効性が上昇していると豪語するが、そのターゲットが反体制派であることを非難されている。同様に、イスラエルサイバーユニットは、すべてのソーシャルメディアプラットフォームにおける削除要請の遵守率が最大で90%に上ることを誇っている。だが、そうした要請はパレスチナの権利活動家、報道機関、市民社会を不釣り合いに標的にしている。このような状況を鑑みて、Facebook監督委員会はFacebookに対し、「政府からのコンテンツ削除要請の取り扱いおよび対応について透明性のある手続きを公式化し、透明性レポートに含める」よう勧告した。
政府によるコンテンツ・モデレーション介入問題は、新たに改定されたサンタクララ原則2.0で取り上げられ、EFFを始めとする市民社会団体は「コンテンツモデレーション・プロセスへの国家の介入がもたらすユーザの権利への特別なリスクを認識する」ようソーシャルメディア企業に求めている。サンタクララ原則はさらに、「国家権力は、反対者、対立する政治勢力、社会運動、またはいかなる人物に対するものであっても検閲のために企業のコンテンツモデレーションシステムを悪用・操作してはならない」とも明言している。
具体的には、ユーザが以下の情報にアクセスできるようにしなければならない。
- グローバル、ないし特定の国・地域に適用される現地法の要件を反映するルールやポリシーの詳細。
- コンテンツやアカウントへの警告、またはその他の措置について、企業が国家権力と交わす公式ないし非公式な関係・協定の詳細。
- 国家権力によって警告されたコンテンツやアカウントが、企業のルールやポリシー、現地法に基づくものであるかを評価する手続きの詳細。
- 投稿やアカウントへの対応を求める政府の要請の詳細。
ソーシャルメディアサイトが政府当局に、違法コンテンツやコミュニティガイドライン・利用規約に違反するコンテンツをプラットフォームに通知する「信頼できるフラッガー(trusted flagger)」の権限を認めている場合、これら情報へのアクセスはユーザにとってさらに重要性を増す。国内の市民的自由の実績が疑わしい政府に対しても「信頼できるフラッガー」の権限を与えられていることもあり、その場合には政府の公式見解に反する言説の検閲も可能になってしまう。
政府にプラットフォーム上のコンテンツに「フラグ」を立てる優先的権限が与えられるようになれば、オンラインでアクセスできるコンテンツへの政府の影響力に関する懸念はさらに深刻なものとなる。たとえばEUのデジタルサービス法(DSA)では、プラットフォームが政府機関、つまりユーロポールなどの法執行機関を信頼されたフラッガーとして指定しうるメカニズムをまもなく導入することになっている。信頼できるフラッガーは違法コンテンツだけにフラグを立てるものとして想定されているが、DSAの前文では、プラットフォームは信頼できるフラッガーに権限を与え、利用規約に反するコンテンツに対処できるよう推奨されている。このことは、法執行機関による過剰な介入への扉を開くとともに、プラットフォーム側がコンテンツモデレーションの役割を法執行機関に過度に依存してしまうことにもなりかねない。
英国では、ロンドン警視庁(Met)がオンラインプラットフォームからドリルミュージックの排除を進めてきた(訳注:日本語関連記事)。Metはドリルミュージックを創造的な表現ではなく、犯罪への関与の自供であるという間違った、さらに言えば人種差別的な信念にもとづいて削除しようとしており、これはまさに専門知識の欠如を物語っている。2018年、YouTubeは法執行機関としては世界で初めて「信頼できるフラッガー」の地位をMetに与え、「オンラインコンテンツ削除のためのより効果的かつ効率的なプロセスを実現する」とした。このコンテンツモデレーションの浸透システムを統括するのが、Metのプロジェクト・アルファだ。プロジェクト・アルファでは、ギャング対策ユニットの警官がデータベース(ドリルミュージックビデオを含む)を運用し、ソーシャルメディアサイトを監視して犯罪活動に関する情報を収集している。
プロジェクト・アルファに対しては、表現の自由を抑圧し、プライバシーの権利を侵害しているとの批判もあるが、Metはそれを否定し続けてきた。だが報道によると、Metは2016年11月以降、ソーシャルメディアプラットフォームから「有害な可能性のあるコンテンツ」の削除を579件要請し、そのうち522件が削除されていることが明らかになっている。その多くがYouTubeからの削除だった。また2022年のViceの報道によると、2020年以降、プロジェクト・アルファのデータベースに1006本のラップビデオが登録されていたことが判明している。大幅に黒塗りされたMetの公式文書でも、同プロジェクトが15歳から21歳の男性を中心に「大規模な組織的監視またはプロファイリング」を実施することが明記されている。ドリルの歌詞やミュージックビデオは、犯罪行為への関与を単純にまたは即座に自白を意味するものではなく、文化特有の言葉や言及を通じて伝達される芸術表現であるのだが、警察はそれを読解・理解する能力を持ち合わせていない。こうした法執行機関の「ストリートカルチャーへの無理解(street illiteracy)」によって、ドリルミュージックはアーティスト自身が目撃・実行した現実場面を描いたものだという間違った考えが増幅されてしまっている。
警察官は音楽の専門家ではなく、歴史的にも音楽と暴力を結びつけてきた。そのため、警察がソーシャルプラットフォームにあげるフラグは、完全に一方的なもので、専門家が両者をサポートするということもない。法執行機関がソーシャルメディアプラットフォームとの連携を通じて、若者や有色人種コミュニティを不当に標的としてギャング活動の懸念を進めていることは特に問題である。
実際、ある「英国の法執行機関」の要請によるドリルミュージックのビデオの削除は、まさに監督委員会が検討しているケースである。
すべての個人は、その意見が権力者の意見に反するという理由で政府当局に検閲されることなく、オンラインで共有できなくてはならない。政府機関がコンテンツの削除を要請した場合には、ユーザはそれを知らさせるべきであり、企業は政府当局と結んだ裏口の取り決め(トラステッドシステムやその他の優先フラグシステムを含む)を開示し、そうした特権やアクセスを許可された特定の政府当局を開示しなければならない。
Online Platforms Should Stop Partnering with Government Agencies to Remove Content | Electronic Frontier Foundation
Author: DAVID GREENE, PAIGE COLLINGS, AND CHRISTOPH SCHMON / EFF (CC BY 3.0 US)
Publication Date: AUGUST 12, 2022
Translation: heatwave_p2p
Material of Header image: King’s Church International / Conny Schneider (modified)