以下の文章は、電子フロンティア財団の「Meta’s New Content Policy Will Harm Vulnerable Users. If It Really Valued Free Speech, It Would Make These Changes」という記事を翻訳したものである。
今週初め、Metaはコンテンツモデレーションプロセスの変更を発表した。その変更点については本稿で詳しく説明するが、当初我々は、同社のプラットフォームでより大きな表現の自由が実現されることを期待していた。Metaの当初の発表は主に誤情報ポリシーの変更に関するもので、過剰な取り締まりや自動化ツールの使用を縮小するという、我々が長年批判し、改善を求めてきた問題に対処するように見えた。我々は「MetaがLGBTQ+の発言、政治的な異論、セックスワークなど、一般的に検閲されるトピックに関するモデレーションの実践についても見直すことを」期待した。
しかし、我々が声明を公開した直後、Metaはそのような過剰な検閲を改善するどころか、逆行する方針を打ち出した。英国Independent紙の報道によれば、同社はヘイトスピーチポリシーを変更し、特定の脆弱なグループに対する非人道的な発言を容認することにしたのだ。
今後のポリシー変更に関するマーケティング動画を見て、我々が期待を寄せ、声明を出したことは、明らかな誤りだった。その変更が文書化される前に判断を下すべきではなかった。我々は常に、コミュニティガイドラインやサービス利用規約に記載されたポリシーよりも、人々が実際に経験しているオンライン検閲の影響に目を向けてきた。Facebookには既に抑圧されている人々を沈黙させ、さらなる周縁化を進めてきた不穏な実績がある。そしてそのコンテンツモデレーションポリシーについても、常に率直さを欠いてきた。今回、Facebookのコミュニティスタンダード文書に最初に現れた変更点も、まさにその路線を踏襲しているように見える。
具体的に、Metaの新しいヘイトスピーチポリシーは以下の内容を含んでいる。
- トイレ、特定の学校、軍事、法執行機関、教育者の役割、健康やサポートグループなど、性別やジェンダーで制限されることの多い空間へのアクセスについて議論する際、人々は時として性別やジェンダーを排除する言葉を用いることがある。また、トランスジェンダーの権利、移民、同性愛などについて議論する際に、政治的または宗教的な文脈で排除を求めたり、侮辱的な言葉を使用したりすることがある。さらに、恋愛関係の破綻に際して、特定のジェンダーを呪うこともある。我々のポリシーは、このような種類の発言を許容できるよう設計されている。
しかし、このポリシーの実施は、特定のグループへのヘイトスピーチをより寛容に扱うことに主眼が置かれており、とりわけLGBTQ+の権利の正当性に異議を唱える発言をより広く許容することに力点が置かれている。例えば、
- 保護対象となる特性に基づく精神疾患の主張は引き続きレベル2の違反となるものの、改訂されたポリシーでは、トランスジェンダリズム(注)と同性愛に関する政治的および宗教的議論を理由に、性別や性的指向に基づく精神疾患や異常の主張が許可されることになった。
- 改訂されたポリシーは、軍事、法執行機関、教育職、スポーツリーグ、トイレからの性別および性的指向に基づく排除を主張する発言を、Metaが許可することを明記している。
- また、保護対象となる特性に基づいて人々を無生物、排泄物、汚物になぞらえることを禁じていた従来の規定も削除された。
これらの変更は、Metaが原則としての表現の自由よりも、米国の次期政権への配慮を重視していることを物語っている。この懸念は、「外観に基づく偏見(appearances of bias)」に対応すべくコンテンツポリシーチームをカリフォルニア州からテキサス州に移転するという発表に対する我々の声明でも言及した。Metaはこれらのトピックが「頻繁な政治的議論と討論の対象」であり、「テレビや議会の議場で」発言できることを理由に変更を行うと述べているが、それが本当に同社の新しいスタンダードなのであれば、その展開はあまりにも選択的であり、特にanti-LGBTQ+的な発言を広く許容していることに驚かされる。
我々は、Metaのプラットフォーム上に残る反トランスの憎悪的なコンテンツに引き続き強く反対し、脆弱なコミュニティ――米国内および国際的な――に対する憎悪を可能にすることを直接の目的としたあらゆるポリシー変更を強く非難する。
真摯なコンテンツモデレーション改革は、表現の自由を促進し、周縁化されたユーザを保護する
当初の発表で、Metaはポリシーの執行方法を変更して、ミスを減らし、すべてのコンテンツにフラグを立てる自動システムへの依存を終わらせ、異議申し立ての審査のためのスタッフを増員すると述べた。これは理論的には前向きな措置であり、アーティスト、セックスワーカー支援団体、LGBTQ+支援者、パレスチナ支援者、政治グループなど、グローバルなデジタルライツコミュニティから長年批判されてきた表現の検閲を軽減させるはずだと考えている。
しかし、Metaのような偏ったモデレーションの歴史を持つ企業においては、これらの問題は、より広範な表現の自由の目標を損なわないような、慎重で、よく考えられた、誠実な修正が必要とされている。
10年以上にわたり、EFFは大規模なコンテンツモデレーション――特に自動化されたコンテンツモデレーション――が様々なグループに与える影響を批判してきた。Metaが本当にそのプラットフォーム全体で表現の自由を促進することに関心があるのなら、ヘイトスピーチの解禁ではなく、以下の必要不可欠な改善を優先するよう、我々は呼びかける。
グローバルなユーザベースに投資し、より多くの言語をカバーせよ
Metaは長年、モデレーション実践における文化的・言語的能力の提供への投資を怠り、その結果、コンテンツの不正確な削除や(欠陥のある)自動化ツールへの依存の度合いを高めてきた。我々はこれを長年にわたり指摘してきた。2011年のアラブの春の後、我々は中東・北アフリカの活動家に対するFacebookの報告プロセスとその影響について懸念を文書化した。最近では、業界全般における文化的能力の必要性が改訂版サンタクララ原則でも強調された。
長らく、Metaのプラットフォームがさまざまな地域で憎悪と過激主義を加速させるために使用されるにつれて、同社のグローバルな欠陥はさらに明白になっていった。主要な事例として、ミャンマーにおける反ロヒンギャ感情のモデレーションの失敗がある――これはビルマ語を話すモデレータがあまりにも少なかったゆえの直接的な結果である(2015年、ロヒンギャに対する暴力的な感情や暴力の扇動が広がった時期に、対応するモデレータはわずか2人だった)。
Metaが不適切な自動化への依存を減らし、異議申し立てシステムが有効に機能することを確保すれば、これらの問題の一部は解決されるだろう。しかし、米国外の国々や英語圏外のコンテンツが公平にモデレートされるようにするのであれば、世界各地域で適切にコンテンツモデレーションを実施できる人材への投資を進めなければならない。
欠陥のあるモデレーションを容認する「過激派コンテンツの自動検出への依存」
我々は長年、テロリストと過激派の発言に対するMetaの過剰な取り締まり、特に人権コンテンツに与える影響を批判してきた。問題の一部は、過激派コンテンツにフラグを立てるモデレーションへのMetaの過度の依存にある。中東・北アフリカにおけるモデレーションを検討した2020年の文書によると、アラビア語のテロリストコンテンツを検出するためのアルゴリズムは、投稿の77%を誤ってフラグ付けしていた。
最近では、「from the river to the sea」というフレーズを削除するMetaの自動モデレーションでこれが見られた。監督委員会への提出文書で我々が主張し、委員会も同意したように、このフレーズには憎悪的でない、あるいはMetaのコミュニティスタンダードに違反しない重要な歴史的用法がある。したがって、モデレーションの決定は個別的に行われなければならない。
言語能力に関するMetaの欠点と重なるこの問題のもう一つの例は、「shaheed」という用語に関連している。これは最も近い訳語で「殉教者」を意味し、アラビア語話者や世界の多くの非アラビア語話者のムスリムによって、主に(ただし排他的ではない)イデオロギー的な大義のために亡くなった個人を指すために使用される。ECNLとの共同提出文書でMeta監視委員会に主張したように、この用語の使用は文脈依存的だが、Metaは自動モデレーションを使用してこの言葉の事例を無差別に削除してきた。監視委員会はそのポリシー諮問意見で、コンテンツの過剰な削除は非効果的であり、むしろ逆効果になる可能性があるため、暴力を防止しようとする表現の自由に対するいかなる制限も必要かつ比例的でなければならないと指摘した。
オフラインで迫害を経験する周縁化されたコミュニティは、オンラインでも不当な検閲に直面することが多い。Metaは、特に母国で検閲に直面する可能性のあるコミュニティの表現の自由を守る上で、そのグローバルなユーザベースに対する責任を認識することが不可欠である。性的なテーマのコンテンツは差別的な過剰検閲にさらされ続けている。
我々は10年以上も前から、性的なテーマのコンテンツに対するMetaの削除を批判し続けてきた。同社の成人の性的活動とヌードに関するポリシーは、広範囲の人々やコミュニティに影響を与えているが、特にLGBTQ+の個人とセックスワーカーに最も深刻な影響を与えている。表面上はサイトを「ファミリーフレンドリー」に保つことや「子どもを保護する」ためのポリシーとされているが、しばしば不平等に執行され、同様の異性愛的コンテンツは問題視されない一方で、LGBTQ+のコンテンツは「成人向け」や「有害」と分類されることが多い。これらのポリシーは差別的に作成・執行されることが多く、ジェンダーフルイドおよびノンバイナリーの発言者を犠牲にしてきた――我々はこの差別を是正することを目的としたWe the Nippleキャンペーンに参加した。
現在の政治的分断の中で、このような問題はソーシャルメディアユーザに深刻な影響を与えている。
ヌードコンテンツのほとんどは合法であり、オンラインでそのような素材に関わることは、個人がアイデンティティを探求し、より広い社会的受容を提唱し、憎悪に反対し、コミュニティを構築し、新しい関心事を発見するための安全でオープンな枠組みを提供する。Metaがオフラインとデジタル空間の両方で、人々がヌードや性的表現をどのように創造し、関わるかの裁定者になることで、あらゆる種類のユーザにとって重要な関わり方が失われ、より力の弱い人々の声は定期的に封じられてきた。
中絶関連コンテンツの過剰削除が重要な情報へのアクセスを妨げている
「kill」という単語を含む中絶関連の投稿を削除するというMetaプラットフォームの対応は、ユーザの表現の自由を制限する基準を満たしていない。Metaは中絶関連のコンテンツを定期的に過剰削除し、ユーザが政治的信念を表明する能力を制限してきた。自動化ツールによるコンテンツモデレーションは、この言語の偏った削除と、重要な情報の削除をもたらしている。2022年、Viceは「中絶薬を郵送できる」というFacebookの投稿がわずか数秒でフラグが立てられたと報じた。
米国全土で中絶関連情報のオンライン交換を制限する法案が提出されている時期に、リプロダクティブジャスティスと中絶への安全なアクセスは、我々のあらゆるヘルスケア管理の側面と同様に、デジタルライフと深く結びついている。そして企業がオンラインでホストしてよいコンテンツを決定することで、この削除の影響はますます増幅される。
オンライン上の良性なデータが、事実上、潜在的な犯罪証拠となっている。このデジタルライツに対する拡大した脅威は、特にBIPOC、低所得者、移民、LGBTQ+の人々や伝統的に周縁化されたコミュニティ、およびこれらのコミュニティにサービスを提供するヘルスケア提供者に深刻な危険をもたらしている。Metaは国際人権法を尊重する責任を順守し、中絶関連コンテンツのあらゆる削除が必要かつ比例的なものであることを確実にしなければならない。
中絶に関する情報の配布を違法とすることを目指すテキサス州へのMetaのコンテンツチームの移転が象徴するように、同社がこの問題について改善するのではなく――テキサス州の中絶を禁止する地域法に沿って――後退するのではないかという深刻な懸念を引き起こしている。
ユーザに意味のある透明性を提供せよ
EFFはFacebookの透明性の欠如を長年批判してきた。コンテンツモデレーションに関して、同社の透明性レポートは基本的な情報を多く欠いている。人間のモデレータは何人いるのか、各言語を担当するのは何人か?モデレータはどのように訓練されているのか?同社のコミュニティスタンダードの執行レポートには、どのカテゴリのコンテンツが何件削除されたかのおおよその推定値は含まれているが、なぜ、どのようにしてこれらの決定が下されたかは記載されていない。
Metaは我々のデータの搾取から数十億ドルを稼ぎ出し、ほぼ常にプライバシーよりも利益を優先する――可能な限り多くのデータを収集する一方で、ユーザにはデータに対する直感的なコントロールを否定している。多くの点で、この問題は同社の他の害悪の根底にある――そのコアビジネスモデルは、ユーザに関する可能な限り多くの情報を収集し、そのデータを広告のターゲティングに使用し、さらに競合他社をターゲットにすることにある。
そのため、EFFは他の組織とともに、Metaのようなビッグテックがユーザ生成コンテンツの increasingly aggressiveなモデレーションに関する意味のある透明性と説明責任を最もよく得ることができる方法について、サンタクララ原則を立ち上げた。そして、Facebook、Instagram、Xなどのプラットフォームが我々の発言を裁定し、データを管理することにおいてさらに大きな役割を占めるにつれて、彼らの影響力を制限し、減じることの緊急性が高まっている。
「検閲による誤情報のモデレーション」というアプローチの問題
誤情報は、Metaをはじめとするソーシャルメディアプラットフォーム上に蔓延している。我々が最初の声明で述べ、以前にも書いたように、Metaおよびその他のプラットフォームは、コミュニティノートとプロのファクトチェッカーの双方による、様々なファクトチェックおよび検証ツールを用い、それによって生じるフラグ付けをチェックする堅牢なシステムを整備すべきである。
Metaおよびその他のプラットフォームは、記事を共有する前に読むようユーザに促し、サイト上の情報の信頼性を評価するためのリソースを提供するなど、メディアリテラシーツールも採用すべきである。我々はまた、Metaおよびその他に対して、政府関係者に他のユーザよりも大嘘をつく機会を与えることをやめるよう求めてきた。
火曜、我々は若干の期待を表明したが、残念なことに他の人々が示した懐疑的な見方のほうが今では正しいように思える。長年にわたり、EFFおよび多くの組織がMetaに改善を働きかけてきた。例えば、LGBTQ+コミュニティや政治的な異論を唱える人々に不釣り合いな影響を与えた「実名」ポリシーについて、我々はいくらかの成功を収めた。また、母乳育児の画像を「性的コンテンツ」としてマークするMetaのポリシーにも戦いを挑み、改善を勝ち取った。Metaが真に表現の自由を重視するのであれば、抑圧者だけをエンパワーするのではなく、歴史的に周縁化されてきた発言者たちをエンパワーすることに焦点を当て直すよう、我々は強く求める。
Meta’s New Content Policy Will Harm Vulnerable Users. If It Really Valued Free Speech, It Would Make These Changes | Electronic Frontier Foundation
Author: Jillian C. York, Paige Collings and David Greene / EFF (CC BY 3.0 US)
Publication Date: January 9, 2025
Translation: heatwave_p2p
Material of Header image: Annie Spratt