以下の文章は、電子フロンティア財団、シリアン・アーカイブ、WITNESSの3団体による「Caught in the Net: The Impact of “Extremist” Speech Regulations on Human Rights Content」レポートの翻訳である。

Electronic Frontier Foundation

目次
はじめに
コンテンツ・モデレーションと「過激主義コンテンツ」
弱いユーザを追い詰める出来の悪い対策
  事例1:チェチェン独立
  事例2:クルド人アクティビズム
  事例3:風刺的論評
証拠と記録としてのソーシャルメディア
シリア・イエメン・ウクライナの紛争記録を検閲するYouTube
ソーシャルメディア上の証拠と司法
結論
著者について

はじめに

ソーシャルメディア企業は長きに渡り、自社プラットフォーム上の過激主義コンテンツへの対処に苦心してきた。多くの企業は、コミュニティスタンダードに「過激主義」コンテンツに関する規定を設けているが、最近までそうしたコンテンツは曖昧に定義されることが多く、ポリシー立案者やコンテンツ管理者に何を削除し、何を許可するかの判断を委ねる幅広い裁量を与えてきた。残念なことに、企業は広範かつ曖昧なポリシーやその執行によって過激主義コンテンツに対処し、それゆえ人権に関するコンテンツを排除してしまうという大きな過ちを犯している。

オンラインプラットフォームのコンテンツを削除すれば、現代社会に根を張る過激主義の問題を解決できるという考えは誤りだ。この報告書で強調される事例は、欠陥のある自動モデレーション・テクノロジーでインターネットに広い網をかければ、捕らえられるのは過激主義コンテンツだけでなく、人権に関連する記録のような有用なコンテンツをも間違って捕らえ、民主主義を弱体化させることを示している。自動化されたコンテンツ・モデレーションの提唱者たちは、この問題に対して十分な解決策を提示してはいない。

「イスラム国」の台頭を受け、企業は過激主義言論への厳格な対処を迫る強い圧力に晒されている。米国では、法案の提出1、テロ被害者からの民事訴訟2、連邦政府の行政機関からの圧力3などが見られている。欧州委員会は2017年、報告を受けた過激主義コンテンツを24時間以内に審査することを企業に義務づける行動規範4を定めたが、それをさらに強化し、4時間以内に過激主義コンテンツに対応しなければ罰金を課すという積極的な規制を導入している5

規制が強化される一方で、すでに多くの企業が過激主義コンテンツを制限している。また国際的に共有されたテロリストの定義はないため(さらに、対象がその定義を満たすかどうかの判断が国ごとに異なることは避けられないため)、FacebookやTwitter、YouTubeなどの米国企業は、自社のポリシーの根拠として米国の規制に頼っている。その結果、最も重視される過激派組織は、米国務省の「国外テロ組織」リスト6に掲載されている組織ということになる。たとえばFacebookは、モデレーターにそのリストを提示している7が、その中にはリストに掲載されたグループのリーダーの写真も含まれている。

各社はこのリストをガイドラインとして利用しているものの、米国法はこれらのグループのコンテンツ削除を義務づけているわけではない。周知のとおり、米国政府は、指定された国外テロ組織に自由なオンライン・プラットフォームを利用させることは、米国の反テロ法で禁止されるテロ組織への「支援の提供」に該当するという立場をとっていない。反テロ法では、テロ組織に「サービス」を提供することを禁じているが、米国最高裁はこれを「他者の利益のために、または他者の命令のもとに行われる(共同的)行為」に限定しており8、テロ組織に通信手段として利用されたオンラインプラットフォームに民事責任を負わせようとする試みを一貫して否定してきた。

コンテンツ・モデレーションと「過激主義コンテンツ」

商業的コンテンツ・モデレーションとは、プラットフォームが、自社のサービス利用規約、「コミュニティ・スタンダード」、その他のルールに基づいて、サイトに掲載できるコンテンツとできないコンテンツとを決定するプロセスである。このプロセスは一般に、ユーザがルールを違反しているとみなしたコンテンツを報告、または「通報(flag)」するというコミュニティ・ポリシングのシステムに依存している。報告・通報されたコンテンツはモデレーションの順番待ちに並び、人間のモデレータがルールに違反しているかどうかを判断する。多くのプラットフォームが、違反を繰り返すユーザに「罰」を与えており、違反が繰り返されるごとに一時凍結の期間が伸びていくことになる。

今日では、過激主義コンテンツのモデレーションが「自動フラグ」を通じて行われることが増えている。このプロセスでは、プラットフォームが独自のツールを用い、人間のモデレータが審査すべき潜在的な違反コンテンツを自動的に検出する。このプロセスはしばしば、コンテンツがユーザの目に触れる前に行われている。

近年、企業は機械学習アルゴリズムの使用を急激に増やしている。コンピュータの世界では、アルゴリズムは何かを行うための一連の指示(instruction)である。機械学習アルゴリズムは、初期のデータセットといくつかのルールを与えられ、より多くのデータと接触するにつれて学習し、変化していくアルゴリズムである。企業は機械学習アルゴリズムを訓練するために、1つのカテゴリにつき膨大な量のコンテンツを含むデータセットを作成し、アルゴリズムに与えなければならない。たとえば、YouTubeなどの企業は、過激主義コンテンツを正確に識別するために、過激主義と定義される一連のデータ(多数のISISのビデオなど)を作成し、そのデータを自社のアルゴリズムに入力する。

アルゴリズムに誤りがあっても(以下の事例で説明されるように)、その理由を理解するのは非常に難しい。特に、機械学習アルゴリズムが「解釈可能」なように設計されていない限り、人間には理解できない。機械学習アルゴリズムは、人間の入力を必要とせずに独自に学習・成長するため、アルゴリズムの「思考プロセス」を見ることはできないのだ。残念ながら、プラットフォームは独自の機械学習アルゴリズムを使用しており、外部からのレビューは一切受けつけていない。実際、市民社会や政府は、アルゴリズムを学習させるトレーニングデータや基本的な仮定へのアクセスを拒否されており、そのような技術に対する第三者による監査は一切行われていない。

この問題は、過激主義コンテンツを追跡・削除するためのハッシュデータベースの導入によって、深刻さを増している。ハッシュは、企業が自社のプラットフォームからコンテンツを識別して削除するために使用するコンテンツのデジタル「指紋」である。ハッシュは基本的に一意であり、特定のコンテンツを簡単に識別できる。画像が「テロリストのコンテンツ」と識別されれば、ハッシュでタグ付けされ、データベースに入力されるため、それ以降、同一の画像がアップロードされた際に容易に識別できる。

従来、こうしたデータベースは、ソーシャルメディアがプラットフォームから子どもの虐待画像を追跡して削除するために利用されてきた。全米行方不明/被搾取児童センター(NCMEC)と国際行方不明/被搾取児童センター(ICMEC)が構築するこのデータベースは、法執行機関の監督のもとで運用されており、企業も法執行機関も、データベース内の画像に直接アクセスすることはできない。

2016年、 Facebook、Microsoft、Twitter、YouTubeが結集した業界イニシアチブ「テロリズムに対抗する世界インターネットフォーラム(GIFCT)」は、同様の技術を使用して「テロリスト」画像のデータベースを構築した。このデータベースはGIFCTメンバー企業間で共有され、その中には独自のデータベースを構築するリソースを持たない企業も含まれている。その結果、1つのデータベースがインターネット全体で広く使用されることになり、エラーが頻発することになった。

このGIFCTのデータベースは人権問題を扱う市民団体と共有されてはおらず、GIFCTのウェブサイトにもその機能に関する最小限の情報しか掲載されていない(過激主義コンテンツ・アルゴリズムのトレーニングについても同様である)。また、NCMECやICMECが構築するデータベースとは異なり、GIFCTのデータベースは外部からの監督を受けることなく運用されている。そして、何が過激主義を構成するのかという判断は、企業に委ねられている。

問題の規模を理解するには、数字を見ることが重要であろう。Googleの透明性レポートによれば、YouTubeは2018年に3300万件のビデオを削除しており9、1日に換算すると約9万件に上る。利用規約に違反しているとしてフラグが立てられたビデオの73%は、視聴可能になる前に自動プロセスによって削除されている。Facebookは2017年10月から2018年10月までの期間に、「テロリストのプロパガンダ」とみられる1500万件の投稿を削除した。Facebookは、2018年の第3四半期中に「ユーザから報告される前に99.5%のコンテンツを発見・削除し、残りの0.5%がユーザからの報告で発見した」と記している10。また、Twitterは2015年から2017年最終四半期までの間に120万件のテロリズム関連アカウントを凍結し11、さらに2018年下半期にはテロコンテンツに関係する16万6153件のアカウントを凍結している12

弱いユーザを追い詰める出来の悪い対策

ソーシャルメディアプラットフォームは、幅広いカテゴリのさまざまな表現を誤って削除してきた。さらに大手ソーシャルメディア企業は、そのエラー率を公表していない。その結果、ユーザがどこで、いつ、どのくらいの頻度で、不正確で間違った削除に直面しているのかを理解するのは困難になっている。しかし、以下の事例からも明らかなように、過激主義へのアクティビズムやカウンタースピーチ、風刺と、過激主義そのものとを区別し続けることは、人間のレビュワーであっても難しく、機械には不可能だ。出来の悪い大規模コンテンツモデレーションシステムは必然的に間違いを引き起こし、その代償を支払わされるのは弱い立場にあるユーザたちである。

事例1:チェチェン独立

2017年、チェチェン共和国の独立を求めるFacebookグループ「Chechen Republic of Iskeria(チェチェンの独立)」が、Facebookのコミュニティスタンダードが禁じる「テロ活動または組織犯罪活動に従事する組織」に該当するとして、誤って削除された。しかし、同社トレーニングマニュアルには、Chechen Republic of Iskeriaはルールに「違反してはいない」と具体的に言及されていたのである。Facebookのスポークスマンは、この削除が誤りであったことを認め、「間違うこともある」と述べた13

事例2:クルド人アクティビズム

クルド人の独立を支持するグループは、しばしば過剰なコンテンツモデレーションのターゲットにされている。政府がテロ組織と認定しているのは、唯一クルディスタン労働者党(PKK)だけである。にもかかわらず、Facebookでは同グループに対する批判や非難は許可される一方で、賞賛は許されない14

ヒューマン・ライツ・ウォッチによると、クルド人はしばしばトルコ政府による人権侵害の標的にされている15。トルコ政府は世界有数のジャーナリスト投獄国であり16、建国者アタチュルクへの批判など、国内で違法とされるものすべてを削除するよう企業に要請するなど検閲要請のリーダーでもある。

クルド人活動家は、投稿がプラットフォームの基準に違反していないにもかかわらず、Facebookに繰り返し削除されていると主張している17。トルコ政府とFacebookとの関係を「汚れた結びつき」と呼んでFacebookページを削除されたクルド人政治家は、トルコ政権与党のAKPが(米国政府が外国テロ組織認定する)ハマスのリーダーの写真を掲載しているのに何のお咎めもないと指摘する18。クルド人アクティビズムからの正当な反対意見を、間違って、あるいは政府の圧力によって企業が削除するのであれば、その企業は事実上政治闘争に加担したことになる。

事例3:風刺的論評

2017年、Facebookは、著名なアラブ人ジャーナリストが投稿した、ヒズボラ指導者のハッサン・ナスララの写真にレインボーカラーのプライドフラッグを重ねた画像を削除した19。コンテンツモデレータは、ヒズボラがLGBTQの権利を支持していないにもかかわらず、政治的左派の間で人気が高いことを論評したこの投稿をよく理解できず、既知のテロ指導者の顔を含む写真の大半を削除するよう指示した20

証拠と記録としてのソーシャルメディア

ソーシャルメディアに投稿される人権侵害の記録は、正義の実現と説明責任の追及に重要な役割を果たし、集団的記憶としての役割を果たすこともある。オンラインに投稿されたビデオやテキストは、離散(ディアスポラ)コミュニティにとって生きた歴史であり、その記録が人権犯罪の唯一の証拠となることもあるのだ。しかし、過激主義を取り締まろうとするソーシャルメディアのコンテンツモデレーションポリシーによって、あまりに多くの重要な記録が削除されている。誤って削除されたコンテンツを復旧しようにも、投稿した人物が死亡していたり、逮捕されていたり、メールにアクセスできないといった紛争地域によく見られる問題を抱えている場合には、ほぼ絶望的である。

シリア・イエメン・ウクライナの紛争記録を検閲するYouTube

シリアでは、主に人権活動家がソーシャルメディアを利用して、紛争の記録を公開している。シリア紛争の初期、同グループへのインタビューで活動家たちは次のように述べている。

ある時、私たち自身が組織化しなくてはならない、組織化された何かを始めなければならない、という思いに至りました。というのも、あらゆるメディアチャンネルにこうしたビデオの公開を拒否されたのです …… 実際、メディアは報道してくれず、この1つのチャンネルとソーシャルメディア、つまりYouTubeとFacebookだけしかありません …… 若者たちがチャンネル制作に協力してくれて、実際にYouTubeにチャンネルを作りました …… このチャンネルはYouTubeにできたはじめてのローカルグループでした。彼らは組織化され、いたるところに特派員がいました。彼らは映像を集めました …… シリアで初めて組織化された現象は、メディアグループだったのです21

シリア紛争に関するソーシャルメディアコンテンツの総時間は、紛争そのものの時間よりも長くなっている。毎日50本以上のビデオがアップロードされ、シリア紛争は、おそらく史上初めて、世界中の誰もがリアルタイムに目撃する紛争となった22

YouTubeは機械学習による自動フラグ機能を利用して、人権侵害を記録した動画を配信する数千のシリア人YouTubeチャンネルを凍結している。その中には、Syrian Observatory for Human Rights、Violation Documentation Center、Sham News Agency、Aleppo Media Centerなどが含まれる。凍結されたソーシャルメディアアカウントが公開していたのは、シリアでの抗議活動の記録や、暴力的攻撃をあつかった非伝統メディアの報道であって、暴力を扇動したり危険行為を推奨したりするものではなかった23

2011年から2019年の間に、人権侵害を記録した(少なくとも)20万6077本のビデオがYouTubeから削除された24。その中には、病院や医療施設を標的とした空爆を記録した381本のビデオが含まれている。その1つが「タファス:国立病院への激しい砲撃 2012/8/11」というビデオで、医療スタッフと患者が残されている病院に対するシリア政府軍の砲撃を記録した映像だった25

同様の事例は、イエメンでも確認されている。イエメンでは2015年以降、サウジアラビアが主導する連合軍とフーシとの戦争が続いており、7万人(推定)が直接殺害され26、300万人以上が難民となり27、8万5000人(推定)の子どもたちが餓死している28。「サヌア大ホール爆破事件の瞬間 2016/10/8」29というビデオや「マズラク難民キャンプを標的としたサウジアラビアによる虐殺」30というビデオが、いずれもコンテンツモデレーションポリシーに違反するとして削除された。

2014年にロシアのクリミア併合以来、戦争状態にあるウクライナでも、親ロシア・反政府派の武装化を撮影したビデオがYouTubeから削除されている。その一例が「ロシアがドンバスに供与した兵器」というビデオである31

ソーシャルメディア上の証拠と司法

コンテンツモデレーションは、法的な説明責任を求める人権活動を妨げている。ソーシャルメディアは、特に外国人ジャーナリスト、NGO、国際監視機関による人権侵害を記録するのが難しい紛争地域で、替えがたい証拠を提供しているのである32。裁判所や従来の記録組織が、こうした可能性を十分に認識しているとは言い難いが、ソーシャルメディア上のコンテンツが重要な役割を果たした事例も存在する。

たとえばスウェーデン法廷は2016年、7人のシリア兵の殺害に関与したとして起訴された元シリア反体制派の人物に対する判決を下した。同法廷は、FacebookとTwitterに投稿されたコンテンツを利用して、兵士たちが拘束された時間と場所を特定し、拘束から処刑までに41時間しか経過していない事実を認定した。また、検察はコンテンツのメタデータを検証するためにFacebookに協力を要請していた33

2017年、2018年にも、国際刑事裁判所(ICC)は、リビア国民のマフムード・ムスタファ・アル・ウェルファリへの逮捕状を発行した。アル・ウェルファリは33名の殺害に直接関与、またはその処刑を命じたとして告発されている。逮捕状によると、そのうち7件で、アル・ウェルファリのソーシャルメディアアカウントに投稿されたビデオとその書き起こしが証拠とされた34

結論

クライストチャーチのような悲劇が起こると、何かしなくてはならないという気持ちだけが先走り、意図せぬ結果を招くことがある。実際、クライストチャーチ・コールに署名した多くの企業は、それまでの数ヶ月間、直接削除を自動化する法案に反対の立場を示してきた。企業はコンテンツモデレーションの自動化というだいそれた約束をする一方で、この技術が絶対確実ではないことを認めているのである。さらにFacebookは、人間による審査を経ても誤検出率が高いことを認めてもいる35。残念なことに、上記の無数の事例が示すように、コンテンツモデレーションはあらゆるグループに均等に影響を及ぼすわけではなく、すでに弱い立場にあるコミュニティをさらに脆弱な立場に追い込みうるのである。

オンライン上の過激主義という複雑な問題であるがゆえに、単純な解決策を見つけたくなる誘惑にかられしまうのだろうが、政府であれ企業であれ、表現の自由や集会の自由、情報アクセスの権利を侵害するような解決策に慌てて飛びついてはならないのである。

著者について

電子フロンティア財団(EFF:Electronic Frontier Foundation)

電子フロンティア財団は、デジタルプライバシー、表現の自由、イノベーションを保護する主要非営利団体である。1990年に設立されたEFFは、訴訟、政策分析、草の根アクティビズム、テクノロジー開発を通じて、ユーザのプライバシー、表現の自由、イノベーションを養護してきた。我々は、テクノロジー利用の拡大とともに、権利・自由の強化・保護を確実にすべく活動を続けている。

シリアン・アーカイブ(Syrian Archive)

シリアン・アーカイブは、シリア紛争に関与する全陣営による人権侵害の記録を保存し、伝え、価値を高めることを目的とする組織である。シリアン・アーカイブは、保有するコンテンツを利用して正義の実現と説明責任の追及を支援するとともに、ソーシャルメディアプラットフォームのコンテンツモデレーションポリシーによって削除された人権コンテンツの復旧や復元を支援している。

WITNESS

WITNESSは、教育とアドボカシーを通じて、人権活動家や目撃者が、人権を追求する戦いにおいて、倫理的かつ効果的に、安全にビデオを使用できるようにする国際非営利団体である。WITNESSは、ビデオアドボカシー、証拠としてのビデオ、アーカイブに関するトレーニングや資料を提供している。WITNESSの「Tech+Advocacy」プログラムは、テクノロジー企業にポリシーアドボカシーとプラットフォームの説明責任の取り組みを通じて、人権活動家を害することなく、支援するためのツールとポリシーを確立することに焦点を当てている。

脚註

  1. Kelsey Harclerode, “Mandatory Reporting of User Content Chills Speech and Violates Privacy Rights,” Electronic Frontier Foundation, 5 August 2015, https://www.eff.org/deeplinks/2015/08/mandatory-reporting-user-content-chills-speech-and-violates-privacy-rights.
  2. Aaron Mackey, “EFF to Court: Holding Twitter Responsible for Providing Material Support to Terrorists Would Violate Users’ First Amendment Rights,” Electronic Frontier Foundation, 8 June 2017, https://www.eff.org/deeplinks/2017/06/eff-court-holding-twitter-responsible-providing-material-support-terrorists-would.
  3. CBS News, “The Delicate Balance Fighting ISIS Online,” 20 February 2015, https://www.cbsnews.com/news/world-governments-try-to-shut-down-isis-social-media-propaganda-operations/.
  4. Amar Toor, “Facebook, Twitter, Google, and Microsoft agree to EU hate speech rules,” the Verge, 31 May 2016, https://www.theverge.com/2016/5/31/11817540/facebook-twitter-google-microsoft-hate-speech-europe.
  5. Colin Lecher, “Aggressive new terrorist content regulation passes EU vote,” the Verge, 17 April 2019, https://www.theverge.com/2019/4/17/18412278/eu-terrorist-content-law-parliament-takedown.
  6. U.S. Department of State, list of Foreign Terrorist Organizations, https://www.state.gov/foreign-terrorist-organizations/ (accessed 29 May 2019).
  7. The Guardian, “How Facebook Guides Moderators on Terrorist Content,” 24 May 2017, https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content.
  8. Holder v. Humanitarian Law Project, 561 U.S. 1 (2010).
  9. Google Transparency Report, “YouTube Community Guidelines enforcement,” https://transparencyreport.google.com/youtube-policy/removals (accessed 12 May 2019).
  10. Facebook, “Community Standards Enforcement Report,” https://transparency.facebook.com/community-standards-enforcement#terrorist-propaganda (accessed 12 May 2019).
  11. Don Reisinger, “Twitter Has Suspended 1.2 Million Terrorist Accounts Since 2015,” Fortune, 5 April 2018, http://fortune.com/2018/04/05/twitter-terrorist-account-suspensions/.
  12. Foo Yun Chee, “Twitter suspended 166,153 accounts for terrorism content in second half 2018,” Reuters. 9 May 2019, https://www.reuters.com/article/us-twitter-security/twitter-suspended-166153-accounts-for-terrorism-content-in-second-half-2018-idUSKCN1SF1LN.
  13. Julia Carrie Wong, “Facebook blocks Chechnya activist page in latest case of wrongful censorship,” the Guardian, 6 June 2017, https://www.theguardian.com/technology/2017/jun/06/facebook-chechnya-political-activist-page-deleted.
  14. The Guardian, “How Facebook Guides Moderators on Terrorist Content.” https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content
  15. Human Rights Watch, “Turkey, Events of 2017,” https://www.hrw.org/world-report/2018/country-chapters/turkey (accessed 29 May 2019).
  16. Elana Beiser, “Hundreds of journalists jailed globally becomes the new normal,” Committee to Protect Journalists, 13 December 2018, https://cpj.org/reports/2018/12/journalists-jailed-imprisoned-turkey-china-egypt-saudi-arabia.php.
  17. Sara Spary, “Facebook Is Embroiled In A Row With Activists Over “Censorship,” Buzzfeed, 8 April 2016, https://www.buzzfeed.com/saraspary/facebook-in-dispute-with-pro-kurdish-activists-over-deleted.
  18. Hurriyet Daily News, Kurdish politicians to take action after Facebook admits to banning pages with PKK content,” 29 April 2013, http://www.hurriyetdailynews.com/kurdish-politicians-to-take-action-after-facebook-admits-to-banning-pages-with-pkk-content-53465.
  19. Sophia Cope, Jillian C. York, and Jeremy Gillula, “Industry Efforts to Censor Pro-Terrorism Online Content Pose Risks to Free Speech,” Electronic Frontier Foundation, 12 July 2017, https://www.eff.org/deeplinks/2017/07/industry-efforts-censor-pro-terrorism-online-content-pose-risks-free-speech.
  20. The Guardian, “How Facebook Guides Moderators on Terrorist Content.” https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content
  21. Revolutionary Echoes from Syria, (Hourriya, 2016), 18-21. Audio available at: https://archive.org/details/RevolutionaryEchoesFromSyria.
  22. Armin Rosen, “Erasing History: YouTube’s Deletion Of Syria War Videos Concerns Human Rights Groups,” Fast Company, 7 March 2018, https://www.fastcompany.com/40540411/erasing-history-youtubes-deletion-of-syria-war-videos-concerns-human-rights-groups.
  23. Syrian Archive, https://syrianarchive.org/en/tech-advocacy (accessed 29 May 2019).
  24. Ibid.
  25. “Tafas: Heavy artillery shelling of the national hospital 11/8/2012”, YouTube video no longer available, https://www.youtube.com/watch?v=ipaaQGqtfTk.
  26. Al Jazeera, “More than 70,000 killed in Yemen’s civil war: ACLED,” 19 April 2019, https://www.aljazeera.com/news/2019/04/yemen-war-death-toll-reaches-70000-report-190419120508897.html.
  27. United Nations Agency for Refugees and Migrants, “More than 3 million displaced in Yemen – joint UN agency report,” 22 August 2016, https://refugeesmigrants.un.org/more-3-million-displaced-yemen-%E2%80%93-joint-un-agency-report
  28. Sam Magdy, “Save the Children says 85,000 kids may have died of hunger in Yemen,” USA Today, 21 November 2018, https://eu.usatoday.com/story/news/world/2018/11/21/yemen-children-hunger/2076683002/.
  29. “The first moment of bombing the big hall in Sana’a 08/10/2016”, YouTube video no longer available, https://www.youtube.com/watch?v=dNax-YKBLNE.
  30. “Saudi massacre targeting displaced camps in Mazraq,” YouTube video no longer available, https://www.youtube.com/watch?v=Z5peAj4kTo.
  31. “Military equipment supplied by Russia to the Donbass,” YouTube video no longer available, https://www.youtube.com/watch?v=CJm5bjM3Z5c.
  32. Elliot Higgins, “Weapons From the Former Yugoslavia Spread Through Syria’s War,” The New York Times, 25 February 2013, http://atwar.blogs.nytimes.com/2013/02/25/weapons-from-the-former-yugoslavia-spread-through-syrias-war/.
  33. Christina Anderson, “Syrian Rebel Gets Life Sentence for Mass Killing Caught on Video,” The New York Times, 16 February 2017, https://www.nytimes.com/2017/02/16/world/europe/syrian-rebel-haisam-omar-sakhanh-sentenced.html.
  34. The Prosecutor v. Mahmoud Mustafa Busayf Al-Werfalli, Case No.ICC-01/11-01/17-2, Warrant of Arrest (15 August 2017), https://www.icc-cpi.int/Pages/record.aspx?docNo=ICC-01/11-01/17-2.
  35. Ariana Tobin, Madeleine Varner, and Julia Angwin. “Facebook Uneven Enforcement of Hate Speech Rules Allows Vile Posts to Stay Up,” ProPublica, 28 December 2017, https://www.propublica.org/article/facebook-enforcement-hate-speech-rules-mistakes.

ダウンロード

[PDF] Caught in the Net: The Impact of “Extremist” Speech Regulations on Human Rights Content

Author: Abdul Rahman Al Jaloud, Hadi Al Khatib, Jeff Deutch, Dia Kayyali, and Jillian C. York (A joint publication from the Electronic Frontier Foundation, Syrian Archive, and Witness)
Publication Date: May 30, 2019
Translation: heatwave_p2p