以下の文章は、電子フロンティア財団の「Platform Liability Trends Around the Globe: Recent Noteworthy Developments」という記事を翻訳したものである。

Electronic Frontier Foundation

本稿は、世界各国の仲介事業者責任法制を調査した全4回シリーズの第3回目である。その他の記事は以下からご覧いただきたい。

以下の事例は主に2021年夏に完了した調査に基づいている。本稿で言及した法律が調査後に改正・修正された場合には、以下の文章に反映されていない可能性があることに留意していただきたい。


これまで、プラットフォーム規制の歴史と、仲介事業者規制の要素が立法者によってどのように調整しうるかを見てきた。本稿では、規制のトレンドの変化を反映して、最近採択された法律や計画されている規制の取り組みについて、世界各国の規制事例を見ていく。これらの事例は、仲介事業者規制の包括的な概要を示すことを意図したものではなく、仲介事業者規制のいくつかの基本原則が、異なる政策課題によってどのように変容しつつあるのかについての洞察を提供することを目的している。また、簡潔かつ文脈に沿って伝える都合上、著作権などの分野別の規制ではなく、主に水平的な責任制度に焦点を当てている。

世界各国の最近の動き

オーストラリア

2019年にニュージーランド・クライストチャーチで発生したモスク襲撃事件を受け、オーストラリアは同年3月に刑法を改正した。同法は「忌まわしい映像素材」の共有を刑事犯罪化するものである。この法律では、インターネット仲介事業者が、そのようなコンテンツへのアクセスや共有に自社サービスが利用されていることを認識し、当該コンテンツを「迅速に」削除しなかった場合、またはそうしたコンテンツの詳細を捜査機関に通知しなかった場合に、1件の違反につき最大で年間売上高の10%の罰金が科される。テロ行為、殺人、殺人未遂、拷問、レイプ、誘拐などが「忌まわしい暴力的な素材」と定義されている。この法律により、企業にユーザ生成コンテンツの積極的な監視を奨励する厳格な規制制度が構築された。

オーストリア

ドイツのNetzDGフランスのAvia法案が生み出したトレンドを受けて、オーストリアでも2020年9月に同様の「通信プラットフォームにおけるユーザ保護」を目的とした法律が提案された。2021年1月に施行されたこの法律は、年間売上高50万ユーロ以上、またはユーザ数10万人以上のすべてのオンラインプラットフォームに対し、「法律の非専門家にも違法性が明白なコンテンツ」の場合には24時間以内に、違法性が疑われるコンテンツの場合にはプラットフォームがユーザからの通報等で当該コンテンツを認識してから7日以内に削除するよう義務づけている。違反には最大で100万ユーロ、重過失の場合には最大1000万ユーロの罰金が科される。また、通報制度、窓口、透明性レポートなどの追加的義務を遵守しなかった場合にも、罰金が科される。通報者と投稿者は、担当のメディア規制当局(KommAustria)の救済を受けることができる。透明性レポートは、ユーザ数100万人超のプラットフォームで四半期ごと、それ以外は1年ごとに公表しなければならない。この法律に違反した場合、オーストリアのビジネスパートナーからの広告収入やその他収益が差し押さえられることもある。

ブラジル

2018年選挙でジャイル・ボルソナロ大統領の当選に「フェイクニュース」が果たした役割への懸念を受け、ブラジル上院は2020年5月、ネット上の偽情報対策法案を提出した。この法律には、広告およびコンテンツモデレーションの実施に関する透明性義務、コンテンツとアカウントを制限する際のデュープロセス要件が盛り込まれた。EFFはデジタルライツ団体や活動家らとともに、プライベートメッセージング・サービスへのトレーサビリティの義務づけに反対し、現行の条文ではその規定は削除された。しかし、IPアドレス使用者を特定するためのデータ保存義務の拡大など、危険な条項は依然として残されている。ブラジルの Marco Civil da Internet 法が規定するセーフハーバーでは、原則として(著作権やヌード・性的行為を含むプライベート画像の無断公開に関する例外を除き)司法の侵害コンテンツの削除命令に従わない場合にのみ、プラットフォームが第三者のコンテンツに対して責任を負うとしているが、同法案はこのセーフハーバーを直接的に変更するものではない。だが、プラットフォームが広告出稿者の身元を確認していなかった場合には、有料コンテンツに起因する損害について共同責任を負うとしている。この法案は、営利を目的とし、ブラジルに1千万人以上のユーザが登録されているソーシャルネットワーク、検索エンジン、インスタントメッセージングアプリに適用される。懸念されるのは、違反の罰則として、プラットフォーム運営の一時差止や禁止が含まれている点である。これらの罰則は裁判官の絶対多数の判決によって命じられる。

カナダ

カナダで提案されているオンライン有害情報規制の枠組みでは、オンラインプラットフォームに対し、有害コンテンツを検知する手段を導入し、ユーザから通知のあったコンテンツに24時間以内に対応することを要求している。「有害コンテンツ(harmful content)」のカテゴリには、適法であっても動揺させたり傷つけるような表現が明示的に含まれている。政府はアップロードフィルタの義務化は検討していないとしているが、削除要請への極めて短期間での対応を義務づけてしまえば、プラットフォームはフィルタリングを導入せざるを得なくなる。さらに、この規制を監督するデジタル・セーフティ・コミッショナーは、違反したプラットフォームに総収益の最大3%または最大1000万ドルのいずれか高い方を罰金として科すことができる。加えてコミッショナーは、「OCSPが規制対象のOCSに関連する法律、規制、決定、命令を遵守しているかどうかについて、苦情や違反の証拠、またはコミッショナー自身の判断で」いつでもOCSPへの検査を実施する権限を有する。

欧州連合

EUの新たなインターネット法案、デジタルサービス法(DSA)は、ユーザの基本的権利を保護しつつ、オンラインプラットフォームの責任と強力な執行メカニズムの明確化を目指している。DSAは良きサマリア人モデルのコンテンツモデレーションを推奨し、種別や規模に応じてデューデリジェンスの義務を定めている。この義務には、コンテンツモデレーションの実践、アルゴリズムによるキュレーション、通知と措置の手続きに関する透明性の義務が含まれている。DSA法案は、表現ではなく手続きに焦点を当てることで、電子商取引指令の主要な柱をほぼ継承している。たとえば、ユーザがオンラインで投稿・共有するコンテンツの一般監視の義務づけを禁止し、表現の責任は原則として発言者にあり、投稿・共有コンテンツをホストするオンラインプラットフォームにはない、という極めて重要な原則を堅持している。

だが当初の提案では、適切に立証された通知は自動的に通知されたコンテンツの実際の知識を生じさせるという「通知イコール知識」アプローチを導入していた。ホストプロバイダは、違法性を「知っている」コンテンツを迅速に削除した場合にのみ第三者のコンテンツの責任から免責されるため、プラットフォームが責任を逃れるためには当該コンテンツを遮断する以外の選択肢はなくなってしまう。EU理事会の見解は、ホスティングサービスを提供する勤勉なプロバイダがコンテンツの違法性を確認しうる通知にのみ免責が除外されることを明確化することで、過剰ブロックのリスクに対処している。EU議会は当初、「アクティブなプラットフォーム」に短期間かつ厳格な削除義務を課し、ユーザのコミュニケーションに潜在的な責任を負わせることを是としていた。だが、域内市場委員会(IMCO)は、オンライン仲介事業者に対する従来の免責を維持する規則を承認し、短い期限でのコンテンツ削除義務化は見送られた。この立場は、2022年1月のEU議会本会議での投票でも確認され、違法性が疑われるコンテンツを短期間に削除する義務を否定し、プラットフォームがコンテンツを審査しただけで責任を負うリスクはないことを確認した。最終的な合意案では、電子商取引指令の原則がほぼそのまま維持された。交渉担当者は理事会のアプローチを承認し、勤勉なプロバイダが「詳細な法的検証」を行わずともコンテンツの違法性を認識するに足る十分な情報を受け取った場合に責任を負うとすることで合意した。

フランス

2020年6月、フランスで論争を呼んだAvia法が成立した。この新法は、明らかな違法コンテンツを24時間以内に、テロや児童虐待に関するコンテンツを1時間以内に削除することをソーシャルメディアの仲介事業者に義務づけた。この法律は当初ヘイトスピーチ対策を目的としていたが、その範囲は拡大され、テロリズムを擁護するコンテンツから戦争犯罪や人道に対する罪にいたるまで、さまざまな犯罪が含まれるようになった。仏上院議員が同法の違憲審査を最高裁の申請した際、EFFはフランスの協力団体とともに法廷助言書を提出した。この違憲審査は成功し、最高裁は、違法コンテンツの24時間以内の削除を求める同法の要件が、プラットフォームに完全に適法な言論を削除させうるとして関連規定の削除を命じた

2021年7月、国民議会は、EUデジタルサービス法案の複数条項を先行して国内法化する新たなルールを採択した。この「共和国の原則を強化する法案」は、政治的イスラームを標的として論争を巻き起こした提案の最終形であり、オンラインのヘイトスピーチ・違法コンテンツ対策に関連した条項が含まれている。この法律では、透明性、コンテンツモデレーション、当局への協力に関してプラットフォームの義務を定めている。違反した場合、視聴覚・デジタルコミュニケーション規制当局のARCOMから高額の制裁金が科されることになる。

ドイツ

2017年10月、ドイツのNetzwerkdurchsetzungsgesetz(NetzDG:ネットワーク執行法)が施行された。この法律はその後2度改正されている。同法は仏Avia法と同様に、ソーシャルメディア上の「ヘイトスピーチ」や違法コンテンツに対処することを目的としている。この法律は、200万人以上の登録ユーザを持つソーシャルメディアプラットフォームに、さまざまなデューデリジェンス義務を課している。対象プラットフォームは、違法コンテンツを通報するための「使いやすい」メカニズムをユーザに提供する「通知と対処(notice-and-action)」システムの導入を義務づけられる。また、ユーザが自分のコンテンツを不当に削除されたと考える場合には、プラットフォームは任意の法廷外紛争解決システムなどの救済オプションを提供しなければならない。最後に、この法律は、コンテンツの削除に関する幅広い透明性報告義務を課している。

最も注目すべきは、NetzDGが明白に違法なコンテンツについて、通知から24時間以内に削除、アクセスの無効化をプラットフォームに義務づけている点である。コンテンツの違法性が明確でない場合には、ソーシャルメディアプロバイダは7日以内に当該の投稿を削除しなければならない。違反した場合には多額の罰金が科せられる。

NetzDGの当初案は、ドイツ国内外から厳しく批判された。とりわけプラットフォームに求められるコンテンツ削除期限が短すぎるために、バランスの取れた法的分析ができず、その結果、不当な削除を生み出すことになるとの指摘が相次いだのである。ソーシャルメディア各社は、NetzDGに基づくコンテンツの通知が想定よりも少なかったことを報告しているが(通知の評価/集計方法はそれぞれに異なる)、この法律が実際に過剰ブロックを引き起こした事例も存在する。さらに、欧州法との整合性にも大いに疑問がある。また、NetzDGでは異議申し立て手続きを「使いやすく」することが定められているにも関わらず、非ドイツ語話者のコンテンツの通知が著しく困難であることも懸念される。NetzDGは欧州域内のみならず世界中の国や地域で「模倣」法を生み出しており、近年の調査では、NetzDGの施行後にベネズエラ、オーストラリア、ロシア、インド、ケニア、マレーシアなど少なくとも13カ国がNetzDGに類似した法案が提出されたことを報告している。

NetzDGはこれまで2度にわたって改正された。2020年6月、ドイツ議会は「ヘイトクライム」と「ヘイトスピーチ」への対処を目的としたパッケージを可決。それに伴い、プラットフォームはドイツ刑法で違法と判断されうるコンテンツを、新たに設立されるドイツ連邦刑事警察庁のデータベース/オフィスに転送しなければならない(訳注:という案が提出された)。コンテンツの転送については、ユーザに事前に同意が求められることはなく、通知期限も設けられていない。パッケージには、ドイツ刑法の改正も含まれている。提案されたルールの合憲性に関する強い懸念を受けて、改正は当初より遅れて2021年4月に採択、2022年2月より施行されることになった。またドイツ議会は2021年5月、NetzDGを公式に改正する法律を可決し、プラットフォームに対するユーザへの救済措置の改善と、研究者へのデータアクセス提供の義務などが盛り込まれた。これは2021年6月に施行された。

インド

2021年2月、インド政府は2011年に制定された従来の仲介事業者規則に代わる「仲介事業者のためにガイドラインおよびデジタルメディア倫理コード規則」(2000年情報技術法の二次立法)を導入した。2021年規則では、仲介事業者を「ソーシャルメディア仲介事業者」と「重要ソーシャルメディア仲介事業者(インドで500万人以上の登録ユーザを抱える事業者)」の2つに分類。すべてのソーシャルメディア仲介事業者は、拡大されたデューデリジェンス義務の対象となり、これに違反すればセーフハーバーの喪失と刑事訴追のおそれがある。重要ソーシャルメディア仲介事業者は、積極的な監視義務、現地スタッフ要件の拡大、暗号化されたプライベートメッセージプラットフォームのトレーサビリティ要件など、追加的なデューデリジェンス義務を負う。最近のインドメディアの報道では、Twitterがこの新規則の不遵守を理由に「仲介事業者の資格を失った」と報じられている。関係者によると、Twitterはユーザコンテンツに基づいて刑事訴追されるおそれがあるという。

インドネシア

インドネシアは2020年11月24日、国内からアクセス可能な「電子システム運営者」(ESO)が保存するデジタルコンテンツとユーザデータに関して、政府による管理を強化する省令5(MR5:Ministerial Regulation 5)を発布した。ESOにはソーシャルメディアなどのコンテンツ共有プラットフォーム、デジタルマーケットプレイス、検索エンジン、金融サービス、データ処理・コミュニケーションサービスプロバイダ、ビデオ通話、オンラインゲームなどが含まれる。インドネシアで事業を行うには、2020年11月より遡及適用されたMR5により、ESOにインドネシア通信情報技術省(Kominfo)への登録と証明書の取得が義務づけられる。2021年5月24日までに登録がなかった場合には、インドネシア国内からのアクセスを遮断されることになる。のちにこの登録期間は6ヶ月間延長された。ESOは、禁止コンテンツの削除を余儀なくされる。禁止コンテンツには、「公の騒乱」を引き起こすものなど曖昧なカテゴリが含まれている。MR5はさらにKominfoに用語を自由に定義する権限を与えている。ESOは、プラットフォームに禁止コンテンツが表示されていないこと、そして表示されないような措置を講じていることを保証しなければならない。MR5に違反した場合、サービスは一時的なブロッキング、全面的なブロッキング、登録抹消(訳注:事実上の恒久的ブロッキング)に直面するおそれがある。

ニュージーランド

クライストチャーチのモスク襲撃事件を受けて、ニュージーランドでは1993年に制定された映画・ビデオ・出版物分類法の改正法案が提出された。法案では、暴力的なコンテンツのライブストリーミングをコンテンツ配信者自身(コンテンツをホストする仲介事業者は対象外)の犯罪と定める一方で、出版物検査官(Inspector of Publications)が不快(objectionable)なコンテンツに削除要請を発行できるようにすることが定められた。削除要請は、当該コンテンツを自発的に削除しない仲介事業者に対して発行され、要請に応じない場合には罰金が科される。法案はさらに、好ましくない、あるいは有害なコンテンツが突如として拡散する状況において、検閲監督官(Chief Censor)があらゆる出版物の応急的な分類評価を迅速に実施できるようにもしている。違反したプラットフォームには罰金が科される。この法案は、2021年11月に可決された

パキスタン

2020年、パキスタンはソーシャルメディア企業への義務を定めた「市民保護(ネット被害対策)規則」を導入した。原案では、広範なブロッキング/コンテンツ削除の権限を「国家調整官」に与え、仲介事業者が特定のコンテンツについて通知を受けた場合、平時には24時間以内に、「緊急事態」では6時間以内に削除することが義務づけられていた。この規則案は、市民社会からの反発を受けて、再検討されることになった。同年末に発表された修正案では、「国家調整官」は削除され、代わりにパキスタン電気通信庁(PTA)にその権限が移乗されることになったが、要請のあったコンテンツをプラットフォームが極めて短時間で削除しなければならない義務は残された。また、同法は違法性が疑われるコンテンツ、とりわけ「テロ、過激派、ヘイトスピーチ、中傷、フェイクニュース、暴力扇動、国家安全保障に関わるコンテンツ」のライブ配信を防止する「積極的なメカニズム」を導入する義務を仲介事業者に課している。さらに、暗号化されたユーザデータを、司法の判断を仰ぐことなく当局と共有させる規定も盛り込まれている。規則に違反した場合、仲介事業者は高額な罰金を科され、プラットフォーム全体がブロッキングされるおそれがある。パキスタン政府は2021年11月に規則を改訂し、現在ではPTAからの削除・ブロッキング命令に48時間以内、緊急要請では12時間以内に応じることを義務づけている。

ポーランド

ポーランド法務省は2021年1月、ポーランド市民の投稿した適法なコンテンツの削除や、コンテンツがポーランド法に違反していない場合のアカウント凍結等をソーシャルメディアに禁止する「反検閲」法案を提案した。草案では、表現の自由委員会が提供する異議申し立て手続きを通じて、コンテンツを復旧させることが求められた。この委員会はソーシャルメディア上の表現の保護に責任を負い、違反には重い罰金を科す権限が与えられている。委員会は政治的な影響を受ける可能性が高いと見られている。プラットフォームはブロッキングやコンテンツ削除に関するユーザからの異議申し立てに48時間以内に対応しなければならない。ユーザはプラットフォームの決定について表現の自由委員会に異議を申し立てることができ、委員会はコンテンツの復旧を命じる権限を持つ。復旧命令は24時間以内の履行が義務づけられ、違反には高額な罰金が科されるおそれがある。担当省庁はEUレベルで進んでいる電子商取引指令の改革プロセスにからみ、デジタルサービス法案の形成に影響力を行使しようとしている。

ロシア

2020年12月、ロシアの「情報、情報技術および情報保護に関する連邦法」が改正され、ソーシャルメディアプラットフォームに禁止コンテンツの積極的な検知と削除が義務づけられた。また、ロシア行政法第13条は、コンテンツ削除法に違反したインターネットサービスへの罰金を定めている。情報、情報技術および情報保護に関する連邦法は、情報発信機能を有する個別ページを持ち、1日あたり50人万以上のユーザを抱えるすべてのインターネットリソースを対象としている。禁止コンテンツのリストには、未成年者のポルノ画像、生命を脅かす違法行為を子どもに促す情報、薬物の製造・使用に関する情報、自殺の方法とそれを助長する情報、アルコールとオンラインカジノの遠隔販売の広告、社会・国家・ロシア連邦憲法に対する侮辱的な表現、暴動・過激主義・許可を得ていないイベントへの参加の呼びかけなどが挙げられている。2021年3月、ロシアのメディア・通信規制当局は同法に基づき、当局が違法とみなすコンテンツをTwitterが削除していないとして「モバイルサービスの100%、デスクトップサービスの50%」で帯域制限すると発表した。

トルコ

トルコは2020年8月、ドイツのNetzDGを参考に、さらに検閲の方向に踏み込んだ法律を採択した。これはNetzDGの波及効果のもう1つの事例といえよう。この法律では、1日の利用者が100万人を超えるソーシャルメディアプラットフォームは、トルコ国内の現地代表を任命することが義務づけられる。この動きに対し、活動家たちは政府のさらなる検閲・監視の強化を懸念している。現地代表を任命しない場合、広告の禁止、厳格な罰則、そして最も問題視されている帯域制限が行われるおそれがある。法案では、裁判所がインターネットプロバイダに帯域を最大90%低下させる命令を下し、対象サイトへの事実上のアクセス遮断を可能にする新たな権限が与えられている。また、現地代表は政府からのブロッキングやコンテンツ削除の要請に応じる義務を負う。企業は裁判所の命令から48時間以内に「個人の権利」や「個人の生活のプライバシー」を侵害するとされるコンテンツを削除しなければならず、違反すれば重い罰金が科される。さらに、ソーシャルメディアプラットフォームにユーザデータの国内保存を義務づける条項も含まれており、プロバイダがそれらデータを当局に提出する義務を負うことが懸念されている。専門家は、こうした義務づけが、すでにトルコ国内のソーシャルメディアユーザに見られる自己検閲を悪化させると指摘している

イギリス

2021年5月、英国政府はオンライン安全法の草案を発表した。この法案は、オンライン上の違法・有害コンテンツへの対処を目的として、オンラインプラットフォームに違法・有害コンテンツからユーザを保護する注意義務を課している。この法案は、2019年4月の白書、2020年12月のパブリックコメントへの回答で示されたオンラインプロバイダへの注意義務の確立という政府のそれまでの提案も踏まえている。

この法案は、「ユーザ間(user-to-user)サービス」(ユーザが他のユーザとのコンテンツの生成・アップロード・共有を可能にする企業)だけでなく、検索エンジンプロバイダも対象に含んでおり、その射程は広い。新たな注意義務は英国通信局(OFCOM)が監督し、高額な罰金の付与やサイトへのアクセスブロッキングの権限が与えられる。法案が表現の自由に与える影響を決定的にする問題の1つに、「有害コンテンツ」の概念がある。法案では有害コンテンツの定義について、プロバイダの立場から合理的に利用者に「身体的または心理的に重大な悪影響を及ぼす」可能性のある表現という、広く漠然とした概念を採用している。注意義務の遵守には大きな主観が伴うことから、表現の過剰削除や一貫性のないコンテンツモデレーションが実施されることは避けがたい。

違法コンテンツに関しては「違法コンテンツ義務」が定められ、いずれ定義されることになっている「優先的違法コンテンツ」を最小化する義務と、違法コンテンツを認識した場合の削除義務から構成される。したがって、この法案はプラットフォームの積極的な削除義務を見送ったEUの電子商取引指令(およびデジタルサービス法)を逸脱するものといえる。何が違法コンテンツに該当するかという問題に関しては、プラットフォームが第一に表現の裁定者に位置づけられる。つまり、サービスプロバイダが、当該コンテンツが関連する犯罪を構成すると信じるに足る「合理的な根拠」を持っている場合には、当該コンテンツは違法とみなされるということである。

アメリカ

米国法では、オンライン仲介事業者がユーザの表現の公表に起因する責任をどの程度負うかは、基本的に3つのアプローチに支配されている。第一に、仲介事業者は、そのユーザによる連邦刑法違反にすべての責任を負う。第二に、連邦知的財産法侵害の通知は、デジタルミレニアム著作権法、とりわけ17 U.S.C. § 512(c)のノーティス・アンド・テイクダウンスキームの対象となる。この制度に従い、侵害の通知を受けた仲介事業者は「迅速にその資料を削除、またはアクセスを無効化しなくてはならない」。第三に、ユーザの表現の公表から派生する、実質的の他のすべての責任については、仲介事業者は(通信品位法)「230条」に従って免責される。230条は、どのユーザ表現を許可し許可しないかの選択、編集(編集そのものが表現として提訴されない限り)、最も受容的な聴衆層の絞り込みなど、あらゆる伝統的な出版活動を免責する。また230条は、アカウントの提供やユーザコンテンツの公開を拒否することによって生じる責任にも法的免責を規定している。米国憲法修正第1条は、このような編集上の決定も保護しているのである。

過去数年間、米国議会では、230条の修正について多くの議論がなされてきた。こうした取り組みは主に以下のアプローチのいずれかを取っている。(1)特定の法的主張のために追加的な例外を設ける――代表的な例としてFOSTA/SESTAがある。これは性的人身売買や売春を含むオンラインコンテンツのホスティングに関連する特定の刑事・民事責任に対する仲介事業者の免責を除外するもので、現在、違憲訴訟が起こされている。(2)免責を、仲介事業者が責任を免れるために満たすべき注意義務に書き換える。(3)免責の条件として特定のポリシーと手続きの採用を義務づける。


次回は、このシリーズの最終回として、結論の概要と今後のプラットフォーム責任規制において推奨される事項を提案する。本シリーズの他の記事はこちらからご覧いただきたい。

Platform Liability Trends Around the Globe: Recent Noteworthy Developments | Electronic Frontier Foundation

Author: CHRISTOPH SCHMON AND HALEY PEDERSEN / EFF (CC BY 3.0 US)
Publication Date: June 1, 2022
Translation: heatwave_p2p
Header image: Marjan Blan | @marjanblan