昨年末、欧州委員会はデジタルサービス法(DSA)とデジタル市場法(DMA)という2つの法案を発表した。前者は消費者保護を目的としてデジタル仲介サービス事業者(デジタルプラットフォーム)に違法・有害コンテンツへの対応を求めるもので、後者はデジタル寡占に対処することを目的としている。端的に言えば、DSAは表現規制、DMAはビッグテック対策である。

EUが世界最大規模の経済圏であり、インターネットが国境を超えてつながる性格を持つことを考えれば、GDPRの例を挙げるまでもなく、欧州のネット/デジタル規制の影響は世界に波及することは間違いない。

2法案の発表以前からさまざまな憶測やリークが流れ、その内容にはいささか懸念するところもあったが、実際に欧州委員会が公表したDSA法案はそれなりに穏当で、DMA法案はそれなりに踏み込んだものであったので、個人的には物足りなさを感じつつもホッとした。欧州議会、EU評議会での審議を経て多少は修正が入っても、そこまで大きな変化はないだろうとタカを括っていた……が、最近になっていろいろとマズそうなDSA修正提案が次々に盛り込まれそうになっていて、ビックリした次第である。

そうした状況を受けて、世界各国12の人権・デジタル権団体により結成された「デジタルサービス法・人権アライアンス」が共同声明を発表し、欧州議会にDSAの軌道修正を強く要請している。具体的には、プラットフォームに対する短く柔軟性のない違法コンテンツ削除期限の設定(と免責要件)や、歯止めのない法執行機関への通報義務、規模を軽視した責任強化、トラステッド・フラッガー(信頼できる通知者)の適格要件の不備によって生じうる人権・表現の自由への悪影響の回避、人権影響評価の義務化を求めている。

共同声明の概要については前回のEFFの翻訳記事でつかめると思うが、全文を読んでもらうほうが現在のDSA修正案が抱えている問題についてよく理解できるだろうと思い、翻訳してみた。

日本ではさほど注目されていないものの、DSA、DMAは良い意味でも悪い意味でも、違法・有害コンテンツ規制のあり方、デジタル領域における競争のあり方を世界規模で変えるものになる。EUという巨大経済圏の規制というだけでなく、その対象がグローバルで寡占化が進んだプラットフォームだからでもある。それゆえ、EUという遠く離れた地域の規制であっても、日本に住む我々の情報流通、さらには人権・表現の自由にさえ、直接的な(あるいは潜在的な)影響を及ぼすことになるだろう。


以下の文章は、デジタルサービス法・人権アライアンスの「DSA Human Rights Alliance Joint Statement」という共同声明を翻訳したものである。同アライアンスには、電子フロンティア財団、民主主義と技術のためのセンター、Access Nowなど12の人権・デジタル権団体が参画している。

欧州連合は基本的人権保護のための高度な基準を設定せよ

インターネット関連法案の影響が国境によって妨げられることはまれであり、欧州連合のような影響力を持った統合体であればなおさらである。デジタルサービス法・人権アライアンス(DSAアライアンス)は、EUのインターネット関連法が世界的に大きな影響を及ぼしていることを受けて結成された。EUは良い意味でも、残念ながら悪い意味でも、インターネット法制におけるリーダー的存在であり、デジタルサービス法もその例に漏れない。

DSAアライアンスは、DSAがグローバルな視点から基本的人権(fundamental rights)の保護に焦点を当てることによって、欧州連合が法制定において世界的にポジティブな模範を示す機会になると考えている。世界中のユーザの喫緊の課題に焦点を当てなければ、DSA(訳注:の悪しき側面)が世界中で模倣され、ドイツのNetzDGで見られたように負の遺産を他国に輸出してしまう危険性がある。たとえば最近の研究では、NetzDGの規制が問題のある言論の排除に役立っていないどころか、過剰なブロッキングにつながる恐れがあると指摘されている。一方、表現の自由の保護が不十分な国々で、このNetzDGをヒントに新たな規制が生み出されている。

DSAのグローバルな射程

我々はDSA規則が設定するスタンダードを懸念している。このスタンダードは、欧州連合を遥かに超えてプラットフォーム運営に多大な影響を及ぼすことになるが、欧州委員会は世界中の脆弱なグループや周縁化されたコミュニティのニーズやリスクを考慮してはこなかった。

情報アクセス権の保護:法定代理人

ユーザの情報アクセスを深刻な危険に晒すような、小規模プロバイダへの不釣り合いな要求を回避しなくてはならない

問題のあるスタンダードの例としては、欧州連合(EU)における法定代理人の選定に関する規則がある。DSAの対象地域が広すぎるため、EU域内にサービスを提供する域外のプラットフォームは、その規模の多寡を問わず、コストのかかる法定代理人を任命しなければならず、その法定代理人もEU域内に拠点を置かなければならない(第11条)。そのため、とくに小規模プラットフォームがEUへのサービス提供を完全に停止してしまう可能性が高い。たとえば、米国の一部ニュースサイトは、2018年にGDPRが発効されると、EUユーザへのアクセスを停止した。ユーザが情報にアクセスできなくなるリスクは、欧州委員会のDSA影響評価でも認識されており、「ごく小規模なプロバイダ」には例外を設けるべきだと説明されている。だが、そうした例外はDSAには盛り込まれていない。

もう1つの例はトラステッド・フラッガー(訳注:信頼できる通知者、あるいは認定通報者)に関する規定で、欧州の文脈においてすでに複数の理由から問題をはらんでいる(後述のセクションにて詳細を説明する)。EU域外の国、たとえばミャンマーのように、トラステッド・フラッガーとの関係を公式化することは、非常に危険であることが明らかになっている。プラットフォームの判断は、プラットフォーム自身の判断ではなく、その国のアクター(トラステッド・フラッガー)の影響の結果として認識される傾向にあり、満足のいかない決定については、プラットフォームではなくフラッガーが非難されている。

コンテンツ削除

基本的人権と相容れない、短く柔軟性のない削除期限

表現・意見の自由の権利に有害な影響をおよぼす、コンテンツ削除までの厳格で短い期限を法的に義務づけてはならない

我々は欧州議会の委員会が最近公表したDSA修正案への意見の中に、不当に短い期間や迅速なコンテンツ削除を強く求める意見が含まれていることを特に懸念している。

第一に、時間が短ければ、プラットフォームは「適法性の確認」を行うことができず、文脈を考慮すべきコンテンツを詳細に検討すべきかどうかすら判断できない。また、期限が短く、柔軟性が欠如していると、プロバイダが判断の優先順位をつけたり、リソースに応じて対応することが困難になってしまう。小規模プロバイダでは、そこまで迅速に対応できる体制が整っていない可能性が高い。また、大規模サービスプロバイダであっても、大量の削除通知には対応できない場合がある。

そのような理由から、EU商取引司令では、サービス提供者が違法行為を発見/知得後に対応するまでの期限の導入は見送られている。同指令ではその代わりに、アクセスの削除または無効化は「表現の自由の原則を遵守して」「迅速に」行われなければならないと説明している。我々は、プラットフォームが通知に対応し、ユーザの被害を抑制するためのスタンダードの確立が必要とされていることは理解している。また、プラットフォームが自らのスタンダードや利用規約の執行責任の強化も支持している。だが、欧州の共同立法者には、基本的人権をかなぐり捨て、第三者コンテンツの削除に柔軟性のない期限を課すといったことをしないよう求める。(訳注:そのようなことになれば、プラットフォームは)責任を回避するために適法なコンテンツまで削除してしまうだろう。人権原則では、表現の自由に対するいかなる制限も、必要かつ比例的でなければならないとされている。制限は目的を達成するために必要な限度を超えてはならないのである。違法性が疑われるコンテンツの削除期限が短ければ、フランスのオンライン・ヘイトスピーチ法案が示したように、削除の目的とユーザのオンライン上の言論の自由とのバランスを欠くことになってしまう。この法案は、ユーザの表現の自由に悪影響を与えるとして、フランス憲法審査会で違憲と判断されている。

アルゴリズムによるコンテンツ・モデレーション:限界の認識と基本的人権の保護

オンラインプラットフォームに対し、自動コンテンツモデレーション・ツールの導入を義務づけてはならない

上述した短い削除期限に効率よく対応するため、多くのプラットフォームが欠陥のあるアルゴリズムによるコンテンツモデレーション・ツールに頼っている。これらのツールは文脈を評価する能力が不十分であるだけでなく、現時点においては、意思決定プロセスが完全に不透明である。立法者はしばしば、意味のある透明性を実現するための適切なセーフガードや法的義務づけに目を伏せてきた。だがセーフガードがなければ、ユーザは異議申立メカニズム、有効な救済措置、その他の手続き的正当性の保護を享受できない。これらはプラットフォーム・ガバナンスに関する法律には不可欠な要素である。

プラットフォームに対し、より多く、より迅速なコンテンツの削除を迫る圧力が高まれば、EU規則が禁止するユーザコンテンツの一般監視が行われるおそれもある。コンテンツの適法性を評価する期限が不当に短く、削除要請に応じる義務が軽減や延長のオプションもない不均衡なものになれば、プラットフォームは自動コンテンツフィルタリング・システムに頼らざるを得なくなる。だが、フィルタリングシステムは過剰にブロックする傾向があり、抑制と均衡を欠くことでも知られている。

この問題は、すでにテロ関連コンテンツを検出するアルゴリズムによるモデレーションの広がりによって引き起こされているように、人権侵害を記録した大量のコンテンツが、説明責任が果たされることなく自動モデレーションによって次々に削除されている。実際この問題に関しては、先日、Facebook監督委員会がFacebookに対し、すでに導入している自動システムの使用について透明性を高めるよう勧告したほどである。こうした問題が解決していないにもかかわらず、アルゴリズムによるコンテンツモデレーションをさらに推し進めるのは極めて危険である。

この懸念は、プラットフォームに対し、過去に違法性が確認されたコンテンツや、違法コンテンツに類似したコンテンツの検出・制限を求める要請が積み重なることで更に増幅していく。我々は、悪意を持って拡散される違法コンテンツへの懸念にプラットフォームがどのように対応すべきかについては議論が必要だと考えている。だがDSAは、ある投稿がオンラインユーザによって共有・再共有されるごとに、その文脈や意図がまったく異なる可能性があることを認めなければならない。ジャーナリズムから風刺、ユーモア、研究にいたるまで、(訳注:違法とされたコンテンツを含むものであっても)適法に再アップロードされる可能性は多岐にわたる。アルゴリズムによるコンテンツモデレーションツールは、現状ではこうした文脈を評価できず、どれだけツールが改善してもニュアンスをつかむことまではできない。

提案されているDSA修正案は、オンラインプラットフォームが、プライバシーや表現の自由などの基本的人権をどのように保護しているかを判断する機会となる。立法者は、ユーザがモデレーションの決定方法をもっと理解できるようにすることに注力すべきであり、言論ではなく「手続き」を規制すべきである。コンテンツガバナンス法に、人権とデューデリジェンスの強力なセーフガードが組み込まれていなければ、オンライン上の違法コンテンツから社会を守ると謳いながら、違法な制限や表現の自由の抑圧を助長する空虚なものになってしまうだろう。

安易な解決策はうまく機能しない

個人の権利を保護する政府の義務をオンラインプラットフォームに転嫁し、オンラインエコシステムの中で市民の監視を受けることなく準司法機関としての役割を担わせてはならない

さらに、近視眼的で安易な解決策は、実際には的はずれであることがすでに証明されている。オンラインプラットフォームは、規制当局の要求を満たすために、コンテンツを利用規約に照らして評価し、市民の監視の目を盗んで素早く削除することになる。たとえばドイツのネットワーク執行法(NetzDG)では、オンライン違法コンテンツ対策の特効薬として、短期間での迅速なコンテンツ削除を『推進』してきたが、Facebookはこれに準拠するために2段階の手続きを設けている。まず、報告された全てのコンテンツは、コミュニティ・スタンダードに基づいて審査され、違反が見つかれば当該コンテンツは全世界で削除される。このコンテンツは、NetzDGの規定に照らして判断されることはなく、義務づけられている透明性レポートの対象にもならない。次に、コンテンツがNetzDGに違反していても、Facebookの独自ルール違反でなければ、ドイツ国内でのみブロックされる。つまり、NetzDGは実質的に「コミュニティスタンダード執行法」になっているのである。

過剰な執行、誰が信頼されるべきか

法執行機関への情報開示:ユーザプライバシーの保護

適切なセーフガードや透明性の要件もなく、法執行機関(LEA)に強制的な通報義務を課すべきではない

DSAには、法執行機関との連携を求める条項が含まれている。たとえば、オンラインプラットフォームは、重大な犯罪行為について執行当局に通報しなければならない。この通報義務は差し迫ったリスクに限定されておらず、プラットフォームが共有しなければならないデータも明示されていないことは問題である。欧州議会の担当委員会での提案は、データ保全や当局への当該コンテンツの送信義務など、さらに多くの問題が含まれている。こうしたルールはユーザのプライバシーを損なう。人種や宗教によって差別されている人々にさらなる差別的影響を及ぼすことが懸念される。また、アップロードされたコンテンツが法執行機関に共有されるかもしれないという懸念は、自由なコミュニケーションを阻害し、表現の自由に萎縮効果をもたらしかねない。

トラステッド・フラッガー(信頼できる通知者)は法執行機関や企業から独立していなければならない

LEA等の公的機関がトラステッド・フラッガーとして不適格であることを明確にしなければならない。トラステッド・フラッガーは、定期的な審査と適切な市民監視の対象とならなければならない

我々は、その通知を最優先に処理・判断しなければならないというトラステッド・フラッガーの規定(第19条46項)についても懸念している。DSAの提案は、トラステッド・フラッガーになるための基準を正しく設定しているものの、必要不可欠なセーフガードが欠如している。プラットフォームガバナンスのモデルを確立するための法的枠組みには、トラステッド・フラッガーの公平性と独立性に関する適切なセーフガードが設けられていなければならない。トラステッド・フラッガーは、政府や民間企業から独立し、違法なオンラインコンテンツを検知・特定する専門知識と体制を持つ存在である。だがDSAでは、法執行機関や産業寄りの組織(たとえば著作権領域)であってもトラステッド・フラッガーになりうる。どのような状況においても、トラステッド・フラッガーを設置するための条件が民間プラットフォームによってのみ決定されたり、公的機関がこの役割を担ったりすることがないようにしなくてはならない。

とりわけ、現在の19条の文言では、法執行機関がトラステッド・フラッガーになる可能性が懸念される。欧州議会で現在議論されている、法執行機関のデータアクセスとプラットフォームの通報義務を拡大するさまざまな提案と照らし合わせると、この条項の弱さはさらに際立つ。前述のセーフガードが欠如しているため、民主主義の後退・法の支配の弱体化が進行している国々では、人権侵害の重大なリスクが生じかねない。また、多くの企業が、EU危機対応プロトコルなどの既存のポリシーに基づいて、法執行機関と協力したコンテンツ削除や情報共有のための窓口や手続きをすでに整備していることを、欧州議員は念頭に置くべきである。トラステッド・フラッガー規定に法執行機関を織り込むことは不必要であるどころか、デュープロセスを損ねるおそれもある。

通知・措置(notice-and-action)システムと知識に基づく責任

オンラインプラットフォームは、世界中ほとんどのインターネットユーザに不可欠な存在になっている。仲介事業者が採用するポリシーは、ユーザの社会的、経済的、政治的な生活を規定し、表現の自由、結社の自由、プライバシーの権利など、ユーザの人権にも大きな影響を及ぼす。また、今回の提案は、NetzDGがそうであったように、抑圧的な政府に同様のアプローチの隠れ蓑を与えることにもなりかねない。

「実際の知識(Actual Knowledge)」概念の維持

電子商取引指令によって確立された、仲介者責任の条件つきモデルを堅持するよう求める

欧州委員会が提案した通知・措置メカニズム案では、適切に裏付けられた通知が、自動的に対象コンテンツのプラットフォームに通知されるという点が非常に懸念される。ホストプロバイダは、違法であることを「知っている」コンテンツを迅速に削除した場合にのみ、ユーザが投稿・共有するコンテンツに対する責任制限の恩恵を享受できる。プラットフォームが責任の脅威から逃れるために、通知されたコンテンツを過剰ブロックしたり、DSA(第14条6項)で提案されているアップロードフィルタを使用する以外に選択肢がなくなることが危惧される。

担当委員会の最近の意見は更に踏み込んでいて、ホスティングプロバイダは、DSA修正案で新たに設けられたデューデリジェンス義務を遵守しない限り、責任制限の恩恵を享受すべきではないとまで言われている。現行DSA法案の複数の修正案は、ユーザのコンテンツの最適化、分類、整理、参照、宣伝を支援する、またはコンテンツをコントロールするすべての仲介事業者は、デューデリジェンス・セーフガードを遵守しない限り、責任制限から除外されるべきだと提案している。別の修正案では、オンラインプラットフォームが利用規約の透明性や製品に関する情報提供などの単なる付随的な義務の遵守を怠った場合でさえ、ユーザ・コンテンツへの潜在的な責任の対象とすることを提案している。我々は、現代社会において仲介事業者が果たす役割はますます強力になっているため、仲介事業者に責任を持って行動させなければならないという公共政策上の懸念には共感している。だが知識ベースの仲介者責任の仕組みを直接的に脅威にさらすことは、世界中に影響を及ぼす危険な前例を生み出すことになる。EUの立法者は、現行の責任規則を修正してオンラインプラットフォームをインターネット警察にするのではなく、ユーザに権限を与え、周縁化されたグループを保護し、トラブルが生じた場合には手続的正義を与えるための規則に注力すべきである。この点、欧州委員会のDSA提案は、コンテンツ削除に関する新たな透明スタンダードや、プラットフォームの説明責任、独立監査などプラットフォームの運営に焦点を当てたデューデリジェンス義務を定めており、多くの点で評価できるものであった。

リスク評価とリスク低減措置

DSAは、超巨大プラットフォーム(VLOPs:very large online platforms)のデューデリジェンス義務を新たに定め、VLOPにEU域内でのサービス機能や利用に起因する重大なシステミックリスク評価を義務づけている。システミックリスクは、違法コンテンツの拡散や基本的人権への悪影響などが含まれる。また、プラットフォームは合理的、比例的、かつ効果的なリスク軽減措置を講じなければならない。条文中には、そうした措置が「必須」でなければならないという要件はなく、またリスク評価のためのスタンダードも設けられてはいない。どのような提言措置を講じるかは、プラットフォームの判断に委ねられている。関連規定では人権影響評価を求めてはおらず、行動規範の設定を推奨している。これらいずれにおいても、市民社会の役割は不明確である。

人権影響評価の義務づけの強化

プラットフォーム運営に起因するシステミックリスクを検証・軽減するための主要メカニズムとして、人権影響評価の義務化を検討すべきである。リスク軽減措置は二次的な役割に留めるべきである

人権影響評価(HRIA)の義務化は、DSAのなかでも特に、VLOPの機能やサービスの利用におけるシステミックリスクの特定・評価に関して強化すべきである。現在、DSAはリスクが特定された時点でのみHRIAを要求しているが、それではHRIAが非常に狭い範囲に限定されてしまう。我々は、アルゴリズムによる意思決定の利用を含む、すべてのVLOP運営評価が人権への影響を分析するために実施されるべきで、リスク低減措置に限定すべきではないと確信している。証明責任は、VLOPのサービス全体でも、個々の製品や技術ツールでも、人権を侵害していないことを証明するためにあるはずである。

また「EU法によってデータ主体(data subject)に与えられた権利は、データ処理によってデータ主体が被るリスクの大きさに関わらず尊重されるべきである」という点も強調したい。ユーザの権利を無視することで、VLOPが責任を逃れるようなことがあってはならない。リスク評価は公開されるべきであること、基本的人権を尊重する義務の履行ではなく補完であることを立法者は明確にしなければならない。

我々は、VLOPを独立監査の対象にするというDSAのアプローチを支持しているが、この監査はリスク評価も対象にすべきである。第三者によるアルゴリズムシステムの独立監査は、とくにコンテンツレコメンドシステム、広告、マイクロターゲティングなど、コンテンツのモデレーションやキュレーションのためにアルゴリズムを導入するオンライプラットフォームには必須とすべきである。

HRIAの設計に関するガイダンス

最後に、欧州の共同立法者と政策立案者は、今後、義務的な人権影響評価の内容を検討することに注力すべきである。DSA人権アライアンスは以下の点について検討するよう提案する。

WHAT? HRIAは特定の製品、技術の種類に応じて適用すべきか? HRIAは一部のAIシステムにのみ限定すべきか、それとも全てのAIシステムに拡大すべきか?

WHERE? 報告書は、特定の管轄区域(たとえば欧州連合)に限定すべきか、複数の管轄区域にまたがるグローバルなアプローチ(たとえば国連、欧州評議会、国・地域レベルの分析)を取るべきか?

WHEN? どの段階(事前、事後、継続)でHRIAを実施すれば、影響を最もよく捉え、特定の状況を考慮することができるか?

WHO? どのようなスキルや専門知識が必要なのか、また規制当局がHRIAの実施を担当する場合、どのようなアクセスが必要か、またどのような第三者が代理で行うか?

HOW? どのようにリスクを評価したいのか? リスクレベルは主観的なものであるため、規制対応のトリガーとなるリスク指標/シグナルに焦点を当てるべきか?

IMPACT? HRIAは実際に被害を防げるのか、それともAIシステムの導入を促進するのか? HRIAの範囲は、アルゴリズムシステムに関連するあらゆるタイプの被害を内包するだけの射程を持っているか? AIのHRIAを実施する過程で、市民社会の関与が「参加洗浄(participation washing)」されるのを防ぐにはどうしたらよいか? HRIAの結果が統合され、行動に移されるようにするにはどうすればよいか?

ORGANIZATIONS

7amleh – The Arab Center for the Advancement of Social Media
Access Now
Center for Democracy and Technology
Civil Liberties Union for Europe (Liberties)
Electronic Frontier Foundation (EFF)
European Center for Not-for-Profit Law
Stichting (ECNL)
Global Forum for Media Development (GFMD)
Global Voices
Mnemonic (Syrian Archive)
Open Technology Institute
R3D: Red en Defensa de los Derechos Digitales (R3D)
Ranking Digital Rights

DSA Human Rights Alliance Joint Statement | Electronic Frontier Foundation

Publication Date: October 21, 2021
Translation: heatwave_p2p
Material of Header image:Jehyun Sung