以下の文章は、電子フロンティア財団の「Europe’s Digital Services Act: On a Collision Course With Human Rights」という記事を翻訳したものである。
昨年、EUはデジタルサービス法(DSA)案を公表した。発表当時は、ビッグテックの力を抑制し、欧州インターネットユーザが自らのデジタルライフをコントロールできるようにする野心的で思慮深い法案のように思われた。世界最大の経済圏であるEUが、役に立たず、人権と相容れないテクノロジー規制に終止符を打とうとしているかのように見えたからだ。
我々は(慎重ながらも)楽観的だった。だが、懸念がなかったわけではない。EUに過剰ブロッキング、低性能、独占維持の著作権フィルターの義務づけをもたらした良からぬ考えを持ったまさにその連中が、DSAを欧州市民の言論を自動フィルタリングするための新たな口実にするのではないかと。
その懸念は間違いではなかった。
2019年著作権指令は、あたまのわるい「AI」に欧州27加盟国、5億人のデジタル表現を管理させるに至った。だがDSAは現在、さらに多くのアルゴリズムフィルターとの衝突コースを全速力で突き進んでいる。
加盟各国が2019年著作権指令の履行を進める中、著作権フィルターは、EU全域の国内法にすでに組み込まれている。だが自動フィルターは著作権侵害の検出を苦手としており、アンダーブロック(著作権侵害の見逃し)、オーバーブロック(著作権を侵害していないコンテンツの削除)の両方の問題を抱えていることがすでにわかっている。また、フィルターは容易に悪用でき、たとえば警察官とのやり取りを録画した市民の適法なコンテンツさえブロックしてしまう。
だが、DSAが義務づける可能性のあるフィルターのひどさは、著作権フィルターのひどさとは比べ物にならない。
フィルターネット、メイド・イン・ヨーロッパ
欧州議会の有力委員会に最近承認された現在のDSA案は、オンラインプラットフォームに違法性が疑われるコンテンツを迅速に削除することを義務づけている。ある提案では、すべての「アクティブなプラットフォーム」が自動的にユーザのコミュニケーションに責任を負う可能性があるという。では、アクティブなプラットフォームとはなにか? ユーザのコンテンツをモデレーション、カスタマイズ、プロモーションするなどの処理を行うサービスである。違法コンテンツを管理・分類するサービスを罰するなど実に馬鹿げたことだ。違法コンテンツに対処する責任を果たすための取り組みを行うサービスだけを処罰の対象にしようしているのだから。
このような要件は、人間のモデレーターには対応できないスピードで、リアルタイムに違法コンテンツを特定するという不可能なタスクをプラットフォームに押し付け、判断を間違えば処罰するというものだ。必然的にフィルタリングの自動化がもたらされることになる。プラットフォームはしばしば自社の自動フィルターを公の場で自画自賛しているが、その陰ではエンジニアたちが「このシステムはまったく機能していない」と上司に報告しているのである。
大規模プラットフォームでは、速度優先の低精度のアルゴリズムによってコンテンツが削除されるため、過剰ブロックが生じることになる。一方で、不当に黙らされた人々の異議申し立ては、アルゴリズムと同様に不透明で恣意的な審査プロセスに委ねられることになる。そしてその審査には長い時間がかかる。表現は一瞬に削除されるのに、その復旧は数日、数週間、あるいは2.5年かかることになるのだろう。
それでも、最大手のプラットフォームはDSAを遵守できるだろう。だが、スタートアップや協同組合、非営利団体など、ユーザを搾取するのではなく支援しようとする組織が運営する小規模サービスは、極めて厳しい状況に直面する。こうした企業(EUのジャーゴンでは「マイクロエンタープライズ」)は、法定代理人やフィルタリングツールのコストを捻出できなければ、欧州での事業継続はできなくなる。
このように、DSAは少数の米国の大手テクノロジー企業が、欧州人のオンライン言論をコントロールするためのルールを設定している。米国企業が運営するウォールド・ガーデン(囲い込まれたプラットフォーム)では、アルゴリズムが言論を監視し、警告もなく削除する。アルゴリズムは、発言者がハラスメントをするいじめっ子であるか、ハラスメント体験を語るいじめサバイバーであるかなど考慮することはない。
こんなはずではなかった
EUは、長きにわたって人権の原則を尊重し続けてきた。だが残念なことにDSAが提案されて以来、DSAの審議に関わるEUの立法者たちは、EU法によって具現化されている人権への懸念を表明するEUの専門家の指摘を無視し続けている。
たとえば、欧州のテクノロジー規制の基盤である電子商取引指令は、違法コンテンツ削除の必要性と、削除の正当性を審査するためのコンテンツ評価の必要性とのバランスを取っている。商取引指令では、ごく短期間の不合理な削除期限を設けるのではなく、ウェブホストによってコンテンツが実際に違法であると判断された後に(これは「実際の知識」基準と呼ばれる)、「表現の自由の原則を遵守した上で」コンテンツを「迅速に」削除することを求めている。
つまり、サービス運営者は、ユーザからの通報で違法行為を知った場合、合理的な時間内に削除しなければならない。これはけっして良いことではない。我々がこれまで訴えてきたように、何が違法で何が違法でないかを判断するのは、プラットフォームの運営に不満を持つユーザではなく、裁判所であるべきだ。だがこれですら、現在のDSA案に比べればはるかにマシなのである。
現在のDSA案は、ドイツのNetzDGやフランスのオンライン・ヘイトスピーチ法案(あまりにずさんな法律であったため、フランスの憲法審査会ですぐさま無効化された)などの壊滅的な先例にならい、商取引指令の欠陥をさらに広げ、(コンテンツの違法性の)慎重な審査を妨げる削除期限を設定している。ある案では72時間以内の対応が義務づけられ、別の案でプラットフォームは24時間以内に、ライブストリーミングコンテンツの場合は30分以内にコンテンツを削除しなければならないとされている。
商取引指令は、「一般監視義務」の禁止も定めている。つまり、加盟国政府がオンラインサービスにユーザの常時監視を命じることを禁止しているのである。だが、ごく短時間の削除期限は、この禁止規制を実質的に意味のないものとし、表現の自由を侵害せざるを得ない状況を作り出す。
こうしたスパイ行為の禁止に加え、世界のプライバシー規制の手本となっているEU一般データ保護規則(GDPR)では、ユーザを「自動化された意思決定」の対象とすることを厳しく規制しており、ユーザのオンライン生活への参加をアルゴリズムに完全に委ねることを事実上禁止している。
DSAの修正議論でなされた多くの提案は、この2つの基本原則を粉砕し、違法性が疑われるコンテンツ、過去に違法と判断されたコンテンツ、既知の違法コンテンツに類似したコンテンツをプラットフォームに検出させ、制限させようとしているのである。あらゆるユーザのすべての投稿をじっくり審査することなく、実現するのは不可能であるにも関わらず。
このままではいけない
DSAはまだ手遅れではない。人権を尊重し、電子商取引指令やGDPRとの整合性を保つようにさせることはできるのだ。コンテンツ削除体制は言論やプライバシーの権利とのバランスをとり、削除要請の妥当性を慎重に評価できるような期間を設けることもできる。DSAはコンテンツ削除に対する異議申し立てシステムの重要性を、削除プロセスと同程度に強調することでバランスを取ることができるし、プラットフォームに確実かつタイムリーな異議申立システムを構築・維持する義務を課すこともできる。
DSAは自動フィルタリング義務化そのものを禁止することもできるし、GDPRを尊重し、アルゴリズムによる画餅を約束する企業の空想的な誇大広告ではなく、独立した専門家の意見に基づいて、「AI」システムの性能について現実的な評価を下すこともできる。
DSAは小規模プラットフォームを育てることの重要性を認めることもできる。「競争」はテクノロジー企業の邪悪さを解決する万能薬としてだけでなく、ユーザがテクノロジーの自己決定権を行使し、自分たちの規範や利益、尊厳を尊重する社会的なオンライン空間を運営したり、要求したりするための手段としても認識されるべきだ。この認識はDSAの課す義務が、各アクターの規模と能力を加味したものであることを意味する。この点は、欧州委員会のDSA影響評価の提言に含まれていたものの、これまで完全に無視され続けている。
EUとそれ以外の世界
欧州の規制は、しばしば世界的なルールづくりの手本とされてきた。GDPRはカリフォルニア州のCCPAのような個人情報保護法につながる勢いを生み出した一方で、ドイツのNetzDGは、オーストラリア、英国、カナダで悪しき規則や提案を引き出している。
欧州の政治家がDSA策定の際に犯した過ちは世界中に波及し、DSAの起草・修正段階で(これまでのところ)まったく考慮されていない弱い立場の人々に深刻な影響を及ぼすだろう。
ビッグテックがもたらす問題は現実で、緊急で、そしてグローバルである。世界には、安直な答えや偽りの応急処置のために人権をないがしろにするEUの破滅的なテクノロジー規制に耐えられるだけの余裕はない。
Author: Cory Doctorow / EFF (CC BY 3.0 US)
Publication Date: October 27, 2021
Translation: heatwave_p2p
Material of Header image: Michael Krahn