またDMCAが悪用されたらしい。

2月19日ごろ、森哲平氏北守氏赤木智弘氏Simon_sin氏イナモトリュウシ氏らのTwitterアカウントが相次いで凍結された。幸い、いずれも数日で復旧したが、森・北守・赤木各氏の記事によれば、権利者を騙った何者かがTwitterに著作権侵害通知を複数送付したために、凍結されたようだ。

DMCA侵害通知を記録・公開するLumenデータベースを見ると、今回凍結されたアカウントには「モレノ株式会社」「株式会社レッドカンパニー」を名乗る者から同時期(2月18〜19日)に、それぞれ6〜8通の著作権侵害通知が送付されていた(moriteppeihokusyu82t_akagisimon_sinyksplash_ina)。Twitterから赤木氏に送られた通知によると、申請者は「現場猫」の権利者として「永田洋子」を名乗っており、虚偽の申請に基づくアカウント凍結であると思われる。

まず第一に、著作権の制度・保護の仕組みを悪用して、他者の言論を封じようとする輩は「表現の自由の敵」であると言っておきたい。どれほど気に食わない言論・表現であっても、その言論・表現行為そのものは絶対に守られなければならない。

この騒動の背景にラブライブのパネル設置をめぐる論争を指摘する声もあったが、DMCA悪用の問題を考えるにあたってはそうした文脈を考慮する必要はまったくない(実際、関係はなかったようだ)。

問題は、制度・仕組みが悪意を持つ者によって容易に悪用され、言論・表現の機会を奪うツールとして機能していることである。誰であれ制度や仕組みの悪用できてしまう、悪意を持って「表現の自由の敵」になれる状況こそが問題である。

DMCA悪用の問題は昨日今日の話ではなく、この10数年、改善どころかむしろ悪化しつつある。今回のように権利者を騙ってDMCAを悪用したTwitterアカウントの凍結は、話題になったものだけでも艦これ公式Lumen)、日本版AUTOMATONLumen)、はちま起稿と俺的ゲーム速報Lumen / Lumen)、大川ぶくぶLumen)と枚挙にいとまがない(いずれも現在は復旧)。

また、Googleの検索結果から排除するためにDMCAを悪用するケースも目立っており、権利者ではあるものの、適法な著作物の利用(引用)を侵害だと言い張って悪評を消し去ろうとしたケース(景表法違反の指摘を封じようとした侍エンジニア塾、タイでの全裸騒ぎを隠蔽しようとしたDYM、ステマの指摘を排除しようとしたEPARK歯科)や、通常であれば気にもかけないような無断使用を口実に不都合な情報を排除しようとしたケース(自社のIPOを批判する記事とそのリンクを含む投稿を狙い撃ちにして削除・排除を要請したWantedly)、小さなお葬式Hi-Bit(ハイビット)の悪評記事を巡っては著作権侵害をでっち上げて検索結果から排除しようとしたケースもあった。

DMCAの悪用は世界的な問題でもあり、電子フロンティア財団(EFF)は「DMCA削除:恥の殿堂」というページで、さまざまな悪用の事例を紹介(晒)している。最近でも、海賊版サイトがライバルの海賊版サイトを蹴落とすために虚偽のDMCA通知を乱発したり、ユーチューバーに虚偽の侵害通報を繰り返して脅迫したりと、悪用のされ方も実に多様だ。

問題は、これほど悪用されてなお、抜本的な解決策が存在しないことにある。

なぜ虚偽の著作権侵害の申請がまかり通ってしまうのか

今回の騒動を巡っては、虚偽の申請を行った者への非難とともに、(少なくとも人による審査〈モデレーション〉を経ていれば)明らかに虚偽とわかる申請を受理し、アカウントを凍結したTwitterに対する批判も強い。

だが、Twitter側は、あくまで法律(と規約)に従っただけ、という立場を取るだろう。少なくとも、彼らは米国のDMCA(デジタルミレニアム著作権法)が求める対応をしてはいる。

DMCAとは

DMCAは米国が来たるべきネット時代に備えて1998年に制定した著作権法である。ここで想定された「来たるべきネット時代」というのがまさに今現在。そして、米テクノロジー企業のサービスが世界を席巻していることから、これが事実上のグローバル・スタンダードとなっている。

DMCAの中でも今回の騒動に関連するのは、いわゆる「セーフハーバー条項」である。免責/責任制限規定とも呼ばれていて、ネットの仲介者(オンラインサービスプロバイダ)が一定の条件を満たすことで、サービス利用者がしでかした著作権侵害については免責される1

サービスプロバイダが利用者の侵害行為の責任を負わされかねない状況では、サービスの提供が萎縮し、テクノロジーの発展が阻害されてしまう。さりとて侵害に一切の責任を負わないとしてしまえば、海賊版コンテンツが野放図になり、エンターテイメント業界の発展が阻害されてしまう。

そこで、ノーティス&テイクダウン(DMCA削除)(著作権者からの侵害コンテンツの削除要請に迅速に対応すること)と反復侵害者〈repeat infringers〉への適切な対処という2つの要件を満たしていれば、サービスプロバイダは利用者が行った侵害行為の責任を負わないということになった。

エンタメ業界(著作権者)とテック業界(サービスプロバイダ)の保護のバランスを取ろうとしたのがセーフハーバー条項といえるのだが、その2つの要件こそが他者の言説や表現を封じるために悪用されている。

DMCA削除の制度的問題

DMCA削除のルールを一言で言えば、権利者からの通知(ノーティス)があり次第、侵害か否かの判断(裁判)は後回しにして2、サービスプロバイダはテイクダウン(削除・不可視化)しなさいということになる。

権利者は侵害の事実を発見してそれを通知し、サービスプロバイダは通知を処理して対象のコンテンツを削除すれば免責される。両者の保護と責任を明確化した規定ではあるのだが、悪用(権利者を騙る虚偽のDMCA削除)や間違い(引用やフェアユースを侵害扱いする不適切なDMCA削除)といった副作用はそれほど考慮されていない。

サービスプロバイダ側が侵害ではないと判断し、削除しないことも選択できるが、削除しなかったコンテンツが実は侵害だった場合、サービスプロバイダ自身が著作権侵害の責任を負わされることになる。一方、侵害ではないのに削除してしまった場合には、当事者の不評を買いはしても、重大な法的責任を負うことはない3。判断を間違うにしても、誤って侵害扱いしてしまう誤検出〈false positive〉よりも削除対応しない見逃し〈false negative〉のほうがリスクが高くなるよう設計された法制度であって、あえて見逃しのリスクを負うことは想定されていない。

また、今やDMCA削除通知は年に数十億件が飛び交っていることを考えれば、1件1件を精査するのは到底不可能だ。大半が自動化されていて、権利者側による侵害コンテンツの検出、DMCAノーティスの提出も、サービスプロバイダ側のクレームの処理、侵害コンテンツの削除もボットによって自動化されている。

つまりDMCA削除という仕組み自体が、「疑わしきは削除」する方向にインセンティブがかけられていて、その大半を文字通り機械的に処理しなければ到底遵守できない状況にある。それゆえ、たとえ虚偽の申請や不適切な申請(例えばフェアユースに該当する利用を侵害だと主張する)であっても、手続き上の不備さえなければ、コンテンツが削除されてしまうことになる。

曖昧なアカウント凍結の基準

DMCAのもう1つの免責要件は、反復侵害者〈repeat infringers〉への適切な対処である。侵害を繰り返す利用者を排除するポリシーを定め、適切に執行すること――なのだが、DMCA削除のような手続き的な明快さはなく、非常に曖昧だ。具体的に何をどうしていればこの要件を満たしたことになるのかは、いまもってはっきりしていない(だからいまだに裁判で争われたりしている)。

サービスプロバイダも、はっきりしていないなりにやれることはやっておかないといけないので、利用者が著作権侵害を繰り返す場合にはアカウント凍結や契約解除もありうるとかいうことをとりあえず規約に定めてはいる。

だが、その運用(適用)はどうかというと、これもまた曖昧で、サービスプロバイダの胸三寸(アルゴリズム)で決まってしまう。「繰り返した」とされる基準、閾値が明示されることはなく、あくまでサービスプロバイダがそう判断した、と説明される。

はっきりさせたくない理由はいろいろあるのだろうが4、少なくともサービスプロバイダにとって、規約違反の可能性が高い(とアルゴリズムが判断した)一般ユーザのアカウントを誤って凍結したとしても、彼らのビジネスに大した影響はない。一方で、侵害を繰り返すアカウントを放置すれば、セーフハーバー保護を失いかねない。これもまた機械的に一定の頻度でDMCA削除要請を受けたアカウントが凍結されているのだろう(とはいえ申請実績がない者から短期間に数件のDMCA削除要請を受けただけで凍結するTwitterの対応は悪用されやすすぎるように思う)。

DMCAと利用者保護の欠如

DMCA削除であれ、アカウントの凍結であれ、ほぼ機械的に処理されているために、少なくとも人間が見ていれば気づけそうな悪用や間違いが見抜けない。その穴をついて悪用が横行しているわけで、利用者保護の観点から「なんとかしてくれよ!」と言いたくなる気持ちもよく分かる。

だが、悪用問題を解決する銀の弾丸は、いまのところ存在しない。

作業猫や博麗霊夢の著作権を主張してくるなんて怪しすぎるだろ、という感覚は文脈を知っていればこそであって、サービスプロバイダにあらゆるコンテンツの文脈の把握を期待することは到底できない。さらに申請者が真の権利者であるのか、申請内容が著作権侵害であるかを判断するのも容易ではなく、その精査には莫大なコストがかかる。

また、「慎重な対応」は「迅速な対応」とのトレードオフであり、DMCAが「迅速な(遅滞なき)」削除を求める以上、サービスプロバイダは慎重さを犠牲にして迅速さを追求しなくてはならない。

その点において、DMCAの悪用は、Twitterをはじめとするサービスプロバイダの対応のまずさ以上に、海賊版対策(著作権者の保護)と責任制限(サービスプロバイダの保護)に重きを置き、利用者の保護を軽視した制度設計の問題ということもできる。

ではどうすべきか――というのがなかなかに難しい。セーフハーバー要件を緩和して、迅速さを損ねてでも慎重さを担保させようとすれば、当然権利者が不利益を被ることになる。現状のDMCA削除の仕組みすら手ぬるい(あるいはYouTubeなどのサービスプロバイダに悪用されている)と考えるエンタメ業界が認めてくれるとも思い難いが、利用者保護の観点も盛り込んだ制度(および市場)の在り方を再考すべきではあるのだろう。

とはいえ、中長期的にはそうなるべきではあるにしても、短期的にはサービスプロバイダに迅速さと慎重さを両立してもらわざるを得ないのが現実である。

制度・システムの濫用と利用者保護の行方

利用者保護の側面からサービスプロバイダに改善を要請する動きとしては、2018年に電子フロンティア財団(EFF)や米自由人権協会(ACLU)らが提唱したサンタクララ原則がある。サンタクララ原則では、コンテンツ削除やアカウント凍結(コンテンツ・モデレーション)に関連してサービスプロバイダが遵守すべき原則として、以下の3つの原則(数字・通知・異議申立)が掲げられている。

  • 削除された投稿数、コンテンツガイドライン違反により永久または一時的に凍結されたアカウント数を公表すること
  • 禁止されるコンテンツのタイプを全ユーザに明確に通知し、影響を受けるユーザに対し、コンテンツの削除ないしアカウント凍結の理由を明確に通知すること
  • 最初の判断に関与していない人物による目視のレビューを経てコンテンツ削除を実施し、いかなるコンテンツ削除、アカウント凍結にも意味のある時宜に適った異議申し立て手続きを提供すること

禁止ルールも曖昧、適用基準も曖昧、誰からの要請であるのかもわからないまま、サービスプロバイダのさじ加減1つでコンテンツの削除やアカウントの凍結が決定され、利用者への通知・理由の説明も極めて曖昧、異議申立の手続きも整備されていないしわかりづらい――という無責任極まりない(が、現実にまかり通ってきた)運用にNOを突きつけ、透明性の向上、ルールの明確化と説明責任、意味のある異議申し立ての機会の提供をサービスプロバイダ、とりわけソーシャルメディアに求めている5

サンタクララ原則が興味深いのは、不当な削除・凍結であった場合にはそれに異議を申し立て、回復する手段を提供することを求めているのであって、「絶対に不当な削除・凍結をするな」という理想を押し付けてはいないという点である。強硬なデジタルライツ運動家ですら、不当な削除・凍結が生じるのは(減らせはしても)避けられないという視点に立っているということでもあるのだが、それはそれで現実的なものの見方ではある。

というのも、2016年以降、ソーシャルメディアに対する社会的圧力は高まっており、白人至上主義やゼノフォビア〈xenophobia〉に基づくヘイトスピーチ、強権国家による選挙介入や世論操作、デマ・陰謀論・フェイクニュース・ディープフェイクなどの偽情報、過激主義者によるリクルートやプロパガンダ、ネットいじめやハラスメント、リベンジポルノ、有害コンテンツ、児童を狙った犯罪(特にchild sexual abuse)の温床として批判にさらされ、その対策を迫られている。各社それぞれに、主に問題のコンテンツ・アカウントを排除する方向で対策を強化しているものの、社会を納得させるほどの効果があがってはいない。サービスプロバイダのセーフハーバーを狭めて、投稿されたコンテンツへの責任を負わせようとする――つまり規制を導入しようという動きも活発化している6

サービスプロバイダが違法・有害・不適切コンテンツを排除しようとすれば、DMCAと同様に、それぞれ悪用もされるし、間違いも起こる。その結果、それぞれの問題の被害を訴えたり、状況を変えようとする当事者や支援者が巻き込まれ、削除・凍結(あるいは自己検閲)の憂き目に合わされている。さらに、違法・有害・不適切コンテンツの排除を口実に、国家による言論・表現への直接・間接的介入も生じている。

もはや不当なコンテンツ削除・アカウント凍結は、DMCAだけの問題ではなく、あらゆる違法・有害・不適切コンテンツのモデレーションの問題となっているのである。

副作用は(ほぼ)必ずある

上述した問題にいかなる対策・規制も不要だと言いたいわけではない。対策・規制の結果として生じうる副作用があることを認識し、どう評価し対応していくべきかを考えなくてはならない、ということである。

サービスプロバイダが著作権侵害以上に難しい判断を迫られていることを考えれば、悪用や間違いによる削除・凍結という副作用の問題がますます悪化していくことが懸念される。

だからこそ、利用者保護の最低限の原理原則として、透明性の向上、ルールの明確化、削除・凍結の理由の明快な通知を求めることで不当な削除・凍結を牽制しつつ、意味のある異議申立の機会の提供を求めることで不当な削除・凍結による不利益から回復できるようにならなければならない。こうした原則が遵守されれば、悪用や間違いから利用者を守ってくれるはずだ。

当然のことながら、原則が絵に描いた餅のままでは状況は改善しない。Twitterを含め、多くのテクノロジー大手がサンタクララ原則への支持を表明しているものの、その原則が遵守されているとは言い難い。サンタクララ原則が浸透し、遵守されるためには、やはり利用者の声が必要不可欠だ。冒頭の事例のような不当な削除・凍結が行われた場合には、その判断を下したTwitterを批判することも重要である。「Twitterの運用、マジクソだな!」でも良いのだが、禁止ルールは明確であるのか、その適用は妥当な判断であったのか、違反の説明は適切に行われたのか、意味のある異議申立の手続きは提供されたのか、という点からも検証・批判されることが望ましい(たとえば、森氏の記事では、異議申立をためらわせる要素があったことが指摘されている)。

だが、サンタクララ原則は削除・凍結ポリシーの運用に関する原則に過ぎない。DMCAであれヘイトスピーチ規制であれ偽情報対策であれ、ルールそのものが曖昧さを抱えていれば、やはり副作用の問題は深刻になる。ルールや定義の明確さ、責任の範囲なども勘案してどのような副作用を引き起しうるのか、効果とのバランスから許容可能な副作用であるのか、副作用を抑制・緩和する術はあるのか、といった懸念を事前にも、事後にも評価し、副作用が強すぎる場合には方法論の是非も含めて見直しが議論されねばならない。

繰り返しになるが、この問題には抜本的な解決策が存在しない。法律であれ、運用であれ、技術であれ、制度であれ、仕組みであれ、認識であれ、それらを少しずつ調整していくことで、緩やかに改善させていくしかないのだろう。

Material of Header Image: Robert Ruggiero
  1. もちろん、サービスプロバイダ(ISPやホスティング会社、YouTubeやTwitterをはじめとするCGMサイトなど)が責任を問われない、ということであって、利用者が免責されるわけではない。
  2. サービスプロバイダは侵害であるか否かの判断はできないし、申請者が実際の権利者であるかどうかの判断も難しい。
  3. 基本的に、サービスプロバイダが避けたいのはユーザと広告主の大量離脱か法規制で、ユーザからの信頼を多少損ねる程度であれば許容できる。Google(YouTube)やFacebook、Twitterのようなオルタナティブが存在しないサービスでは、ユーザの大量離脱は考えにくい。
  4. 1つは基準・閾値が明らかになると悪用されかねないという懸念があるのだろう。だが、悪意を持った者ならば、実験的に複数回の施行を行ってある程度は推測できてしまう。今回の4例でいえば、1、2日に6〜8件、冒頭に挙げたTwitter凍結でも数日間に多くて10件弱である。あるいは、そもそも利用者ごとに基準は違っていて、一律には回答できないのかもしれない。注目を集めやすい著名人やインフルエンサーは、同時に悪意も向けられやすい。それゆえ、知名度が高まるほどアンチの通報攻撃を受けやすいという仮定を前提としたアルゴリズムを採用しているのかもしれない。が、界隈の著名人で、数千〜数万フォロワーを抱えるアカウントが(さらには艦これ公式アカウントでさえ)、こうも簡単に凍結されるというのは腑に落ちない。トランプ米大統領の@realDonaldTrumpのアカウントのように特別な保護(おそらくジャック・ドーシーのGOサインがなければ凍結されない)を受けているアカウントもあるのだが、どういった基準があるのかは不明だ。
    著作権侵害以外にも、ハラスメント行為やプライバシー侵害、リベンジポルノ、差別・ヘイト行為、暴力の賛美、スパム、自殺・自傷の助長・扇動、センシティブなコンテンツの投稿、なりすましなどの規約違反により、アカウントが凍結されることもあるのだが、こうした各種違反行為が、それぞれ単独で判断されているのか、総合的に勘案されているのかもよくわからない。
  5. サンタクララ原則はDMCAの悪用や誤用だけに焦点を当てたものではなく、サービスプロバイダが政府からの削除要請や、近年の過激主義やヘイトスピーチ、性的人身売買禁止法(FOSTA)などに対応するなかで、必要以上にコンテンツ削除・アカウント凍結が行われ、とりわけ弱い立場に置かれている人びとがその影響を受けているという問題意識から生まれてきたものである。とはいえ、その射程には当然DMCAの悪用や誤用も含まれている。
  6. 自主的な対策では埒が明かないと判断した国々では、ソーシャルメディア/CGM規制、またはその検討が進んでいる。たとえばドイツは2018年1月に「ネットワーク執行法(NetzDG/SNS法)」という法律を施行し、ヘイトスピーチなどの同国で違法とされる投稿を24時間以内(判断が難しい場合には1週間以内)に削除するようソーシャルメディアに義務づけた。表現の自由への影響が懸念された法律ではあったが、施行からわずか3日後に風刺雑誌『タイタニック』のTwitterアカウントが凍結されたことで、予見された危惧は現実のものとなった(同アカウントはのちに復旧)。
    ドイツ以外でも、昨年あたりから英仏でも同様のソーシャルメディア規制法が検討されている。EUも大手テクノロジー企業にヘイトスピーチや過激主義対策を行動規範(わりと強めの自主規制の要請)というかたちで求めており、十分な成果が見られなければいつでも法規制に乗り出す用意はあるぞという脅しをかけ続けている。
    >一方、大西洋の向こう岸、表現の自由に重きを置く米国でも、ソーシャルメディアやCGMへの圧力は高まっている。欧州同様にソーシャルメディアを介した選挙介入、ヘイトスピーチや偽情報(不誠実な政治広告を含む)の蔓延といった大統領選挙に端を発する問題への対応を求められているところもあるのだが、その対策が新たな火種にもなっている。ヘイトスピーチ対策の強化により白人至上主義者や陰謀論者が次々に放逐されていったのだが、これを快く思わないトランプ大統領やテッド・クルーズら一部保守勢力らが「ソーシャルメディアが政治的に(リベラルに)偏向している」との攻撃を展開し、彼らが満足する「政治的に中立なモデレーション」をソーシャルメディアに課そうという動きも見られている。
    また、米国で2018年に超党派の支持を得て成立したFOSTAも、性的人身売買(児童を含む売春強要)と戦うという大義名分こそ立派ではあったが、それを幇助・助長する投稿を掲載したサービスプロバイダに重い責任を課すことで、セックスワークに自由意志で従事する人たちまで排除する結果をもたらした。DMCA削除同様、サービスプロバイダがリスクを避けようとすれば、コンテンツは過剰に削除されることになる。さらに、セックスワーカー自身がリスクを回避するために自主検閲を行わざるをえなくなってしまってもいる。ソーシャルメディアやクラシファイド広告により暴力や強要から逃れたはずのセックスワーカーたちが、再びその恐怖や危険に怯えなくてはならない状況が作り出されている。
    著作権の方面でも、現状のDMCAによるノーティス&テイクダウンすら著作権保護には不十分であるという動きが活発化している。すでに「アップロードフィルタ」 を事実上の要件とするEU著作権指令17条が承認されてしまったことで、現実のものとなるのは時間の問題となってしまった。アップロードフィルタというのは、著作権者が事前に登録した、または著作権者から1度でも侵害が指摘された著作物のアップロードを未然に防ぐための技術で、DMCAの求める事後的対処から一歩進んで、予防的対処を求めるものとなる。どうもEUの立法者たちは、引用やフェアユースのような適法な利用は簡単に見分けられると軽く考えているらしいのだが、そんな高度な文脈を機械に判断できるはずもなく、それが実装された暁にはどれほどの混乱が生じるのか予想もつかない。
カテゴリー: AbuseCopyrightDMCA