以下の文章は、電子フロンティア財団の「Congress Should Not Rush to Regulate Deepfakes」という記事を翻訳したものである。

Electronic Frontier Foundation

下院情報特別委員会は今月、「ディープフェイク」問題に関する公聴会を開催した。ディープフェイクとは、機械学習アルゴリズムを用いて作成された本物に見える偽の画像や映像を説明する造語である。こうした捏造・操作された画像やビデオは、現実の危険を引き起こしたり、被害を及ぼすこともありうる。公聴会に証人として出席したメリーランド大学ロースクールのダニエル・シトロン教授は、(訳註:インドのモディ政権に批判的な)ジャーナリストのラナ・アユーブの身に降り掛かった恐怖の出来事を語った。ネットのあるユーザがアユーブの画像を元に作成した偽のポルノ映像を拡散したことで、(訳註:彼女への攻撃が過激化し、電話番号や住所がさらされ、レイプの脅迫を受けた)アユーブは安全のために身を隠さざるを得なくなった。社会として、我々はディープフェイクが有害な方法で利用されていることを認識し、悪意あるディープフェイクビデオの制作者にその行為の責任を負わせなくてはならない。EFFは、弱い立場にある人の言論を萎縮させるためにハラスメントが行われていることを含め、オンラインハラスメントの有害さを認識している。だが議会がこの問題に対処しようとするにしても、パロディや風刺など適法で社会に有意義な表現まで検閲するようなことがあってはならない。

議会はディープフェイク規制法案を起草する前に、新たな法律がどのようなものを対象とすべきか、現行法で対処できるかどうか、その法律が言論の自由と表現の自由にどのような影響を与えうるのかを慎重に検討すべきである。

ディープフェイクとは何か(そして何でないか)

ディープフェイクとは、「ディープラーニング(深層学習)」と「フェイク」を組み合わせた造語で、既存の画像や動画をソースとなる画像や動画に合成する機械学習技術を用いて生成された画像や動画を指す。この用語はしばしば悪意あるオンラインコンテンツを表すために用いられてきたが、技術論的には、ディープフェイクの根底にある生成技術は名誉毀損や侮辱を意図したコンテンツばかりでなく、パロディや風刺のためにも利用できる。

ディープフェイクがメディアの関心を集めたのは、こうした偽の映像が比較的容易に入手できるツールを使って自宅でも制作できるためだ。Motherboardのサラ・コールが伝えているように、ディープフェイク技術は主に、ある実在の人物(たとえばセレブなど)の顔を別の人物の体にうまくつないでポルノビデオを作成するために利用されている。これはまさにアユーブの身に起こったことだ。またディープフェイクは、当人が口にしていないことを「言った」ように描写する映像を作成することもできる。バラク・オバマ前大統領がトランプ現大統領を罵倒するフェイクビデオを、俳優兼監督のジョーダン・ピールが作成したことでも話題を集めた。

まぎらわしいことに、この用語は人工知能や機械学習とは無関係な改ざんされた映像を指しても使われることもある。たとえば、先日の公聴会に出席した議員たちは、繰り返しナンシー・ペロシ議員の映像の拡散について言及した。このビデオは、彼女が酔ってろれつが回っていないように見せるために再生速度(訳註:やピッチ)がいじられていた。議員らはほかにも、規制にしたい各種「偽」メディアとして、加工された写真、ニュース記事、『フォレスト・ガンプ』のような(トム・ハンクスが歴史的映像に合成された)映像、ミリ・ヴァニリの口パクなどを挙げた。

「ディープフェイク」という用語をめぐる議会の混乱は、公聴会に先立って提出されたイベット・クラーク議員の法案「The Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act」(ディープフェイク説明責任法案)にも表れている。同法案では、すべての「高度な技術的虚偽人格記録(advanced technological false personation records)」に対し、ラベルによる表示、透かし、または音声等による情報開示を義務づけている。法案では、「身体的活動(material activity)」に従事する者の言動を何らかの技術的手段を用いて創作したもので、一般人が本物であると信じるものであり、かつ、描写された者の同意を得ずに制作されたあらゆるメディアに適用されるとしている。「身体的活動」とは、「一般人に認識され、個人的・社会的危害を引き起こしうる」発言、行為、描写とされる。

「ディープフェイク」の定義が大雑把なこと以外にも、この法案は様々な問題を抱えている。

第一に、ラベル表示と透かしを義務づけたところで、悪意あるディープフェイクが引き起こす現実の被害を解決する道筋が見えないということである。世界中のトロールがこの義務に従うとは考えにくく、特に米国外に在住している者が応じることはないだろう。

第二に、この法案の範囲と罰則が、複数の点で修正第一条に違反していることである。たとえば、法案では一般人が「偽の身体的活動」を本物と誤認しない限りパロディ、風刺、エンターテイメントを例外としているが、誰が証明責任を負うかを規定しておらず、クリエイターを萎縮させる可能性がある。また、透かしや情報開示を怠った場合には15万ドル以下の民事制裁金が科されるほか、描写される人物へのハラスメントや暴力の扇動、選挙妨害、詐欺行為、さらには「恥をかかせること」(法案では定義されていない曖昧な用語)を目的とした違反行為に対し――たとえ被害の事実が確認されていなくても――刑事罰が科されることになっている。米国憲法修正第一条は一般に、損害の事実を示すことなく刑罰を科す刑法を禁じている。

さらにこの法案がおぞましいのは、治安や国家安全保障のために活動する米国職員を免除している点である。

クラーク議員の法案は、答えを出さなくてはならない重要な問題を浮き彫りにしている。つまり、法律上および立法上の観点から、悪意ある「ディープフェイク」と、風刺・パロディ・エンターテイメントの違いとは何かという問いに答えを出さなくてはならないということだ。これまでの政治家の議論を見るに、彼らはそれらを明確に区別する基準の見当すらついていないようである。多くの政治家や専門家が、この問題に対処するためにインターネット上の言論の保護に最も重要な法律を改正しようとしていることを考えると、懸念はさらに深まる。

230条とは何か(そして何でないか)

この公聴会で、政治家たちは通信品位法230条(47U.S.C.§230)の保護を制限すれば、ディープフェイクの問題はすべて解決すると訴えていた。これは230条の保護を誤解した議論であり、その範囲を狭めることによって生じる個人に対する不利益を過小評価してもいる。ユーザの言論の保護に最も重要な法律を制限しても、ディープフェイクが引き起こす微妙な問題が解決されることはないのだ。

230条は、第三者が作成したコンテンツを再公開する「対話型コンピュータサービス」の提供者およびユーザが、第三者の言論について責任を問われることから保護している。たとえばソーシャルメディアプラットフォームは、第三者のコンテンツへのモデレーション判断、モデレーションをせずにコンテンツを送信するという判断のいずれに対する訴訟からも保護されている。電子メールを転送したり、他者が作成したコンテンツを送信する個人も、同様の保護を受ける。

一部の人々――さらには一部の政治家でさえも――が誤解しているのは、230条は対象となる企業や個人に完全な免責を与えているのではないということだ。彼ら自身の言論については彼ら自身が責任を負うことに変わりはなく、彼らの利用者の発言に対する責任から免責されるだけなのである。

230条が保護するのは大企業ばかりではない。実際、十分なリソースを持たない中小企業にとって、利用者の発言に対する高額な訴訟を防げることは極めて重要だ。230条に規定される法的保護は、イノベーションを促進し、重要な意見からありふれた意見まで、主流の意見から異端の意見まで、人気の意見からニッチな意見まで、ありとあらゆる言論を支える豊かで活気に満ちた多様なプラットフォームの発展につながった。こうしたプラットフォームは、民主主義社会に不可欠な情報・意見・アイデアを広く迅速に共有することを可能にしている。世界はさまざまな点で変化してきたが、230条が可能にしたオンラインのイノベーションと言論は、(訳註:同法が導入された)20年前よりもさらに重要性を増している。新規参入企業が成長し、今日のインターネットをかたち作った競争を享受するためには、彼らに対しても230条の保護が与えられなくてはならないのである。

政治家たちは230条の保護をうまく制限できるはずだと信じているが、我々はそれがうまくいかないことをよく知っている。「2017州および被害者のためのオンライン性的人身売買禁止法(FOSTA)」は、性的人身売買と戦うという崇高な目的を掲げて議会を通過した。しかしこの法律には、成人セックスワーカーを擁護し、リソースを提供する人々の言論を犯罪化する文言が含まれていた。さらにひどいことに、この法律は性的人身売買業者の訴追を阻害し、犠牲者の救済をも阻んでいるのだ。FOSTAがもたらした影響を考えれば、わずかな変更と思っていたものが、意図せぬ、しかも有害な結果を引き起こしかねないと考えても不合理ではあるまい。特に、プラットフォームによる言論の統制と同じように、主観的な対象に対処しようとする法案を起草しているというのであればなおさらである。

230条の保護がなければ、いかなる規模のプラットフォームであれ、一般のインターネットユーザの言論にオープンではなくなってしまうだろう。230条に有害なディープフェイクへの責任を課す変更を加えれば、パロディや風刺のような有益な議論を排除することになるばかりか、それ以外の適法で有益な言論も、法的リスクを避けたいプラットフォームの過剰な検閲によって排除されかねないのだ。

パロディ(とそれ以外の「真実」でない言論)保護の重要性

6月7日の公聴会では、多くの政治家が口を揃えて、サタデーナイト・ライブの出演者のものまね(訳註:チェビー・チェイスのフォード大統領のものまね)や、政府の情報を偽るプロパガンダについて、あたかもディープフェイクの問題であるかのように発言していた。だが、いかなる規制を加えるにせよ、悪意ある有害なディープフェイクのみを対象としなくてはならない。過剰な規制が、パロディや風刺、政治の解説など社会的に有意義な利用に及ぼす危険性について言及したジム・ハイムズ、ブラッド・ウェンストラップ両議員に感謝したい。

先日、我々はディープフェイクが風刺にも利用されうる事例を目にしたばかりだ。イスラエルのスタートアップ企業Canny AIは、Facebookのマーク・ザッカーバーグCEOが盗まれたデータの悪用を自慢するディープフェイクビデオをInstagramに投稿した。その目的は、Facebookに(ペロシ議員のときと同様に)ビデオをそのまましておくか、それとも削除するかというモデレーション判断を迫ることで、プラットフォームのポリシーに関する議論を喚起するというものであった(Facebookはこの動画を削除しないと明言した)。ディープフェイクのモデレーションに関する議論をディープフェイクビデオが風刺したのである。

これはまさに、プラットフォーム上の検閲を恐れずに行なわれるべき議論である。パロディや風刺というものは、あまりに理不尽ではあるが、しかしありえなくもないという表現あるからこそ一瞬の困惑を引き起こし効果をあげる。だからこそ、Facebookをはじめとする強力な組織に対抗する重要なツールなのだ。

またよく知られているように、コンピュータは風刺・パロディと悪意あるコンテンツとの正しい区別を苦手にしている。それゆえプラットフォーム企業は、一貫して正確なポリシングに困難を抱えているのである。現時点でも、パロディや風刺は誤削除されやすい。だが、ディープフェイクコンテンツを削除しないプラットフォームに責任を課す法律が成立すれば、ますます誤削除は増えていくだろう。

ディープフェイクが、特に弱い立場にあるコミュニティに対してひどく有害な方法で使用されていることは疑いない。オンライン・ハラスメントやオンライン詐欺の被害、この技術を用いてなされる違法行為の被害に対処するための選択肢は現行法でも存在しているが(訳註:日本語訳記事)、悪意ある攻撃を防ぐために「何かしなくては」という政治家たちの衝動は理解できる。だが、透かしを義務づけたり、第三者のコンテンツへの責任を仲介者に課したりしても、被害が抑止されるという保証はない。また、そうした措置は憲法で保護された言論をも巻き込むことは疑いようもない。

誤解のないように付け加えると、企業は自社のプラットフォーム上でのコンテンツ・モデレーションを保障されているし、保障されねばならない。だが、政府はそのやり方に口を挟むべきではない。我々は議会に対し、責任構造を大きく変えること、あるいはプラットフォームが作成したわけではない第三者のコンテンツについて責任を負わせることが、事実上政府による言論規制であることを理解するよう求める。

訂正:本稿公開当初、敵対的生成ネットワークについて言及していたが、ディープフェイクの生成方法が複数存在することをふまえて削除した。

Congress Should Not Rush to Regulate Deepfakes | Electronic Frontier Foundation

Author: Hayley Tsukayama, India McKinney, and Jamie Williams (EFF) / CC BY 3.0 US
Publication Date: June 24, 2019
Translation: heatwave_p2p
Material of Header Image: Christian Gertenbach