以下の文章は、電子フロンティア財団の「How We Think About Copyright and AI Art」という記事を翻訳したものである。

Electronic Frontier Foundation

アーティストたちは、Stabile Diffusionなどの自動画像生成ツールが自分たちの作品市場を縮小させる可能性を、当然のことながら懸念している。我々は自動化で仕事を奪われる人たちを見捨てるような社会に生きている。そして、ビジュアルアーティストという職業はすでに不安定な立場に置かれている。

こうした状況にあって、著作権にすがろうとするのは自然なことではある。著作権はアーティストが作品から対価を得られるよう保証するものだからだ。だが、一部のアーティストたちがStable Diffusionを相手取って起こした集団訴訟で主張している著作権のロジックは、人間のクリエイターにも極めて危険である。他のロジックも――この集団訴訟とGetty Imagesが起こした訴訟の双方で――研究や検索エンジン、そして新たなテクノロジーと古いテクノロジーとの相互運用を妨げるようなかたちで、著作権による制限を拡大するよう求めている。

本稿の法的分析は、AI画像生成技術とその潜在的リスク・利点について解説する記事邦訳)に付随するものである。まずはその記事を読んで文脈を理解し、それからこの記事を読んでもらえれば、米国法における(訳注:AIと)著作権の問題の分析と我々の見解を把握しやすくなるだろう。

著作権法は、アーティストにその芸術の使用方法の一部を管理させることで創作のインセンティブを与えること、そして公衆にその芸術をもとに、あるいは新しく面白い方法で使用する権利を与えることとのバランスを体現するものとされている。ここでの問題は、AIジェンレータモデルの訓練画像の著作権者が、こうした使用を禁止する権利を持つかという点だ。

この問題を考えるにあたり、いくつかの基本的原理から振り返ることにしよう。

まず、著作権法は作品についての事実の観察や、作品が具現化する事実の複製を妨げるものではない(これを「アイデア/表現の区別」という)。著作権が禁止できるのは、作品の創造的表現を原作品に代替するかたちで複製することや、原作品の創造的表現を過度に複製する「二次的著作物」の作成である。

第二に、たとえ複製や二次的著作物を作成しても、その使用が「フェアユース」であれば侵害にはならない。フェアユースか否かは、使用の目的、原作品の性質、使用量、原作品の市場にもたらす潜在的影響など、多数の要因に依存する。

著作権と訓練セット

ここでは、フェアユースがAIアート生成にどのように適用されるかを説明する。

ステップ1:ウェブから画像をスクレイピングする

検索エンジンや分析のための複製と同様に、新たな侵害的でない画像を作成する目的で画像分析・インデックス作成するために行われるダウンロードは、フェアユースに該当する可能性が高い。ある行為が著作権侵害になる可能性があっても、その行為が非侵害的使用を行う上で不可欠なステップである場合、その行為自体はフェアユースに該当する傾向にある。つまるところ、著作物を非侵害的に使用する権利は、その使用に至るまでのステップの実行も含めて認められることではじめて意味を持つ。したがって、中間的な使用と分析のための使用の双方において、スクレイピングが著作権法に違反するとは考えにくい。

ステップ2:画像について情報を保存する

次のステップでは、システムが画像を分析し、ピクセル配置とテキスト注釈の単語との相関に関する情報を保存する。

Stable Diffusionモデルは、50億枚以上に画像に4ギガバイトの観察をしている。つまり、このモデルには、分析した画像1枚につき1バイト以下の情報しか含まれていない(1バイトは8ビット――つまり8個の0または1)。

Stable Diffusionはしばしば、訓練画像を「圧縮(つまり保存)」していると批判されているが、それは間違いである。一部例外を除き、モデルが保存されている画像に関する事実に基づいて、訓練に使用した画像を再現することない。どれほど小さな画像ファイルでも数千バイト、大きければ数万バイトほどのサイズがあるわけで、数学的に言えば、Stable Diffusionは訓練画像の複製を保存しているわけではないのである(ここではとりあえず、訓練データのなんらかの画像を保存しているかという問いは保留にしておこう)。

このように、このモデルは複製を保存しているわけではない。では、訓練データに含まれるすべての画像について、侵害的な二次的著作物を生成・保存しているのだろうか?

少なくとも3つの理由からそうではないと言える。

第一に、二次的著作物が侵害とみなされるには、原作品(オリジナル)と「実質的に類似」していなければならない。原作品との類似性がわからなくなるほど変形・要約・脚色されているなら、それは二次的著作物ではない。15000行の大作を10行にまとめたものは二次的著作物ではないし、書籍を説明するための要約も大半が二次的著作物ではない。

第二に、著作権はジャンルやお約束、モチーフの独占を認めてはいない。たとえば、震えを表す波線表現や動物の擬人化などは、創作的であっても誰でも使用できる。また、猫を4本の足と1本の尻尾で表現するような創作的でない描き方には、当然ながら著作権は与えられない。AIアートジェネレータが記憶し、生成する情報のほとんどがこうしたカテゴリに分類される。

第三に、訓練セットに含まれる個々の画像から抽出された、著作権で保護されうる表現の量は、「侵害と認定するにはあまりにも小さい」、法律用語では「デ・ミニミス(de minimis)」とみなされる可能性がある。

たとえ裁判所がモデルを著作権法上の二次的著作物と結論づけたとしても、モデルの作成は適法なフェアユースである可能性が高い。フェアユースは、リバースエンジニアリングや検索エンジンのためのインデックスの作成、著作物や著作物群に関する新たな知識を生み出すさまざまな分類形式を保護している。そのため、モデルが新しい著作物を生み出すために使用されるという事実は、モデルが訓練画像をそれぞれ比較する独自の分析によって構成されるという事実とともに、フェアユースに有利に働くと考えられる。

Stable Diffusionへの集団訴訟は、「出力」(テキスト入力に応じてモデルが生成する実際の画像)を争点にはせず、このシステム自体が二次的著作物であると主張している。しかし、ここまで議論してきたように、モデルが既存の作品からスタイルを学ぶことは、人間のアーティストたちが学校の授業でしていること、あるいは、尊敬するアーティストと同じ創造的選択をすることと同じで違法ではない。

さらにAIシステムは、1人のアーティストの作品からだけでなく、そのスタイルを模倣した作品――つまり「[誰々]のスタイル(in the style of)」とタグづけされた他者の作品――からもスタイルの模倣を学ぶ。AIがスタイルを模倣するための情報の多くは、著作権法によって二次的著作物とみなされることなくスタイルを模倣する自由を享受する他のアーティストの画像に由来しているのである。

ステップ3:出力画像の生成

アーティストたちの集団訴訟とは異なり、Getty Imagesの訴訟は出力に焦点を当て、出力が訓練データと「実質的に類似」することがあると主張している。GettyはStable Diffusionの出力の一部に自社のウォーターマークがあること以外、その根拠を示してはいない。

Gettyが実質的に類似した画像の事例を挙げていないのは当然のことではある。プライバシー関連の研究によると、拡散モデルが入力(訓練データ)の1つに類似した出力を生成することはまずありえないとされている。

研究では、拡散モデルが訓練データ中の画像を再現できるような情報を保存する可能性は、当該画像が訓練中に何度も複製された場合にはわずかながらあるという。だが、訓練データ中の画像が出力される確率は、たとえその出力を引き出すために特別にしつらえたプロンプトをもってしても、文字通り100万分の1以下の確率である。

つまり、著作権を主張できる権利者は、たとえいたとしてもほんの僅かしかいない。現在のところ、両訴訟の原告らがそれに含まれるとは考えにくい。

もちろん、この研究で用いられた統計的基準は、著作権法が用いる法的基準とは同一ではない。とはいえ、この問題を考える上で非常に有益な情報であるし、拡散モデルが保存する画像1枚あたりのデータ量がごくわずかしかないという事実とも矛盾しない。

まとめると、拡散モデルはまれに訓練データの要素に類似した画像を生成することがある。重複の排除によってこのリスクは大幅に低減する。だが、拡散モデルのAIアートジェネレータに対する最も強力な著作権訴訟は、実際にこの方法で複製された画像の著作権者が起こすものになるだろう。

既存のクリエイティブツールと同じように、他者の作品を複製するよう誘導するプロンプトを与え、システムに新たな侵害作品を出力させようとするのは、おそらくはユーザということになるのだろう。その場合に侵害の責任を負うのは、ツールの製造者や提供者ではなく、そのユーザである。

裁判所がStable Diffusionを著作権侵害とみなせば、創作にどのような影響が及ぶのか

集団訴訟のロジックは、アーティストにとって極めて危険である。原告側の主張通り、たとえ最終的な出力が原作品に実質的に類似していないとしても、他者の芸術のいかなる側面であろうと自分の作品に取り入れたのなら二次的著作物を作成したとみなす、と裁判所が認めてしまえば、尊敬するアーティストの目の描き方を真似るといったありふれた創作ですら、法的リスクにさらされることになる。

現在、著作権法は、アーティストが仲間や師匠、敬愛するメディアから影響を受けて創作しても、その作品が他者の作品に「実質的に類似」していない限り、あるいはフェアユースである限り、他者の作品の要素を模倣することを許し、保護している。つまり、アーティストが他者の作品からインスピレーションを得る余地を与える法理が、拡散モデルをも保護しているのである。この法理を書き換えてしまえば、Stable Diffusionが引き起こすとされる損害どころではない、とてつもない損害がもたらされるだろう。

もう1つのブログ記事邦訳)では、著作権以外の影響について説明している。とりわけ、AIトレーニングを許諾する権利によって誰が利益を得るのかを考察している(ネタバレ:クリエイター個人ではない)。また、クリエイターを実際に支援しうる代替アプローチについても議論している。

著作権法は、正しく運用されれば新たな創造性を促進する。だが、著作権法を拡大解釈してAI画像生成ツールを違法化すれば――あるいは、経済力をもってクリエイターを抑圧している強力かつ独占的な経済主体に実質的にAIツールを委ねてしまえば――逆効果にしかならないのである。

How We Think About Copyright and AI Art | Electronic Frontier Foundation

Author: Kit Waksh / EFF (CC BY 3.0 US)
Publication Date: April 3, 2023
Translation: heatwave_p2p
Material of Header Image: EFF / Stable Diffusion