以下の文章は、センター・フォー・デモクラシー&テクノロジー(CDT)の「Section 230 and its Applicability to Generative AI: A Legal Analysis」という記事を翻訳したものである。

Center for Democracy & Technology

はじめに

近年、特に昨年以降の生成AI技術の急速な発展により、その責任ある運用をめぐって政治的立場を超えた議論が巻き起こっている。中でも注目を集めているのが、1996年通信品位法230条が生成AIの出力にも適用されるのかという問題だ。

2023年、ジョシュ・ホーリー上院議員は生成AIを230条の適用対象から除外する法案を提出した。同年、230条の起草者であるロン・ワイデン上院議員とクリス・コックス元下院議員は、生成AIの出力は230条の保護対象にならないとの見解を示した。しかし、この問題の答えはそう単純ではないかもしれない。

230条は、オンラインプラットフォームを第三者が投稿したコンテンツの責任から保護する連邦法上のセーフハーバー(免責)条項だ。この法律の核心にあるのは、ネットユーザの表現の自由を守るには、プラットフォーム側に多様なコンテンツを独自の基準で管理する自由を与える必要があるという議会の認識である。同時に、230条は「好ましくない」コンテンツの削除やモデレーションを行っても法的責任を問われないことを保証し、プラットフォームによる自主的な対策を促してもいる。

とはいえ、230条の免責には限界がある。あくまで第三者が作成したコンテンツに対する責任からの保護であり、プラットフォーム自身が作成したコンテンツや行為については、依然として責任を負う。つまり、ユーザや第三者が作成した違法コンテンツがXやFacebookに投稿された場合、プラットフォームは230条によって保護されるが、それら企業が違法コンテンツの作成に関与していた場合は、免責の対象外となる。

OpenAIのChatGPTやDall-E、GoogleのBardといった生成AI技術の急速な進歩により、ユーザ生成コンテンツとAI生成コンテンツの境界線が曖昧になりつつある。生成AIは機械学習を用いて、テキスト、音声、動画、画像など、様々な形式の新しいコンテンツを生み出している。大量のデータで学習したAIモデルは、そのデータを基に、しかし必ずしも同一ではない新たな出力を作成できる。さらに、ユーザのプロンプトによってその出力は大きく変わる可能性がある。また、生成AIは時として「幻覚」と呼ばれる現象を起こし、学習データの範囲を超えた、あるいは誤って解釈されたデータに基づいて不正確な結果を出力することもある。生成AIの出力は、AIモデルが学習したパターン、ユーザのプロンプト、企業が適用する有害コンテンツフィルタなど、複雑な要素が絡み合った結果である。このような複雑さが、最終的な出力の「作成者」の特定を難しくしている。ユーザのプロンプトに応じて全く新しいコンテンツを生成できるという生成AIの特性は、その出力が230条の保護対象となるかどうかという興味深い法的問題を提起している。

230条の免責基準

230条(c)(1)項は、インタラクティブコンピュータサービスのプロバイダやユーザを、第三者が提供したコンテンツのパブリッシャや発言者として扱わないと定めている。この免責を受けるには、サービスプロバイダが「インタラクティブコンピュータサービス」、つまり「複数のユーザにコンピュータサーバへのアクセスを提供または可能にする情報サービス、システム、またはアクセスソフトウェアプロバイダ」である必要がある。裁判所の解釈によれば、このサービスには、ブロードバンドインターネット接続サービス、ソーシャルメディアサービス、そして基本的にインターネット上で情報を伝達するあらゆるサービスが含まれる。さらに、この定義には「アクセスソフトウェアプロバイダ」も含まれる。これは、コンテンツの「フィルタリング、スクリーニング、許可、不許可」「選択、選別、分析、要約」「送信、受信、表示、転送、キャッシュ、検索、サブセット化、整理、再整理、翻訳」を行うソフトウェアや機能を提供するプロバイダを指す。この定義は重要である。生成AIシステムが行う多くの機能がここに該当し、生成AIシステムもインタラクティブコンピュータサービスの一種であることを明確に示している。

230条の典型的な適用例では、情報コンテンツプロバイダは通常、プラットフォームに投稿や再投稿を行うユーザ自身を指す。230条は、インタラクティブコンピュータサービスのプロバイダやユーザを、他の情報コンテンツプロバイダ(つまりユーザ)が提供したコンテンツのパブリッシャや発言者として扱われることから明確に保護している。ただし、インタラクティブコンピュータサービスが問題のコンテンツに関して「情報コンテンツプロバイダ」としても機能している場合、この免責は適用されない。裁判所は、法律上の定義に従い、「インターネットを通じて提供される情報の作成または開発に、全体的または部分的に責任を負う」場合に、情報コンテンツプロバイダとして機能していると判断する。つまり、230条の保護が適用されるかどうかの重要な判断基準は、オンライン仲介者が問題のコンテンツに関して情報コンテンツプロバイダでもあるかどうかだ。この判断のため、裁判所はサービスプロバイダがコンテンツの開発に全体的または部分的に関与したかどうかを検討する

生成AIの出力と230条:適用されるのか、されないのか

生成AIの出力に230条が適用されるかどうかは、多くの場合、AIモデルが問題のコンテンツを全体的または部分的に開発したかどうかにかかっている。生成AIシステムは多岐にわたる機能を持ち、オリジナルコンテンツの作成を含まない場合や、ユーザのプロンプトに大きく影響される場合もある。そのため、特定のコンテンツに関してシステムが「情報コンテンツプロバイダ」であるかどうか、つまり230条の免責対象外となるかどうかの判断は、ケースバイケースになる可能性が高い。

ChatGPTやDall-Eのようなツールが関与するケースでは、生成AIが問題の素材の作成に「全体的または部分的に」関与している場合、裁判所は230条の免責を適用しない可能性が高い。最高裁判所はまだこの問題について判断を下していないが、これまでの連邦控訴裁判所の判例では一般に、主体がコンテンツの作成に情報コンテンツプロバイダとして十分に重要な貢献をしたかどうかを判断する「重要な貢献テスト」が適用されている。重要な貢献テストを確立したFair Housing Council of San Francisco Valley v. Roommates.com LLCのケースでは、第9巡回裁判所は、ユーザが作成した入力(この場合、空欄に入力された住宅機会の差別的な基準)の単なる配信と、設計上、差別的な基準に基づいて住宅リストを制限するシステム(ユーザに差別的な選択を要求するドロップダウンメニューなど)を区別した。前者の場合、裁判所はウェブサイトが問題のコンテンツに重要な貢献をしていない(つまり「中立的なツール」として機能している)と判断する一方、後者の場合、サイトの設計が潜在的に差別的な入力を要求していたため、重要な貢献をしていると判断した。この論理を生成AIシステムの出力に適用すると、例えばシステムがユーザのプロンプトをそのまま返すだけの場合、コンテンツの作成に重要な貢献をしていないと見なされる可能性がある。一方、合法的なプロンプトに対して、潜在的に名誉毀損や違法な差別的内容を含む全く新しい出力を返す場合、その出力は問題のコンテンツの違法性に重要な貢献をしていると判断される可能性が高い。

最近、生成AIシステムの出力に対する法的責任に関して、230条の適用可能性と生成AIの場合の重要な貢献テストの閾値の問題を浮き彫りにする2つの事例が注目を集めている。Walters v. OpenAIの事例では、ラジオホストのマーク・ウォルターズが、ChatGPTによって非営利団体から資金を横領したという虚偽の記述をされた。これは、第三者のジャーナリストからの要求に応じて生成された情報だった。ChatGPTは実際の連邦裁判所の判例をオンラインPDFから要約するよう求められたが、事実と異なる情報に加え、ウォルターズに対する虚偽の申し立てを含む誤った要約を作成してしまった。Battle v. Microsoftの事例では、GPT-4技術を使用するBingが、テクノロジー専門家のジェフリー・バトルと有罪判決を受けたテロリストのジェフリー・バトル(綴りが異なる)の情報を混同し、不正確で潜在的に名誉毀損となる検索結果を生成した。

現時点では、OpenAIもMicrosoftも230条を抗弁として持ち出していないようだ。そのため、これらの事例が230条の適用範囲を示す有力な指標となる可能性は低い。しかし、これらの企業が230条を主張しないという選択は、少なくともこれらの事例に関して、彼らが法的分析をどのように予測しているかを示唆している可能性がある。

さらに注目すべきは、Gonzalez v. Googleの口頭弁論で、米国最高裁判所が生成AIシステムの出力は常に情報コンテンツプロバイダとして扱われる可能性があると示唆したことだ。この見方が裁判所で支持され続ければ、生成AIの出力は最終的に230条の保護対象外と明確に判断される可能性がある。

これは実際に何を意味するのか。例えば、Xのユーザが違法な内容を含むAI生成画像を投稿したとする。この場合、Xは230条によって責任から保護される可能性が高いが、その画像を生成した生成AIモデルは保護されない可能性がある。

ただし、生成AIの出力が元のデータに非常に近く、AIモデルが違法コンテンツの作成に重要な貢献をしていない場合、つまり単にインタラクティブコンピュータサービスとしての役割のみを果たしている場合、現在の判例法に基づけば、依然として230条の保護を受ける可能性がある。実際、過去の判例では、アルゴリズムによる推奨や、潜在的に違法なコンテンツの拡散にアルゴリズムを使用することさえも、230条によって保護されると判断されている。裁判所の見解によれば、この保護は「自動化された編集行為」や、コンテンツの違法性に重要な影響を与えない軽微な変更にまで及ぶ。

結論

現状の法的解釈を見る限り、生成AIの「創造的な」出力は、230条の免責対象外となる可能性が高い。生成AIはインタラクティブコンピュータサービスを構成する一方で、新しいコンテンツを作成する際には、たとえユーザのプロンプトに応じてであっても、情報コンテンツプロバイダとしての役割を果たしていると見なされる可能性が高いためだ。とはいえ、生成AI企業側も、AIシステムが違法コンテンツの作成に重要な貢献をしていないと主張できる場合には、230条の免責を主張する可能性がある。つまり、230条が生成AIシステムの出力を法的責任から守るかどうかという問いに対する答えは、少なくとも現時点では「場合による」としか言えない。

Section 230 and its Applicability to Generative AI: A Legal Analysis – Center for Democracy and Technology

Author: Noor Waheed (CDT Intern) / Center for Democracy & Technology (CC BY 4.0)
Publication Date: September 16, 2022
Translation: heatwave_p2p
Material of Header image: Tom Frances Palattao

カテゴリー: AI