以下の文章は、電子フロンティア財団の「Generative AI Policy Must Be Precise, Careful, and Practical: How to Cut Through the Hype and Spot Potential Risks in New Legislation(生成AI政策は正確・慎重・実践的でなければならない:AI立法における誇大宣伝の見抜き方と潜在リスクの見分け方)」という記事を翻訳したものである。
テクノロジー、エンターテイメント、安全保障の著名人たちが振りまく大げさなレトリックに煽られ、生成AIへの不安はそのテクノロジーの使用と同じ速度で広がり続けている。それぞれに思い描くカタストロフィー――アーティストの死やロボットによる支配など――を食い止めるためには手を打たなければならないと訴えている。
この手の主張はしばしば誇張気味に語られるため、新たなテクノロジーが引き起こすありがちなモラル・パニックや利己的な誇大宣伝と片付けたくなるかもしれない。とはいえ、なかは正当な懸念もないわけではなく、それを解消するためのルールも必要とされている。だが、ルールが真に必要であるならば、立法者たちは規制・ルールの策定・決定の前に、重要な問いに答えられなければならない。いつものように、悪魔は細部に宿る。EFFはその細部を整理し、確かな戦略と巻き添え被害を見極める手伝いをしたい。
第一に、立法者は立法が本当に必要であるか、そしてその立法が適切に対象を限定したものであるかを問わなくてはならない。生成AIは、重要かつ多様な用途を持つ汎用ツールのカテゴリである。現役世代のアーティストが安い依頼を失うかもしれない画像もありうるが、誰の生活も奪うことのない画像も無数に存在する。思い出してほしい。自動翻訳技術は大きなインパクトをもたらした。だが、今も変わらず翻訳者は必要とされている。
我々が耳にするレトリックの多くは、生成AIの利点を無視し、(使用者がどのように使用するかではなく)ツールそのものが問題であるかのように語り、害をなす使用方法のみを誇張する。皮肉なことに、このようなレトリックは、有害さを減じるための法律を制定・施行する機会を逃す結果を招きうる。
たとえば、立法者が生成AIにおける画像・個人情報の収集と使用に起因するプライバシー侵害を懸念するのであれば、ツールではなく使用にこそ焦点を当て、より包括的な法律、つまりあらゆる企業の監視とデータ使用をカバーする真の包括的プライバシー法の制定へとつなげることができる。その法律はAI(生成AIおよび他の形態のAI)のプライバシー被害を食い止めつつ、技術開発を遅滞させないよう十分に柔軟であることが望ましい。
だが、わざわざ法律を作る必要がない場合もある。つまり、既存の法律を地道に執行するだけで済むということだ。たとえば、議員たちが誤情報を懸念しているのなら、詐欺や名誉毀損に対処する法律の執行リソースを見直す(必要であれば強化する)ことから始めればいい。司法は長い年月をかけて、その法的保護を評価し、(表現の自由等の)対抗利益とのバランスを調整してきた。また、既存の規制が他の文脈では有効ではないというなら、提案が生成AIの悪用により有効である根拠を示さなければならない。
第二に、この手の提案が低減するとされている被害は、十分に検証されたものであるのか、それとも推測の域を出ない程度のものであるのか。たとえば、議員(及びその他の人々)はこの数年、ソーシャルメディアの使用が精神衛生に及ぼす影響に警鐘を鳴らしてきた。だが、それを立証した研究はほとんどなく、それゆえ規制当局はどう対応すべきかという難題は未だ解決されていない。他の分野でもそうだ。暗号化の議論においても、「オンラインの安全」の名の下に、法執行機関の仮説的/未検証の懸念が、オンライン表現とプライバシーの保護を弱める口実として用いられてきた。エビデンスに立脚した立法のためには、立法者は研究をしっかりと把握し、(CEOばかりでなく)専門家や市民社会の声に耳を傾け、AIのインチキ話に騙されたり呪術的思考に陥らないよう警戒しなくてはならない。
第三に、そして上記に関連して、新たな提案が十分に検証され、かつ現実のものとなっている既存の有害性の軽減を犠牲にして、どの程度の投機的な有害性を受け入れるのか。研究者や市民団体は、予測的取り締まり、政府による顔認識システムの使用、住宅・雇用・公的給付における差別的意思決定のリスクについて、長年に渡って警鐘を鳴らしてきた。生成AIがもたらす未来を憂う扇情的な見出しに踊らされ、今日生じている被害への対処から目を背けてはならない。透明性を確保し、テクノロジーを拒絶・選択する力をコミュニティに与え、影響評価を行い、被害を受けている人々への説明責任と救済のために、できること・なすべきことは山ほどある。生成AIの人類への貢献を確実にしようと真摯に取り組んでいる人々は、億万長者の誇大広告に振り回されることなく、すでに十分なアジェンダを掲げているのである。
第四に、規制は既存の権力構造と寡占を強化するものになってはいないか。ビッグテックが規制を求めるとき、その規制がビッグテック自身の支配力を強化する可能性に警戒しなければならない。すでに、規制当局がAIモデルやプログラム、サービスを審査し、ライセンスを付与するという提案が数多くなされている。こうしたライセンス取得は、大手企業には容易にクリアできるハードルである一方、小規模な競合企業や非営利団体には高すぎるハードルとなる。実際、独立したオープンソース開発者には法外な負担だろう。既存の社会的・政治的バイアスを再現しないAIモデルを望むのであれば、未来の競合プレイヤーがそれを構築するための十分な余地を確保しなければならない。
第五に、規制案には、急速に進化するテクノロジーに対応できる柔軟性があるか。テクノロジーは法律よりも遥かに早く変化することが多く、その変化を予測するのも難しい。その結果、一見すると賢明な今日の規制が、明日のセキュリティ上の弱点を生み出すことにもなりかねない。さらにまずいことに、特定の技術が囲い込まれると、新たなイノベーションや技術の発展が妨げられるだけにとどまらず、今日の勝者に、未来の競合が優れたツールやプロダクトを提供することを阻む力を与えることにもなりかねない。
第六に、その法律が標的とする危害を実際に軽減できるのか。この問いは見落とされがちだ。たとえば、生成AIのユーザや開発者が生成される作品に「透かし(watermark)」を入れることを義務づける提案が複数なされている。これが技術的に可能だとして(音楽は画像よりも難しいかもしれないが)、最も懸念される用途には大して効果的でないことは歴史が証明している。DALL-Eのように、画像の隅に数色の四角が指導的に挿入されるような「警告的」な電子透かしは、たしかにAIに生成されたことを示すという点では役に立つかもしれない。だが、我々が阻止しようとしている悪用を考える詐欺師たちは、簡単にその透かしを切り取ってしまうだろう。また、AIモデルが出力の深層に透かしを埋め込み、除去されないようにする「敵対的」透かしもあるが、結局は回避策が見つかってしまう。要するに、電子透かしには一定の利点もあるが、最終的にはイタチごっこにしかならない。悪用しようとする人間による深刻な被害を阻止したいなら、本当に有効な戦略でなければ意味はない。
最後に、(上述した競争の問題以外で)他の公共の利益にどのような影響をもたらすのか。たとえば、オープンソースAIの開発はリスクを抱えていて、中央当局がユーザにできること、できないことをコントロールするクローズドなシステムよりも危ういというレトリックが散見されている。これまで何度も見てきた光景だ――閉じた世界から利益を上げている人々は、そうしたレトリックを用いてオープンなシステムを攻撃してきたのだ。だが、この懸念を額面通りに受け入れたとしても、表現の自由や情報や芸術にアクセスする権利を制限することなく、政府が利用や開発を規制できるとも考えにくい。米国の裁判所は、コードが言論であることを一貫して認めており、開発への規制は憲法修正第一条に抵触しうる。政府による印刷機へのアクセスや使用への制限を容認できないように、我々は当局に生成AIツールへのアクセスを規制する権限を与えること、つまりそのツールによって生成される表現の種類を政府が事前に決定すること(訳注:検閲)を懸念すべきだ。さらに、自国でオープンソースAIの開発を制限すれば、他国の開発者に学習を促し、イノベーションの機会を与えることも考えるべきだろう。
学習データに作品を利用されたクリエイターに使用料を支払わせる新たな著作権ライセンス制度も提案されているが、(そのような制度が管理上可能であったとしても、使用される可能性のある数十億の作品および、その使用の追跡を考えれば)機械学習やデータマイニングを用いた価値ある研究を法外に高額なコストを課すおそれがある。自らの作品に適切な対価を支払ってもらうために日夜奮闘しているクリエイターには大いに同情している。だが、全人類が価値ある二次利用から利益を得る余地を制限することなく、正当な報酬を確保する方策を見出さなければならない。全米脚本家協会と映画スタジオとの契約交渉は、一つの有力なモデルを提示している。AIが生成した素材を人間の作家の代替として用いることを認めない。具体的には、AIが生成した素材は、いかなる形であれ、映画の原作としては不適格であり、また、スタジオがAI生成の脚本を使用する場合には、クレジットされた原作者は存在せず、したがって著作権も発生しない。自分たちの作品の権利を貪欲に守ってきたスタジオにとって、これは強烈な毒薬だ。この提案のもとでは、スタジオは作家に見合った報酬を支払う先行コストか、製作した作品の著作権を保持できない後発コストかのいずれかの選択を迫られることになる。
これらは徹底的な影響評価の一環として、あらゆる立法において問うべき問いである。だが、立法者は早急な法制化を望み、大企業が推進を求め、その一方で影響を受ける当事者たちの多くが議論のテーブルについていない。極めて差し迫った問題である。生成AIの開発には現実的なリスクがあり、さまざまなセクターの人々が開発者に虐待・無視されていると感じる現実的な理由がある。
Generative AI Policy Must Be Precise, Careful, and Practical: How to Cut Through the Hype and Spot Potential Risks in New Legislation | Electronic Frontier Foundation
Author: Corryne McSherry / EFF (CC BY 3.0 US)
Publication Date: July 7, 2023
Translation: heatwave_p2p
Header image:
Mike MacKenzie (CC BY 2.0)