以下の文章は、Access Nowの「Why human rights must be at the core of AI governance」という記事を翻訳したものである。

Access Now

OpenAIのChatGPTが2022年に登場して以来、いわゆる生成AIをめぐる熱狂が世界中を席巻し、規制当局はその弊害や行き過ぎを抑制しようと躍起になっている。だが、決して目新しい現象ではない。すでに2018年、機械学習の進歩によってAIへの期待が高まった際にも、同様に実効性のない「AIの倫理ガイドライン」や自主規制案の激増が見られた。当時、Access Nowをはじめとする団体は強制力のある人権に基づく法的枠組みを求め、RightsCon 2018でトロント宣言を発表し、機械学習システムにおける平等と非差別の権利の尊重を訴えた。それ以来、デジタルライツ団体は一貫して人権を中心に据えたAIガバナンスを提唱してきた。しかし、この取り組みは今、様々な角度から脅かされている。それと同時に、AIの開発が人々を監視・搾取するのではなく、人々に奉仕する現実の実現すら危機に瀕しているのだ。

6年が経過した今、一般市民がAIガバナンスの問題は解決済みだと考えても無理はない。実際、今年だけでもEUのAI法、欧州評議会のAIと人権、民主主義と法の支配に関する 欧州評議会枠組条約を採択(CoE AI条約)、そして数え切れないほどの世界規模の規制案が採択され、そのすべてが一見、人権の枠組みに基づいているように見える。

国連も最近、二つの補完的な決議を採択した。AIが人権に影響を与えるという点で国連総会の合意を得ただけでなく、特定のAIの使用が人権と両立しないと警告する称賛に値する文言も採択したのだ。国連のAIに関するハイレベル諮問委員会は、「AIガバナンスは真空中で行われるものではない」こと、そして「国際法、特に国際人権法がAIに関して適用される」ことを改めて強調する報告書を発表したばかりである。しかし、現実はそれほど明るいものではない。

何が“人権に基づくAIガバナンス”を脅かしているのか

第一の問題は、画期的だと称賛されているEU AI法やCoE AI条約などの法的枠組みに例外や適用除外、逸脱条項があまりにも多く、人権に基づくAIガバナンスを推進するという主張が絵に描いた餅になりかねないことだ。EU AI法は最も危険なAIの使用を禁止せず移民に対して恣意的な差別を行い、法執行機関や入国管理当局を透明性要件から除外している

一方、前述の国連総会決議――米国中国がそれぞれ主導したもの――は、明確に「非軍事分野」についてのみ言及している。中国の決議ではさらに「軍事目的でのAIの開発や使用には触れない」と明記されており、いずれの決議もAIの環境コストについて言及すらしていない。

European Center for Not-for-Profit Law(ECNL)は、CoE AI条約の交渉全体を通じて、「包括的な適用除外のない水平的な人権保護の約束を守り、行政/民間セクターのダブルスタンダードを避け、人権を一般原則に変えてしまうような曖昧な表現を避けるよう求める声は、あからさまに無視された」と指摘している。このダブルスタンダードは、イスラエルがこの条約に署名したという事実によって最も露骨に示されている。イスラエルは、ガザで大量殺人リストの作成を自動化・効率化するためにディストピア的なAIターゲティングシステムを展開しているにもかかわらず、だ。Digital Actionのモナ・シュタヤが正しく指摘するように、書類上の約束と現実の矛盾は、「憂慮すべき偽善」を露呈させるだけでなく、「真の説明責任に対する国際社会のコミットメントについて深刻な疑問を投げかける」ものである。

過度に広範な国家安全保障や防衛に関する適用除外に加え、義務を骨抜きにし、広範な適用除外を設けるための産業界からの強力なロビー活動も目立っている。さらには、CoE AI条約の適用範囲から民間主体をデフォルトで除外するよう求める声まで上がっている。イノベーション国家の競争力といった曖昧な概念が、人々の権利を守ろうとする取り組みによって脅かされているとして持ち出されている。「あらゆる犠牲を払ってでも、より大規模なモデルを作り、AIをあらゆる場所に導入する」という教義ドグマに飲み込まれようとしているのだ。たとえその犠牲が人、自然環境であったとしても。

人権に基づくガバナンスに対するさらに複雑な脅威は、億万長者が後押しする効果的な利他主義(EA)コミュニティに沿った個人や組織の影響力の増大だ。AI政策に関する議論に参加した人なら、「未来future」という言葉を冠した擁護団体が急増していることに気づくだろう。これらはいわゆる「AIセーフティ」、あるいはAIの「長期的」および「実存的」リスクに焦点を当てている。極端な組織では、一部が人種差別主義や優生学的哲学と結びついているが、より穏健な組織でさえ、AIガバナンスに徹底的に功利主義的なアプローチを取っている。これは人権と本質的に相容れないだけでなく、投機的なリスクにばかり注目を集めることで、AIがもたらす実際の害から目を逸らさせてしまう。

AIのネガティブな影響への注目は、その恩恵を公平に分配しようとする(理解できる)欲求によっても希釈されている。AIのリソース、パワー、ノウハウのほとんどが少数の企業や国に集中し、北米だけでも世界のAI収益の少なくとも40%を占めると推定されている。そのため、国際的な政策議論の多くは、より幅広いデジタル変革の取り組みの一環として、計算能力、AIやデータ、人材への技術的インフラやアクセスの向上、能力開発に焦点を当てている。

こうした要因が相まって、AIに対する強力な人権に基づくガバナンスアプローチの取り組みが弱体化させられており、同時に強力な規制介入を避けたい業界関係者の思惑どおりに進んでいる。フリーソフトウェアやオープンソースソフトウェアのコミュニティが数十年かけて培ってきた効果的かつ自主的なスタンダードさえも、未検証の製品を世界市場に投入しようとする企業によって歪められている。一方で、決して実現しえない科学技術的リスクへの恐怖心を煽ることで規制のエネルギーと焦点が奪われ続けている。そうこうしているうちに、AIによる監視情報エコシステムの歪みオンラインにおけるジェンダーに基づく暴力児童の性的虐待素材(CSAM)の増幅によって引き起こされる現実の人権侵害が無視されている。

何をすべきか、なぜそれが重要なのか

端的に言えば、人権が尊重されなければAIの発展は人類に恩恵をもたらすことはない。国連やその加盟国は、国際人権法に根ざしたグローバルなAIガバナンスの規範を確立しなければならない。まずは国連AIに関するハイレベル諮問委員会の新しい報告書の調査結果に基づいて行動を起こすことから始めるべきだ。新しいグローバル・デジタル・コンパクトや今後開催されるAIアクション・サミットなど、国際文書やフォーラムをめぐる交渉においては、人権を中心に据えなければならない。そして、各国政府は人権擁護者や市民社会、法的機関が世界的なAIガバナンスの議論に参加できるよう保証しなければならない。

内部的には、国連は、その機関が新たな技術や新興技術を調達したり、業務に統合する際に、人権デューデリジェンスを義務づける必要がある。加盟国は、国連人権高等弁務官事務所に十分な資金を提供し、支援して、AIを開発する市民社会、各国、企業との協力を拡大すべきである。これには、グローバル・デジタル・コンパクトで確認された「デジタル空間における人権」に関する諮問サービスの提供も含まれる。対外的には、国連は、特定のAIの応用が人権と両立しないという合意決議を発展させ、それらの応用(生体認証を用いた大規模監視予測的取り締まりなど)を定義し、禁止するための具体的な措置を講じなければならない。

企業もこのプロセスで果たすべき役割がある。多くの大手AI開発・展開企業は、国連ビジネスと人権に関する指導原則の遵守を約束している。企業はこの枠組みに従い、人権デューデリジェンスを実施してAIのリスクを適切に特定し、軽減すべきである。これはまた、市民社会、人権擁護者、影響を受けるコミュニティをAIガバナンスに関する議論に最初から含めることを意味し、形式的な「チェック」としてではなく、当初から参加させるべきだ。

AIの使用が、女性、ノンバイナリー、LGBTQ+の人々、人種的に迫害されたコミュニティなど、すでに周縁化されているグループに偏った害を与え、差別していることは否定できない。例外を設けたり、利益のための犠牲を黙認することは、人権侵害を悪化させ、プライバシーやデータ保護に関する苦労して勝ち取った成果を後退させ、気候危機を加速させ、国内外の経済格差を拡大し、最終的にはAIが人類に利益をもたらすのではなく、不正義を加速させることを許すことになる。このようなシナリオでは、AIの設計、範囲、規制に関する議論は、グローバル・マイノリティに関することに集中し続けることになる。そして、グローバル・マジョリティの人々は、基本的な人権保護や説明責任のメカニズムもないまま、AIシステムの構築やテストのために搾取されることになる。これこそが、抑制も規制も効かないAIがもたらす真にディストピアな未来だ。この悪夢を現実のものにしてはならない。

Why human rights must be at the core of AI governance – Access Now

Author: Daniel Leufer / Access Now (CC BY 4.0)
Publication Date: September 24, 2024
Translation: heatwave_p2p