以下の文章は、電子フロンティア財団の「Americans Are Uncomfortable with Automated Decision-Making」という記事を翻訳したものである。

Electronic Frontier Foundation

就職活動中、ある企業が選考を迅速化しようと、あなたの応募書類をAIで分析していたことを知ったらどう思うだろうか。薄気味悪いと感じるかもしれない。そう感じるのは、あなただけではない。

最近、Consumer Reportsが全国規模で実施した調査によると、多くの米国民が日常生活におけるAIやアルゴリズムによる判断に不安を覚えているという。シカゴ大学のNORCが実施したこの調査では、2,022人の成人を対象に様々な課題に対する意識を探っている。その結果は以下の通りだ。

  • 面接時の回答内容や表情をAIが採点し、スクリーニングを行う採用プロセスに「不快感」を示した回答者は72%にも上る。さらにその中の45%が「非常に不快」と回答している。
  • ローンの審査や賃貸物件の入居審査にAIを使用することに「不快感」を示したのは約3分の2。そのうち39%が「非常に不快」と答えている。
  • 顔認識技術を用いた監視システムや、診断・治療計画にAIを活用する病院システムに「不快感」を示したのは半数以上。約3分の1が「非常に不快」と回答している。

この調査結果が示すのは、デジタルフットプリントをコントロールできないことへの人々の無力感、そして企業や政府機関がAI技術を用いて人生を左右する判断を下すことへの不安だ。しかし、各州はこうした懸念に対処するガイドラインを設けないまま、AIによる「解決策」の導入を急いでいる。カリフォルニア州では、ニューサム知事が政府でのAI利用に関する行政命令を発令。最近では5社のベンダーに承認を与え、複数の州機関でAIの試験運用を始めている。医療施設の検査、英語を母語としない住民の支援、顧客サービスなど、幅広い分野での活用を目指しているという。

調査では、回答者の83%がAIやアルゴリズムによる判断に使用された情報を知りたいと答えている。さらに91%が、使用されたデータを訂正する手段を持ちたいと回答している。

企業や政府機関がアルゴリズムによる判断を導入する中、各州はユーザ保護の方策を模索している。EFFは、厳格な透明性と説明責任の基準を設けるよう求めている。法律は「プライバシーファースト」の姿勢を取り、個人データの使用方法について人々に発言権を与えるべきだ。最低限、自分に関する判断に使用されたデータにアクセスし、訂正する権利が保障されるべきである。同様に、AIによる判断を使用する機関や企業は、異議申し立ての仕組みを設けるべきだ。政府は、企業と公共部門の双方によるアルゴリズム判断において、ユーザが差別から守られるよう保証すべきである。さらに、予測型取り締まりを含め、多くの政府による自動判断の使用を完全に禁止することも優先課題となる。

住宅や住宅ローンの審査、就職の面接や採用、法執行機関や移民税関捜査局(ICE)による調査対象の選定など、人々は自由を脅かすアルゴリズムによる意思決定に不安を感じている。このような判断から人々を守る強力な法的保護が必要とされている。

Americans Are Uncomfortable with Automated Decision-Making | Electronic Frontier Foundation

Author: Catalina Sanchez and Adam Schwartz / EFF (CC BY 3.0 US)
Publication Date: August 28, 2024
Translation: heatwave_p2p

カテゴリー: AI