以下の文章は、電子フロンティア財団の「Face Recognition Isn’t Just Face Identification and Verification: It’s Also Photo Clustering, Race Analysis, Real-time Tracking, and More」という記事を翻訳したものである。
政府や企業は、私たちがどのように生活しているかを、私たち自身が隠したり変えたりできない固有のマーカー、つまり私たちの顔を使って追跡している。この危険な技術に対し、国中のコミュニティが反発し、規制法も制定されている。だが、政府や企業は、こうした法律は顔認証などの一部の顔認識技術のみに限定すべきで、それ以外は規制すべきではないと主張している。
我々は同意しない。あらゆる形態の顔認識技術は、プライバシー、言論の自由、そして人種正義を脅かすものである。本稿では、さまざまな顔認識について説明し、なぜすべての顔認識技術を法律で規制されなければならないかを説明する。
顔認識(Face Recognition)とは?
顔認識技術は、最も基本的なレベルでは、人間の顔の画像を取り込み、そこに写っている人間についての情報を抽出するというものである。
現在では、以下のように機能している。
まず、画像を自動的に処理し、何が顔で、何が顔でないかを判別する。これは「顔検出(face detection)」と呼ばれ、後述する高度な顔認識を行うための前提となる。顔検出自体は、ユーザのプライバシーを侵害するものではない。しかし、多くの顔検出技術に、人種による大きな精度の差が確認されている。
次に、顔の各画像から特徴量を抽出し、画像データから顔の個別の特徴を要約した小さな数値セットに変換する。これは「フェイスプリント」と呼ばれる。
フェイスプリントは、実際の顔写真の代わりに、後述するあらゆるタスクのために使用される。たとえばコンピュータは、2つの別の画像のフェイスプリントを比較して、同一人物であるかを判断する。また、顔写真からその人の他の特徴(性別や感情など)を推測することもできる。
顔照合
顔認識の中で最も普及しているのが「顔照合(Face Matching)」である。2つ以上のフェイスプリントを照合して、同一人物であるかを判断する。
顔照合は、素性がわからない人物の写真を、現実の身元と結びつけるためにも使用される。一般的には、新しい画像(たとえば監視カメラで撮影された画像)からフェイスプリントを作成し、「既知の」フェイスプリントデータベース(たとえば政府IDの写真データベース)と比較するというようにして行われている。未知のフェイスプリントが、既知のフェイスプリントのいずれかと十分に類似している場合、システムは一致の可能性を返す。これは「顔識別(face identification)」と呼ばれる。
顔照合は、その顔が誰であるかに関わらず、2つのフェイスプリントが同じ顔であるかどうかを判定するために使用される。だが、その顔が誰であるかが重要な場合もある。たとえば、スマートフォンはユーザの顔を確認してロックを解除すべきかを判断している。これは「顔認証(face verification)」と呼ばれる。また、ソーシャルメディアサイトでは、ユーザの写真をスキャンして、その中に何人のユニークな人物が写っているかを判別している。個々人の氏名を特定するものではないが、これは「フェイス・クラスタリング(face clustering)」と呼ばれている。1対1の照合(2枚の写真の写っているのは同一人物か)、1対多の照合(この参照用の写真は、複数枚の写真のどれと一致するか)、多対多の照合(この複数の写真に何人のユニークな人物が写っているか)に用いられている。たとえ名前と顔が一致しなくても、顔照合を使って店内や街中にいる人物の動きをリアルタイムで追跡することができる。これは「フェイス・トラッキング(face tracking)」と呼ばれる。
顔識別、認証、トラッキング、クラスタリングなど、どのような顔照合であっても、私たちのデジタルライツに深刻な問題を引き起こす。政治家はどのような問題も軽視してはならない。未知の人物の「トラッキング」「クラスタリング」「認証」に使用される顔認識システムは、容易に「識別」に転用できてしまう。たとえば、「既知」のフェイスプリントのセットを「未知」のフェイスプリッとのセットにリンクさせるだけで、クラスタリングを識別に変えてしまうのである。
たとえ顔識別技術が用いられなかったとしても、フェイス・クラスタリングやトラッキングの技術は、プライバシーや表現の自由、平等を脅かす。たとえば、警察がフェイス・トラッキング技術を使って、身元不詳のデモ参加者を会場から自宅や車両まで追跡すれば、住所やナンバープレートのデータベースで身元照合できてしまう。また、警察がフェイス・クラスタリング技術を使って、複数の写真から特定のデモ参加者の写真面割(photo array)を作成し、それをマグショットデータベースと比較することで、人力でデモ参加者を特定できるかもしれない。あくまで人力ではあるが、デモ参加者の1枚の写真だけでは確実に不可能なことができるようになっているのだ。
精度・エラー・バイアス
2019年、ニジル・パークスは、顔認識システムに誤認されたことで不当逮捕された。パークスは犯行現場から30マイルも離れた場所にいたにも関わらず、警察が間違いを認めるまで10日間にわたって勾留された。
顔認識システムの間違いで誤認逮捕されたのは、ニジル・パークスが少なくとも3人目である。そして、その3人がすべて黒人男性であったことは偶然ではない。顔認識は完全ではなく、白人の男性以外では驚くほどエラーが生じやすい。2018年のジョイ・ブオラムウィニとティムニット・ゲブルの先駆的研究では、顔識別システムは有色人種の女性を白人男性の40倍以上の割合で誤認することを示している。最近でも、NISTが最先端の顔認識システムをテストしたところ、白人と男性以外の顔で「偽陽性」率が高くなることが報告されている。
また、実験室のベンチマークでは優れた性能を発揮する顔識別システムであっても、それは明るい場所で撮影された顔写真を使っていたりするからであって、現実の世界でははるかに精度は落ちる。同じ技術を空港の搭乗ゲートを歩く人を識別するような、より現実的なタスクに用いると、その性能は大幅に低下する。
たとえ正確で偏りのない顔識別技術であっても、さまざまな理由から、その導入は自由な社会を蝕むことになる。さらに現在の技術は、正確性を欠き、刑事司法制度におけるシステム的な人種差別を助長する著しい偏りがあるのだから。
研究者には、顔識別以外だけでなく、フェイス・トラッキングやクラスタリングでも同様の受け入れがたいエラーやバイアスが生じているかを検証してくれることを期待したい。それこそが、プライバシー法が顔認識全般を規制しなければならない理由の1つなのだから。
顔の認識の別の形態:顔分析
顔認識の用途は、フェイスプリントの照合だけではない。顔の特徴から、その人物の属性や感情状態を推測するために用いられてもいる。最近では、「顔分析(face analysis)」や「顔推論(face inference)」と呼ばれる手法を用いて、顔のライブ/記録映像・画像から、補助的な情報を抽出しようとする産業が急成長している。顔分析はアイトラッキングなどの技術を組み合わせることで、見ているものに対する顔の反応を調べるために使われることもある。
人口統計分析
一部ベンダーは、顔認識技術を使って、ターゲットに性別、人種、民族、性的指向、年齢などの人口統計的属性を割り当てることができると主張するところもある。
だが、このような人口統計的な顔分析が実際に“機能”するかは疑わしい。顔の構造の違いが人口統計学的特性を完全に反映しているという前提に立っているが、多くの場合そうではない。人口統計は社会的な構成要素であり、ほとんどの人は社会的なラベルにきちんと適合しない。
少なくとも、誰かがそれを導入してしまえば、人口統計的な顔推論技術は、社会から疎外されたグループにとって非常に危険なものとなる。たとえば、そのようなシステムはマーケティング担当者が性別や人種に基づいて人々を差別することを可能にしてしまう。店舗では、顔分析を使って、ジェンダーや感情状態に応じて異なる商品や割引などに客を誘導するかもしれない。だがこれは、成功しようと失敗だろうと、間違った取り組みである。極端に言えば、人口統計学的推論の自動化は、ジェノサイドの自動化につながるのである。
こうした技術は、機能しないことで有害に働くこともある。たとえば「ジェンダー認識」は、伝統的なジェンダーの特徴を持たない人々を間違って認識し、トランスジェンダー、ノンバイナリー、ジェンダー・ノンコンフォーミング、インターセックスの人々を傷つけるかもしれない。それゆえ、ジェンダーや性的指向の自動認識を禁止するよう訴えるキャンペーンを展開する活動家もいる。
感情分析
顔分析は、リアルタイムでも過去の画像でも、その人の感情や「情動」を識別できると言われている。複数の企業が、顔を見ただけでその人物の環状を判断できると謳うサービスを販売している。
だが、この技術は疑似科学であり、せいぜいいくつかの文化的規範を識別できるようになる程度に過ぎない。人間の感情表現は、文化や気質、神経的性質によって異なることが多いのである。「顔の表情」と「感情」の普遍的なマッピングを解明しようなど、まさにスナイプハントであろう。研究機関のAI Nowは2019年のレポートで、この手の技術の科学的根拠のなさと差別的な悪用の可能性を強く訴え、人命に関わる重要な判断に用いられないように規制当局に禁止を求めている。
科学的な裏付けがないにもかかわらず、感情認識は多数の広告主や市場調査会社から人気がある。消費者調査に限界を感じた企業が、本人の同意の有無に関わらず、メディアや広告への反応をビデオ観察で評価しようとしだしているのである。
さらに恐ろしいことに、こうしたシステムは「犯罪者予備軍」を取り締まるために導入されるおそれがある。つまり、何も悪いことをしていない人であっても、コンピュータで精神状態を推論し、丹念に精査できるようになってしまうのである。たとえば国土安全保障省は数百万ドルを投じて「FAST]というプロジェクトを立ち上げ、空港や国境で人々の「悪意」や「偽装」を検出するために顔推論を用いている。また、顔分析はいわゆる「攻撃性検出器」としても利用されている。こうしたシステムは極めて偏っていて、信頼性などはほとんどないのだが、システムが「怒っている」「欺いている」と判断した人物への過剰な威力や不当な交流を正当化するために利用されるおそれがある。アルゴリズムを使って拘束や懲戒の対象となる人物を特定するのは極めて危険である。誰かを安全にするどころか、現在の偏見をさらに強化してしまうだろう。
研究者の中には、人物の顔から「犯罪性」を予測できると主張する人もいる。これは明らかに事実ではない。こうした技術は予測的取り締まりの問題をさらに悪化させるだけである。
行動を起こそう
さまざまな顔認識技術のリスクを軽減するためには、自分自身の生体データの収集、使用、共有についての最終的な決定権を私達一人ひとりが持たなければならない。企業による意図しない生体情報の収集から自分自身とコミュニティを守るために、あなたの地元の代議士に連絡し、ジェフ・マークリー上院議員、バーニー・サンダース上院議員と共に、連邦レベルでの生体情報プライバシー法の制定を進めてほしいと伝えてほしい。
顔認識技術を政府が使用するようになれば、私たちの自由は根本から脅かされることになる。だからこそ、政府機関はこのような技術の使用を完全に停止しなければならない。サンフランシスコ市やボストン市をはじめとする10以上の自治体が、当局による顔認識技術の使用禁止という行動をすでに起こしている。EFFのAbout Faceページでは、公的機関による顔認識技術の使用禁止のための道筋を紹介している。
この記事で取り上げたさまざまな顔認識の分類案については、こちらの用語リストもご覧いただきたい。
Author: Bennett Cyphers, Adam Schwartz, and Nathan Sheard / EFF (CC BY 3.0 US)
Publication Date: October 7, 2021
Translation: heatwave_p2p
Material of Header image: George Bakos