以下の文章は、センター・フォー・デモクラシー&テクノロジー(CDT)に掲載されたヴァンダービルト大学社会学教授でCDT非常勤フェローのジェニー・L・デイヴィスの記事「Technology as Policy: Hidden Rules and How to Reveal Them」を翻訳したものである。

Center for Democracy & Technology

免責事項:CDTの非常勤フェローの見解は彼ら個人のものであり、必ずしもCDTの立場や見解を反映するものではない。

戦いはすでに次のフェースに移っているが、少し時間を巻き戻して、2024年6月のトランプとバイデンの討論会を振り返りたい。そこで話された嘘やその政治的な影響については、もはや古びているし、散々語り尽くされているので、ここでは触れない。私が注目したいのは、あの夜がどれほど異常だったかということだ。その討論会は、驚くほどルールと手順が遵守された。2019年の討論会では、トランプとバイデンが96回も互いに割り込んだというのに、2024年には互いに割り込まず、自分の順番を守った。この規律正しい光景は、おそらく新たなスタンダードになるのだろう。ただし、そこにもたらされた規律は、両候補者の良心のおかげでも、政治文化が進化したからでもない。単にボリューム調整したからだ。

前回の米国選挙で試験的に導入された手法を完全に実施し、候補者のマイクは指定された発言時間中のみ機能するようになった。つまり、一度に1人の発言者しか聞こえないようにしたのだ。候補者の自制心や司会者の差配に頼るのではなく、ミュートボタンという技術的な規制にアウトソーシングされたのである。トランプとハリスの討論会でも同じ手法が使われた。

このミュートボタン方式は、テクノロジーと社会の研究者たちが唱える基本的な洞察を示している。つまり、テクノロジーそのものがポリシーになりうるということだ。「ポリシーとしてのテクノロジー(Technology-as-Policy)」とは、テクノロジーがその設計を通じて社会的な行動や結果を形成する仕組みを指す。成文化されたルールや規制は、何ができるか、すべきか、しなければならないか、してはいけないかを定める。テクノロジーも同じことを、その物理的形態を通じて行う。つまり、防止し、制限し、説得し、強制するのだ。

見えにくさの問題

テクノロジーをポリシーとして捉えると、社会生活におけるテクニカルシステムの力が浮き彫りになる。同時に、その不透明さに気づくことにもなる。ポリシー手段としてのテクノロジーは、あいまいで理解しがたいのだ。

こんな状況を想像してみよう。ポリシーが文書化されておらず、暗黙のうちに人々や組織を微妙にコントロールしている。このコントロールが社会のあらゆる領域に浸透し、経済、政治、日常生活、親密な人間関係にまで影響を与えている。人々は何となくその存在を感じているものの、はっきりとは見えない。だから指摘することも、ましてや異議を唱えることもできない。テクノロジーは、まさにこのような静かなコントロールを日々行使する。どんなルールが適用されているのか、誰の価値観を反映しているのか、どのように社会の仕組みを作り上げているのかを明示することなく、私たちの生活を形成していく。

霧を晴らす:「アフォーダンス」アプローチ

約10年にわたり、私はテクニカルシステムをより透明で理解しやすいものにするための枠組みを構築し、適用してきた。その取り組みを「アフォーダンス」、つまりテクノロジーがどのように可能性を広げ、制限し、選択肢を設定するかという概念を中心に展開している。私はこのテーマについて概念的な論文を書き、本を執筆し、近年は機械学習技術(ML)にアフォーダンスの概念を適用した。特に、技術的・社会的な不透明さゆえに理解が難しい分野では、アフォーダンスを明らかにすることが、見えないものを可視化する政治的なプロジェクトになる。

私の著書『How Artifacts Afford: The Power and Politics of Everyday Things』では、「アフォーダンスのメカニズムと条件のフレームワーク」を提案している。このフレームワークは、技術的特徴と社会的効果の関係を操作可能にする。アフォーダンスのメカニズムは、要求、要請、奨励、抑制、拒否、そして許可という単純な一連の記述子で表現される。それぞれに、テクノロジーに行使される様々な強さの影響力を示している。例えば、討論会でのミュートされたマイクは順番の順守を要請するが、常時オンのマイクは割り込みを許可する。これらのメカニズムは絶対的なものではなく、社会的変数によって条件づけられる。例えば、大きな声は要請要求に弱めるが、ルール違反に厳しい罰則(失格など)がある場合、声の大きさに関係なく要請は維持される。(この情報は解説動画でも紹介している)

倉庫作業の例

私の最新の研究では、機械学習(ML)技術とそれを含むシステムにメカニズムと条件のフレームワークを適用している。この研究では、MLテクノロジーがどのようなポリシーを事実上作り出しているかを考察した。MLの解明は喫緊の課題でもある。これらのテクノロジーは私たちの生活や社会にますます浸透しているのに、難解な数学や独占的な保護のために、その操作は依然としてブラックボックスのままにされている。

この見えにくさに対して、メカニズムと条件のフレームワークは、MLアプリケーションがどのように社会文化的パターンを反映し、影響を与えるのか、誰のために、どんな効果をもたらすのかを問い、明らかにする。MLに関するアフォーダンスについての2023年の論文から借用した、データ駆動型の倉庫作業の例を見てみよう。この例は、今日のオンデマンド消費経済の重要拠点となっているAmazon Inc.のフルフィルメントセンターをモデルにしている。

ジャーナリスト研究者が明らかにしたように、Amazonの倉庫作業は、ペースが速く、厳密に管理され、綿密に監視され、データ駆動型だ。機械学習はほぼすべての職場手順の基盤となっている。物理センサー、デジタルモニター、GPSトラッカー、製品スキャナー、顧客評価、管理評価など、ありとあらゆるデータソースからの情報がMLアルゴリズムで処理され、作業のペースを決め、仕事を細かく分割し、作業員の動きを指示し、シフトを組み、生産性指標と需給の変動に応じて雇用や解雇を決定する。

メカニズムと条件のフレームワークを使えば、MLがどのように職場のルールを作っているかが見えてくる。例えば、GPSトラッキングは作業員の監視を奨励し、同時にデータに飢えたMLモデルにエサを与える。これらのモデルは次に、自動化された指示への順守を要請する。こうした指示は倉庫作業のスキルを低下させ、結果として経営陣が企業の優先事項にそぐわない作業員を置き換えることを許可する。データ駆動型のノルマ設定は、身体的動きの標準的なペースを要求し、病気、障害、高齢、疲労した身体を抑制(あるいは拒否)する。経営陣もまた、データ依存的で使い捨て可能な存在となり、数値への注意を要請され、専門的な裁量を抑制され、たとえその目標が自身や同僚の利益と相反する場合でも、企業目標への献身を要求されるシステムに縛られる。

このように、Amazonの倉庫作業のポリシーはテクノロジーによって植えつけられ、MLモデルがデータを処理して命令を下している。しかし、この状況を変えることはできる。メカニズムと条件のフレームワークは、現状を明らかにすると同時に、代替案も提案してくれる。米国の労働組合運動から着想を得て、新しい倉庫の姿を想像してみよう。製品だけがタグづけ・追跡され、人間はそうされない倉庫の条件を再構築できるかもしれない。これなら商品のモニタリングを要請しつつ、監視システムを抑制できる。作業ペースを再調整し、身体の多様性を許可しつつ、従業員の健康を奨励することもできるだろう。さらに、労働者のニーズを組み込んだシフトスケジュールアルゴリズムを考えてみよう。シフトを事前に設定しつつ、個人的な用事や追加の収入を必要とする労働者同士でリアルタイムの交換を可能にする。こうすれば、競合する様々な義務を負う人間全体のために、安定性と柔軟性のバランスを要求できるかもしれない。

倉庫の壁を超えて

倉庫作業のアルゴリズム統治は、数多くの可能性のある事例の1つにに過ぎない。デートアプリ、履歴書の選別、保険の審査、家庭用ロボットなど、社会のあらゆる場面で、メカニズムと条件のフレームワークは透明性を高め、テクノロジーが作り出すルールを浮き彫りにする。そうすることで、それらを検証し、異議を唱え、再考し、作り直す道を開く。このフレームワークは、多様な分野に適用できる汎用的なツールなのである。

Technology as Policy: Hidden Rules and How to Reveal Them – Center for Democracy and Technology

Author: Jenny L. Davis / Center for Democracy & Technology (CC BY 4.0)
Publication Date: September 16, 2022
Translation: heatwave_p2p
Material of Header image: Governor of Virginia Ralph Northam (CC BY-NC 2.0), modified