以下の文章は、コリイ・ドクトロウの「AI can’t do your job」という記事を翻訳したものである。

AIにはあなたの仕事はこなせない。だが、AIセールスマン(イーロン・マスク)はあなたのボス(ザ・USA)1訳注:本文では「the USA」。間抜けっぽいのであえて「ザ」にした。一般的には「ジ」だと思う。を説得して、あなた(連邦政府職員)を解雇し、あなたの仕事をこなせないチャットボットに置き換えることができる。
https://www.pcmag.com/news/amid-job-cuts-doge-accelerates-rollout-of-ai-tool-to-automate-government
誇大広告[hype]ばかりを聞いていると、「AI」(支離滅裂で、わずかばかり関係するテクノロジーの寄せ集め)に関するすべての動きはテキストと画像の生成にあると思うかもしれない。だが、そいつは大間違いだ。AIのハイプマシンが世界中の商業イラストレーター全員をパン配給所に並ばせたとしても、それで節約できる金額はDall-Eのトレーニングを監督した年収100万ドルのテック技術者たちのコンブチャ予算すら賄えないだろう。自動メール要約市場も同様にちっぽけなものである。
CEOたちがこの市場の規模を過大評価するのも無理はない。「CEO」はあらゆるラップトップジョブの中で最もラップトップジョブだからだ。2000年代に、秘書がボスのメールを印刷してボスの受信トレイに入れ、ボスが赤ペンでチェックしてから返信を口述するというジョークがあったが、ボスのメールをチャットボットに要約させるというのは、その2025年版なんだろう。
スマートなAIへの投資は「意思決定支援」、つまり統計的推論エンジンが人間に対してどのような決定を下すべきかを提案するシステムに向けられる。そのシステムにおいて、ボットは腫瘍を診断したり、保釈や仮釈放を中立的に判断したり、学生の小論文や履歴書、ローン申請を評価することになっている。
ここでは、ボットは人間を助けるために存在する。たとえば、病院が放射線専門医にセカンドオピニオンを提供する放射線医学ボットを購入する。医師とボットの意見が一致しなければ、人間の放射線専門医がもう一度診る。つまり、病院はAIを導入し、より多くのコストを割いてミスを減らすことができたことになる。AIに支援された放射線専門医は生産性が低い(ボットとの不一致を解決するためにX線検査をやり直すため)が、診断はより正確になる。
自動化理論の専門用語では、この放射線専門医は「ケンタウロス」である――人間の頭が、疲れ知らずで常に警戒を怠らないロボットの体に接続されている状態だ。
もちろん、AI企業に金をつぎ込む投資家たちは、そんなことを期待しているわけではない。彼らが望むのは逆ケンタウロスだ。人間がロボットの下僕として働く世界を彼らは望んでいる。したがって、病院への本当のセールスポイントは、「ほぼすべての放射線専門医をクビにして、残った哀れな一人に我々のロボットが機械のスピードで下す判断を検証する仕事をさせろ」ということになる。
逆ケンタウロス型の放射線専門医は、めったに間違わない自動化プロセスを長時間勤務の中で監督させられ、稀に生じるエラーに完璧な警戒を維持しなければならない。もちろん、誰もそんな事が可能だとは思ってやしない。
https://pluralistic.net/2024/04/01/human-in-the-loop/#monkey-in-the-middle
この「ループ内の人間[human in the loop]」の役割はエラーを防ぐことではない。その人間はAIが犯したエラーの責任を負うために存在する。
https://pluralistic.net/2024/10/30/a-neck-in-a-noose/#is-also-a-human-in-the-loop
その人間は「モラル・クランプルゾーン(道徳的衝撃緩衝帯)」であり、
https://estsjournal.org/index.php/ests/article/view/260
「責任の空洞化[accountability sink]」のために存在する。
https://profilebooks.com/work/the-unaccountability-machine
そう、彼らは放射線専門医として存在するわけではない。
このことは医療現場の文脈でさえ十分にひどい話だが、政府の文脈では目も当てられないほどになる。つまり、政府のボットが、誰がメディケアを受けられるか、誰がフードスタンプを受けられるか、誰が退役軍人給付を受けられるか、誰がビザを取得できるか、誰が起訴されるか、誰が保釈されるか、そして誰が仮釈放されるかを決定する。
統計的推論は本質的に保守的だ。AIは過去のデータから未来を予測する。その自動化された予測が、機械の判断の洪水に必死に追いつこうとチャップリンのように七転八倒する逆ケンタウロスに供給されれば、その予測は(訳注:助言ではなく)指示となり、自己成就的予言となる2訳注:たとえAIの判断が誤りであったとしても、「AIの判断に間違いはないはずだ」と思い込んで見逃してしまう。。
AIは未来が過去のようであることを望み、AIは未来を過去のようにする。トレーニングデータが人間のバイアスで満ちていれば、予測も人間のバイアスで満ちることになり、もたらされる結果もまた人間のバイアスで満たされる。そしてその結果が糞食的にトレーニングデータに再び取り込まれると、高度に濃縮された人間/機械のバイアスが新たに生み出されることになる。
https://pluralistic.net/2024/03/14/inhuman-centipede/#enshittibottification(邦訳記事)
マスクは熟練した人間の労働者を解雇し、彼らをスパイシーなオートコンプリートで置き換えようとしている。そうして、彼は欠陥のあるチャットボットを導入して労働者のクビを切るボスであると同時に、あなたのボスを騙す口達者なセールスマンという、彼自身の最終形態へと変貌しつつある。マスクは政府の主要機能を高速エラー発生マシンに変えるだろう。その人間の管理者たちはただ給与を受け取りながら、来たるべきロボットの大失態の津波の責任を負うためだけに存在することになる。
米国政府の壁にアスベストを吹き付けるかのように、政府機関を死と隣り合わせの危険物質地帯[hazmat zones]に変えているのだ。
https://pluralistic.net/2021/08/19/failure-cascades/#dirty-data
(Image: Cryteria, CC BY 3.0; Krd, CC BY-SA 3.0; modified)
Pluralistic: AI can’t do your job (18 Mar 2025) – Pluralistic: Daily links from Cory Doctorow
Author: Cory Doctorow / Pluralistic (CC BY 4.0)
Publication Date: March 18, 2025
Translation: heatwave_p2p