以下の文章は、2025年4月12日付のコリイ・ドクトロウの「Anyone who trusts an AI therapist needs their head examined」という記事を翻訳したものである。

Pluralistic

AIチャットボットが優れた心理療法士になり得るかどうかは議論の余地がある。これは私の専門外なので、その論争には踏み込まない。だが、それでもなお、AIセラピストを利用する人は頭を診てもらう必要があると思う。

https://www.salon.com/2025/03/30/some-argue-ai-therapy-can-break-down-mental-health-stigma–others-warn-it-could-make-it-worse

私は心理療法の専門家ではないが、プライバシーと企業の不正については専門家だ。そしてビッグテックのクラウド上で動作するチャットボット心理療法士というアイデアは、とんでもなく悪い発想だ。セラピーの専門家ではなくとも、自分自身がセラピーの恩恵を受けてきた経験から確実に言えることがある――セラピーには守秘義務が不可欠だ。

精神科医はプライバシーに驚くほど神経質だ。例を挙げよう。私の兄が結婚することになった時、私のセラピストも式に招待された。兄の婚約者はセラピストの娘と親しく、子どもの頃からセラピストの家に泊まり込むほどだった。だから彼女はセラピストにも結婚式に出席してほしいと招待した。そこで私のセラピストは私と向き合ってこう言った。「いいですか、私は守秘義務を非常に重視しています。あなたが望むなら、結婚式ではあなたとは他人のふりをします。あなたが私のもとに――あるいは何らかのセラピストのもとに通っていることを、誰も知る必要はありません」

私は彼のセラピーを受けていることを知られても構わないと伝えたが、そんな几帳面な配慮が、彼への信頼を裏付けてくれた。それまで誰にも話したことのないこと、そしてそれ以降も二度と誰にも明かさなかったことについて、彼に対しては率直かつ自由に語れる。そうした真に開かれた対話を持つことで、私の人生は良い方向に変わった。

さて、チャットボットセラピストを考えてみよう。そのプライバシー・セーフガードは何だろうか? 企業はAIセッションの記録の取り扱いについて何らかの約束をしているかもしれないが、それはまぁ、嘘だ。当然嘘だ! AI企業は自社のテクノロジーに何ができるかについて嘘をつく(当然だ)。彼らはテクノロジーが何をするかについて嘘をつく。彼らは金について嘘をつく。しかし何よりも、彼らはデータについて嘘をつきまくる

AI企業が最も一貫して、あからさまに、そして極端に不誠実だった対象は、訓練データである。より多くのデータを得るために、AI企業は、安っぽい小説に登場する薬物中毒者のように、嘘をつき、騙し、盗む。フィクションとして書くにはあまりに陳腐に思えるほどに。

https://arstechnica.com/ai/2025/03/devs-say-ai-crawlers-dominate-traffic-forcing-blocks-on-entire-countries

AI企業があなたの親密な秘密を訓練データとして使用しないと言っているなら、それは嘘だ。もちろん嘘だ!そいつは単なるデータじゃない。インターネット上の他のどこでも複製されていないデータだ。希少で、そして独自だ。それは競争上の優位性になる。AI企業は100%、例外なく、あなたのプライベートなセラピーデータを訓練データとして使用するだろう。

さらに言えば、彼らはあなたのセラピーセッションを漏洩する。モデルが訓練データをそのまま吐き出すのを防ぐ方法を見つけられないからだ。

https://www.theatlantic.com/technology/archive/2024/01/chatgpt-memorization-lawsuit/677099

いずれにせよ、テック企業はとにかく情報漏えいだらけだ。内部からの脅威に満ちている。AI企業が長く存続することになれば、いずれあなたの秘密は漏えいする。その会社が破産したなら? もっとひどいことになる。テック企業が倒産すると、債権者は手始めに、プライベートデータの山を売り払うことを考える。そのデータがプライベートが誰にも知られたくないものであればあるほど、彼らはなんとしてでも売り払おうとする。

https://www.eff.org/deeplinks/2025/03/how-delete-your-23andme-data

さて、「でもついに誰もがセラピーを受けられるなら、そんなことは小さな代償だ」と思うかもしれない。米国も世界も、恐るべきメンタルヘルス危機の真っただ中にあり、セラピスト不足は深刻だ。

ここで、チャットボットが人間のセラピストの代わりになるという考え――少なくとも、何もないよりはましだという考えに一時的に賛同することにしよう。私は真実だとは思わないが、仮にそうだとしよう。それでもなお、これは悪いトレードオフだ。

こんな思考実験をしてみよう。誰かが貧しい人々のセラピー費用を工面するための素晴らしいビジネスモデルを考え出した。「私達はセラピーをライブ配信のリアリティTV番組に変えました。セラピスト代を払えないほど貧しいなら、我々の簡易研修を受けたライブ配信者セラピストはいかがでしょう? 彼らはあなたの秘密を視聴者全員に公開配信します。このセッションは永久にアーカイブされ、世界の最低な人たちがその切り抜き動画をバズらせようと24時間365日体制で目を光らせている。お気に召しませんか? なるほど、つまりあなたは貧しい人たちにはメンタルヘルスケアを受ける価値がないとおっしゃるわけですか。やはり潔癖主義は善の敵なんですね」

このやり口は「略奪的包摂[predatory inclusion]」と呼ばれる。スパイク・リーが「黒人の富を築く」方法として暗号通貨詐欺を宣伝したり、メアリー・ケイが「女性をエンパワーする」という触れ込みでマルチ商法カルトに女性を巻き込み銀行口座を空っぽにしている、あの手口だ。個人的な秘密が売られ、漏洩し、公開され、悪用されることは、そもそもセラピーを受けられないことよりもはるかにメンタルヘルスに悪影響を及ぼす。ビットコイン詐欺師やメアリー・ケイに金を騙し取られるくらいなら、そもそも投資機会にアクセスできないほうがマシなのと同じだ。

しかし、センシティブデータをチャットボットと共有すべきでないのはメンタルヘルスに苦しむ人々だけではない――誰であろうと共有すべきではないのだ。AI企業が推進するすべてのビジネスアプリケーション、つまり企業の最も商業的にセンシティブなデータをAIに委ねるような類のものなら大丈夫じゃないかって? 正気か? 連中はそのデータを漏洩するだけでなく、競合他社に売る。まったく、MicrosoftはすでにOffice365分析でそうしているんだから。

https://pluralistic.net/2021/02/24/gwb-rumsfeld-monsters/#bossware邦訳

こうした企業はあらゆることで常に嘘をついてきたわけだが、最も嘘をつくのはセンシティブデータの取り扱いに関してだ。改めて言うようなことでもあるまい。AI企業にセンシティブデータを扱わせるというのは、ガソリン缶とマッチ箱を持たせた放火魔を図書館に放ち、指切りげんまんで約束をしたのだから今度こそは何も燃やさないと信じるようなものだ。

(Image: Zde, CC BY-SA 4.0, modified)

Pluralistic: Anyone who trusts an AI therapist needs their head examined (01 Apr 2025) – Pluralistic: Daily links from Cory Doctorow

Author: Cory Doctorow / Pluralistic (CC BY 4.0)
Publication Date: April 12, 2025
Translation: heatwave_p2p

カテゴリー: AI