以下の文章は、電子フロンティア財団の「The GUARD Act Isn’t Targeting Dangerous AI—It’s Blocking Everyday Internet Use」という記事を翻訳したものである。
連邦議会の議員たちはGUARD法の審議を急速に進めている。これは未成年者による幅広いオンラインツールへのアクセスを制限する年齢確認義務化法案であり、今週中にも重要な採決が予定されている。法案は「AIコンパニオン」と脆弱な若年ユーザに関する深刻な事例への対応を謳っているが、条文の射程はそれよりはるかに広く、AIを利用する検索エンジンにさえ年齢確認ゲートの設置を求める可能性がある。
GUARD法が成立すれば、その影響は高リスクチャットボットという限定的なカテゴリにとどまらない。企業はすべてのユーザの年齢を確認し、18歳未満のユーザを膨大な範囲のオンラインシステムから締め出すことを義務づけられる。未成年者は日常的なオンラインツールの利用を阻まれ、保護者による監督の余地は損なわれ、成人はプライバシーの犠牲を強いられることになる。その過程で、子どもだけでなくすべての人に対して、表現を制限しプライバシーを侵害する年齢確認システムの導入が求められるのである。
GUARD法の広範な定義のもとでは、高校生が宿題支援ツールに代数の問題について質問することすら禁じられかねない。商品を返品しようとするティーンエイジャーが、ごく一般的なカスタマーサービスのチャットから締め出されることもありうる。
この法案の背景にある懸念はたしかに深刻だ。AIシステムが若年ユーザとの間で有害なやり取り――自傷行為に関わるケースを含む――を行った事例について、憂慮すべき報告がなされている。こうしたリスクには注意を払わなければならない。しかし求められるのは、悪質な行為者に対する適切なセーフガードや法執行といった標的を絞ったソリューションであって、包括的な規制ではない。法案の提案者たちは最悪のシナリオを標的にしていると主張するが、法案そのものが規制するのは日常的な利用全般なのだ。
GUARD法の幅広い定義は日常的なツールにまで及ぶ
問題はまず、法案が「AIチャットボット」をどう定義しているかにある。開発者や運営者があらかじめ完全に書き上げたものではない応答を生成するシステムすべてが対象となる。これほど広い定義は、AI搭載ツール全般の基本的な機能を丸ごと規制対象にしてしまう。
さらに「AIコンパニオン」にも問題を抱えている。未成年者はこれを一切利用できないとされている。AIコンパニオンとは、人間に似た応答を生成し、対人的または感情的なやり取りを「促進または容易にする」よう設計されたチャットボットを指す。一見、疑似的な「友人」やセラピー用チャットボットを標的にしているように見えるが、現実にはその境界線は極めて曖昧だ。
現代のチャットボットは、会話的で役立つよう設計されている。宿題支援ツールは問題の解き方を案内する前に「いい質問ですね」と言うかもしれない。カスタマーサービスのチャットボットは苦情に共感的に応じるかもしれない(「ご不便をおかけして申し訳ありません」)。汎用アシスタントはフォローアップの質問をするかもしれない。これらはいずれも「対人的」なやり取りを促進しているとみなされうる――つまりGUARD法の適用対象になりうるのだ。
厳しい罰則と不明確な境界線に直面すれば、企業は若者に自社のオンラインツールを使わせるリスクを冒そうとはしないだろう。未成年者を全面的にブロックするか、ツールの機能を削いですべての人にとって使い勝手の悪いものにするかのどちらかになる。その結果は、限定的なセーフガードどころか、日常的なオンラインのやり取りを幅広く制限するものとなってしまうだろう。
宿題の質問をするなら身分証明書を提示し、保護者に連絡を
まず、生徒が宿題の手助けを求める場面を考えてみよう。GUARD法のもとでは、サービス提供者は単なるチェックボックス以上の方法でユーザの年齢を確認しなければならないつまり、政府発行の身分証明書やサードパーティの年齢確認システムを必要とする可能性のある「合理的な年齢確認」措置を導入しなければならない。システムがユーザを18歳未満と判定したら、企業は自社のツールが「AIコンパニオン」に該当するかどうかを判断しなければならない。少しでもその可能性があるなら、最も安全な対応はアクセスを全面的に遮断することだ。
同じ論理は日常的なカスタマーサービスにも当てはまる。注文のトラブルを解決しようとするティーンエイジャーがチャットボットに案内されると、企業は選択を迫られる。日常的なやり取りのために本格的な年齢確認システムを構築するか、法的責任を回避するためにアクセスを制限するかだ。多くの企業は後者を選ぶだろう。
この法律は高リスクの少数の製品を狙った限定的な規制ではない。未成年者向けにテキストを生成するあらゆる製品について、企業をブロックや制限へと駆り立てるコンプライアンス体制である。
すべての人にID確認を
GUARD法の影響は未成年者だけにとどまらない。この法案は、ユーザが有効な身分証明書をアップロードするか、その他の侵襲的な年齢確認スキームに応じなければ機能しないインターネットに向けて、大きく舵を切るものだ。企業はすべてのユーザの年齢を確認しなければならない――単純な自己申告ではなく、個人に紐づいた「合理的な年齢確認」システムを通じてだ。
実際には、これはセンシティブな個人情報の収集を意味する。政府発行の身分証明書、金融データ、あるいは生体認証情報である。確認作業を外部に委託することは可能だが、法的責任は企業に残る。しかも法律は継続的な確認を求めているため、1回限りのチェックでは済まない。さらに悪いことに、調査が一貫して示しているように、数百万人もの人々が身分証明書の情報を更新しておらず、古い住所のままであったり、そもそも政府発行の身分証明書を持っていなかったりする。サービスがIDを要求すれば、現行の身分証明書を持たない、あるいはまったく持たない多くの人々が締め出されることになる。
そして、適切な身分証明書を持っている人々にとっても、この情報を繰り返し提出することには明らかなリスクが伴う。センシティブな個人情報のデータベースは情報漏洩の標的となる。オンラインツールの匿名または仮名での利用は困難になるか、不可能になる。
未成年者を特定のチャットボットから遠ざけるために、GUARD法はすべての人に対し、基本的なオンラインツールを使うためだけに身元の証明を求めることになる。それはあまりに大きな代償だ。しかも、法案が解決するはずの具体的な被害には、実際のところ対処できていない。
曖昧な定義、巨額の罰則
GUARD法の広範な適用範囲には、厳しい罰則が伴う。企業は違反1件につき最大10万ドルの罰金に直面し、連邦および州の当局がこれを執行する。一方で、「AIコンパニオン」のような重要な用語は「感情的なやり取り」といった曖昧な概念に依拠している。この組み合わせは過剰なブロッキングを招くだろう。法的な不確実性と深刻な責任リスクに直面すれば、企業は微妙な区別を解釈しようとはしない。アクセスを制限するか、機能を削減するか、未成年者を完全にブロックするかだ。
法案を動機づけている懸念そのものは対処に値するにもかかわらず、これがGUARD法のもたらす残念な帰結である。しかし、GUARD法の広範な文言は、懸念されるシナリオをはるかに超えて適用されてしまう。
最終的にそれは、より制限され、より監視されたインターネットを意味する。ティーンエイジャーは学校や日常の作業に頼っているツールへのアクセスを失う。それ以外のすべての人もID確認を含む新たな障壁に直面する。コンプライアンスコストと法的リスクを吸収できない小規模な開発者は市場から押し出され、最大手の企業の支配力がさらに強まるだろう。
若者は――そしてすべての人は――真に有害な製品から保護される権利がある。しかし、この法案はそれを実現するものではない。プライバシー、アクセス、そして有用なテクノロジーを犠牲にして得られるのは、的を外した鈍い規制システムにすぎない。
議会はまもなく行動に移す可能性がある。GUARD法を拒否するよう、議員に声を届けてほしい。
The GUARD Act Isn’t Targeting Dangerous AI—It’s Blocking Everyday Internet Use | Electronic Frontier Foundation
Author: Joe Mullin / EFF (CC BY 3.0 US)
Publication Date: April 27, 2026
Translation: heatwave_p2p
EFFの5月8日付の続報記事によれば、議会は批判を受けて法案を一部修正し、規制の焦点が「AIコンパニオン」――感情的・対人的なやり取りをシミュレートするよう設計された会話型システム――に絞り込まれた。とはいえ、ここで指摘された問題の大部分は積み残されており、依然として表現の自由、プライバシー、セキュリティに関する根本的な懸念は解消されていない。