以下の文章は、電子フロンティア財団の「Apple Has Listened And Will Retract Some Harmful Phone-Scanning」という記事を翻訳したものである。
Electronic Frontier Foundation
EFFをはじめとする諸団体は8月より、Appleに対し「子どもの安全を守る」新たな計画を中止するよう求めてきた。そしてAppleは一部について方針を転換した。Messageアプリが保護者のアカウントに通知を送らないようにするというのである。
これは良いニュースだ。以前にも説明したように、この機能はメッセージのエンド・ツー・エンド暗号化を破壊し、ユーザのプライバシーをセキュリティを損なうものだった。Appleが若者の権利を尊重する方法について、プライバシーや子どもの安全を擁護する人々の意見に耳を傾けてくれたことを喜ばしく思う。また、Appleが公開したサンプル画像によると、この機能のテキストが「性的に露骨」から「裸」に変更されている。「性的に露骨」という表現は、LGBTQ+マテリアルへのアクセスを阻止するための隠れ蓑として使われることが多く、LGBTQ+の権利擁護団体が変更を求めていた。
現在、Appleは次のステップとして、ユーザのiCloud Photosライブラリにアップロードされた写真をスキャンして、児童性虐待画像(CSAM)を検出する計画を中止しなければならない。Appleは、法執行のためにプライベートなコンテンツに侵入するようなことからは一線を画すべきである。EFFのイベント「暗号化と子どもの安全」でAccess Nowのナムラタ・マヘシュワリ氏が指摘したように、「この技術をCSAM以外の目的で用いるよう要請しうる法律がすでに存在している」のである。Article 19のウラジーミル・コルテス氏もこれに同意し、「政府はいずれ、これらのバックドアを使って……反対意見や批判的な表現を封じ込めるようになる」と説明する。(訳注:政府からの)こうした危険で不可避な圧力を回避するためにも、Appleはユーザの側に立ち、写真のスキャン計画を中止しなければならない。
Appleに告ぐ:現実世界にもたらす結果に注意を払い、私たちのプライバシーを守るために正しい選択を。
Apple Has Listened And Will Retract Some Harmful Phone-Scanning | Electronic Frontier Foundation
Author: Erica Portnoy / EFF (CC BY 3.0 US)
Publication Date: November 12, 2021
Translation: heatwave_p2p