以下の文章は、電子フロンティア財団の「Automated Moderation Must be Temporary, Transparent and Easily Appealable」という記事を翻訳したものである。

Electronic Frontier Foundation

私たちにとって、ソーシャルメディアが今ほど重要になったことはない。ニュースのフォローや投稿、国境を越えたマスク寄付の調整といった支援の組織化、在宅勤務のコツの共有、純粋なエンターテイメントに至るまで、あらゆることにメジャーなプラットフォームが利用されている。

同時に、危機的状況にあるからといって、ソーシャルメディアプラットフォームが直面していたコンテンツ・モデレーションの問題が霧散したわけではない。むしろ場合によっては、パンデミックによって悪化してすらいる。この数週間、YouTubeTwitterFacebookはいずれも、この危機的状況におけるモデレーション戦略について公式声明を発表した。細かい部分では異なるものの、共通しているのは自動化ツールへの依存度が高まったということだ。

この判断の正当性はさておき(たしかに、コンテンツ・モデレータに在宅での作業を許可すれば、ユーザのプライバシーやモデレータ自身の精神衛生に問題が生じる可能性が高い)、オンラインの表現に悪影響が生じることは避けられない。自動化技術は人間のようにニュアンスを読み取ることはできず、一部の言語ではまったく機能しないというように、大規模スケールではうまくいかない。我々は長年にわたり、自動化よって多数の間違った削除が行われてきたことを確認してきた。つまり、自動化は人間の目や耳を使った判断の代用にはなりえないのだ。

それこそが自動化の問題である。おそらく、私たちが対話し、教育し、学ぶにあたってソーシャルメディアの代替手段を持ち合わせない現在、これまで以上に大きな問題ともなっている。会議はオンラインで行われ、学校はオンラインプラットフォームに頼り、個人でもヨガからガーデニングまであらゆることを学ぶためにビデオを視聴している。同様に、プラットフォームは政府から国民へのメッセージであれ、人権侵害に関する報告書であれ、重要な情報のためのスペースを提供し続けてもいる。

褒める功績は褒めておこう。YouTubeとTwitterは声明の中で、人工知能の欠点を認め、それを考慮に入れてモデレーションを実施するとしている。YouTubeは動画コンテンツがルール違反であると「高い確信」がある場合を除いて、動画コンテンツに対するストライクは宣告しないとしている。またTwitterも、現時点では恒久的な凍結ではなく、一時的な停止(ロック)に留めるとしている。Facebookは、テロ等の特定タイプのコンテンツのモデレーションに関してはフルタイムの従業員に委ねることを認めた。

こうした一時的な措置は、自動化ツールの使用によって生じる過剰検閲を緩和するのに役立つだろう。だが有事に採用されたプロトコルが、危機が去った後も継続することは歴史が証明している。ソーシャルメディアプラットフォームは、この危機が収束に向かったならば直ちに人間によるレビューを復活させ、拡大することを、いまこの時点で公に宣言すべきだ。それまでの間は、サンタクララ原則が求める意味のある透明性、通知、強力な異議申し立てプロセスが、これまで以上に重要になってくる。

通知と異議申し立て:コンテンツモデレーションシステムには欠陥があり、改善されるより早いペースで悪化していく。そのゆえ、ユーザはこれまで以上に間違いを迅速かつ公平に修正するための手続きを必要としている。そのためには、コンテンツが削除される理由を明確かつ詳細に通知し、不当な削除の決定に異議を申し立て、取り消させるためのシンプルで合理的な手続きが提供されねばならない。

透明性:コンテンツが削除された理由がわからなければ、強力な異議申し立てプロセスもユーザにとっては意味がない。さらに適切なデータがなければ、ユーザや研究者はたとえ危機的状況下にあっても、削除が公正であったか、偏向していないか、釣り合いの取れたものであったか、ユーザの権利を尊重していたかを検証することができなくなる。それゆえ、削除された投稿の数、アカウントの恒久的凍結・一時的停止の数、削除・凍結・停止の理由や誰による要請であるのかといった情報が開示されなくてはならない。

サンタクララ原則は、すべての企業が遵守すべき基本的基準を提供している。だが、企業が自動化を進めるにつれ、この原則だけでは十分ではなくなっていくかもしれない。だからこそ、我々は今後数カ月に渡って、このサンタクララ原則を拡張・適応させるために、市民社会や一般市民との議論に参加するつもりである。そのプロセスについては別稿でお伝えしたい。

最後に、EUで運営されているプラットフォームやポリシー決定者は、コンテンツのモデレーションを自動化することで、ユーザのプライバシーを損ねる可能性があることを理解しなくてはならない。多くの場合、自動化された意思決定は、ユーザの個人データの処理に基づいて行われる。だが上述したように、自動化されたコンテンツ削除システムは文脈を理解することはできず、不正確で、過剰な削除に陥りやすいことが知られている。GDPRでは、データの自動処理のみに基づく重大な決定を受けない権利をユーザに与えている(第22条)。この権利は絶対的なものではないが、ユーザの期待と自由を保護することが求められている。

Automated Moderation Must be Temporary, Transparent and Easily Appealable | Electronic Frontier Foundation

Author: Jillian C. York and Corynne McSherry (EFF) / CC BY 3.0 US
Publication Date: April 14, 2020
Translation: heatwave_p2p
Header Image: Alan O’Rourke (CC BY 2.0)