以下の文章は、NiemanLabの「Want to fight misinformation? Teach people how algorithms work」という記事を翻訳したものである。

技術的、政治的、社会的環境が異なる4か国で調査を行ったところ、アルゴリズムの理解度は社会的背景によって大きく異なることがわかった。

ソーシャルメディアが支配する現代において、誤情報は非常に身近な敵として、私たちのフィードに忍び込み、疑念と混乱の種をまいている。40か国のソーシャルメディアユーザの半数以上が週に一度は虚偽またはまぎらわしい情報に遭遇しているという事実は、誤情報misinformationの危機が世界規模で発生していることを物語っている。

この問題の核心にあるのがソーシャルメディアのアルゴリズム、すなわち私たちのフィードに表示されるコンテンツを決定する謎めいた計算式だ。これらのアルゴリズムは、ユーザが最も関与を持ちそうなコンテンツを表示するよう設計され、しばしば私たちの偏見や信念に合致する誤情報の拡散につながっている。その象徴的な事例が、Facebookの利益優先アルゴリズムだ。このアルゴリズムは、ロヒンギャの人々を標的とした憎悪に満ちた誤情報の拡散を助長し、ミャンマー軍による2017年のジェノサイドに加担した。

ここで問題となるのは、ソーシャルメディアのアルゴリズムがユーザには依然として不透明だということだ。アルゴリズムの決定に基づく情報提供のメカニズムは、ブラックボックスとみなされている。アルゴリズムがどのように結論に達したのかをユーザが認識することはほぼ不可能だからである。エンジンの仕組みを知らずに車を運転するようなものだ。アルゴリズムのメカニズムがわからないと、目の前の情報を批判的に評価する力が弱まってしまう。アルゴリズムに関する知識、つまりアルゴリズムがどのように情報を選別し提示するかについての理解を深めるべきだという声が高まっている。しかし、そうした知識が実際にソーシャルメディアユーザの誤情報対策に役立つのかは、まだはっきりしていなかった。

そこで注目されているのが、Harvard Kennedy School Misinformation Reviewに掲載された我々の最新の研究である。誤情報対策を長年研究してきたメディア学者として、私は米国、英国、韓国、メキシコの4か国におけるアルゴリズムプロセスの理解が、誤情報に対する個人の態度や行動をどのように形成するかを探る研究を主導した。5,000人以上が参加したこの調査から、いくつかの洞察が得られた。

まず、アルゴリズムに関する知識があると、誤情報に対して警戒心が強まることがわかった。つまり、アルゴリズムがどのように情報をフィルタリングし、ユーザのデータをどう使い、どんな結果をもたらすのかを理解している人ほど、アルゴリズムに情報を与えることの落とし穴や、誤情報が増幅される可能性を認識していた。こうした認識は、誤情報に対抗するよう促す。例えば、ソーシャルメディアの投稿に潜む偏見やリスクを指摘するコメントを残したり、反論や意見を共有したり、不正確な内容の問題点を指摘する情報を広めたり、誤情報の投稿をプラットフォームに報告するといった行動が促されていた。

この発見は心強いものだが、さらに研究を進めると、アルゴリズムの知識が人々の間で均等に広まっていないことも明らかになった。調査対象の4か国では、それぞれ独自の技術的、政治的、社会的環境があり、アルゴリズムの理解度は社会的背景によっても大きく異なっていた。例えば、米国、英国、韓国では、若い世代の方が高齢者よりもアルゴリズムをよく理解する傾向があった。韓国とメキシコでは、教育レベルが高いほどソーシャルメディアのアルゴリズムの仕組みをよく理解していた。近年政治的な分極化が進む米国と英国では、政治的立場がアルゴリズムに関する知識の違いを生み出す主な要因となっており、リベラル派の方が保守派よりもソーシャルメディアのアルゴリズムをよく理解していた。

国内レベルのアルゴリズム知識格差に加えて、研究はアルゴリズム知識のレベルが国によって異なることも明らかにした。米国の回答者が最も高い理解度を示し、続いて英国、メキシコ、韓国の順であった。興味深いことに、4か国の中で韓国がインターネット利用率とソーシャルメディアへのアクセス率が最も高いにもかかわらず、アルゴリズムの知識レベルは4か国中最も低かった。これらの差異は、インターネットにアクセスできる個人とできない個人の二項対立を超えた、新たな形態のデジタルディバイドを浮き彫りにしている。

このように国内でも国家間でもアルゴリズムの知識が差があるということは、アルゴリズムが提示する誤情報を精査し、十分な情報に基づいて判断を下せる人もいれば、アルゴリズムが出力する虚偽または偏ったナラティブに影響を受けやすい人もいるということだ。アルゴリズムがどのように情報をパーソナライズしているかを理解していない人は、多様な視点に触れる機会を狭める「フィルターバブル」に閉じ込められるリスクに気づきにくい。その結果、ソーシャルメディア上のすべての情報が客観的で正確だと誤解してしまう。こうした人々は誤情報を広めてしまいがちで誤情報の悪影響を受けやすい傾向がある。

これらの発見は、ソーシャルメディアプラットフォーム、政策立案者、研究者、教育者にとって重要な示唆を含んでいる。これまで誤情報対策といえば、ファクトチェックや予防接種プレバンキング、コンテンツモデレーションなどに焦点が当てられてきた。だが、これらの手法の有効性には疑問符がつくことも多い。我々の研究は、アルゴリズムの仕組みやソーシャルメディアでの情報フィルタリングについて啓発することが、有望な代替策になり得ることを示している。アルゴリズムをより深く理解することで、誤情報を見抜き、適切に対応する力が身につく可能性がある。このアプローチの利点は、様々な背景を持つ人々に広く適用でき、世界中で効果を発揮する可能性があることだ。さらに、我々の研究は、社会的・文化的背景によってアルゴリズムの理解度が異なることも明らかにした。これは、各グループのニーズに合わせたアルゴリズムリテラシープログラム開発の重要性を示唆している。こうした取り組みにより、誰もがデジタル世界をより良く歩んでいけるように支援できる。

メタバース、ディープフェイク、ChatGPTと、テクノロジーは絶え間なく進化している。信頼性の低い情報や虚偽の情報がアルゴリズムによってたやすくキュレーションされ、提示される環境が生まれつつある。私たち自身を強くし、社会を誤情報の脅威から守るために、アルゴリズムについてより広く、深く学ぶ教育が急務となっている。結局のところ、誤情報との戦いは、私たち一人一人が参加しなければ勝ち目のない闘いなのである。

ミョジョン・チョン:ノースイースタン大学ジャーナリズム・メディアイノベーション学科准教授。ハーバード大学バークマンクラインインターネット&ソサエティセンターのRebooting Social Media客員研究員も務める。

Want to fight misinformation? Teach people how algorithms work | Nieman Journalism Lab

Author: Myojung Chung / Neiman Lab (President and Fellows of Harvard College) (CC BY-NC-SA 3.0 US)
Publication Date: Sept. 4, 2024
Translation: heatwave_p2p Material of Header Image: Shubham Dhage