以下の文章は、NiemanLabの「In Germany, social media algorithms are pumping out huge amounts of far-right, pro-AfD content」を翻訳したものである。

TikTokとイーロン・マスクのTwitterがドイツのユーザに表示する政党関連コンテンツの約4分の3が、ネオナチとの関係で知られる政党を推すものだったことが新たな調査で判明した。

今週日曜日、ドイツでは政治の重大な転換点となりうる選挙が行われる。焦点となっているのは極右政党のドイツのための選択肢(AfD)だ。前回の連邦選挙での得票率は10.4%だったAfDだが、最新の世論調査ではその倍近い支持を獲得している。このまま進めば、中道右派のCDU/CSUに次ぐ第2党に躍進し、かつてないほどに政権に近づいている。

なぜこれが問題なのか。ドイツには極右政党の台頭に関する特別な歴史がある。AfDの指導者やメンバーは、ホロコーストの否定国家転覆計画ナチスのスローガンの流用特定民族のドイツ国民の大量追放計画など、次々とナチス的な行為を繰り返してきた。プライベートなFacebookグループではアンネ・フランクの「オーブン焼きたて」ミームを共有し、フェルキッシュ・ナショナリズムへの回帰を公然と唱えている。フランスの極右政党である国民連合のマリーヌ・ル・ペンでさえ、AfDとの関係を拒否する声明を出したほどだ。

ドイツの主要政党は第二次世界大戦後以降、極右勢力と政治のメインストリームとの間に防疫線(cordon sanitaireを張り、AfDとの協力を一切拒否してきた。しかしこの防壁も、先月ついに崩れ始めた。保守派のCDUがAfDと手を組んで移民政策の厳格化を試み、これに対して大規模な抗議デモが巻き起こった。さらにワシントンの政治的混乱に加え、イーロン・マスクJ.D.ヴァンスが衝撃的なAfD支持を表明したことも相まって、世界中の注目が日曜日の選挙結果に集まっている。

国際的な気候・人権NGOのGlobal Witness本日発表した新しい調査が注目に値するのはそのためである。調査では、Twitter、TikTok、Instagramのレコメンデーションアルゴリズムが、選挙を前にドイツのユーザに見せる政治的コンテンツにどのような影響を与えているのかを検証した。その結果は明白だった。

Global Witnessの新しい調査によると、ドイツの連邦選挙を前に、無党派のソーシャルメディアユーザは左派寄りのコンテンツの2倍以上の右派寄りのコンテンツを目にしている。

主要選挙への影響力についてビッグテック企業に厳しい監視の目が向けられているなか、調査チームは選挙に向けた準備期間中、TikTok、X、Instagramのアルゴリズムが政治に関心を持つ無党派のユーザにどのようなコンテンツを推奨しているのかを調査した。

調査は以下のように実施された。通常、ソーシャルフィードに表示される内容は、ユーザのフォロー、「いいね」、閲覧時間といった行動履歴に大きく左右される。たとえば、ミルウォーキー・ブルワーズの選手だけをフォローし、同チームの投稿にのみ「いいね」を付けているユーザに、関連コンテンツが表示されるのは当然だろう。しかし、この仕組みでは表示内容が過去の行動によるものなのか、アルゴリズム自体の傾向なのかを判断するのが難しい。

そこでGlobal Witnessは、工場出荷時の設定に戻したデバイスで3つのプラットフォームそれぞれに新規アカウントを作成した。アルゴリズムが判断材料とする過去の行動が一切ない状態のアカウントだ。各プラットフォームで、ドイツの主要4政党の公式アカウントと各党首のアカウント、計8つだけをフォローし、それぞれの最新投稿5件を読むか視聴した。これにより、アカウントが政治的コンテンツに関心を持っていることは伝わるが、特定の党派への支持は示していないことになる。

その後、各プラットフォームの「おすすめ」フィードを観察し、表示される投稿を右派寄りか左派寄りか、特定の政党を支持しているか、フォローした8アカウントからの投稿かどうかで分類していった。

結果は明確だった。TikTok(74%)とTwitter(72%)で表示された政治的コンテンツの約4分の3が右派寄りで、そのうち最大の割合を占めたのがAfD支持のコンテンツだった。Instagramも右派寄りの傾向を示したが、その度合いは比較的小さかった(59%)。

注目すべきは、この右傾化の主な原因が、研究チームがフォローしていないアカウントからのコンテンツだったことだ。その規模はプラットフォームによって大きく異なった。Instagramでは表示コンテンツの96%がフォローした8アカウントからのものだったのに対し、TikTokではわずか8%だった。そして、アルゴリズムが選択したフォロー外のアカウントには明確な政治的偏りが見られた。

フォローするアカウントはユーザが自由に選べる。プラットフォームに見たいコンテンツを伝える方法はいくつかあるが、実際に表示される投稿の大半はユーザのコントロールが及ばない。そして我々の調査では、TikTokとXのレコメンデーションシステムが選ぶ政党関連のコンテンツには政治的偏りがあった。

TikTokでは、表示された党派的コンテンツの78%がAfD支持だった(他の3党はそれぞれ8%、8%、6%)。Twitterでは64%がAfD支持だった(他の3党はそれぞれ18%、14%、6%)。

イーロン・マスクのTwitterを使ったことがある人なら、この極端な偏りも驚くに値しないかもしれない。ソーシャルメディアは長年、ユーザが同意しそうなコンテンツばかりを表示し、フィルターバブルの中に閉じ込めているとして批判されてきた。しかし、少なくともそれはユーザ自身が作り出したフィルターバブルだった。今回見られたのは、外部から押し付けられたフィルターだ。

これは理論上、解決可能な問題である。数年前、YouTubeについて似たような調査結果が報告されたことを覚えている人もいるだろう。レコメンデーションシステム次々とユーザをより過激なコンテンツへと誘導しているという調査だ。2019年、YouTubeはこの問題に対処するためアルゴリズムを変更すると発表し、「ボーダーライン的なコンテンツや、有害な誤解を招く可能性のあるコンテンツのレコメンデーションを減らす」と宣言した。数カ月後には「米国では非登録者へのレコメンデーションによるこうしたコンテンツの視聴時間が平均70%減少した」と報告している。これらの動画は見たい人が自分で探せば見つけられたが、YouTubeが積極的にユーザに推奨することは大幅に減った。フォローアップ調査でも、(全てではないが)YouTubeの「うさぎの穴」による過激化効果は大幅に減少したか完全に消失したとされている。

しかし、その変更は、YouTubeにとっても悪いものではなかった(少なくとも、「YouTubeの動画で子供がISISに加入した」といった報道が同社に与える悪影響を懸念するのであれば)。極右コンテンツに極端に偏ったアルゴリズムは多くの人にとってバグかもしれないが、イーロン・マスクにとってはむしろ望ましい機能なのだ。ドナルド・トランプの機嫌を取ろうとしているTikTokは、この偏りを問題視するだろうか、それとも売りにするだろうか。

フランス語のcordon sanitaire(防疫線)は、感染症の蔓延を防ぐための遮断線を意味する。COVID-19のパンデミックの際、世界中で規制の厳しさをめぐって激しい議論が交わされた。AfDのような極右政党を主流政治からどの程度隔離すべきかについても、理性的な人々の間でも意見が分かれるだろう。しかし、今日のソーシャルメディアで目にするのはそうした議論ではない。むしろ、積極的にウイルスを支持する立場――過激主義は避けられるべきではなく、称賛され、推進されるべきだという立場――を取っている。日曜日の選挙で、その「感染」がどこまで広がったのか明らかになるだろう。

ジョシュア・ベントンはNieman Labのシニアライターで前ディレクター。連絡はメールjoshua_benton@harvard.edu)またはTwitterのDM(@jbenton)まで。

In Germany, social media algorithms are pumping out huge amounts of far-right, pro-AfD content | Nieman Journalism Lab

Author: Joshua Benton / Neiman Lab (CC BY-NC-SA 3.0 US)
Publication Date: Feb. 20, 2025
Translation: heatwave_p2p
Material of Header image: Kai Schwerdt (CC BY-NC 2.0)