ついに「情報の信憑性」をも追求し始めたFacebookのアルゴリズム

0000

アクトゼロの藤村です。プランナーズブログをお届けします。

Facebookはこれまでにも細かなアップデートを頻繁に行い、アルゴリズムの精度を向上させてきました。
とくに昨年は一年の間に、ファンゲート及びいいね!獲得施策をペナルティ対象とする規定改訂や、クリック狙いの低品質な投稿を見分ける判断基準が追加されるなど、その動きは活発だったといえるでしょう。
特に企業アカウントが関与する広告的、スパム的投稿への対策措置には、昨年初頭から非常に熱心に取り組まれている印象を受けます。

今月20日に発表されたアルゴリズム変更では、ついに「投稿内容の信憑性」にまで、その判断基準を拡大することが明らかになりました。

001

発表文

「嘘報告」で、表示ランクが下がる新アルゴリズム

とはいえ、投稿された情報の真偽をロボットが機械的に判断することは、できません。
情報の信憑性についての判断はあくまで、情報を受け取ったユーザーが行うことになります。
今回のアップデートでは、「投稿の問題を報告する」選択肢に「虚偽のニュース記事である」という項目が追加され、Facebookのアルゴリズムはこの項目での報告数に応じて、ランクの引き下げを行っていきます。
また、多数の「虚偽報告」を受けた投稿には、「Many people on Facebook have reported that this story contains false information(多くの人々がこの投稿に虚偽の情報が含まれていることを報告しています)」という注釈がつけられるという、非常に恥ずかしいペナルティが課されます。
この対象の投稿が自動的に削除されることは無く、措置としてはあくまでファンへのリーチ数が低下していくものですが「これはみんなが嘘だと言っています」というハンコが押されてしまった投稿を、敢えてアーカイブに残しておく発信者もいないのでは?とも思います…。

news-feed-fewer-hoaxes-example

Facebookが参考として引用しているイメージ画像

昨年11月に発表された、「記事の表示を少なくする」という選択肢の追加に次いで、「受け取る側の人間」が直接行う情報取捨の精度は、当然のことながらまだまだロジックが越えられないひとつの壁になっています。
ユーザーが本当に求める情報だけを的確に受け取ることができる環境づくりに、ユーザーの意志意向を直接反映させるという仕組みは、手段として合理的といえるかもしれません。