- Dans les jours qui ont suivi les élections américaines, le PDG de Facebook, Mark Zuckerberg, a approuvé un changement d’algorithme dans le fil d’actualité de la plateforme afin de lutter contre la désinformation, rapporte le New York Times.
- Le changement signifiait que les sites d’information établis étaient promus, tandis que le contenu de sites plus engagés et partisans était rétrogradé.
- Certains employés ont demandé lors d’une réunion d’entreprise si ce « fil d’actualité plus agréable » pouvait devenir permanent, a rapporté le Times.
- Visitez la page d’accueil de Business Insider pour plus d’histoires.
Dans les jours qui ont suivi l’élection présidentielle américaine, Facebook a apporté des modifications d’urgence à son algorithme.
Le New York Times rapporte que la société a changé sa façon de promouvoir et de rétrograder le contenu des flux d’actualités des personnes après que les employés ont remarqué une quantité alarmante de désinformation se propageant sur la plate-forme.
Le changement signifiait que l’algorithme accordait plus d’importance aux publications d’organisations de presse établies telles que CNN, le New York Times et NPR. Cela était basé sur une mesure interne que la société utilise appelée « qualité de l’écosystème des nouvelles », en abrégé NEQ.
Les éditeurs avec un NEQ élevé ont bénéficié du changement, tandis que les pages partisanes mais très engagées, telles que Breitbart et Occupy Democrats, ont été rétrogradées.
Trois personnes connaissant le sujet ont déclaré au Times que le PDG de Facebook, Mark Zuckerberg, avait personnellement approuvé le changement.
Le changement aurait été populaire auprès de certains employés de Facebook, et deux sources ont déclaré lors d’une réunion tenue une semaine après l’élection que les employés avaient demandé si le « fil d’actualité plus agréable » pouvait devenir une fonctionnalité permanente.
Il n’est pas clair dans le rapport du Times si et quand cette fonctionnalité a été annulée.
Selon le Times, Facebook a également mené des recherches plus tôt en novembre pour déterminer si le contenu partagé sur sa plate-forme est principalement « bon pour le monde » ou « mauvais pour le monde ». » L’entreprise a interrogé les utilisateurs, leur demandant de classer des publications spécifiques comme l’une ou l’autre.
Les chercheurs de Facebook ont trouvé une corrélation entre les publications qui gagnent beaucoup de vues et qui sont classées comme « mauvaises pour le monde ». »
Facebook a ensuite formé un algorithme pour prédire quels messages les utilisateurs trouveraient « mauvais pour le monde » et les rendre moins visibles dans les flux des gens. Un rapport interne a constaté que l’algorithme y parvenait assez bien, mais cela était corrélé avec les utilisateurs ouvrant moins souvent Facebook.
« Les résultats ont été bons, sauf qu’ils ont entraîné une diminution des sessions, ce qui nous a motivés à essayer une approche différente », a déclaré un résumé des conclusions du rapport consulté par le Times.
Par la suite, la société a modifié cet algorithme pour rétrograder le contenu « mauvais pour le monde » de manière moins stricte.