Mark Zuckerberg firmó un cambio de algoritmo de Facebook que favoreció sitios de noticias establecidos y creó feeds 'nicer' después de la elección

Mark Zuckerberg Nick Wass/Associated Press
  • En los días posteriores a las elecciones en Estados Unidos, el CEO de Facebook, Mark Zuckerberg, firmó un cambio de algoritmo en el feed de noticias de la plataforma en un esfuerzo por combatir la desinformación, informa el New York Times.
  • El cambio significó la promoción de sitios de noticias establecidos, mientras que el contenido de sitios partidistas más comprometidos fue degradado.
  • Algunos empleados preguntaron en una reunión de la empresa si este «servicio de noticias más agradable» podría convertirse en permanente, informó the Times.
  • Visite la página de inicio de Business Insider para obtener más historias.

En los días posteriores a las elecciones presidenciales de Estados Unidos, Facebook realizó algunos cambios de emergencia en su algoritmo.

El New York Times informa que la compañía cambió la forma en que promovía y degradaba el contenido en las noticias de la gente después de que los empleados notaran una cantidad alarmante de información errónea que se difundía en la plataforma.

El cambio significó que el algoritmo asignara más importancia a las publicaciones de organizaciones de noticias establecidas como CNN, The New York Times y NPR. Esto se basó en una métrica interna que la compañía utiliza llamada «calidad del ecosistema de noticias», abreviada como NEQ.

Los editores con un alto NEQ se beneficiaron del cambio, mientras que las páginas partidistas pero altamente comprometidas, como Breitbart y Occupy Democrats, fueron degradadas.

Tres personas con conocimiento del asunto le dijeron al Times que el CEO de Facebook, Mark Zuckerberg, firmó personalmente el cambio.

El cambio fue popular entre algunos empleados de Facebook, y dos fuentes dijeron en una reunión celebrada una semana después de las elecciones que los empleados preguntaron si el «servicio de noticias más agradable» podría convertirse en una función permanente.

No está claro en el informe de Times si y cuándo se ha revertido esta función.

Según the Times, Facebook también realizó una investigación a principios de noviembre sobre si el contenido compartido en su plataforma es predominantemente «bueno para el mundo» o «malo para el mundo».»La empresa encuestó a los usuarios, pidiéndoles que categorizaran publicaciones específicas como una u otra.

Los investigadores de Facebook encontraron una correlación entre las publicaciones que obtienen muchas visitas y que se categorizan como «malas para el mundo».»

Facebook luego entrenó un algoritmo para predecir qué publicaciones los usuarios encontrarían «malas para el mundo» y hacerlas menos visibles en los feeds de las personas. Un informe interno encontró que el algoritmo logró esto bastante bien, pero esto se correlacionó con los usuarios que abrían Facebook con menos frecuencia.

«Los resultados fueron buenos, excepto que llevaron a una disminución en las sesiones, lo que nos motivó a probar un enfoque diferente», dijo un resumen de los hallazgos del informe visto por the Times.

Posteriormente, la compañía ajustó este algoritmo para degradar el contenido «malo para el mundo» de manera menos estricta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *