- No dias depois de obama, Facebook CEO Mark Zuckerberg assinado com um algoritmo de mudar para a plataforma do feed de notícias em um esforço para lutar contra a desinformação, o New York Times relata.a mudança significou que os sites de notícias estabelecidos foram promovidos, enquanto o conteúdo de sites mais engajados, partisan foi despromovido.alguns empregados perguntaram numa reunião da empresa se esta “melhor fonte de notícias” poderia tornar-se permanente, segundo os tempos.
- visite a página inicial do Business Insider para mais histórias.
nos dias seguintes à eleição presidencial dos EUA, o Facebook fez algumas mudanças de emergência em seu algoritmo.The New York Times reports the company changed the way it promoted and despromoted content on people’s news feeds after employees noticed an alarming amount of misinformation spreading on the platform.
The change meant the algorithm assigned more importance to posts from established news organisations such as CNN, The New York Times, and NPR. Isso foi baseado em uma métrica interna que a empresa usa chamada “qualidade do ecossistema de notícias”, abreviado para NEQ.editores com um NEQ elevado beneficiaram da mudança, enquanto páginas partidárias mas altamente engajadas, como Breitbart e Occupy Democrats, foram despromovidas.três pessoas com conhecimento do assunto disseram às vezes que o CEO do Facebook, Mark Zuckerberg, assinou pessoalmente a mudança.
a mudança foi supostamente popular com alguns funcionários no Facebook, e duas fontes disseram em uma reunião realizada uma semana após a eleição que os funcionários perguntaram se a “melhor notícia feed” poderia se tornar uma característica permanente.
não é claro a partir do relatório do Times se e quando Esta característica foi rolada para trás.de acordo com o Times, o Facebook também realizou pesquisas no início de novembro sobre se o conteúdo compartilhado em sua plataforma é predominantemente “bom para o mundo” ou “ruim para o mundo”.”A empresa pesquisou os usuários, pedindo-lhes para categorizar posts específicos como um ou outro.
os pesquisadores do Facebook encontraram uma correlação entre posts ganhando muitos pontos de vista e sendo categorizados como “ruim para o mundo.”
Facebook, em seguida, treinou um algoritmo para prever quais posts usuários iriam encontrar “ruim para o mundo” e torná-los menos visíveis nos feeds das pessoas. Um relatório interno descobriu que o algoritmo conseguiu isso bastante bem, mas isso correlacionou-se com a abertura do Facebook com menos frequência.
“os resultados foram bons, exceto que levou a uma diminuição nas sessões, o que nos motivou a tentar uma abordagem diferente”, um resumo das conclusões do relatório vistas pelo Times disse.
subseqüentemente, a empresa modificou este algoritmo para demotar o conteúdo “ruim para o mundo” menos rigorosamente.