- i dagarna efter det amerikanska valet undertecknade Facebook: s vd Mark Zuckerberg en algoritmändring till plattformens nyhetsflöde i ett försök att bekämpa felinformation, rapporterar New York Times.
- förändringen innebar att etablerade nyhetssajter främjades, medan innehåll från mer engagerade partisanwebbplatser degraderades.
- vissa anställda frågade i ett företagsmöte om detta ”trevligare nyhetsflöde” kunde bli permanent, rapporterade Times.
- besök Business Insiders hemsida för fler berättelser.
under dagarna efter USA: s presidentval gjorde Facebook några nödändringar i sin algoritm.
The New York Times rapporterar att företaget förändrade hur det marknadsförde och degraderade innehåll på människors nyhetsflöden efter att anställda märkte en alarmerande mängd felinformation som sprids på plattformen.
förändringen innebar att algoritmen fick större betydelse för inlägg från etablerade nyhetsorganisationer som CNN, The New York Times och NPR. Detta baserades på ett internt mått som företaget använder kallat ”news ecosystem quality”, förkortat till NEQ.
Utgivare med hög NEQ gynnades av förändringen, medan partisan men mycket engagerade sidor, som Breitbart och Occupy Demokrater, degraderades.
tre personer med kunskap om saken berättade för Times att Facebook: s vd Mark Zuckerberg personligen undertecknade förändringen.förändringen var enligt uppgift populär bland vissa anställda på Facebook, och två källor sa vid ett möte som hölls en vecka efter valet att anställda frågade om ”trevligare nyhetsflödet” kunde bli en permanent funktion.
det framgår inte av Times rapport om och när den här funktionen har rullats tillbaka.
enligt Times genomförde Facebook också forskning tidigare i November om huruvida innehållet som delas på sin plattform är övervägande ”bra för världen” eller ”dåligt för världen.”Företaget undersökte användare och bad dem att kategorisera specifika inlägg som det ena eller det andra.Facebook-forskarna fann en korrelation mellan inlägg som fick massor av åsikter och kategoriserades som ”dåligt för världen.”
Facebook utbildade sedan en algoritm för att förutsäga vilka inlägg användare skulle hitta ”dåligt för världen” och göra dem mindre synliga i människors flöden. En intern rapport fann att algoritmen uppnådde detta ganska bra, men detta korrelerade med användare som öppnade Facebook mindre ofta.
”resultaten var bra förutom att det ledde till en minskning av sessionerna, vilket motiverade oss att prova ett annat tillvägagångssätt”, säger en sammanfattning av rapportens resultat som ses av Times.
därefter tweaked företaget denna algoritm för att degradera ”dåligt för världen” innehåll mindre strängt.