- i dagene efter det amerikanske valg underskrev Facebook ‘ s CEO Mark usuckerberg en algoritmeændring til platformens nyhedsfeed i et forsøg på at bekæmpe misinformation, rapporterer ny york times.
- ændringen betød, at etablerede nyhedssider blev forfremmet, mens indhold fra mere engagerede partisanske sider blev degraderet.
- nogle medarbejdere spurgte på et virksomhedsmøde, om dette “pænere nyhedsfeed” kunne blive permanent, rapporterede Times.
- besøg Business Insider hjemmeside for flere historier.
i dagene efter det amerikanske præsidentvalg foretog Facebook nogle nødændringer i sin algoritme.virksomheden ændrede den måde, det promoverede og degraderede indhold på folks nyhedsfeeds, efter at medarbejderne bemærkede en alarmerende mængde misinformation, der spredte sig på platformen.
ændringen betød, at algoritmen tildelte stillinger fra etablerede nyhedsorganisationer som f.eks CNN, Det Ny York Times, og NPR. Dette var baseret på en intern måling, som virksomheden bruger kaldet “nyhedsøkosystemkvalitet”, forkortet til nek.
udgivere med en høj nek draget fordel af ændringen, mens partisanske, men meget engagerede sider, såsom Breitbart og Occupy Democrats, blev degraderet.tre personer med kendskab til sagen fortalte The Times, at Facebook ‘ s CEO Mark Usuckerberg personligt underskrev ændringen.Ændringen var angiveligt populær blandt nogle ansatte på Facebook, og to kilder sagde på et møde, der blev afholdt en uge efter valget, at medarbejderne spurgte, om det “pænere nyhedsfeed” kunne blive en permanent funktion.
det fremgår ikke af Times ‘ rapport, om og hvornår denne funktion er blevet rullet tilbage.
ifølge The Times gennemførte Facebook også tidligere i November forskning i, om indholdet, der deles på sin platform, overvejende er “godt for verden” eller “dårligt for verden.”Virksomheden undersøgte brugere og bad dem om at kategorisere specifikke indlæg som det ene eller det andet.Facebook-forskerne fandt en sammenhæng mellem indlæg, der fik mange synspunkter og blev kategoriseret som “dårligt for verden.”
Facebook trænede derefter en algoritme til at forudsige, hvilke indlæg brugerne ville finde “dårlige for verden” og gøre dem mindre synlige i folks feeds. En intern rapport fandt, at algoritmen opnåede dette ret godt, men dette korrelerede med brugere, der åbner Facebook sjældnere.
“resultaterne var gode, bortset fra at det førte til et fald i sessioner, hvilket motiverede os til at prøve en anden tilgang,” sagde et resume af rapportens resultater set af Times.
efterfølgende virksomheden sammenknebne denne algoritme til at degradere “dårligt for verden” indhold mindre stringent.