- In questi giorni, dopo le elezioni USA, Facebook CEO Mark Zuckerberg ha firmato off su un algoritmo di cambiare piattaforma news feed in uno sforzo per lottare contro la disinformazione, il New York Times riferisce.
- Il cambiamento significava siti di notizie stabiliti sono stati promossi, mentre i contenuti da siti più impegnati, partigiane è stato retrocesso.
- Alcuni dipendenti hanno chiesto in una riunione aziendale se questo “feed di notizie più bello” potesse diventare permanente, ha riferito il Times.
- Visita la homepage di Business Insider per ulteriori storie.
Nei giorni successivi alle elezioni presidenziali statunitensi, Facebook ha apportato alcune modifiche di emergenza al suo algoritmo.
Il New York Times riporta che la società ha cambiato il modo in cui ha promosso e retrocesso i contenuti sui feed di notizie delle persone dopo che i dipendenti hanno notato una quantità allarmante di disinformazione che si diffondeva sulla piattaforma.
Il cambiamento significava che l’algoritmo assegnava più importanza ai post di organizzazioni di notizie consolidate come CNN, New York Times e NPR. Questo era basato su una metrica interna che l’azienda utilizza chiamata “qualità dell’ecosistema delle notizie”, abbreviata in NEQ.
Gli editori con un alto NEQ hanno beneficiato del cambiamento, mentre le pagine partigiane ma altamente impegnate, come Breitbart e Occupy Democrats, sono state retrocesse.
Tre persone con conoscenza della questione hanno detto al Times che il CEO di Facebook Mark Zuckerberg ha firmato personalmente il cambiamento.
Il cambiamento è stato riferito popolare con alcuni dipendenti di Facebook, e due fonti hanno detto in una riunione tenutasi una settimana dopo le elezioni che i dipendenti hanno chiesto se il “notiziario più bello” potrebbe diventare una caratteristica permanente.
Non è chiaro dal rapporto del Times se e quando questa funzione è stata ripristinata.
Secondo il Times, Facebook ha anche condotto una ricerca all’inizio di novembre sul fatto che il contenuto condiviso sulla sua piattaforma sia prevalentemente “buono per il mondo” o “cattivo per il mondo.”La società ha intervistato gli utenti, chiedendo loro di classificare post specifici come uno o l’altro.
I ricercatori di Facebook hanno trovato una correlazione tra i post che ottengono molte visualizzazioni e vengono classificati come “cattivi per il mondo.”
Facebook ha quindi addestrato un algoritmo per prevedere quali messaggi gli utenti avrebbero trovato “cattivi per il mondo” e renderli meno visibili nei feed delle persone. Un rapporto interno ha trovato l’algoritmo raggiunto questo abbastanza bene, ma questo correlato con gli utenti che aprono Facebook meno spesso.
“I risultati sono stati buoni, tranne che ha portato a una diminuzione delle sessioni, che ci ha motivato a provare un approccio diverso”, ha detto una sintesi dei risultati del rapporto visti dal Times.
Successivamente la società ha ottimizzato questo algoritmo per declassare i contenuti” cattivi per il mondo ” in modo meno rigoroso.