- In den Tagen nach der US-Wahl hat der CEO von Facebook, Mark Zuckerberg, eine Algorithmusänderung am Newsfeed der Plattform vorgenommen, um Fehlinformationen zu bekämpfen, berichtet die New York Times.
- Die Änderung bedeutete, dass etablierte Nachrichtenseiten beworben wurden, während Inhalte von engagierteren, parteiischen Websites herabgestuft wurden.
- Einige Mitarbeiter fragten in einer Betriebsversammlung, ob dieser „schönere Newsfeed“ dauerhaft werden könne, berichtete die Times.
- Besuchen Sie die Homepage von Business Insider für weitere Geschichten.
In den Tagen nach der US-Präsidentschaftswahl hat Facebook einige dringende Änderungen an seinem Algorithmus vorgenommen.Die New York Times berichtet, dass das Unternehmen die Art und Weise geändert hat, wie es Inhalte in den Newsfeeds der Leute beworben und herabgestuft hat, nachdem Mitarbeiter eine alarmierende Menge an Fehlinformationen auf der Plattform bemerkt hatten.Die Änderung bedeutete, dass der Algorithmus den Beiträgen etablierter Nachrichtenorganisationen wie CNN, der New York Times und NPR mehr Bedeutung beimaß. Dies basierte auf einer internen Metrik, die das Unternehmen als „News Ecosystem Quality“, abgekürzt NEQ, verwendet.Verlage mit einem hohen NEQ profitierten von der Änderung, während parteiische, aber sehr engagierte Seiten wie Breitbart und Occupy Democrats degradiert wurden.Drei Personen mit Kenntnis der Angelegenheit sagten der Times, dass Facebook-CEO Mark Zuckerberg die Änderung persönlich unterzeichnet habe.Die Änderung war Berichten zufolge bei einigen Mitarbeitern von Facebook beliebt, und zwei Quellen sagten bei einem Treffen, das eine Woche nach der Wahl stattfand, dass Mitarbeiter fragten, ob der „schönere Newsfeed“ ein dauerhaftes Merkmal werden könnte.
Aus dem Bericht der Times geht nicht hervor, ob und wann diese Funktion zurückgesetzt wurde.
Laut der Times hat Facebook Anfang November auch untersucht, ob die auf seiner Plattform geteilten Inhalte überwiegend „gut für die Welt“ oder „schlecht für die Welt“ sind.“ Das Unternehmen befragte die Nutzer und bat sie, bestimmte Beiträge als das eine oder andere zu kategorisieren.
Die Facebook-Forscher fanden einen Zusammenhang zwischen Posts, die viele Aufrufe erhielten und als „schlecht für die Welt“ eingestuft wurden.Facebook trainierte dann einen Algorithmus, um vorherzusagen, welche Beiträge Benutzer „schlecht für die Welt“ finden würden, und sie in den Feeds der Leute weniger sichtbar zu machen. Ein interner Bericht fand heraus, dass der Algorithmus dies ziemlich gut erreichte, aber dies korrelierte mit Nutzern, die Facebook seltener öffneten. „Die Ergebnisse waren gut, außer dass es zu einem Rückgang der Sitzungen führte, was uns motivierte, einen anderen Ansatz zu versuchen“, heißt es in einer Zusammenfassung der Ergebnisse des Berichts, die von der Times eingesehen wurde.
Anschließend hat das Unternehmen diesen Algorithmus optimiert, um „schlecht für die Welt“ -Inhalte weniger streng zu degradieren.