In der Filterblase – Nutzer wichtiger als Algorithmen

Sorgen Soziale Netzwerke für Filterblasen, in denen die Nutzer nur noch bevorzugte Inhalte sehen? Entscheidet ein unbekannter Algorithmus darüber, was ich mitbekomme? Eine neue Studie resümiert: Die Nutzer selbst sind immer noch am wichtigsten.

Facebook-Mitglieder kennen das: Sobald man das Netzwerk auf Computer oder Smartphone öffnet, erscheinen Statusmeldungen, Fotos oder Artikel der virtuellen Freunde. Und während man die Posts überfliegt, fragt man sich manchmal: Wer genau entscheidet eigentlich, wessen Beiträge ich dort sehe?

Eine genaue Antwort gibt Facebook darauf nicht. Bekannt ist nur, dass verschiedene Faktoren die Reihenfolge beeinflussen: wie oft ein Nutzer das Netzwerk besucht zum Beispiel; wie oft er mit einem bestimmten Freund interagiert; oder wie oft er gewisse Inhalte anklickt. Aus dieser Mischung erstellt Facebook dann die individuelle Startseite.

Einerseits ist das auch gut so. Wer wirklich jeden Beitrag seiner Freunde registrieren müsste, würde entweder an seinen Freunden verzweifeln oder an Facebook – schlimmstenfalls beides.

Andererseits ist so eine computergestützte Auswahl bedenklich. Dadurch könnte Facebook mir letztendlich nur das anzeigen, was ohnehin meinen Interessen, meiner Meinung, meinem Weltbild entspricht – und Inhalte vermeintlich anders Denkender würden mir gar nicht erst angezeigt. Willkommen in der Filterblase.

Aber was genau ist Facebook denn nun wichtiger? Die Interaktion der Nutzer untereinander – oder entscheidet doch der kühl kalkulierende Algorithmus im Hintergrund?

Diesen Fragen widmete sich nun ein Team von Wissenschaftlern um Eytan Bakshy – und um es vorwegzunehmen: Das Ergebnis kann Netzkritiker fürs Erste beruhigen. „Im Schnitt sind bei Facebook individuelle Entscheidungen immer noch wichtiger als Algorithmen“, schreibt Bakshy.

Die Methode

Die Forscher analysierten für ihre Studie einen Datensatz, der die Beiträge von etwa 10,1 Millionen amerikanischer Facebook-Nutzer umfasste. Alle nutzten das Netzwerk mindestens vier Tage pro Woche und offenbarten dort auch ihre politische Einstellung – also ob sie eher liberal oder konservativ dachten.

Bakshy und Co. werteten nun einerseits aus, welche Art von Artikeln die Nutzer zwischen Juli 2014 und Januar 2015 mit ihrem Freundeskreis teilten? Insgesamt verbreiteten sie im Untersuchungszeitraum 3,8 Milliarden“harte“ Nachrichten aus Politik und Wirtschaft. 903 Millionen Links tauchten tatsächlich in den Newsfeeds der Nutzer auf, 59 Millionen Mal klickten sie die Artikel auch an.

Diese Artikel schauten sich die Forscher nun genauer an. Führte der Link auf eine eher liberale Nachrichtenseite wie die der „New York Times“ oder eine konservative wie „Fox News“? Welche Links tauchten tatsächlich in den Streams der Nutzer auf? Und widersprach dessen Inhalt der vermeintlichen Einstellung des jeweiligen Nutzers? Mit anderen Worten: Verteilte Facebook in den konservativen Kreisen vor allem konservative Inhalte – und liberale Texte bei den Liberalen?

Das Ergebnis

Der Facebook-Algorithmus alleine beeinflusste die Inhalte lediglich um ein Prozent. Doch der Klick eines Nutzers veränderte den angezeigten Inhalt immerhin um vier Prozent. Anders formuliert: Wie viele andere Meinungen ich von meinem Freundeskreis mitbekomme, liegt hauptsächlich an mir und meinen Freunden. Oder wie Bakshy schreibt: „Die Macht, sich mit anderen Ansichten auseinanderzusetzen, liegt weiterhin in den Händen der Nutzer.“

Zugegeben, die Studie bezieht sich nur auf amerikanische Facebook-Nutzer – die im Schnitt jünger und gebildeter sind als der Rest der US-Bevölkerung. Außerdem weiß natürlich niemand, ob die beobachteten Nutzer die jeweiligen Artikel auch tatsächlich komplett lasen – oder nur kurz anklickten.

Am 21. April verkündete Facebook Änderungen an der Organisation der Startseite. Das Netzwerk wolle sicherstellen, dass die Nutzer Beiträge jener Freunde sehen, „die ihnen am Herzen liegen“. Ob der Algorithmus dazu auch jene zählt, die eine andere Weltsicht vertreten?

Quelle:
Eytan Bakshy, Solomon Messing und Lada Adamic (2015). Exposure to ideologically diverse news and opinion on Facebook. Science

2 Kommentare

  1. Es war schon immer so, dass Menschen in einer Sphäre ihrer Sichtweisen gefangen sind, die von den eigenen Interessen und von Vorurteilen bestimmt ist. Der Filterblaseneffekt kommt uns Menschen m.E. insofern entgegen, als wir in unserer Wahrnehmung noch weiter eingeschränkt werden – und das macht die Welt für uns einfacher.

    Dabei nehmen wir durch Facebook, Twitter & Co. mehr Informationen auf als wir das früher taten. Aber einfacher wird die Welt für uns durch die Filterblase tatsächlich: Es gibt weniger widersprüchliche Informationen, ich muss mich mit weniger (mir vielleicht sogar unbequemen) anderen Ansichten auseinandersetzen. Aber leider: Selbst denken strengt an! 🙂

Hinterlasse einen Kommentar.

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert