Muss die Blase platzen?

Wie Algorithmen unser Denken beeinflussen

Wir kreieren unsere eigene Filterblase durch unsere Sozial-Media-Nutzung / Bild: Derick Anies, // Unsplash, Design: Eileen Linke

Die sozialen Netzwerke gelten als digitale Tore zur Welt. Nur ein Klick genügt, um mit Menschen aus verschiedensten Ländern und unterschiedlichsten Meinungen in Kontakt zu treten. So steht der Erweiterung des Horizonts nichts mehr im Weg.

Doch mit der Zeit wandelt sich das vielfältige Angebot auf Instagram, Facebook und Co. – sie werden zum Dauerwohnsitz der immer gleichen Werbung, derselben Ankündigungen und Vorschläge. Diversität ist plötzlich von gestern. Wir sind gefangen in unserer ganz persönlichen Filterblase.

Was ist eine Filterblase?

Namensschöpfer Eli Pariser beschreibt die Filterblase als das auf ein Individuum zugeschnittenes und einzigartiges Informationsuniversum, in dem eine Person online lebt. Sie ensteht durch die algorithmische Bearbeitung des Internets. Algorithmen sind im Grunde die Mathematik, die Computer benötigen um Entscheidungen zu treffen. Sie ermöglichen Unternehmen wie beispielsweise Facebook oder Google Informationen an die Nutzer*innen anzupassen. Ihr Ziel dabei: Die Konsument*innen auf ihrer Plattform zu halten und so Profit zu schlagen. Dabei beziehen sich die Algorithmen auf die verwendete Suchmaschine, die Art des Computers und seinen Standort. Bei Facebook sind vor allem die Wahl der Freund*innen, der getätigten Likes und angeklickten Links von Interesse. Auf diesem Weg wird ein ganz individueller Newsfeed erstellt. Problematisch dabei ist, dass die Nutzer*innen keinen Einfluss darauf haben, welche Themen bleiben und welche gehen.

Wie wirkt der Filterblaseneffek?

2012 veröffentlichte spreadprivacy – eine Suchmaschine, die angibt, keine persönlichen Daten zu sammeln – eine Studie, die aufdeckte, dass Google-Filter womöglich Einfluss auf die im selben Jahr stattgefundene US-Präsidentschaftswahl genommen hatte, indem sie 10 Millionen mehr Einträge für Obama, als für seinen republikanischen Gegner Mitt Romney einfügten. Darauf folgte eine Studie des Wall Street Journal, die offenlegte, dass die Suchresultate derjenigen individualisiert worden sind, die bereits zuvor nach Obama gesucht hatten, jedoch nicht die derer, die nach seinem Konkurrenten fragten. Solch ein Eingriff sei relevant, wenn somit politische Meinungen geformt und Wahlen entschieden werden. Die Kon-troverse veranlasste Facebook-Gründer Mark Zuckerberg den Umstand selbst zu untersuchen. Das Ergebnis bestätigte die Filterblase. Die bereitgestellten Meldungen tendieren dazu, die Sicht der Konsument*innen zu bekräftigen, statt diese kritisch zu hinterfragen.

Welchen Einfluss besitzt der*die Nutzer*in?

Bedeutend bei der Zusammenstellung der individuell zugeschnittenen Inhalte sei, über was sich die jeweilige Person informiert und wen sie als Freund*innen wählt. Das heißt, wenn uns eine Bandbreite an Themen zur Verfügung stehe, wir uns aber für diese nicht interessieren, sei es nicht die Schuld der Algorithmen. Schließlich verdienen Zuckerberg und Co. an Anzeigen.Warum also die Nutzer*innen mit Informationen füttern, die sie nicht konsumieren. Die Untersuchungen zeigen, dass Algorithmen per se nicht die Übeltäter sind, sondern vielmehr die Daten, die in sie eingespeist werden: Daten über uns und unseren freien Willen. Wir besitzen die Freiheit unsere eigene Filterblase zu konstruieren. Anders gesagt: Wer ausschließlich mit Gleichgesinnten in Verbindung tritt und jede*n aussortiert, der*die nicht gleicher Meinung ist, solle sich nicht wundern, sich in einer Blase der eigenen ideologischen Auffassung wieder zu finden.

Der Kern der Theorie

Eli Pariser antwortete auf die Facebook Studie und schrieb in einem Artikel, dass das Thema der Filterblase sich mit zwei wichtigen Punkten auseinandersetze. Erstens: Algorithmen helfen dem Menschen dabei, sich mit Wissen zu umgeben, welches ihn in seiner Meinung bestätigt. Zweitens: Algorithmen neigen dazu, die Art von Medien herabzustufen, die in einer Demokratie als essenziell angesehen werden: differenziertes Wissen. Ebenso hebt Pariser hervor, dass die Studie von Facebook über Facebook handele, also nicht als unvoreingenommen gelten könne.

„Und das bringt uns sehr schnell zu einer Welt in der das Internet uns zeigt, wovon es denkt, dass wir es sehen wollen, aber nicht zwangsläufig, was wir sehen sollten.“

Eli Pariser, TEDTalk 2013

Ob Brexit, Trump oder die AfD – heutige politische Entwicklungen können nicht ausschließlich auf das Internet und seine ‚hinterhältigen‘ Algorithmen geschoben werden. Uneinigkeit verschwindet nicht im überarbeitetem Code. Es kommt auf die Kritikfähigkeit der Menschen und deren Bereitschaft an, den eigenen Standpunkt kritisch zu hinterfragen. Dennoch, das World Wide Web und all seine Extras haben einen unleugbaren Einfluss auf unser Denken. In den Worten von Eli Pariser: „Wir müssen garantieren, dass sie uns auch Dinge zeigen, die unbequem oder herausfordernd oder wichtig sind“.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*