MediaCulture-Online Blog

06.07.2017 | Ina Mangold

Die berühmt-berüchtigte Filterblase

Sind wir meinungstechnisch in Blasen gefangen? Wenn ja, wie können wir sie platzen lassen? Bild: Unsplash.com, Lizenz: CC0

Was passiert, wenn ich immer nur meine Meinung höre? Wenn ich nie die Gegenseite in einer Diskussion betrachte, immer nur bestätigt werde und gar nicht mitbekomme, dass ein Thema kontrovers diskutiert wird? Dann lebe ich in meiner Meinungsblase. Online entsteht diese durch Soziale Netzwerke, weil für mich nach dem gefiltert wird, was ich hören möchte. Die Blase wird zur Filterblase.

 

Der Begriff Filterbubble (deutsch Filterblase) wurde 2011 von Politaktivist Eli Pariser in seinem Buch „Filter Bubble: Wie wir im Internet entmündigt werden“ geschaffen. Ihm fiel auf, dass er auf Facebook immer weniger von seinen Kontakten, die konservativ orientiert waren, las. Der verdächtigte Übeltäter: Der Facebook-eigene Algorithmus.

 

Ein Algorithmus bestimmt, wie ein Computerprogramm sich verhalten soll. Bei Sozialen Netzwerken bedeutet das, welche Inhalte mir in meinem Feed angezeigt werden. Je nachdem wie ein Algorithmus programmiert wurde, kann er die Priorität darauf setzten, Inhalte von Freunden anzuzeigen, mit denen ich oft in Kontakt stehe. Oder aber er zeigt mir Inhalte, die ich häufig ignoriere, einfach gar nicht mehr an. 

Interessen schaffen Filterbubbles

Bei den Präsidentschaftswahlen in den USA 2017 wird das Phänomen Filterbubbles für Trumps Sieg mitverantwortlich gemacht. Bild: Unsplash.com, Lizenz: CC0

Filterblasen entstehen also durch den Versuch, News-Feeds in Sozialen Netzwerken zu personalisieren: Uns werden durch Algorithmen ausgewählte Themen angezeigt, die uns potenziell gefallen und unsere zuvor registrierten Interessen bestätigen oder ihnen ähneln. Was sich nutzerfreundlich anhört, kann bei der politischen Meinungsbildung dennoch weitreichende Folgen haben – siehe Präsidentschaftswahl USA 2017.

 

Für Viele war der Wahlausgang bei den diesjährigen Präsidentschaftswahlen eine Überraschung. Neben dem Vorwurf der einseitigen Berichterstattung der Medien wurde dem Phänomen der Filterbubbles eine Mitschuld zugesprochen. Social-Media-User hätten nur ihre eigene, widergespiegelte Meinung in ihren Feeds zugespielt bekommen, diese auf Grund ihrer Allgegenwärtigkeit für die grundlegende Stimmung im Lande missinterpretiert und seien so getäuscht worden.

Beeinflusst von Algorithmen

Dieser einseitige Newsfeed kann neben einem verzerrten Meinungsüberblick auch Einfluss auf die Meinung der Nutzer/-innen selbst haben. Durch eine einseitige Berichterstattung wird die eigene Weltansicht verstärkt, mehrere andere dabei ignoriert. Zum einen fehlt dadurch die Möglichkeit einer umfassenden Reflexion eines Themas, zum anderen besteht die Gefahr der Anpassung an eine der ständig dargestellten Meinungen. So könnte jemand von einer gemäßigten Ansicht zu einer – übertrieben formuliert – extremen Ansicht geführt werden.

 

Sollten Leute in so starken Filterblasen „gefangen“ sein, besteht der Verdacht der indirekten Manipulation. Allerdings hat die Süddeutsche Zeitung (SZ) in einer Datenrecherche zur politischen Landschaft auf Facebook festgestellt, dass es „dicht versiegelte Filterblasen […] auf politischer Ebene im deutschen Facebook praktisch nicht“ [1] gibt. Die SZ hat im Rahmen ihrer Recherche Facebook-Likes von rund 5.000 politisch interessierten Facebook-Nutzer(-inne)n ausgewertet. An den Algorithmen selbst nachzuweisen, dass nur bestimmte Inhalte ausgewählt werden, ist schwierig: Da die Algorithmen die jeweiligen Erfolgsrezepte bei Facebook, Google & Co. sind, stehen diese unter Geheimhaltung – und sowieso viel zu komplex, um schnell Ergebnisse daraus ziehen zu können.

Kann Social Media überhaupt mehr als Unterhaltung?

Würde man sich immer in der gleichen Gruppe unterhalten und nicht auf gegensätzliche Meinungen treffen, würde eine Filterbubble in der realen Welt entstehen. Bild: Unsplash.com, Lizenz: CC0

Doch eine wichtige Frage bleibt als grundlegende Kritik an Filterblasen: Soziale Netzwerke als Informationskanal – geht das überhaupt? Twitter hat sich nach und nach zu einer Art Nachrichtenkanal in Echtzeit entwickelt. Passiert etwas auf der Welt, kann man davon ausgehen, dass man die ersten, unbestätigten Informationen und Eindrücke von Augenzeugen auf der Plattform findet. Auch auf Facebook betreiben Nachrichtenformate eigene Seiten, um ihre Follower zu informieren. Dabei muss beachtet werden: Soziale Netzwerke waren ursprünglich in erster Linie zur Unterhaltung gedacht. Vor allem Emotionen machten sie für die Nutzer/-innen interessant. Gefolgt wird also den Inhalten, von Interesse sind. Darauf ist dann auch selbstverständlich der Algorithmus ausgelegt: Was den Nutzer/-innen gefällt, bekommt er auch im Feed angezeigt. 

Filterblasen in der Unterhaltungswelt ein Muss

Unter diesem Aspekt ist ein vorsortierender Algorithmus auch gar nicht nur negativ zu betrachten: Bei der heutigen Masse an Informationen, vor allem im Unterhaltungsbereich, ist es nahezu unmöglich, alle Inhalte übersichtlich zu sortieren. Auch bei Suchen kann eine Vorauswahl, die auf zuvor gezeigten Interessen liegt, helfen: Habe ich bereits öfters nach einem 5-Sterne-Hotel gesucht, ist die Wahrscheinlichkeit gering, dass ich ein Hostel für den nächsten Urlaub buche.

 

Generell muss mir als Nutzer/-in bewusst sein, dass Soziale Netzwerke auch wirklich die Inhalte anzeigen, denen ich folge. Und dass aus diesen Inhalten unter Umständen nochmal aussortiert wird. Wer sich umfangreich informieren möchte, sollte daher selbst auf unterschiedlichen Plattformen nach verschiedenen Meinungen suchen. Eine Filterblase zu umgehen ist also ein Aspekt der Informationskompetenz. Der Mythos Filterblase sollte also nicht überschätzt werden: Viele Zeitungen haben schließlich auch eine politische Richtung – mit der wir entsprechend umgehen.

Quelle

[1] Brühl, Jannis/Brunner, Katharina/Ebitsch, Sabrina: Der Facebook-Faktor. Wie das soziale Netzwerk die Wahl beeinflusst. Süddeutsche Zeitung. [24.05.2017] [zurück]

Eltern, Internet / Web 2.0, Lehrkräfte, Soziale Netzwerke

Keine Kommentare
Kommentar hinzufügen

* = Pflichtfeld

*
*
*

CAPTCHA Bild zum Spamschutz
Wenn Sie das Wort nicht lesen können, bitte hier klicken.
*