Filterblasen und Echokammern

bubble.pngAls Filterblase oder Echokammer („echo chamber“) bezeichnen wir das Phänomen, dass Nutzer_innen an vielen Stellen im Netz eine homogene Auswahl an Nachrichten und Meinungen präsentiert werden. Durch Algorithmen versuchen viele Dienste, ihren Nutzer_innen eine möglichst personalisierte Auswahl an Informationen, basierend auf dem Standort, der Suchhistorie und den Vorlieben bereit zu stellen. Dies kann dazu führen, dass das eigene Weltbild kaum mehr in Frage gestellt wird, weil andere Meinungen und Ideen gar nicht mehr wahrgenommen werden. Dies kann auch zu einer vermehrten Verbreitung von Hate Speech – und letzten Endes auch zu mehr Hass – führen. In diesem Dossier geben wir einen Überblick über das Thema und zeigen Wege aus der Filterblase auf.

Wie funktionieren Filterblasen?

Der Begriff Filterblase (engl. „Filter bubble“) stammt vom US-amerikanischen Autor Eli Pariser, der 2011 das Phänomen in seinem gleichnamigen Buch beschrieb. Er bezeichnet damit das „persönliche Informationsuniversum“, das uns durch personalisierte Filter dargeboten wird. Sowohl Suchmaschinen als auch soziale Netzwerke können ihren Nutzer_innen gar nicht alle Informationen über die sie verfügen, anzeigen, da wir sonst in der Datenflut ertrinken würden. Es muss also eine Filterung und Sortierung vorgenommen werden. Immer häufiger wird diese nicht für alle Nutzer_innen gleich, sondern personalisiert vorgenommen. Natürlich sind diese Mechanismen bis zu einem gewissen Grad sinnvoll: Wer in Luxemburg nach „Pizzeria“ sucht, wird sich kaum für die beste Pizzeria in Los Angeles interessieren. An Filterblasen sind jedoch nicht nur die Algorithmen der Seiten und Netzwerke Schuld, sondern auch die Nutzer_innen selbst: Natürlich umgeben wir uns in sozialen Netzwerken wie auch im realen Leben mit Menschen, die die gleichen Einstellungen wie wir selbst teilen. Diese posten vor allem Artikel, die ihre Weltsicht bekräftigen. So entsteht schnell der Eindruck, dass die eigene Meinung von der ganzen Welt geteilt würde. Dieses Phänomen wird auch „Echokammer“ genannt.

Google

Google bietet eine ganze Reihe von Diensten an, von denen die meisten von uns zumindest einige regelmäßig benutzen. Dadurch ist es dem Suchmaschinenbetreiber möglich, sehr viele Daten über seine Nutzer_innen zu sammeln. Diese fließen in das Ergebnis einer Suche ein, genauso wie der aktuelle Standort, den Google anhand des Internetanschlusses oder der Ortungsfunktion eines Smartphones ermitteln kann. So werden Nutzer_innen, die in Luxemburg nach einer Abkürzung suchen, eher Ergebnisse angezeigt, die etwas mit Luxemburg zu tun haben. Eli Pariser behauptet, die Ergebnisse in Google würden sich je nach Nutzer_in sehr stark voneinander unterscheiden. Ob dies stimmt, lässt sich allgemein schwer beurteilen, da die Algorithmen, mit denen Google arbeitet, nicht öffentlich sind und somit die Beurteilungskriterien, nach denen die Ergebnisse für die jeweiligen Nutzer_innen zusammengestellt werden, nicht transparent sind. Somit wissen wir auch nicht genau, wie stark der Effekt der „Personalisierung“ der Google-Suchergebnisse ist. Jacob Weisberg, Chefredakteur des Magazins „Slate“, behauptet zum Beispiel, dass die Personalisierungeffekte bei der Suche relativ klein seien und zitiert ein Experiment, das er mit mehreren Bekannten mit sehr unterschiedlichen politischen Ansichten durchgeführt hat. Das Unternehmen lässt außerdem verlautbaren, dass spezielle Algorithmen dafür sorgen würden, dass die Personalisierung nicht Überhand nimmt. Es ist auch möglich, die Personalisierung anhand der eigenen Such-Historie bei Google abzuschalten – was jedoch nicht verhindert, dass Google anhand von Cookies und dem eigenen Standort die Suchergebnisse „personalisiert“.

Soziale Netzwerke

In sozialen Netzwerken, allen voran Facebook, arbeiten Algorithmen daran, den Nutzer_innen stets eine interessante Timeline zu bieten. Ziel ist es, die Nutzer_innen möglichst viel Zeit auf der Seite verbringen zu lassen (und sie hoffentlich dazu zu bringen, die eine oder andere Anzeige anzuklicken). Was genau im Newsfeed angezeigt wird, lässt sich vom Facebook-User aber auch beeinflussen: Freund_innen können als „besonders wichtig“ ausgewählt werden, so dass ihre Beiträge immer zuerst erscheinen, Facebook-Seiten können abonniert und nur geliked werden und es ist bei jedem Beitrag möglich, Facebook mitzuteilen, dass man weniger Posts von einer bestimmten Person bzw. Seite angezeigt bekommen möchte. Das gilt auch für Werbeanzeigen, die ebenfalls nach den (vermuteten) Präferenzen der Nutzer_innen angezeigt werden. Natürlich möchte Facebook vor allem positive Gefühle vermitteln, so dass nach einiger Zeit vor allem Inhalte angezeigt werden, von denen Facebook vermutet, dass sie Likes und Klicks bringen. Dadurch, dass wir dazu neigen, uns auch virtuell mit gleichgesinnten Freund_innen zu umgeben (oder die anderen gezielt auszublenden), sind die Inhalte, die wir sehen, weitestgehend homogen. Im Zuge der Präsidentschaftswahlen in den USA und in Österreich im Jahr 2016 haben verschiedene Medien beispielhaft „linke“ und „rechte“ Facebook-Timelines erstellt, die zeigen, wie unterschiedlich der Blick auf gewisse Themen sein kann, je nachdem, welche Facebook-Seiten man abonniert hat:

Washington Post: Blue Feed, Red Feed: http://graphics.wsj.com/blue-feed-red-feed/

derStandard.at: Grünes Netz, Blaues Netz: http://derstandard.at/2000048426887/Was-Hofers-und-Van-der-Bellens-Anhaenger-auf-Facebook-sehen

Auch andere soziale Netzwerke treiben mit der Personalisierung der Timeline die Dynamik von Filterblasen weiter voran: das Foto-Netzwerk instagram hat beispielsweise vor nicht all zu langer Zeit von einer rein chronologischen auf eine durch Algorithmen zusammengestellte Timeline der angezeigten Fotos umgestellt. Andere Netzwerke wie twitter oder tumblr führten zwar ähnliche Features ein, diese lassen sich aber meistens abstellen und werden von den Nutzer_innen nicht unbedingt begrüßt. Außerdem ist zu beachten, dass bei diesen Netzwerken die Zusammenstellung der Inhalte („Wem folge ich?“) sowieso sehr viel persönlicher und interessensbezogener erfolgt als bei Facebook. Das heißt, dass die Filterblasen in diesen Netzwerken unter Umständen „dichter“ sind als beispielsweise bei Facebook. Da z.B. twitter (bei entsprechenden Einstellungen) jedoch jeden tweet in chronologischer Reihenfolge anzeigt, lässt sich viel leichter eine ausgewogenere Timeline zusammenstellen als dies bei Facebook möglich ist. Facebook ist das am meisten genutzte soziale Netzwerk und wird als solches von sehr vielen Nutzer_innen als primäre Nachrichtenquelle benutzt.

Gefahren von Filterblasen

Die Gefahren von Filterblasen sind klar: Wenn wir immer mit den gleichen Meinungen konfrontiert werden, vergessen wir ziemlich schnell, dass es auch noch andere Arten gibt, die Welt zu sehen, die Fähigkeit zum kritischen und konstruktiven Diskurs geht uns verloren. Allerdings dürfen wir nicht vergessen, dass Menschen immer schon „Filterblasen“ aufgebaut haben: Wir umgeben uns mit gleichgesinnten Freund_innen, wir sind in Vereinen mit Menschen, die die gleichen Interessen haben wie wir, wir organisieren uns in Parteien, Verbänden, Gewerkschaften und ähnlichen Organisationen, um unsere Interessen zu vertreten. Natürlich richtete sich auch immer schon der Medienkonsum nach den persönlichen Vorlieben (sofern es kein Monopol gab, wie es lange Zeit in der Rundfunklandschaft der Fall war) – insofern sind wir heute in der komfortablen Position, das gesamte Meinungsspektrum in wenigen Klicks durchlesen zu können. Wir könnten uns also auch fragen, ob unsere Filterblasen in den letzten Jahrzehnten nicht sehr viel größer geworden sind, da wir ja (zumindest theoretisch) viel mehr verschiedene Nachrichtenquellen sehen. Eine Studie des „Reuters Institute“ hat herausgefunden, dass Menschen, die soziale Netzwerke als Nachrichtenquelle benutzen, oft ein vielfältigeres Nachrichtenangebot nutzen als jene, die soziale Netzwerke nicht nutzen. Eine Studie von Steh Flaxman an der Universität von Oxford hat herausgefunden, dass Artikel, die über social media gefunden werden, tatsächlich häufig polarisierender sind als jene, die über das direkte Aufrufen einer Newsseite gefunden werden. Außerdem fanden Flaxman und seine Kollegen heraus, dass Menschen, die viel in social media unterwegs sind, auch oft Artikel lesen, die nicht ihrer Weltsicht entsprechen. Insgesamt seien diese Effekte (sowohl die Filterblase als auch der Kontakt mit vielen verschiedenen Meinungen) jedoch ziemlich schwach und der Medienkonsum würde online sehr ähnlich verlaufen wie mit traditionellen Medien.

Auch wenn die Filterblasen vielleicht gar nicht so neu oder so schrecklich sind, wie manch aufgeregter Presseartikel uns weismachen will: Unterschätzen sollten wir die Gefahren, die von einseitigem Medienkonsum ausgeht, auf keinen Fall! Gerade Facebookseiten verfolgen oft eine einschlägige politische Agenda und fokussieren sich auf ein einziges Thema, das dann massenhaft wiederholt wird. Wer jeden Tag Berichte über kriminelle Flüchtlinge liest, wird irgendwann der Meinung sein, die Kriminalitätsrate von Flüchtlingen sei besonders hoch – auch wenn dies überhaupt nicht der Realität entspricht. Diese Technik nennt sich „Framing“, die Übergänge zu Falschinformationen im Netz sind fließend [Mehr über Falschinformationen im Netz lesen sie in hier unserem Dossier]. Es ist also nicht nur wichtig, sich aus vielen verschiedenen Quellen zu informieren, sondern auch auf die Zusammenstellung der Nachrichten zu achten. Wer jeden Tag in einem anderen Restaurant Pommes isst, ernährt sich dadurch auch nicht gesünder als wenn er das jeden Tag in dem gleichen tut.

Auswege aus der Filterblase

Die Frage nach einem Ausweg aus der Filterblase stellt sich recht schnell. Niemand von uns will sich einseitig informieren, wichtige Debatten verpassen oder von Falschinformationen und Fake News in die Falle gelockt werden. Viele verschiedene Meinungen zu hören gehört auch zum Kern unserer Demokratie: nur mündige und umfassend informierte Bürger_innen können bei einer Wahl eine Entscheidungen treffen.

Die Seite t3n.de hat einige Tipps zusammengestellt, wie man der Filterblase entkommen kann.

Folgendes empfiehlt BEE SECURE:

Tracking verhindern

Tracking, also die Verfolgung von Nutzer_innen durch Cookies und andere Technologien, steht immer am Anfang der Filterblase. Je mehr eine Webseite über sie weiß, umso detaillierter kann sie die Filterblase zusammenschnüren. In einigen Browsern können sie die Do-Not-Track-Funktion einschalten. DNT ist ein neuer Standard, der von einigen, aber bei weitem nicht allen Webseiten akzeptiert wird. Die Funktion bietet damit keinen vollständigen Schutz, ist aber ein erster Schritt und ein Signal für die informationelle Selbstbestimmung als Nutzer_in. Die Webseite http://donottrack.us/ erklärt, wie die Funktion aktiviert werden kann.

Ein anderes Mittel gegen Tracking können Plugins sein, zum Beispiel Ghostery, das sehr effektiv vor Tracking schützt. Eine Liste von anderen Plugins findet sich in diesem Artikel von Lifehacker.

Weitere Infos zur Wahrung ihrer Privatsphäre beim Browsen, inklusive detaillierter Anleitungen, finden sie in diesem Dossier.

Andere Suchmaschinen verwenden

Um den personalisierten Suchergebnissen von Google zu entkommen, kann man einfach eine andere Suchmaschine verwenden. Obwohl Google zum Quasi-Monopolisten wurde, gibt es einige Anbieter, die gute Suchergebnisse mit Anonymität ihrer Nutzer_innen verknüpfen, zum Beispiel duckduckgo.com oder unbubble.eu.

Medienkonsum ändern

Lesen sie gezielt auch Medien, die nicht unbedingt ihrer politischen Präferenz entsprechen. So können sie vergleichen, wer wie über welche Themen schreibt und sich ein eigenes Bild machen. Ein guter Ausgangspunkt kann die Seite newstral.com sein, die die Schlagzeilen vieler verschiedener deutschsprachiger Medien anzeigt. Natürlich bietet auch news.google.com/ einen ähnlichen Überblick über die Medienlandschaft. Sie können auch selbst Experimente durchführen, indem sie z.B. eine Woche lang die Nachrichten eines anderen Radiosenders hören und sie mit dem vergleichen, was sie normalerweise konsumieren. Das gleiche gilt für Fernsehnachrichten oder Newsseiten im Netz.

Facebook-Einstellungen überprüfen

Sie können auf Facebook einerseits überprüfen, welche Interessen Facebook für sie gespeichert hat, dies unter dem Link https://www.facebook.com/ads/preferences/edit/ – es handelt sich dabei um die Interessen, die Werbekund_innen angeben können und die Facebook mit ihnen verbindet. Es ist jedoch davon auszugehen, dass diese Interessen auch für das Verhalten des normalen Newsfeed bei Facebook genutzt werden. Allerdings ist das Entfernen eines „Interesses“ auch eine Information von Facebook, denn das soziale Netzwerk weiß so, womit sie nichts (mehr) zu tun haben wollen.

Mit einem Klick auf das „…“-Symbol neben „News Feed“ lassen sich die Einstellungen für den Newsfeed öffnen und sie können sehen, welche Seiten und Personen sie priorisiert oder verborgen haben. Sie können sich überlegen, ob sie – um ihre Filterblase zu vergrößern – alte Bekannte wieder in ihren Newsfeed lassen. Aber auch neue Seiten können helfen, eine ausgewogenere Diät in der Facebook-Timeline zu haben: Liken sie z.B. Medien, die sie sonst nicht lesen oder Parteien, die sie nicht wählen.

Fazit

Der Filterblasen-Effekt existiert, aber wir wissen allerdings nicht, wie groß er ist und wie stark es möglich ist, ihn z.B. politisch auszunutzen. Da die Algorithmen sozialer Netzwerke und Suchmaschinen nicht öffentlich und transparent sind, ist es schwierig, die Effekte sozialer Netzwerke und Suchmaschinen auf unser Medienkonsum überhaupt zu messen. Sich allumfassend und „neutral“ zu informieren ist alleine durch den hohen Zeitaufwand nicht möglich – wir sollten unsere Medien also möglichst bewusst konsumieren, regelmäßig überprüfen, ob wir uns einseitig informieren und unsere Weltbilder in Frage stellen – sowohl online als auch offline!

Quellen:

Raus aus der Filterblase:

Tracking verhindern:

Download

pubthumb-filterblasen.png