Filterblase

Begriff der Medienwissenschaft
(Weitergeleitet von Informationsblase)

Filterblase (englisch filter bubble) oder Informationsblase ist ein Begriff der Medienwissenschaft, der vom Internetaktivisten Eli Pariser in seinem gleichnamigen Buch von 2011 geprägt wurde.[1][2] Laut Pariser entsteht eine Filterblase, weil Webseiten versuchen, algorithmisch vorauszusagen, welche Informationen der Benutzer auffinden möchte – das basierend auf den verfügbaren Informationen über den Benutzer (beispielsweise sein Standort, Suchhistorie und Klickverhalten). Daraus resultiere eine Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen. Die isolierende Wirkung von Filterblasen ist Gegenstand wissenschaftlicher Untersuchungen und gilt nicht allgemein als belegt.[3]

Durch die Anwendung von Algorithmen neigen Internetseiten dazu, dem Benutzer nur Informationen anzuzeigen, die mit seinen bisherigen Ansichten übereinstimmen. So wird er sehr effektiv in einer „Blase“ isoliert, die dazu tendiert, Informationen auszuschließen, die seinen bisherigen Ansichten widersprechen.

Ein Paradebeispiel dafür sind Googles personalisierte Suchergebnisse und der personalisierte News Stream von Facebook.[4] Nach Parisers Meinung wird der Benutzer so weniger durch gegenteilige Ansichten „belastet“ und somit in einer Informationsblase intellektuell isoliert.

Pariser bringt ein Beispiel, in dem ein Nutzer auf Google mit dem Stichwort „BP“ suchte und Nachrichten zu Investitionsmöglichkeiten von British Petroleum erhielt, während ein anderer mit der gleichen Suchanfrage Informationen über die von Deepwater Horizon verursachte Ölpest bekam – somit die beiden Suchanfragen völlig unterschiedliche Ergebnisse brachten.[4][5][6][7] Dieser isolierende Blaseneffekt könne nach Pariser negative Folgen für den Diskurs der Zivilgesellschaft haben. Jedoch gibt es auch gegenteilige Meinungen, die besagen, dass der Effekt minimal[7] und handhabbar sei.[8]

 
Eli Pariser, 2012

Das Konzept, mittels Amplifizierungs-Algorithmen die Aufmerksamkeit der Nutzer durch selektiv gefilterte Informationen zu fesseln, die deren Ansichten bestätigen, wird noch durch verstärkende Informationen gesteigert, die über eine Bestätigung hinaus Angst und Wut auslösen. Beispiele sind Hate Speech oder Verschwörungstheorien.[9]

Personalisierung

Bearbeiten

Personalisierung lässt sich wie folgt definieren:

Bei der Web-Personalisierung werden Inhalt und Struktur einer Web-Anwendung den besonderen Bedürfnissen, Zielen, Interessen und Vorlieben eines jeden Nutzers angepasst. Dazu wird ein Benutzermodell (englisch user model) erstellt, das die Annahmen und die Informationen erfasst, die das System über den Benutzer hat. Das System kann so voraussagen, was für den Nutzer relevant sein wird. Es filtert irrelevante Informationen heraus und erhöht so seine persönliche Relevanz für einen Benutzer.[10]

Nach Pariser verwendet Google zum Beispiel diverse „Signale“[11][12][13][14] (frühere Such-Stichworte, Standort, Status-Updates von Kontakten auf Sozialen-Netzwerk-Seiten etc.), um Suchergebnisse und die geschalteten Anzeigen an den Benutzer anzupassen (Targeted Advertising). Facebook beobachtet dagegen die Interaktionen eines Nutzers mit anderen und filtert Posts von bestimmten Nutzern. Das bedeutet, Benutzeraktivitäten (Klickhistorie) werden in eine einzige Benutzeridentität übersetzt und auf Grundlage dieser Identität werden bestimmte Informationen herausgefiltert.[10] Bis 2011 kam bei Facebook dafür der sogenannte EdgeRank-Algorithmus zum Einsatz,[15] der in Folge durch ein wesentlich komplexeres, maschinenlernendes System abgelöst wurde.[16]

Pariser umschreibt sein Konzept der Filterblase formal als „das persönliche Informations-Ökosystem, das durch diese Algorithmen geschaffen wird.“[4] Auch andere Termini wurden verwendet, um dieses Phänomen zu beschreiben, wie „ideologische Rahmen“ (engl. ideological frames)[5] oder auch „figurative Sphäre, die einen umgibt, wenn man im Internet sucht“.[17]

Der Suchverlauf sammelt sich im Laufe der Zeit an, wenn ein Internetbenutzer Interesse an bestimmten Themen zeigt, indem er auf die passenden Links klickt, Seiten von Freunden besucht, bestimmte Filme in die Warteschlange legt, ausgewählte Schlagzeilen liest und so weiter.[17] Für das Sammeln und die Analyse dieser Daten verwenden Webseitenbetreiber häufig Tracking-Dienste wie z. B. Google Analytics.[18] Internetfirmen verwenden diese Informationen dann, um Werbung auf die Bedürfnisse und den Geschmack des konkreten Benutzers zuzuschneiden oder um die passende Werbung an prominenterer Stelle im Suchergebnis unterzubringen.[17]

Parisers Besorgnis ähnelt den von Tim Berners-Lee 2010 geäußerten Bedenken wegen des Hotel-California-Effekts (etwa: herein geht es, aber nie mehr hinaus), der eintritt, wenn soziale Netzwerke im Internet Inhalte von Konkurrenz-Seiten abblocken und aussperren, um so einen größeren Teil der Netzgemeinde in ihrem Netzwerk zu haben. Je mehr man eingibt, desto mehr ist man eingeschlossen und an die Informationen innerhalb einer spezifischen Website gebunden. Sie wird zum abgeschlossenen „Betonbunker“ und es besteht das Risiko der Fragmentierung des World Wide Web, meint Tim Berners-Lee.[19]

Beispielsweise sind die Benutzer von Facebook in gewisser Weise für immer dort „gefangen“. Wenn sie sich irgendwann entscheiden sollten, das Netzwerk zu verlassen, wird ihr Benutzerprofil zwar deaktiviert, aber nicht gelöscht. Alle ihre persönlichen Informationen und das Protokoll aller ihrer Aktivitäten auf Facebook bleiben für immer auf den Servern von Facebook erhalten. So können sie die Facebook-Seite nie vollständig verlassen.

In seinem Buch The Filter Bubble warnt Pariser, dass ein potentieller Nachteil der gefilterten Suche ist, dass sie „uns von neuen Ideen, Themen und wichtigen Informationen ausschließt“[20] und den „Eindruck schafft, dass nur die Dinge existieren, die unser enges Selbstinteresse kennt“.[5] Das ist seiner Meinung nach potentiell schädlich, sowohl für den Einzelnen als auch für die Gesellschaft. Er kritisiert Google und Facebook dafür, dass sie auf Inhalte bezogen „zu viele Süßigkeiten und nicht genug Karotten“ anbieten.[21][22] Er warnt davor, dass wir „nur noch eingeschränkt neuen Informationen“ ausgesetzt sind und unsere Sichtweise eingeengt wird, dadurch dass „unsichtbare Algorithmen das Netz redaktionell bearbeiten“. Pariser denkt, dass die nachteiligen Auswirkungen der Filterblase auch umfassende Beeinträchtigungen für die Gesellschaft im Allgemeinen mit sich bringen, in dem Sinn, dass dadurch möglicherweise „der zivile Diskurs untergraben wird“ und die Menschen empfänglicher und anfälliger für „Propaganda und Manipulationen“ werden.[5]

Pariser schreibt:

„Eine Welt, die aus dem Bekannten konstruiert ist, ist eine Welt, in der es nichts mehr zu lernen gibt … [weil] es eine unsichtbare Autopropaganda gibt, die uns mit unseren eigenen Ideen indoktriniert.“

Eli Pariser, The Economist, 2011[23]

Die Vielfalt an zur Verfügung stehenden Nachrichten und Informationen, die quasi der Umfang einer Filterblase bilden, ist durch individuelle Unterschiede im Umfang des Nachrichtenkonsums schwer zu erfassen und zu quantifizieren.[24] Daher ist es zunächst wichtig zu definieren, welcher Kontext der Medienvielfalt genauer betrachtet werden soll. Laut Webster und Ksiazek (2012) kann hier der Fokus auf einen von drei Bereichen gelegt werden:[25]

  1. Medien, d. h. auf die Vielfalt der angebotenen Inhalte
  2. Einzelne Individuen und ihre personalisierte Auswahl an Informationen
  3. Die Struktur und Vielfalt einer Leser- oder Zuhörerschaft

Außerdem ist es wichtig zu klären, mit welchen Methoden die Nachrichtenvielfalt untersucht wird. Neben der Selbsteinschätzung wird insbesondere auf Datensammlungen zurückgegriffen, weil davon ausgegangen wird, dass Individuen den Umfang des ihnen theoretisch zur Verfügung stehenden Nachrichtenangebots nicht gänzlich überblicken können.[25] Diese Datensammlungen enthalten neben den ausgewählten Informationen also auch die theoretisch zur Auswahl stehenden Informationen.[26][27] Diese Informationen müssen für eine weitere Analyse zunächst in Kategorien eingeteilt werden, da einzelne Links, Bilder oder Dateien nicht aussagekräftig sind.[28] Nach dieser Einteilung können mittels semantischer Analyse Rückschlüsse auf die vorhandene Informationsvielfalt gezogen werden. Es ist anzumerken, dass die Algorithmen, die den eigentlichen Grund für personalisierte Informationen darstellen, meist nicht für eine direkte Analyse zur Verfügung stehen, da die Online-Unternehmen diese nicht veröffentlichen.[29]

Diskussion

Bearbeiten

Es gibt widersprüchliche Berichte über das Ausmaß, in dem personalisiertes Filtern zur Anwendung kommt, und ob Filtern für den Benutzer von Vorteil ist oder eher Nachteile mit sich bringt. Gelegentlich wird sogar davon gesprochen, dass der Begriff Filterblase „die blödeste Metapher des Internets“ sei.[30][31]

Der Analyst Jacob Weisberg, der für das Online-Magazine Slate schreibt, führte 2011 ein kleines, nicht repräsentatives Experiment durch, um Parisers Theorie zu überprüfen: Fünf Personen mit unterschiedlichen politischen Einstellungen suchten im Internet nach exakt den gleichen Suchbegriffen. Das Suchergebnis war bei vier Suchanfragen bei allen fünf Personen fast identisch. Daraus schließt er, dass es keinen Filterblasen-Effekt gebe und dass folglich diese Theorie der Filterblase übertrieben sei, wonach wir alle „am Futtertrog des Täglichen Ich[32] (englisch Daily Me) gefüttert werden“.[5] Für seine Buchrezension unternahm Paul Boutin einen ähnlichen Versuch mit Personen mit unterschiedlicher Suchhistorie. Er kam zu einem ähnlichen Ergebnis wie Weisberg: fast identische Suchergebnisse.[7] Empirische Untersuchungen mit mehr Versuchspersonen kommen zu denselben Ergebnissen[33][34][35] – eine Studie bezifferte die Wahrscheinlichkeit, dass zwei zufällig ausgewählte Personen bei der Suche nach einem bestimmten Begriff dieselben Ergebnisse in derselben Reihenfolge erhalten, gar bei 5–10 %.[36] Der Harvard-Informatik- und Juraprofessor Jonathan Zittrain bezweifelt das Ausmaß der Verzerrung des Suchergebnisses, das Google mit seinem personalisierten Filter erreicht. Er sagt, dass der Einfluss der personalisierten Suche auf das Suchergebnis nur gering sei.[5] Außerdem gibt es Berichte, dass der User bei Google die personalisierte Suche umgehen kann, wenn er möchte,[37] indem er die Suchhistorie löscht[7] oder andere Methoden einsetzt. Ein Sprecher von Google sagt, dass zusätzliche Algorithmen in Googles Suchmaschine integriert wurden, um die „Personalisierung zu begrenzen und die Vielfalt der Suchergebnisse zu erhöhen“.[5] Um sich grundsätzlich vor Tracking durch Webseitenbetreiber zu schützen, kann der Benutzer Plug-ins im Browser installieren, mit speziellen Einstellungen kann dazu z. B. uBlock Origin verwendet werden.[38]

In einer der bekanntesten wissenschaftlichen Untersuchungen zu Filterblasen untersuchten Bakshy et al. im Jahr 2015 die Auswirkungen der Personalisierung durch Algorithmen auf die dargebotene Informationsvielfalt von Facebook-Nutzern.[26] Durch eine Zusammenarbeit mit Facebook konnten sie dabei auf eine große Menge an anonymen Daten zugreifen. Die Ergebnisse ihrer Untersuchung zeigen, dass die Auswahl der einem Facebook-Nutzer dargebotenen Informationen nur zu einem geringen Anteil durch Algorithmen beeinflusst wird. Vielmehr scheint hier Social Homophily[39] zu wirken: Demnach umgeben sich Menschen sowohl online als auch offline gerne mit Menschen, die ihnen selbst ähnlich sind. Dadurch entsteht ein soziales Netzwerk, welches aus Individuen mit ähnlichen Ansichten, Einstellungen und Haltungen besteht. Ebenfalls einen großen Einfluss scheint der Selective-Exposure-Effekt zu haben, wonach Menschen bewusst und unbewusst Informationen filtern, die sie überhaupt wahrnehmen und lesen.[28]

Trotzdem gibt es Berichte, dass Google und andere Suchmaschinenbetreiber große Mengen an Informationen besitzen, die sie in die Lage versetzen könnten, zukünftig das „Interneterlebnis“ des Users weiter zu personalisieren, wenn sie sich entscheiden würden, das zu tun. Ein Bericht legt nahe, dass Google selbst dann das frühere Surfverhalten des Users verfolgen kann, wenn dieser kein persönliches Google-Konto hat oder nicht in seinem Google-Konto eingeloggt ist.[7] Ein anderer Bericht spricht davon, dass Google Unmengen an gesammelten Daten habe – im Umfang von zehn Jahren –, die aus verschiedenen Quellen stammen, wie beispielsweise Gmail, Google Maps und anderen von Google neben der eigentlichen Suchmaschine angebotenen Diensten.[6] Dem widerspricht allerdings ein Bericht, wonach der Versuch, das Internet für jeden Benutzer zu personalisieren, eine große technische Herausforderung für eine Internetfirma darstellt – trotz der riesigen Mengen an verfügbaren Web-Daten über den User. Der Analyst Doug Gross von CNN meint, dass die gefilterte Suche für Verbraucher hilfreicher zu sein scheint als für Bürger. Sie hilft dem Konsumenten, der nach „Pizza“ sucht, lokale Liefermöglichkeiten zu finden, wobei passenderweise weit entfernt liegende Pizzaservice-Anbieter herausgefiltert werden.[6] Es gibt übereinstimmende Berichte, dass Internetseiten wie die Washington Post, die New York Times und andere sich bemühen, personalisierte Informationsdienste aufzubauen. Diese arbeiten nach dem Prinzip, Suchergebnisse so auf den Benutzer zuzuschneiden, dass sie ihm wahrscheinlich gefallen oder er zumindest mit ihnen einverstanden ist.[5]

Ein Artikel beschäftigt sich genauer mit der Problematik der elektronischen Filter. Danach hat der Benutzer keinen Einfluss auf die Kriterien, nach denen gefiltert wird. Bei den von Google bei der Suche ausgewerteten Signalen verhält es sich ähnlich: Der Nutzer erfährt weder, welche dieser Daten verwendet werden, noch, wie er sie ändern kann. Darüber hinaus fehlt jegliche Transparenz. Der Benutzer weiß weder, wie gefiltert, noch, dass überhaupt gefiltert wird. Aufgrund der großen Menge an Informationen im Internet sind Filtermechanismen jedoch unverzichtbar.[10][14] Personalisierung wird als Hauptproblem der elektronischen Filter gesehen: Die Gewichtung der Informationen wird individuell an den Nutzer angepasst. Dieser hat nicht die Möglichkeit, die Filter ein- oder auszuschalten und nach selbst bestimmten Kriterien zu kontrollieren.[14] Abschließend verlangt Pariser von den großen Filtern wie Google und Facebook Transparenz und Kontrolle durch den Benutzer.[14] Eine Forschergruppe der Universität Delft empfiehlt Entwicklern von Filtertechnologien eine stärkere Berücksichtigung von Autonomie und Transparenz für den Nutzer.[10]

Ein 2020 erschienenes Paper des Complexity Science Hub Vienna spricht klar von der Existenz von Filterblasen und findet Hinweise einer Tendenz zur destruktiven gesellschaftlichen Fragmentierung, für die es laut Stefan Thurner bisher keine realistischen Vorbeugungsmaßnahmen gebe.[40][41]

Kritiker halten die These von der Filter Bubble für eine Aussage aus einer Fehlperspektive. Angesichts der Informationsflut gäbe es keine Alternative zu Filtertechniken. Selektion von Information habe immer schon stattgefunden und es sei zwangsläufige Folge, dass andere Informationen nicht selektiert werden. Gerade das Internet würde sonst abseitige Diskussionen gut zugänglich machen, indem es dafür digitale Räume öffne. Zudem sei die Theorie naiv, da Inhalt nicht einfach gefiltert oder ungefiltert sei, sondern von vielen Akteuren auf vielfältige Weise verarbeitet, angereichert oder verschoben werde.[42] Außerdem wird argumentiert, dass es für User ungemein schwierig sei, sich von allen Inhalten, die nicht der eigenen Meinung entsprechen, abzukapseln, da vor allem Social-Media-Plattformen eine enorme Vielfalt an Inhalten präsentieren. Eine Gruppe auf einer dieser Plattformen, die Verbindungen zu Andersdenkenden konsequent vermeiden will, müsse dafür Strukturen etablieren, die einem Kult gleichen.[43]

Bessere Personalisierung

Bearbeiten

Paul Resnick, Professor an der Universität Michigan, fasst die Diskussion um die Filterblase folgendermaßen zusammen: Personalisierung sei nicht per se als schlecht zu bewerten. Seiner Ansicht nach sei akkurate Personalisierung weniger bedenklich als nicht zu personalisieren oder minderwertig zu personalisieren. Filterer hätten Macht und deshalb Verantwortung der Öffentlichkeit gegenüber. Zu den Pflichten von Filterern zählt er insbesondere, keine versteckte Personalisierung durchzuführen und Personalisierung nicht einseitig zu manipulieren.[44]

Resnick macht für eine bessere Personalisierung folgende Vorschläge:[44][45]

Mehrdimensionale Präferenzen
Thema, Standort, Sichtweise/Ideologie, Publikum u. a.
Das Verhältnis von Erforschung der Nutzerinteressen und -vorlieben und kommerzieller Verwertung optimieren.
Portfolio-Präferenzen
Mischung aus herausfordernden und bestätigenden Informationen ermöglichen.
Zeitversetzter Präferenz-Indikator
Zur Unterscheidung von Kurzzeit- und Langzeit-Präferenzen
Impuls in Richtung Langzeit-Präferenzen
Unterhaltung (kurzfristiges Interesse) vs. Bildung (langfristiges Interesse)
Gemeinsames Referenzpunkt-Feature
Integration von beliebten Themen, für die sich der Nutzer sonst nicht so sehr interessiert.
Features, die eine Perspektive einnehmen
Um Meinungen anderer Menschen leichter verstehen zu können.

Forscher der Universität Delft beschäftigen sich mit ethischen Fragen der Personalisierung und arbeiteten zum Thema folgenden unverbindlichen Vorschlag aus:

Leitfaden für die Gestaltung von Filter-Algorithmen zur Personalisierung[10]
  1. Gehen Sie sicher, dass pro Benutzer verschiedene Identitäten möglich sind, die sich je nach Kontext unterscheiden können.
  2. Legen Sie [den Filter-Algorithmus] auf Autonomie aus, so dass der Benutzer den Filter an seine Bedürfnisse anpassen und die Identität, die auf Grundlage seiner früheren Interaktionen erstellt wurde, verändern kann.
  3. Legen Sie [den Filter-Algorithmus] auf Transparenz aus, so dass der Benutzer sich bewusst ist, dass gefiltert wird. Der Nutzer muss in der Lage sein, zu sehen, welche Kriterien für das Filtern verwendet werden und welche Identität des Benutzers das System verwendet.

Ähnliche Konzepte

Bearbeiten

Relevanzparadoxon

Bearbeiten

Das Konzept der Filterblase ähnelt einem anderen Phänomen, welches als Relevanzparadoxon (englisch relevance paradox) beschrieben wird.[20] Demzufolge suchen Personen und Organisationen Informationen, die von Anfang an für relevant gehalten werden, sich dann aber als nutzlos erweisen oder nur von teilweisem Interesse sind. So werden Informationen nicht berücksichtigt, die für irrelevant gehalten werden, die aber eigentlich nützlich sind. Das Problem tritt auf, weil die wirkliche Relevanz einer bestimmten Tatsache oder eines Konzeptes in solchen Fällen offenbar wird, nachdem der Fakt überhaupt bekannt wurde. Davor wurde der Gedanke, einen bestimmten Fakt überhaupt zu erfahren, aufgrund der falschen Wahrnehmung seiner Irrelevanz verworfen. Folglich ist der Informationssuchende in einem Paradoxon gefangen und er versagt darin, Dinge zu erfahren, die er eigentlich unbedingt benötigt. So wird er Opfer seines „intellektuellen blinden Flecks“. Das Phänomen des Relevanzparadoxons trat während der intellektuellen Entwicklung des Menschen in vielen Situationen in Erscheinung und ist deshalb ein wichtiges Thema in Wissenschaft und Bildung. Ein Buch mit dem Titel The IRG Solution[46] beschäftigte sich 1984 mit diesem Problem und schlug allgemeine Lösungsansätze vor.

Echokammer-Effekt

Bearbeiten

Ein verwandtes Konzept ist der Echokammer-Effekt (auch Echoraum genannt, englisch Echo Chamber Effect) in der Kommunikationswissenschaft, der beschreibt, wie es durch den verstärkten virtuellen Umgang mit Gleichgesinnten in sozialen Netzwerken zu einer Verengung der Weltsicht kommt, die zu Bestätigungsfehlern führen kann.[47][48] Im Unterschied zu Filterblasen, bei welchen die Personalisierung vor allem durch Algorithmen hervorgerufen wird (pre-selected personalization), wird beim Echokammer-Effekt die Personalisierung vom Individuum selbst vorgenommen (self-selected personalization).[49] Das heißt, eine potentielle Verengung der Weltsicht rührt daher, dass bestimmte Medieninhalte konsumiert und andere nicht konsumiert werden, dass also ein selektiver Nachrichtenkonsum stattfindet.[50] Allerdings wird in der Literatur nicht immer streng zwischen Filterblasen und Echokammern unterschieden. Gelegentlich werden die beiden Begriffe sogar synonym zueinander verwendet.[51]

Da für diese Art von Personalisierung individuelle Entscheidungen die tragende Rolle spielen und nicht beispielsweise Algorithmen, steht das Phänomen der Echokammer schon länger zur Diskussion als das der Filterblasen und ist nicht notwendigerweise auf den Onlinekontext beschränkt. Auch im Offlinekontext können Phänomene wie soziale Homophilie dazu führen, dass sich beispielsweise politisch homogene Gruppen bilden, in welchen die Mitglieder untereinander hauptsächlich konsonante und bestätigende Informationen teilen und sich gegenseitig weiter bestärken. Das würde wiederum nicht nur dazu führen, dass kein offener Diskurs unter verschiedenen Menschen mit unterschiedlichen Vorstellungen mehr stattfindet, sondern auch, dass die Öffentlichkeit weiter polarisiert und fragmentiert werden würde.[52]

Empirisch ist die Existenz und Rolle von Echokammern umstritten. Zum einen gibt es Studien, wie zum Beispiel Bakshy et al. (2015),[26] die zeigen, dass Nutzer auf sozialen Netzwerken vor allem Gleichgesinnten folgen und die Nachrichten dieser teilen. Andere Studien legen nahe, dass Echokammern zwar existieren, aber nur wenige Individuen und Nutzer Teil davon sind. Wobei auch diese kleine Gruppen von Nutzern durch hohe Aktivität, homogene Online-Räume erschaffen können, in denen sich vor allem Gleichgesinnte aufhalten.[53][54] Zuletzt widersprechen einige empirische Studien auch der Existenz von Echokammern und zeigen, dass Nutzer von sozialen Medien (vermehrt) Nachrichten konsumieren, die nicht ihren Ansichten entsprechen.[55][56]

Schweigespirale

Bearbeiten

Elisabeth Noelle-Neumann formulierte für den politischen Raum den Begriff der Schweigespirale. Darunter wird die freiwillige Zurückhaltung der eigenen Meinung verstanden, wenn man der Ansicht ist, dass sie der Mehrheitsmeinung widerspricht – was in der Konsequenz Minderheitsmeinungen immer mehr zurückdränge. Dieser Effekt werde durch die Rolle der Medien als Gatekeeper verstärkt, da sie aufgrund eigener politischer Ansichten eine Mehrheitsmeinung vortäuschen können (siehe auch Politische Haltung der Journalisten).[57]

Propagandamodell

Bearbeiten

Das von Noam Chomsky und Edward S. Herman 1988 entworfene Propagandamodell stellt die These auf, dass zivilgesellschaftlicher Konsens real durch deren organisierte Teile wie Nichtregierungsorganisationen und Verbände sowie die Schlüsselposition der Massenmedien entstehe und daher nicht die reale Vielfalt der existierenden Meinungen in der Bevölkerung abbilde. Es wurde 1991 durch Chomsky präzisiert und in Folge vielfach als empirisch bestätigt beschrieben.[58][59][60][61]

„Filterblase“ wurde im Jahr 2016 zum Wort des Jahres in der Deutschschweiz gekürt.

Literatur

Bearbeiten
Bearbeiten
Wiktionary: Filterblase – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

Bearbeiten
  1. Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011, ISBN 978-1-59420-300-8.
  2. What is a Filter Bubble? - Definition from Techopedia. Abgerufen am 5. Dezember 2021 (englisch).
  3. Judith Moeller, Natali Helberger: Beyond the filter bubble: concepts, myths, evidence and issues for future debates, Report der Universität von Amsterdam, 25. Juni 2018.
  4. a b c Lynn Parramore: The Filter Bubble. In: The Atlantic. Zitat: “Google has been personalized for everyone. So when I had two friends this spring Google ‘BP,’ one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.”
  5. a b c d e f g h Jacob Weisberg: Bubble Trouble: Is Web personalization turning us into solipsistic twits?
  6. a b c Doug Gross: What the Internet is hiding from you. In: CNN. Zitat: “I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.”
  7. a b c d e Paul Boutin: Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters? In: The Wall Street Journal. Zitat: “By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don’t create a personal Google account or are not logged into one. …”
  8. Zhang Yuan Cao, Diarmuid Ó Séaghdha, Daniele Quercia, Tamas Jambor: Auralist: Introducing Serendipity into Music Recommendation. (PDF; 645 kB)
  9. a b c d e Engin Bozdag, Job Timmermans: Values in the filter bubble. Ethics of Personalization Algorithms in Cloud Computing. In: C. Detweiler, A. Pommeranz, J. van den Hoven, H. Nissenbaum (Hrsg.): Proceedings of the 1st International Workshop on Values in Design. Building Bridges between RE, HCI and Ethics. 6. September 2011, S. 7–15, abgerufen am 4. September 2011.
  10. Rene Pickhardt: What are the 57 signals google uses to filter search results? (Memento vom 13. April 2013 im Internet Archive) Abgerufen am 30. September 2011.
  11. Dirk von Gehlen: Wie Google und Co. uns andere Standpunkte vorenthalten. Welt ohne Gegenmeinung. In: Süddeutsche. 28. Juni 2011, abgerufen am 14. September 2011.
  12. Jörg Wittkewitz: Die Intuitionspumpe “Filter Bubble”. In: netzpiloten.de, abgerufen am 14. September 2011.
  13. a b c d Peter Sennhauser: “Filter-Blase”. Die neue Gefahr der Tarnkappen-Gatekeeper. In: netzwertig.com, abgerufen am 14. September 2011.
  14. Jeff Widman: EdgeRank. A guide to Facebook’s newsfeed algorithm. In: edgerank.net, abgerufen am 19. März 2013.
  15. Roman Tschiedl: The most powerful channel - zur (algorithmischen) Gouvernementalität sozialer Medien am Beispiel Facebooks News Feed. Universität Wien, 2015, S. 102. abgerufen am 15. Mai 2015.
  16. a b c Shira Lazar: Algorithms and the Filter Bubble Ruining Your Online Experience? In: Huffington Post. Zitat: „a filter bubble is the figurative sphere surrounding you as you search the Internet.“
  17. Peter Neugebauer: Schutz vor Trackingdiensten die das Nutzerverhalten analysieren. In: knowhow.ngbonline.de, abgerufen am 5. Februar 2021.
  18. Bianca Bosker: Tim Berners-Lee: Facebook Threatens Web, Beware. In: The Guardian. Zitat: „Social networking sites are threatening the Web’s core principles …“ Berners-Lee argued. „Each site is a silo, walled off from the others,“ he explained. „The more you enter, the more you become locked in….“
  19. a b First Monday: What’s on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. In: USA Today. Zitat: „Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.“
  20. Anmerkung: im engl. Originaltext „candy and carrots“, etwa „Süßigkeiten und Karotten“ als Symbol für eine „ausgewogene Informations-Diät“: „The best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. … some information vegetables and … some information dessert.“
  21. Bianca Bosker: Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns. In: Huffington Post. Zitat: „When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.“
  22. Eli Pariser: Invisible sieve: Hidden, specially for you. In: The Economist. 30. Juni 2011; Zitat: „Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.“
  23. Dimitar Nikolov, Diego F. M. Oliveira, Alessandro Flammini, Filippo Menczer: Measuring online social bubbles. In: PeerJ Computer Science. Band 1, 2. Dezember 2015, ISSN 2376-5992, S. e38, doi:10.7717/peerj-cs.38 (Online [abgerufen am 23. März 2020]).
  24. a b James G. Webster, Thomas B. Ksiazek: The Dynamics of Audience Fragmentation: Public Attention in an Age of Digital Media. In: Journal of Communication. Band 62, Nr. 1, 1. Februar 2012, ISSN 0021-9916, S. 39–56, doi:10.1111/j.1460-2466.2011.01616.x (Online [abgerufen am 23. März 2020]).
  25. a b c E. Bakshy, S. Messing, L. A. Adamic: Exposure to ideologically diverse news and opinion on Facebook. In: Science. Band 348, Nr. 6239, 5. Juni 2015, ISSN 0036-8075, S. 1130–1132, doi:10.1126/science.aaa1160.
  26. Pablo Barberá, John T. Jost, Jonathan Nagler, Joshua A. Tucker, Richard Bonneau: Tweeting From Left to Right. In: Psychological Science. Band 26, Nr. 10, 21. August 2015, ISSN 0956-7976, S. 1531–1542, doi:10.1177/0956797615594620.
  27. a b Tanja Messingschlager, Peter Holtz: Filter Bubbles und Echo Chambers. In: Markus Appel (Hrsg.): Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co. Springer, Berlin, Heidelberg 2020, ISBN 978-3-662-58695-2, S. 91–102, doi:10.1007/978-3-662-58695-2_9.
  28. Eli Pariser: Filter Bubble : wie wir im Internet entmündigt werden. Hanser, München 2012, ISBN 978-3-446-43034-1.
  29. Sebastian Meineck: Deshalb ist "Filterblase" die blödeste Metapher des Internets. In: Vice. 9. März 2018, abgerufen am 11. Dezember 2023.
  30. Axel Bruns: Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem. In: Marta Pérez-Escolar, José Manuel Noguera-Vivo (Hrsg.): Hate Speech and Polarization in Participatory Society. Routledge, London/New York 2022, ISBN 978-0-367-62598-6, S. 33–48, hier S. 44 (englisch).
  31. Anmerkung: im englischen Originaltext „Daily Me“, der Begriff wurde von Nicholas Negroponte in Being Digital (Alfred A. Knopf, 1995, ISBN 0-679-43919-6) und Cass Sunstein in Republic.com (Princeton University Press, 2002) geprägt.
  32. Efrat Nechushtai, Seth C. Lewis: What kind of news gatekeepers do we want machines to be? Filter bubbles, fragmentation, and the normative dimensions of algorithmic recommendations. In: Computers in Human Behaviour. Band 90, 2019, S. 298–307, doi:10.1016/j.chb.2018.07.043 (englisch).
  33. Mario Haim, Andreas Graefe, Hans-Bernd Brosius: Burst of the Filter Bubble?: Effects of personalization on the diversity of Google News. In: Digital Journalism. Band 6, Nr. 3, 2018, S. 330–343, doi:10.1080/21670811.2017.1338145 (englisch, researchgate.net [abgerufen am 11. Dezember 2023]).
  34. Tobias D. Krafft, Michael Gamer, Katharina A. Zweig: Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschine. AlgorithmWatch, Juni 2018, abgerufen am 11. Dezember 2023.
  35. Tobias D. Krafft, Michael Gamer, Katharina A. Zweig: Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschine. AlgorithmWatch, Juni 2018, S. 30, abgerufen am 11. Dezember 2023.
  36. Google Personalization on Your Seach Results Plus How to Turn it Off (Memento vom 17. August 2011 im Internet Archive); NGNG; Zitat: „Google customizing search results is an automatic feature, but you can shut this feature off.“
  37. Daniel Berger: Firefox: uBlock Origin schützt vor versteckten Trackern. heise online, 26. November 2019, abgerufen am 18. Oktober 2020 (Es geht hier insbesondere um von bisher nicht aufspürbare "First Party Tracker").
  38. Andrei Boutyline, Robb Willer: The Social Structure of Political Echo Chambers: Variation in Ideological Homophily in Online Networks. In: Political Psychology. Band 38, Nr. 3, 2017, ISSN 1467-9221, S. 551–569, doi:10.1111/pops.12337.
  39. Tuan Minh Pham, Imre Kondor, Rudolf Hanel, Stefan Thurner: The effect of social balance on social fragmentation. In: Journal of The Royal Society Interface. Band 17, Nr. 172, November 2020, ISSN 1742-5689, S. 20200752, doi:10.1098/rsif.2020.0752.
  40. New Theory of Social Fragmentation. In: Complexity Science Hub Vienna. 19. November 2020, abgerufen am 2. Dezember 2020 (englisch).
  41. Christoph Kappes: Menschen, Medien und Maschinen – Warum die Gefahren der »Filter Bubble« überschätzt werden. In: Merkur. 03/2012, Text im Blog des Autors
  42. Kieron O’Hara, David Stevens: Echo Chambers and Online Radicalism: Assessing the Internet’s Complicity in Violent Extremism. In: Policy and Internet. Band 7, Nr. 4, S. 12, doi:10.1002/poi3.88 (englisch, worktribe.com [abgerufen am 12. November 2023]).
  43. a b Paul Resnick: Personalized Filters Yes: Bubbles No. UMAP Slides with notes. In: presnick.people.si.umich.edu, abgerufen am 9. September 2011.
  44. Paul Resnick: Personalized Filters Yes; Bubbles No. In: presnick.livejournal.com, abgerufen am 9. September 2011.
  45. David Andrews: The IRG Solution – Hierarchical Incompetence and how to overcome it. Souvenir Press, London, 1984, ISBN 0-285-62662-0.
  46. Auswirkungen von Echokammern auf den Prozess der Meinungsbildung. (PDF; 545 kB), Media Perspektiven, 2/2019, S. 82 ff
  47. Hannah Lühmann: Das Geheimnis der Echokammer. In: FAZ. 6. Mai 2013, abgerufen am 2. November 2016.
  48. Frederik J. Zuiderveen Borgesius, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vreese: Should we worry about filter bubbles? In: Internet Policy Review. 31. März 2016, ISSN 2197-6775 (Online [abgerufen am 17. Mai 2021]).
  49. Natalie Jomini Stroud: Selective Exposure Theories. Band 1. Oxford University Press, 1. Mai 2014, doi:10.1093/oxfordhb/9780199793471.013.009_update_001 (Online [abgerufen am 17. Mai 2021]).
  50. Zum Beispiel in: Claudia Orellana-Rodriguez, Mark T. Keane: Attention to news and its dissemination on Twitter: A survey. In: Computer Science Review. Band 29, 2018, S. 74–94, doi:10.1016/j.cosrev.2018.07.001.
  51. Die Echokammer-Hypothese: Fragmentierung der Öffentlichkeit und politische Polarisierung durch digitale Medien? Abgerufen am 17. Mai 2021.
  52. Felix Rusche: Few voices, strong echo: Measuring follower homogeneity of politicians’ Twitter accounts. In: New Media & Society. 2022, doi:10.1177/14614448221099860.
  53. Elizabeth Dubois, Grant Blank: The echo chamber is overstated: the moderating effect of political interest and diverse media. In: Information, Communication & Society. 2018, S. 729–745, doi:10.1080/1369118X.2018.1428656.
  54. Jonathan Scott Morgan, Cliff Lampe, Muhammad Zubair Shafiq: Is News Sharing on Twitter Ideologically Biased? In: Conference on Computer Supported Cooperative Work. 2013, ISBN 978-1-4503-1331-5, S. 887–896, doi:10.1145/2441776.2441877.
  55. David Levy, Richard Fletcher, Antonis Kalogeropoulos, Nic Newman, Rasmus Kleis Nielsen: Reuters Institute Digital News Report 2017. In: Digital News Report. Oxford: Reuters Institute for the Study of Journalism, Juni 2017, S. 42–43 (Online [PDF; abgerufen am 24. Mai 2021]).
  56. Julia Bähr: Wer stellt die Mehrheit? In: faz.net, abgerufen am 12. Juli 2015.
  57. Joan Pedro-Carañana, Daniel Broudy, Jeffery Klaehn (Hrsg.): The Propaganda Model Today. Filtering Perception and Awareness. University of Westminster Press, 2018, ISBN 978-1-912656-16-5 (englisch, uwestminsterpress.co.uk [abgerufen am 18. Januar 2024]).
  58. Miri Moon: Manufacturing consent? The role of the international news on the Korean Peninsula. In: Global Media and Communication. Band 14, Nr. 3, Dezember 2018, ISSN 1742-7665, S. 265–281, doi:10.1177/1742766518780176 (englisch).
  59. Andrew Mullen, Jeffery Klaehn: The Herman–Chomsky Propaganda Model. A Critical Approach to Analysing Mass Media Behaviour. In: Sociology Compass. Band 4, Nr. 4, 2010, ISSN 1751-9020, S. 215–229, doi:10.1111/j.1751-9020.2010.00275.x (englisch).
  60. Andy Mullen: Twenty Years of Propaganda? Critical Discussions and Evidence of the Ongoing Relevance of the Herman and Chomsky Propaganda Model (Memento vom 16. November 2007 im Internet Archive).