Filterblase (Medienwissenschaft)

Icon medien kultur wissenschaft.png
Metapher zur Beschreibung individualisierter digitaler Umgebungen, in die lediglich solche Informationen gelangen, die dem algorithmisch erstellten Persönlichkeitsprofil der jeweiligen Nutzer_innen und damit deren vermeintlichen Vorlieben, Interessen und persönlichen Einstellungen entsprechen. Laut Vertreter_innen dieser These sorgen Filterblasen für eine informationelle Isolierung und Fragmentierung der im Internetzeitalter lebenden Individuen.
Dieser Artikel verweist auf folgende weitere Beiträge:
Algorithmus (Medienwissenschaft), Echokammer (Medienwissenschaft), Homophilie (Medienwissenschaft), Mediale Kontrolle (Medienwissenschaft), Meinung (Rechtswissenschaft), Netzwerk (Medienwissenschaft), Öffentlichkeit (Medienwissenschaft), Überwachung (Medienwissenschaft)


Was bezeichnet dieser Begriff?

Als Filterblase oder Filter Bubble wird eine individualisierte und auf die Vorlieben der Internetnutzer_innen angepasste virtuelle Umgebung bezeichnet, in die lediglich solche Informationen gelangen, die dem maschinell erstellten Persönlichkeitsprofil der jeweiligen Nutzer_innen entsprechen.

Filterblasen entstehen nach der Auffassung einiger Medienwissenschaftler_innen dadurch, dass den Internetnutzer_innen bei der Verwendung von Suchmaschinen und sozialen Netzwerken, die als sogenannte Information Retrieval Systeme verstanden werden können, nur eine sehr kleine Auswahl aller potenziell verfügbaren Informationen angezeigt wird. Insbesondere in sozialen Netzwerken wird diese Nachrichtenauswahl, die dann beispielsweise im News Feed oder in der Timeline der jeweiligen Person erscheint, "im großen Umfang personalisiert und vorsortiert"[1]. Durch Algorithmen werden also Inhalte priorisiert und verfügbar gemacht, die mit hoher Wahrscheinlichkeit den Interessen und Überzeugungen der nutzenden Person entsprechen.[2] Die hierfür notwendigen Kriterien beziehen die Algorithmen aus bisherigen Verhaltensweisen der Nutzer_innen, indem sie zum Beispiel überwachen, welche Links geklickt oder welche Seiten favorisiert wurden.[3] Die Algorithmen fungieren demnach wie Informations- oder Nachrichtenfilter.

Mit der Metapher der Blase soll betont werden, dass jede_r Nutzer_in eine solche individualisierte Informationssphäre allein besetzt. Das heißt, dass niemals zwei oder mehrere Personen exakt dieselbe Auswahl an Informationen und Nachrichten erhalten. Darin besteht auch die politische Implikation des Begriffs der Filterblase: Mit ihr soll die Sorge ausgedrückt werden, dass Individuen durch die Wirkprinzipien der Filterblase ein "verzerrtes Bild der Wirklichkeit"[4] erhalten könnten, was sich letztlich negativ auf demokratische Prozesse auswirke.

Ein ebenfalls geläufiges, mit der Filterblase konkurrierendes Erklärungsmodell von Nutzer_innenverhalten im Internet ist die sogenannte Echokammer (engl. Echo Chamber). Mit ihr soll die Tendenz von Internetnutzer_innen veranschaulicht werden, "sich hauptsächlich mit Personen und Institutionen auseinanderzusetzen, die die gleiche Meinung wie sie vertreten."[5] Allgemeiner wird in diesem Zusammenhang auch der soziologische Begriff der Homophilie angeführt. Er beschreibt die generelle Tendenz von Individuen, mit größerer Wahrscheinlichkeit Kontakte zu solchen Individuen zu knüpfen, die ihnen ähnlich sind, unabhängig davon, ob dies im Internet oder im analogen Leben stattfindet.[6] Als kritische Gegenthese kann außerdem Pörksens Konzept des 'Filterclash' genannt werden (Vergleiche #Woher kommt der Begriff?).


Woher kommt der Begriff?

Der Begriff der Filterblase (engl. filter bubble) ist auf den US-amerikanischen Autoren Eli Pariser zurückzuführen, der in seinem Buch Filter bubble: wie wir im Internet entmündigt werden (2012) auf mögliche Risiken aufmerksam macht, die im Zusammenhang mit einer durch Algorithmen oder den von ihm sogenannten "Prognosemaschinen"[7] vorangetriebenen Personalisierung von Nachrichten und Informationen im Internet einhergehen können. Pariser beschreibt das von ihm postulierte Phänomen darin als ein "Informationsuniversum für jeden von uns"[8]. Anders als bei älteren Medien wie beispielsweise dem Fernsehen, bei dem gleichzeitig mehrere Zuschauer_innen denselben Kanal schauen und somit auf die gleichen Informationen zugreifen, habe im Internet und insbesondere in den sozialen Medien jede_r Nutzer_in eine eigene Informationsblase. Die Folge sei, so Parisers These, dass die im Zeitalter des Internets lebenden Individuen informationell voneinander isoliert, fragmentiert und möglicherweise sogar auseinandergetrieben würden.[9] Die Funktionsweisen der betreffenden Plattformen und Suchmaschinen seien zudem unethisch, weil für die Nutzer_innen kaum ersichtlich werde, auf Basis welcher Kriterien ebenjene Informationsauswahl getroffen wurde und ob die aus diesem Auswahlprozess gewonnenen Erkenntnisse über die eigene Person adäquat sind. Nicht zuletzt könne man sich außerdem nicht dafür- oder dagegenentscheiden, in eine Filterblase einzusteigen; sie sei vielmehr eine zentrale Bedingung sämtlicher Interaktionen im Internet.[10]

Seit der Veröffentlichung seines Buches erfuhr Parisers These zur Filterblase im öffentlichen Diskurs um den Einfluss von Social Media auf politische Debatten und demokratische Prozesse beachtliche Resonanz. Vor allem im journalistischen Feuilleton wurde der Begriff häufig aufgegriffen. Das Landgericht und das Oberlandesgericht Karlsruhe ließen den Begriff sogar in ihre Urteile zur Durchführung von Faktenchecks durch das Recherchezentrum CORRECTIV bei Facebook einfließen.[11] Die unreflektierte Verwendung des Begriffs stieß teilweise auf starke Kritik, in der das Konzept der Filterblase als Bestandteil einer anhaltenden 'Medienpanik' zurückgewiesen wird, bei der es lediglich darum gehe, den automatischen, algorithmischen Technologien der Informationsverarbeitung und -verbreitung im Netz prinzipiell mit Skepsis zu begegnen.[12] Denn ob die Filterblase überhaupt ein adäquates Modell darstellt, um die in Sozialen Medien und allgemein im Internet wirkenden Mechanismen zu beschreiben, ist fraglich und wird unter Kommunikations- und Medienwissenschaftler_innen bis heute kontrovers diskutiert. Zum einen muss angemerkt werden, dass das Filterblase-Modell den Aspekt der Interaktivität in sozialen Netzwerken theoretisch vollständig vernachlässigt und die Nutzer_innen somit als rein passive Teilnehmer_innen darstellt. Die verwandte Metapher der Echokammer hat zumindest in dieser Hinsicht einen entscheidenden Vorteil, da sie die aktive Teilnahme der Nutzer_innen an öffentlichen Debatten im Netz durchaus mitdenkt. Sie beruht zum anderen auf der in der Soziologie diskutierten Theorie der Homophilie, die besagt, dass Menschen auch außerhalb des Internets dazu neigen, Kontakte herzustellen oder Informationen auszutauschen, die den eigenen Interessen, Meinungen und Anschauungen entsprechen oder zumindest ähneln. Die der Filterblase zugeschriebenen Effekte seien demnach nicht allein auf Algorithmen zurückzuführen.

Der Medienwissenschaftler Bernhard Pörksen macht darauf aufmerksam, dass das Internet und soziale Netzwerke die verschiedenen, nebeneinander existierenden sozialen Blasen innerhalb einer Gesellschaft sogar erst sichtbar machten und den Diskurs darüber in der Folge erst ermöglichten. Mehr noch biete das Internet und die dort enthaltenen Plattformen und Apps potenziell für fast jedes Individuum zu jeder Zeit einen nie dagewesenen Informationsreichtum, der den individuellen Blick vom eigenen Standpunkt aus für davon abweichende, differente Perspektiven anderer sozialer Gruppen eröffne. Pörksen setzt Parisers Modell der Filterblase damit den Begriff des 'Filterclash' entgegen. Der Clash, also der Zusammenprall unterschiedlicher sozialer Blasen, sorge für Verunsicherung und eine allgemeine 'Gereiztheit' in der Netzgesellschaft.[13] Parisers Konzept mache hingegen scheuklappenartig blind für die wichtige Auseinandersetzung mit der bereits vor dem Internet ansetzenden Fragmentierung von Gesellschaften und deren Auswirkung auf politische Meinungsbildung und demokratische Prozesse, weil es sie allein auf technologische Errungenschaften zurückführe und diese dämonisiere.[14]

Denn die grundlegende Idee, dass bestimmte mediale Dispositionen sogenannte Filter generieren, die den Informationsfluss innerhalb einer Gesellschaft steuern, gibt es bereits vor der Entwicklung des Internets zu einem globalen Netzwerk. So entwarfen Herman und Chomsky bereits 1988 ein Filter-Modell medialer Kontrolle, welches den manipulativen Einfluss von Massenmedien auf öffentliche Diskurse erklären soll (siehe mediale Kontrolle).[15]

Der Medienwissenschaftler Michael Seemann hat Parisers Begriff der Filterblase entgegen dessen eigener Auffassung im Rahmen seines Kontepts der Filtersouveränität zu einem grundsätzlich positiven Begriffsverständnis umgedeutet. Sofern damit ein "gezieltes Abonnieren von Accounts" gemeint sei, manifestiere sich in der Filterblase die Möglichkeit des_r Nutzer_innen, selbstbestimmt über die ihnen angezeigten Inhalte zu entscheiden. Zu kritisieren seien hingegen die vollständige Automatisierung dieser Zusammenstellungen von News-Streams, wie es beispielsweise auf der Plattform Facebook intransparent betrieben werde und bei der für die Nutzer_innen nicht ersichtlich würde, welche Algorithmen nach welchen Schemata bei der Einblendung und Sortierung von Informationen eingesetzt werden.[16]

Wonach muss ich fragen?

  • Nach welchen Kriterien entscheide ich, welchen Accounts ich auf Twitter oder Instagram folge oder mit welchen Personen ich auf Facebook befreundet bin?
  • Wie bewusst sind mir diese Kriterien?
  • Welche Accounts werden mir durch Algorithmen in sozialen Netzwerken vorgeschlagen und warum?
  • Setze ich mich gezielt auch mit Accounts auseinander, die nicht meinen persönlichen Interessen, Meinungen und Wertevorstellungen entsprechen?
  • Beziehe ich bewusst auch Informationen ein, die nicht in direkter Weise mein persönliches soziales Umfeld und mein Alltagsleben betreffen, beispielsweise durch (Push-)Nachrichten?
  • In welchen Kontexten ist von der Filterblase aus welchen Gründen die Rede?
  • Von welchen gesellschaftlichen Problemen wird mit der Rede von der Filterblase möglicherweise abgelenkt?


Wann ist das wichtig?

Mit der Öffnung und Kommerzialisierung des Internets in den späten 1980er-Jahren wurden immer wieder Hoffnungen auf dessen demokratisierendes Potential geäußert. Dabei wurde es als eine Sphäre der Öffentlichkeit beschrieben, die eine freiere Zirkulation von Informationen, Meinungen und Debatten unter den Nutzer_innen als je zuvor erlaube und so zu einem breiteren öffentlichen Dialog beitrage. Die Gesellschaft könne dank neuer Technologien der Vernetzung und des Informationsaustauschs pluralistischer und heterogener werden.[17]

Derartige Hoffnungen verblassen vor dem Hintergrund vermehrt aufkommender, öffentlich kontrovers diskutierter und politisch zugespitzter Debatten, die eher auf eine fortschreitende Fragmentierung gesellschaftlicher Öffentlichkeit verweisen. Politische Ereignisse wie der Brexit, die Wahl Donald Trumps zum US-Präsidenten oder auch das Aufkommen und Erstarken rechtspopulistischer Parteien und Akteure wie der AfD oder Pegida gelten laut Auffassung einiger Kommentator_innen als Marker einer allgemeinen "Zeitenwende"[18], in der die Gesellschaft mehr und mehr auseinanderdrifte.

Sozialen Netzwerken wie Facebook und Twitter oder Suchmaschinen wie Google wird in diesem Zusammenhang vorgeworfen, die Polarisierung der Gesellschaft weiter voranzutreiben. So wird die weltweit verbreitete Nutzung dieser Angebote beispielsweise als Erklärung für steigenden Hass und Extremismus in der Gesellschaft sowie für das Erstarken des Rechtspopulismus angeführt.[19] Als Erklärung wird unter anderem deren wichtige Funktion als Nachrichten- und Informationsquellen für politische Themen genannt. Verglichen mit herkömmlichen Nachrichtenquellen wie Zeitungen und Fernsehsendungen ist das Maß der möglichen Personalisierung von Informationen in sozialen Netzwerken aufgrund von algorithmischen und Big Data-Technologien um ein vielfaches höher, sodass befürchtet wird, dass kaum mehr ein gemeinsames Weltwissen geschweige denn eine geteilte politische Grundeinstellung vorausgesetzt werden könnten. Gesellschaftlicher Konsens sei - so zumindest die Sorge - dadurch nicht mehr möglich. Umso gefährlicher seien außerdem sogenannte Fake News-Kampagnen und Verschwörungstheorien, da diese bei informationell isolierten Nutzer_innen potenziell wirkungsvoller seien.[20]

Eli Parisers These von der Filterblase stellt das vielleicht prominenteste Beispiel eines Erklärungsmodells dieser problematischen Entwicklungen dar, weil es verbreitete Sorgen und Ängste bedient, die häufig im Zusammenhang mit der intransparenten und deshalb durchaus zu kritisierenden Verwendung von Algorithmen sowie automatisierten Überwachung der Nutzer_innen entstehen. Gleichzeitig ist die von der Filterblasenthese angebotene Erklärung kritisch zu sehen, da sie komplexe gesellschaftliche Entwicklungen technikdeterministisch auf den Gebrauch von digitalen Technologien zurückführt und diesen damit nicht gerecht wird.


Wie wird der Begriff festgestellt?

In Studien - beispielsweise anhand von Nutzer_innenbefragungen[21] oder der Analyse großer Datenmengen[22] - wurde versucht, die These der Filterblase empirisch zu prüfen.[23] Von Interesse ist bei diesen Studien die Frage, wie vielfältig (zum Beispiel thematisch oder politisch) die Informationen tatsächlich sind, die einer Person beispielsweise in einem sozialen Netzwerk wie Facebook oder Twitter angezeigt werden.[24] Die Ergebnisse zeigen, dass die Rolle von Algorithmen und anderen Bestandteilen der technischen Umgebung bei der Informationsauswahl für die Nutzer_innen von sozialen Netzwerken deutlich kleiner ausfällt, als von Pariser angenommen. Die in diesem Zusammenhang besonders bekannte Studie von Bakshy et al. aus dem Jahr 2015 legt die Vermutung nahe, dass vielmehr die Nutzer_innen selbst diejenigen Inhalte für die Rezeption auswählen, die ihren eigenen ideologischen Vorlieben am ehesten entsprechen.[25] Informationsvielfalt ist gerade im Internet zwar durchaus gegeben, sie wird in der Regel jedoch wenig genutzt.


Welche Bildungsprojekte gibt es dazu?

  • Die BR-Reihe "so geht MEDIEN" klärt junge Menschen über Mediennutzung auf und bietet unter anderem ein Spezial zu Fragen rund um Verschwörungstheorien und Fake News in der Filterblase an: https://www.br.de/sogehtmedien/stimmt-das/wilde-theorien/index.html.
  • Das Projekt Bubble-Crasher - Raus aus der Filterblase bringt Jugendliche mit verschiedenen politischen Meinungen in ein gemeinsames Gespräch und möchte so vermitteln, wie politischer Meinungsaustausch über die eigene soziale Blase hinweg möglich sein kann: https://bubblecrasher.de/.
  • Das Projekt Fragmentierte Öffentlichkeit des Grimme Instituts und der Universität zu Köln beschäftigt sich 2021 in öffentlichen Podiumsdiskussionen mit den Bedingungen einer zersplitterten, postdigitalen Gesellschaft für Demokratie und Rechtsstaat: https://fragmentierte-oeffentlichkeit.de.


Weiterführende Literatur

  • Boutyline, Andrei und Robb Willer. 2017. „The Social Structure of Political Echo Chambers: Variation in Ideological Homophily in Online Networks.” Political Psychology 38(3): 551-569. https://doi.org/10.1111/pops.12337.
  • Colleoni, Elanor, Alessandro Rozza und Adam Arvidsson. 2014. "Echo chamber or public sphere? Predicting political orientation and measuring political homophily in Twitter using big data." Journal of Communication 64: 317–332, https://doi.org/10.1111/jcom.12084.
  • Dahlgren, Peter. 2005. “The Internet, Public Spheres, and Political Communication: Dispersion and Deliberation.” Political Communication 22 (2): 147-162. https://doi.org/10.1080/10584600590933160.
  • Mahrt, Merja. 2019. Beyond Filter Bubbles and Echo Chambers: The Integrative Potential of the Internet. Berlin: Digital Communication Research. https://doi.org/10.17174/dcr.v5.0.
  • McPherson, Miller, Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology 27: 415-444. https://doi.org/10.1146/annurev.soc.27.1.415.
  • Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer.
  • Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser.
  • Pörksen, Bernhard. 2018. Die große Gereiztheit: Wege aus der kollektiven Erregung. München: Carl Hanser Verlag.


Quellenverzeichnis

  1. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 92.
  2. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 92.
  3. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 93.
  4. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 93.
  5. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 94.
  6. McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. Aufgerufen am 05.10.2020, https://doi.org/10.1146/annurev.soc.27.1.415, S. 1.
  7. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17.
  8. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17.
  9. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17f.
  10. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 18.
  11. OLG Karlruhe, ZUM-RD 2020, 446 Rn 86. Während das Landgericht den Faktencheck für zulässig hielt, meinte das Oberlandesgericht, die Darstellung sei "missverständlich" gestaltet.
  12. Der Soziologe Christoph Kucklick machte beispielsweise auf Twitter auf die Vielzahl von Studien aufmerksam, die der These der Filterblase widersprechen: https://twitter.com/chkucklick/status/1216446392207577089?lang=en. In dem Podcast "Breitband" über Medien und digitale Kultur identifiziert Kucklick den Diskurs um die Filterblase als ein typisches Symptom einer Medienpanik: https://www.deutschlandfunkkultur.de/breitband-sendungsueberblick-mythos-filterblase.1264.de.html?dram:article_id=468750.
  13. Vergleiche Pörksen, Bernhard. 2018. Die große Gereiztheit: Wege aus der kollektiven Erregung. München: Carl Hanser Verlag.
  14. Pörksen, Bernhard. 2018. Die große Gereiztheit: Wege aus der kollektiven Erregung. München: Carl Hanser Verlag. Für eine kurze Einführung in die These Pörksens siehe Pörksens Vortrag auf der re:publica 2018: https://18.re-publica.com/de/session/filter-clash-grosse-gereiztheit-vernetzten-welt.
  15. Herman, Edward S. & Chomsky, Noam. 1988. Manufacturing Consent: the political economy of the mass media. New York: Pantheon Books.
  16. Seemann, Michael. 2014. Das Neue Spiel - Strategien für die Welt nach dem digitalen Kontrollverlust. Freiburg: orange-press. Aufgerufen am 17.05.2021, https://www.ctrl-verlust.net/buch/, S. 184.
  17. Colleoni, Elanor; Alessandro Rozza und Adam Arvidsson. 2014. "Echo chamber or public sphere? Predicting political orientation and measuring political homophily in Twitter using big data." Journal of Communication 64, 317–332. Aufgerufen am 05.10.2020, https://doi.org/10.1111/jcom.12084, 317f; Dahlgren, Peter. 2005. “The Internet, Public Spheres, and Political Communication: Dispersion and Deliberation.” Political Communication, 22(2): 147-162. Aufgerufen am 05.10.2020, https://www.tandfonline.com/doi/full/10.1080/10584600590933160, S. 1.
  18. Rau, Jan Philipp und Sebastian Stier. 2019. "Die Echokammer-Hypothese. Fragmentierung der Öffentlichkeit und politische Polarisierung durch digitale Medien?" Zeitschrift für Vergleichende Politikwissenschaft 13: 399–417. Aufgerufen am 02.04.2021, https://link.springer.com/article/10.1007/s12286-019-00429-1, S. 400.
  19. Vergleiche Jenny Genzmer. 2016. "Gefangen in der Filterblase. Manipuliert Facebook unser Denken?" Deutschlandfunk Kultur (22.01.). Aufgerufen am 30.02.2021, https://www.deutschlandfunkkultur.de/gefangen-in-der-filterblase-manipuliert-facebook-unser.1895.de.html?dram:article_id=343349.
  20. Vergleiche Antonie Rietzschel. 2017. "Diskussion um Filterblasen: Wie es in Facebooks Echokammern aussieht - von links bis rechts." Süddeutsche Zeitung (11.07.). Aufgerufen am 30.02.2021, https://www.sueddeutsche.de/politik/mein-facebook-dein-facebook-wie-es-in-den-echokammern-von-links-bis-rechts-aussieht-1.3576513. Siehe z.B. auch das Bildungsangebot zu Fake News und Verschwöungstheorien im Internet der BR-Reihe "so geht MEDIEN": https://www.br.de/sogehtmedien/index.html.
  21. Vergleiche Barnidge, Matthew. 2017. "Exposure to political disagreement in social media versus face-to-face and anonymous online settings." Political Communication 34: 302–321. Aufgerufen am 30.02.2021, https://doi.org/10.1080/10584609.2016.1235639.
  22. Vergleiche u.a. Bakshy, Eytan, Solomon Messing und Lada A. Adamic. 2015. "Exposure to ideologically diverse news and opinion on Facebook." Science, 348: 1130–1132. Aufgerufen am 30.02.2021, https://research.fb.com/wp-content/uploads/2015/05/exposure-to-ideologically-diverse.pdf.
  23. Eine Übersicht über relevante Studien findet sich bei Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 96.
  24. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin/Heidelberg: Springer, S. 98.
  25. Bakshy, Eytan, Solomon Messing und Lada A. Adamic. 2015. "Exposure to ideologically diverse news and opinion on Facebook." Science: 348, 1130–1132. Aufgerufen am 30.02.2021, https://research.fb.com/wp-content/uploads/2015/05/exposure-to-ideologically-diverse.pdf, S. 1.

Die erste Version dieses Beitrags wurde von Vesna Schierbaum im Rahmen des Projekts "Digitale Souveränität" am Institut für Medienrecht und Kommunikationsrecht und am Institut für Medienkultur und Theater der Universität zu Köln erstellt.

Zitiervorschlag: Glossar Digitale Souveränität. 2021. „Filterblase (Medienwissenschaft).“ https://www.bigdataliteracy.net/glossar/. Zugegriffen am tt.mm.jjjj.