Algorithmisches Entscheiden (Medienwissenschaft)

Handlungsprozesse, denen Entscheidungen zugrunde liegen, bei deren Findung sowohl Algorithmen als auch Menschen beteiligt waren. Nach einem weiten medienwissenschaftlichen Verständnis sind Entscheidungen in digitalen Umgebungen immer algorithmisch gestützt.
Icon medien kultur wissenschaft.png
Dieser Artikel verweist auf folgende weitere Beiträge:
Algorithmus (Medienwissenschaft), Algorithmisches Entscheiden (Rechtswissenschaft), Big Data (Medienwissenschaft), Black Box (Medienwissenschaft), Daten (Medienwissenschaft), Echokammer (Medienwissenschaft), Filterblase (Medienwissenschaft), Künstliche Intelligenz (Medienwissenschaft), Mediale Kontrolle (Medienwissenschaft), Öffentlichkeit (Medienwissenschaft), Überwachung (Medienwissenschaft)

Was bezeichnet dieser Begriff?

Algorithmisches Entscheiden bezeichnet soziotechnische Handlungsprozesse, denen Entscheidungen zugrunde liegen, die von automatisierten Algorithmen beeinflusst werden. Automatisiert ist ein Algorithmus, wenn eine Maschine ihn nach der Programmierung anhand des jeweiligen Inputs automatisch durchführt, der Algorithmus also im Ablauf nicht mehr von Menschen kontrolliert oder verändert wird. Während in der juristischen Bewertung von algorithmischen Entscheidungssystemen ('algorithmic decision making systems' oder ADM-Systeme) in der Regel konkrete Fälle solcher Entscheidungen und ihr Zustandekommen auf juristische Zulässigkeit befragt werden, liegt es im Interesse einer medienwissenschaftlichen Diskussion, kritisch zu untersuchen, welche Folgen der steigende Einfluss vor allem computerbasierter Algorithmen auf gesellschaftliche Prozesse, auf die Struktur von Öffentlichkeit und auf das einzelne Individuum als Subjekt hat. Dabei werden insbesondere techniksoziologische und technikphilosophische sowie kulturkritisch und ethisch informierte Fragestellungen relevant.

Entscheidungen werden dann als algorithmisch bezeichnet, wenn sie durch Algorithmen veranlasst, beeinflusst oder getroffen werden. Im engeren Sinne ist strittig, ob Entscheidungen von Algorithmen selbst gefällt werden können oder ob sie im Sinne des rechtswissenschaftlichen Begriffs vom algorithmischen Entscheiden nur oder unmittelbar durch Algorithmen veranlasst sein können. Typische Funktionen computerbasierter Algorithmen, nämlich die Priorisierung, Klassifizierung, Sortierung und Filterung von Daten und Datensätzen werden in der Regel erst durch menschliches Handeln oder durch von Menschen geschaffene Strukturen zu Entscheidungen. So kann beispielsweise die accountspezifische Anordnung von Inhalten in einem Newsfeed als Folge algorithmischer Entscheidungen betrachtet werden, obwohl menschliche Entscheidungen daran in der Programmierung, im Einsatz und in der Produktion der berücksichtigten Daten beteiligt sind. Umgekehrt werden unter dem Begriff algorithmischer Entscheidungen aber auch solche Vorgänge beleuchtet, bei denen Menschen zunächst vermeintlich eigenständige Entscheidungen treffen, dazu aber entweder von einem Algorithmus veranlasst wurden oder ihre Auswahl und Folgehandlungen auf Basis algorithmisch moderierter Inhalte vornehmen.

Aus handlungstheoretischer Perspektive fordert algorithmisches Entscheiden also in besonderem Maße traditionelle Vorstellungen von Handlungsträgerschaft heraus, die hier nicht mehr eindeutig einem menschlichen oder nicht-menschlichen Akteur zugeordnet werden kann.[1]

Zentral für eine medienwissenschaftliche Betrachtung von algorithmischen Entscheidungen ist daher, dass keine Entscheidung im Kontext digital vermittelter Handlung je isoliert betrachtet werden kann und entweder allein dem Algorithmus oder allein dem Menschen zuzuordnen ist. Letztlich ist menschliches Handeln in digitalen Umgebungen immer algorithmisch gestützt. Gleichzeitig werden Algorithmen von Menschen geschrieben und mit Daten gespeist, deren Grundlage wiederum unter anderem menschliches Handeln ist und deren Relevanz für den jeweiligen Vorgang in der Regel von Menschen festgelegt wurde. Algorithmische Entscheidungen sind daher "von soziotechnischer Gestalt"[2], das heißt, dass die ihnen zugrundeliegende Technologie einerseits Gesellschaften und Subjekte formt und andererseits durch diese geformt wird.

Woher kommt der Begriff?

Der Begriff entstand mit dem Vordringen von Computertechnik und internetfähigen, digital vernetzten Gadgets in immer mehr Bereiche des alltäglichen Lebens. So spielen Algorithmen zum Beispiel im Alltag von Konsument_innen, beim Online-Shopping oder bei der Nutzung von Streaming-Diensten und sozialen Medien eine Rolle. Aber auch die Implementierung algorithmischer Entscheidungssysteme in zentrale Prozesse und Operationen von Institutionen und Unternehmen, beispielsweise bei der Kreditvergabe von Banken, zeigt die Relevanz des Begriffs. Deutlich wird hier auch, dass der Begriff ein kritisches Verständnis sogenannter Big Data-Technologien voraussetzt, die bei den hier genannten Anwendungsfeldern seit Beginn des 20. Jahrhunderts vermehrt zum Einsatz kommen und bei denen Algorithmen große Datenmengen prozessieren.

Wonach muss ich fragen?

  • Welche Daten liegen einem algorithmisch gestützten Entscheidungsprozess zugrunde und wie sind diese Daten erhoben worden?
  • Welche ökonomischen oder politischen Interessen stehen hinter dem jeweiligen Einsatz und der Programmierung von Algorithmen?
  • Welche strukturellen Ungleichheiten werden durch algorithmische Entscheidungen hervorgerufen, welche beeinflussen sie?
  • Wann wird es von welchen Akteuren aus welchen Gründen legitimiert oder delegitimiert?
  • Wie beeinflussen algorithmische Entscheidungen Identität und Persönlichkeitsentwicklung der Nutzer_innen?
  • Wie verändern computerbasierte Algorithmen gesellschaftlichen Diskurs, beispielsweise in sozialen Medien?
  • Wie wird algorithmisches Entscheiden diskursiv konstruiert?
  • Welche Vorstellungen von Technik werden bei der kritischen Bewertung von algorithmischem Entscheiden zugrunde gelegt?
  • Unter welchen Prämissen wird eine Entscheidung als algorithmisch, wann als menschlich bezeichnet?
  • Welche Gründe gibt es dafür, Menschen und Algorithmen jeweils Handlungsmacht und Verantwortung zu- oder abzusprechen?

Wann ist das wichtig?

Wie bereits angedeutet, wird eine theoretische Auseinandersetzung mit algorithmischem Entscheiden aus Perspektive der Medienwissenschaft auf zwei Ebenen relevant, nämlich einerseits auf der Ebene des Individuums und andererseits auf Ebene gesellschaftlicher Prozesse, wobei beide Ebenen nicht strikt voneinander zu trennen sind.

Auf Ebene des Individuums fragt eine (technik-)philosophisch informierte Perspektive in der Regel danach, wie algorithmisch gestützte Handlungsvorgänge zur Beeinflussung und Kontrolle von Individuen und deren Identität und Selbstbezeichnung führen. Der französische Philosoph Michel Foucault versteht das Selbst als einen "Entscheidungsprozess", bei welchem die auf das Subjekt einwirkenden Elemente verinnerlicht werden und zu bestimmten Handlungen und Entscheidungen führen.[3] In digitalen Umgebungen ist das Subjekt entsprechend empfänglich für Einflussnahmen Dritter: Mithilfe von algorithmisch gestützten Tracing Systems werden digitale Umgebungen derart wirksam gestaltet und mit bisherigem Online-Verhalten der Nutzer_innen abgestimmt, dass Klick- oder Kaufentscheidungen mit höherer Wahrscheinlichkeit zum ökonomischen Vorteil des jeweilig dahinterstehenden Unternehmens getroffen werden. Solche 'algorithmischen Choreografien[4] veranschaulichen, dass die Effizienz und ökonomische Relevanz algorithmischen Entscheidens eng an Praktiken des Datensammelns und der digitalen Überwachung gebunden sind, da sich die algorithmische Moderation digitaler Inhalte an dem über die Nutzer_innen gesammelten Wissen orientieren. Eine kritische Analyse dieser Funktions- und Subjektivierungsweisen kann dann unter anderem zum Ziel haben, die Verschränkung algorithmischer Entscheidungssysteme mit einem digital agierenden 'Überwachungskapitalismus'[5] aufzuzeigen[6], dessen Erfolg sich an den algorithmusbasierten Entscheidungen der Individuen bemisst.[7]

Auch über kommerzielle Kontexte hinaus wird die hohe Effizienz und Geschwindigkeit algorithmischer Entscheidungssysteme als Vorteil aufgefasst, von anderen ökonomischen Aufgaben wie der Entscheidung über die Vergabe von Krediten und die Einstufung von Sozialhilfen und Versicherungsleistungen bis zu algorithmisch begleiteten Entscheidungen in der Sozialarbeit[8] sowie der medizinischen Vorsorge oder Triage[9]. Als weiterer positiver Aspekt wird in diesen Zusammenhängen die vermeintliche Objektivität von Big Data-Technologien und den damit verbundenen algorithmischen Prozessen genannt, von denen man sich eine Entpolitisierung bestimmter bürokratischer und demokratischer Prozesse verspricht.[10] Inzwischen konnten zahlreiche Untersuchungen jedoch zeigen, dass algorithmische Entscheidungen nicht selten rassistische oder anderweitig diskriminierende Sachverhalte reproduzieren. Auch hier können die betreffenden algorithmischen Systeme nur unter Berücksichtigung der ihnen zugrunde gelegten Datensätze beurteilt werden. Weder Daten noch die durch Menschen implementierte Programmierung der Algorithmen können durch die Objektivierung ihrer Gegenstände Neutralität gewährleisten. Darüber hinaus muss infrage gestellt werden, ob Objektivität überhaupt als ein erstrebenswertes Kriterium für sinnvolle Entscheidungsfindung angesetzt werden soll oder inwiefern hier noch weitere Kriterien gefunden werden müssten. Beispielsweise kann, wie Lisa Herzog bemerkt, nicht triviales Wissen wie beispielsweise der 'Sinn' bestimmter Fragestellungen, der von Menschen bei der Entscheidungsfindung einbezogen wird, nicht leicht in algorithmische Systeme übersetzt werden.[11]

Algorithmen und algorithmische Entscheidungssysteme erscheinen in den hier genannten Anwendungsfeldern für Betroffene meist als intransparente Black Boxes, deren Entscheidungen nicht jede Person gleichermaßen anzufechten weiß.[12] Häufig entrückt zusätzlich zur technischen und organisatorischen Unerreichbarkeit auch die Geschwindigkeit algorithmischen Entscheidens das Resultat menschlicher Kontrolle oder Korrektur. Aus ethischer und politischer Sicht wird aus diesen Gründen häufig eine Modifizierung bestehender algorithmischer Entscheidungspraktiken und der ihnen vorangehenden Datensammlung, teilweise aber auch ein vollständiger Verzicht auf solche Systeme erforderlich.

Algorithmen wird allgemeiner die Fähigkeit zugeschrieben, die Gesellschaft strukturell zu verändern. Insbesondere bei jüngsten Diskussionen um den Strukturwandel der Öffentlichkeit wird häufig auf die Omnipräsenz algorithmischer Entscheidungen und deren Auswirkungen auf den politischen Diskurs verwiesen. Eine der bekanntesten Theorien einer solchen algorithmisch herbeigeführten Veränderung gesellschaftlichen Miteinanders wird unter dem Begriff der Filterblase geführt, die für eine fortschreitende Isolierung, Fragmentierung und Polarisierung von Individuen und Gruppen sorge.[13] Ebenfalls einbezogen werden algorithmische Entscheidungssysteme in der Echokammer-Theorie, die aber auch andere Faktoren zu bedenken gibt.[14]

Wie wird der Begriff erfasst/festgestellt?

Wie bereits erörtert, liegen in digitalen Umgebungen immer dann algorithmische Entscheidungen vor, wenn bestimmte Handlungen durch computergestützte Algorithmen veranlasst, beeinflusst oder vorgenommen wurden. Da Algorithmen die Kernstruktur von Computern und Rechensystemen ausmachen, ist dies im weitesten Sinne immer der Fall. Im engeren Sinne spricht man aber insbesondere dann von algorithmischen Entscheidungen, wenn spezifische, meist verhältnismäßig offene Problemstellungen, die zuvor in komplexen Prozessen von Menschen gelöst beziehungsweise entschieden wurden, nun an Algorithmen delegiert wurden.

Welche Bildungsprojekte gibt es dazu?

  • Einen Überblick über Projekte und Ressourcen zum Thema Algorithmen findet sich in der CBDALN-Datenbank: https://www.bigdataliteracy.net/?sfid=599&_sf_s=algorithm.
  • AlgorithmWatch ist eine gemeinnützige Organisation, die es sich zur Aufgabe macht, algorithmische Entscheidungsprozesse und deren Auswirkung auf die Gesellschaft kritisch zu beleuchten: https://algorithmwatch.org/.
  • netzforma* e.V. beschäftigt sich aus einer feministischen Perspektive mit Aspekten moderner Überwachungstechnologien und Künstlicher Intelligenz: https://netzforma.org/ueber-uns.
  • Das an der Fakultät für Journalismus, Medien und Kultur der Universität Cardiff angesiedelt Projekt Data Justice Lab untersucht den kritischen Zusammenhang zwischen Datafizierung und sozialer Gerechtigkeit und beleuchtet die Auswirkungen von daten- und algorithmusgesteuerten Prozessen und Big Data: https://datajusticelab.org/.

Weiterführende Literatur

  • Herder, Janosik. 2018. "Regieren Algorithmen? Über den sanften Einfluss algorithmischer Modelle." In (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, herausgegeben von Resa Mohabbat Kar, Basanta E.P. Thapa und Peter Parycek, 179-203. Berlin: Kompetenzzentrum Öffentliche IT.
  • Herzog, Lisa. 2021. „Algorithmisches Entscheiden, Ambiguitätstoleranz und die Frage nach dem Sinn.“ Deutsche Zeitschrift für Philosophie, 69 (2): 197–213. https://doi.org/10.1515/dzph-2021-0016.
  • Introna, Lucas D. 2017. "Die algorithmische Choreographie des beeindruckbaren Subjekts." In Über die rechnerische Konstruktion von Wirklichkeit, herausgegeben von Robert Seyfert und Jonathan Roberge, 41-74. Bielefeld: Transcript. Aufgerufen am 25.05.2021, https://www.jstor.org/stable/j.ctv8d5t87.4.
  • Mohabbat Kar, Resa; Basanta E.P. Thapa und Peter Parycek. 2018. (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft. Berlin: Kompetenzzentrum Öffentliche IT.
  • Reigeluth, Tyler. 2015. "Warum ›Daten‹ nicht genügen. Digitale Spuren als Kontrolle des Selbst und als Selbstkontrolle." Zeitschrift für Medienwissenschaft, Heft 13: Überwachung und Kontrolle, Jg. 7 (2): 21–34. https://doi.org/10.25969/mediarep/1532.
  • Zweig, Katharina A. und Tobias D. Krafft. 2018. "Fairness und Qualität algorithmischer Entscheidungen." In (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, herausgegeben von Resa Mohabbat Kar, Basanta E.P. Thapa und Peter Parycek, 204-226. Berlin: Kompetenzzentrum Öffentliche IT.

Quellenverzeichnis

  1. Vgl. Latour, Bruno. 2017. Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Frankfurt am Main: Suhrkamp.
  2. Reigeluth, Tyler. 2015. "Warum ›Daten‹ nicht genügen. Digitale Spuren als Kontrolle des Selbst und als Selbstkontrolle." Zeitschrift für Medienwissenschaft, Heft 13: Überwachung und Kontrolle, Jg. 7 (2): 21–34. Aufgerufen am 09.08.2021, https://doi.org/10.25969/mediarep/1532, S. 34.
  3. Reigeluth, Tyler. 2015. "Warum ›Daten‹ nicht genügen. Digitale Spuren als Kontrolle des Selbst und als Selbstkontrolle." Zeitschrift für Medienwissenschaft, Heft 13: Überwachung und Kontrolle, Jg. 7 (2): 21–34. Aufgerufen am 09.08.2021, https://doi.org/10.25969/mediarep/1532, S. 34. Vgl. ausführlicher zum Subjekt bei Foucault: Foucault, Michel. 2005. Schriften in vier Bänden. Dits et Ecrits. Band IV. 1980-1988. Frankfurt am Main: Suhrkamp, S. 275; Foucault, Michel. 2009. Hermeneutik des Subjekts. Vorlesungen am Collège de France 1981/82. Frankfurt am Main: Suhrkamp.
  4. Introna, Lucas D. 2017. "Die algorithmische Choreographie des beeindruckbaren Subjekts." In Über die rechnerische Konstruktion von Wirklichkeit, herausgegeben von Robert Seyfert und Jonathan Roberge, 41-74. Bielefeld: Transcript. Aufgerufen am 25.05.2021, https://www.jstor.org/stable/j.ctv8d5t87.4.
  5. Zuboff, Shoshana. 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt; New York: Campus, S. 234f.
  6. Herzog, Lisa. 2021. „Algorithmisches Entscheiden, Ambiguitätstoleranz und die Frage nach dem Sinn.“ Deutsche Zeitschrift für Philosophie, 69 (2): 197–213. https://doi.org/10.1515/dzph-2021-0016, S. 199.
  7. Gilles Deleuze zufolge nennt man diese nicht mehr Individuen, sondern aufgrund ihrer Klassifizierung und Zuordnung zu bestimmten (Käufer_innen)-Gruppen 'Dividuen'. Vgl. Deleuze, Gilles. 2017 [1993]. Unterhandlungen 1972-1990. Übersetzt von Gustav Roßler. Frankfurt am Main: Suhrkamp.
  8. Redden, Joana; Dencik, Lina und Harry Warne. 2020. "Datafied child welfare services: unpacking politics, economics and power". Policy Studies, 41 (5): 507-526. Aufgerufen am 08.11.2021, https://www.tandfonline.com/doi/full/10.1080/01442872.2020.1724928.
  9. Ellebrecht, Nils; Feldmeier; Konrad und Stefan Kaufmann. 2013. "IT’s about more than speed. The impact of IT on the management of mass casualty incidents in Germany." Proceedings of the 10th International ISCRAM Conference – Baden-Baden, Germany, May 2013, 391-400. Aufgerufen am 08.11.2021, https://idl.iscram.org/files/ellebrecht/2013/473_Ellebrecht_etal2013.pdf.
  10. Rieder, Gernot und Judith Simon. 2018. "Vertrauen in Daten oder: Die politische Suche nach numerischen Beweisen und die Erkenntnisversprechen von Big Data." In (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, herausgegeben von Resa Mohabbat Kar Basanta E.P. Thapa und Peter Parycek, 159-178. Berlin: Kompetenzzentrum Öffentliche IT, S. 171.
  11. Herzog, Lisa. 2021. „Algorithmisches Entscheiden, Ambiguitätstoleranz und die Frage nach dem Sinn.“ Deutsche Zeitschrift für Philosophie, 69 (2): 197–213. Aufgerufen am 08.11.2021, https://doi.org/10.1515/dzph-2021-0016, S. 211-212.
  12. Herzog, Lisa. 2021. „Algorithmisches Entscheiden, Ambiguitätstoleranz und die Frage nach dem Sinn.“ Deutsche Zeitschrift für Philosophie, 69 (2): 197–213. https://doi.org/10.1515/dzph-2021-0016, S. 211-212.
  13. Vgl. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser.
  14. Vgl. Rau, Jan Philipp und Sebastian Stier. 2019. "Die Echokammer-Hypothese. Fragmentierung der Öffentlichkeit und politische Polarisierung durch digitale Medien?" Zeitschrift für Vergleichende Politikwissenschaft 13: 399–417. Aufgerufen am 08.11.2021, https://link.springer.com/article/10.1007/s12286-019-00429-1.


Die erste Version dieses Beitrags wurde von Vesna Schierbaum im Rahmen des Projekts "Digitale Souveränität" am Institut für Medienrecht und Kommunikationsrecht und am Institut für Medienkultur und Theater der Universität zu Köln erstellt.

Zitiervorschlag: Glossar Digitale Souveränität. 2021. „Algorithmisches Entscheiden (Medienwissenschaft).“ https://www.bigdataliteracy.net/glossar/. Zugegriffen am tt.mm.jjjj.