Algorithmus

Eine wohl definierte Rechenvorschrift, die eine Eingabe bestimmter Rechengrößen in eine Ausgabe bestimmter Rechengrößen umwandelt und zur Lösung von mathematischen Problemstellungen dient. Alle in einem Computerprogramm ablaufenden Prozesse basieren auf algorithmischen Vorgängen.
Icon medien kultur wissenschaft.png
Dieser Artikel verweist auf:

Was bezeichnet dieser Begriff?

Die Bedeutung des Begriffs Algorithmus hat sich von der Bezeichnung eines mathematischen Verfahrens zu dessen automatisierter Umsetzung und schließlich zur Auslagerung menschlicher Entscheidungen auf Automaten verschoben.

Als Terminus vor allem der Mathematik und der Infomatik bezeichnet der Begriff Algorithmus zunächst einen exakt definierten Arbeitsvorgang, insbesondere eine Rechenvorschrift beziehungsweise eine wohl definierte Folge von Rechenschritten, die eine Eingabe bestimmter Rechengrößen in eine Ausgabe bestimmter Rechengrößen umwandelt. Insofern ist der Algorithmus zunächst als ein "Hilfsmittel"[1] zur Lösung von mathematischen Rechenproblemen anzusehen, an deren Ende stets ein nachvollziehbares und unter gleichen Voraussetzungen exakt wiederholbares Ergebnis steht. Dabei ist entscheidend, dass die ermittelte Lösung eine "logische Wahrheit"[2] hervorgebracht hat, das heißt - angenommen, der Input und der Algorithmus waren richtig - dass der Output ebenfalls immer richtig ist.

Einem verbreiteten heutigen Verständnis nach ist ein Algorithmus eine Folge mathematischer Berechnungen, welche die zu bearbeitende Aufgabe „mithilfe von Gleichungen, Arithmetik, Algebra, Analysis, Logik und Wahrscheinlichkeiten“[3] in Computercode umwandelt. Insofern sind sie zentrale Bestandteile moderner Rechensysteme und bestimmen grundsätzlich alle Abläufe in Rechnersystemen. Aufgrund ihres breiten Einsatzes in Computerprogrammen und in der Datenverarbeitung können sie über ihren ursprünglichen mathematischen Kontext als Rechenschema hinaus als Technologie bezeichnet werden. Vor allem bei der effizienten und schnellen Handhabung besonders großer Datenmengen sowie bei dem Einsatz von Big Data bestimmen sie Handlungsoptionen. So schreibt die Mathematikerin und Autorin Hannah Fry in ihrem populärwissenschaftlichen Buch über bestimmte Algorithmen, dass deren Aufgabe zunächst sei, Informationen zu priorisieren und zu sortieren.[4] Ein prominentes Beispiel hierfür ist der weltweit bekannte Algorithmus Google PageRank von Google Search, der bei der Verwendung der Suchmaschine für die Sortierung und Priorisierung von Ergebnisseiten beispielsweise nach Kriterien der Beliebtheit zuständig ist.[5] Darüber hinaus werden sie von Internetanbietern dazu verwendet, effiziente Routen für den Datentransport zu ermitteln.[6] Außerdem kommen Algorithmen bei der Klassifikation, Kombination, Anordnung und beim Abgleichen von Informationen zum Einsatz, so zum Beispiel bei der Schaltung von Online-Werbung, aber auch bei den mittlerweile häufig genutzten Dating-Portalen, bei denen Algorithmen auf Basis der von ihnen prozessierten personenbezogenen Daten der Internetnutzer_innen relevante Informationen erkennen und filtern. Auch im Bereich des E-Commerce, also im elektronisch vermittelten Handel von Konsumgütern und Dienstleistungen, spielen Algorithmen eine wichtige Rolle. Zum Beispiel beruhen die beim Kauf eines Produktes im Internet verwendeten Schlüsseltechnologien wie die Public-Key-Krypotgraphie, digitale Unterschriften oder der Schutz privater Informationen wie Kreditkartennummern oder Passwörter auf Algorithmen.[7]

Man unterscheidet allgemein zwischen regelbasierten, das heißt von Menschen geschriebenen und daher verständlichen Algorithmen und selbstlernenden Algorithmen, die unter dem Begriff der künstlichen Intelligenz (KI) subsumiert werden.[8]

Aufgrund der allgegenwärtigen, für viele menschliche Beteiligte jedoch intransparenten Verwendung von Algorithmen in automatisierten Handlungsprozessen verschiedenster Art hat sich der Algorithmus in den letzten Jahrzehnten zu einer kulturellen Projektionsfläche unterschiedlichster Hoffnungen und Ängste entwickelt, in denen dem Algorithmus als Kulturtechnik oft eine "unbehagliche Handlungsautonomie"[9] zugeschrieben wird. In diesem Kontext werden einerseits Fragen zu Machtstrukturen laut, innerhalb derer Algorithmen als dienliche Technologien zur Etablierung gesellschaftlicher Asymmetrien angesehen werden. Andererseits spielen selbstlernende Algorithmen "im jahrzehntealten Diskurs um die prinzipielle Möglichkeit einer künstlichen Intelligenz", beispielsweise in sogenannten neuronalen Netzen oder bei Technologien wie Deep Learning, eine bedeutende Rolle.[10]

Woher kommt der Begriff?

Da das Konzept von Algorithmen zunächst schlichtweg präzise wiederholbare, vor allem mathematisch ausführbare Handlungsanweisungen bezeichnet, ist es genau genommen so alt wie die Mathematik selbst. Erste geschichtliche Bezüge finden sich schon in der Zeit der Babylonier zwischen 3000 bis 200 v. Chr., die bereits ein "außerordentlich hochstehendes"[11] numerisches Rechensystem entwickelt hatten. Im engeren Sinne geht der Begriff Algorithmus aber auf den im 9. Jahrhundert lebenden persisch-arabischen Gelehrten und Mathematiker Abu Ja'far Mohammed ibn Musa al-Khowarizmi zurück, dessen Lehrbuch über die indischen Zahlen und das Ziffernrechnen nach indischem Modell großen Einfluss auf die europäische Mathematik der folgenden Jahrunderte hatte. Bei einer Übersetzung des Buches ins Lateinische im 12. Jahrhundert wurde dessen Name mit "Algoritmi" übersetzt, woraus sich später der Begriff Algorithmus ableitete.[12]

Für das moderne Verständnis von Algorithmen ist ihre Auslegung als Rechenhilfsmittel relevant.[13] Auch diese finden bereits seit der Antike Verwendung. Historisch gesichert ist beispielsweise der Gebrauch von Rechensteinen auf einem Rechenbrett oder Rechentuch. Noch zur Zeit der Renaissance benutzte man linierte Bretter, "auf denen Steinchen zur Markierung von Zahlenwerten gesetzt und verschoben wurden"[14]. Seit Beginn des 17. Jahrhunderts kamen im deutschen Sprachraum die ersten Rechenmaschinen zur Ausführung einfacher Rechenaufgaben auf, darunter eine sogenannte Vierspeziesmaschine des Philosophen und Universalgelehrten Gottfried Wilhelm Leibniz. Er war es auch, der erstmals die Idee einer "logisch-mathematischen Universalsprache" entwarf, "in der alle Probleme kalkülhaft 'durch Nachrechnen' gelöst werden können"[15]. Zentral waren für ihn hierbei die Fragen, wie "sich alle wahren Aussagen einer Theorie [...] 'maschinell' erzeugen" lassen und wie darüber hinaus maschinell entschieden werden könne, ob eine bestimmte Aussage wahr oder falsch sei.[16] Seine theoretischen Vorarbeiten stehen exemplarisch dafür, dass der Algorithmus im 17. Jahrhundert den "Stellenwert eines formelhaften Erkenntniswerkzeugs"[17] erlangte, der auf der bis heute bestehenden Annahme basiert, dass die Naturgesetze mathematischen Relationen entsprechen, "sodass Wissen auch vollständig automatisch durch Algorithmen produziert werden kann"[18].

Ein grundlegendes theoretisches Konzept für die modernen Rechenmaschinen, die heutigen Computer, legte der britische Mathematiker Alan Turing vor. Er widmete sich in der ersten Hälfte des 20. Jahrhunderts - neben Mathematikern und Theoretikern wie Alonzo Church, Kurt Gödel und Steven C. Kleene - der Suche nach einem präzisen Begriff von Berechenbarkeit beziehungsweise Algorithmisierbarkeit. Hierfür entwickelte er eine abstrakte universale Rechenmaschine nach dem idealisierten Vorbild eines menschlichen oder mechanischen Rechners, die sogenannte Turing-Maschine.[19] Universell ist diese Maschine insofern, als dass mit ihr die Notwendigkeit schwindet, "für unterschiedliche Rechnerprozesse jeweils neue Maschinen zu entwerfen"[20]. Darüber hinaus kann jede andere korrekte Rechenmaschine auf einer Turing-Maschine simuliert bzw. emuliert werden. Wie Algorithmen ist die Turing-Maschine zunächst nur abstrakt definiert; alle konkreten modernen Rechenmaschinen werden in der Handhabung als Turing-Maschinen betrachtet, erfüllen aber streng genommen die Bedingungen nicht, die unter anderem unbegrenztes Speichervermögen und unbegrenzte Arbeitszeit annehmen.[21]

Ein Durchbruch für den praktischen Einsatz hocheffizienter Algorithmen in der Softwaretechnik war in den 1980er Jahren die Entwicklung sogenannter Computeralgebrasysteme. Sie stellen "außerordentlich mächtige, universelle 'natürliche' algorithmische Sprachen"[22] dar, mit deren Hilfe Algorithmen heute in Form von Computerprogrammen und anhand von elektronischen Schaltkreisen Maschinen steuern können.

Wonach muss ich fragen?

  • Wer hat welchen Algorithmus mit welchem Ziel programmiert, und inwieweit steht der Algorithmus unter der direkten Kontrolle dieser Instanz?
  • Ist der Algorithmus lesbar, sind seine Entscheidungen transparent, und wenn ja, für wen?
  • In welchen Umgebungen ersetzt oder verändert ein Algorithmus welches bisher menschliches Handeln?
  • Welches Wissen wird jeweils durch Algorithmen generiert?
  • Welches Wissen steht ihnen operationell zur Verfügung?
  • Nach welchen Kriterien wird das für ihre Operationen notwendige Wissen als relevant angesehen?
  • Welches Wissen wird dabei ausgegrenzt, wie kommt diese Ausgrenzung zustande und wie ist sie zu rechtfertigen?[23]
  • Auf Basis welcher Annahmen, ideologischen und politischen Überzeugungen und ethischen Standards wurde ein Algorithmus entwickelt?
  • Welche Überzeugungen und Standards werden von dem Algorithmus reproduziert, wenn z.B. bisherige Annahmen über den Zusammenhang zwischen Wohnort und Kreditwürdigkeit verallgemeinert werden?
  • Sind Anwender_innen mithilfe von Algorithmen dazu in der Lage, menschliches Verhalten vorherzusagen?[24]
  • In welchen Fällen führen Algorithmen vermeintlich auf Vorhersagen und Prognosen beruhendes Verhalten von Nutzer_innen - gleich einer selbsterfüllenden Prophezeiung - möglicherweise erst herbei?[25]
  • Auf welche Weise wird von welchen Akteur_innen argumentiert, Algorithmen operierten objektiv und welche Auswirkungen hat dieser Objektivitätsglaube auf die Nutzer_innen?[26]
  • Wie beeinflusst der Einsatz von Algorithmen das soziale Miteinander beziehungsweise digitale Teilöffentlichkeiten, beispielsweise in sozialen Netzwerken?

Wann ist das wichtig?

Dass Algorithmen im Zuge der umfassenden Digitalisierung eine hohe gesellschaftliche Relevanz zukommt, steht außer Frage, werden die oben beschriebenen Rechenprogramme aufgrund ihrer hohen Effizienz in digitalen Umgebungen doch ubiquitär eingesetzt. Gerade in (populär-)wissenschaftlichen Diskursen der letzten zwanzig Jahre scheint dem Begriff des Algorithmus jedoch besonders große Beachtung geschenkt zu werden. Die darin durchaus heterogen beschriebenen Entwicklungen lassen sich unter dem Begriff des Algorithmic Turn subsumieren.[27] Er verweist auf "die diskursiv hergestellte und gesamtgesellschaftlich geteilte Deutung der Algorithmen als besonders mächtige Akteure"[28]. Innerhalb dieser Argumentationen wird oftmals eine Welt gezeichnet, in der die Menschen von Algorithmen vollständig erfasst, manipuliert und in aller Konsequenz beherrscht werden[29], wobei diese den vermeintlich intelligenten Technologien chancenlos unterlegen zu sein scheinen.[30] Als besonders bedrohlich wird dann die angenommene "Eigendynamik"[31] dieser automatisch und im Hintergrund agierenden, vermeintlich autonom lernenden Algorithmen empfunden. Thomas Bächle weist in diesem Zusammenhang darauf hin, dass derartige Vorstellungen nur vor dem Hintergrund der gesellschaftlich vorherrschenden und historisch gewachsenen Überzeugung überhaupt entstehen konnten, dass sich wahre wissenschaftliche Erkenntnisse über die Natur und den Menschen allein über einen logisch-mathematischen Zugang erschließen lassen. Der Algorithmus als schlechthin logische Operation sei, so Bächle, die empirisch-technische Entsprechung dieses Modells.[32] Ein Resultat dessen scheint zu sein, dass ihm sowohl auf Seiten der Anwender_innen als auch in wissenschaftlichen Debatten tendenziell zu viel Handlungsmacht zugesprochen wird.[33]

Dieser "Mythos Algorithmus"[34] birgt jedoch die Gefahr, von wichtigen Reflektionen über die teils durchaus zu problematisierende Verwendung von Algorithmen durch wirtschaftliche und Regierungsakteure und über die damit möglicherweise einhergehenden Machtgefälle abzulenken. Eine mögliche Kritik der in der Regel intransparenten Verwendung von Algorithmen tangiert nicht zuletzt wichtige Fragen der informationellen Selbstbestimmung. Einerseits nehmen beispielsweise Filteralgorithmen von Suchmaschinen, die vor allem bei der Schaltung und Anordnung personalisierter Werbung beteiligt sind, erheblichen Einfluss auf Kaufentscheidungen der Nutzer_innen. Andererseits reduzieren die den Operationen zugrunde liegenden Programme den Menschen auf "eine Verlängerung technologischer, automatisch generierter Handlungsanreize"[35], ohne dass dabei für die Nutzer_innen jemals ersichtlich würde, welches Wissen über sie für die Operationen als relevant eingestuft wurde. Am Algorithmus lassen sich also Wissensasymmetrien veranschaulichen, die wiederum Monopolisierungstendenzen bestärken, wie sie bei Unternehmen wie Facebook und Google zu beobachten sind.

Spätestens bei der algorithmengestützten Ermittlung von Kreditwürdigkeit oder beim automatisierten Risk Scoring beispielsweise in der Terrorabwehr und im Predictive Policing erreicht die Verwendung von Algorithmen dann weitreichende Dimensionen, die nicht zuletzt juristischer Regulation bedürfen (siehe Algorithmisches Entscheiden). Auch hier ist auf Seiten der Anwender_innen meist die Rede von einer hochgradigen Objektivität der Programme. Diese entpuppt sich jedoch als Irrglauben. So häufen sich Berichte von Algorithmen, die aufgrund der ihnen zur Verfügung stehenden Daten rassistische oder anderweitig diskriminierende Ergebnisse (re)produzierten.[36] Gleichzeitig fehlt den Nutzer_innen das Wissen über die Funktionsweisen der Algorithmen oder ihre Programmierung wird wie im Beispiel von Facebooks News Feed als Geschäftsgeheimnis gehütet. Der Algorithmus entspricht daher dem klassischen Verständnis einer Black Box, bei der nicht erkennbar ist, welche Mechanismen für die Umwandlung von Input zu Output geführt haben.[37] Doch auch die Forderung nach Transparentmachung der Programme durch die Entwickler_innen wird wegen deren Komplexität kontrovers diskutiert. So argumentieren Johannes Gerberding und Gert G. Wagner, dass man die Programmierung eines proprietären Algorithmus nicht unbedingt offen legen müsse und dennoch sein Verhalten durch Testläufe überprüfen könne.[38] Die Fachgruppe Rechtsinformatik der Gesellschaft für Informatik hat etwa in einer Studie für den Sachverständigenrat für Verbraucherfragen nachgewiesen, unter welchen Bedingungen eine solche Überprüfung für Expert_innen möglich ist.[39] Inwiefern damit auch Laien digitale Souveränität (zurück)gewinnen können, ist allgemein ein Frage der Algorithmensouveränität.

Derlei Meldungen von diskriminierenden Algorithmen und von Entwickler_innen, die selbst nicht mehr wüssten, wie ihre Programme funktionieren, befeuern in der Regel die Skepsis gegenüber der Technologie selbst. Entscheidender wäre hier jedoch die Frage, welche ethischen Standards bereits dem Prozess des Programmierens, also bei der Herstellung der Algorithmen zugrunde gelegt werden sollten, wer die Einhaltung dieser Regularien wie kontrollieren sollte[40] sowie welche Richtlinien für den Einsatz entsprechender Technologien gelten sollen. Eine Transparentmachung der allgemeinen Verfahrensweisen der Algorithmen sowie der Daten, die den algorithmischen Entscheidungen zugrundeliegen, wäre hier auch aus Sicht der Verbraucher_innen möglicherweise schon befriedigend.[41] Denkbar wäre auch, den Nutzer_innen verpflichtend Funktionen zur Verfügung zu stellen, mit denen sie die Parameter für die algorithmische Entscheidungsfindungen, beispielsweise bei der Suchmaschinenrecherche, selbst aktiv modifizieren können.[42] Ob, wann und für welche Bereiche derartige Regelungen auf den Weg gebracht werden und wie praktikabel und wirksam diese tatsächlich sein können, ist derzeit nicht abzusehen. Johannes Paßmann und Asher Boersm plädieren deshalb dafür, algorithmusgestützte Prozesse danach zu beurteilen, welches Wissen wir über die Informationsquellen der unbekannten Parameter besitzen. So wissen wir zwar nicht, wie ein gegebener Algorithmus bestimmte Informationen über eine Person in einen Entscheidungsprozess einfließen lässt, können aber in der Regel davon ausgehen, dass ihm hierfür beispielsweise ethnografische Daten zur Verfügung standen. Paßmann und Boarsm nennen diese Faktoren "bekannte Unbekannte"[43], auf deren Basis entschieden werden kann, ob ein Algorithmus potenziell ethisch fragwürdige Ergebnisse liefert und wann ein algorithmisches Ergebnis entsprechend mit Vorsicht betrachtet werden sollte.[44]

Welche Bildungsprojekte gibt es dazu?

  • AlgorithmWatch ist eine gemeinnützige Organisation, die es sich zur Aufgabe macht, algorithmische Entscheidungsprozesse und deren Auswirkung auf die Gesellschaft kritisch zu beleuchten: https://algorithmwatch.org/.
  • netzforma* e.V. beschäftigt sich aus einer feministischen Perspektive mit Aspekten moderner Überwachungstechnologien und Künstlicher Intelligenz: https://netzforma.org/ueber-uns
  • Das Critical Big Data and Algorithmic Literacy Network (CBDALN) möchte Individuen zur kritischen Reflexion über ethische Aspekte im Kontext einer datafizierten und von Algorithmen durchsetzten digitalen Umwelt verhelfen: https://www.bigdataliteracy.net/.
  • Die US-amerikanische NGO Electronic Frontier Foundation setzt sich sowohl im Bereich der Bildung als auch juristisch für die Verteidigung von Bürger_innenrechten in digitalen Kontexten ein. Auf ihrer englischsprachigen Website findet sich unter anderem eine Themenausgabe zu künstlicher Intelligenz und selbstlernenden Technologien: https://www.eff.org/issues/ai.

Weiterführende Literatur

  • Bächle, Thomas Christian. 2015. Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Wiesbaden: Springer.
  • Bächle, Thomas Christian. 2015. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag.
  • Cormen, Thomas H.et al. 2004. Algorithmen - Eine Einführung. Übersetzt von Paul Molitor. München/ Wien: De Gruyter Oldenbourg/ MIT Press.
  • Fry, Hannah. 2019. Hello world: was Algorithmen können und wie sie unser Leben verändern. Übersetzt von Sigrun Schmid. München: C.H. Beck.
  • Turing, Alan M. 2007. "Computermaschinerie und Intelligenz (1950)." In: Reader Neue Medien. Texte zur digitalen Kultur und Kommunikation, herausgegeben von Karin Bruns und Ramón Reichert. Bielefeld: transcript Verlag.
  • Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum.
  • Zimmer, Wolf. 2019. Ansturm der Algorithmen. Die Verwechslung der Urteilskraft mit der Berechenbarkeit. Berlin: Springer Viehweg.

Quellenverzeichnis

  1. Cormen, Thomas H. et al. 2004. Algorithmen - Eine Einführung. Übersetzt von Paul Molitor. München/ Wien: De Gruyter Oldenbourg/ MIT Press, S. 5.
  2. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 25.
  3. Fry, Hannah. 2019. Hello world: was Algorithmen können und wie sie unser Leben verändern. Übersetzt von Sigrun Schmid. München: C.H. Beck, S. 20.
  4. Fry, Hannah. 2019. Hello world: was Algorithmen können und wie sie unser Leben verändern. Übersetzt von Sigrun Schmid. München: C.H. Beck.
  5. Langville, Amy N. und Carl D. Meyer. 2012. Google's PageRank and Beyond: The Science of Search Engine Rankings. Princeton: Princeton University Press, S. 25.
  6. Cormen, Thomas H. et al. 2004. Algorithmen - Eine Einführung. Übersetzt von Paul Molitor. München/Wien: De Gruyter Oldenbourg MIT Press, S. 6.
  7. Cormen, Thomas H.et al. 2004. Algorithmen - Eine Einführung. Übersetzt von Paul Molitor. München/ Wien: De Gruyter Oldenbourg/ MIT Press, S. 8.
  8. Fry, Hannah. 2019. Hello world: was Algorithmen können und wie sie unser Leben verändern. Übersetzt von Sigrun Schmid. München: C.H. Beck, 21-23.
  9. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 14.
  10. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 37f.
  11. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 34.
  12. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbal. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 22.
  13. Eine detaillierte historische Herleitung algorithmischer Rechenmaschinen findet sich bei Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum.
  14. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 51.
  15. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 51.
  16. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 51.
  17. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 20.
  18. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 21.
  19. Copeland, B. Jack. 2012. Turing: pioneer of the information age. Oxford: Oxford University Press, 14f.
  20. Turing, Alan M. 2007. "Computermaschinerie und Intelligenz (1950)." In: Reader Neue Medien. Texte zur digitalen Kultur und Kommunikation, herausgegeben von Karin Bruns und Ramón Reichert. Bielefeld: transcript Verlag, S. 45.
  21. Hier wird kontrovers diskutiert, ob das Verhältnis von materieller Hardware und theoretisch entworfener Software in der einen oder anderen Richtung aufgelöst werden kann. Vgl. Kittler, Friedrich. 1993. "Es gibt keine Software." In: Draculas Vermächtnis: technische Schriften. Leipzig: Reclam, S. 225-242. Mierau, Caspar. 2012. "'There is no Hardware.' Reanimation durch Emulation." In: Animationen. Szenen des Auf- und Ablebens in Kunst, Literatur und Geschichtsschreibung, herausgegeben von Ulrike Hanstein, Anika Höppner und Jana Mangold. Wien: Böhlau, S. 311-328.
  22. Ziegenbalg, Jochen; Ziegenbalg, Oliver und Bernd Ziegenbalg. 2016. Algorithmen von Hammurapi bis Gödel: Mit Beispielen aus den Computeralgebrasystemen Mathematica und Maxima. Wiesbaden: Springer Fachmedien/ Springer Spektrum, S. 54.
  23. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 30.
  24. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 30.
  25. Pasquale, Frank. 2011. "Restoring Transparency to Automated Authority." Journal on Telecommunications & High Technology Law, 9 (1): 235-254. Aufgerufen am 25.02.2021, https://ssrn.com/abstract=1762766, S. 237.
  26. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 31.
  27. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 24.
  28. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 27.
  29. Stampfl, Nora S. 2013. Die berechnete Welt (TELEPOLIS): Leben unter dem Einfluss von Algorithmen. Hannover: Heise Verlag, S. 13.
  30. Grundwald, Armin. 2019. Der unterlegene Mensch: die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern. München: premium riva.
  31. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 24.
  32. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 22f.
  33. Zimmer, Wolf. 2019. Ansturm der Algorithmen. Die Verwechslung der Urteilskraft mit der Berechenbarkeit. Berlin: Springer Viehweg, 309ff.
  34. Bächle, Thomas Christian. 2015. Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Wiesbaden: Springer.
  35. Bächle, Thomas Christian. 2016. Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius Verlag, S. 28.
  36. Wolfangel, Eva. 2018. "Algorithmen. Programmierter Rassismus." ZEIT Online (19.06). Aufgerufen am 01.09.2020, https://www.zeit.de/digital/internet/2018-05/algorithmen-rassismus-diskriminierung-daten-vorurteile-alltagsrassismus.
  37. Pasquale, Frank. 2011. "Restoring Transparency to Automated Authority." Journal on Telecommunications & High Technology Law, Vol. 9 (1): 235-254. Aufgerufen am 25.02.2021, https://ssrn.com/abstract=1762766, S. 235-238.
  38. Gerberding, Johannes; Wagner, Gert G. 2019. "Gesetzliche Qualitätssicherung für „Predictive Analytics“ durch digitale Algorithmen". Zeitschrift für Rechtspolitik 52/4, S. 116-119.
  39. Fachgruppe Rechtsinformatik der Gesellschaft für Informatik. 2018. Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren. Aufgerufen am 03.01.2021, https://www.svr-verbraucherfragen.de/dokumente/technische-und-rechtliche-betrachtungen-algorithmischer-entscheidungsverfahren/
  40. Pasquale, Frank. 2011. "Restoring Transparency to Automated Authority." Journal on Telecommunications & High Technology Law, 9 (1): S. 235-254. Aufgerufen am 25.02.2021, https://ssrn.com/abstract=1762766, S. 254.
  41. Eine Diskussion zu möglichen Lösungen für eine Algorithmen-Ethik findet sich zum Beispiel hier: Blumtritt, Joerg; Pickhardt, Martina und Stephan Noller. 2013. "Algorithmen-Ethik." re:publica. https://doi.org/10.5446/33562.
  42. Blumtritt, Joerg; Pickhardt, Martina und Stephan Noller. 2013. "Algorithmen-Ethik." re:publica. https://doi.org/10.5446/33562, 00:53:38-00:54:40.
  43. Paßmann, Johannes und Asher Boersma. 2017. "Unknowing Algorithms On Transparency of Unopenable Black Boxes." In: The Datafied Society, herausgegeben von Mirko Tobias Schäfer und Karin van Es, 139-146. Amsterdam: Amsterdam University Press. https://www.jstor.org/stable/j.ctt1v2xsqn.14, S. 145.
  44. Paßmann, Johannes und Asher Boersma. 2017. "Unknowing Algorithms On Transparency of Unopenable Black Boxes." In: The Datafied Society, herausgegeben von Mirko Tobias Schäfer und Karin van Es, 139-146. Amsterdam: Amsterdam University Press. https://www.jstor.org/stable/j.ctt1v2xsqn.14, S. 145.

Die erste Version dieses Beitrags wurde von Vesna Schierbaum im Rahmen des Projekts "Digitale Souveränität" am Institut für Medienrecht und Kommunikationsrecht und am Institut für Medienkultur und Theater der Universität zu Köln erstellt.