Black Box (Medienwissenschaft)

Icon medien kultur wissenschaft.png
Ein Teil eines Systems, dessen Entscheidungen nicht direkt nachvollzogen, sondern nur von außen beobachtet werden können, wird als Black Box bezeichnet. Algorithmische Black Boxes bezeichnen Grenzen für die Transparenz programmierter, technischer Abläufe.
Dieser Artikel verweist auf folgende weitere Beiträge:
Algorithmus (Medienwissenschaft), Algorithmisches Entscheiden (Medienwissenschaft), Digitalisierung (Medienwissenschaft), Künstliche Intelligenz (Medienwissenschaft)

Was bezeichnet dieser Begriff?

Als Black Box wird generell ein Teil eines Systems bezeichnet, dessen Operation nicht oder nur indirekt über seinen Input oder Output beobachtet werden kann.[1] Im Zusammenhang mit der digitalisierten Gesellschaft werden solche uneinsehbaren Funktionsstellen vor allem als 'algorithmische Black Boxes' diskutiert. Damit sind in der Regel programmierte, digitale und automatisch operierende algorithmische Akteure gemeint, deren Entscheidungen nicht vollständig nachvollzogen werden können.[2]

Black Boxes können als Gegenbegriff zur Transparenz von Algorithmen verstanden werden.[3] Unterschieden werden kann dann zwischen Black Boxes, deren Operationen nur eingeschränkt einsehbar sind, weil beispielsweise ihre Programmierung oder ihre Datenbasis nicht allen oder nicht öffentlich zugänglich sind oder nur mit besonderen Vorkenntnissen oder besonderem Aufwand nachvollzogen werden können[4], und solchen algorithmischen Verfahren, bei denen die Black Box schon theoretisch nicht transparent gemacht werden kann, wie etwa beim Einsatz bestimmter selbstlernender Systeme, die über ihre selbst gebildeten Entscheidungskriterien keine Auskunft mehr geben, oder trivialer bei Systemen, die ihre Entscheidungen nicht hinreichend dokumentieren.

Nach einem Vorschlag von Paßmann und Boersma kann jedoch gegenüber der oft nur eingeschränkt oder gar nicht erzielbaren formalized transparency oft eine practical transparency erreicht werden.[5] Sie konzipieren diese praktische Transparenz in zwei anschaulichen paradigmatischen Metaphern im Anschluss an Merleau-Pontys Phänomenologie: Den Stock einer blinden Person, dessen Funktion dieser Person völlig transparent scheint und der nach und nach wie ein neuer Körperteil in deren eigenes Körperempfinden übergeht; und die Feder auf einem Hut, zu der die Person, die ihn trägt, ein vorsichtiges Verhältnis entwickelt, um Kollisionen und Unfälle zu vermeiden, ohne jemals die physikalische Bewegung der Feder ganz vorhersagen zu können. Paßmann und Boersma verweisen diese Differenz in Anlehnung an Karl Marx' Begriff des 'Maschinenfragments' auf Hegels Unterscheidung zwischen dem Werkzeug als Arbeitsmittel und dem Werkzeug als Ding und betonen, dass beide Konstellationen eine praktische Transparenz zulassen, wenn auch verschiedener Art.

Zugunsten digitaler Souveränität als Algorithmensouveränität wird regelmäßig algorithmische Transparenz gefordert.[6] Dabei ist die Frage nach dem Ausmaß der möglichen, notwendigen oder wünschenswerten Transparenz umstritten.[7]


Woher kommt der Begriff?

Der Begriff der 'Black Box' kommt ursprünglich aus der Kybernetik des mittleren 20. Jahrhunderts. Explizit wohl erstmals in Wilhelms Cauers "Theorie der linearen Wechselstromschaltungen"[8] eingesetzt, bezeichnet er Schaltkreise, die zugunsten einer Beschreibung ihres Outputs als Black Boxes behandelt werden. Die kybernetische Ausarbeitung nach Ross Ashby[9] wurde in der Tradition der Kybernetik zweiter Ordnung von Norbert Wiener auf eine allgemeine Systemtheorie bezogen.[10] Hier werden Black Boxes als noch nicht identifizierte, erst noch zu identifizierende Systemelemente verstanden. Bei Ranulph Glanville wurde die Existenz von Black Boxes zu einer unhintergehbaren kritischen Grenze in der Erforschung von Systemen überhaupt erhoben: "Inside every white box, there are two black boxes trying to get out."[11] In Wieners und Glanvilles philosophischen Reflexionen wird die Black Box auf Gedankenexperimente des schottischen Mathematikers und Physikers James Clerk Maxwell aus dem 19. Jahrhundert zurückbezogen, der die Verteilung von Opazität und Transparenz zur Herstellung von Ordnung in anders nicht durchschaubaren Situationen diskutiert hat.

Ein kritischer Umgang mit dem Begriff der algorithmischen Black Box in der digitalisierten Gesellschaft wird deshalb die anderen, nicht direkt beobachtbaren Elemente in einer gesellschaftlichen Situation berücksichtigen müssen. Dieselbe Metapher wurde zum Beispiel auch für die Beschreibung des nicht direkt beobachtbaren Verhaltens des Publikums in massenmedialen Situationen[12], für Unsicherheiten über die Auswirkungen politischer Kommunikation und Meinungsbildung[13], nicht vorhersagbare Effekte in wirtschaftlichen Systemen[14] und nicht zuletzt die unsicheren Kommunikationsstrukturen in wissenschaftlichen Diskursen.[15] verwendet.

So hielt Richard Whitley bereits 1972 fest: "The view of scientific knowledge maintained by much of the sociology of science had led to an ideology of 'black boxes' which restricts research to the study of currently observable inputs to, and outputs from, a system. Any study of the internal processes, which may be unobservable at the moment, is declared taboo."[16] Der Systemtheoretiker Gregory Bateson formulierte im selben Jahr optimistischer: "A ‘black box’ is a conventional agreement between scientists to stop trying to explain things at a certain point."[17]

Insofern ist eine Black Box nicht ohne Rückbezug auf die Beobachtungsposition zu definieren: Das heißt, die Aufmerksamkeit für eine Black Box ist stets abhängig von dem spezifischen Wunsch nach Transparenz.


Weiterführende Literatur

  • Glanville, Ranulph. 1979. "The Form of Cybernetics: Whitening the Black Box." In General Systems Research: A Science, a Methodology, a Technology, Louisville, herausgegeben von Society for General Systems Research, 35-42.
  • Glanville, Ranulph. 1982. "Inside Every White Box There Are Two Black Boxes Trying To Get Out." In Behavioral Science 27: 1-11.
  • Paßmann, Johannes und Asher Boersma. 2017. "Unknowing Algorithms On Transparency of Unopenable Black Boxes." In The Datafied Society, herausgegeben von Mirko T. Schäfer und Karin van Es, 139-146. Amsterdam: Amsterdam University Press. https://www.jstor.org/stable/j.ctt1v2xsqn.14.


Quellenverzeichnis

  1. Glanville, Ranulph. 1979. "The Form of Cybernetics: Whitening the Black Box." In General Systems Research: A Science, a Methodology, a Technology, Louisville, herausgegeben von Society for General Systems Research, 35-42. Glanville, Ranulph. 1982. "Inside Every White Box There Are Two Black Boxes Trying To Get Out." In Behavioral Science 27: 1-11.
  2. Gibbs, Fred und Trevor Owens. 2020. "The Hermeneutics of Date and Historical Writing." In Writing History in the Digital Age, herausgegeben von Jack Dougherty und Kristen Nawrotzki, 159-170. Michigan: UP, S. 161.
  3. Crawford, Kate. 2016. “Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics.” Science, Technology & Human Values 41 (1): 77-92; Pasquale, Frank. 2011. "Restoring Transparency to Automated Authority." Journal on Telecommunications & High Technology Law 9(1): 235-254. Aufgerufen am 10.08.2021, https://ssrn.com/abstract=1762766.
  4. Rieder, Bernhard und Theo Röhle. 2012. “Digital Methods, Five Challenges.” In Understanding Digital Humanities, herausgegeben von David M. Berry, 67-84. Houndsmills: Palgrave, S. 76.
  5. Paßmann, Johannes und Asher Boersma. 2017. "Unknowing Algorithms On Transparency of Unopenable Black Boxes." In The Datafied Society, herausgegeben von Mirko T. Schäfer und Karin van Es, 139-146. Amsterdam: Amsterdam University Press. Aufgerufen am 10.08.2021, https://www.jstor.org/stable/j.ctt1v2xsqn.14.
  6. Vgl. z.B. ​Campolo, Alex​. 2017. AI​ ​Now​ ​2017​ ​Report, herausgegeben von Andrew​ ​Selbst und Solon​ ​Barocas. Aufgerufen am 10.08.2021, https://assets.ctfassets.net/8wprhhvnpfc0/1A9c3ZTCZa2KEYM64Wsc2a/8636557c5fb14f2b74b2be64c3ce0c78/_AI_Now_Institute_2017_Report_.pdf; Van Lent, Michael; Fisher, William und Michael Mancuso. 2004 "An Explainable Artificial Intelligence System for Small-unit Tactical Behavior." Conference: Proceedings of the Nineteenth National Conference on Artificial Intelligence, Sixteenth Conference on Innovative Applications of Artificial Intelligence, 25.-29. Juli 2004, San Jose, California, USA. Aufgerufen am 10.08.2021, https://aaai.org/Papers/IAAI/2004/IAAI04-019.pdf; Van Rijmenam, Mark. 2013. "Big Data Ethics: 4 Guidelines To Follow By Organisations." Datafloq (11.03.). Aufgerufen am 10.08.2021, https://datafloq.com/read/big-data-ethics-4-principles-follow-organisations/221; Gigerenzer, Gert und K. R. Müller. 2018. "Wie man Licht in die Black Box wirft." Alexander von Huboldt Institut für Internet und Gesellschaft. Aufgerufen am 10.08.2021, https://www.hiig.de/en/publication/wie-man-licht-in-die-black-box-wirft-algorithmen-greifen-immer-tiefer-ins-leben-ein-deshalb-muessen-sie-transparent-gemacht-werden-wie-soll-das-gehen-ein-gastbeitrag/.
  7. Gigerenzer, Gert und K.R. Müller. 2018. "Wie man Licht in die Black Box wirft." Alexander von Huboldt Institut für Internet und Gesellschaft. Aufgerufen am 10.08.2021, https://www.hiig.de/en/publication/wie-man-licht-in-die-black-box-wirft-algorithmen-greifen-immer-tiefer-ins-leben-ein-deshalb-muessen-sie-transparent-gemacht-werden-wie-soll-das-gehen-ein-gastbeitrag/.
  8. Cauer, Wilhelm. 1941. Theorie der linearen Wechselstromschaltungen I. Leipzig: Akademische Verlags-Gesellschaft Becker und Erler.
  9. Ashby, W. Ross. 1956. An introduction to cybernetics. London: Chapman & Hall. Hier Kapitel 6: "The black box", S. 86–117.
  10. Wiener, Norbert. 1961. Cybernetics: or the Control and Communication in the Animal and the Machine. Cambridge, MA: MIT Press. S. xi.
  11. Glanville, Ranulph. 1982. "Inside Every White Box There Are Two Black Boxes Trying To Get Out." In Behavioral Science 27: 1-11.
  12. Vgl. Einsiedel, Edna F. 2021. "Public Participation and Dialogue." In Routledge Handbook of Public Communication of Science and Technology, 3. Ausgabe, herausgegeben von Massimiano Bucchi und Brian Trench, 173-184. London u.a.: Routledge, S. 180.
  13. Martin, Paul S. 2004. "Inside the Black Box of Negative Campaign Effects: Three Reasons Why Negative Campaigns Mobilize." Political Psychology 25(4): 545-562.
  14. Andersson, Åke E. und Börje Johansson. 2018. "Inside and outside the black box: organization of interdependencies." Ann Reg Sci 61: 501–516. Aufgerufen am 10.08.2021, https://doi.org/10.1007/s00168-018-0886-1.
  15. Windhager, Florian; Zenk, Lukas und Hanna Risku. 2010. "Situated Organizational Mapping." In Netzwerkanalyse und Netzwerktheorie. Ein neues Paradigma in den Sozialwissenschaften, herausgegeben von Christian Stegbauer, 239-249.
  16. Whitley, Richard D. 1972. “Black Boxism and the Sociology of Science. A Discussion of the Major Developments in the Field.” In The Sociology of Sciences, herausgegeben Paul Halmos, 61-92. Keele: ‎ University of Keele Press, S. 63.
  17. Bateson, Gregory. 1972. Steps to an Ecology of Mind. Chicago: University of Chicago Press, S. 39.


Die erste Version dieses Beitrags wurde von Stephan Packard im Rahmen des Projekts "Digitale Souveränität" am Institut für Medienrecht und Kommunikationsrecht und am Institut für Medienkultur und Theater der Universität zu Köln erstellt.

Zitiervorschlag: Glossar Digitale Souveränität. 2021. „Black Box (Medienwissenschaft).“ https://www.bigdataliteracy.net/glossar/. Zugegriffen am tt.mm.jjjj.