Database - Entry

Return to results · New search
Resource Name
Big Data Algorithmen als Lenkungswerkzeug
URL
Citation
Schaumann, Philipp (2017): Von der flächendeckenden Überwachung zur flächendeckenden Lenkung der Bürger. Big Data Algorithmen als Lenkungswerkzeug. Talk vom 24. Oktober auf der Privacy Week im Volkskundemuseum in Wien.
Short Description
Der Talk behandelt das Phänomen Big Data und beschreibt die vielen Anwendungsbereiche, in denen unter Rückgriff auf große Datenmengen menschliches Verhalten erhoben, analysiert, eingeordnet und sanktioniert wird. Dabei ist Big Data immer mit einem Ziel verbunden, etwa ökonomische oder politische Prozesse zu optimieren, Verhalten zu lenken und wenn nötig, zu bestrafen oder zu belohnen. Je mehr Daten erhoben und verarbeitet werden, desto größer die Möglichkeit eines Urteils aufgrund der virtuellen Repräsentanz eines Menschen.
Creator URL
Creator URL (2)
-
Who created the resource?
NGO / Civil society
If 'Other', specify here
-
License
Unclear
Format
Video (movie, documentary, video series)
Interactivity
No
Personalization
No
Languages
German
Domain
Educational
Target Group Age
Teenagers (14-16), Young adults (17-20)
Target Group Size
Individual (1), Small Group (2 - 12), Large Group (>12)
Target Group: Prior knowledge required?
Introduction
If any - What kind of prior knowledige is required?
-
Timeframe
Up to 1 hour
Usage
Once
Publication Date / Last Updated
2017
Technical Requirements / Accessibility
access to internet
Comment / Feedback
Der Talk geht zunächst auf Gewöhnungsprozesse ein wie etwa, dass die meisten Menschen sich daran gewöhnt haben, dass ihr Verhalten überwacht wird, ihre privaten Daten an Dienstleister gehen und diese die Daten an staatliche Behörden und Geheimdienste weitergeben. Die virtuelle Repräsentanz (biometrische Überwachung, Persönlichkeitsanalysen) werde immer wichtiger als das reale Leben, weil Bewertungen aufgrund der Interpretation von nicht wertfreien und möglicherweise verzerrten Daten mit einem bestimmten Ziel erfolgen. Weiterhin wird gezeigt, wie tief automatische Entscheidungssysteme bereits in das Leben eingreifen, indem sie Verhalten lenken, Strafmaß und Bewährung aufgrund von statistischen Wahrscheinlichkeiten und Korrelationen bestimmen und nicht aufgrund einer Einzelfallbetrachtung oder Ursache und Wirkung. Der Talk zeigt, wie Entscheidungssysteme das Verhalten nachhaltig ändern (z. B. keine Witze bei Flughafenkontrollen, keine chemischen Verbindungen googeln, keine Freundschaftsanfragen von „Islamisten“ annehmen, keine ungewöhnlichen Bewegungen auf video-überwachten Plätzen machen oder unhöflich zu Uber-Taxifahrern sein etc.) Überall, wo bewertet wird, sind auch Einschränkungen und „Strafen“ möglich. Der Talk nennt das Beispiel eines Uber-Fahrers, der einen Gast als „asozial“ bewertet, weil dieser nicht mit ihm sprechen wollte und damit das Signal aussendet, diesen in Zukunft nicht mehr zu befördern. Algorithmen sollen in einer Masse von Daten Korrelationen erkennen können, nach Häufungen und Cluster suchen und daraus Rückschlüsse auf den Einzelfall treffen können. Diese Entscheidungssysteme sind nicht wertfrei, weil sie immer mit einem bestimmten Ziel verbunden sind, meistens einer Optimierung von Gewinn, Effizienz und Umsatz oder aber der Reduktion von asozialem Verhalten oder der Maximierung von erwünschtem, konformen Verhalten. Die Ziele können aber auch politischer Natur sein. Verhalten, das sich der Optimierung verweigert, kann bestraft werden. Der Talk ist deshalb spannend, weil er sich mit den Problemen der Analyse und den Folgen für die Gesellschaft beschäftigt!
Submitted by
tt