Database - Search Results

The media package "Algorithms in our everyday life" developed by iRights.Lab is aimed at students from grade 7 onwards with the goal of conveying a general understanding of algorithmic systems and establishing social and political connections.

Das von iRights.Lab entwickelte Medienpaket „Algorithmen in unserem Alltag“ richtet sich an Schülerinnen und Schüler ab der Jahrgangsstufe 7 mit dem Ziel, ein allgemeines Verständnis über algorithmische Systeme zu vermitteln und gesellschaftliche und politische Zusammenhänge herzustellen.


As part of the "Böll.Interview" podcast series, Lorena Jaume-Palasí, founder of the Ethical Tech Society, answered questions from the Böll Foundation on the topic of artificial intelligence, algorithms and discrimination. Jaume-Palasí describes artificial intelligence and algorithmic decision-making systems as collective technologies to which we would apply the wrong, namely individualistic, standards. These technologies are based on mathematical or statistical methods that are designed to form classifications and analyze collectives, but not individuals. The individualistic idea that people can be analyzed using these methods is problematic. It is only ever about group formations, such as the suburban mother with a migrant background who is single and always borrows certain cars. In this respect, algorithms can only discriminate because there will always be people who do not fit into any classification.

Im Rahmen der Podcast-Reihe „Böll.Interview“ stellte sich Lorena Jaume-Palasí, Gründerin der Ethical Tech Society, den Fragen der Böll Stiftung zu dem Thema Künstliche Intelligenz, Algorithmen und Diskriminierung. Jaume-Palasí beschreibt Künstliche Intelligenz und algorithmische Entscheidungssysteme als kollektive Technologien, an die wir die falschen, nämlich individualistische Maßstäbe anlegen würden. Diese Technologien beruhen auf mathematischen oder statistischen Methoden, die dafür ausgelegt seien, Klassifikationen zu bilden und Kollektive zu analysieren, aber nicht einzelne Individuen. Die individualistische Vorstellung, dass Menschen mit diesen Methoden analysiert werden können, sei problematisch. Es gehe immer nur um Gruppenbildungen, etwa die Vorstadtmutter mit Migrationshintergrund, die Single ist und immer bestimmte Autos ausleiht. Insoweit können Algorithmen nicht anders, als zu diskriminieren, weil es immer Menschen geben werde, die in keine Klassifikation passen würden.


Anna is 35. After a long day at work, she likes to look for distractions on the Internet, scroll through her messenger messages and social media feeds or order a new book online. She can see what is happening on her screen. Meanwhile, intelligent systems are working in the background, learning from Anna's data tracks. Sometimes that's pretty useful in everyday life. On other days, this has astonishing consequences.

Das Projekt geht der Frage nach, was Künstliche Intelligenz, Algorithmen und Big Data für den Alltag der Individuen bedeutet. Die Funktionsweise dieser digitalen Technologien bleibt aber meist eine Black Box. Es fehlen Informationen, um mündige Entscheidungen treffen zu können. Das Angebot greift Chancen und Risiken dieser Technologien auf und verdeutlicht, inwiefern jede und jeder Einzelne davon betroffen ist. Dazu werden die Alltags-Themen „Wohnen“, „Einkaufen“, „Gesundheit“ und „soziales Leben“ vorgestellt.


Automating NYC is an interactive website created by Harvard graduates to address the lack of public education about automated decision making systems, while also educating New York City residents about the kinds of systems being deployed in their city. The website includes stories, infographics and interactive elements that explain how algorithms are deployed in everyday life and which highlight the real life outcomes that have impacted NYC residents. Also for non-NYC residents a well-made and appealingly designed learning resource.

Automating NYC ist eine interaktive Website, die von Harvard-Absolvent*innen erstellt wurde, um dem Mangel an öffentlicher Aufklärung über automatisierte Entscheidungsfindungssysteme entgegenzuwirken und die Bewohner*innen von New York City über die Datensysteme aufzuklären, die bereits in ihrer Stadt verwendet werden. Die Website enthält Geschichten, Infografiken und interaktive Elemente, die darstellen, wie Algorithmen im täglichen Leben eingesetzt werden, und welche Auswirkungen dies auf die Bewohner*innen von New York City hat. Auch für Nicht-NYC-Bewohner*innen eine gute und ansprechend gestaltete Lernressource.


The talk deals with the phenomenon of Big Data and describes the many areas of application in which human behavior is collected, analyzed, classified and sanctioned with recourse to large amounts of data. Big Data is always linked to a goal, such as optimizing economic or political processes, guiding behavior, enabling or closing access points and, if necessary, punishing or rewarding. The more data is collected and processed, the greater the possibility of a judgment based on the virtual representation of a human being.

Der Talk behandelt das Phänomen Big Data und beschreibt die vielen Anwendungsbereiche, in denen unter Rückgriff auf große Datenmengen menschliches Verhalten erhoben, analysiert, eingeordnet und sanktioniert wird. Dabei ist Big Data immer mit einem Ziel verbunden, etwa ökonomische oder politische Prozesse zu optimieren, Verhalten zu lenken und wenn nötig, zu bestrafen oder zu belohnen. Je mehr Daten erhoben und verarbeitet werden, desto größer die Möglichkeit eines Urteils aufgrund der virtuellen Repräsentanz eines Menschen.


Bitesize is a free online teaching tool from the BBC. It includes the subjects "Computer Science" and "ICT", which offer explainers on how algorithms, search engines and programming work. In addition, the risks and social implications of digital technologies are addressed (ICT - risks and implications of ICT). The material includes short explanatory texts as well as videos and addresses children and young people from 5 to 16 years.

Bitesize ist ein kostenloses Online-Lehrmittel der BBC. Es beinhaltet die Fächer "Computer Science" und "ICT", in denen u.a. erklärt wird, wie Algorithmen, Suchmaschinen und Programmieren funktioniert. Zudem werden auch die Risiken und gesellschaftlichen Folgen von digitalen Technologien adressiert (ICT - risks and implications of ICT). Das Material beinhaltet kurze Erklärtexte und Videos und richtet sich an Kinder und Jugendliche von 5 bis 16 Jahren.


In the age of increasing automation, in which machines are making more and more decisions for us, the information service "Breaking the Black Box" aims to shed more light on the thicket of automated decision-making systems. In a small series of articles, ProPublica journalists address topics that have a massive impact on our everyday lives: 1. What Facebook Knows About You. 2. when algorithms decide what you pay. 3. when Machines Learn by Experimenting on Us. 4. how machines learn to be racist. ProPublica is an independent, nonprofit newsroom that conducts investigative journalism.

Das Informationsangebot "Breaking the Black Box" möchte im Zeitalter der zunehmenden Automatisierung, in der Maschinen immer mehr Entscheidungen für uns treffen, mehr Licht ins Dickicht der automatischen Entscheidungssysteme bringen. In einer kleinen Artikel-Serie behandeln Journalistinnen und Journalisten von ProPublica Themen, die unser aller Alltag massiv beinflussen: 1. What Facebook Knows About You. 2. When Algorithms Decide What You Pay. 3. When Machines Learn by Experimenting on Us. 4. How Machines Learn to Be Racist. ProPublica ist eine unabhängige, gemeinnützige Nachrichtenredaktion, die investigativen Journalismus betreibt.


Im webbasierten Browserspiel “Can you break the algorithm” schlüpfen die Nutzer*innen in die Rolle einer neuen Redakteurin, die versucht den Algorithmus der fiktiven Social Media App “TikTube” zu entschlüsseln. Aus einer journalistischen Perspektive lehrt das Spiel wie Algorithmen funktionieren und warum es so schwierig ist, die ‚Black Box Algorithmus‘ zu knacken. Daneben werden auch die gesundheitlichen Auswirkungen von Social Media Plattformen, wie etwa Depressionen, kritisch thematisiert.

In the web-based browser game "Can you break the algorithm", users take on the role of a new editor attempting to decipher the algorithm of the fictional social media app "TikTube". From a journalistic perspective the game raises awareness about how algorithms function and why it is so difficult to decipher the ‘black box algorithm’. Additionally, the game critically addresses health impacts of social media platforms, such as depressions.


"Concepts like “Big Data,” "Smart Cities" and the “Internet of Things,” describe a belief that enormous data sets, analysed by computers with increased processing capacity and intelligent algorithms, would enable easier and more efficient results in sales, fight against crime, mobility, environmental protection, public security, health and in solving many other global problems. But how do these technologies work and whose interests do they serve?" This brazilian project gathers stories from across Latin America about the mass collection and processing of data that governments, businesses and we ourselves carry out to monitor our cities, homes, wallets and bodies. Coding Rights is a women-run organization working to expose and redress the power imbalances built into technology and its application, particularly those which reinforce gender and North/South inequalities.

"Hinter Begriffen wie "Big Data", "Smart Cities" und dem "Internet der Dinge" verbirgt sich der Glaube, dass riesige Datensätze, die von Computern mit erhöhter Verarbeitungskapazität und intelligenten Algorithmen analysiert werden, einfachere und effizientere Ergebnisse in den Bereichen Vertrieb, Verbrechensbekämpfung, Mobilität, Umweltschutz, öffentliche Sicherheit, Gesundheit und bei der Lösung vieler anderer globaler Probleme ermöglichen würden. Aber wie funktionieren diese Technologien und wessen Interessen dienen sie?" Dieses brasilianische Projekt sammelt Geschichten aus ganz Lateinamerika über die massenhafte Sammlung und Verarbeitung von Daten, die Regierungen, Unternehmen und wir selbst durchführen, um unsere Städte, Wohnungen, Geldbörsen und Körper zu überwachen.


DataSkop is a collaborative project coordinated by AlgorithmWatch and provides a platform for data donations. Users can donate their data, which is generated for example by using social media, sales platforms or financial credit agencies, to DataSkop with the aim of investigating algorithmic decision-making systems. This is intended to shed light on the black-box algorithms of these systems and to understand how they calculate recommendations, evaluations and decisions. The goal of the project is to strengthen the skills of individuals and enable them to recognize algorithmic structures and understand their basic features.

DataSkop ist ein von AlgorithmWatch koordiniertes Verbundprojekt und stellt eine Plattform für Datenspenden zur Verfügung. Nutzer(innen) können ihre Daten, die beispielsweise bei der Nutzung sozialer Medien oder von Verkaufsplattformen oder Finanzauskunfteien anfallen, an DataSkop spenden mit dem Ziel, algorithmische Entscheidungssysteme zu untersuchen, um Licht in die Black-Box-Algorithmen dieser Systeme zu bringen und um zu verstehen, wie sie Empfehlungen, Bewertungen und Entscheidungen berechnen. Ziel des Projekts ist es, die Kompetenzen der Individuen zu stärken und sie in die Lage zu versetzen, algorithmische Strukturen zu erkennen und diese in ihren Grundzügen zu verstehen.




Search matches: 21

New search