Data Agency & AI
Die neue Unsichtbarkeit von Frauen: Von synthetischen Bildern und ethischen Folgen
Wie diskriminiert generative KI gegen Frauen? Diskriminierende KI ist nichts neues, aber sie wird komplexer, denn generative KI bringt neue Aspekte ein. Generative KI-Anwendungen wie Midjourney oder DALL-E werden generativ genannt, weil sie mehrere Input- und Output-Ebenen verknüpfen und ineinander übersetzen können. Sie produzieren zunehmend synthetische KI-Bilder, die nicht mehr eine echte Person repräsentieren, sondern Vorstellungen und Anweisungen. Diese haben aber durchaus Einfluss darauf, wie wir reale Personen – z.B. Frauen – in der Gesellschaft wahrnehmen und beurteilen. Während synthetische Bilder gleichermaßen historische und problematische Daten und Vorstellungen multiplizieren können, führen sie – so mein Argument – zu einer neuen Unsichtbarkeit von Frauen. Ironischerweise sehe ich jedoch ein visuelles Paradox aufkommen: Durch diese neue synthetische Diskriminierung könnten (marginalisierte) Frauen noch unsichtbarer werden. Dadurch verschiebt die KI nicht nur die Grenzen zwischen Vorstellung und Darstellung, sondern auch zwischen symbolischen und hegemonialen Normen und Akteur:innen. Das Problem wäre dann nicht, falsches Bild gegen echtes Bild, sondern eher wer und was wird wirklich sichtbarer durch diese Form der KI, und wer bleibt außen vor.
Vortragende: Eugenia Stamboliev, Universität Wien
More or less discrimination? Psychological (and other) AIs in personnel selection
Learning technologies and opaque, data-heavy algorithms are becoming increasingly established in the HR technology market. Many of the respective tools promise higher efficiency and, somewhat naively, an automated reduction of human error and bias. Some technologies aim to correct human biases by supporting tasks such as the writing of job advertisements through so-called augmented writing. This talk explores some key recruitment and personnel selection tasks where such technologies are applied. Using augmented writing and gender-based inclusion as examples, we will discuss the challenges of translating scientific findings from fields like social psychology into these tools. Finally, we will discuss the (im-)possibility of auditing these and similar technologies to meet standards that should be required for high-risk applications like these but, as of now, are not fully enforced under the AI Act.
Vortragende: Helena Mihaljević, Hochschule für Technik und Wirtschaft, Berlin