Corinna Hertweck arbeitet seit 2020 in einem Forschungsprojekt der ZHAW School of Engineering und ist Doktorandin an der Universität Zürich. In einem gemeinsamen Projekt mit der ZHAW, Universität Zürich und Universität St. Gallen beschäftigt sie sich mit der Schnittstelle von Technik und Gesellschaft. Anlässlich des Internationalen Frauentags 2022 spricht sie im Interview über Stereotypen, Gender bias und fairere Algorithmen.
Welches weibliche Stereotyp ärgert dich?
Besonders stört mich das Klischee, dass Frauen nichts von Technik verstünden. Solche Stereotype verhindern, dass Mädchen und Frauen überhaupt erst auf die Idee kommen, sich mit Technik zu beschäftigen. Um mehr Frauen in MINT-Bereichen zu sehen, sollten wir Mädchen und Frauen aber aktiv ermutigen, sich mit Technik zu beschäftigen.
Wie «fair» sind Algorithmen in Bezug auf Gleichberechtigung von Mann und Frau? Braucht die künstliche Intelligenz (KI) hier noch Nachhilfe?
Da braucht es unbedingt Nachhilfe. Schon mehrere Beispiele sind publik geworden, die gezeigt haben: KI behandelt Frauen und nicht-binäre Personen oft systematisch schlechter als Männer, zum Beispiel im Einstellungsprozess oder in der Kreditvergabe.
KI wird oft mit dem Ziel trainiert, möglichst “akkurat” zu sein. Aber was heisst das eigentlich? “Akkurat” bedeutet, dass die KI, das, was sie in den Daten vorfindet, möglichst gut nachahmen kann. Sind bisher wenige Frauen eingestellt worden? Dann wird die KI auch in Zukunft wenige Frauen einstellen. Eine KI überlegt sich nicht: Warum haben wir als Unternehmen bisher so wenige Frauen eingestellt? Haben die Personaler*innen unterbewusst Vorurteile gegenüber Frauen? Oder haben wir wenige Bewerbungen von Frauen bekommen, weil die Stellenanzeigen vor allem Männern angezeigt wurden? Oftmals werden Ungerechtigkeiten aus den Daten sogar noch verstärkt. Dem müssen wir aktiv entgegensteuern.
Was tut ihr an der ZHAW, um Algorithmen fairer zu gestalten?
Auf wissenschaftlicher Seite entwickeln wir Methoden zur Bewertung der Fairness von Algorithmen und Methoden zur Verringerung von Unfairness. Doch in der Wissenschaft zeigt sich: Es gibt keine objektive Definition von Fairness. Was Fairness ist, hängt vom Kontext und — ganz wichtig — unseren Werten ab. Daher ist die Diskussion über die Fairness von Algorithmen eine gesellschaftliche Diskussion über die Fairness des Systems, in dem sie eingesetzt werden. Die Frage nach der Fairness eines Algorithmus zur Vergabe von Sozialhilfe, zum Beispiel, ist keine mathematische Frage, sondern eine Frage nach den Werten, die in unserem Sozialhilfesystem verankert sein sollen. In unserem Projekt versuchen wir diesen gesellschaftlichen Diskurs mitanzuregen, beispielsweise durch unsere Kollaboration mit AlgorithmWatch Schweiz und dem Museum für Gestaltung zur Ausstellung “Planet Digital”.
Lesen Sie hier das ganze Interview.