helfen Algorithmen gegen Diskriminierung?

Ilona Horwath bei der AMS-Minikonferenz am 3. März 2019; Foto: Clara Fritsch CC
Ilona Horwath bei der AMS-Minikonferenz am 3. März 2019; Foto: Clara Fritsch, CC

oder haben Algorithmen geschlechtsspezifische Vorurteile ?

Weil in diesem Blog nicht nur am 8. März feministische Themen angesprochen werden, geht es hier und jetzt darum, wie sich Algorithmen im Netz auf Frauen (und Männer) im Alltag auswirken und welche diskriminierende Wirkung sie haben können.

Ilona Horwath meint, dass Algorithmen sowohl diskriminieren können als auch vorhandene Diskriminierungen aufdecken und ihnen somit entgegenwirken können. Die Juniorprofessorin an der Universität von Paderborn forscht derzeit in der Fachgruppe für Technik und Diversity und war am 8. März im Rahmen des rrriot Festivals zu einer Veranstaltung des Arbeitsmarktservice eingeladen. Barbara Wimmer hat über die Mini-Konferenz berichtet.

Ilona Horwath stellte fest: Wenn nur genügend viele Daten – in verschiedensten Formaten und aus verschiedensten Quellen – ausgewertet werden, erhält man am Ende auch treffende Aussagen. Das scheint derzeit das Credo der meisten im Netz tätigen Firmen und ForscherInnen zu sein. Je mehr Daten zu (neuen) Ergebnissen zusammengetragen werden, desto eher umgibt diese Ergebnisse eine Aura der Wahrheit, Objektivität und Genauigkeit ist Horwath überzeugt. Es werde nicht mehr nach wissenschaftlichen Gütekriterien garbeitet, wo Hypothesenbildung, Vergleichsgruppen, Methodenmodellierung etc. eine wesentliche Rolle spielen. Es wird Forschung betrieben, ob anhand eines Bildes Homosexualität treffsicher bestimmt werden kann, ohne zu hinterfragen wozu das weiterhelfen soll. Es wird untersucht, ob Job-Bewerberinnen anhand eines lernenden Programms als geeignet – oder auch ungeeignet – klassifiziert werden können (was Frauen, so Horwath, sogar stärker als Männer positiv, weil diskriminierungsfreier, beurteilen), ohne die Daten anhand derer „gelernt“ wird zu hinterfragen. Arbeitsämter berechnen die Wahrscheinlichkeit von Menschen wieder ins Erwerbsleben einsteigen zu können – und das nicht nur in Österreich, wo ja der AMS-Algorithmus für breite Diskussion sorgt.

Auch das Arbeitsamt Flandern arbeitet seit neuestem mit Algorithmen. Für die Homepage wurde in Zusammenarbeit mit der Universität von Leeuven ein Algorithmus programmiert, der das Surf-Verhalten der Arbeitssuchenden verfolgt und dabei „lernt“. Welche Inhalte werden genutzt? Wer liest was? Kann ich Langzeitarbeitslosigkeit prognostizieren? Kann man ihr vorbeugen? Das waren die vordergründigen Forschungsfragen. Das Problem sind aber die dahinter liegenden individuellen Auswirkungen und die davor liegenden kollektiven Annahmen. Man nimmt an, analysierte Horwath, dass alle potentiellen Langzeitarbeitslosen sich ähnlich verhalten und ihnen mit ähnlichen Maßnahmen geholfen werden kann.

Das „Amazon-System: wer-dies-gekauft-hat-wird-auch-jenes-kaufen“ wird quasi umgelegt auf die Arbeitssuche. Nur kann es im Fall von Arbeitssuchenden ganz handfeste Auswirkungen auf deren Job-Angebote haben. Die dahinterliegenden Maßnahmen können nämlich so aussehen, dass nur jene zu einem Gespräch eingeladen werden, die besonders lange auf der Seite verweilen (= „fleißig“ suchen?), wer oftmals unterbricht (z.B. weil ein Kind versorgt werden muss) wird vom Algorithmus seltener fürs Job-Interview vorgeschlagen. Damit könnten diese Algorithmen eine ausgeprägte soziale Kontrolle und Normierung auslösen.

Ilona Horwath brachte ein weiteres Beispiel: das finnische Arbeitsamt hat versucht Arbeitssuchenden behilflich zu sein, indem eine externe Firma beauftragt wurde, den passenden Arbeitgeber zu finden. Big-Data-Analysen inklusive Surf-Verhalten sollten zur idealen Arbeitsstelle führen. In diesem Fall ist man über datenschutzrechtliche Bestimmungen gestolpert, da die Passwörter der Arbeitssuchenden an Dritte weitergegeben wurden. Repariert wurde dies, indem nun die BewerberInnen die Überprüfung passender Angebote anhand von Persönlichkeitstests für sich selbst ausführen und keine Passwörter mehr an Dritte weitergegeben werden. Das sei zwar besser für die Privatsphäre, diagnostizierte Horwarth, doch das Problem der Wahlfreiheit, ob die BewerberInnen selbst entscheiden können, wo sie sich bewerben, ob überhaupt alle potentiellen Angebote angeführt werden, das sei damit nicht gelöst.

Obwohl sich die praktischen Anwendungen von Algorithmen und Forschungen in der Arbeitswelt derzeit noch im Bereich des (Wieder-)Einstiegs in den Arbeitsmarkt zu bewegen scheinen, kann man getrost davon ausgehen, dass persönliche Einstufungen und damit Chancen auf die Gestaltung des eigenen Arbeitsplatzes auch im weiteren Arbeitsleben stattfinden. Aus der Beratungsarbeit in der GPA-djp ist bekannt, dass Personalverwaltungssysteme, Karrieredatenbanken und Kommunikations-Software – zumindest theoretisch – Einschätzungen über Engagement, Leistungsbereitschaft, Freundlichkeit, Austritts-Wahrscheinlichkeit, etc. der Beschäftigten machen können. Erfahrungsgemäß sind diese dann mit einer Verzerrung je nach Geschlecht verbunden. Hier ein – natürlich konstruiertes – Beispiel: Weil Frauen als „kommunikativer“ gelten, ist es bei ihnen „normal“, wenn sie sie mehr Emails am Tag verschicken als Männer.

was könnte man gegen Diskriminierung im Netz tun?

Bei den Lösungen kommt man bei der Veranstaltung nicht wesentlich über die alt bekannten Vorschläge Bildung und Aufklärung hinaus.

Natürlich nützt es Algorithmen transparenter zu machen. Natürlich hilft es, für Aufklärung zu sorgen, wie man sich im Netz „richtig“ verhält, was man preis gibt, wen man mitlesen lässt, und so weiter. Aber was den Einzelnen (Frauen) an Selbst-Verantwortung aufgebürdet werden kann und soll ist begrenzt. Es am Verhalten der Einzelnen (Frauen) festzumachen, das ist wie Frauen zu raten, abends nicht rauszugehen, weil da draußen, die bösen Gefahren lauern.

argumentiert Ilona Horwath

Auch der Vorschlag, Frauen verstärkt einzubinden, in gemischt geschlechtlichen Teams zu arbeiten, mehr in technischen Studienfächern auszubilden, etc. ist nur begrenzt wirksam. (Nebenbei bemerkt sind 2014 18% der Informatik-Studierenden Frauen.) Natürlich hilft es, Frauen zu Programmiererinnen auszubilden. Aber das alleine wird nicht ausreichen. Solange Algorithmen an der Realität „lernen“, werden sie diese wiederholen und fortsetzen und somit geschlechtsspezifische Verzerrungen und Diskriminierungen bestätigen und verstärken.

Interessantes darf man sich von der derzeit laufenden Studie FemSMA zum Sprachgebrauch bei Social Media erwarten. In dieser wird untersucht, wie Gender ebendort zum Ausdruck gebracht wird und auf dieser Basis ein Programm entwickelt, welches das Geschlecht der NutzerInnen feststellen soll.

Sandra Konstatzky von der Gleichbehandlungskommission plädiert bei der Podiumsdiskussion dafür, dass Gleichbehandlungsgesetz so zu novellieren, dass auch Medien davon umfasst sind. Davon erhofft sie sich eine breitere Wirkung hinsichtlich diskriminierender Postings und anderer öffentlich wirksamer Aussagen. In Zusammenarbeit mit den EntwicklerInnen und BetreiberInnen von Algorithmen müsse man herausfinden, was eigentlich genau zur Prognose und zum „Lernen“ herangezogen werde.

Auch im seinerzeit von Muna Duzdar geleiteten Staatssekretariat für Digitalisierung, Diversität und öffentlichen Dienst hat man sich dazu Gedanken gemacht und

  1. die weltweit erste Beratungsstelle GegenHassimNetz eigerichtet, um eine Anlaufstelle gegen Hassrede und Diskriminierung im Netz zu ermöglichen.
  2. von Social Media Konzernen gefordert, dass Algorithmen in einer nachvollziehbaren Form für NutzerInnen und Betroffene offengelegt werden müssen, um das Verstehen von Prozessen zu ermöglichen.

Die zweite Forderung ist – soweit es sich um automatisierte Einzelentscheidungen und Profilerstellung handelt – in der Europäischen Datenschutz-Grundverordnung bereits umgesetzt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

49 − = 43