Algorithmen am Arbeitsplatz

Chancen für benachteiligte Gruppen oder noch mehr Benachteiligung

Quelle: Fotolia

Der Algorithmus verspricht „den perfekten match“ für den freien Arbeitsplatz zu finden. Aufgrund der objektiv wirkenden Vorauswahl greifen Personalverantwortliche mit einer Überfülle an Bewerbungen durchaus verständlicher Weise zu diesem Mittel. In kurzer Zeit werden viele Daten zu geringen Kosten auf bestimmte auswählbare Parameter hin überprüft und der Output kann beliebig festgelegt werden, beispielsweise die zehn besten Facharbeiter*innen mit Berufserfahrung aus Salzburg. Klingt doch nicht schlecht.

Mit der „Objektivität“ ist jedoch bei genauerem Hinsehen nicht weit her. Algorithmen sind immer nur so gut wie ihre Ausgangsdaten. (Was genau ein Algorithmus ist, wird an anderer Stelle in diesem Blog erklärt.) Enthalten die Daten mit denen der Algorithmus anfangs „trainiert“ wird, mit denen er „lernt“, eine Verzerrung, einen Bias, also beispielsweise, dass Menschen mit dunkler Hautfarbe und Frauen von vornherein weniger oft in Leitungspositionen zu finden sind, setzt sich diese Diskriminierung direkt oder indirekt in den Ergebnissen des Algorithmus fort.

Teilhabe oder Ausschluss

Prinzipiell wären Algorithmen aber auch dazu geeignet, diskriminierte Gruppen explizit zu bevorzugen. Man könnte die Algorithmen für die Auswahl der idealen Bewerber*in so programmieren, dass beispielsweise Frauen bevorzugt in technischen Berufen aufgenommen werden oder Menschen mit gesundheitlichen Beeinträchtigungen häufiger zum ausschlaggebenden Bewerbungsgespräch eingeladen werden.

ZARA (Zivilcourage und Anti-Rassismus-Arbeit) stellte sich gemeinsam mit der Gleichbehandlungsanwaltschaft (GAW) der Problematik, die durch Algorithmen in der Arbeitswelt aufgeworfen werden und lud Prof. Elisabeth Greif ein, die sich mit datenbasierter Diskriminierung in der Arbeitswelt auseinandersetzt, den Einsatz von Algorithmen in der Arbeitswelt unter die Lupe zu nehmen. Greif erläuterte anhand von Besipielen, dass ein verzerrtes Angebot und Nachfrage bei der Jobsuche eine Rolle spielen.

einseitige Jobangebote

In der US-amerikanischen Gleichbehandlungekommission untersucht man derzeit, ob facebook systematisch bestimmte Job-Annoncen einer bestimmten Altersgruppe gar nicht erst anzeigt. Es scheint, dass Facebook berechnet, für welche Jobs eine Altersgruppe sich bewirbt, und die vom Algorithmus als „Student*innen-Jobs“ klassifizierten Stellenangebote allen über einem bestimmten Jahrgang kategorisch unterschlägt. So etwas wäre durchaus als Altersdiskriminierung zu bewerten.

Bei Amazon haben die eigenen Programmierer*innen 2015 festgestellt, dass ihr Algorithmus Männer offensichtlich bevorzugt. Die Systeme waren zehn Jahre lang mittels Daten darauf trainiert, Bewerber*innen nach ihren bisherigen Lebensläufen mit Sternen zu bewerten. Geschlecht war dabei zwar keine eigene Kategorie, der Algorithmus lernte dennoch, dass Frauen „weniger geeignet“ sind (z.B. durch die absolvierte Schule oder die Überzahl an Bewerbungen von Männern für technische Berufe). Im Endeffekt brachte das System sich selbst bei, dass männliche Kandidaten bevorzugt sind.

In effect, Amazon’s system taught itself that male candidates were preferable.

Jeffrex Dastin (Journalist bei Reutters) 11. Oktober 2018

Eine kurze Recherche, und schon findet man Firmen, die Rekruting mit Hilfe von künstlicher Intelligenz anbieten. Da gibt es die Gesichterkennung bei „Talentcube“, die die Mimik der Bewerber*innen analysiert, dort wird von Cornerstone ein eigenes LAB eingerichtet um Künstliche Intelligenz im Arbeitsalltag einsetzen zu können.

Der Digitalisierungsfonds der Arbeiterkammer fördert einige Projekte, die sich mit Algorithmen in der Arbeitswelt auseinandersetzen und versuchen, der eher diskriminierungsfördernden Praxis etwas entgegenzusetzen.

ein sozialer Algorithmus

„Ein Algorithmus hat kein Taktgefühl.“

Katharina Zweig (Biochemikerin und Bioinformatikerin, Universitätsprofessorin am Fachbereich Informatik der TU Kaiserslautern) 2019

Dieser Buchtitel der Informatikerin und Professorin Katharina Zweig, die an der Universität Kaiserslautern zu Ethik der Algorithmen forscht, bringt einen Aspekt des Themas zum Vorschein, der im Arbeitalltag ganz wesentlich ist. Das persönliche Verhalten ist stark von Sozialisation, Kultur, Erfahrung und ähnlichen Komponenten der „sozialen Intelligenz“ beeinflusst und diese funktionieren in einem komplexen Zusammenspiel, das von Algorithmen nicht erfasst werden kann.

Leider fällt auf, dass sich die Forschung derzeit vorrangig mit Algorithmen beschäftigt, die bei der Rekrutierung, also während der Bewerbungsphase, zum Einsatz kommen. (In diesem Blog wurde beispielsweise 2019 von einer Veranstaltung des AMS berichtet.) Das mag damit zusammenhängen, dass dabei Diskriminierung jedenfalls strafbar ist. Was dabei leider ausgeblendet bleibt, ist der „ganz normale“ Einsatz von Algorithmen, der jetzt schon im Arbeitsalltag stattfindet (z.B. wenn Delve Microsoft 365 „relevante Dokumente für dich“ vorschlägt oder Fahrer*innen in Transportunternehmen verpflichtet werden mit „intelligenter“ Navigationssoftware zu fahren – und allfällige Abweichungen rechtfertigen müssen anstatt dass umgekehrt die Verwendung der Software gerechtfertig und in einer Betriebsvereinbarung sinnvoll geregelt wird).

Betriebsrat redet mit bei Künstlicher Intelligenz

In Deutschland wurde kürzlich von der Regierung ein neues Gesetz auf den Weg gebracht, das besonders auf Arbeit und Digitalisierung Rücksicht nimmt; das Betriebsrätemodernisierungsgesetz. Der Betriebsrat soll demnach eine Mitsprache beim Einsatz von Künstlicher Intelligenz (KI) im Betrieb haben und dazu Sachverständige hinzuziehen können. Nach dem österreichischen Arbeitsverfassungsgesetz sollte das ebenfalls gesichert sein – allerdings schadet es nichts, wenn dieser Anspruch explizit für KI-Systeme geregelt ist.

Europäische Kommission erarbeitet Richtline zu Künstlicher Intelligenz

Dass der Einsatz Künstlicher Intelligenz nicht innerhalb nationaler Grenzen geregelt werden kann, sondern nur der EU-Raum als ganzes sinnvoll reguliert werden kann, hat die Kommission erkannt und einen Vorschlag zu Künstlicher Intelligenz vorgelegt. Darin werden explizit Beschäftigung, Personalmanagement und Zugang zu selbstständiger Tätigkeit (z. B. Software zur Auswertung von Lebensläufen für Einstellungsverfahren) als Hochrisiko-Anwendungen definiert. Das Europäische Parlament wird demnächst die Änderungsvorschläge präsentieren. Die Europäische Gewerkschaft UNI hat sich mit der KI am Arbeitsplatz kritisch auseinandergesetzt und bringt sich gemeinsam mit dem EWSA aktiv ein bei der Gestaltung des Europäischen Rechtsrahmens.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

22 − = 19