das brachte die BAT-Klausur im April 2022
In der Klausur des Beirats für Arbeit & Technik drehte sich alles um das Thema “Künstliche Intelligenz”. Was ist das? Gibt es überhaupt eine eindeutige Definition von “KI”? Können Maschinen intelligent sein, oder wird ihnen die Intelligenz nur künstlich zugeschrieben? Ein bloßer PR-Gag, oder übernehmen algorithmusbasierte Entscheidungssysteme tatsächlich die Arbeit von Menschen?
Die Mitglieder des BAT beschäftigten sich nicht erst seit gestern mit dem Thema. In ihrer täglichen Arbeit als Betriebsrät*innen haben viele mit den, laut Geschäftsführung „super praktischen und überhaupt nicht gefährlichen“, arbeitserleichternden, intelligenten und sogar “smarten” Tools zu tun. Die Überprüfung, ob diese tatsächlich die Rechte der Arbeitnehmer*innen gewährleisten und bei der Arbeit unterstützen, bleibt meist den BRs überlassen. Aber wie soll ein*e Nicht-IT-Expert*in das beurteilen können?
Der Algo-Cocktail
Um gemeinsam über einen so komplexen Sachverhalt diskutieren zu können, ist es wichtig, eine gemeinsame Basis zu schaffen: Wie funktionieren Algorithmen? Was macht eine KI aus? Wird die Entscheidung von der Maschine lediglich unterstützt, oder trifft das System die Entscheidung selbst?
Am ersten Tag brachte die RechtsexpertIn Prof.in Dr.in Elisabeth Greif von der Johannes-Kepler-Universität Linz Licht ins Dunkel der Algorithmen in der Personalgewinnung.
Ein Algorithmus funktioniert im Grunde wie ein Cocktailrezept, erklärt sie einleuchtend: Auch die Maschine folgt einem festgelegten Ablauf (Zubereitung) mit bestimmten Daten (Zutaten), in bestimter Gewichtung (Menge der verwendeten Zutaten) zur Erreichung eines bestimmten Ziels (fertiger Cocktail).
“Ein Algorithmus besteht aus zahlenbasierten Regeln, die endlich, klar und präzise formuliert zu einem Ergebnis kommen.” so Elisabeth Greif von der JKU Linz.
Soll der Algorithmus nicht bloß einem immer gleichen Ablauf folgen, sondern auch “dazu lernen”, muss er mit Daten gefüttert, sozusagen “trainiert” werden. Je nach Trainingsart (man unterscheidet zwischen überwachtem Lernen, unüberwachtem Lernen und bestärkendem Lernen) benötigt der Algorithmus Trainingsdaten. Diese bestehen – wie soll es auch anders gehen – aus bereits vorhandenen, also in der Vergangenheit geschaffenen Daten. Die Neutralität und Fairness, die man Daten zuschreibt, endet genau hier.
Ein Beispiel, von dem in diesem Blog bereits einmal berichtet wurde:
Amazon wollte mit Hilfe eines Algorithmus den/die beste Job-Kandidat*in finden. Automatisch und effizient. Trainiert wurde der Algorithmus mit den Daten vergangener, erfolgreicher Bewerber*innen. Es zeigte sich, dass der Algorithmus Frauen abwertete, also herunterstufte. Der Algorithmus lernte aus den Trainingsdaten, dass erfolgreiche Bewerber der Vergangenheit überwiegend männlich sind. Obwohl das Geschlecht an sich bei den Bewerbungsdaten nicht angegeben wurde, erkannte das System über indirekte Muster (bspw. über bestimmte Colleges, oder Vereine), welche Kandidat*innen männlich (also erfolgversprechend) und welche weiblich (also eher weniger passend) waren.
Weitere Beispiele für diskriminierende KI: Seife gibt es nur für weiße Hände oder Racial Profiling in der algorithmus-unterstützten Polizeiarbeit, die übrigens auch schon in Österreich im Einsatz ist.
Dr. Elisabeth Greif hat mit ihren Kolleg*innen in ihrer Studie herausgearbeitet, welche Fragen unbedingt gestellt werden sollten, bevor ein algorithmenbasiertes Entscheidungssystem eingesetzt wird. Das menschenrechtsbasierte Framework für Faire Algorithmen in der Arbeitswelt soll dabei helfen, das Risiko der Diskriminierung zu reduzieren.
Weitere Unterstützung für Betriebsrät*innen bei der Einführung von “künstlicher Intelligenz” am Arbeitsplatz bietet das interaktive Tool VerA (Verantwortung und Algorithmen). Es wurde vom DigiFond der AK Wien gefördert und soll dabei helfen, Fragen zur Verantwortlichkeit und drohenden Kompetenzkonflikten frühzeitig zu erkennen.
Den Lichtschalter finden…
Systeme, oder vielmehr Daten, sind immer auch sozio-kulturell und politisch eingebettet. Der Algorithmus verarbeitet diese und kann unfaire, diskriminierende Strukturen aufdecken, die bisher nicht wahrgenommen wurden (oder bei denen versucht wurde sie zu ignorieren).
Wie genau der Algorithmus zu Ergebnissen kommt, ist oft nicht so einfach zu beantworten. Aber genau in dieser sogenannten Black Box müssen wir den Lichtschalter finden. Das ist aber nicht so einfach.
Ist Mitgestalten für Betriebsrät*innen überhaupt möglich?
Ja, denn eine KI ist ein sozio-technisches Systeme, das durchaus gestaltbar its, erklärt Walter Peissl in seinem Vortrag „Künstliche Intelligenz – Verstehbarkeit und Transparenz“. Der Vortrag basiert auf einer Studie des ITA, in der es darum geht, zu klären, wie KI verständlich erklärt und deren Risiko aufgezeigt werden kann.
Wichtig ist zunächst, zu verstehen, wovon gesprochen wird. Die technischen Vorgänge sollen transparent gestaltet werden, damit Vertrauen in das System und die Institution, die diese anwendet, aufgebaut werden kann. Es hat sich übrigens bereits ein eigener Forschungszweig herausgebildet, die genau diesen Lichtschalter suchen: XAI (Explainable KI).
Transparenz ist vielschichtig und betrifft dabei nicht nur das Verstehen des Codes und dessen Funktionsweise, betont Walter Peissl. Es geht auch um prozedurale (Wer? Wie? Wozu?) und institutionelle Transparenz (institutioneller, rechtlicher Rahmen).
Transparenz sollte in ihren verschiedenen Dimensionen eingefordert werden. Die prinzipielle Funktionsweise eines Systems sollte verständlich und nachvollziehbar sein!
Walter Peissl, Institut für Technikfolgenabschätzung, ÖAW
Wie hoch ist das Risiko?
Für algorithmenbasierte Entscheidungsfindung und -unterstützung sollte ein ausdifferenzierter Kriterienkatalog erarbeitet werden, um sie zu klassifizieren und ihr Risiko einschätzen zu können. Der Vorschlag der Europäischen Kommission zum KI-Gesetz beinhaltet eine solche Risiko-Kategorisierung nur eher rudimentär, da eine exakte Definitzion von KI darin nicht zu finden ist. Um das Risiko einschätzen zu können, geht jedoch kein Weg am Verständnis vorbei. Die KI-Systeme müssen nachvollziehbar und transparent gestaltet werden. Außerdem müssen die Interessen von ArbeitnehmerInnen im KI-Diskurs, in der Entwicklung und im Einsatz, stärker einbezogen werden!
Für die Betriebsrät*innen ist es wichtig, die Funktion und Vorgehensweise der Software zu verstehen, wobei es hilft, sie sich von Expert*innen erklären zu lassen. Unterstützung von Expertinnen zu suchen, gehört zu den “Tools”, der Betriebsratsarbeit. Tom Gödel, Mitglied des Leistungsteams im BAT empfiehlt: Nachfragen bei anderen Betriebsrät*innen, die mit ähnlicher “KI” konfrontiert sind; beispielsweise im Europäischen Betriebsrat, bei den Techniker*innen und IT-Architekt*innen, bei Kolleg*innen aus den betroffenen Fachbereichen, in der Rechts- oder der Personalabteilung, bei der Arbeiterkammer und last but not least der Gewerkschaft, findet sich Expertise.
Künstliche Intelligenz im Betrieb ist mehr als ‚nur‘ Technik. Man kann solche Tools nur regeln, wenn man die möglichen Auswirkungen versteht. Und nur wenn man sich Expertise dazu holt! Zum Beispiel im BAT.
Tom Gödel, Betriebsrat bei IBM
Der “neue” BAT
Und weil BAT-Mitglieder wissen, wie wichtig der Austausch und die Zusammenarbeit vor allem angesichts der digitalen Transformation der Arbeitswelt ist, hat sich der BAT für die nächsten vier Jahre neu konstituiert. Frischen Wind bekommt der Beirat durch die neuen Mitglieder. Wir freuen uns sehr, dass ihr bei uns mitarbeitet!
Leider sind auch ein paar Kolleg*innen ausgeschieden. Der BAT ist euch für eure Unterstützung über die Jahre, euren wertvollen Input und euer Engagement dankbar! Ohne euch wäre der Beirat nicht das, was er heute ist!
By the way: Die Broschüre der Gewerkschaft GPA aus der Abteilung Arbeit & Technik “Die wundere Welt von Microsoft” hilft beim Finden des MS-365-Lichtschalters ;-)