Prof. Sabine Köszegi über Emotionserkennung, Suchmaschinen, den AMS-Algorithmus und den Unterschied zwischen menschlicher und künstlicher Intelligenz
Fritsch Clara (FC): Alle reden von Künstlicher Intelligenz, aber was genau ist das eigentlich?
Köszegi Sabine (KS): Ich gehe von einer sehr breiten Definition aus. Systeme der künstlichen Intelligenz sind durch drei Komponenten charakterisiert. Erstens: sie können ihre Umgebung wahrnehmen, indem sie natürliche Sprache, Bilder oder Daten von Sensoren verarbeiten. Zweitens können sie Daten – mithilfe mathematischer Operationen – analysieren und interpretieren und aus ihnen eigenständig lernen. Und Drittens haben sie die Möglichkeit, Handlungen zu setzen, indem sie Vorhersagen treffen, Entscheidungen vorbereiten und diese sogar umsetzen. Voraussetzung dafür ist allerdings, dass die Zielsetzungen dabei von Menschen eindeutig festgelegt sind. Wenn KI Systeme mechanische Komponenten haben, spricht man von Robotik.
Künstliche Intelligenz kann aber nicht denken und verstehen so wie wir Menschen. KI kann riesige Datenmengen abfragen, sortieren, einschätzen, prognostizieren. KI kann nach bestimmten, vorab festgelegten Parametern „Entscheidungen“ treffen. KI kann Informationen berechnen und ausgeben. KI kann die Wahrscheinlichkeit für das Eintreffen zukünftiger Ereignisse und Entwicklungen abgeben, Prognosen erstellen.
KI kann aber nicht bewerten oder einen Sinn hinter den Dingen verstehen. Das sind zutiefst menschliche Qualitäten.
Gute Entscheidungen brauchen die Berücksichtigung und Bewertung des konkreten Kontexts der Entscheidung. Das macht auch ein Überprüfen der Plausibilität von Prognosen möglich.
Die Bilder, die wir im Kopf haben, wenn wir an KI-Systeme denken, sind meist seltene, sehr teure Prototypen, wie beispielsweise der japanische Pflegeroboter, der Patientinnen sanft aus dem Bett heben kann. Gerade in der Robotik ist jedoch vieles erst in der Entwicklungsphase, weil noch große technische Herausforderungen zu lösen sind. Auch bei reinen KI Systemen gibt es noch viele offenen Fragen zur Robustheit und Sicherheit der Systeme. Ebenso zur Erklärbarkeit ihrer Prognosen.
FC: Können Künstliche-Intelligenz-Systeme bessere Vorhersagen machen als der Mensch?
KS: Datengetriebene KI-Systeme können auf Basis von ausreichend vielen Daten ein Bild dessen liefern, was ist – also eine deskriptive Analyse. Ihre Modelle beinhalten Korrelationen, sie finden also Zusammenhänge zwischen den Daten, sie liefern aber keine Erklärungen. Oft ist die Prognose umso genauer, je mehr Daten und Variablen im Modell berücksichtigt werden. Damit wird der Algorithmus aber komplexer – und damit undurchschaubarer. Wir können daher sehr oft nicht mehr nachvollziehen, warum das System zu einer bestimmten Prognose oder einer Entscheidung gekommen ist.
Erst wenn wir wissen, welche kausalen Zusammenhänge es gibt, können wir auch etwas daraus lernen. Dass ich etwas verstehen will, kann verschiedene Gründe haben; zum Beispiel weil ich etwas daraus lernen möchte oder auch weil ich eine Prognose überprüfen und rechtfertigen möchte.
Wenn man zum Beispiel in der Krebstherapie eine gute Prognose abgeben möchte, von welcher Therapie eine Person profitiert, dann muss die Erkrankung vorerst sehr genau verstanden werden. Nun liefern KI-Systeme bei der Erkennung von Krebs bereits vielversprechende Ergebnisse, aber wenn wir nicht wissen, warum diese Systeme bestimmte Zellen als Krebszellen klassifizieren, dann können wir auch nicht daraus lernen. Einen Mensch, der eine Diagnose bei einem Befund erbringt, können wir fragen: warum nimmst du das an, warum erkennst du in diesem Bild Krebszellen, worauf schaust du genau, auf welchen Erfahrungen beruht deine Diagnose, und so weiter.
Außerdem möchte man als Mensch verstehen, warum eine Entscheidung zustande kam.
Man hat ein Recht zu wissen, warum beispielsweise ein Kredit nicht angenommen wurde.
FC: …oder warum man bei einem Bewerbungstest den Job nicht bekommen hat…
KS: Ja genau. Und dann gibt es noch eine dritte Begründung warum ich eine Prognose oder eine Entscheidung begründen muss; und das ist, weil ich es rechtfertigen muss, vielleicht auch gegenüber Dritten, wer für welche Konsequenzen verantwortlich ist.
FC: Das klassische Beispiel ist hier das automatisierte Fahren?
KS: Ja, wenn da etwas passiert, ist es fraglich, wer den Schaden herbeigeführt hat beziehungsweise wer ihn bezahlen muss; das Unternehmen, das das Fahrzeug hergestellt hat, oder der Fahrzeughalter, die Nutzerin des Fahrzeugs, oder die Personen, die die Systeme programmiert haben?
Außerdem stehen wir in realen Situationen ja oft vor dem Problem, dass Regeln in Konflikt zueinander stehen. Normal darf man eine doppelte Sperrlinie nicht überfahren. Was aber, wenn ich damit einen Auffahrunfall verhindern kann?
Als Mensch kann ich so eine Regelverletzung dann erklären und rechtfertigen. Ein KI-System kann das nicht.
Wir müssten derzeit für jede nur denkbare Situation vorgeben, wie sich ein System bei einem Ziel- oder Regelkonflikt verhalten müsste.
FC: Die Rechtfertigung ist ein gutes Stichwort, in dem auch schon das Recht drinnen steckt. Gerade im Arbeitsverhältnis werden Dinge getan, weil sie gerechtfertigt sind, nicht aus Neugierde oder aus Jux und Tollerei, sondern eben aus einer rechtlichen Grundlage heraus. Eine davon ist das Arbeitsrecht, eine andere die Europäische Datenschutzgrundverordnung, die ja auch auf Künstliche Intelligenz angewendet werden muss. Und da stellt sich mir die Frage, inwieweit ist ihrer Meinung nach die DSGVO geeignet, Künstliche Intelligenz rechtlich in den Griff zu bekommen? Das wird auf internationaler Ebene sehr divers diskutiert. Die einen meinen, dass automatisierte Entscheidungsfindung durch die DSGVO gut geregelt wird, weil sie grundsätzlich einmal verboten ist und nur unter bestimmten Bedingungen zugelassen. Andere sind der Ansicht, dass die DSGVO KI gar nicht regeln kann, eben, weil nicht begründet werden kann, wie Ergebnisse und Entscheidungen zustande kommen. Geht das überhaupt? Brauchen wir da etwas Neues?
KS: In der von der Europäischen Kommission ins Leben gerufenen High Level Expert Group on Artificial Intelligence haben wir das so diskutiert: wir schauen, welche Gesetze vorhanden sind und ob die ausreichend sind. Man braucht nicht jedenfalls neu regulieren, wenn die bestehenden Gesetze ohnehin schon gut greifen.
Und darüber hinaus gehend haben wir dann überlegt, welche Regulierungen vielleicht neu erforderlich sind. Automatische Gesichtserkennung ist so ein Beispiel. Das kann missbräuchlich verwendet werden und kann gravierende Auswirkungen auf individuelle Freiheit und Schutz der Privatsphäre haben. Das darf man ohne ausdrückliche Einwilligung der Person nicht erlauben. Aber wie kann man diese einholen, wenn Systeme auch zufällig Menschen aufzeichnen und „erkennen“?
Nach Artikel 14 der DSGVO haben Personen ein Recht auf Erklärung einer Entscheidung von der sie betroffen sind.
Das ist aber nicht bei jedem KI-System möglich, weil viel zu viele Daten miteinander verknüpft werden, als dass man darüber noch eine einfache Information zustande bringen würde.
Was in der DSGVO – glaube ich –nicht gut abgedeckt ist, sind die Bereiche des sogenannten „Affective Computing“, also Systeme, die aus natürlicher Sprache oder aus Gesichtern, Gefühle analysieren können. Diese Emotionserkennung baut leider auf veralteten und viel zu vereinfachenden Theorien zu Emotionen auf. Dennoch werden diese Systeme eingesetzt, um beispielsweise vorherzusagen, ob eine Mitarbeiter das Unternehmen verlassen wird, oder ob eine Bewerberin für einen bestimmten Job geeignet ist.
Also gesetzliche Regulierung ist eine Sache. Man muss sich schon fragen, ob es immer auch eine gesetzliche Regulierung sein muss oder ob es nicht auch andere Maßnahmen gibt. Man kann auch versuchen, über positive Anreize zu steuern; über Selbstbindung an Ethikrichtlinien und so weiter. Durch spezifische Investitionen in Forschung und Entwicklung kann man auch steuern.
Es gibt also ein breites Maßnahmen-Bündel, wie man in die Entwicklung von KI-Systemen eingreifen kann.
Und – wie gesagt – man muss schauen, ob die bestehende Gesetzgebung ausreichend ist.
FC: Woran würde ich erkennen, wenn die bestehende Gesetzgebung nicht ausreicht? Woran wird das festgemacht?
KS: Unsere Empfehlung war, dass die Ethik-Richtlinien eingehalten werden. Diese gehen ja über gesetzliche Vorschriften hinaus. Das würde sicherstellen, dass die Menschen von KI-Technologie profitieren.
Merken würde man es beispielsweise dann, wenn die DSGVO Praktiken erlauben würde, die manipulativ sind. Ich bin keine Rechtsexpertin, daher weiß ich nicht ob die DSGVO Gesichts- oder Emotionserkennung bei einer Kamera zum Beispiel bei einer Videotelefonie über facebook, unterbinden würde. Das System müsste keine Daten explizit speichern sondern aufgrund der Analyse von Gesichtsausdrücken während des Gesprächs bestimmte Produkte präsentieren. Das wäre eine manipulative Taktik.
FC: Das wäre meiner Meinung nach schon von der DSGVO geregelt als klassisches „Profiling“ – also verboten. Datenverarbeitung ist nicht nur durch speichern definiert, es umfasst auch Verknüpfung, Abgleich oder Übermittlung von Daten. Und gerade mein Gesicht ist sehr wohl ein personenbezogenes Datum. Natürlich gibt es noch keine Judikatur dazu, aber rein theoretisch wäre es meiner Ansicht nach schon geregelt. Worüber ich mir eher Sorgen mache ist, dass personenbezogene Daten missbräuchlich verwendet werden ohne dass es Auswirkungen hat.
KS: Genau, der gesetzliche Rahmen würde uns jetzt vor missbräuchlicher Verwendung schützen, aber ich muss erst merken, dass ich manipuliert werde. Vielleicht gilt es da in dem einen oder anderen Bereich nach zu schärfen, beispielsweise im Konsument*innenschutz oder im arbeitsrechtlichen Bereich. Das wird man dann durch die Rechtsprechung und ihre Entwicklung erst sehen.
FC: Ich möchte noch einmal an den Anfang zurückkommen. Habe ich das richtig verstanden? Je undurchschaubarer der Algorithmus ist, desto genauer die Prognose.
KS: Es gibt diesen Trade-Off: Die Berücksichtigung von tausenden Variablen von unglaublich großen Datenmengen machen Prognosen genauer, allerdings können wir nicht mehr verstehen, was passiert.
Je einfacher Modelle sind, desto weniger Variablen sie berücksichtigen, desto besser können wir die Prognose nachvollziehen, sie werden aber leider damit auch ungenauer.
Beispielsweise verwendet das AMS ein Rechenmodell zur Prognose der Wahrscheinlichkeit, dass Arbeitssuchende innerhalb einer gewissen Zeit wieder in den Arbeitsmarkt integriert werden können. Dieses Rechenmodell – es ist eigentlich ein klassisches Prognoseverfahren basierend auf einer logistischen Regression und kein komplexer Algorithmus – ist transparent und legt klar offen, welche Variablen mit welchem Gewicht zu dieser Einschätzung beitragen. Das Modell selbst ist daher eine Beschreibung der aktuellen Situation und nicht unethisch. Die ethische Fragestellung in diesem Zusammenhang ist aber, wie diese Prognosen genutzt werden, um Menschen bei ihrer Arbeitssuche zu unterstützen. Soweit ich das Programm vom AMS kenne, zielt es darauf ab, besonders jene Menschen zu unterstützen, die eine mittlere Chancen auf Reintegration am Arbeitsmarkt haben. Aber was ist mit jenen Menschen, die ohnehin schon am Arbeitsmarkt diskriminieret werden, wie Frauen, ältere Menschen und Menschen mit Migrationshintergrund und daher eine schlechte Prognose erhalten?
FC: Welche Modelle der KI-Nutzung werden auf EU-Ebene gerade entwickelt und diskutiert?
KS: Spannend finde ich sogenannte Data-Donation-Systeme. Dabei kann man selber festlegen, wofür die eigenen Daten verwendet werden dürfen, ob sie privaten Unternehmen oder auch Dritten oder nur für Forschungszwecke zur Gesundheit oder öffentlichen Hand oder gar niemandem zur Verfügung stehen sollen.
Ein anderer spannender Ansatz ist es, dass personenbezogene Daten nur der Person selbst gehören und prinzipiell für nichts und niemand zur Verfügung stehen. Ich als Eigentümerin meiner Daten kann dann aber Nutzungsrechte vergeben.
Meine Daten sind immer untrennbar mit mir verbunden.
Es wird viel diskutiert, wie man diese Daten-Besitz-Problem beheben kann. Es ist noch nicht alles gut ausgereift, aber ich bin zuversichtlich, dass wir Lösungen finden können. Wir müssen es nur angehen.
FC: Nutzen sie KI selbst in ihrem im Alltag? Welche? Wo nutzen sie gerne KI? Wo bringt sie ihnen selbst etwas?
KS: Natürlich finde ich es zum Beispiel sehr angenehm, Suchmaschinen zu benutzen. Ich nenne jetzt bewusst keinen Markennamen. Und ich weiß, damit nutze ich ein KI-System, das mir gefilterte Informationen zur Verfügung stellt. Und das ist der springende Punkt: ich weiß, dass mir das System nur eine bestimmte Sichtweise gibt.
Ich habe einen Kollegen, der konnte empirisch in einer Studie nachweisen, dass google-maps systematisch die Wegzeiten verzerrt; bei öffentlichem Verkehr werden die Wegzeiten systematisch überschätzt und beim Autoverkehr systematisch unterschätzt.
FC: Gut zu wissen!
KS: Das muss man wissen, denn google bietet dann auch Fahrdienstleistungen an. Hier verzerrt der Algorithmus offensichtlich, um eigene Dienstleistungen anzubringen. Ich kalkuliere also das schon mit ein, wenn ich wissen will wie lange ich wohin benötige.
Ich bin also eine kritische Nutzerin und weiß, dass bestimmte Systeme manipulativ sind.
Daher verwende ich auch mitunter andere Suchmaschinen oder andere Suchbegriffe und sehe die Ergebnisse nicht als objektives Wissen. Ich fände es gut, wenn ich zum Beispiel einen kleinen Beitrag von – sagen wir mal zehn Euro im Monat – für eine Suchmaschine bezahlen könnte und dafür sichergehen könnte, dass meine Suchergebnisse nicht manipuliert werden. Ich würde gerne dafür zahlen, dass meine Daten nicht an Dritte weitergegeben werden, um ökonomischen Interessen zu befriedigen. Ich bin sehr froh, dass es Suchmaschinen gibt. Ich hätte nur gerne mehr Transparenz und Kontrolle.
FC: Vielen herzlichen Dank für das informative Interview!
Sabine Köszegi ist Professorin für Arbeitswissenschaft und Organisation an der Technischen Universität Wien, Vorsitzende des Österreichischen Rats für Robotik und künstliche Intelligenz sowie Mitglied der High Level Expert Group on Artificial Intelligence der Europäischen Kommission. Aktuell arbeitet Sie an einem Forschungsprojekt zu sozialer Robotik und leitet unter anderem auch das Doktoratskolleg “Trust in Robots”.