Anna Schneider Irren ist menschlich?! Warum der Vormarsch künstlicher Intelligenz Segen und Fluch zugleich ist

Was läuft schief, was gut bei dem Einsatz von Künstlicher Intelligenz? (Bild: picture alliance / Zoonar | Patrick Daxenbichler)
Starten wir mit einer kurzen Definition: „Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. […]. Die Grundidee besteht darin, durch Maschinen eine Annäherung an wichtige Funktionen des menschlichen Gehirns zu schaffen – Lernen, Urteilen und Problemlösen.“ (SAP, o.j.)
Auch wenn es wie eine Erscheinung der Neuzeit anmuten mag, so wurden die allerersten, grundlegenden Formen der künstlichen Intelligenz bereits in den 1930er Jahren geschaffen. Sicher, Anwendungen dieser Technologie im großen Stil gibt es erst seit einigen Jahren, aber die KI als solche ist alles andere als ein vorübergehendes Phänomen. Dass es Algorithmen sind, die Ihnen bei Netflix vorschlagen, welche Serien oder Filme Sie als nächstes schauen sollen, ist Ihnen vermutlich bekannt. Ebenso sind es Algorithmen, die online Ihre Interessen erkennen und Ihnen die passende Werbung einblenden. Allerdings beschränken sich die Anwendungsgebiete dieser Technologie längst nicht mehr „nur“ auf diese Bereiche. Auch wenn es darum geht, Menschen zu finden, die das eigene Unternehmen bereichern sollen, ist KI längst keine Zukunftsvision mehr, sondern längst Alltag. Dass Bewerbende hiermit vorgefiltert werden und auch potenzielle Mitarbeitende in diversen Netzwerken gescreent werden können, erleichtert der HR viel Arbeit. Das stellt ohne Frage ein erhebliches wirtschaftliches Einsparpotential für Unternehmen dar.
Der Einsatz von KI bei der Rekrutierung ist keine Utopie, sondern längst Gegenwart.
Durch digitalisierte Daten in großer Menge bieten sich viele Prozesse der HR zur Automatisierung an. Nach Einschätzung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) und der Bundesagentur für Arbeit, könnte theoretisch die Hälfte aller Tätigkeiten eines Personalreferenten von KI übernommen werden. Und dennoch ist der Einsatz von KI in der Realität mit einigen Problemen behaftet.
Selbst Amazon, das neben AI Pantheon von Google, Facebook, IBM und Microsoft führend in der Entwicklung von KI ist, musste bereits eine herbe Niederlage einstecken und scheiterte mit der Entwicklung (seit 2014) einer KI zur Suche und Bewertung von im Web aufzufindenden Lebensläufen potenzieller Mitarbeitenden. Während der Entwicklungszeit „habe man bemerkt, dass das System nicht geschlechterneutral bewerte“. Auch mit Anpassungen des Systems konnte man nicht sicherstellen, dass das System nicht andere Wege entwickelt hätte, mit denen Bewerbende diskriminiert worden wären. Das Entwicklerteam wurde 2017 aufgelöst.
Was war denn da passiert? Das maschinelle Lernverfahren wurde an Lebensläufen trainiert, die nach Wortmustern suchen sollten, welche auf erfolgreiche Mitarbeitende schließen lassen. Die Arbeitsgruppe erstellte 500 Computermodelle, die sich auf bestimmte Arbeitsfunktionen und Standorte konzentrierten. Jedem von ihnen wurde beigebracht, etwa 50.000 Begriffe zu erkennen, die in den Lebensläufen früherer Kandidaten auftauchten. Die Algorithmen lernten also, Fähigkeiten, die bei IT-Bewerbern üblich waren, wie etwa die Fähigkeit, verschiedene Computercodes zu schreiben, wenig Bedeutung beizumessen. Das System stufte allerdings Begriffe mit dem Bestandteil „women’s“ (wie in Captain of Womens Chess Club) und Namen von zwei ausschließlich von weiblichen Studierenden besuchten (Hoch-)Schulen herab.
Warum? Als Trainingsdaten wurden Lebensläufe der letzten zehn Jahre verwendet. Diese stammten allerdings hauptsächlich von Männern. Das war (oder ist) kein Amazon-spezifischer Umstand, sondern spiegelt schlicht die männliche Dominanz an Beschäftigten in der Technologiebranche wider. Die Technologie bevorzugte letztendlich Kandidaten und Kandidatinnen, die sich selbst mit Verben beschrieben, die häufiger auf den Lebensläufen männlicher Ingenieure zu finden sind, wie z.B. " executed", so Insider.
Nun bleibt die Frage – wie macht man es denn richtig?
Zunächst einmal gilt es die Frage zu beantworten, welche Daten überhaupt in die Trainingsdatensätze von KI einfließen sollen. Aber man sollte sich nicht darauf verlassen, dass die KI dann „einfach mal macht“, sondern es muss laufende Überprüfungen der Datensätze und Ableitungen geben. Zudem sollten natürlich auch Bewerbende und Mitarbeitende informiert werden, wenn sie mit einer KI-Lösung interagieren. So hat zum Zwecke des verantwortungsvollen Einsatzes der KI, der Ethik-Beirat von HR Tech zehn Richtlinien hervorgebracht, die einen verantwortungsvollen Einsatz der KI in der Personalarbeit ermöglichen sollen. So lautet beispielsweise die 7. Regel: Informationspflicht „Vor bzw. beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.“
Korrelation ist nicht Kausalität!
Diese Transparenz ist sicherlich ein wichtiger Schritt. Jedoch muss insbesondere in derart bedeutsamen Anwendungen der KI sichergestellt sein, dass nicht nur Daten als Ausgangs- und Zielpunkt fungieren. Ohne solide wissenschaftliche Fundierung und Überprüfung derartiger Surfaces und Hintergrundprozesse können – aber müssen keine – sinnvollen Entscheidungsprozesse herauskommen (siehe oben). Sicher ist, dass die Technik sich nicht aufhalten lässt. Umso relevanter ist es aber, für die Fallstricke zu sensibilisieren. Interessanterweise werden KI und Algorithmen von Verbraucherinnen und Verbrauchern nämlich nur selten mit menschlichen Verfehlungen assoziiert. So haben Studierende der Hochschule Fresenius kürzlich im Rahmen von qualitativen Interviews herausgefunden, dass „Vorurteile“ eher mit Menschen und nur selten mit KI in Verbindung gebracht werden. Dabei zeigen zahlreiche Beispiele aus der Praxis, dass Algorithmen durchaus diskriminieren. Denn: Sie replizieren menschliche (Fehl-)Entscheidungen aufgrund der Daten, mit denen sie „gefüttert“ werden, nicht nur, sondern zementieren diese mitunter auch. Da sich der technische Fortschritt nicht aufhalten lassen wird, gilt es nun, die Betroffenen und Verantwortlichen zu sensibilisieren und gleichzeitig entsprechende Rahmenbedingungen zu schaffen. Vor diesem Hintergrund könnte man sich durchaus die Frage stellen, ob es nicht vielleicht langfristig zu einer Aufwertung der menschlichen Beurteilung kommen könnte, wenn KI auch in HR zum Alltag wird.
Falls Sie nun neugierig geworden sind, probieren Sie mal selbst aus, wie KI Ihr Gesicht einschätzt: https://www.hownormalami.eu/. Denn was Tinder heute macht, kann Ihr Unternehmen vielleicht morgen auch schon.
Über Prof. Dr. Anna Schneider

Kommentare (0)
Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden