27.10.2017

»Die Vorteile künstlicher Intelligenz überwiegen die Nachteile definitiv«

Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Talent Analytics, also die Analyse von Personal- und Prozessdaten, um Beschäftigte bestmöglich zu wählen, einzuarbeiten, zu evaluieren, zu schulen und zusammenzustellen, wird mit zunehmender Digitalisierung mehr und mehr von künstlichen Intelligenzen übernommen.

Ein Panorama, das die Projektgruppe "Diskriminierung durch künstliche Intelligenz" der Hochschule für Technik und Wirtschaft Berlin unter der Leitung von Prof. Jürgen Radel und Katharina Simbeck, Professorin für Betriebswirtschaftslehre, auf ihr diskriminierendes Potenzial abklopft.

Richtig gelesen: Diskriminierung durch Maschinen! Diskriminierung nach Geschlecht, Alter oder Herkunft. Denn das ist nicht nur in HR-Relationen "bisher sehr wenig untersucht", wie Simbeck sagt. Das Projekt soll Ungerechtigkeiten weniger anprangern als Diskriminierung vielmehr aktiv reduzieren, Konsequenzen antizipieren und solche Systeme auf Diversität schulen. Ein Gespräch über subjektive Maschinen und die Zukunftschancen durch KI …


Hier könnt ihr unseren zweiwöchentlichen Newsletter abonnieren.👍


Frau Simbeck, die Entwicklung künstlicher Intelligenzen steht an einem seltsamen Punkt. Heute schlagen KI-Systeme Schachweltmeister, verzweifeln aber am Öffnen so mancher Tür. Wie tief schätzen Sie das gegenwärtige Vertrauen in maschinelle Analysen?

Eine interessante Frage, aber sie geht für den Anfang zu weit. Einen Schritt zurück stellen wir fest, dass man zuallererst Daten braucht, um Algorithmen einzusetzen, und zwar Daten in digitaler Form. Da ist es immer noch so, dass viele Unternehmen Personalangelegenheiten auf Papier im Stahlschrank lagern. Und um den aufzukriegen, braucht man eine wirklich hohe künstliche Intelligenz. Zusätzlich sind die vorliegenden Daten fragmentiert und liegen an unterschiedlichen Stellen und in verschiedenen Systemen.


Heißt, in den meisten Unternehmen ist KI noch irrelevant?

Ja, wobei den Unternehmen zunehmend mehr Informationen der Beschäftigten digital vorliegen. Sei es, weil diese Informationen bewusst digitalisiert werden oder weil Teilaufgaben der Beschäftigten ohnehin digital erfüllt werden. Bei einem Lagermitarbeiter etwa wird oft digital erfasst, was er wo und wann aus dem Regal nimmt.


Und sobald Informationen digital vorliegen, werden sie auch zur Auswertung genutzt?

Das ist ein Bedürfnis vieler Unternehmen, wobei dabei selten komplizierte Berechnungen durchgeführt werden, den meisten reicht eine Excel-Tabelle, um rudimentäre Informationen zu bekommen. Im Einsatz von Empfehlungsalgorithmen oder komplexen statistischen Verfahren stehen viele Unternehmen unseren Beobachtungen nach erst am Anfang. Die Aussagekraft dieser Daten sind natürlich sehr begrenzt. Unternehmen setzen also noch nicht viele Algorithmen ein – und verwenden die Ergebnisse, wenn überhaupt, nur nach eingehender menschlicher Prüfung, teilweise auch aus Sorge vor dem Verlust von Kontrolle oder der eigenen Legitimation.


Prof. Dr. Katharina Simbeck
Prof. Dr. Katharina Simbeck


So gesehen zahlt Ihre Forschung zur algorithmischen Diskriminierung also auf die Zukunft ein.

Dass heute ein Talent Analytics Programm auf die Frage, wen ich befördern soll, Herr Hofmann antwortet und ich dann einfach Herrn Hofmann befördere, das ist tatsächlich ein Zukunftsszenario. Nur, weil es die Möglichkeit gibt, die Hände vom Steuer zu nehmen, wird das noch lange nicht getan. Dazu kommt, dass Deutschland solchem Software-Einsatz einen engen rechtlichen Rahmen setzt. Ohne Zustimmung der Beschäftigten und des Betriebsrats dürfen die meisten Unternehmen etwa Daten extern überhaupt nicht analysieren – und intern nur unter Einhaltung der Mitbestimmung der Sozialpartner.


Aber sie versuchen es?

Wir wissen aus Gesprächen mit großen Konzernen, dass sie an Talent Analytics dran sind. Und das dem Betriebsrat gern auch erstmal verschweigen. Ja, die Entwicklung ist in vollem Gange und das Interesse ist sehr groß.


»Menschen sind genauso intransparent wie Computer. Nur erwarten wir diese subjektive Sicht nicht von einem Computer. Das ist das aus unserer Sicht Gefährliche«


Es muss also etwas für den Einsatz von KI sprechen. Wie arbeitet sie?

Die KI hinter Talent Analytics arbeitet dann effektiv, wenn sie viele gleichartige Beschäftigte vergleichen kann und es möglichst viele verschiedene Daten über diese Beschäftigten gibt. Weil die Daten aus der Vergangenheit dann Rückschlüsse auf die Zukunft erlauben. Denken Sie an Udacity: Man könnte erheben, was die Teilnehmerinnen und Teilnehmer eines spezifischen Kurses vorher gemacht haben. Wie alt sind sie? Wo wohnen sie? Haben sie Berufserfahrung? Bildungsabschlüsse? In welchem Fach?

Daraus ließe sich bestimmen, wie hoch die Wahrscheinlichkeit ist, dass sie das Programm erfolgreich abschließen. Das wäre bereits strategisches Talent Analytics: Ah, männliche Münchener Teilnehmer mit mindestens drei Jahren Berufserfahrung und Hochschulabschluss in einem IT-Fach schließen bei uns am schnellsten und besten ab. Die sprechen wir jetzt gezielt an!

Finde dein KI-Programm Udacitys School of AI Überblick


Würden Sie diese Handlung als diskriminierend bezeichnen?

Ein kommerzieller Anbieter kann sich seine Kunden ja guten Gewissens aussuchen, das würde ich also nicht als diskriminierend bezeichnen. Umgekehrt wäre es aber Diskriminierung, wenn wir als Hochschule so verfahren würden.


Weil?

Wir tun es nicht und wir dürfen es nicht. Aber betrachten wir ein hypothetisches Beispiel: Wenn wir als Studiengang Wirtschaftsinformatik digitale Daten über unsere Erstsemester erheben würden, würden wir vielleicht feststellen, dass Studierende, die eine andere Muttersprache als Deutsch beherrschen, tendenziell schlechter abschließen. Mal als ganz plakatives Beispiel. Dann könnten wir überlegen, diese Studierenden bei der Zulassung zu benachteiligen um sicher zu stellen, dass die Abschlüsse auch gut sind. Etwas wovon Studierende und Arbeitgeber möglicherweise sogar profitieren könnten.


Obwohl beispielsweise Türkischkenntnisse ganz offensichtlich nichts mit der Wirtschaftsinformatik zu tun haben …

… Und in keiner Weise hinderlich, in manchen Unternehmen sicher sogar von Vorteil sind. Das heißt, selbst wenn die Daten solche Ergebnisse produzieren würden, wäre es diskriminierend, wenn wir auf Basis dieser Daten über Studienplätze entscheiden würden. Wir würden in der Gesellschaft vorhandene Diskriminierung, z.B. auf Grund eines Migrationshintergrundes, damit verstärken.


+++ 👍 Wo ihr schon mal hier seid, könnt ihr doch bald wiederkommen? Auf der linken Seite dieses Blogposts könnt ihr unseren zweiwöchentlichen Newsletter abonnieren. Wir freuen uns. +++



Das ist eine Korrelation, die merklich sinnfrei ist oder plakativ, wie Sie sagen. Diskriminiert Talent Analytics auch in unmerklicherem Maße?

Wir wissen aus Gesprächen mit Firmen zum Beispiel, dass unter den Beschäftigten, die erstmals in Führungspositionen befördert werden, die Frauen tendenziell jünger sind als die Männer. Sie bilden damit eine Gruppe der erstmalig Beförderten, die vergleichbar scheint, aber nicht eins zu eins mit der männlichen vergleichbar ist. Verdienen sie gleich? Haben sie die gleiche Berufserfahrung? Sind sie gleich erfolgreich? Das jüngere Alter zum Zeitpunkt der ersten Führungsverantwortung verschiebt die Kriterien bei späteren Messungen etwa zum Erfolg der Beförderung. Wie leicht man dabei falsch schlussfolgert, ist bisher sehr wenig untersucht.


Beobachten wir richtig, dass die Maschinen prinzipiell menschliche Entscheidungsstrukturen auf ihre eigene Arbeit verlängern. Und damit auch Ressentiments und Diskriminierung?

Diskriminierung geschieht immer, bewusst und unbewusst. Deshalb sollte man sich auch nur begrenzt über sie ärgern. Sitze ich einem Menschen gegenüber, denke ich immer zuerst in situativen und individuellen Sympathien und Antipathien: Der andere liebt das Angeln genauso wie der Schwager, den ich nicht mag. Dann mag ich mein Gegenüber auch erst mal nicht. Das gehört zum Leben, da sind Menschen genauso intransparent wie Computer. Nur erwarten wir diese subjektive Sicht nicht von einem Computer. Wir glauben ihm weitgehend. Entweder weil wir in seine Leistung vertrauen, oder schlicht nicht verstehen, was er tut. Das ist das aus unserer Sicht Gefährliche.


Ließen sich solche Entscheidungen fairer treffen, desto mehr Daten wir erheben und vergleichen können? Oder würden sie Big Data dort einen Riegel vorschieben?

Big Data brauchen wir und das kommt sowieso, Datenanalse brauchen wir und das kommt sowieso, beziehungsweise ist längst da. Die Vorteile überwiegen die Nachteile definitiv. Gleichzeitig müssen wir uns als Gesellschaft fragen, wie wir mit Algorithmen umgehen. In der Talent Analytics genauso wie andernorts, wo etwa diskutiert wird, was es ethisch bedeutet, wenn ein Auto einen Unfall verursacht. Die Frage beim Umgang mit solchen Technologien ist nie, ob sie gar nicht mehr, sondern wie sie verwendet werden sollen. Und diese Frage zu diskutieren, sehe ich als wichtige Aufgabe der Forschung.


»Wie leicht man falsch schlussfolgert, ist bisher wenig untersucht«


Verbinden Sie mit diesen Diskussionen auch Ansprüche an die Arbeit und Ausbildung von Programmierern?

Ich stelle mir vor, dass man klar definierte Abläufe entwickelt, wann ein Algorithmus nach ethischen Kriterien geprüft werden sollte. Und nach welchen Kriterien er dann geprüft wird.


Eine Art TÜV für Algorithmen?

Das wäre eine Idee. Wir wissen nicht, ob es je so konkret funktionieren wird. Aber das ist das Fernziel.


Aus Ihrer bisherigen Forschung: Gibt es Branchen, in denen sich der Einsatz von KI komplett verbietet?

Branchen nicht. Einzelne Fragestellungen vielleicht.


Ist KI der potentiell bessere, fairere Recruiter?

Unbedingt! Wir brauchen diese Prozesse, sie verbessern die Welt viel mehr, als sie sie verschlechtern.



-

Bisher zu KI im Blog …


👓   Carla, das smarte, selbstfahrende Auto von Udacity, erklärt in vier Schritten.

👓   Deep Blue schlägt den Schach-Weltmeister, kann aber keine Türen öffnen. Wie weit ist die KI-Entwicklung durch Deep Learning wirklich?

👓   KI ist in vielen Lebensbereichen angekommen. Das nährt die Angst vor autonom handelnden Maschinen. Aber: Kann sich eine Maschine überhaupt ihrer selbst bewusst sein?

-

Fotos: HTW Berlin, Katharina Simbeck

About the author
Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Paul heuerte bei Udacity an, weil hier Wesentliches zusammenkommt: Menschen, Neugier, Ideen, Fragen. An guten Tagen schreibt er fettfrei, die Komplexität der Dinge anerkennend und ohne Emojis.