Seit mehr als 20 Jahren untersucht Prof. Tim Weitzel von der Universität Bamberg Trends im Recruiting. Sein Team befragt dazu die 1.000 TOP-Unternehmen Deutschlands. Wir wollten von ihm wissen, ob sich der vorsichtige Trend, KI im Recruiting einzusetzen, auf die öffentliche Verwaltung übertragen lässt. Nach der ersten ernüchternden Antwort wandte sich das Gespräch grundlegenden Fragen zu, etwa welchen kognitiven Fehlern der Mensch bei der Auswahl von Bewerber*innen unterliegt. Und am Ende gab es auch Antwort auf die zugespitzte Frage, wer die bessere Entscheidung trifft – der Mensch oder die Maschine?
Interview
Im Vorfeld des Interviews habe ich recherchiert, ob KI im Recruiting der öffentlichen Verwaltung zum Einsatz kommt. Ich habe nichts gefunden. Auch eine Blitzumfrage hat ergeben, dass die KI noch nicht im Personalwesen angekommen ist. Woran liegt das Ihrer Einschätzung nach?
Prof. Tim Weitzel: Das ist eine spannende Frage. Die eigentliche Frage aber müsste lauten: Wofür sollten Organisationen – Unternehmen wie öffentlicher Dienst – KI einsetzen? Welche Prozesse sind problematisch und könnten besser, schneller, billiger oder flexibler werden? Technik ist kein Selbstzweck und kann nur nützlich sein, wenn sie ein Problem löst. Abgesehen davon haben große Unternehmen eher Abteilung mit Leuten, die neue Technologien ausprobieren können, etwas entwickeln dürfen. Dieses Ausprobieren geht in der Regel im öffentlichen Dienst nicht, weil die Motivations- und Arbeitsstrukturen anders sind.
Sie beraten einige der ganz großen deutschen Unternehmen in der Verwendung von KI schon seit 20 Jahren. In den letzten Jahren auch dazu, wie man für Personalmarketing und Personalauswahl einen Algorithmus benutzen kann. Könnte man da nichts auf den öffentlichen Dienst übertragen?
In den Unternehmen sehen wir immer wieder, dass es ganz dezentral anfängt. Zwei oder drei Personen haben die Idee, etwas Neues auszuprobieren und setzen sie um. Dadurch werden Erfahrung und Wissen aufgebaut. Und nach zwei oder drei Ausprobierprojekten gibt es genug Wissen in der Firma, so dass man die richtigen Fragen überhaupt erst stellen kann. Wofür brauche ich die KI denn wirklich? Im Moment haben wir allerdings das Problem – wie alle paar Jahre, wenn solche Worte wie KI rumgehen –, dass die meisten glauben, KI sei etwas fundamental Neues. Etwas absolut Besonderes, das man in einer schwarzen Kiste kaufen kann. Verbunden mit der Illusion, dass man wieder handlungsfähig wird.
Dann ist der Hype um die KI übertrieben? Eine Welle, auf der jeder mitreiten will?
Eine Studie berichtete, dass die Hälfte der deutschen Start-ups, die Ihnen KI verkaufen möchten, gar keine KI an Bord habe. Aber es kauft jeder, wenn Sie KI drauf schreiben. Trotzdem ist der tatsächliche Einsatz im Tagesgeschäft gerade im Personalbereich trotz interessanter Potentiale noch sehr zurückhaltend. Das hat auch damit zu tun, dass viele Personalabteilungen weniger Liebe zu Kennzahlen und Technologie haben und mehr direkt mit Menschen arbeiten wollen. Es gibt daher eine große Unsicherheit und viele überlegen: Der Nachbar setzt auf KI, dann muss ich das auch machen. Aber das ist das Rezept für Desaster.
Blindlings auf KI zu setzen, führt also ins Desaster. Welchen Weg gibt es dann?
Wenn wir eins wissen aus 30 Jahren IT-Projektmanagement, dann ist es das: Lautet das Projekt „Wir müssen die Technologie X einführen“, fährt es gegen die Wand. Lautet es jedoch: „Wir haben ein Problem, weil wir unsere Kunden nicht gut genug bedienen können und wir könnten das lösen, indem wir den Prozess besser machen durch Unterstützung von Technologie X“, dann wird es ein Erfolg. Was man braucht, ist eine klare Analyse: Was sind meine Probleme? Was kann ich besser machen? Und dann kann man überlegen: Kann KI bei der Lösung helfen? Oder reicht vielleicht einfach eine bessere Website? Oder besser ein neuer Mitarbeiter? Man muss immer vom Problem ausgehen, sonst wird es nichts.
Wo könnte KI im öffentlichen Dienst helfen?
Das ist wahrscheinlich zu umfassend gefragt, man müsste die Frage in einen Kontext stellen. Dann könnte man relativ klar sagen, wo KI hilft. Aber eigentlich ist die KI nicht ein losgelöstes Thema, sondern das Thema ist eher: Optimierung von Geschäftsprozessen. Und das gilt sowohl für die öffentliche Verwaltung wie für Unternehmen. Dass regelmäßig auf die Abläufe geschaut wird, darauf, was verbessert werden kann. Das nennt man Geschäftsprozessmanagement, und das passiert überall. Wenn nicht, dann ist das Unternehmen bald pleite, und als Staat muss man die Steuer erhöhen.
Nehmen wir an, ich stelle fest, dass die Urlaubsanträge zu lange liegen. Wie löse ich mein Problem?
Sie sehen sich an: Wie werden im Moment Urlaube verwaltet? Wer schaut nach, ob der Mitarbeiter, der den Urlaub beantragt, noch Urlaubstage hat? Wer klickt auf die Freigabe? Und wer übernimmt das, wenn die zuständige Person gerade in Elternzeit ist? Gibt es da Regeln? Und dann überlegen Sie: Wie kann ich es besser machen? Mit einem anderen Workflow-System? Oder Menschen empowern, indem ich sage: Ich brauche nicht von drei Vorgesetzten eine Unterschrift unter den Antrag, sondern eine Person reicht. Dann habe ich weniger Bruch. Und diese Arbeitsabläufe zu verbessern, das kann man technisch und organisational unterstützen.
Und hier käme die KI ins Spiel.
Eine Möglichkeit wäre, mit einer KI eine andere Art von Automatisierung zu ermöglichen als bisher. Bisher ist Automatisieren, dass man gleichartige Dinge, die häufig passieren, auf eine Maschine legt. Stelle ich immer genau die gleichen Ventile her, kann ich automatisieren. Stelle ich für jeden Kunden ein eigenes Ventil her, muss ich das manuell machen. Und die KI kann vielleicht ein bisschen mehr unterschiedliche Dinge automatisieren. In HR selbst ist es schon lange die Diskussion, und diese Verbesserungen werden normalerweise gemessen in Besser – Schneller – Billiger und Flexibler. An diesen Zielen ist auch die öffentliche Verwaltung interessiert.
Heute haben Arbeitgeber mehr Respekt vor Bewerber*innen, weil sie knapper geworden sind. Müssen Arbeitgeber mittlerweile berücksichtigen, dass die Stellen, die sie anbieten, auf die Kandidaten passen?
Bei der Personalauswahl haben wir die grundsätzliche eignungsdiagnostische Herausforderung, wie man beurteilen kann, ob Bewerberprofil und Stellenprofil zusammenpassen. Dieses Matching ist eine schwierige Aufgabe. Es gibt viele Anzeichen dafür, dass eine Maschine durchaus einige grundsätzliche Vorteile mitbringt. Allein wegen des Faktors Zeit: Wenn Sie 1.000 Bewerbungen bekommen, dann können Sie noch so aufmerksam sein, Sie können 1.000 Bewerbungen nicht sinnvoll lesen, verstehen und nach all den Aspekten auseinandernehmen. Da können Sie einen Monat lesen und es wird nichts. Der Algorithmus kann das in 3 Sekunden. Eine andere Frage ist, welche Daten in traditionellen Bewerbungen überhaupt auswahlrelevant sind – die Kommas im Anschreiben sind es nicht.
Der geeignete Bewerber hat durch den Algorithmus eine viel größere Chance, die Stelle zu bekommen.
Ja, soweit eignungsdiagnostisch relevante Daten verfügbar sind und verwendet werden. Biografische Daten aus strukturierten Fragebögen zu konkreten Lebens- und Berufserfahrungen bieten zum Beispiel eine recht gute Leistungsprädiktion. Kommen sie aus klassischen Lebensläufen, können sie höchstens eine grobe Einschätzung der kognitiven Leistungsfähigkeit bieten, die wiederum eine gute Vorhersage für Leistungs- und Lernfähigkeit liefert, aber besser direkt getestet würde. In Ihrem Beispiel hätte die Maschine auf jeden Fall den Vorteil, alle Unterlagen schneller und vollständiger zu „lesen“. Viele Recruiter verwenden im Durchschnitt unter eine Minute, wenn erstmalig die Bewerbungen gesichtet werden. Da bleibt nicht viel Information hängen. Und dann passiert natürlich gleichzeitig noch etwas anderes: Die Biases, kognitive Schräglagen, kommen ins Spiel. Sie verhindern, dass ich wirklich die geeignetste Bewerberin oder den besten Bewerber herausfische. Zum Beispiel, wenn ich auf den Namen oder das Bewerberbild schaue.
Die Biases verhindern jegliche Objektivität?
Wir wissen, dass die offensten und vorurteilfreiesten Menschen nicht davor gefeit sind zu diskriminieren. Wir Menschen haben einen mindestens 70.000 Jahre alten evolutionsbiologischen Nachteil, was das Thema angeht. Früher waren es die Leute aus dem eigenen Stamm, von denen die Hilfe und Problemlösung ausging, und Leute aus dem anderen Stamm waren immer nur eine Gefahr. Das werden wir nicht los. Wir wissen aber immerhin, dass es das gibt. Wir wissen, dass der große weiße Mann eher eingestellt wird als die kleine dunkle Frau. Studien zu solchen kognitiven Biases zeigen deutlich: Ein gutes Drittel der Einschätzung eines Menschen, ob jemand auf eine Stelle passt, lässt sich auf die wahrgenommene Ähnlichkeit zu sich selbst erklären.
Über ein Drittel Fehleinschätzungen aufgrund von Ähnlichkeit? Wie kommt das?
Wir Menschen geben gern viel auf unser Bauchgefühl, auch Recruiter. Der Psychologe Daniel Kahneman, Nobelpreisträger der Ökonomie, hat es gut zusammengefasst: „Intuition is recognition“. Das meint: Die Intuition beruht darauf, dass man die gleiche Entscheidung trifft, die man in einer ähnlichen Situation schon einmal getroffen hat. Das Ergebnis wird einfach übernommen. Und dadurch wird es jedes Mal noch schlimmer mit der Ähnlichkeit.
Könnte an dieser Stelle die KI ins Spiel kommen?
Sagen wir, das Team, das den geeignetsten Bewerber auswählen soll, besteht aus 3 Personen und als vierte Stimme nehme ich die Maschine dazu. Wenn Team und Algorithmus das Gleiche sagen, dann ist das eine Indikation: Wir haben jemanden gefunden, der ein passendes Profil mitbringt. Wenn die Maschine jemand anderen vorschlägt, dann könnte man das zum Anlass nehmen und die Entscheidung hinterfragen. Gleichzeitig sollte man dann überprüfen, mithilfe welcher Daten der Algorithmus zu seiner Entscheidung kam. So übernimmt eine KI gerne die menschlichen Biases, wenn man sie in der Welt der menschengemachten Biases aufzieht. Man kann beispielsweise der KI sagen, das Datenfeld „Geschlecht“ oder „Vorname“ zu ignorieren. Aber noch immer würden so weniger Frauen in Führungspositionen eingestellt, wenn zum Beispiel bei Schulbildung nicht nur stand „hat Schulabschluss“, sondern „war bei der St. Mary School for Girls“. Wenn gestern „weiblich“ mit „seltener in Führungsposition“ korreliert war, ist das genau das, was die Maschine herausfindet, und sie würde dann den menschlichen Bias weiterführen – genau das, was wir bei uns gerne „Menschenkenntnis“ nennen. Der Vorteil der KI ist hier aber immerhin, dass man diese Dinge besser messen und manipulieren kann als bei Menschen.
Wer soll letztendlich entscheiden? Der Mensch oder der Algorithmus?
Die Antwort ist völlig klar und die gleiche wie vor 200 Jahren, als die Weber die Webstühle stürmten. Und hat sich seitdem auch nicht geändert. Die Antwort ist nicht entweder oder. Die Frage ist nicht „Mensch oder Maschine?“ Die beste Antwort für alle ist: „Mensch mit Maschine“.
Vielen Dank für das Gespräch!
Das Interview führte Diane Schöppe