KI im Recruiting: Segen oder Fluch?

KI ist schon lange ein Thema, mit Chat-GPT ist es zum Mega-Hype geworden. Kann Künstliche Intelligenz im Recruiting eingesetzt werden, wo lauern Fallstricke?
Veröffentlicht am 13.12.2023
KI im Recruiting: Segen oder Fluch?

Seit die erste Chat-GPT-Version freigeschaltet wurde, ist das schon vorher beliebte Thema der Künstlichen Intelligenz (KI) explodiert. Alle probieren nun aus, ob Chat-GPT Songtexte schreiben kann, Reports oder Stellenanzeigen. Trotz des Hypes sollten Personalabteilungen sich mit dem Thema KI beschäftigen, es ist längst unterwegs in unseren Alltag. Was ist möglich und wo liegen die Gefahren?

Beginnen wir mit den Risiken, es ist immer gut, diese zu kennen. Die Internationale Hochschule Erfurt (IU) hat im April 2022 eine Studie veröffentlicht, nach der fast zwei Drittel der Deutschen den Einsatz von KI im Recruiting ablehnt. Die Sorgen: Zwischenmenschliche Aspekte wie Sympathie gingen verloren, Furcht vor unkontrollierter Datenverarbeitung, Misstrauen gegenüber Entscheidungen, die Algorithmen treffen und auch gegenüber dem ganzen Unternehmen, dass KI in der Personalarbeit einsetzt. Dabei nimmt die Skepsis gegenüber KI-Recruiting zu, je weiter im Bewerbungsprozess es voran geht. Fast 70 Prozent etwa finden KI-Einsatz beim Texten und Formulierung von Stellenanzeigen gut, aber nur 38 Prozent sind damit einverstanden, dass KI Wortwahl oder Mimik während eines Bewerbungsgespräches analysiert. Das diskriminierende Potenzial von Algorithmen liegt auf der Hand: Sie sind nur so gut wie die Datenbasis, mit der sie trainiert werden. Personalabteilungen sollten sich also ruhig mit dem Einsatz von Chat-GPT und von Analyse-Software für Personalarbeit oder Anzeigen-Schaltung beschäftigen, solange sie nie vergessen, dass deren Ergebnisse von menschlicher Intelligenz auf Korrektheit und Sinnhaftigkeit geprüft werden müssen.

Unter diesen Voraussetzungen lässt sich viel gewinnen. Derzeit tummeln sich im Netz beispielsweise Versuche, von Chat-GPT Stellenanzeigen, Job-Beschreibungen, Suchbegriffe oder Interviewfragen erstellen zu lassen. Die veröffentlichten Beispiele sind durchaus beeindruckend, die Bedingungen ihres Zustandekommens jedoch kaum zu überprüfen. Lassen Sie sich ruhig einmal Stellenanzeigen vom Chatbot texten und vergleichen Sie diese mit denen, die Menschen aus der Personalabteilung getextet haben. Selbst wenn die Texte der KI nur als Vorlage verwendet werden, kann das Ressourcen sparen.

Als Möglichkeit für Kandidaten und Kandidatinnen, unkompliziert, jederzeit, anonym Kontakt aufzunehmen, werden oft Chatbots genannt. Hier scheint Vorsicht angeraten, denn falsche oder am Thema vorbeigehende Antworten solcher Systeme können auf Bewerber abschreckend wirken und sie frühzeitig abschrecken. Die IU schreibt zu ihrer Studie: „Vier von fünf Befragten (80,5 Prozent) fühlen sich weniger wertgeschätzt, wenn KI anstelle eines Menschen im Bewerbungsprozess eingesetzt wird.“ Der Bayer-Konzern hat sich 2019 zum Einsatz von Chatbots bekannt und gute Erfahrungen gemacht. So seien viele Informationen über Wünsche von Bewerberinnen und Bewerbern aus den anonymen Chats gewonnen worden, etwa anhand der Fragen, die dort gestellt wurden. Wer heute auf die Karriere-Seite von Bayer schaut, findet dort keinen Chat mehr. Oder er ist sehr gut versteckt.

Auch für die Analyse von Bewerbungsgesprächen, der Leistungen in Assessment Centern oder von Lebensläufen kann mittels KI-Software Zeit und Ressourcen gespart werden. Wer das nutzt sollte immer bedenken, dass falsche Analysen potenzielle Fachkräfte aussortieren können. KI-Systeme bieten aber auch die Chance, menschliche Vorurteile im Auswahlprozess zu minimieren und objektivere Personalentscheidungen zu treffen. Ob KI Diskriminierungen fördert oder mindert, entscheidet sich an den Trainingsdaten und den Voreinstellungen. Die Systeme arbeiten nur so gut, wie die zuvor definierten Anforderungen. Natürlich machen auch Menschen in Personalabteilungen Fehler. Der große Unterschied: Das wissen wir, deshalb kontrollieren, unterstützen und verbessern wir uns im Vier-Augen-Prinzip gegenseitig. Wenn hingegen Software Ergebnisse liefert, werden diese sehr viel leichter ohne weitere Prüfung akzeptiert.