Diese Bachelorarbeit verbindet zwei hochaktuelle Themenfelder: den Einsatz von Künstlicher Intelligenz (KI) in der Personalauswahl und die Erklärbarkeit algorithmischer Entscheidungen (Explainable AI, XAI). Ziel der Arbeit ist es, zu untersuchen, wie unterschiedliche Erklärungsansätze für KI-Entscheidungen die Akzeptanz von Bewerbenden beeinflussen.
Ausgangspunkt ist die zunehmende Nutzung algorithmischer Systeme in der Personalgewinnung. Obwohl diese objektiver und effizienter arbeiten können als menschliche Entscheider, stoßen sie bei Bewerbenden oft auf Skepsis. Besonders mangelnde Transparenz und Verständlichkeit der Entscheidungen wirken sich negativ auf das Vertrauen und die Akzeptanz aus.
Um diese Problematik zu erforschen, wurden zwei unterschiedliche Erklärungsansätze konzipiert: eine standardisierte, textuelle Erklärung und ein bewerberzentrierter Ansatz, der psychologische Prinzipien sowie visuelle Erklärungen (basierend auf LIME) integriert. Im Rahmen eines Online-Experiments mit 213 Teilnehmenden wurden beide Ansätze unter realitätsnahen Bedingungen getestet.
Die Ergebnisse zeigen klar: Bewerberzentrierte Erklärungen steigern signifikant die wahrgenommene Transparenz, Gerechtigkeit, Methodenakzeptanz sowie die allgemeine Bewerberakzeptanz – insbesondere im Fall einer Absage. Die bloße Bereitstellung technischer Informationen reicht hingegen nicht aus, um Akzeptanz zu fördern.
Diese Arbeit bietet praktische Gestaltungsansätze für Unternehmen, die KI-gestützte Auswahlverfahren einführen wollen, ohne dabei die Bewerberperspektive zu vernachlässigen. Sie liefert wissenschaftlich fundierte Empfehlungen zur Gestaltung verständlicher, fairer und akzeptierter KI-basierter Personalauswahlprozesse.
- Citation du texte
- Simon Saller (Auteur), 2025, Explainable AI in der Personalauswahl. Experimentelle Evaluation der Bewerberakzeptanz, Munich, GRIN Verlag, https://www.grin.com/document/1584059