Diese Bachelorarbeit verbindet zwei hochaktuelle Themenfelder: den Einsatz von Künstlicher Intelligenz (KI) in der Personalauswahl und die Erklärbarkeit algorithmischer Entscheidungen (Explainable AI, XAI). Ziel der Arbeit ist es, zu untersuchen, wie unterschiedliche Erklärungsansätze für KI-Entscheidungen die Akzeptanz von Bewerbenden beeinflussen.
Ausgangspunkt ist die zunehmende Nutzung algorithmischer Systeme in der Personalgewinnung. Obwohl diese objektiver und effizienter arbeiten können als menschliche Entscheider, stoßen sie bei Bewerbenden oft auf Skepsis. Besonders mangelnde Transparenz und Verständlichkeit der Entscheidungen wirken sich negativ auf das Vertrauen und die Akzeptanz aus.
Um diese Problematik zu erforschen, wurden zwei unterschiedliche Erklärungsansätze konzipiert: eine standardisierte, textuelle Erklärung und ein bewerberzentrierter Ansatz, der psychologische Prinzipien sowie visuelle Erklärungen (basierend auf LIME) integriert. Im Rahmen eines Online-Experiments mit 213 Teilnehmenden wurden beide Ansätze unter realitätsnahen Bedingungen getestet.
Die Ergebnisse zeigen klar: Bewerberzentrierte Erklärungen steigern signifikant die wahrgenommene Transparenz, Gerechtigkeit, Methodenakzeptanz sowie die allgemeine Bewerberakzeptanz – insbesondere im Fall einer Absage. Die bloße Bereitstellung technischer Informationen reicht hingegen nicht aus, um Akzeptanz zu fördern.
Diese Arbeit bietet praktische Gestaltungsansätze für Unternehmen, die KI-gestützte Auswahlverfahren einführen wollen, ohne dabei die Bewerberperspektive zu vernachlässigen. Sie liefert wissenschaftlich fundierte Empfehlungen zur Gestaltung verständlicher, fairer und akzeptierter KI-basierter Personalauswahlprozesse.
Inhaltsverzeichnis
- Abkürzungsverzeichnis
- Abbildungsverzeichnis
- Tabellenverzeichnis
- 1. Einleitung
- 2. Theoretische Grundlagen
- 2.1 Grundlagen der Personalauswahl
- 2.1.1 Definition und Ziele der Personalauswahl
- 2.1.2 Klassische Methoden der Personalauswahl
- 2.1.3 Limitationen klassischer Auswahlverfahren
- 2.2 Künstliche Intelligenz in der Personalauswahl
- 2.2.1 Definition und Ziele der KI-gestützten Personalauswahl
- 2.2.2 Vorteile einer KI-gestützten Personalauswahl
- 2.2.3 KI-gestützte Analyse von Bewerbungsunterlagen
- 2.2.4 Anforderungen an KI-gestützte Auswahlmethoden
- 2.3 Bewerberakzeptanz: Modell und Einflussfaktoren
- 2.3.1 Definition und Relevanz der Bewerberakzeptanz
- 2.3.2 Modell der Bewerberakzeptanz in der KI-gestützten Personalauswahl
- 2.3.3 Einfluss der Erklärbarkeit
- 2.4 Explainable Artificial Intelligence in der Personalauswahl
- 2.4.1 Definition und Ziele der Explainable AI
- 2.4.2 Technische Ansätze der Explainable AI
- 2.4.3 Limitationen technischer Ansätze der Explainable AI
- 2.4.4 XAI: Relevanz einer bewerberorientierten Perspektive
- 2.1 Grundlagen der Personalauswahl
- 3. XAI in der Personalauswahl: Gestaltungsansätze
- 3.1 XAI: Textueller Erklärungsansatz
- 3.2 XAI: Bewerberzentrierter Erklärungsansatz
- 3.3 Fragestellung und Hypothesen
- 4. Methode
- 4.1 Stichprobe
- 4.2 Versuchsplanung
- 4.3 Versuchsmaterial
- 4.4 Fragebogen zur Erhebung der Bewerberakzeptanz
- 4.5 Versuchsablauf
- 5. Ergebnisse
- 5.1 Deskriptive Befunde
- 5.2 Inferenzstatistische Analyse
- 6. Diskussion
- 6.1 Zusammenfassung
- 6.2 Einordnung in den Forschungsstand
- 6.3 Limitationen
- 6.4 Forschungsdesiderate
- 6.5 Fazit
- Anhangsverzeichnis
Zielsetzung & Themen
Die vorliegende Bachelorarbeit untersucht, inwiefern qualitativ unterschiedliche Erklärungsansätze für KI-gestützte Entscheidungen die Bewerberakzeptanz im Kontext der betrieblichen Personalauswahl beeinflussen, und welche Rolle das Auswahlergebnis dabei spielt. Das primäre Ziel ist es, die Perspektive der Bewerber umfassend zu adressieren, indem ein hohes Maß an Erklärbarkeit durch die Berücksichtigung kontextspezifischer Anforderungen gewährleistet wird.
- Einsatz von Künstlicher Intelligenz (KI) in der Personalauswahl
- Explainable Artificial Intelligence (XAI) und deren Bedeutung für die Erklärbarkeit
- Analyse der Bewerberakzeptanz gegenüber KI-gestützten Auswahlverfahren
- Konzeption und experimentelle Evaluation unterschiedlicher Erklärungsansätze (textuell vs. bewerberorientiert)
- Einfluss von Auswahlentscheidungen (Zusage vs. Absage) auf die Bewerberakzeptanz
- Integration psychologischer und technischer Perspektiven zur Gestaltung von Erklärungsmodellen
Auszug aus dem Buch
2.3.3 Einfluss der Erklärbarkeit
Aktuelle Forschungsergebnisse zeigen, dass Menschen auf algorithmische Entscheidungsträger im organisationalen Kontext im Vergleich zu menschlichen Entscheidungen negative Reaktionen aufzeigen. Dies gilt insbesondere dann, wenn Menschen durch eine algorithmische Entscheidung direkt betroffen sind, wie beispielsweise Bewerber im Kontext der KI-gestützten Personalauswahl (Langer & Landers, 2021) (Parent-Rocheleau & Parker, 2022). Diese Reaktionen tangieren dabei unter anderem die wahrgenommene prozedurale Gerechtigkeit des Auswahlprozesses, sodass diese als geringer eingeschätzt wird, wenn algorithmische Systeme anstatt menschlicher Entscheidungsträger die Entscheidung über einen Bewerber treffen (Acikgoz et al., 2020) (Newman et al., 2020) (Binns et al., 2018). Objektiv betrachtet übertreffen algorithmische Entscheidungsträger hingegen menschliche Entscheidungsprozesse hinsichtlich ihrer Gerechtigkeit, da große Datenmengen standardisiert, objektiv und konsistent verarbeitet werden und im Vergleich zu Menschen keine kognitiven Verzerrungen und Urteilsfehler zugrunde liegen (Lepri et al., 2018). Dieser Aspekt verdeutlicht die zentrale Problematik der Akzeptanz für algorithmische Entscheidungen. Insbesondere wird ersichtlich, dass Individuen, die direkt von den Entscheidungen einer KI tangiert werden, das Resultat dieses Entscheidungsprozesses weniger akzeptieren, wenn der Entscheidungsträger subjektiv als ungerecht wahrgenommen wird. Dies gilt ungeachtet der Tatsache, dass durch die algorithmische Entscheidung potenziell ein höheres Ausmaß an objektiver Gerechtigkeit gewährleistet werden könnte (Morse et al., 2022). Diese geringe wahrgenommene Gerechtigkeit aus Bewerberperspektive steht in unmittelbarem Zusammenhang mit einem reduzierten Vertrauen in den Einsatz derartiger Technologien (Lee, 2018).
Dieser Zusammenhang legitimiert die Analyse einer moderierenden Einflussgröße, mithilfe derer die Diskrepanz zwischen menschlichen und algorithmischen Entscheidungen hinsichtlich ihrer prozeduralen Gerechtigkeit aufgehoben werden kann. In diesem Zusammenhang fungiert der Grad an Erklärbarkeit als moderierende Einflussgröße, die die Wahrnehmung der prozeduralen Gerechtigkeit und daraus resultierend die Akzeptanz für KI-gestützte Auswahlprozesse aus Perspektive der Bewerbenden positiv beeinflusst. Das Konzept der Erklärbarkeit steht in unmittelbarem Zusammenhang mit dem „Black-Box-Effekt“, wonach Menschen aufgrund mangelnder Transparenz und Erklärbarkeit die intrinsischen Mechanismen einer Künstlichen Intelligenz nicht nachvollziehen können (Yeomans et al., 2019). Eine zentrale Ursache hierfür stellt die zunehmende technische Komplexität dar, sodass technische Laien algorithmischen Entscheidungsprozessen aufgrund mangelnder Erklärbarkeit intuitiv eine geringere prozedurale Gerechtigkeit zuschreiben (Castelvecchi, 2016).
Gleichzeitig eröffnet diese Perspektive jedoch die einen zentralen Gestaltungsansatz, indem durch die Schaffung einer erhöhten Erklärbarkeit das vorhandene Potenzial der KI für technisch unerfahrene Personen offengelegt wird, um somit die Wahrnehmung von Gerechtigkeit fundamental zu verbessern. Dies wirkt sich unmittelbar auf das Ausmaß der Akzeptanz für derartige Technologien aus (Bonezzi et al., 2022).
Aufgrund der Durchdringung von Künstlicher Intelligenz in vielen Bereichen gibt es diverse Interessensgruppen, die unterschiedliche Informationsbedürfnisse aufweisen (Lange et al., 2021). Der aktuelle Forschungsstand differenziert demnach den Einfluss von Erklärungen nach Empfänger, Zeitpunkt und Inhalt der Erklärung (Wesche et al., 2024).
Resultierend daraus repräsentieren Erklärungen zu den jeweiligen KI-gestützten Auswahlentscheidungen eine adäquate Möglichkeit, die Reaktionen von Bewerbern positiver zu gestalten (Truxillo et al., 2009). Der positive Einfluss von Erklärungen in sensiblen Bereichen wie der automatisierten Personalauswahl wird durch aktuelle Forschungsergebnisse empirisch belegt (Langer & Landers, 2021). Dieser fundamentale Beitrag zur Steigerung der Bewerberakzeptanz wird im Kontext der Personalauswahl als obligatorisch betrachtet. Dennoch schreiben Menschen algorithmischen im Vergleich zu menschlichen Entscheidungsträgern höhere Transparenzstandards zu (Zerilli et al., 2019). Hierbei führt die Fähigkeit, sowohl den Entscheidungsprozess als auch die daraus resultierenden Ergebnisse eines algorithmischen Systems nachvollziehbar darzustellen, zu einem gesteigerten Maß an Transparenz. Dieser fundamentale Zusammenhang wird als Erklärbarkeit eines algorithmischen Systems definiert (Abdollahi & Nasraoui, 2018).
Zusammenfassung der Kapitel
1. Einleitung: Führt in die zunehmende Digitalisierung der Personalauswahl durch KI ein und beleuchtet die Notwendigkeit, die Akzeptanz von Bewerbenden für derartige Technologien empirisch zu evaluieren, um deren volles Potenzial auszuschöpfen.
2. Theoretische Grundlagen: Bietet die theoretische Basis für die Analyse des Einsatzes von KI in der Personalauswahl, indem klassische Methoden, KI-gestützte Ansätze, Bewerberakzeptanzmodelle und Explainable AI (XAI) detailliert beleuchtet werden.
3. XAI in der Personalauswahl: Gestaltungsansätze: Beschreibt die Entwicklung und experimentelle Evaluation von zwei qualitativ unterschiedlichen Erklärungsansätzen für KI-basierte Personalauswahlentscheidungen, einen textuellen und einen bewerberzentrierten Ansatz, und leitet die Forschungsfrage sowie Hypothesen ab.
4. Methode: Erläutert das experimentelle Versuchsdesign, die Stichprobenerhebung und die verwendeten Materialien zur empirischen Überprüfung der Hypothesen bezüglich der Bewerberakzeptanz.
5. Ergebnisse: Präsentiert die deskriptiven Befunde und inferenzstatistischen Analysen des Experiments, um die postulierten Forschungshypothesen hinsichtlich der Wirksamkeit unterschiedlicher Erklärungsansätze zu überprüfen.
6. Diskussion: Ordnet und interpretiert die Forschungsergebnisse, diskutiert deren Bedeutung für die Bewerberakzeptanz im Kontext der KI-basierten Personalauswahl und leitet Implikationen für zukünftige Forschung ab.
Schlüsselwörter
Künstliche Intelligenz (KI), Explainable AI (XAI), Personalauswahl, Bewerberakzeptanz, Erklärbarkeit, Transparenz, Gerechtigkeit, Modellierung, Experimentelles Design, Algorithmische Entscheidungen, Psychologische Mechanismen, Digitalisierung, Recruiting, Vorhersagegenauigkeit, Technikvertrauen
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Diese Bachelorarbeit untersucht, wie sich verschiedene Erklärungsansätze für KI-gestützte Entscheidungen auf die Akzeptanz von Bewerbenden in der Personalauswahl auswirken und welche Rolle das Ergebnis der Auswahlentscheidung (Zusage oder Absage) dabei spielt.
Was sind die zentralen Themenfelder?
Die zentralen Themenfelder umfassen den Einsatz von Künstlicher Intelligenz in der Personalauswahl, Explainable Artificial Intelligence (XAI), die Bewerberakzeptanz von KI-Systemen, psychologische Mechanismen der Entscheidungsbewertung und die Gestaltung von Erklärungsansätzen.
Was ist das primäre Ziel oder die Forschungsfrage?
Das primäre Ziel ist es, die Bewerberperspektive umfassend zu adressieren, indem ein hohes Maß an Erklärbarkeit durch die Berücksichtigung kontextspezifischer Anforderungen gewährleistet wird. Die zentrale Forschungsfrage lautet: „Inwiefern beeinflussen qualitativ verschiedene Erklärungsansätze für KI-gestützte Entscheidungen die Bewerberakzeptanz im Kontext der betrieblichen Personalauswahl und welche Rolle nimmt hierbei das Auswahlergebnis ein?"
Welche wissenschaftliche Methode wird verwendet?
Es wird ein experimenteller Ansatz verwendet, um die Hypothesen zu überprüfen. Hierbei wurde eine fiktive Bewerbungssituation im Rahmen einer Vignettenstudie konzipiert und in einem Online-Format realisiert.
Was wird im Hauptteil behandelt?
Der Hauptteil der Arbeit behandelt die theoretischen Grundlagen der Personalauswahl, den Einsatz von Künstlicher Intelligenz in diesem Kontext, das Konzept der Bewerberakzeptanz und die Explainable Artificial Intelligence (XAI) sowie die Konzeption und Evaluation unterschiedlicher Erklärungsansätze.
Welche Schlüsselwörter charakterisieren die Arbeit?
Künstliche Intelligenz (KI), Explainable AI (XAI), Personalauswahl, Bewerberakzeptanz, Erklärbarkeit, Transparenz, Gerechtigkeit, Algorithmische Entscheidungen, Psychologische Mechanismen.
Warum wird die Akzeptanz von Bewerbenden für KI-Systeme in der Personalauswahl als so wichtig erachtet?
Eine unzureichende Berücksichtigung der Bewerberperspektive kann dazu führen, dass die Vorteile einer KI-gestützten Personalauswahl von Bewerbern subjektiv als Nachteile interpretiert werden. Zudem hat die Akzeptanz der Bewerbenden einen signifikanten Einfluss auf die Arbeitgeberattraktivität, die Qualität zukünftiger Bewerberpools und die langfristige Unternehmensleistung.
Welchen Einfluss haben unterschiedliche Erklärungsansätze (textuell vs. bewerberorientiert) auf die Bewerberakzeptanz?
Die Arbeit zeigt, dass ein bewerberorientierter Erklärungsansatz im Vergleich zu einem rein textuellen Ansatz oder dem gänzlichen Fehlen einer Erklärung zu höheren Ausprägungen in der wahrgenommenen Transparenz, Gerechtigkeit, Methodenakzeptanz, Zufriedenheit mit der Erklärung und der Bewerberakzeptanz insgesamt führt.
Was ist der „Black-Box-Effekt“ im Kontext der Erklärbarkeit von KI-Systemen?
Der „Black-Box-Effekt“ beschreibt das Phänomen, dass Menschen aufgrund mangelnder Transparenz und Erklärbarkeit die intrinsischen Mechanismen einer Künstlichen Intelligenz nicht nachvollziehen können, was zu einer geringeren wahrgenommenen prozeduralen Gerechtigkeit führt.
Welche Rolle spielen psychologische Aspekte bei der Gestaltung von Erklärungen für KI-Entscheidungen?
Die Arbeit betont, dass eine rein technische Betrachtung der Erklärbarkeit nicht ausreicht. Vielmehr ist eine Integration psychologischer Gesichtspunkte, insbesondere die Berücksichtigung kognitiver Prozesse und der individuellen Informationsbedürfnisse der Bewerbenden, entscheidend, um die Akzeptanz für KI-gestützte Auswahlverfahren zu erhöhen.
- Citation du texte
- Simon Saller (Auteur), 2025, Explainable AI in der Personalauswahl. Experimentelle Evaluation der Bewerberakzeptanz, Munich, GRIN Verlag, https://www.grin.com/document/1584059