Das Augenmerk der Arbeit ist auf die Beantwortung zweier Forschungsfragen ausgerichtet: Agieren KI-Algorithmen automatisch objektiv und fair? Was sind mögliche Auswirkungen der Zusammenarbeit von Personalverantwortlichen und KI? Die Arbeit ist wie folgt aufgebaut: Im Mittelpunkt des zweiten Kapitels steht die Klärung der verwendeten Begrifflichkeiten. Gegenstand des dritten Kapitels ist die Untersuchung der Forschungsfragen. Im Abschluss schließt sich das Fazit an.
Die Erkenntnisse der Arbeit beruhen auf dem Studium zeitgenössischer Literatur und Fachmagazinen. Zur Untersuchung der Fragestellung werden sowohl bekannte technische Grenzen der KI sowie allgemein untersuchte Phänomene aus der Verhaltenspsychologie berücksichtigt. Die Untersuchung schließt praktische Erkenntnisse aus anderen Disziplinen, zum Beispiel der Justiz, ein. KI wird bereits in weit höherem Maße als nur im Recruiting eingesetzt. Weitere Einzugsgebiete wären zum Beispiel das Workforce Management, die Unternehmenssteuerung und die Personalentwicklung. Die vorliegende Arbeit beschäftigt sich mit dem Einsatz technischer Hilfsmittel, die KI für das Recruiting enthalten.
Inhaltsverzeichnis
1 Einleitung
2 Recruiting und KI
2.1 Das moderne Recruiting
2.2 Forschungsstand KI
3 Risiken KI im Recruiting
3.1 Faire oder diskriminierende Algorithmen
3.2 Einflussnahme KI auf das menschliche Verhalten und Fertigkeiten
4 Fazit
5 Literaturverzeichnis
Zielsetzung & Themen
Die vorliegende Arbeit untersucht die kritischen Risiken, die beim Einsatz von künstlicher Intelligenz (KI) im modernen Recruiting-Prozess entstehen können. Im Fokus steht dabei die Forschungsfrage, ob KI-Algorithmen objektiv und fair agieren können und wie sich die Zusammenarbeit zwischen menschlichen Personalverantwortlichen und KI-Systemen auf das Verhalten und die Kompetenzen der Personaler auswirkt.
- Grundlagen des modernen Recruitings und der KI-Technologien.
- Analyse der Objektivität und Fairness von Algorithmen in Entscheidungsprozessen.
- Untersuchung von Blackbox-Risiken und rechtlichen Rahmenbedingungen (DSGVO).
- Einfluss der Mensch-Maschine-Interaktion auf die berufliche Leistungsfähigkeit und das Vertrauen.
Auszug aus dem Buch
3.1 Faire oder diskriminierende Algorithmen
Ein häufig zuerst genannter Vorteil der KI stellt ihre Objektivität dar. Ein Algorithmus ist nicht in der Lage, diskriminierend zu agieren, da er weder positive noch negative Gefühle gegenüber dem Menschen besitzt. So behauptet Altemeyer (2019, S. 66), dass der Wert der KI zunächst in der Fähigkeit, Daten zusammenzufassen und diese objektiv zu bewerten, liegt. Ebenso werden Fairness-Aspekte, wie Unvoreingenommenheit und Konsistenz, durchweg besser bei KI-basierten Entscheidungen wahrgenommen (Kaibel, Mühlenbock, Koch-Bayram & Biemann, 2019, S. 19). Im Folgenden gilt es, zu prüfen, wie objektiv und fair ein KI-gestütztes System tatsächlich agiert.
Fry bringt folgende, in diesem Zusammenhang interessante These auf: Algorithmen können entweder genau oder fair sein, jedoch niemals beides gleichzeitig (2019, S. 53). Das folgende Beispiel befasst sich mit der Verurteilung von Mördern mithilfe von KI. Dieses sei im Folgenden erläutert.
96 % aller verurteilten Mörder sind männlich (Vazsonyi, Wittekind, Belliston, Loh & Unodc, 2014). Ein möglichst akkurat agierender Algorithmus wird mit dieser bestehenden Datenbasis trainieren und dieses polarisierende Verhältnis berücksichtigen.
Den Annahmen Fry‘s zufolge wird in einer Gesamtheit von 100 ausgewählten potenziellen Mördern zwangsläufig die Mehrzahl männlich sein. Die Trefferquote des Algorithmus beträgt in diesem Beispiel 75 % oder mehr. Die restlichen 25 % werden falsch verdächtigt (2019, S. 54). Durch die einseitige Datenbasis werden demnach mehr Männer falsch verdächtig oder verurteilt werden. Die Quote beläuft sich laut Fry auf 24 Männer gegenüber einer falsch verdächtigten Frau (2019, S. 54). Diese Zahlen sind allerdings nach Fenton unvollständig. Er berechnet für die falsch positiven Ergebnisse bei Männern eine Wahrscheinlichkeit von 0.0480923 % (48 von 100.000) und für Frauen 0.00200016 % (2 von 100.000). Für die Berechnungen dieser Wahrscheinlichkeiten im Detail wird auf das Working Paper verwiesen (2019). Die Ergebnisse zeigen, dass die KI zwar genau, jedoch nicht fair ist. Ein faires Resultat würde bedeuten, dass Männer und Frauen mit der gleichen Wahrscheinlichkeit falsch verdächtigt werden. Der Algorithmus ist allerdings nur so fair wie seine zugrundeliegende Datenbasis.
Zusammenfassung der Kapitel
1 Einleitung: Die Einleitung führt in die Relevanz der künstlichen Intelligenz im Personalwesen ein und definiert die zentralen Forschungsfragen hinsichtlich Fairness und Mensch-Maschine-Interaktion.
2 Recruiting und KI: Dieses Kapitel klärt die begrifflichen Grundlagen des modernen Recruitings sowie den Forschungsstand zu KI-Technologien wie Machine Learning und neuronalen Netzen.
3 Risiken KI im Recruiting: Der Hauptteil beleuchtet die Gefahren diskriminierender Algorithmen durch einseitige Datenbasen sowie die psychologischen Auswirkungen auf das Vertrauen und die Kompetenzen von Personalverantwortlichen.
4 Fazit: Das Fazit fasst die Widerlegung der These zur absoluten Objektivität von KI zusammen und warnt vor einer Entmündigung des Personalers bei zu naivem Einsatz der Technologie.
5 Literaturverzeichnis: Hier werden sämtliche verwendeten Quellen und wissenschaftlichen Publikationen der Arbeit gelistet.
Schlüsselwörter
Künstliche Intelligenz, Recruiting, Personalauswahl, Algorithmen, Fairness, Diskriminierung, Blackbox, Mensch-Maschine-Interaktion, DSGVO, Datengestützte Entscheidung, Bias, Personalmanagement, Recruitment Process Outsourcing, Vertrauen, Effektivität.
Häufig gestellte Fragen
Worum geht es in dieser wissenschaftlichen Arbeit grundlegend?
Die Arbeit analysiert kritisch den Einsatz von künstlicher Intelligenz (KI) im Recruiting-Prozess und beleuchtet dabei potenzielle Risiken und Herausforderungen für Unternehmen und Personalverantwortliche.
Welche zentralen Themenfelder stehen im Mittelpunkt?
Die Arbeit fokussiert sich auf die Themenbereiche Algorithmen-Fairness, Datenbasierte Vorurteile, die Rechtskonformität von KI-Anwendungen sowie die psychologischen Auswirkungen der Zusammenarbeit zwischen Mensch und Maschine.
Was ist das primäre Ziel oder die Forschungsfrage?
Das Ziel ist es zu erörtern, ob KI-Algorithmen automatisch objektiv und fair handeln können und welche Auswirkungen die Zusammenarbeit zwischen Personalverantwortlichen und KI-Systemen auf das menschliche Handeln hat.
Welche wissenschaftliche Methode kommt zum Einsatz?
Die Arbeit basiert auf einer fundierten Literatur- und Studienanalyse sowie der Untersuchung technischer Grenzen der KI in Verbindung mit verhaltenspsychologischen Phänomenen.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in die Untersuchung von Algorithmen-Biases anhand von Fallbeispielen sowie die Analyse der Abhängigkeit menschlicher Kompetenzen vom technologischen Vertrauen.
Welche Schlüsselbegriffe charakterisieren diese Publikation?
Wichtige Begriffe sind unter anderem KI im Recruiting, algorithmische Fairness, Blackbox-Systeme, DSGVO und die Wechselwirkung zwischen Mensch und Technologie im Personalmanagement.
Was bedeutet der Begriff "Blackbox-Algorithmus" im Kontext der Arbeit?
Es handelt sich um Systeme, bei denen der Prozess zur Entscheidungsfindung selbst für den Anwender oder Hersteller undurchsichtig ist, was eine nachvollziehbare Kontrolle oder Korrektur erschwert.
Welche Rolle spielt die Datenschutz-Grundverordnung (DSGVO) bei diesem Thema?
Die DSGVO setzt klare rechtliche Grenzen, insbesondere durch den Grundsatz, dass die endgültige Entscheidung über eine Einstellung beim Menschen liegen muss und automatisierte Systeme transparent sein sollten.
Welches Fazit zieht der Autor zur "Algorithm Aversion"?
Der Autor stellt fest, dass sich eine Zusammenarbeit zwischen Mensch und Maschine in einem schwierigen Spektrum bewegt: Zwischen technischem Misstrauen (Aversion) einerseits und blindem Vertrauen, das zu Kompetenzverlust führt, andererseits.
- Quote paper
- Johannes von Dossow (Author), 2019, Künstliche Intelligenz im Recruiting. Risiken für die Zusammenarbeit von Personalmanagement und KI, Munich, GRIN Verlag, https://www.grin.com/document/918345