<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Leitlinien vorgestellt

Wie KI im Personalwesen helfen kann

Aktualisiert am 07.04.2020
 - 14:00
Der „Ethikbeirat HR Tech“ soll seine Arbeit weiter fortsetzen.
Künstliche Intelligenz ist in aller Munde – auch mit Blick auf die Personalarbeit von Unternehmen. Ein Ethikbeirat hat nun zehn „Richtlinien“ für ihren Einsatz veröffentlicht.

Dieser Tage erleben viele Unternehmen einen unfreiwilligen Test ihrer organisatorischen, aber auch technischen Fähigkeiten. Die Arbeit im Homeoffice will nicht nur mit der nötigen Ausrüstung ermöglicht, sondern auch über Telefon- und Videokonferenzen koordiniert werden. Der Einsatz von Künstlicher Intelligenz (KI) im Personalwesen dürfte für viele während der Coronakrise entsprechend nicht die höchste Priorität haben.

Die Bedeutung des Themas sollte gleichwohl nicht unterschätzt werden, alleine schon deshalb, da manch einer sich von KI etwa diskriminierungsfreie Einstellungsverfahren verspricht. Andere sind erheblich skeptischer – sei es auf Grund von Datenschutzbedenken oder genereller Skepsis, Personalentscheidungen der Technik zu überlassen oder sie verstärkt einzubinden. Vergangenes Jahr formierte sich ein interdisziplinär besetzter „Ethikbeirat HR Tech“, in dem Vertreter aus Wissenschaft, Gewerkschaften und Unternehmen gemeinsam an Leitlinien für den Einsatz von Künstlicher Intelligenz im Personalwesen arbeiten sollten. Ein erster Entwurf wurde Ende Juni 2019 präsentiert, nun liegt die vorläufige Endfassung vor. Vorläufig, da der Beirat seiner Arbeit weiter nachgehen soll. Sowohl die Technik als auch ihre Anwendung in der Praxis entwickelt sich schließlich stetig weiter. Dem sollen auch die Richtlinien Rechnung tragen.

„Systembedingte Diskriminierungen vermeiden“

Diese seien indes nicht als Antworten „auf alle womöglich aufkommenden Fragen“ zu verstehen, sondern eher als eine Art Checkliste, sagte ein Sprecher. Personaler sollen damit beispielsweise bei einem etwaigen Angebot oder im Gespräch mit anderen mögliche fragliche Punkte identifizieren und dahingehend nachhaken können. Das nun vorliegende „Regelwerk“ umfasst wie schon in der Entwurfsform zehn Punkte und deckt etwa Fragen wie die Entscheidung über die Einsetzung von KI, die Zweckbindung der Daten oder die Anforderung an einen Anbieter von KI-Lösungen ab.

Auch das Thema Diskriminierung wird explizit erwähnt: „Personalverantwortliche handeln im Bewusstsein, dass datenbasierte und/oder automatisierte Entscheidungsprozesse nicht automatisch objektiv und fair sind“, heißt es unter Punkt neun. Sowohl Anbieter als auch Nutzer von KI-Lösungen müssten zudem dafür Sorge tragen, dass „systembedingte Diskriminierungen“ vermieden werden. Zudem sei sicherzustellen, dass die Anwendung von KI „in Gesamtlösungen eingebunden“ ist. Wichtige Entscheidungen müsse am Ende immer ein Mensch treffen.

Haftung und Subjektqualität im Fokus

Besonders viele Rückmeldungen hat es nach der Vorstellung des Entwurfs dem Sprecher zufolge zu den Bereichen Haftung und „Subjektqualität“ gegeben. Was die Haftung angeht, vermerken die Autoren: „Die Verantwortung für den diskriminierungsfreien und die Persönlichkeit respektierenden Einsatz von KI kann [...] nicht auf die Anbieter von KI-Lösungen übertragen werden“. Wer entsprechende Technik nutzen wolle, müsse zuvor klären, in welchem Maß dies möglich sei. Der Komplex „Subjektqualität“ ist erheblich pikanter. Diese sei ein „Pfeiler der Menschenwürde und Selbstbestimmung“, schreiben die Autoren. Mit Blick auf technische Möglichkeiten, geht es hier etwa darum, dass eine KI Daten nutzen könnte, „die Menschen willentlich weder zur Verfügung stellen noch beeinflussen können“ - beispielsweise also über die Analyse von Sprache, Mimik oder mittels Messung der Hauttemperatur.

Die Anwendung solcher Verfahren, bei denen Menschen zum Objekt gemacht werden, sei „ethisch heikel“. „Die Betroffenen können ihre Zustimmung erteilen, müssen aber vorher wissen, zu welchem Zweck sie die Durchführung solcher Analyseverfahren einwilligen und welche Personen Zugang zu ihren Daten erhalten“, heißt es weiter.

Quelle: bfch.
  Zur Startseite
Verlagsangebot
Verlagsangebot

Diese Webseite verwendet u.a. Cookies zur Analyse und Verbesserung der Webseite, zum Ausspielen personalisierter Anzeigen und zum Teilen von Artikeln in sozialen Netzwerken. Unter Datenschutz erhalten Sie weitere Informationen und Möglichkeiten, diese Cookies auszuschalten.