Zum Hauptinhalt springen
PublikationMeldung

Handlungsempfehlungen zur Prüfung von KI im HR-Management

Ein neuer Policy Brief aus dem Projekt ExamAI stellt Handlungsempfehlungen für die Gestaltung und Implementierung von Prüfmethoden für KI-Anwendungen im Personalwesen vor

KI-basierte Anwendungen erhalten zunehmend auch im Personalwesen Einzug und versprechen hier nicht nur deutliche Effizienzgewinne, sondern auch eine fairere Personalauswahl, die frei von subjektiven Präferenzen der Recruiter ist. Tatsächlich birgt der Einsatz von KI-Systemen im Personalwesen jedoch eine Reihe von Gefahren, wozu auch hohe Diskriminierungsrisiken gehören.

Der im April 2021 von der EU-Kommission vorgelegte Gesetzesentwurf zur Festlegung harmonisierender Vorschriften für Künstliche Intelligenz klassifiziert KI-Anwendungen aufgrund dieses Risikopotenzials in den meisten Anwendungsfällen im Personalwesen als Hochrisiko KI-Systeme und fordert bestimmte Testpflichten vor ihrem Inverkehrbringen. Unklar jedoch ist, wie diese Tests genau aussehen sollen, da es für KI-Systeme im Gegensatz zu klassischer Software noch an geeigneten Normen und Prüfmethoden fehlt.

Das Forschungsprojekt ExamAI – KI Testing und Auditing ging vor diesem Hintergrund der Frage nach, wie geeignete Testverfahren für KI-Systeme mit hohem Risiko aussehen können und was für ihre Etablierung notwendig ist. Für den Anwendungsbereich Personalauswahlverfahren schlägt das Projekt eine Kombination aus Akzeptanztestgetriebener Entwicklung (ATDD) und den aus der Safety-Forschung bekannten Assurance Cases als Prüfmethode vor. Dieser Ansatz verspricht, gleichzeitig unspezifische Qualitätskriterien wie Fairness zu definieren und testen zu können und mittels eines Assurance Cases zu begründen, inwieweit die getesteten Kriterien tatsächlich sicherstellen können, dass die untersuchte KI-Anwendung im betrachteten Anwendungsfall nicht unzulässig diskriminiert.

Julia Meisner, GI: „Um auch KI-Systeme mit hohem Risiko sicher einsetzen können, braucht es geeignete Prüfmethoden. Wir schlagen einen flexiblen Ansatz vor und erörtern die Rahmenbedingungen, die für seine Umsetzung und Etablierung geschaffen werden müssen“.

Der vorliegende Policy Brief stellt den Ansatz genauer vor und diskutiert die Potenziale und Herausforderungen seiner Umsetzung. Was dabei helfen könnte, die Nachteile des Ansatzes auszugleichen und was Politik, Forschung, Normung und Rechtswissenschaft grundsätzlich leisten müssten, um das Thema KI-Prüfung und damit einhergehende Methoden zu stärken, legen vier wesentliche Handlungsempfehlungen dar.

Neben den von den einzelnen ExamAI-Projektpartnern erarbeiteten Ergebnissen flossen in das Policy Brief viele im gleichnamigen Workshop gewonnene Erkenntnisse ein. Dieser fand am 6. Oktober statt und brachte die Expertise und Einschätzung verschiedener geladener Expert*innen aus Informatik, HR-Management, Antidiskriminierungsrecht, Zertifizierung und Ethik zusammen.

Das Papier steht hier zum Download zur Verfügung.
 

Über das Projekt ExamAI:

Das Forschungsprojekt „ExamAI – KI Testing und Auditing“, widmet sich der Erforschung geeigneter Test- und Auditierungsverfahren für KI-Anwendungen. Es steht unter der Leitung der Gesellschaft für Informatik e.V. wird von einem interdisziplinären Team bestehend aus Mitgliedern der TU Kaiserslautern, der Universität des Saarlandes, des Fraunhofer-Instituts für Experimentelles Software Engineering IESE, der Stiftung Neue Verantwortung getragen und im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesell- schaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft des Bundesministeriums für Arbeit und Soziales (BMAS) gefördert.

Weitere Informationen finden Sie auf: https://testing-ai.gi.de

 

 

 

Grafik zum Policy Brief: "KI im Personalmanagement – Mit Hilfe von Prüfmethoden zu fairen Personalentscheidungen"