Zum Hauptinhalt springen
Meldung

Arbeitspapier zum AI Act veröffentlicht

Das Arbeitspapier enthält Beiträge zur Rolle von KI in der Arbeitswelt vor dem Hintergrund der geplanten europäischen KI-Verordnung

Ende April 2021 veröffentlichte die EU-Kommission den weltweit ersten dedizierten Rechtsrahmen speziell für Künstliche Intelligenz (KI-Verordnung). Der Regulierungsvorschlag beinhaltet eine Risikoklassifizierung von KI-Anwendungen und formuliert – abhängig von der jeweiligen Risikoklasse – unterschiedliche Anforderungen an Unternehmen. Für sogenannte Hochrisiko-Anwendungen wurden beispielsweise spezielle Anforderungen formuliert, worunter neben allgemeinen Dokumentations- und Transparenzpflichten auch das Testen entsprechender KI-Systeme fällt. Die Anwendungsfälle aus dem Projekt ExamAI – KI Testing und Auditing (Industrieproduktion& Personal- und Talentmanagement) sind größtenteils Teil der Kategorie „Hochrisiko“. Dementsprechend stellt sich die Frage, welche konkreten Auswirkungen der EU-Regulierungsvorschlag in seiner aktuellen Form für die Anwendung von KI im Arbeitsbereich hat.

Im Rahmen des Projekts ExamAI diskutierten im September 2021 im WebTalk „KI-Regulierung made in Europe“ vier Expert*innen aus Wirtschaft, Wissenschaft und Politik über diese Auswirkungen sowie über die Stärken und Schwächen des AI Acts in seiner aktuellen Form. Die Diskussionsrunde wurde aufgezeichnet und steht allen Interessierten zur Verfügung.

Das Arbeitspapier fasst die Diskussionsbeiträge zusammen. Dr. Johanna Wenckebach (Hugo-Sinzheimer Institut, Hans-Böckler-Stiftung) spricht sich in ihrem Beitrag dafür aus, einen stärkeren Arbeitnehmer*innenschutz im AI Act zu integrieren, damit dieser nicht als zahnloser Tiger daherkommt. Wenn der AI Act eine starke und flexible Grundlage für die Gestaltung verantwortungsvoller KI darstellen soll, müssen zudem die Verantwortlichkeiten für KI-Systeme und die Ausgestaltung der im AI Act formulierten Pflichten geklärt werden, fordert Cornelia Kutterer (Microsoft). Stellvertretend für das Projekt ExamAI bemängelt Nikolas Becker die fehlenden Prüfmethoden für Hochrisiko-KI-Systeme und schlägt Assurance Cases und ATDD als Grundstein für das Testen von KI-Systeme im Arbeitsbereich auf Sicherheit und Fairness vor.

Das Arbeitspapier steht zum Download bereit: KI-Regulierung made in Europe –Positionen zum Gesetzentwurf der Europäischen Kommission