Zum Hauptinhalt springen

Mithilfe von Safety Assurance Cases zu mehr Sicherheit bei KI-Anwendungen

ExamAI-Projektmitarbeitende des Fraunhofer IESE veröffentlichen einen Konferenzbeitrag mit dem Titel »Using Complementary Risk Acceptance Criteria to Structure Assurance Cases for Safety-Critical AI Components«

Die ExamAI-Expert*innen Dr. Michael Kläs, Dr. Rasmus Adler und Lisa Jöckel präsentieren den Artikel im Rahmen ihres AISafety 2021-Workshops. Die Wissenschaftler*innen aus den Bereichen Data Science und Safety Engineering beschreiben in der Veröffentlichung eine neue Möglichkeit, um Assurance Cases für KI-basierte Systeme anhand verschiedener Risikoakzeptanzkriterien und Lebensphasen zu strukturieren. Assurance Cases stellen in mehreren Kontexten (z.B. beim autonomen Fahren) einen argumentativen Nachweis von Safety Anforderungen dar. Diese Nachweise können eine mögliche KI-Zertifizierung, welche auch im Projekt ExamAI – KI Testing & Auditing betrachtet wird, unterstützen. Der Beitrag steht ab sofort zum Download zur Verfügung.