Zum Hauptinhalt springen

Verlässliche Unsicherheitsschätzungen für datenbasierte autonome Systeme

ExamAI-Projektmitarbeitende des Fraunhofer IESE präsentierten Paper auf der EDCC 2021

Die ExamAI-Expert*innen Dr. Michael Kläs, Dr. Rasmus Adler und Lisa Jöckel präsentierten gemeinsam mit weiteren Wissenschaftler*innen das Paper »Handling Uncertainties of Data-Driven Models in Compliance with Safety Constraints for Autonomous Behaviour« auf der EDCC 2021. Die Wissenschaftler*innen aus den Bereichen Data Science und Safety Engineering beschreiben in der Veröffentlichung einen möglichen Ansatz, wie mit der verbleibenden Unsicherheit in datengetriebenen Modellen (DDMs) wie etwa neuronalen Netzen umgegangen werden kann. Dies ist insbesondere für autonome Systeme relevant, in denen DDMs dafür verwendet werden, um gefährliche Situationen zu erkennen oder vorherzusehen. Mit dem „Uncertainty Wrapper“ liegt ein modellunabhängiges Framework vor, das es ermöglicht, verlässliche und situationsgerechte Unsicherheitsschätzungen zu erhalten. Die Autor*innen untersuchen anhand des „Responsibility-Sensitive Safety-Modells“, wie das Framework in einen dynamischen Risikomanagementansatz zur Laufzeit integriert werden kann. 

Das Paper ist als preprint verfügbar.