DESRIST 2023 submission 1792: Best Paper Nomination

28.04.2023

Das Paper „Designing User-Centric Explanations for Medical Imaging With Informed Machine Learning“ von Luis Oberste, Florian Rüffer, Okan Aydingül, Johann Rink und Armin Heinzl ist für den DESRIST (Design Science Research in Information Systems and Technology) Best Paper Award des Sustainability and Responsible Design Tracks nominiert worden. Die Forschung ist Teil des Forschungscampus M²OLIE.

„Der Kongress ist seit 18 Jahren die führende Konferenz für die „build side“ in unserer Disziplin. Die Designwissenschaft konzentriert sich auf die Entwicklung und Validierung von präskriptivem Wissen in den Informationswissenschaften. Der Nobelpreisträger Herbert A. Simon unterschied die Naturwissenschaften, die sich damit befassen, wie die Dinge sind, von den Designwissenschaften, die sich damit befassen, wie die Dinge sein sollten, d. h. mit der Entwicklung technologischer Artefakte zur Erreichung von Zielen. Die Konferenz findet vom 31. Mai bis 2. Juni in Pretoria, Südafrika, statt. Wir danken den Konferenzleitern, den Leitern der einzelnen Themenbereiche und der Prüfungskommission für ihr konstruktives Feedback und für das Signal der Wertschätzung.“

Designing User-Centric Explanations for Medical Imaging
With Informed Machine Learning

Abstract

A flawed algorithm released in clinical practice can cause unintended harm to patient health. Risks, regulation, responsibility, and ethics shape the demand of clinical users to understand and rely on the outputs made by artificial intelligence. Explainable artificial intelligence (XAI) offers methods to render a model’s behavior understandable from different perspectives. Extant XAI, however, is mainly data-driven and designed to meet developers’ demands to correct models rather than clinical users’ expectations to reflect clinically relevant information. To this end, informed machine learning (IML) utilizes prior knowledge jointly with data to generate predictions, a promising paradigm to enrich XAI with medical knowledge. To explore how IML can be used to generate explanations that are congruent to clinical users’ demands and useful to medical decision-making, we conduct Action Design Research (ADR) in collaboration with a team of radiologists. We propose an IML-based XAI system for clinically relevant explanations of diagnostic imaging predictions. With the help of ADR, we reduce the gap between implementation and user evaluation and demonstrate the effectiveness of the system in a real-world application with clinicians. While we develop design principles of using IML for user-centric XAI in diagnostic imaging, the study demonstrates that an IML-based design adequately reflects clinicians’ conceptions. In this way, IML inspires greater understandability and trustworthiness of AI-enabled diagnostic imaging.