Autorin / Workshopleiterin: Manuela Schuler (Deutsches Forschungszentrum für Künstliche Intelligenz)
Titel: „Erklärbarkeit von KI – wie Maschinenentscheidungen verständlich werden“
Künstliche Intelligenz kann bereits heute komplexe Muster in medizinischen Daten erkennen – von tabellarischen Laborwerten bis hin zu radiologischen Bildern. Doch wie entsteht eigentlich eine Entscheidung im Inneren eines Modells? Warum wird ein bestimmter Befund als auffällig bewertet, ein anderer nicht? Und wie können Ärztinnen und Ärzte nachvollziehen, ob ein Modell vertrauenswürdig handelt?
Im Mittelpunkt dieses Workshops steht die Erklärbarkeit von KI-Systemen (Explainable AI, XAI) – also die Fähigkeit, maschinelle Entscheidungen transparent, überprüfbar und für Menschen verständlich zu machen.
Im Rahmen eines einführenden Vortrags werden grundlegende Techniken vorgestellt, mit denen Modelle erklärt werden können – sowohl für Bilddaten als auch für tabellarische Daten. Dabei wird erläutert, welche Methoden (z. B. LIME, SHAP oder Sensitivitätsanalysen) welche Art von Einsicht ermöglichen, und welche Stärken und Grenzen sie besitzen.
Anschließend wird das interaktive XAI-Tool SAInT (Interactive Tool for Sensitivity Analysis in the Loop) vorgestellt. Es bietet eine grafische Oberfläche, über die sich maschinelle Lernmodelle trainieren, vergleichen und erklären lassen – ganz ohne Programmierkenntnisse. SAInT veranschaulicht, wie einzelne Merkmale eines Datensatzes die Vorhersagen beeinflussen und ermöglicht eine Analyse der Einflussfaktoren auf ein KI-Modell.
Im zweiten Teil des Workshops sind die Teilnehmenden eingeladen, gemeinsam zu reflektieren:
- Welche Form von Erklärbarkeit wünschen sich Ärztinnen und Ärzte in ihrem Arbeitsalltag?
- Welche Darstellungsformen (z. B. Text, Diagramme, visuelle Hervorhebungen) sind hilfreich?
- Welche Daten und Einflussgrößen sind aus medizinischer Sicht besonders relevant?
- Und welche Schlüsse sollten Erklärungen zulassen – oder bewusst nicht zulassen?
Das Ziel des Workshops ist es, gemeinsam ein besseres Verständnis dafür zu entwickeln, was „Erklärbarkeit“ im medizinischen Kontext wirklich bedeutet und wie KI-Systeme so gestaltet werden können, dass sie transparente, nachvollziehbare und vertrauenswürdige Partner im klinischen Entscheidungsprozess werden.