„Bisherige KI-Modelle können zwar Vorhersagen zur Gleason-Bewertung treffen, liefern aber oft keine verständliche Begründung, was die klinische Akzeptanz einschränkt“, erklärt Titus Brinker vom DKFZ. Das neu entwickelte System verzichtet auf nachträgliche Erklärungsansätze und basiert direkt auf Beschreibungen der Pathologie. Dazu wurden 1.015 Gewebeproben von internationalen Expertinnen und Experten mit detaillierten Mustererklärungen versehen („annotiert“).
Die Studie, an der 54 Pathologinnen und Pathologen aus zehn Ländern beteiligt waren, stellt eine der umfangreichsten Sammlungen an erklärungsbasierten Gewebeannotationen vor. Als Ergebnis stellt das Heidelberger Team mit „GleasonXAI“ eine KI vor, die interpretierbare Entscheidungen bietet – ähnlich wie ein Pathologe sie liefern würde.
Durch die Nutzung sogenannter „Soft Labels“, die die Unsicherheiten zwischen einzelnen Pathologen-Bewertungen abbilden, konnte die KI trotz hoher Variabilität reproduzierbare Ergebnisse erzielen. Im direkten Vergleich mit konventionellen Modellen erreichte GleasonXAI eine gleichwertige oder bessere Genauigkeit – bei gleichzeitig erhöhter Transparenz.
KI spricht Pathologen-Sprache
An der Studie waren Pathologinnen und Pathologen unter anderem aus Deutschland, den USA, Kanada und der Schweiz beteiligt. Die Experten brachten dabei im Median 15 Jahre klinische Erfahrung in das Projekt ein. Neben der Modellentwicklung veröffentlicht das Team auch den bislang größten frei verfügbaren Datensatz mit erklärungsbasierten Annotationen für Gleason-Muster, um die Forschung an erklärbarer KI weiter voranzutreiben.
„Wir haben erstmals ein KI-System entwickelt, das die charakteristischen Gewebemerkmale der Gleason-Muster erkennt und sich ähnlich wie ein Pathologe erklärt“, sagt Gesa Mittmann, Koautorin der Studie. „Das soll Vertrauen und Akzeptanz in die KI im klinischen Alltag steigern.“
Potenzial für die Klinik
Die Ergebnisse zeigen, dass erklärbare KI ohne Leistungseinbußen praxisnah umgesetzt werden kann. Dies könnte den Einsatz in der Routinepathologie beschleunigen – hochrelevant gerade in Zeiten steigender Krebszahlen und sinkender Facharztkapazitäten.
Darüber hinaus unterstützt das Modell auch die Ausbildung: „Die erklärbaren Segmentierungen können besonders Nachwuchs-Pathologinnen und -Pathologen helfen, typische Muster zu verstehen und schneller sichere Diagnosen zu stellen“, betont Brinker.
Publikation:
G. Mittmann, S. Laiouar-Pedari, H. A. Mehrtens et al. Pathologist-like explainable AI for interpretable Gleason grading in prostate cancer. Nature Communications 2025, DOI: https://doi.org/10.1038/s41467-025-64712-4