Kollege Algorithmus, was meinen Sie dazu?
Die Datenflut in der Krebsmedizin betrifft nicht nur genetische Daten: Auch die medizinische Bildgebung liefert mit jeder neuen Gerätegeneration immer umfangreichere Informationen über tatsächliche oder vermeintliche Tumoren. Mithilfe von Maschinenlernalgorithmen versuchen Mathematiker, Softwareexperten und Radiologen im DKFZ, mehr Wissen aus den radiologischen Datensätzen zu extrahieren – und arbeiten dabei gleichzeitig an der Zukunft der Radiologie.
Radiologen sind Ärzte, die sich Bilder ansehen. Viele Bilder. Sie betrachten so viele Bilder, dass sie eine enorme Erfahrung darin entwickeln, krankhafte Veränderungen zu erkennen – Veränderungen, die einem nicht geschulten Auge oft gar nicht auffallen würden. Radiologen sehen sich Bilder nicht nur an, sie messen sie auch aus. Das geschah lange Zeit weitgehend von Hand, etwa wenn ein Radiologe einen tumorverdächtigen Befund in einer Lungenaufnahme markierte, um dessen Größe oder Dichte zu ermitteln.
Zunehmend lassen sich Radiologen aber von Software unterstützen. Mittlerweile gibt es dafür eine Bezeichnung, die sehr populär geworden ist: Radiomics. Im DKFZ hat sich die Abteilung Medizinische Bildverarbeitung dieser modernen Form der Bildanalytik verschrieben: „In der Radiomics-Forschung betrachten wir Daten, die radiologische Verfahren liefern, als Rohstoff, den wir mithilfe von Algorithmen auswerten", betont Klaus Maier-Hein, der die Abteilung leitet.
Deep Learning als technologischer Quantensprung
Die Forschung des Teams hat zwei Stoßrichtungen: Wenn sich mithilfe von Algorithmen Routinetätigkeiten automatisieren lassen, werden Radiologen im Alltag entlastet. Algorithmen können aber auch Informationen aus radiologischen Datensätzen extrahieren, die ohne die computergestützte Analyse verborgen geblieben wären. Sie können unter Umständen genauer als Menschen vorhersagen, ob ein Tumor gut- oder bösartig ist. Sie sollen zudem früher erkennen, ob ein Patient auf eine Therapie anspricht. Und sie sollen anatomische Strukturen präziser modellieren und damit bessere Daten für die Planung von Krebsoperationen liefern.
„Der technologische Quantensprung, den wir derzeit erleben und der die Bildverarbeitung komplett auf den Kopf stellen wird, ist das Deep Learning", so Maier- Hein. Deep Learning ist eine Spielart des Maschinenlernens, bei dem neuronale Netzwerke auf bestimmte Fragestellungen trainiert werden, ohne dass sie ein vorab definiertes Modell als Orientierungsrahmen erhalten haben. Deep Learning lag auch den Google-Algorithmen zugrunde, die vor einigen Jahren den Weltmeister im chinesischen Brettspiel Go geschlagen haben. Die Methode an sich ist nicht neu. Sie ist aber dank der heute zur Verfügung stehenden Rechenkapazitäten und Grafikkarten viel leistungsfähiger als früher. Die Auswertung medizinischer Bilddaten bringt dabei einige spezielle Herausforderungen mit sich. So sind Bilddaten meist dreidimensional und damit vergleichsweise umfangreich. Die Algorithmen müssen mit Bildartefakten umgehen können. Und es gibt vergleichsweise wenige Trainingsdaten, denn diese müssen die Radiologen erst aufwendig erstellen.
„Zu den Vorteilen von Deep-Learning-Algorithmus gehört, dass es nicht so schnell Sättigungseffekte gibt. Je mehr Daten für das Training zur Verfügung stehen, umso besser wird der Algorithmus", so Maier-Hein. Deswegen stoßen moderne Algorithmen in Sachen diagnostische Genauigkeit in Regionen vor, in denen sich auch sehr gut ausgebildete Radiologen bewegen: „Das war bis vor Kurzem noch anders. Softwarelösungen haben bisher eher Vorschläge gemacht, die der Radiologe dann manuell bearbeiten musste. Mittlerweile können Algorithmen bei immer mehr Fragestellungen vollautomatisch arbeiten, und in einigen Bereichen sind sie sogar besser als Radiologen."
Patienten profitieren von präziseren Vorhersagen
Dass das für Krebspatienten Vorteile haben kann, zeigen aktuelle Forschungsarbeiten der DKFZ-Wissenschaftler, in denen Deep-Learning-Verfahren bei Brust- und Prostatakrebs sowie bei der Analyse des Gehirns eingesetzt wurden. So haben die Heidelberger Forscher einen Algorithmus anhand von Bildern aus der Magnetresonanztomographie (MRT) trainiert. Er sollte erkennen, ob eine Auffälligkeit beim Brustkrebs-Screening ein bösartiger Tumor ist oder nicht. Dafür standen Datensätze von über 50.000 Frauen zur Verfügung, von denen 250 entsprechende Auffälligkeiten aufwiesen. Bei Frauen mit auffälligen Befunden wird normalerweise Gewebe aus der Brust entnommen. Die Ärzte stellen dann bei etwa jeder zweiten Frau einen bösartigen Tumor fest. Bei den anderen Frauen wäre der Eingriff nicht nötig gewesen. Das muss nicht sein: „Beim gegenwärtigen Trainingsstand unseres Algorithmus können wir 70 Prozent der Auffälligkeiten, die laut Biopsie keine bösartigen Tumoren sind, vorab identifizieren. Das soll zukünftig invasive Diagnostik vermeiden und die Unsicherheit der Frauen bei einem auffälligen MRT-Befund verringern."
Auch bei der Analyse von Prostataaufnahmen geht es darum, die Ergebnisse der Gewebeentnahme vorherzusagen und den Patienten unangenehme, potenziell komplikationsträchtige Eingriffe zu ersparen. Das Training des Algorithmus gestaltet sich bei der Prostata allerdings etwas komplizierter als bei der Brust, was unter anderem damit zusammenhängt, dass auch die Expertenbewertungen weniger konsistent sind. „Hier arbeiten wir jetzt mit Google DeepMind zusammen und entwickeln einen zusätzlichen Algorithmus, der die Unsicherheit in der Bewertung der Bilddaten modelliert", erläutert Maier-Hein. Das geht weit über das hinaus, was ein einzelner Radiologe leisten kann.
Ein anderes Einsatzgebiet ist die Traktographie, die Darstellung von Nervenbahnen im Gehirn. Sie kommt aus der Neuropsychiatrie, ist aber auch für Neurochirurgen interessant, die wissen wollen, wo wichtige „Informationsautobahnen" im Gehirn verlaufen, bevor sie einen Tumor operieren. Existierende MRT-Verfahren modellieren Nervenbahnen auf Basis von Diffusionsmessungen, bei denen die Bewegung von Wassermolekülen im Gewebe ausgewertet wird. Diese Analysen sind aber nicht sehr spezifisch, wie die DKFZ-Experten in einem Kooperationsprojekt mit zwanzig internationalen Arbeitsgruppen zeigen konnten: Für jeden Trakt, der existiert, finden die Modelle drei bis vier Nervenbahnen, die nicht existieren. „Unser Lösungsvorschlag geht dahin, statt modellbasierter Algorithmen einen Deep-Learning-Algorithmus zu verwenden, um die Spezifität zu verbessern", so Maier-Hein. Auf Dauer, so die Hoffnung, könnten die Neurochirurgen dadurch zuverlässigere Informationen erhalten.
Alltag der Radiologie wird sich verändern
Methodisch hat die Forschung der Abteilung Medizinische Bildverarbeitung viel mit Mathematik und wenig mit Radiologie im engen Sinne zu tun. Dunkle Kammern, in denen Bilder ausgewertet werden, sucht man vergeblich. Stattdessen flimmern überall Kurven, die das Training der Algorithmen anzeigen. Dahinter hängen ganze Rechenzentren. Tatsächlich gibt es in Maier-Heins Arbeitsgruppe im Moment gar keinen Radiologen, dafür Mathematiker, Physiker und IT-Fachleute. Wer daraus folgert, dass Software den Radiologen bald ersetzt, dürfte sich täuschen: „Wir holen uns radiologisches Know-how über Kooperationen. Unsere Projekte brauchen eine breite, interdisziplinäre Zusammenarbeit. Sich einen einzelnen Radiologen in die Arbeitsgruppe zu holen, ergibt genauso wenig Sinn, wie es für die Radiologen Sinn ergibt, einen einzelnen Mathematiker anzustellen."
Dass sich der Alltag der Radiologen durch Deep Learning verändern wird, davon ist der Wissenschaftler überzeugt: „Radiologen werden weniger Routinetätigkeiten durchführen und sich stärker auf schwierige Fälle konzentrieren und Informationen zusammenführen." Bis es so weit ist, müssen die neuen Methoden freilich erst einmal alltagstauglich werden. Solange einzelne Bilddatensätze manuell in bestimmte Programme hochgeladen werden müssen, um sie automatisch auszuwerten, wird die Revolution in der Radiologie wegen mangelnder Praktikabilität auf sich warten lassen.
Im Rahmen des Deutschen Krebskonsortiums (DKTK) haben IT-Experten des DKFZ jetzt eine IT-Plattform entwickelt, über die Einrichtungen nicht nur Bilddaten, sondern auch Algorithmen austauschen können. Das erleichtert die Zusammenarbeit und ist gleichzeitig ein Schritt in Richtung klinische Umsetzung. Künftige Algorithmen werden zudem breiter aufgestellt sein, was einen Einsatz im Alltag ebenfalls erleichtern dürfte: „Die Zukunft gehört Algorithmen, die generalisieren und unterschiedliche Fragestellungen bearbeiten können", ist Maier-Hein überzeugt.
// Philipp Grätzel von Grätz