Aktuelles Pilotprojekte Technologieplattform Unterstützungsprozesse Geschäftsstelle JeCaThon
JeCaThon

Künstliche Intelligenz erkennt Blasenkrebs

29. Mai 2019
Was sich wie Science-Fiction anhört, könnte in ein paar Jahren Alltag sein.
Künstliche Intelligenz erkennt Blasenkrebs Eine Maschine stellt die Diagnose „Blasenkrebs“, teilt die Erkrankung in verschiedene Stadien ein und kann die Ergebnisse nachvollziehbar erklären. Wie die aktuelle Studie eines Forscherteams der Universität Florida, , nahelegt, kann die Technologie hier in Zukunft Ärzte sehr unterstützen – und Patienten damit helfen. veröffentlicht im Journal „Nature Machine Intelligence“

Ergebnisse der KI-Forschung werden in JeCaTh aufgegriffen

„Transparenz und Nachvollziehbarkeit von Ergebnissen aus tiefen Lernverfahren (Deep Learning) ist eines der Ziele heutiger Bemühungen im maschinellen Lernen,“ erklärt Prof Dr. Joachim Denzler, Professor am Institut für Informatik und Leiter des Lehrstuhls Digitale Bildverarbeitung der Friedrich-Schiller-Universität Jena, die Zielsetzung der US-amerikanischen Forscher . „Der Mensch soll verstehen, warum die Maschine ein bestimmtes Ergebnis generiert, um gegebenenfalls auch grobe Fehler zu erkennen oder auch, um aus dem Ergebnis selber lernen zu können.“ Prof. Dr. Denzler arbeitet mit seinem Team im KI-Innovationsprojekt JeCaTh an genau solch einer Erklärkomponente für die Diagnostik bei Kopf-Hals-Tumoren.


Wie die Arbeit des Forscherteams zum Thema Blasenkrebs zeige, sei es möglich, dass neben Ergebnissen der Tumorsegmentierung über Deep Learning auch ein Ergebnis in einer für den Mediziner verständlichen Form, das heißt einen Arztbericht, erzeugt werden könne. Der Ansatz sei in seinen einzelnen Schritten nicht hoch-innovativ, sondern eher ein klassisches Vorgehen, das man aus anderen Bereichen von Computer Vision bereits kenne, erklärt Prof. Dr. Denzler. „Es hilft aber dem Arzt, das automatisch generierte Ergebnis für eine Probe a) nachzuvollziehen und b) auf Plausibilität hin zu überprüfen. Natürliche Sprache ist dabei die beste Form. Medizinische Experten sind typischerweise in der Lage, auch ohne solch eine Information das Ergebnis der Maschine zu verwenden. Will man jedoch KI auch in der Breite einsetzen und somit auch Hausärzten ermöglichen, mit diesen Techniken die Betreuung von Patienten zu verbessern, ist die Erklärung ein essenzieller Bestandteil.“ In seinem JeCaTh-Pilotprojekt greift Prof. Denzler die Ergebnisse des Forscherteams auf und wird sie weiterentwickeln.

Prof. Dr. Denzler: „Zusammengefasst erachte ich die Arbeit als einen wichtigen Wegweiser, um KI in die medizinische Früherkennung, Therapie und Nachsorge zu bringen, da der Mediziner die Möglichkeit bekommt, über die Erklärung in Textform mit der Maschine eine Entscheidung zu fällen. Das wird meiner Einschätzung nach zu einer enormen Steigerung der Akzeptanz von Methoden aus der KI führen und helfen, die Qualität von medizinischer Behandlung von einzelnen medizinischen Zentren und Universitätskliniken in die Breite zu bringen, da auch weniger erfahrenen Mediziner auf solche Methoden (…) zurückgreifen und mit einem guten Gefühl anwenden können.“


Hintergrund zur US-Studie

Bisher wird die Diagnose von einem Pathologen gestellt. Der Arzt oder die Ärztin untersuchen die sehr dünn geschnittenen Gewebeproben unter dem Mikroskop. Diese Biopsien richtig einzuschätzen ist schwierig und erfordert jahrelanges Training. Daher kommt es vor, dass sich die Einschätzung zum Grad der Krankheit im Detail unterscheidet, je nachdem, wer sie vorgenommen hat. Das kann auch Folgen für die Therapieentscheidung haben. Hier setzt der vom US-amerikanischen Forscherteam entwickelte Algorithmus an. Den Forschern zufolge gibt dieser Algorithmus neben der einfachen Klassifikation auch weiterführende Informationen zu den Gründen dieser Bewertung in Bild- und Textform an. Beispielsweise hebt er Ausschnitte von besonderem Interesse aus dem Schnittbild hervor und macht in einem kurzen Text deutlich, was er darauf erkennt. Damit soll er laut den Autoren in der Klinik als eine Art zweite Meinung für Pathologen fungieren können. Die Nachvollziehbarkeit des Systems ist vor allem im Zuge der Diskussion um Explainable AI – Künstliche Intelligenz, deren Entscheidungen für Menschen nachzuvollziehen sind und nicht in einer Black Box stattfinden – ein wichtiger Faktor, der bei anderen Algorithmen zur klinischen Anwendung in der Vergangenheit selten gegeben war.

Um das System zu trainieren, haben Pathologen gefärbte Schnitte von Blasentumoren nach ihrem Grad der Differenzierung eingeschätzt und gleichzeitig bestimmte Regionen von Interesse markiert und kommentiert. Die Forscher haben den Algorithmus mit diesen Daten trainiert und ihn anschließend in einem Test gegen 17 unabhängige Pathologen in der Diagnose unbekannter Gewebeschnitte antreten lassen. Dabei konnte das Modell den Durchschnittswert der Pathologen hinsichtlich Spezifität und Sensitivität knapp übertreffen.