<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Datenflut in der Medizin

Da hilft nur noch Kollege Computer

Von Michael Brendler
 - 12:21
zur Bildergalerie

Nicht einmal der beste Doktor ist unfehlbar. Das führt zwangsläufig dazu, dass immer wieder Krankheitsbilder übersehen werden. Zum Beispiel der schwarze Hautkrebs. Jedes Jahr kostet er dreitausend Deutsche das Leben, weil er zu spät erkannt wurde. Selbst geübten Dermatologen passiert es regelmäßig, dass ihnen erste Anzeichen des Melanoms entgehen.

Dem Computerforscher Sebastian Thrun vom Labor für Künstliche Intelligenz der kalifornischen Stanford University ließ das keine Ruhe. Vor einigen Jahren begann der Gründer der Google-Entwicklungsschmiede Google X deshalb damit, seine Maschinen mit fast einhundertdreißigtausend Aufnahmen verschiedenster Hautveränderungen zu füttern. Die eingesetzte KI erwies sich als gelehriger Schüler. Beim Test an rund zweitausend Fotografien übersah sie in der Regel nicht nur weniger Melanome als 21 erfahrene Dermatologe, denen dieselben Aufnahmen vorgelegt wurden. Sie stufte auch seltener eine harmlose Veränderung als Tumor ein. „Die Technik hat das Potential, die Medizin substantiell zu verändern“, folgerten Thrun und seine Ko-Autoren im vergangenen Jahr in ihrer Veröffentlichung in „Nature“.

Gerade die Röntgenärzte haben viel zu verlieren

Vor allem Röntgenärzte verstehen das als Kampfansage. Und das zu Recht. Schließlich haben sich Computer schon bei ganz anderen Herausforderungen dem Menschen überlegen gezeigt. Bereits 1997 wies eine Maschine den Schachweltmeister Garri Kasparow in die Schranken, 2016 mussten sich auch die klügsten Köpfe beim Brettspiel Go geschlagen geben. Thruns Arbeit auf dem Gebiet der Medizindiagnostik ist nur ein besonders beeindruckendes Beispiel von vielen, die gezeigt haben: Wenn es um das Aufspüren von Krankheitsspuren auf Bildern geht, ist eine selbstlernende Maschine womöglich der aufmerksamere Beobachter. Vielleicht gelingt es ihr in Zukunft einfach besser, die schwachen Schattierungen, winzigen Formveränderungen und leicht zu übersehenden Flecken zu interpretieren, die auf Röntgen- und Hautbildern den Unterschied zwischen gesund und krank ausmachen.

Gerade die Röntgenärzte haben im Vergleich zu den anderen Medizinern besonders viel zu verlieren. Für sie ist die Suche nach verräterischen Strukturen nicht irgendein ungeliebter Nebenjob. Für sie geht es beim Wettlauf mit dem Computer um ihr Hauptgeschäft und damit um ihre Existenzgrundlage. Selbst auf ihrem ureigenen Spezialgebiet, bei der Auswertung von Mammographie-Aufnahmen, konnte die Künstliche Intelligenz kürzlich zeigen, dass sie der echten mindestens ebenbürtig ist. Im vergangenen Jahr sah das auch die strenge amerikanische Arzneimittelbehörde FDA ein. Sie akzeptierte eine Software, die das Herzvolumen von Patienten nicht nur schneller messen kann als ausgebildete Radiologen, sie soll auf Basis der ermittelten Daten bald auch eigene Diagnosen stellen. „Man sollte aufhören, weiter Röntgenärzte auszubilden“, forderte provokant der Informatiker Geoffrey Hinton und KI-Pionier von der Universität Toronto 2017 in der Zeitschrift New Yorker. „Es ist völlig offensichtlich, dass Künstliche-Intelligenz-Systeme in fünf Jahren besser sind.“ Oder spätestens in zehn.

Die Maschine lernt schnell

Andreas Boss, leitender Arzt am Institut für diagnostische und interventionelle Radiologie des Universitätsspitals Zürich, hat den neuen Konkurrenten auf die Probe gestellt. Moderne Grafikkarten und eine Art frei verfügbares Google-Betriebssystem, so berichtet er, machten es auch ihm ohne große Umstände möglich, auf die neue Technik umzusatteln. Es geht dabei um das sogenannte Deep Learning, das seit fünf, sechs Jahren vor allem in der Sprach- und Gesichtserkennung Furore macht. Bei dieser Anwendung imitieren künstliche neuronale Netzwerke die Arbeit der Nervenzellen des Gehirns. Signale werden in Schichten verarbeitet, jedes Neuron und jede Lage widmet sich einem anderen Aspekt und leitet die Information an die nächste Schicht weiter. Die Maschine lernt, genau wie der Mensch, indem sie punktuell die Effizienz verändert, mit der die Daten übertragen werden.

Letztlich erwerbe der Computer dadurch sein Wissen nicht anders als ein Kind, sagen die Fachleute. Indem er aus den eigenen Fehlern lernt. Wer einem kleinen Jungen nur oft genug Hunde und Wölfe zeigt, kann darauf vertrauen, dass dieser bald beide von allein zu unterscheiden lernt. Zunächst wird man ihn noch korrigieren müssen, irgendwann wird er sich die maßgeblichen Merkmale selbst herauspicken. Auf ähnliche Weise legte Andreas Boss einer Vorläuferversion seines neuronalen Netzwerks ausgewertete Mammographien von gesunden und krebskranken Frauen vor. „Die Methode hat beängstigend gut funktioniert“, berichtet der Radiologe, der auch als Physiker ausgebildet ist. Der Algorithmus entdeckte auf den Aufnahmen eine genügend große Anzahl von Tumor-Kennzeichen, um Brustkrebs genauso zuverlässig aufzuspüren wie erfahrene Röntgenärzte. „Und das nach dem Studium von nur zweihundertachtzig Bildern“, staunt der Arzt. „Da wusste ich, dies wird unseren Beruf revolutionieren.“

Die Datenflut ist ohne die Künstliche Intelligenz nicht zu bewältigen

Die Firma IBM hofft sogar, mit Hilfe der Künstlichen Intelligenz und ihrem Watson-Supercomputersystem einmal ganze Krankengeschichten analysieren zu können. Doch bei der Analyse von CT-, Kernspin- und Ultraschallbildern könnte die Technik noch viel früher ihre Stärken ausspielen, sagt Michael Forsting, Direktor des Instituts für Diagnostische und Interventionelle Radiologie der Universitätsklinik Essen. Auf die Erkennung von Mustern und kleinen Details sind die Algorithmen besonders spezialisiert. Zudem gebe es gerade in seinem Fachgebiet ausreichend Schulungsmaterial für die Geräte, schließlich sei die Radiologie mittlerweile komplett digitalisiert.

Womöglich bleibt den Röntgenmedizinern in Zukunft auch gar keine andere Wahl, als auf externe Hilfe zurückzugreifen. Anders werden sie der Datenflut wohl kaum noch Herr werden. Wer früher per Computertomograph den ganzen Körper untersuchte, erinnert sich Boss, der musste ein paar hundert Schichtaufnahmen durchscannen. „Heute produzieren wir für denselben Zweck in neunzig Sekunden dreitausend Querschnitte, die muss sich dann irgendein armer Kerl angucken.“

Der beste Radiologe wird irgendwann mal müde. Der Computer nicht

Weil auch andere Geräte immer genauer werden, fällt eine menschliche Schwäche bei der Arbeit zunehmend ins Gewicht: Selbst der aufgeweckteste Radiologe wird, wenn er eine fast identische CT- oder Mammographie-Aufnahme nach der anderen studiert, irgendwann müde und unkonzentriert. Im telemedizinischen Nachtdienst, wenn ein einziger Arzt die Aufnahmen aus einem ganzen Netz von Kliniken überwachen muss, steigt deshalb die Fehlerrate mit der Dauer der Schicht extrem an. Zudem urteilen auch Mediziner nicht immer objektiv: Zu den bekanntesten Fehlern bei der Röntgenbefundung zählt die sogenannte „satisfaction of search“, die Befriedigung des Findens. Wer am Wochenende das Opfer eines Motorradunfalls untersucht, gibt sich möglicherweise mit dem Entdecken einer Wirbelfraktur zufrieden und übersieht dabei eventuell den zufällig mit aufgenommenen Lungentumor.

Dem Computer sind solche Gefühle fremd, seine Leistungskurve bleibt selbst bei den langweiligsten Routineaufgaben noch stabil. Ein Radiologe, so konnte Michael Forsting in Essen zeigen, kann deshalb beim augenblicklichen Stand der Technik zwar bei der Beurteilung von Lungen-Röntgenaufnahmen gerade noch mit der Maschine mithalten. Beide können etwa gleich gut Erkrankungen des Organs erkennen. „Aber am Ende wird der Computer besser sein“, sagt der Experte, „weil er weniger Schwankungen kennt.“

Nicht selten findet der Algorithmus, was dem Arzt nicht aufgefallen wäre

In seiner Klinik nutzt Forsting die Deep-Learning-Systeme auch dazu, den Bilddaten ganz neue Informationen zu entlocken. „Mit dem Computer gucken wir tief in die Biologie des Tumors hinein“, sagt er. Allein durch die Analyse von Form und Struktur von Gebärmutterhals-Krebsgeschwüren konnte sein Algorithmus beispielsweise Metastasen an anderen Körperstellen voraussagen oder das Überleben der Patienten prognostizieren. Der Mensch war mit solchen Analysen bisher überfordert. Weil der Algorithmus völlig unabhängig lernt, sucht er sich beim Studieren der Schulungsaufnahmen eigene Erkennungszeichen, an denen er gesundes und krankes Gewebe erkennt. Nicht selten sind das welche, die einem echten Arzt gar nicht aufgefallen wären.

Allerdings kann genau das auch gewaltig in die Irre führen, wie man am Fraunhofer-Institut für Bildgestützte Medizin (MEVIS) in Bremen erfahren musste. Externe Kollegen hätten in der Vergangenheit versucht, ein Deep-Learning-System auf das Erkennen von Pleuraergüssen zu trainieren, berichtet Horst Hahn, der Direktor des Instituts. Dabei handelt es sich um eine Ansammlung von Wasser in der Brusthöhle, beispielsweise bei einer Lungenentzündung oder Herzschwäche. Tatsächlich erkannte der Computer das Problem sehr zuverlässig, nur leider an den falschen Kennzeichen. Ihm waren während des Trainings vor allem die Herzschrittmacher ins Auge gefallen, die ebenfalls die Röntgenbilder von gesunden und kranken Probanden unterschieden. „Ein Mensch versteht sofort, dass das eine mit dem anderen nichts zu tun hat“, sagt Hahn. Nicht so der Computer. Er ist nicht in der Lage, sich Fragen nach der Kausalität zu stellen wie: Sind Schrittmacher und Erguss wirklich Folge der gleichen Krankheit? Oder ist der Gesundheitszustand der Pleura-Patienten nicht einfach insgesamt schlechter, und sie haben deshalb nur zufälligerweise häufiger Herzrhythmusstörungen? Der Algorithmus versucht dagegen nur, die gestellte Aufgabe stur anhand der ihm vorgelegten Daten zu lösen.

Auch aus diesem Grund tat sich die Deep-Learning-Software anfangs schwer, als ihr Hahn und seine Kollegen beizubringen versuchten, anhand von CT-Bildern eine menschliche Leber zu identifizieren und zu analysieren. An den Organen von Asiaten scheiterte es zunächst regelmäßig, ebenso an den Organen, die zuvor operiert worden waren. Die Leber eines Chinesen wächst häufig mehr Richtung Körpermitte, und nach einem chirurgischen Eingriff ist das Organ oft ziemlich deformiert. Beides hatte der Algorithmus im Schulungsmaterial nicht kennengelernt.

Ohne menschliche Aufsicht kommt das System nicht aus

Doch solche Probleme sind allemal lösbar. Die Merkmale, an denen ein Computer zum Beispiel einen Pleuraerguss zu erkennen glaubt, kann der Mensch nachkontrollieren und -korrigieren. Auch der MEVIS-Algorithmus habe inzwischen kapiert, sagt Hahn, dass sich eine Leber nicht nur durch europäische Standardmaße definiert. Deep-Learning-Systeme bleiben wissbegierig. Wenn man sie weiter mit entsprechendem Anschauungsmaterial füttert, sehen sie schnell ein, dass die Art des Gewebes und der Umgebung viel zuverlässiger anzeigt, um welches Organ es sich handelt. Die Informatiker haben sogar Pläne in der Schublade, wie man solche Probleme präventiv per Umprogrammierung vermindern könnte.

Aber das ist einstweilen noch Zukunftsmusik und zeigt: Ohne menschliche Aufsicht kommt auch ein Deep-Learning-System bis auf weiteres nicht aus. Gerade in der Medizin, wo kein Körper wie der andere ist und auch normale, symptomlose Abnutzungserscheinungen oder das Zusammenwirken von mehreren Krankheiten gleichzeitig den Computer verwirren können. Mensch und Maschine seien deshalb nicht als Konkurrenten zu sehen, meint der MEVIS-Chef. „Künstliche neuronale Netze sind viel ermüdungsfreier und systematischer. Die Menschen können in die Zusammenarbeit ihre überlegene Vorstellungskraft und ihren vielseitigen Erfahrungsschatz einbringen.“

Ein hundertprozentige Sicherheit steckt in den Bildern einfach nicht drin

Andreas Boss kennt noch ein anderes gewichtiges Argument, das gegen einen Verdrängungswettbewerb in der Radiologie spricht: Irgendjemand muss am Ende für die Diagnosen geradestehen. „Auch der Computer wird Fehler machen, das steht fest“, sagt er. Eine hundertprozentige Sicherheit stecke in den Bildern einfach nicht drin, auch die beste Kernspin-Aufnahme kann die Realität nicht eins zu eins wiedergeben. Am Ende, heißt das, muss immer ein Arzt dem Urteil zustimmen, selbst wenn er nicht unbedingt der Klügere ist. Der Zürcher Mediziner hat seine Computer deshalb so programmiert, dass sie nur noch als eine Art besonders erfahrene Berater agieren. Gewebeprobe empfohlen, Überwachung wahrscheinlich ausreichend, weiter lehnt sich sein Algorithmus nicht aus dem Fenster. Nun möchte er dem Gerät noch beibringen, diese Entscheidungen auch zu begründen. Also nicht nur anhand selbstgewählter Merkmale für den Arzt nicht nachvollziehbare Entscheidungen zu fällen, sondern Schritt für Schritt darzustellen, welche Auffälligkeiten für die Diagnose sprechen.

„Der Röntgenarzt wird noch ganz lange auf dem Fahrersitz sitzen“, glaubt auch der Essener Michael Forsting. Nur werde ihm der Computer in Zukunft weitgehend die radiologischen Fließbandtätigkeiten vom Hals halten, bei denen der Mensch seine Schwächen hat. Das Zählen der stets gleichen Entzündungsherde im Gehirn von Multiple-Sklerose-Patienten zum Beispiel. Oder die gleichförmigen Verlaufsbeobachtungen von Tumorkranken. Auch bei der schnellen Suche nach Knochenfrakturen oder im Mammographie-Screening könnte ein solches Werkzeug wahrscheinlich die Arbeit erleichtern. „Ich glaube nicht, dass die Künstliche Intelligenz uns irgendwann abschaffen wird“, sagt Michael Forsting. „Aber Sie wird uns mit Sicherheit besser machen.“

Quelle: F.A.S.
  Zur Startseite
Ähnliche ThemenComputerStanford UniversityGarri KasparowFDAUniversität TorontoKünstliche Intelligenz