Für den Laien sieht ein digitales Bild aus der Radiologie wie ein abstraktes Gemälde aus. Für jemanden mit ärztlicher Ausbildung ist es als Computertomographie (CT) erkennbar. Ein Top-Radiologe ist in der Lage, aus dem wirren Pixelmuster eine ziemlich präzise Diagnose zu erstellen.
In der modernen Medizin gilt es heute jedoch als unstrittig, dass Computer-Intelligenz die Bilder von Magnetresonanztomographie (MRT) und Computertomographie (CT) bald schneller und zuverlässiger befunden wird als erfahrene Radiologen. „Wie in vielen anderen Bereichen unserer Gesellschaft hat Künstliche Intelligenz tatsächlich begonnen, die Arbeit von Spitzenkräften zu übernehmen“, bestätigt Professor Dr. Jochen Werner, CEO und Ärztlicher Direktor des Universitätsklinikums Essen. „Aus unserer radiologischen Klinik weiß ich, dass sie eine CT-Untersuchung mit mindestens vergleichbarer, schließlich aber auch höherer Qualität befunden kann als sogar erfahrene Radiologen.“
Künstliche Intelligenz (KI) ist Software, die sich selber fortschreibt. Sie ist lernfähig und autark. In immer mehr Segmenten unserer Gesellschaft übernimmt sie Verantwortung für Arbeiten, die früher den Menschen vorbehalten war. Heute sind es nicht nur die Schweiß- und Kraftarbeiten – es sind die Leistungen unserer Spitzenkräfte – auch in der Medizin.
Gerade die Analyse abstrakter Muster wie in einem Röntgenbild ist eine Stärke von Computern. Und da KI lernfähig ist, wird sie bei jeder Bildanalyse, bei jedem Tumorbefund, besser. Jedes Mal, wenn sie etwas dazulernt, fertigt sie ein Software-Update an. Für Professor Werner steht fest, „dass eine moderne Medizin ohne Künstliche Intelligenz nicht mehr denkbar sein wird.“
In zahlreichen Kliniken hat die Künstliche Intelligenz längst einen festen Platz. Blut, Urin und andere Körperflüssigkeiten werden heute schon auf halbautomatischen Laborstraßen untersucht. Da sitzt kein Mensch mehr, der jeden Schritt von Hand verrichtet. Professor Werner ist fest davon überzeugt, dass lernfähige Software bald in der Lage sein wird, solche Ergebnisse in einen größeren Zusammenhang zu stellen. KI könnte Untersuchungen aus Mikrobiologie und Virologie, Pathologie und Genetik hinzuziehen, denn auch die werden nach und nach automatisiert.
Darum geht es beim Einsatz von Künstlicher Intelligenz in der Medizin. Einzelne Testergebnisse sollen sinnvoll verglichen und Rückschlüsse für die Diagnose ermöglicht werden. Professor Werner glaubt: „Die Diagnostik in der Hochleistungsmedizin wird sich in den kommenden zehn Jahren dramatisch ändern.“
Robo-Chirurgie wird eines Tages autark ablaufen

©Jay Tuck
Robotersysteme sind heute auch nicht mehr aus dem Klinikbetrieb wegzudenken. Sie schütteln Reagenzgläser, sortieren Gewebeproben und überwachen die Medikamentenvergabe mit hoher Zuverlässigkeit. In vielen OP-Sälen assistieren sie schon bei Operationen. Umgeben von Narkoseärzten und OP-Schwestern liegt der Patient an einem Ende des Raumes, während der Operateur mit dem Rücken zum Geschehen am anderen Ende sitzt.

©Jay Tuck
Er steuert Skalpell und Elektrokauter über Fernkontrolle und beobachtet das Geschehen am Bildschirm. Die Fernsteuerung ermöglicht höhere Präzision im mikroskopischen Bereich und kann sogar die zittrige Hand eines Chirurgen ausgleichen.
Nach deutschem Gesetz müssen Patient und Chirurg noch im selben Raum sein – zum Schutz des Patienten vor möglichen Leitungsstörungen. In Frankreich und England, USA und anderswo sind Operationen über große Entfernungen seit einigen Jahren erlaubt. Und die Zahl nimmt rapide zu. Gab es im Jahr 2000 weltweit rund 1000 roboter-assistierte chirurgische Operationen, sind es heute bereits mehr als eine halben Million im Jahr.

©Jay Tuck
Viele Chirurgen erwarten, dass Roboter in wenigen Jahren kleinere Eingriffe völlig autark vornehmen werden. Der Vorteil liegt vor allem in der größeren Präzision. Sie können näher an den Tumor schneiden. Und bei jeder OP lernen sie dazu.
Die Daten-Explosion
Wie in anderen Bereichen des gesellschaftlichen Lebens explodieren die Datenmengen auch im Gesundheitswesen. Sie wachsen mit exponentieller Geschwindigkeit.
Seit der Entstehung des modernen Homo sapiens vor circa 120.000 Jahren und dem Jahr 2003 hat die Menschheit geschätzte fünf Exabyte an Information produziert. Heute wird eine solche Datenmenge alle zwei Tage erzeugt.
Allein Gesundheitsdaten betragen heute weltweit ca. 150 Exabyte. In kommenden Jahren werden sie in die Größenordnung von Zettabytes und Yottabytes hochwachsen – das sind Datenmengen, die für den menschlichen Intellekt nicht mehr zu begreifen sind. Gemanagt werden können sie nur von einer Künstlichen Intelligenz.
Dem einzelnen Arzt fehlt der Überblick
Für den Hausarzt liegen erfahrungsgemäß die für ihn wichtigsten Informationen in der Familiengeschichte, die er in der Anamnese abfragt, und vielleicht hat er noch ein paar weitere Informationen in seiner Kartei – aber einen umfassenden Überblick hat er nicht. Die wenigsten Patienten haben ihre Gesundheitsgeschichte vollständig in Erinnerung. Wünschenswert wäre jedoch eine langjährige Dokumentation von der ersten Symptomatik bis zum aktuellen Stand, inklusive Blutwerte und Blutdruck, EKG und EEG, Röntgenbildern sowie Videos der letzten Darmuntersuchung. Solche Informationen liegen aber meistens gestreut in Arztpraxen und Kliniken quer durch das Land.
Dazu kommt, dass Ärzte nicht die Zeit haben, die relevanten Fachzeitschriften und Forschungsergebnisse zu verfolgen. Nach eigenen Angaben verbringt der durchschnittliche deutsche Arzt maximal fünf Stunden pro Monat damit. Wie soll er so mit einem dermaßen explosionsartigen Fortschritt mithalten? Tatsächlich verdoppelt sich die Gesamtmenge an medizinischen Daten alle fünf Jahre. Solche Brachialmengen haben längst die Größenordnung überschritten, die menschliche Forschergruppen bearbeiten können. Katalogisieren, Sortieren und Auswerten ist nur mit Hilfe extrem leistungsfähiger Superrechner möglich.
Vor allem bei Patienten mit seltenen Krankheiten ist ein umfassender Datensatz wichtig. Weil die Forschung für solche Fälle weniger Fakten liefert, kann jeder Fetzen für den behandelnden Arzt sehr bedeutend sein. Das weiß Professor Jürgen Schäfer von der Marburg Klinik. Er ist Internist und Endokrinologe, Kardiologe und Intensivmediziner und hat sich auf seltene Krankheiten spezialisiert. Kollegen nennen ihn den „deutschen Dr. House“ in Anspielung auf die TV-Figur. Er sammelt alle Details aus dem Leben seiner Patienten – und auch danach, notfalls aus der Autopsie. Es ist eine gigantische Aufgabe.
Aber er hat Hilfe. Ihm zur Seite steht der IBM-Großrechner Watson. Der ist übrigens nicht nach dem Assistenten des Detektivs Sherlock Holmes benannt, sondern nach dem IBM-Gründer Thomas J. Watson.
Die Aufgaben des Dr. Watson
Weltbekannt wurde der Computer im Februar 2011, als er im Duell mit Menschen in der Quizsendung Jeopardy auftrat. Bei dem Spiel geht es um Triviales – für Computer eine schwierige Aufgabe. Aber Watson war gut vorbereitet. Er studierte Informationen in rauen Mengen und analysierte sie nach Mustern. Die Daten kamen aus dem Internet. Er konnte sie verschlingen. Wikipedia hat er in weniger als einer Stunde verdaut. Ganz Wikipedia! Denn in nur drei Sekunden kann Watson über 200 Millionen Textseiten verarbeiten. Blitzschnell spuckte er seine Ergebnisse aus. Die menschlichen Teilnehmer hatten keine Chance. Watson gewann.
Es war nur eine Fernsehsendung, mag man sagen. Die Fragen waren ja trivial. Aber die Leistung des IBM-Rechners bot eine kleine Vorschau auf das, wozu eine ausgewachsene Künstliche Intelligenz fähig sein könnte. Nach der Show-Einlage im Fernsehen erkannten die Top-Manager, welchen Wert solche Fähigkeiten haben.
Watsons heutige Aufgabe sind Speicherung und Sortierung umfangreicher Krankenakten – für Großrechner wie ihn kein Problem. Und er steht dem deutschen Spezialisten Prof. Dr. Jürgen Schäfer zur Seite. Watson nutzt die Möglichkeiten der natürlichen Sprache, von Hypothesen und evidenzbasiertem Lernen. Ein Arzt kann ihn zur Unterstützung bei Diagnose und Therapie einsetzen, indem er eine Frage stellt und Symptome und bekannte Faktoren mitteilt.
Watson beginnt dann mit der Analyse. Er durchsucht alle Patientendaten nach Familiengeschichte, Medikamenten und Symptomatik. Er kombiniert sie mit aktuellen Befunden und analysiert verfügbare Datenquellen. Dabei kann der Rechner Behandlungsrichtlinien, elektronische Krankenakten, Notizen von Ärzten und Pflegepersonal, Forschungsergebnisse, klinische Studien, in medizinischen Fachzeitschriften und Patientendaten in die Analyse einbeziehen. Schließlich stellt Watson eine Liste möglicher Diagnosen bereit und bewertet sie nach Wahrscheinlichkeit.
Forschung in der Google-Größenordnung
In der Medizinforschung wird unser heutiges Wissen über viele Krankheiten aus klinischen Studien ermittelt. Grundlage ist also eine kleine Referenzgruppe von ein paar tausend Personen. Aus dieser Gruppe werden Merkmale gesammelt und Zusammenhänge erforscht, die Ergebnisse dann auf die Gesamtbevölkerung hochgerechnet. Heute, im Zeitalter von Big Data, ist diese Methodik überholt.
Während heute die Künstliche Intelligenz dem Arzt als kluger Berater zur Seite stehen kann, hat die Datenindustrie für morgen eine weitergehende Vision. Man will die Krankenakten der ganzen Menschheit heranziehen. Darin steht das komplette Inventar der Menschheit. Hochrechnungen werden bald nicht mehr nötig sein. Man wird die medizinische Forschung in der Google-Größenordnung betreiben. Dies ist die Vision der Datenindustrie.
Man wird die Wechselwirkungen von globalen Faktoren im Vergleich untersuchen: zwischen Genetik und Geographie, Essgewohnheiten und Alkoholkonsum, Anamnese und Arbeitszeit, Klima und Kultur, Schadstoffe und Symptomen. Dazu wird KI bald fähig sein. So schnell wird es allerdings nicht kommen. Das Problem sind die Daten.
Unstrukturierte Daten
Die Medizindaten der Welt sind miteinander inkompatibel und zum größten Teil kaum nutzbar. Krankenakten enthalten Notizen, teilweise handgeschrieben, teilweise unvollständig, teilweise von fremden Kulturen oder Religionen beeinflusst. Verfasst werden sie in Sprachen wie Urdu und Kisuaheli oder mit den Sonderzeichen fremder Alphabete wie kyrillisch oder arabisch.
Wer sie sinnvoll analysieren will, muss außerdem einen Weg finden, gesprochene und geschriebene Texte mit medizinischen Fotos, MRTs, OP-Videos und vielzähligen anderen Quellen zu verschmelzen. Aus diesem Grund sind rund 80 Prozent aller Gesundheitsdaten für Computer unsichtbar.
In der IT-Branche nennt man solche Daten „unstrukturiert“, und sie zu ordnen genießt bei Großunternehmen wie Siemens und IBM, Google und Microsoft hohe Priorität.
Das wird jedoch noch dauern – von der globalen Analyse von Gesundheitsdaten sind Watson & Co noch weit entfernt.
Jay Tuck beschäftigt sich intensiv mit dem Thema KI – und stellt daher auch die Frage:

©Plassen Verlag
In seinem aktuellen Buch Evolution ohne uns (19,99 Euro) fasst Jay Tuck die Ergebnisse einer zweijährigen Exklusiv-Recherche bei deutschen Drohnenpiloten und US-Rüstungsplanern, NATO-Militärstrategen und KI-Forschern zusammen.
Oder wird sich die Künstliche Intelligenz gar nicht für die Menschen interessieren?
Ein Interview mit Prof. Dr. Jürgen Schmidhuber