Die ersten Computertomografen (CT) brauchten für die Erzeugung eines einziges Schnittbildes ganze fünf Minuten. Heute transportieren die CT-Tische Patienten mit mehr als 70 Zentimetern pro Sekunde durch einen kontinuierlich rotierenden CT-Scanner, der bei jedem Umlauf mehr als 250 Schichten zugleich aufnehmen kann. War bisher die Hardware verantwortlich für diese Entwicklungssprünge, scheint sich hier derzeit ein Paradigmenwechsel zu vollziehen: In Zukunft erwarten Radiologen vor allem von Softwarelösungen große Innovationsschübe. „Die gesamte Bildgebung in der Medizin wird in Zukunft nicht so sehr durch bessere Hardware, sondern vielmehr durch Neuentwicklungen der Software bestimmt werden“, prognostiziert etwa Mathias Prokop, Chefarzt der Radiologie an der niederländischen Radboud-University in Nijmegen.
Anbieter setzen auf Software-Algorithmen
Das gelte nicht nur für Fortschritte in Sachen Detailgenauigkeit und Dosisreduktion, sondern auch für die Schnelligkeit der CT-Aufnahmen. Ein Beispiel dafür erwartet er von Samsung, einem Neuling in Sachen Computertomografie. Der Hersteller will Anfang des kommenden Jahres einen neuen CT auf den Markt bringen, dessen Zeitauflösung mit Hilfe einer Software lediglich 30 Millisekunden betragen wird. Auch die anderen Anbieter setzten in puncto Innovation auf Software, vor allem bei der Strahlenreduktion. Mit sogenannten iterativen Bildrekonstruktionsalgorithmen sind ihre CTs heute in der Lage, die für eine Untersuchung nötige Strahlendosis bei gleich bleibender Bildqualität erheblich zu senken. Bei GE wird der Algorithmus ASIR (Adaptive Statistical Iterative Reconstruction) genannt. Philips nennt seinen Algorithmus iDose, bei Siemens heißt er IRIS (Iterative Reconstruction in Image Space) und bei Toshiba AIDR (Adaptive Iterative Dose Reduction).
Im Prinzip funktionieren sie so: Bisher werden die vom CT aufgenommenen Rohdaten mit Hilfe einer gefilterten Rückprojektion in Schnittbilder umgerechnet. Man hat allerdings gemerkt, dass jene Schnittbilder durchaus Ungenauigkeiten enthalten, etwa weil die dafür eingesetzte Strahlendosis zu gering war. Dieses Problem können die iterativen Bildrekonstruktionsalgorithmen umgehen: Sie geben dem CT-Bildrechner einzelne Annahmen mit, die ihn besser erkennen lassen, um was es sich bei dem Bild genau handelt. Peter Aulbach, der Leiter für klinisches Marketing von Siemens Healthcare, nennt ein Beispiel: „Heute kann in der CT-Rekonstruktion nicht berücksichtigt werden, dass der Fokus des Brennflecks einer Röntgenröhre nicht ein infinitesimal kleiner Punkt ist, sondern in Wahrheit eine gewisse Ausdehnung besitzt. Er ist meistens oval und variiert sogar, je nachdem wie hoch die Belastung der Röhre ist.“ Der zugrunde liegende Algorithmus kompensiert die geometrischen Inkorrektheiten des CT-Bildes, indem er dem Bildrechner mitteilt, wo die Größe des Brennflecks den Kontrast des Bildes beeinflusst und dass er es an diesen Stellen nachschärfen muss. Die Leistung jenes Rechners wurde daher deutlich erhöht und hat in etwa die Kapazität von 90 Multicore-Pentium-PCs der neuesten Generation.
Mehr Information, weniger Strahlenbelastung
Das birgt erhebliche Vorteile, schließlich sorgt die Software nicht nur für mehr Detailreichtum, sondern gleichzeitig auch für weniger Strahlenbelastung während der Untersuchung. Hersteller wie Siemens haben jene Algorithmen daher ständig verbessert: So hieß die erste Generation „Iris“, die zweite „Saphire“ und die neueste und jüngste Generation trägt den Namen „Admire“. Sie unterscheiden sich im Wesentlichen durch zwei Aspekte: Die Genauigkeit der geometrischen Angaben im Algorithmus und die Stärke der Rauschreduktion im Bild. „Wenn Sie das Bildrauschen reduzieren, müssen Sie wissen, was denn etwa ein zwei Millimeter großer Lungenknoten ist – und was ein zwei Millimeter großes Rauschkorn, das einfach durch die zu geringe Strahlendosis verursacht worden ist“, erläutert Peter Aulbach. Er verweist auf eine Studie der European Society of Radiology aus dem Jahr 2014, nach der sich die diagnostische Aussagekraft mit „Saphire“ nicht verringert, obwohl der Algorithmus die Strahlenbelastung im Vergleich zu herkömmlichen CT-Untersuchungen des gleichen Geräts um ganze 60 Prozent reduziert.
Ein weiteres Beispiel für das Innovationspotenzial der Software-Algorithmen findet sich in der Kardio-CT: die virtuelle fraktionelle Flussreserve (FFR). Sie kommt zum Einsatz, um die mit dem Herz-CT erkannten Engstellen im Koronarbaum, die den Herzmuskel mit Blut versorgen, besser beurteilen zu können. „Wenn Patienten eine solche Stenose haben, ist die Blutzufuhr zum Herz meistens unterbunden und führt über längere Zeit dazu, dass der Herzmuskel abstirbt. Allerdings haben manche Engstellen überhaupt keinen Einfluss auf die Perfusion des Herzmuskels – mit anderen Worten: Sie muss gar nicht geöffnet werden“, so Aulbach. Um das zu leisten, haben die Entwickler den FFR-Algorithmus mit mehreren Tausend Patientendaten gefüttert. Das Ergebnis kann sich sehen lassen: Der FFR-Algorithmus der US-amerikanischen Firma Heartflow ist in der Lage, Radiologen ein 3D-Model der gesamten Koronararterien zu liefern, das die Auswirkungen solcher Engstellen auf den Blutfluss und den Druck darstellt. Die Entwickler von Siemens haben sogar einen selbstlernenden Algorithmus programmiert, der noch mehr kann: „Der FFR von Heartflow zeigt nur, dass der Druck an einer solchen Stenose abfällt. Wir können dagegen sagen, dass der Druck dort abfällt, und ob ein Herzmuskel dadurch darunter leiden wird, und zwar in diesem und jenen Ausmaß. Oder eben, dass er trotz der Engstelle nicht darunter leiden wird“, so Aulbach. Obwohl der Siemens-FFR bereits als Prototyp an der Uniklinik Erlangen zum Einsatz kommt, steht noch nicht fest, wann er kommerziell erhältlich sein wird – der von Heartflow ist dagegen bereits auf dem Markt.
Siebendimensionale MRT-Aufnahme
Aber auch die Untersuchung mit Hilfe der Magnetresonanztomografie (MRT) wird in Kürze durch solche selbstlernende Software-Algorithmen verbessert werden. Hier hat General Electric (GE) derzeit die Nase vorn: Bis Ende dieses Jahres will der Hersteller mit „Vius Works“ einen Algorithmus auf den Markt bringen, der erstmals auf der letzten RSNA vorgestellt worden ist und zusammen mit der Firma Arteris für den neuen GE-MRT „Signa Architect“ entwickelt wurde. Die Software ist in der Lage, die selbst für ausgewiesene Experten schwierig durchzuführende Herz-MRT-Diagnose nicht nur zu vereinfachen, sondern gleichzeitig auch deutlich schneller zu machen. „Normalerweise muss ein Patient bei einem Herz-MRT 30 bis 60 Minuten untersucht werden und dabei bis zu 50 Mal die Luft anhalten, damit die Untersuchung brauchbare Ergebnisse liefert. Mit Vius Works muss man nur noch ein 3D-Volumen setzen und den Startknopf drücken – nach acht Minuten hat man ein komplettes Herz-MRT, ohne dass der Patient dabei die Luft anhalten muss“, so Markus Trumann, Chefbereichsleiter MRT bei GE für Deutschland, Österreich und die Schweiz. Auch hier ist ein Software-Algorithmus verantwortlich für die Innovation. Nach Abschluss der Untersuchung liefert er nicht nur die drei räumlichen Dimensionen, und zwar zeitlich aufgelöst, sondern stellt sogar den Blutfluss auf X-, Y- und Z-Achsen räumlich dar. Diese siebendimensionale MRT-Aufnahme hat entscheidende Vorteile, etwa für eine Herzklappendiagnose. „Gerade bei der Herzdiagnostik ist es wichtig zu wissen, ob das Blut wieder in die Herzkammer zurückfließt, etwa weil die Herzklappe nicht richtig schließt. Diese Information über den Blutfluss können Sie sich sogar quantifizieren lassen – der Radiologe weiß also hinterher genau, wie viel Volumen eine Herzkammer aufnimmt und wie viel Blut dort zurückfließt“, ergänzt Trumann. Der dahinter steckende Algorithmus ist so rechenintensiv, dass er statt der für eine herkömmliche Kardio-MRT erzeugten rund 200 Megabyte ganze 20 Gigabyte an Daten akquiriert. Da das die Rechenleistung eines MRT sprengen würde, werden die Daten nicht vor Ort analysiert, sondern über eine sichere Cloud an Supercomputer geschickt.
Texturen einzelner Krankheitsbilder
Laut den Experten sind jene bildauswertenden Algorithmen aber nur erste Beispiele für eine Entwicklung, welche die gesamte Bildgebungsdiagnostik grundlegend verändern wird. Denn je größer der ihnen zugrunde liegende Datenpool ist und je ausgefeilter sie sind, desto mehr Informationen können sie auswerten. Daher arbeiten die Hersteller derzeit mit Hochdruck daran, aus den international gewonnenen Patienteninformationen und Studien Datenbanken zu einzelnen Krankheitsbildern zu erstellen. Dahinter steckt die Hoffnung, dass die Algorithmen zukünftig alle Informationen aus sämtlichen Diagnoseverfahren eines Patienten kombinieren und auswerten, indem sie diese mit den Informationen der Datenbanken vergleichen – um daraus Texturen zu einzelnen Krankheitsbildern zu generieren.
Diese Annahmemodelle wären dann sogar in der Lage, den Einfluss einer bestimmten Therapie auf den Krankheitsverlauf eines Patienten zu berechnen – und so den behandelnden Ärzten eine geeignete Therapie vorzuschlagen. Experten wie Peter Aulbach von Siemens rechnen fest mit dieser Entwicklung. „In fünf bis sieben Jahren werden Computer Radiologen sagen können: Ihr Patient hat dieses Krankheitsmuster. Dafür hat der Algorithmus seine Blutanalyse, sein CT- und sein MRT-Bild, seinen Gen-Kode und sein EKG zugrunde gelegt und das mit einer Datenbank abgeglichen – man sieht also, dass der Patient mit dem Phenotyp X korreliert. Daher empfehlen wir Ihnen jene Therapie, weil sich damit sein Outcome um 90 Prozent verbessern wird.“ Man darf also gespannt sein.

Derzeit sind noch keine Kommentare vorhanden. Schreiben Sie den ersten Kommentar!
Jetzt einloggen