Menschen sind leidenschaftlich neugierig. Kein Teil der Welt bleibt lange unerforscht, wenn er erst einmal erreichbar geworden ist. Über den menschlichen Körper war Jahrtausende lang nur bekannt, was wir direkt sehen können, das Äußere. Denkt man an die medizinische Entwicklung der letzten 150 Jahre zurück, ist das kümmerlich wenig. Vor der Entwicklung von Röntgengeräten, Computertomographie und Co. gab es nur eine einzige Möglichkeit, etwas über das Innere des Menschen herauszufinden – nämlich ihn aufzuschneiden. Leider überstehen die meisten lebenden Individuen ein solch direktes Vorgehen ohne jegliche Vorkehrungen außerordentlich schlecht. Erste Erkenntnisse gewann man daher, bereits in der Antike, durch die Sezierung von Leichen. Tote mögen zwar wertvolle Aufschlüsse über Anatomie und Vorgänge im Körper des Menschen geben, helfen aber im konkreten Einzelfall nicht, eine Diagnose zu stellen. Dafür müsste man irgendwie in den Patienten hinein sehen können, ohne seinen, ohnehin nicht allzu guten, Zustand noch weiter zu verschlechtern.
Strahlende Neuigkeiten
Als der Würzburger Physiker Wilhelm Conrad Röntgen 1895 erstmals die Röntgenstrahlen beschrieb, ahnte er ebenso wenig von der Revolution, die seine Entdeckung in der medizinischen Diagnostik auslösen würden, wie von deren Gefahren. Doch was genau macht die Röntgentechnik zu einem so mächtigen Werkzeug?

© Wikimedia Commons
Wenn wir ein Objekt beobachten, nehmen wir mit unseren Augen das Licht war, das von seiner Oberfläche reflektiert wird. Je nachdem, ob viel oder wenig Licht zurückgeworfen wird, erscheint der Gegenstand heller oder dunkler. Eine schwarze Jacke absorbiert, d.h. „verschluckt“, fast das gesamte Licht und erscheint deswegen auch schwarz. Auf Fensterscheiben und Plastikfolien findet dagegen kaum Absorption oder Reflexion statt; das Licht kann seinen Weg praktisch ungehindert fortsetzen und in die Welt „dahinter“ vordringen. Und genau das ist es, was man auch bräuchte um in Dinge, wie den menschlichen Körper, hineinsehen zu können. Leider lassen sich Oberflächen nicht so mir-nichts-dir-nichts durchsichtig schalten. Aber kann man vielleicht das Licht so verändern, dass es ein, für unsere Augen undurchsichtiges, Objekt doch durchdringt?

© Wikimedia Commons
Ja, wie Röntgen 1895 herausfand. Für uns wahrnehmbares, sichtbares Licht umfasst nur einen kleinen Teil des elektromagnetischen Spektrums (siehe Bild). Daneben gibt es noch Strahlungsarten, die eine niedrigere, wie Infrarot- oder Radiowellen, oder eine höhere Energie besitzen. Wie auch UV- und Gammastrahlen besitzen Röntgenstrahlen eine kürzere Wellenlänge und damit höhere Energie als sichtbares Licht. Schon UV-Strahlen dringen tiefer in die menschliche Haut ein, werden dort absorbiert und können so Sonnenbrand verursachen. Röntgenstrahlung ist in der Lage Weichteile Haut und Organe nahezu ungehindert zu passieren. Für den sprichwörtlichen „Röntgenblick“ sind sie also durchsichtig! Knochen und Zähne können die Strahlen dagegen kaum durchdringen. Je dichter das Material, desto mehr Röntgenlicht wird auch absorbiert.
Stellt man zwischen eine Quelle1, die Röntgenstrahlen aussendet, und einen Fotoschirm ein Objekt, erhält man ein Schattenbild. Können die Strahlen das Objekt ein einer Stelle gut durchdringen, erscheint dieser Bereich auf dem Fotoschirm hell. Wird dagegen viel Licht absorbiert, ist die entsprechende Stelle dunkler. Ähnlich wie bei einem Schattentheater. Auch hier entsteht das Bild, durch schwarze Pappfiguren, die das Licht nicht durchlassen und auf der Projektionswand als Schatten erscheinen.
Spielereien mit Strahlen

© David Werner, Wikimedia Commons
Wie auch bei vielen anderen bahnbrechenden Entwicklungen, brauchte die Röntgentechnik einige Zeit um ihr volles Potenzial zu entfalten. Rund 15 bis 20 Jahre nach der Entdeckung kamen erste experimentelle Apparate für den Krankenhauseinsatz auf den Markt, die allerdings alles andere als handlich waren. Nur experimentierfreudige Ärzte wagten sich zunächst an die neue Technik. Auch war sehr wenig darüber bekannt, wie gefährlich Röntgenstrahlen in einer zu hohen Dosis sein können. Davon waren hauptsächlich Ärzte und Klinikpersonal betroffen, da frühe Röntgengeräte keine Abschirmung besaßen und sie somit bei jeder Untersuchung erneut den Strahlen ausgesetzt waren. Daneben gab es das „Röntgengerät zum Selberbauen“ als Experimentierkasten für Kinder. Auch konnte man in Schuhgeschäften bis in die 1950er Jahre mit einem sogenannten Pedoskop mithilfe der Röntgentechnik überprüfen, ob die neuen Treter auch wirklich richtig sitzen.
Wie auch bei der Radioaktivität stellte man erst mit der Zeit fest, dass Röntgenstrahlung energiereich genug ist, um chemische Bindungen aufzubrechen und damit Erbgutschäden zu verursachen, die Krebs zur Folgen haben können. Daraufhin wurde Abschirmungen angebracht und die Dosis auf eine Minimalmenge reduziert. Heute ist man bei einer Röntgenuntersuchung im Mittel nur noch rund einem Zehntel der Strahlendosis ausgesetzt, die pro Jahr durch natürliche Radioaktivität auf den Körper wirkt.

© Eigene Aufnahme (Siemens Med Museum Erlangen)
Dass man mit Röntgenstrahlen chemische Bindungen zerstören kann hat, auch wenn es zunächst nicht den Anschein erweckt, auch seine guten Seiten. Schon in den 1930er Jahren entwickelte man einen Apparat, der mithilfe der Strahlen Tumore zerstörte, mit dem schönen Namen „Röntgenbombe“. Sehr treffend, wenn man bedenkt, dass man lieber nicht so genau wissen will, welche Strahlendosis die Patienten damals abbekamen. Auch Hautkrankheiten wurden mit dieser sogenannten Strahlentherapie behandelt, allerdings unter Einsatz von weicheren, d.h. weniger energiereichen, Röntgenstrahlen. Heute werden zur Bekämpfung schwer erreichbarer Tumore meist beschleunigte Elektronen- oder Protonen eingesetzt, die wesentlich besser fokussiert werden können. Die Geschwindigkeit und damit die Energie der Teilchen lässt sich beim Beschleunigungsprozess fast beliebig steuern. Schnellere Teilchen dringen weiter in das Gewebe ein. So kann sichergestellt werden, dass die für die Zerstörung des Tumors nötige Energie genau an der richtigen Stelle freigesetzt wird. Umliegendes Gewebe wird damit deutlich weniger geschädigt, als bei der „Röntgenbombe“. Im übertragenen Sinne schießt man heute also nur noch mit kleinen, halbwegs treffsicheren Pfeilen auf den Tumor, anstatt mit einer Kanonenkugel.
Schwierigkeiten mit Projektionen

© Renate Rössing, Wikimedia Commons
In den darauffolgenden Jahren verbesserte sich die Technik stetig. Die Apparate wurden kompakter, sichererer, handlicher und nahmen immer detailliertere Bilder auf. Damit konnte, wie mit der futuristisch anmutenden Röntgenkugel von Siemens (1934), auch erstmals sprichwörtlich das Röntgengerät zum Patienten kommen anstatt andersherum. Das brachte die medizinische Diagnostik ein weites Stück voran, z.B. im Bereich der Tuberkulosevorsorge.
Ein Problem jedoch blieb vorerst. Eine einzelne Röntgenaufnahme ist immer eine zweidimensionale Angelegenheit. Alle Körperteile, die zwischen Röntgenquelle und Fotoschirm liegen, überlagern sich bei einer Untersuchung und ergeben ein Projektionsbild. Ähnlich wie, wenn in einem Schattentheater einzelne Figuren übereinander gelegt werden würden. Ihre Form und das was sie darstellen sollen, ist dann nicht mehr unbedingt zu erkennen. Auch bei einem Gruppenfoto versteckt sich so mancher gerne hinter seinen Vordermann (siehe PhyBl99, Abb. 1). Vor ähnlichen Schwierigkeiten steht der Arzt bei der Röntgendiagnose, gerade wenn komplexere Körperregionen wie der Oberkörper untersucht werden. Die feinen Kontrastunterschiede sind äußerst schwer zu deuten, viel mehr als Knochen lässt sich selten erkennen. Da wir ja schon festgestellt haben, dass es Menschen nicht gut bekommt, wenn man sie in dünne Scheiben zerlegt und stückchenweise untersucht, muss man sich an dieser Stelle etwas anderes einfallen lassen.
Von der Projektion zum Schichtbild
Bereits in den 1930er Jahren entwickelte man darum das Verfahren der Verwischungstomografie. Dabei werden Röntgenröhre und Fotoschirm während der Aufnahme linear in entgegengesetzte Richtungen verschoben. Auf diese Weise wird nur eine Schicht des Patienten, die Fokusebene, scharf abgebildet (siehe PhyBl99, Abb. 6). Davor und dahinter liegende Bereiche erscheinen schwächer und verwischt, daher auch der Name. Benutzt man statt Fotoplatten digitale Bilddetektoren, nennt man dieses Verfahren auch Tomosynthese. Zwar setzen die nicht in der Fokusebene liegenden, unscharfen Bereiche, den Kontrast der Aufnahme herab, dennoch lässt sich aus einem solchen Schichtbild deutlich mehr herauslesen als aus einer gewöhnlichen Röntgenaufnahme. Damit hätte man es im vorigen Beispiel geschafft, auch die zweite Reihe auf deinem Gruppenfoto abzubilden. Von Personen der ersten Reihe wäre dann nichts weiter zu sehen als ein unscharfer Schleier. Möchte man eine zweite Schicht darstellen, muss eine zweite Aufnahme gemacht werden, bei der die Fokusebene entsprechend anders gelegt wird. Das war ein erster wichtiger Schritt; für die Weiterentwicklung zur Computertomografie ist jedoch noch einiges an mathematischem Handwerkszeug zur Bildrekonstruktion nötig.
Theoretisch muss man, um das Innenlebens eines Objekts vollständig zu rekonstruieren, es aus allen Richtungen durchleuchten. Pro „Richtung“ erhält man eine andere Projektion, beispielsweise eines Körperbereiches. Alle Informationen über den dreidimensionalen inneren Aufbau des Untersuchungsgegenstands sind nun irgendwo in den Projektionsbildern vorhanden. Doch wie bekommt man sie da heraus? Wie berechnet man aus Projektionen Schichtbilder oder einen dreidimensionalen Aufbau?
Um 1917 herum löste der Mathematiker Johann Radon auf der Grundlage von verschiedenen Ansätzen, die um die Jahrhundertwende entwickelt wurden, dieses sogenannte inverse Problem der Rekonstruktion. „Invers“, da man hier sozusagen „rückwärts“ von den Projektionsbilder (der Wirkung) auf den inneren Aufbau des Objekts (die Ursache) schließen muss. Mathematisch sind solche Probleme alles andere als trivial und beschäftigten Mitte des 20. Jahrhunderts viele kluge Köpfe. Radon war mit der Theorie seiner Zeit um einiges voraus und noch weit jeder Anwendung entfernt. Schließlich war selbst die gewöhnliche Röntgentechnik in den Zwanzigern noch den größeren Klinken vorbehalten.
Der Computer kommt

© Wikimedia Commons
Nach einen weiteren halben Jahrhundert an verschiedenen mathematischen Verfeinerungen und Vorstößen zur Absorption von Röntgenstrahlung in menschlichem Gewebe und zur Konstruktion von Schichtbildern, war um 1970 auch endlich die Computertechnik weit genug für den Einsatz in der Tomografie. Von nun an übernahmen digitale Detektoren die Rolle des Films und Rechner die Berechnung der Schnittbilder und 3D-Modelle; die mathematische Theorie verwandelte sich in komplexe Algorithmen.
Zunächst verwendete man bei der Computertomografie nur einen einzelnen gut fokussierten, sogenannten Nadelröntgenstrahl, der wiederum nur auf ein einzelnes Detektorelement traf. Strahlenquelle und Detektorelement wurden im ersten Schritt parallel zu einander linear verschoben. So entstand ein eindimensionales Projektionsbild, das eine „Blickrichtung“ durch das Objekt abdeckte. Nun drehte man die sogenannte Gantry, die „Röhre“, in die der Patient bei der Untersuchung hinein gefahren wird, und nahm auf gleiche Weise ein neues Projektionsbild auf. So gewonnene CT-Aufnahmen lassen sich noch vergleichsweise einfach im Computer verarbeiten, nehmen aber auch viel Zeit in Anspruch. Schnelle Aufnahmen sind vor allem im Brustbereich von Bedeutung, z.B. wegen Atembewegungen oder dem Herzschlag. Man kann einen Patienten vielleicht bitten eine Minute die Luft anzuhalten, aber nicht gleich fünf oder zehn. In den folgenden Jahren wurde daher der Nadelröntgenstrahl durch immer weiter aufgefächerte Strahlen ersetzt, die von längeren Detektorarrays aufgenommen wurden. Die Lineare Verschiebung von Detektor und Röntgenröhre wurde überflüssig, man erhielt das eindimensionale Projektionsbild jetzt quasi „auf einen Schlag“ (siehe PhyBl99, Abb. 3). Möchte man die Messgeschwindigkeit noch weiter steigern, verwendet man einen sogenannten Flächendetektor, auf dem mehrere Detektorarrays nebeneinander angeordnet sind. Damit können mehrere Schichten auf einmal aufgenommen werden. Noch schneller geht es, wenn man, wie beim sogenannten „Spiral-CT“ den Patienten zusätzlich noch mit seiner Liege durch die Gantry durchschiebt, während Röhre und Detektor ihn immer wieder umkreisen. Die Anforderungen an Mechanik, Elektronik, Datenerfassung und mathematische Rekonstruktion am Rechner wurden mit jedem dieser Schritte größer, was angesichts der rasanten Entwicklung der Technologie gut bewältigt werden konnte.

© Wikimedia Commons
Wirft man einen Blick in einen heutigen Computertomografen (siehe Foto), erkennt man die Röntgenquelle (T), die gegenüber einer Reihe aus Detektoren (D) angebracht ist. Während einer Einzelaufnahme durchlaufen die Röntgenstrahlen (X) das zu untersuchende Objekt, werden je nach Material unterschiedlich stark absorbiert und von den Detektoren empfangen. Im Folgenden wird die Gantry zwischen typischerweise 0,2 und 2 Grad gedreht (hier in Richtung R), bevor wieder die nächste Aufnahme beginnen kann. So erhält man Projektionsbilder aus vielen verschiedenen Perspektiven, deren Verarbeitung zu Schichtbildern und 3D-Modellen wie oben beschrieben nun der Computer übernimmt. Möchte man entlang der Körperlängsachse einen größeren Bereich abdecken, fährt die Anordnung spiralförmig um den Patienten herum.
Gesellschaft für die Computertomografie

© Wikimedia Commons, User ChumpusRex
Heute sind Computertomografen ein fester Bestandteil jeder Klink und von immenser Bedeutung für die medizinische Diagnose. Sie eignen sich besonders gut, um die Lage von Gewebestrukturen, z.B. Schwellungen oder Tumoren, und evtl. gebrochenen Kochen zu bestimmen. Möchte man dagegen Stoffwechselprozesse nachvollziehen oder die Art eines Körpergewebes genauer untersuchen, greift man auf die etwas aufwendigere Magnetresonanztomographie (MRT) zurück. Sie basiert auf einer völlig anderen Technik als das CT und kann Gewebearten anhand ihres Wasseranteils unterscheiden.
Neben dem MRT hat die Röntgentechnik in den vergangenen Jahrzehnten noch Gesellschaft von vielen weiteren bildgebenden Verfahren der Medizin bekommen, wie dem bei Schwangerschaftsuntersuchungen häufig eingesetzten Ultraschall oder der Positionen-Emissions-Tomografie, die für die Krebsdiagnose eine wichtige Rolle spielt. Jedes Verfahren hat seinen eigenen Vorzüge und Nachteile, weswegen man sie auch gerne kombiniert. Heute sind so Diagnosen möglich, von denen Wilhelm Conrad Röntgen, geschweige denn die Neugierigen der Antike, die als ersten in den menschlichen Körper vordrangen, nie zu träumen gewagt hätten. Die Entwicklung schreitet stetig voran, aber im letzten Jahrhundert ist sie, wie auch bei so vielem anderen auch, geradezu explodiert. Insgesamt gesehen hat sich unsere Lebenszeit bereits verdoppelt, was wieder ganz neue Herausforderungen, sowohl gesellschaftlich wie auch medizinisch, schafft. Man denke nur an die Alterskrankheiten. Ob wir es nun dank Telomerase irgendwann doch zum ewigen Leben schaffen, oder uns vorher dank technischer Prothesen und Implantate in Cyborgs verwandeln, bleibt offen. Aber das ist eine ganz andere Geschichte.
______________________________________________________________
Fußnoten
¹Funktionsweise einer Röntgenröhre: http://www.spektrum.de/lexikon/physik/roentgenroehre/12545
______________________________________________________________
Literatur & Links zum Thema
CT und Röntgentechnik allgemein: Radiologische Klinik Bonn (leicht Verständlich) | Radiologieskript Uni Marburg | „Rekonstruktive Röntgenbildgebung“, Physikalische Blätter 1999 Vol. 55 | Wikipedia
beeindruckende Herzaufnahmen mit einem GE-CT (Golem)
Für ganz besonders Interessierte: „Einführung in die Computertomografie“, Thorsten M. Buzug (Springer Verlag)
Kommentare von Lucia