Multimodale Datenfusion fuer die bildgesteuerte Neurochirurgie und Strahlentherapie


Doktorarbeit / Dissertation, 2000

202 Seiten, Note: sehr gut


Leseprobe


Inhaltsverzeichnis

1 Motivation und Gliederung

2 Stand der Forschung
2.1 Registrierung
2.1.1 Geometriebasierte Verfahren
2.1.2 Voxelbasierte Verfahren
2.2 Patientenmodelle und Transformationen
2.3 Validierung
2.3.1 Synthetische Bilddaten
2.3.2 Konsistenz wiederholter Registrierung
2.3.3 Konsistenz serieller Registrierung
2.3.4 Stereotaktischer Gold-Standard
2.4 Bildfusion
2.5 Software-Pakete
2.5.1 AIR
2.5.2 UMDS Geomcal / Rview
2.5.3 SPM
2.6 Positionierung dieser Arbeit

3 Bilder, Koordinaten und Transformationen
3.1 Begriffe
3.2 Transformationen
3.3 Starre und affine Transformationen
3.3.1 Parameterdarstellungen und Anzahl der Freiheitsgrade
3.3.2 Matrixdarstellung
3.3.3 Dekomposition der Transformationsmatrix
3.3.4 Wahl des Transformationszentrums
3.3.5 Scherungen und Gantry-Neigung
3.4 Elastische Transformationen
3.4.1 Lokal lineare Deformation
3.4.2 B-Spline-Deformation
3.4.3 Rückwärtstransformationen
3.4.4 Initiale affine Registrierung
3.4.5 Einflußvolumen
3.4.6 Gitterverfeinerung

4 Voxelmetriken
4.1 Notation
4.2 Eigenschaften voxelbasierter Metriken
4.2.1 Inkrementelle Metriken
4.2.2 Reversible Metriken
4.2.3 Differenzierbarkeit
4.3 Korrelations- und Varianzmetriken
4.3.1 Mittleres Abstandsquadrat
4.3.2 Quotientenbild-Uniformität
4.4 Entropiebasierte Metriken
4.4.1 Bilder als Zufallsverteilung
4.4.2 Entropie
4.4.3 Mutual Information
4.4.4 Normalised Mutual Information
4.4.5 Correlation Ratio
4.4.6 Diskrete Implementierung von Grauwert-Histogrammen
4.4.7 Entropieberechnung
4.4.8 Wahl der Behälterzahl
4.4.9 Rekonstruktion von Randverteilungen
4.5 Bewertung
4.6 Gitterenergie
4.7 Rauschunterdrückung
4.7.1 Coincidence Thresholding
4.7.2 Validierung

5 Optimierungsverfahren
5.1 Konvergenz der Registrierung
5.2 Gradientenbasierte Verfahren
5.2.1 Gradientenaufstieg
5.2.2 Resilient Backpropagation
5.2.3 Quickprop
5.2.4 Bewertung gradientenbasierter Verfahren
5.3 Bester-Nachbar-Suche
5.4 Suche mit adaptiven Gitterrichtungen
5.4.1 Alternative Skalarprodukte
5.4.2 Verwandte Verfahren
5.5 Beste-Richtung-Suche
5.5.1 Richtungsoptimierung
5.5.2 Ausdünnen von Gradienten
5.5.3 Berücksichtigung von Einzelparametern
5.5.4 Varianten
5.6 Multiresolution-Strategien

6 Registrierungsfunktionale
6.1 Kapselung
6.2 Affine Registrierung
6.2.1 Direkter Gitterzugriff
6.2.2 Volumen-Beschneidung
6.3 Elastische Registrierung
6.3.1 Partielle Metrikberechnung
6.3.2 Partielle Berechnung mit blockweisem Zurücksetzen
6.3.3 Parameteranordnung
6.3.4 Angekündigte Parameteränderungen
6.3.5 Effiziente Gradientenberechnung

7 Überblick zur erstellten Software
7.1 Grundfunktionen
7.2 Registrierung
7.2.1 Manuelle Parameterwahl
7.2.2 Voxelbasierte Registrierung
7.3 Export fusionierter Bilddaten
7.3.1 Reformatierung korrespondierender Schichten
7.3.2 Overlay-basiertes Reformatieren
7.4 Klassenbibliothek

8 Stellvertreter-Registrierung
8.1 Funktionelle MRT-Bildgebung
8.1.1 Registrierung
8.1.2 Validierung: Methodik
8.1.3 Validierung: Resultate und Folgerungen
8.1.4 Rechenzeit
8.2 Weitere Anwendungsmöglichkeiten

9 Klinische Anwendungen
9.1 Navigierte Neurochirurgie
9.1.1 Vorbereitende Maßnahmen
9.1.2 Fallbeispiel: Resektion eines Akustikusneurinoms
9.1.3 Fallbeispiel: Zystisches Gliom am motorischen Sprachzentrum
9.1.4 Visualisierung der Navigationsgenauigkeit
9.2 Strahlentherapieplanung
9.3 Digitale Subtraktionsangiographie

10 Ausblick

Anhang
A Validierung starrer Registrierungsverfahren
A.1 Validierte Algorithmen
A.2 Resultate CT/MRT-Registrierung
A.3 Resultate PET/MRT-Registrierung
A.4 Resultate MRT/MRT-Registrierung
B Rechenzeiten
B.1 Starre Registrierung
B.2 Elastische Registrierung
B.3 Volumen-Beschneidung
B.3.1 Systemumgebung
B.3.2 Bilddaten
B.3.3 Resultate
B.3.4 Folgerungen
C Algorithmen und Datenstrukturen
C.1 Adaptives Resampling
C.1.1 Gittergenerierung
C.1.2 Datentransformation
C.1.3 Knoten- und Zellendaten
C.1.4 Eigenschaften
C.2 Virtuell-äquidistante Gitter

Notation

Literaturverzeichnis

Index

Summary

Kapitel 1 Motivation und Gliederung

Seit Einführung der Computertomographie (CT)39 haben Schnittbildverfahren nicht nur die radiologische Diagnostik, sondern auch die Behandlung vieler Krankhei- ten stark beeinflußt. Die Entwicklung der bildgesteuerten Therapie wäre ohne solche Techniken nicht denkbar. Erst ihre präzise räumliche Zuordnung von Strukturen und Prozessen ermöglicht die exakte Planung und Kontrolle interventioneller Maßnahmen. Diese Zuordnung ist etwa bei der Projektionsdarstellung der klassischen Röntgenauf- nahme nicht gegeben.

Verschiedene bildgebende Verfahren (Modalitäten) unterscheiden sich wesentlich in der Art der dargestellten Information. Einige Beispiele hierzu sind in den Abbil- dungen 1.1 und 1.2 gezeigt. Grundsätzlich unterscheidet man zwischen Verfahren zur Abbildung anatomischer Strukturen (Morphologie, vgl. Abb. 1.1) und solchen, die funktionelle Vorgänge darstellen (Abb. 1.2). Bei letzteren kann es sich beispielsweise um Stoffwechselaktivität oder den Grad der Durchblutung (Perfusion) handeln.

Das preiswerteste und nach wie vor am häufigsten eingesetzte anatomische Schnitt- bildverfahren ist die auf Röntgenstrahlen basierende CT (Abb. 1.1a). Sie besitzt al- lerdings aufgrund der geringen Unterschiede im Absorptionsverhalten verschiedener Körpergewebe nur einen sehr geringen Weichteilkontrast. Knöcherne Strukturen dage- gen vermag sie mit hoher räumlicher Auflösung in einem physikalisch wohldefinierten Wertebereich darzustellen.

Im Vergleich hierzu ist die Kernspin- oder Magnetresonanztomographie (MRT, Abb. 1.1b-d) in der Lage, Weichteile differenziert abzubilden. Für Knochen wieder-

um ist sie aufgrund von deren geringem Wassergehalt gewissermaßen

”blind“.An- dererseits lassen sich über die Wahl der Meßparameter mit diesem Verfahren völlig verschiedene Aspekte des untersuchten Objekts abbilden.

Unter den funktionellen Verfahren sind die sogenannte Positronenemissionsto- mographie (PET, Abb.1.2 a) und die Single-Photon-Emissionscomputertomographie (SPECT) die verbreitetsten. Bei beiden wird dem Patienten zunächst ein Radio- pharmakon injiziert. Dessen räumliche Verteilung im Körper wird dann anhand der emittierten Strahlung berechnet. Dabei kommen im wesentlichen dieselben mathema- tischen Verfahren bei der Bildrekonstruktion zum Einsatz wie bei der CT.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: Bildgebende Modalitäten: Anatomische Schnittbildverfahren. Alle Bilder zeigen denselben Patienten in identischer Schichtlage (Bildausschnitt 177 mm × 191 mm). Die Originalauflösung betrug 0,70 mm Pixelgröße für die CT (512 × 512 Pixel) bzw. 0,98 mm für jede der MRT-Aufnahmen (256 × 256 Pixel).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.2: Bildgebende Modalitäten: Funktionelle Schnittbildverfahren. Links: 18 F- FDG-Positronenemissionstomographie (Schädelbasis, 64 × 64 Bildpunkte). Rechts: Funktionelle MRT. Abgebildet ist das motorische Sprachzentrum (Broca, Pfeil); die Umrisse des Schädels wurden zur besseren Orientierung aus der zugehörigen anatomischen Aufnahme extrahiert und sind nicht Teil der funktionellen Bildgebung.

Im Falle der PET handelt es sich bei der verwendeten Substanz in der überwie- genden Mehrzahl der Fälle um einen radioaktiv markierten Zucker, die sogenannte 18 F -Fluordesoxyglukose (FDG). Dieses Molekül enthält ein Atom des Fluor-Isotops 18 F, eines sogenannten Positronenstrahlers. Es setzt also spontan das positiv gelade- ne Antiteilchen des Elektrons frei. Dieses zerstrahlt mit Elektronen des umgebenden Gewebes.

Die dabei entstehenden und in entgegengesetzten Richtungen emittierten Gammaquanten werden registriert und erlauben Rückschlüsse auf den Ort der Positronenemission. Hinreichend viele derartige Ereignisse ergeben dann eine räumliche Verteilung der markierten Glukose. Diese Verteilung schließlich zeigt die lokale Stoffwechselaktivität im Körper des Patienten. Da aggressiv wachsende Tumore häufig einen erhöhten Zellstoffwechsel aufweisen, erlaubt die PET somit eine Lokalisierung verdächtiger Areale und sogar eine Quantifizierung ihrer Aktivität.

Als Ergänzung zu den nuklearmedizinischen funktionellen Bildgebungsverfahren PET und SPECT gewinnt in den letzten Jahren zunehmend die sogenannte funk- tionelle Magnetresonanztomographie (fMRT, Abb. 1.2b) an Bedeutung. Diese bildet selektiv die Funktion gesunder Hirnareale ab und eignet sich so insbesondere zur Festlegung von Risikostrukturen vor operativen Eingriffen. Zwar ist der Einsatzbe- reich des Verfahrens auf die Abbildung des Hirnstoffwechsels beschränkt, dafür jedoch kommt es ohne Strahlenbelastung des Patienten aus. Zudem ist eine fMRT durch die vereinfachte Prozedur (keine kurzlebigen Radiopharmaka, keine Strahlenschutzmaß- nahmen) preiswerter und schneller durchzuführen als etwa eine PET.

Es ist leicht einzusehen, daß ein erhebli- cher zusätzlicher Gewinn an Information er- reicht werden kann, wenn es gelingt, die ver- schiedenen bildgebenden Verfahren zu kom- binieren. Hierzu müssen die von ihnen gelie- ferten Bilddaten zueinander in Relation ge- setzt und in eine gemeinsame Darstellung in- tegriert werden. Diese neue Art der Kombi- nation unterschiedlicher Bilddaten wird als Bildfusion bezeichnet. Die eigentliche Fu- sion erfordert zunächst, für jeden Ort im Raum die jeweils zugehörigen Daten aus allen verfügbaren Bildern einander zuzuordnen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.3: Unregistrierte Bildda- ten: 50%/50% Überlagerung von CT und T 1-gewichteter MRT. Die relative Lage der Daten entspricht den von bei- den Scannern gelieferten ursprünglichen Bildausschnitten.

Die von verschiedenen Geräten stam- menden Bilddaten besitzen allerdings unter- schiedliche, voneinander unabhängige Koor- dinatensysteme. Speziell variieren der Ur- sprung des jeweiligen Koordinatensystems wie auch die Orientierungen der Koordina- tenachsen von Gerät zu Gerät und teilweise auch von Untersuchung zu Untersuchung. Darüber hinaus ist auch das abgebildete Objekt, also der Patient, bei jeder Untersuchung anders positioniert. Aus diesen Gründen sind verschiedene Bilddatensätze im allgemeinen nicht in Deckung miteinander, wie Abbildung 1.3 illustriert.

Es ist somit notwendig, alle relevanten Bilddaten des betreffenden Patienten in ein gemeinsames Bezugssystem zu überführen. Dazu wird zumeist ein Datensatz fest als Re- ferenzbild (engl. “reference image”) gewählt. Die Koordinatensysteme aller übrigen Da- tensätze werden dann mit dessen Koordina- ten abgeglichen. Dieser Vorgang wird als Re- gistrierung (engl. “registration”) bezeichnet, und die transformierten Datensätze heißen Modellbilder (engl. “model images”). Stam- men die zu registrierenden Daten aus ver- schiedenen Modalitäten, so wird speziell von multimodaler Registrierung gesprochen, bei identischen Quellen analog von unimodaler Registrierung.

Bei zusätzlichen Bildern genügt es offen- sichtlich, die Registrierung mit nur einem ein- zigen Referenzbild durchzuführen. Die not-

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.4: Registrierung zwischen mehreren Modellbildern. Nach separa- ter Registrierung der beiden Modellbilder mit der Referenz ergibt sich die Trans- formation von [Abbildung in dieser Leseprobe nicht enthalten]

wendigen Transformationen zwischen den verschiedenen Modellen ergeben sich dann durch Verkettung und Invertierung derjenigen zwischen Referenz und Modellen (Abb. 1.4). Inwieweit die Inversenbildung dabei problemlos möglich ist, hängt allerdings im Einzelfall von den zugelassenen Transformationen ab.

Nicht nur der räumliche Abgleich von Bilddaten verschiedener bildgebender Verfahren wird als Registrierung bezeichnet. Die Bearbeitung einer Reihe mathematisch eng verwandter Probleme wird ebenfalls unter diesem Begriff subsummiert:

Unimodale Registrierung: Der Vergleich von Daten desselben Patienten und der- selben Modalität, jedoch beispielsweise von verschiedenen Zeitpunkten (serielle Registrierung, Bewegungskorrektur bei Subtraktionsbildern).

Atlas-Registrierung: Das Abbilden eines anatomischen Atlas auf Daten eines rea- len Patienten.

Patienten-Modell-Registrierung: Der Abgleich zwischen Bilddaten und dem Pa- tienten selbst, etwa zur Lagekontrolle vor und während eines chirurgischen Ein- griffs.

Allen genannten Fällen ist gemeinsam, daß ein Mensch niemals in der Lage sein wird, die Mehrzahl der gestellten Aufgaben zufriedenstellend zu bewältigen. Einleuchtende Gründe hierfür stellen die hohe Anzahl sich gegenseitig beeinflussender Einstellungen (Verschieben und Drehen der Daten) sowie der fehlende Überblick über die räumlichen Verhältnisse dar.

Zwar sind erfahrene Radiologen darauf trainiert, beim Betrachten von Bilddaten aus mehreren Quellen diese quasi ”mental“zuregistrierenundzueinemgemeinsa- men Ganzen zu verbinden. Dieser Vorgang ist allerdings nicht objektiv reproduzier- bar und mit großen Ungenauigkeiten verbunden. Letzteres gilt insbesondere dann, wenn die verschiedenen Bilddaten stark unterschiedliche Ausrichtungen aufweisen, wenn also beispielsweise einerseits Bilder senkrecht zur Körperachse vorliegen (axiale Schichtführung, vgl. Abb. 1.5), andererseits solche entlang der Körperachse (sagittal oder koronar).

Diese Problematik sowie der Nutzen der Kombination verschiedener Arten von Bildern motivieren gemeinsam die Entwicklung automatischer Verfahren für die Re- gistrierung. Mit solchen Techniken befaßt sich die vorliegende Arbeit und legt dabei besonderen Wert auf ihre effiziente Realisierung und ihre Integration in die klinische Routine.

Bei den verwendeten Algorithmen handelt es sich speziell um solche aus dem Bereich der sogenannten voxelbasierten Registrierung. Zunächst faßt Kapitel 2 den derzeitigen Stand der Forschung auf diesem Gebiet zusammen. In diesem Kontext erfolgt zudem die Positionierung der vorliegenden Dissertation im wissenschaftlichen Umfeld, und es werden die durch sie erzielten wesentlichen Fortschritte dargestellt.

Die nachfolgenden drei Kapitel stellen detailliert die mathematischen Konzepte und Verfahren dar, welche der voxelbasierten Registrierung zugrundeliegen. Spezi- ell befaßt sich Kapitel 3 mit den in diesem Zusammenhang relevanten fundamentalen

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.5: Schichtführung medizinischer Bilddaten: MRT (MP-RAGE-Technik, 256 × 256 × 224 Voxel, 0,98 mm × 0,98 mm × 1,0 mm Voxelgröße).

Begriffen der Bildverarbeitung, nämlich Bildern und Koordinaten sowie Koordinaten-

transformationen. Kapitel 4 führt den Begriff der

”voxelbasiertenMetrik“alseinMaß

für die Ähnlichkeit von Bilddaten ein. Verschiedene gebräuchliche Metriken werden vorgestellt und wesentliche mathematische Eigenschaften hergeleitet. Mit Verfahren zur Optimierung von Metriken befaßt sich Kapitel 5. Das nachfolgende Kapitel 6 schließlich führt die bisher eingeführten Konzepte zusammen und rundet somit den theoretischen Teil ab. Besonderer Wert wird hierbei darauf gelegt, daß alle Komponenten effizient zusammenarbeiten, ohne jedoch die konzeptionelle Trennung der resultierenden Verfahren und somit ihre Universalität aufzuheben.

Die auf der Basis der vorgestellten Algorithmen realisierte Software wird in Ka- pitel 7 beschrieben. Dabei wird sowohl auf die vorhandene graphische Benutzerober- fläche als auch auf die zugrundeliegende, systemunabhängige Klassenbibliothek ein- gegangen. Ein spezielles Konzept für die Registrierung fundamental unterschiedlicher Bilddaten wird in Kapitel 8 eingeführt. Dieses verwendet komplementäre Eigenschaf- ten ein- und derselben Modalität, um die Registrierung mit Daten einer anderen Modalität zu ermöglichen. In diesem Zusammenhang wird eine spezielle Prozedur für die Akquisition funktioneller MRT-Daten beschrieben und die mit ihr erreichbare Registrierungsgenauigkeit anhand eines Gold-Standards validiert.

Das abschließende Kapitel 9 dokumentiert die klinische Anwendung der in dieser Arbeit entwickelten Verfahren und Software in der bildgesteuerten Therapie. Dabei handelt es sich insbesondere um die Durchführung von Interventionen in den Berei- chen navigierte Neurochirurgie und Strahlentherapie unter Verwendung multimoda- ler Bilddaten. Diese Prozeduren konnten im Rahmen der vorliegenden Dissertation in enger Zusammenarbeit mit den beteiligten Medizinern bis zur Routinefähigkeit weiterentwickelt werden.

Im Anhang schließlich finden sich detaillierte quantitative Angaben zur Genauigkeit der verwendeten Registrierungsverfahren (Anhang A). Weitere Anhänge geben Auskunft über die benötigten Rechenzeiten (Anhang B) und zu speziell für diese Arbeit entwickelten, grundlegenden Algorithmen (Anhang C).

Kapitel 2 Stand der Forschung

2.1 Registrierung

Die möglichen Anwendungen der Registrierung medizinischer Bilddaten sind ausge- sprochen vielfältig. Dasselbe gilt entsprechend auch für die automatischen Verfahren, welche zur Lösung dieser Aufgabe bereits entwickelt wurden. Einen recht vollständi- gen Überblick über Registrierungsalgorithmen bis etwa 1998 geben Maintz et al.58. Die Autoren behandeln darüber hinaus auch alle wesentlichen Anwendungsgebiete für die Registrierung.

2.1.1 Geometriebasierte Verfahren

Die Registrierung von Bilddaten vereinfacht sich teilweise erheblich, wenn die in ihnen enthaltene Information in geeigneter Weise reduziert bzw. zusammengefaßt wird. Das Resultat einer solchen Reduktion sind meist geometrische Objekte (Achsen, Punkt- mengen, Oberflächen). Diese repräsentieren bestimmte charakteristische Eigenschaf- ten der ursprünglichen Daten bzw. der in ihnen abgebildeten Objekte. Verfahren, wel- che derartige Darstellungen zur Registrierung verwenden, können daher unter dem Oberbegriff ”geometriebasiert“eingeordnetwerden.

Hauptachsenregistrierung. Dieses unter anderem von Faber und Stokely [[20]] verwendete Verfahren basiert darauf, daß jedes dreidimensionale räumliche Objekt einen eindeutigen Schwerpunkt sowie drei eindeutig bestimmte Hauptachsen besitzt.

Der Schwerpunkt ist dabei mit dem Massezentrum des Objekts identisch. Die Hauptachsen sind die paarweise orthogonalen Rotationsachsen mit extremalen (d.h. minimalen oder maximalen) Massenträgheitsdrehmomenten. Zwei Abbildungen des- selben Objekts lassen sich daher registrieren, indem zunächst die Schwerpunkte beider Darstellungen durch eine Translation ineinander überführt werden. Die Richtungen der Hauptachsen definieren dann die notwendigen Rotationen. Schließlich kann ei- ne eventuell erforderliche Skalierung durch die Längen der Hauptachsenvektoren be- stimmt werden.

Eine Registrierung mittels Schwerpunkt und Hauptachsen ist offensichtlich nur anwendbar, wenn das untersuchte Objekt in beiden Datensätzen vollständig und allein abgebildet ist. Dies ist in der medizinischen Bildgebung allerdings so gut wie nie der Fall, denn das fragliche Objekt wäre stets der gesamte Patient und nur dieser. Im Falle des Schädels allerdings kann das Verfahren zumindest einigermaßen befriedigende Resultate liefern, wie von Arata et al.2 gezeigt wurde.

Für unvollständig abgebildete Objekte haben Dhawan et al.16 zudem ein iterati- ves Hauptachsenverfahren vorgestellt. Dabei werden die verfügbaren Daten zunächst künstlich auf wenige zentrale Schichtbilder beschränkt und registriert. Durch sukzes- sives Hinzufügen von Schichten mit anschließender eingeschränkter Neuregistrierung sollen sich auch Daten mit leicht unterschiedlichen Bildausschnitten registrieren las- sen.

Landmarkenbasierte Registrierung. Unter Landmarken versteht man ausgezeichnete Punkte in der Abbildung eines Objekts (Patient). Für die Registrierung werden die Koordinaten korrespondierender Landmarken in beiden Datensätzen benötigt. Daraus kann mittels algebraischer Verfahren (Singulärwertzerlegung) eine Transformation bestimmt werden, welche die Landmarken des einen Bildes mit minimalem Fehler auf die des anderen Bildes überführt.

Landmarken können in der Praxis zum einen Strukturen im Körper des Patienten selbst sein. Man spricht dann speziell von anatomischen Landmarken. Andererseits sind auch künstlich angebrachte Markierungen üblich. Bei anatomischen Landmarken besteht das Problem, diese möglichst exakt automatisch zu detektieren. Verschiedene Verfahren hierzu betrachten etwa Beil et al.7.

Die manuelle Definition korrespondierender Punkte ist ebenfalls möglich und wird unter anderem von Wahl et al.100 verwendet. Dies erfordert allerdings einen geübten Bediener mit medizinischer Ausbildung. Zur geringen Genauigkeit und schlechten Reproduzierbarkeit kommt in diesem Fall somit noch ein gesteigerter Zeitaufwand.

Einfacher und schneller als anatomische Strukturen sind speziell gefertigte Markie- rungen zu detektieren, die vor der Bildgebung am Patienten befestigt werden. Solche “fiducial markers” können beispielsweise in den Schädel des Patienten implantiert werden (Maurer et al.61 ) und unterliegen dann im Gegensatz zu aufgeklebten Mar- kierungen insbesondere keinen Bewegungen durch die unvermeidliche Verformung der Haut. Zudem können sie so entworfen werden, daß sie sich - auch für unterschiedliche Modalitäten - in den Bilddaten vom Patienten deutlich abheben. Dies erlaubt eine effiziente und sehr exakte automatische Lagebestimmung (Wang et al.101 ).

Punktmengenbasierte Registrierung. Der Iterative Closest Point Algorithmus (ICP) nach Besl et al.8 registriert wahlweise Punktmengen, Oberflächenmodelle oder Konturen. Das Verfahren bestimmt hierzu zunächst für jeden Punkt des einen Datensatzes den nächstgelegenen Punkt im anderen. Anschließend wird die bisherige Transformation so modifiziert, daß der quadratische Abstand aller Punktepaare mi- nimiert wird. Dieser Vorgang wird - nach Neubestimmung der nun nächstliegenden Punkte - so lange wiederholt, bis keine wesentlichen Änderungen mehr erfolgen.

Declerck et al.15 und Feldman et al.22 verwenden einen auf affine Trans- formationen erweiterten ICP-Algorithmus für die Registrierung mittels anatomischer Landmarken. Tarel89 führt zusätzlich eine unscharfe Datenclusterung ein und er- weitert das Verfahren so für die Registrierung beliebigdimensionaler Bilddaten.

Oberflächenbasierte Registrierung. Eines der ersten automatischen Registrie- rungsverfahren überhaupt war das “Head-in-Hat”-Verfahren von Pelizzari et al.65. Der Name erklärt sich dadurch, daß während der Berechnung die aus CT und MRT stammenden Oberflächen eines Schädels sich wie Kopf und Hut ineinander bewegen.

In einer leicht modifizierten Anwendung des Verfahrens benutzen Hill und Hawkes33 zur Registrierung nicht zwei aus verschiedenen Datensätzen extrahierte Darstellungen derselben Objektoberfläche. Stattdessen greifen sie auf Oberflächen zurück, die anatomisch aneinandergrenzen wie etwa Dura und Schädelkalotte.

Hybridverfahren. In einer Erweiterung des ICP-Algorithmus kombinieren Maurer et al. [59, 63] Punktmengen mit Oberflächen und verwenden eine gewichtete Kombi- nation beider Kriterien. Hierdurch ergeben sich bessere Ergebnisse, das heißt exaktere Registrierungen, als bei Verwendung jedes einzelnen Kriteriums. Eine mögliche An- wendung für dieses Verfahren ist die intraoperative Registrierung von Daten und Patient. Die benötigten Oberflächendaten des realen Patienten können dabei durch Überstreichen des freigelegten Schädelknochens mit einem optisch verfolgten Kon- taktstift ermittelt werden.

2.1.2 Voxelbasierte Verfahren

Verfahren, welche die den Voxeln medizinischer Bilddaten zugeordneten Grauwerte verwenden, werden als voxelbasierte Registrierung bezeichnet. Derartige Methoden haben gegenüber den oben genannten Techniken den Vorteil, daß sie keinerlei (manuelle) Vorverarbeitung wie die Segmentierung der Oberflächen von anatomischen Objekten erfordern. Darüber hinaus erlaubt die räumlich dichte Anordnung der Voxel die Anwendung lokaler Deformationen (siehe Abschnitt 2.2).

Gemeinsame Basis aller voxelbasierten Registrierungsverfahren ist ein geeignetes Ä hnlichkeitsma ß (engl. “similarity measure”), häufig auch als Metrik bezeichnet. Es handelt sich dabei um eine Funktion, welche zwei Bildern den Grad ihrer Ähnlichkeit in Bezug auf eine bestimmte gegenseitige geometrische Beziehung zuordnet.

Einfache Beispiele für voxelbasierte Ähnlichkeitsmaße sind etwa Kreuzkorrelation und mittleres Abstandsquadrat. Diese sind allerdings nur dann sinnvoll einzusetzen, wenn die Grauwerte der zu registrierenden Modalitäten in enger funktionaler Bezie- hung zueinander stehen. Kreuzkorrelation erfordert speziell eine affine Abhängigkeit, während beim minimalen Abstandsquadrat sogar identische Grauwertbereiche not- wendig sind (vgl.73 ). Beides ist allerdings nur bei unimodaler Registrierung der Fall, also bei Registrierung von zwei Datensätzen desselben Bildgebungsverfahrens. Die möglichen Anwendungen beider Metriken sind dadurch entsprechend eingeschränkt.

Um dies zu umgehen, führen Van den Elsen et al.19 Grauwerttransformation auf den zu registrierenden Bilddaten durch. Diese Umwandlung soll speziell die Bil- dintensitäten einer CT auf die erwarteten Grauwerte einer MRT abbilden und damit die Anwendung der einfachen Kreuzkorrelation als Ähnlichkeitsmaß ermöglichen.

2.1.2.1 Merkmalsfilter

Als ein weiterer Ansatz, multimodale Registrierung mit den oben genannten unimodalen Ähnlichkeitsmaßen durchzuführen, werden gelegentlich auch Operatoren zur Merkmalsextraktion angewendet. Bei der Registrierung gleichen diese die unterschiedlichen Abbildungseigenschaften auf semantischer Ebene aus. Gewissermaßen werden beide Datensätze in eine zusätzliche, virtuelle Modalität überführt, in der beide dasselbe Aussehen besitzen. Die derart vorverarbeiteten Bilddaten können dann mit einfachen Korrelationsmaßen verglichen werden.

Maintz et al.57 testen zu diesem Zweck verschiedene sogenannte Ridge-Operato- ren1. Ähnlich wie Kantenoperatoren extrahieren diese Filter Bildbereiche mit verallgemeinerten Intensitätsmaxima. Für die Registrierung kommt anschließend eine Maximierung der Kreuzkorrelation der gefilterten Daten zum Einsatz.

Der Ansatz von Fritsch et al.29 verwendet stattdessen eine der Wavelet-Transfor- mation verwandte Bildvorverarbeitung. Die dazu eingeführten, “Core” genannten Strukturen beschreiben simultan die Lage, Form und Ausdehnung von Objekten (Pizer et al.67 ). Sie ähneln damit insbesondere einem als ”Skelett“bezeichneten Konzept der Bildverarbeitung (vgl. [[48], S.233 ff]). Die eigentliche Registrierung er- folgt durch gegenseitige Zuordnung dieser Objekte in mehreren Datensätzen (Fritsch et al. [[28]]).

2.1.2.2 Multimodale Metriken

Spezielle Metriken für multimodale Registrierung erfordern keine zusätzliche Vorverarbeitung der Bilddaten. Zwei von Woods et al. eingeführte derartige Ähnlichkeitsma- ße sind Regionen-Uniformität (engl. “region uniformity”) [[107],110 ] und Quotientenbild-Uniformität (engl. “ratio image uniformity”, RIU) [[108],109 ]. Beide basieren auf der Minimierung geeignet definierter Grauwertvarianzen. Sie finden hauptsächlich Verwendung in der Registrierung von PET und MRT (Alpert et al. [[1]]) sowie MRT und MRT (Freeborough et al. [[26]]).

Das ebenfalls weit verbreitete Ähnlichkeitsmaß Mutual Information baut auf dem Begriff der Entropie aus der Informationstheorie auf. Diese Metrik wurde unabhängig voneinander durch Viola97 und Maes et al. [14, 55] eingeführt. Hintergrund ist die Beobachtung, daß bei registrierten Bilddaten durch den zweiten Datensatz weniger Information zusätzlich zum ersten geliefert wird als bei unregistrierten Daten. Fort- geschrittene Möglichkeiten der konkreten Implementierung (Gradientenberechnung mit Partial-Volume-Integration) sowie verschiedene Optimierungsverfahren diskutie- ren Maes et al. in56.

Einen vollständigen Algorithmus zur Registrierung mit Mutual Information auf mehreren Auflösungsstufen (eine sogenannte Multiresolution-Strategie) beschreiben Studholme et al.87. Dieselbe Arbeitsgruppe führt zudem in88 eine weitere Metrik ein: Normalised Mutual Information ist, anders als Mutual Information, weitgehend unabhängig vom Grad der Überlappung der registrierten Datensätze. Es ist daher insbesondere bei stark unterschiedlichen Bildausschnitten (Field-of-View, FOV) zu- verlässiger.

Ein weiteres entropiebasiertes Ähnlichkeitsmaß verwenden Roche et al.74 unter dem Namen Correlation Ratio. Dieses soll Mutual Information hinsichtlich der erreichbaren Genauigkeit der Registrierung überlegen sein und weniger unerwünschte Nebenmaxima besitzen. Demonstriert wird dies allerdings lediglich anhand synthetischer und zudem völlig unrealistischer Beispieldaten.

2.2 Patientenmodelle und Transformationen

Die Einschränkung der zulässigen Koordinatentransformationen stellt während der Registrierung sicher, daß nur medizinisch sinnvolle Lösungen gefunden werden. Wären alle denkbaren Transformationen zugelassen, so ließe sich prinzipiell jeder beliebige Datensatz exakt in jeden anderen umwandeln. Diese sogenannte Interpolation wäre jedoch nur von geringem Nutzen, es sei denn, die Transformation selbst anstelle der transformierten Bilddaten wäre Gegenstand des Interesses.

Starre Transformationen stellen eine grundlegende und die am häufigsten eingesetzte Klasse von Registrierungen dar. Sie modellieren genau diejenigen Situationen, in denen dasselbe starre Objekt ohne Verformung in eine größentreue Abbildung überführt wird. Praktisch jedes existierende Registrierungsverfahren deckt dies als wesentlichsten Fall ab. Dasselbe gilt für affine Transformationen, die zusätzlich noch Skalierungen und Scherungen zulassen.

Sehr verschiedene Ansätze gibt es dagegen für deformierende Registrierung, die auch als nicht-lineare oder elastische Registrierung, lokale Deformation oder Warping bezeichnet wird. Das Ziel der Verwendung verformender Transformation in der Registrierung ist das Modellieren und Nachvollziehen von Verformungen des Patienten. Solche können etwa durch Atmung, Herzschlag und Organbewegungen, aber auch durch Tumorwachstum oder chirurgische Eingriffe verursacht werden.

Einen teilweisen Überblick über nicht-affine Registrierung geben Lester und Ar- ridge in50. Die Autoren beschränken sich dabei allerdings hinsichtlich von Beispiel- daten weitgehend auf die von ihnen favorisierten Fluid-Deformationen. Diese basieren auf den Navier-Stokes-Differentialgleichungen und werden beispielsweise von Christensen et al.13 auf anatomische Deformationen übertragen. Möglichkeiten einer effizienten Realisierung dieser Registrierung zeigen Bro-Nielsen et al.11.

Weite Verbreitung fanden zunächst auch die von Bookstein9 entwickelten ThinPlate-Splines. Diese beschreiben an sich die Biegung dünner Metallbleche bei Einwirken äußerer Kräfte. Darüber hinaus liefern sie aber eine stetige und sogar differenzierbare Interpolation mehrdimensionaler Funktionen zwischen beliebigen Stützstellen. Eigenschaften von Körpergewebe wie Elastizität oder Kompressibilität werden dabei allerdings nicht modelliert. Die Aussagen über interpolierte Deformationen von biologischen Objekten sind daher zweifelhaft.

Ähnliches gilt für die von Friston et al.27 verwendeten Basisfunktionen der diskreten Cosinus-Transformation (DCT). Es handelt sich dabei um skalierte und verschobene Cosinusfunktionen, aus denen sich nach dem Prinzip der Fourieranalyse beliebige Funktionen linear kombinieren lassen. Die gewünschten dreidimensionalen Deformationen entstehen als Tensorprodukte der eindimensionalen Basisfunktionen.

Woods et al. [107, 110] erweitern die lineare affine Registrierung um polynomiale Transformationen höherer Ordnung. Dies ist so zu verstehen, daß die Komponenten der Ortsvektoren durch Potenzbildung sowie Multiplikation miteinander und mit geeigneten Koeffizienten transformiert werden.

Lee et al. [46, 47] demonstrieren für verschiedene Anwendungen, darunter die Interpolation von Deformationen, den Gebrauch von hierarchischen B-Splines. Ge- genüber den zuvor genannten Transformationen besitzen die Basisfunktionen der De- formation hier den Vorteil eines kompakten Trägers. Es handelt sich daher bei ihnen um echt lokale Transformationen, und ihre Auswirkungen sind aus diesem Grund we- sentlich effizienter zu berechnen. Diese Transformationen werden beispielsweise von Rückert et al.84 in der kontrastmittelgestützten MR-Mammographie sowie von Hill et al.34 bzw. Maurer et al.62 zur Untersuchung intraoperativer Hirndeformation verwendet.

Der Ansatz von Little et al.54 sieht zusätzlich zu elastisch deformierten Bereichen auch starre Strukturen, beispielsweise Knochen, vor. Nach Segmentierung und separater Registrierung dieser starren Teilbereiche wird deren Umgebung stetig deformiert. Anwendung hat dies beispielsweise beim Ausgleich der relativen Bewegungen von Wirbelkörpern gefunden (Penney et al.66 ).

Edwards et al.18 definieren mit Blick auf die Situation im Schädelbereich drei verschiedene Arten von Materialeigenschaften: Starr (Knochen), flüssig (cerebrospinale Flüssigkeit, CSF) sowie elastisch (Hirngewebe). Motivation des Verfahrens ist der Wunsch, die Deformation des Gehirns während chirurgischer Eingriffe in Echtzeit zu modellieren. Aufgrund der aufwendigen Segmentierung und der großen Anforderungen an die verfügbare Rechenzeit beschränken sich die Autoren allerdings bislang auf zweidimensionale, also schichtbildweise Registrierung.

Weitere Transformationsmodelle verwenden Finite-Elemente-Techniken, etwa Gee et al.30. Auch hier werden jedem finiten Element Materialeigenschaften wie Elasti- zität etc. zugewiesen, wodurch seine Deformation kontrolliert wird. Zusätzlich zu den oben beschriebenen Ähnlichkeitsmaßen wird auch eine Komponente berücksichtigt, welche die Energie bzw. Verformung eines Gitters modelliert. Solche “priors” (vgl. Ashburner et al.3 ) sorgen grundsätzlich für die Erhaltung der Topologie, indem sie ein Umfalten des transformierten Gitters ”bestrafen“.

Eine zentrale Bedingung für die klinische Verwendung fusionierter Bilddaten ist die Sicherung der Genauigkeit der gefundenen Registrierung. Das gilt sowohl in der all- gemeinen radiologischen Diagnostik als auch und besonders in der bildgesteuerten Therapie.

Idealerweise sollte die Qualität einer durch ein automatisches Verfahren gefunde- nen Registrierung durch Vergleich mit der korrekten Transformation bestimmt wer- den. Dies ist für reale Patientendaten allerdings so gut wie nie möglich, denn wäre die korrekte Transformation bekannt, so müßte überhaupt nicht registriert werden. Es existieren jedoch verschiedene Verfahren zur näherungsweisen Bewertung der Regi- strierungsgenauigkeit auch ohne bekannte Referenztransformation. Zwei Aspekte sind hier von besonderem Interesse:

1. Genauigkeit (engl. “accuracy”): Dies ist die Fähigkeit eines Verfahrens, die kor- rekte Registrierungstransformation exakt zu bestimmen.

2. Stabilität (engl. “robustness”, “reliability”): Hiermit wird die Unempfindlichkeit eines Verfahrens gegenüber Ausgangsbedingungen bezeichnet. Dies können etwa Größe und Qualität der Bilddaten oder die anfängliche Abweichung von der korrekten Registrierung sein.

2.3.1 Synthetische Bilddaten

Eine Möglichkeit der Validierung multimodaler Registrierungsverfahren besteht in der Verwendung simulierter Bilddaten. Dabei wird, etwa durch Grauwerttransformationen, aus einem Bild einer Modalität ein simuliertes korrespondierendes Bild einer anderen Modalität berechnet. Auf dieses synthetische Bild wird dann eine beliebige aber bekannte Transformation angewendet. Anschließend wird es mit dem Ausgangsbild registriert. Die resultierende Transformation kann dann mit der bekannten Transformation verglichen werden.

Kiebel et al.43 verwenden beispielsweise simulierte PET-Daten, die aus MRTBildern berechnet werden. Mit deren Hilfe wird eine vergleichende Genauigkeitsbewertung zweier Softwarepakete durchgeführt (SPM27, siehe Abschnitt 2.5.3 und AIR110, Abschnitt 2.5.1).

Hierzu ist zweierlei zu bemerken: Zunächst ist grundsätzlich fraglich, inwieweit simulierte Bilddaten reale Modalitäten wiedergeben können. Wäre eine exakte Si- mulation etwa funktioneller Daten aus MRT möglich, so könnte letztlich auf die funktionelle Bildgebung verzichtet werden. Physikalische Effekte wie Rauschen und Partialvolumenartefakte müssen darüber hinaus ebenfalls berücksichtigt werden. Möglicherweise entscheidender ist zudem, daß auch Registrierungsverfahren selbst simulierte Bilddaten verwenden können. Das SPM-Paket nutzt beispielsweise simu-lierte PET-Bilder um MRT mit realen PET-Daten zu registrieren. Validiert man ein solches Verfahren ebenfalls mit Hilfe von - im Extremfall nach derselben Technik - simulierten Daten, so kann das Resultat davon nicht unbeeinflußt sein. Aus beiden genannten Gründen ist die Validierung mit künstlich erzeugten Daten eher kritisch zu sehen. Ihre Anwendung sollte auf Ausnahmefälle beschränkt sein, in denen keine andere Evaluierung der Registrierungsgenauigkeit möglich ist.

2.3.2 Konsistenz wiederholter Registrierung

Eine weitere Möglichkeit zur Bewertung eines Registrierungsverfahrens besteht in Konsistenzprüfung bei wiederholter Anwendung. Dazu werden dieselben Datensätze viele Male mit zufällig bestimmten Ausgangsparametern registriert. Die Streuung aller so erzielten Registrierungen wird dann als Indikator für die Stabilität der Registrierung verwendet41.

Diese Methode liefert jedoch keinerlei Anhaltspunkt über die tatsächlich erreichte Genauigkeit. Stattdessen wird analysiert, mit welcher Zuverlässigkeit das verwendete Optimierungsverfahren das Maximum der verwendeten Ähnlichkeitsfunktion findet. Inwieweit dieses Maximum einer brauchbaren Registrierung entspricht bleibt völlig unberücksichtigt. So spricht eine schlechte Konsistenz zwar zweifelsfrei für eine im mittel ungenaue Registrierung, eine hohe Konsistenz jedoch ist kein Indiz für eine hohe Genauigkeit.

Daher ist dieses Kriterium für die Validierung der Genauigkeit von Registrierungs- verfahren allein nur beschränkt aussagefähig. Grundsätzlich bedarf es vielmehr der Ergänzung durch zumindest ein weiteres Verfahren, welches zusätzlich zur Konsistenz die ”Korrektheit“dergefundenenTransformationensichert.

2.3.3 Konsistenz serieller Registrierung

Unter serieller Registrierung versteht man die Aufgabe, eine Kette von mehreren Datensätzen durch die jeweils geeigneten Transformationen zu verbinden. Für drei Datensätze A, B und C kann dies beispielsweise wie folgt aussehen:

Abbildung in dieser Leseprobe nicht enthalten

Nach Durchlaufen der kompletten Kette muß das Koordinatensystem von A wieder auf sich selbst abgebildet werden. Somit sollte im Idealfall die Verkettung aller Transformationen die Identitätstransformation Id ergeben:

Abbildung in dieser Leseprobe nicht enthalten

Tatsächlich jedoch wird sich eine gewisse Abweichung ergeben, die sogenannte Inkonsistenz der seriellen Registrierung. Integriert man das Quadrat dieser Abweichung für alle Vektoren eines Gebietes D, so ist der resultierende Wert gewissermaßen der quadratische Fehler E über dieses Gebiet:

Abbildung in dieser Leseprobe nicht enthalten

Diese Methode wird beispielsweise von Woods et al.108 verwendet, um das von ihnen entwickelte Registrierungsverfahren zu validieren.

Holden et al.36 vergleichen zusätzlich anhand der internen Konsistenz die Eig- nung verschiedener voxelbasierter Registrierungsverfahren. Die zugrundeliegende An- wendung ist die Überwachung von Hirnveränderungen unter Gabe von Wachstums- hormonen mittels serieller MRT. Hierbei ist von Vorteil, daß in dieser Situation sich in natürlicher Weise die für die Konsistenzprüfung benötigte Serie von MRT-Daten ergibt.

Ähnlich wie beim zuvor genannten Verfahren der Konsistenzprüfung bei wieder- holter Registrierung bedarf auch die serielle Registrierung einer zusätzlichen Validie- rung. Die serielle Konsistenz sichert nämlich ebensowenig wie die Konsistenz wie- derholter Registrierung die Korrektheit der gefundenen Transformationen. Sind alle Teiltransformationen beispielsweise selbst Identitätstransformationen, so ergibt sich die optimale Konsistenz E = 0, auch wenn die korrekten Transformationen völlig andere sind.

2.3.4 Stereotaktischer Gold-Standard

Das zuverlässigste Verfahren zur Registrierung medizinischer Bilddaten ist die prospektive Registrierung mit stereotaktischen Rahmen oder implantierbaren Knochenmarkern. Solche künstlichen Landmarken lassen sich etwa nach dem Verfahren von Wang et al.101 mit hoher Genauigkeit (Fehler kleiner als die Seitenlänge eines Voxels) automatisch detektieren.

Die Anwendung solcher Hilfsmittel ist für den Patienten allerdings sehr belastend, weswegen sie in der klinischen Praxis nach Möglichkeit vermieden wird. Mit ihrer Hilfe lassen sich jedoch außerordentlich exakte Referenztransformationen bestimmen, die dann als Vergleichsmaßstab für andere Registrierungsverfahren dienen können. Dies wird beispielsweise von Woods et al.110 oder Turkington et al.95 durchgeführt.

Zwar werden auch anatomische Landmarken zur Validierung herangezogen (z.B. Grachev et al.31 ); die mit ihrer Hilfe gefundenen Transformation unterliegen jedoch der zusätzlichen Unsicherheit der exakten Lokalisierung der Landmarken7.

Auf der stereotaktischen Registrierung basierend wurde schließlich von J. M. Fitzpatrick das “Retrospective Registration Evaluation Project” ( ”Vanderbilt-Projekt“) ins Leben gerufen. Mit dem Ziel, einen Überblick über die erreichbare Genauigkeit automatischer Registrierungsverfahren zu gewinnen, stellt dieses Projekt den zur Zeit einzigen allgemein verfügbaren Benchmark für die starre Registrierung dar.

Aus dem Schädelbereich von zunächst 9 Tumorpatienten wurden Daten einer Rei- he von Modalitäten (CT, PET, T 1-gewichtete MRT, T 2-gewichtete MRT, Protonen- dichte-MRT) generiert. Die MRT wurden dabei zusätzlich unter Anwendung einer Distorsionskorrektur auf Bildgebungsebene durchgeführt60, um Bildverzerrungen durch Inhomogenitäten des Scanner-Magnetfeldes zu minimieren. Später wurden noch Daten von 9 weiteren Tumorpatienten mit zusätzlichen hochauflösenden MRT in MP- RAGE-Technik hinzugefügt.

Bei allen Aufnahmen waren jeweils mit stereotaktischen Rahmen und implan- tierten Knochenmarkern61 automatisch detektierbare Landmarken am Patienten fixiert. Rahmen und Landmarken wurden dann manuell aus den Bilddaten entfernt, um eine echt retrospektive Registrierung durch die validierten Verfahren zu erzwin- gen.

Das resultierende Bildmaterial steht nun interessierten Arbeitsgruppen für die Anwendung ihrer jeweiligen Registrierungsalgorithmen zur Verfügung. Die von den Projektteilnehmern zurückgemeldeten Transformationsresultate werden mit den mittels stereotaktischer Rahmen ermittelten Transformationen verglichen. Hierzu werden die Abweichungen beider Registrierungen für jedes Modalitätenpaar innerhalb von zehn Volumes-of-Interest (VOIs) berechnet.

Die Resultate der ursprünglichen Teilnehmer der Studie sind in103 und104 veröffentlicht. Diese sowie später hinzugekommene Ergebnisse sind darüber hinaus auf der Website des Projekts unter http://cswww.vuse.vanderbilt.edu/~jayw/ results.html elektronisch verfügbar. Auch die Resultate unserer Arbeitsgruppe unter Verwendung der in dieser Dissertation beschriebenen Verfahren können unter der oben angegebenen Adresse abgerufen werden. Zudem sind sie in Anhang A der vorliegenden Arbeit noch einmal zusammengefaßt dargestellt.

Als eine wesentliche Schlußfolgerung aus dem Vanderbilt-Projekt ergibt sich eine Überlegenheit voxelbasierter im Vergleich zu oberflächenbasierten Registrierungsverfahren105. Diese Überlegenheit ist besonders deutlich für CT-MRT-Registrierung und zumindest erkennbar für die PET-MRT-Registrierung. Bereits die ursprüngliche Veröffentlichung der Vanderbilt-Studie104 hat gezeigt, daß speziell die auf Mutual Information basierenden Verfahren den übrigen Algorithmen teilweise deutlich überlegen sind. Lediglich Quotientenbild-Uniformität nach Woods et al.108 kann im Bereich PET-MRT-Registrierung bessere Ergebnisse erzielen.

2.4 Bildfusion

Im Unterschied zur Registrierung befaßt sich die Bildfusion mit der gemeinsamen Visualisierung zuvor registrierter Daten. Hierzu sind bisher allerdings nur eine geringe Anzahl von Arbeiten erschienen. Diese behandeln das Thema zudem lediglich am Rande und bei speziellen Anwendungen.

Eine für die vorliegende Arbeit in diesem Zusammenhang bedeutende Quelle sind Hill et al.35. Die Autoren demonstrieren die Anwendung einer schwellenwertbasier-ten Überlagerung von CT- und MRT-Daten beim Akustikusneurinom, einem Tumor des Hörnervs. In einer Erweiterung der genannten Arbeit befassen sich Wong et al.106 mit der Bildfusion von CT und MRT sowie CT und PET. Der Schwerpunkt liegt dabei weiterhin auf Erkrankungen im Kopf- und Halsbereich.

Wahl et al.100 betrachten ebenfalls die Fusion von PET und anatomischen Bilddaten. Sie verwenden dazu PET-Information, welche mittels einer Regenbogen- tabelle farbkodiert und dann der üblichen Graustufendarstellung anatomischer Daten überlagert wird. Viergever et al.96 erweitern dies nach einem Vergleich verschiede- ner Registrierungsverfahren um mehrere Techniken zur zwei- und dreidimensionalen Bildfusion.

2.5 Software-Pakete

2.5.1 AIR

Die größte Verbreitung besitzt derzeit wohl das AIR-Paket (Automated Image Regi- stration, aktuelle Version 3.08) von R. Woods107. Es ist in Form von C-Quelltextda- teien verfügbar und läßt sich somit auf einer Vielzahl von Rechnerplattformen über- setzen.

Das System unterstützt affine sowie nicht-lineare Registrierung und Reformatie- rung. Für die Registrierung wird mittels eines modifizierten Newton-Verfahrens eines der Ähnlichkeitsmaße Regionen-Uniformität110 oder Quotientenbild-Uniformität 108 optimiert.

Die Registrierung von MRT und PET erfolgt sehr zuverlässig und mit hoher Ge- nauigkeit, erfordert jedoch eine Segmentierung der Bilddaten. Registrierung von se- riellen MRT-Daten26 ist eine weitere ausdrücklich unterstützte Anwendung. Aller- dings sind andere Verfahren hier deutlich überlegen36 und kommen zudem ohne Segmentierung aus.

Bilddaten können im Analyze-Dateiformat (Biomedical Imaging Ressource, Mayo- Foundation, Rochester, MN, USA, http://www.mayo.edu/bir/analyze/ANALYZE_ Main.html) importiert und geschrieben werden. Registrierungstransformationen werden in einem proprietären Binärformat gespeichert. Der Datenaustausch mit anderen Systemen ist daher nur mit Einschränkungen möglich.

2.5.2 UMDS Geomcal / Rview

Die Pakete Geomcal (Registrierung) und Rview (Bildbetrachter) wurden von C. Stud- holme am Guy’s Hospital in London entwickelt86. Beide stehen als Binärdistribution ausschließlich für SUN Solaris in der mittlerweile veralteten Version 2.5 zur Verfügung. Zur Registrierung (starr oder affin) verwendet das Paket eine Multiresolution-Such- strategie87 zur Optimierung von Normalised Mutual Information88.

Für den Import und Export von Bilddaten stehen verschiedene wissenschaftliche Dateiformate zur Verfügung. Direkte Ein- oder Ausgabe spezieller medizinischer Bildformate (DICOM oder ACR-NEMA) wird nicht unterstützt. Das Paket wird zudem nicht kontinuierlich weiterentwickelt.

2.5.3 SPM

Das SPM-Paket (Statistical Parametric Mapping) von K. Friston27 ist besonders im Bereich der Neurologie verbreitet. Seine Hauptanwendungsgebiete sind die Registrierung und Fusion funktioneller (PET, SPECT) und anatomischer Bilddaten (MRT) sowie die Erzeugung funktioneller MRT.

Das System basiert auf Matlab (The MathWorks, Natick, MA, USA) mit einigen in Standard-C implementierten Erweiterungen. Es ist somit auf allen Plattformen einsetzbar, die auch von Matlab unterstützt werden. Allerdings ist die Software folglich nicht vollständig frei sondern erfordert zwingend den kommerziellen Unterbau. Als einziges Bildformat wird das Analyze-Dateiformat unterstützt.

Die Registrierung erfolgt voxelbasiert, wobei durch spezielle Bildtransformationen das Registrierungsproblem auf das Lösen eines umfangreichen linearen Gleichungssystems reduziert wird. Unterstützt werden affine Transformationen sowie lokale Deformationen. Letztere werden durch Linearkombination der Basisfunktionen der diskreten Cosinus-Transformation (DCT) dargestellt.

2.6 Positionierung dieser Arbeit

Algorithmen für die starre und affine Registrierung multimodaler Bilddaten sind bereits allgemein verfügbar. Geschwindigkeit und Zuverlässigkeit sind allerdings noch zu verbessern. Dasselbe gilt für die Entwicklung nicht-affiner, also lokal-elastischer Registrierungsverfahren.

Die Anwendung von Registrierung und Bildfusion ist bisher nur mit Spezialwissen möglich. Verfügbare Programmpakete müssen teilweise erst übersetzt werden. Die meisten stellen ihre Funktionen lediglich per Kommandozeile zur Verfügung. Selbst Pakete mit graphischer Benutzeroberfläche (SPM) sind häufig nur schwer zu bedienen und somit nicht routinefähig.

Darüberhinaus ist keines der existierenden Registrierungs- und Fusionspakete in der Lage, Bilddateien im Standardformat DICOM zu lesen oder gar zu exportieren. Gerade dies allerdings ist eine wesentliche Voraussetzung für die weitere Verwendung fusionierter Daten in bildgesteuerten Therapiegeräten.

Diese Arbeit beschreibt die Entwicklung und Realisierung eines Systems zur au- tomatischen Registrierung und Bildfusion. Die verwendeten Algorithmen werden de- tailliert beschrieben. Besonderes Augenmerk gilt dabei Verbesserungen existierender Verfahren hinsichtlich Effizienz und Genauigkeit der Registrierung. Speziell die Ge- nauigkeit wurde durch Teilnahme an der Vanderbilt-Studie unter Beweis gestellt.

Die resultierende Software stellt sämtliche Funktionen für automatische Regi- strierung und Fusion unter einer intuitiven graphischen Benutzerschnittstelle zur Verfügung. Bisher mehr als 18-monatige tägliche klinische Verwendung des Systems durch Mediziner, MTAs und Studenten demonstrieren klar seine Routinefähigkeit.

Durch konsequente Trennung von Algorithmen und Schnittstellen steht darüberhinaus die gesamte Registrierung als optimierte, in C++ implementierte Klassenbibliothek zur Verfügung. Mit deren Hilfe konnten ohne nennenswerten zusätzlichen Entwicklungsaufwand Kommandozeilenprogramme implementiert werden, die einen automatisierten Stapelbetrieb erlauben. Weiterhin konnte die Registrierung in ein am Konrad-Zuse-Zentrum für Informationstechnik in Berlin entwickeltes System zur Hyperthermieplanung (HyperPlan) integriert werden.

Als klinisch entscheidenden Unterschied zu allen verfügbaren Systemen zur Bildfusion ist die hier beschriebene Software in der Lage, Bilddaten in den Dateiformaten DICOM und ACR-NEMA zu lesen und zu exportieren. So ist es möglich, fusionierte Schichtbilder insbesondere in Therapiegeräte zu importieren. In zwei Anwendungsgebieten, der navigierten Neurochirurgie und der Strahlentherapieplanung, wurde somit die routinemäßige Verwendung der Bildfusion ermöglicht.

Auch scheinbar unwesentliche Details der Implementierung sind in diesem Zusammenhang von Bedeutung und heben die vorliegende Arbeit von existierenden Systemen ab. So ermöglicht beispielsweise erst ein neuentwickeltes Verfahren zum schnellen Zugriff auf Voxel in nicht-äquidistanten Gittern (Anhang C.2) die direkte Registrierung von CT-Daten mit nicht-konstantem Schichtabstand. Entsprechendes gilt für die Berücksichtigung der nicht zuletzt aus Strahlenschutzgründen wichtigen Gantry-Neigung bei CT-Scannern (siehe Abschnitt 3.3.5).

Kapitel 3 Bilder, Koordinaten und Transformationen

Dieses Kapitel führt die wesentlichen nachfolgend verwendeten Grundlagen der Bild- verarbeitung ein. Besonderer Wert wird dabei auf die speziellen Anforderungen der medizinischen Bildverarbeitung und insbesondere der Registrierung gelegt. So wird hier beispielsweise erstmals detailliert auf die Behandlung der Gantry-Neigung bei CT-Scannern eingegangen. Im Zusammenhang mit lokalen Deformationen werden darüber hinaus einige praktische Fragestellungen geklärt, wie die Vermeidung von Rückwärtstransformationen sowie die effiziente Einbeziehung affiner Vorregistrierun- gen.

3.1 Begriffe

Bekanntermaßen besteht ein Bild im Sinne der digitalen Bildverarbeitung aus einzel- nen Bildelementen, den sogenannten Pixeln (engl. “picture elements”). Aus Gründen der Universalität verwendet man in der Praxis den Begriff ”Bild“gleichermaßenfür zweidimensionale wie auch für drei- oder mehrdimensionale Anordnungen solcher Ele- mente. Auch für höhere Dimensionen werden diese daher konsequenterweise als Pixel bezeichnet. Insbesondere im Zusammenhang mit räumlichen, also dreidimensionalen Bildern wird allerdings häufig auch von Volumenelementen oder Voxeln (engl. volume elements) gesprochen.

In beiden Fällen ist jedem Pixel (oder Voxel) ein diskreter Wert aus einem festen Bereich zwischen einer unteren Grenze g min und einer oberen Grenze g max zugeordnet. Im allgemeinen können jedem Pixel auch mehrere Werte zugeordnet sein, etwa bei Farbbildern die Komponenten für Rot, Grün und Blau. Im Rahmen dieser Arbeit sind jedoch nur Grauwertbilder von Interesse. Besitzt ein solches Bild speziell nx × ny × nz Voxel, kann man es als einfache Funktion der folgenden Form schreiben:

Abbildung in dieser Leseprobe nicht enthalten

Eine Besonderheit, welche die meisten medizinischen Bilddaten etwa von Fotographien unterscheidet, liegt in der Existenz einer Beziehung zwischen der Anordnung ihrer Voxel und sogenannten Weltkoordinaten:

Abbildung in dieser Leseprobe nicht enthalten

Dies bedeutet, daß jedem Voxel eines medizinischen Bildes ein Ort (d.h. eine Koordinate) im realen physikalischen Raum entspricht. Das gilt zumindest für die im Rahmen der vorliegenden Arbeit betrachteten tomographischen Bildgebungsverfahren sowie bei der dreidimensionalen Ultraschallbildgebung.

3.2 Transformationen

Eine Koordinatentransformation (kurz: Transformation) bildet jeden Ort im Raum der Weltkoordinaten auf einen Ort im selben Raum ab. Sie ist im Fall der Registrierung dreidimensionaler Bilddaten also eine Abbildung des R3 in sich selbst. Eine gültige Registrierungstransformation muß aus anatomischen Gründen zudem invertierbar sein und die Topologie des Koordinatenraums erhalten.

Die Darstellung der Transformationen einer konkreten Klasse Θ erfolgt zweckmäßigerweise über eine Parametrisierung durch einen Vektor reeller Parameter:

Abbildung in dieser Leseprobe nicht enthalten

Hierbei ist N die Zahl der Freiheitsgrade der Transformationsklasse Θ. Im folgenden werden die Vektoren p als die Parameterdarstellung der jeweiligen Transformation be- zeichnet. Komplementär dazu kann es je nach Transformationsklasse andere, implizite Darstellungen geben, etwa in Form einer Matrix für affine Transformationen.

3.3 Starre und affine Transformationen

Eine einfache, zugleich aber außerordentlich wichtige Klasse von Koordinatentransformationen sind die sogenannten Starre-Körper-Transformationen, auch starre oder rigide Transformationen (engl. “rigid transformations”) genannt. Diese Klasse umfaßt genau diejenigen Bewegungen im Raum, die ein starrer, also nicht verformbarer Körper auszuführen imstande ist.

Die große Bedeutung starrer Transformationen bei der Registrierung medizini- scher Daten begründet sich dadurch, daß die meisten bildgebenden Geräte kalibrierte Bilddaten liefern. Durch die Kalibrierung sind die genauen Abstände zwischen den einzelnen Bildpunkten nicht nur relativ zueinander, sondern auch als absolute Wer- te, etwa in mm, bekannt. Solche Bilder verhalten sich daher bei der Registrierung tatsächlich wie starre Körper, sofern das abgebildete Objekt ebenfalls starr ist.

3.3.1 Parameterdarstellungen und Anzahl der Freiheitsgrade

Eine dreidimensionale starre Transformation besitzt neben drei Freiheitsgraden tx, ty und tz für Translationen in Richtung der Koordinaten x, y und z noch drei Freiheitsgrade α, β und γ für Rotationen um die Koordinatenachsen.

Eine Obermenge der starren bilden die affinen Transformationen. Diese sind allgemein definiert als diejenigen Transformationen, welche die Parallelität von Geraden erhalten. Zusätzlich zu Translationen und Rotationen besitzen affine Transformationen je weitere drei Freiheitsgrade für Skalierungen und Scherungen. Zusammen mit den oben genannten Translations- und Rotationsparametern bilden diese Freiheitsgrade die Parameterdarstellung affiner Transformationen.

Die Klasse der affinen Transformationen besitzt mehrere Unterklassen, die unter Komposition und Invertierung abgeschlossen sind. Speziell handelt es sich bei diesen aufgrund der Gruppeneigenschaft der affinen Transformationen sogar um Untergruppen. Unter ihnen sind insbesondere folgende von praktischer Bedeutung:

1. Translationen T,
2. rigide Transformationen R,
3. rigide Transformationen mit globaler Skalierung S,
4. rigide Transformationen mit komponentenweiser Skalierung S ′,
5. allgemeine affine Transformationen A.

In dieser Reihenfolge bilden sie eine aufsteigende Untergruppenkette

T < R < S < S ′ < A. (3.4)

Eine ähnliche Hierarchie gilt auch für die Parameterdarstellung. Ordnet man die einzelnen Parameter der allgemeinen affinen Transformation als Vektor

Abbildung in dieser Leseprobe nicht enthalten

so parametrisieren Präfixvektoren verschiedener Länge verschiedene Untergruppen der affinen Transformationen. Die Festlegung, wieviele der führenden Koeffizienten Freiheitsgrade und wieviele Konstanten darstellen, erlaubt die Auswahl der jeweils gewünschten Klasse. Die Korrespondenz ist wie folgt:

Abbildung in dieser Leseprobe nicht enthalten

Es ist hierbei zu beachten, daß die obige Darstellung für die Skalierungskoeffizienten von der Standardinterpretation dieser Parameter abweicht. Üblicherweise werden komponentenweise Skalierungen nicht als globaler Faktor c und Aspektfaktoren cx und cy parametrisiert.

Wählt man jedoch vollständig unabhängige Skalierungen cx, cy und cz, so repräsen- tiert keiner dieser Faktoren eine globale Skalierung. In der Vektordarstellung (3.5) wechselt die Komponente mit Index 6 also ihre Bedeutung je nachdem, ob die Anzahl der Freiheitsgrade 7 (globale Skalierung) oder 9 bzw. 12 (Skalierung in x -Richtung) beträgt.

3.3.2 Matrixdarstellung

Die effizienteste Art der Berechnung affin transformierter Vektoren ist die Multipli- kation mit einer Transformationsmatrix. Wie in der Computergraphik üblich [24, 94], werden die Vektoren dabei geschickterweise mittels homogener Koordinaten beschrie- ben. Dazu wird jedem 3D-Koordinatenvektor eine zusätzliche vierte Komponente W

hinzugefügt: ( ) ( )

Abbildung in dieser Leseprobe nicht enthalten

Weiterhin wird definiert, daß zwei Vektoren genau dann denselben Punkt im Raum bezeichnen, wenn sie Vielfache voneinander sind. Es gilt somit die Äquivalenz

Abbildung in dieser Leseprobe nicht enthalten

Aus Gründen der Übersichtlichkeit werden alle auftretenden Vektoren zumeist auf W = 1 normiert. Die Transformation selbst kann dann als (Rechts-)Multiplikation eines homogenen Koordinatenvektors x mit einer 4 × 4 Matrix geschrieben werden:

Abbildung in dieser Leseprobe nicht enthalten

Im Folgenden wird diese Matrixdarstellung einer affinen Transformation mit A be-

zeichnet werden. Ihre Koeffizienten aij beschreiben die Rotations-, Skalierungs- und

Scherungskomponenten. Die Translationskomponente wird durch den Vektor [Abbildung in dieser Leseprobe nicht enthalten] definiert. Die Konstante 1 an der Position1 (3 , 3) dient lediglich der Er- haltung der Homogenität der transformierten Vektoren.

3.3.3 Dekomposition der Transformationsmatrix

Gelegentlich ist es wünschenswert, aus einer gegebenen affinen Transformationsma- trix die Parameterdarstellung zurückzugewinnen. Beispielsweise erfolgt die Invertie- rung einer affinen Transformation üblicherweise als Matrixinversion der zugehörigen

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3.1: Invarianten unter affinen Teiltransformationen.

Transformationsmatrix. Ähnliches gilt für die Verkettung zweier affiner Transforma- tionen, die durch eine Matrixmultiplikation erreicht werden kann. In beiden Fällen ist anschließend die resultierende inverse bzw. durch Multiplika- tion erhaltene Matrix wieder in eine äquivalente Parameterdarstellung umzuwandeln. Diese Dekomposition kann wie folgt vorgenommen werden: Sei zunächst eine homo- gene affine Transformationsmatrix A gegeben. Diese soll geschrieben werden als

Abbildung in dieser Leseprobe nicht enthalten

wobei X eine Translationsmatrix, R eine Rotation, S eine Skalierung und Q eine Scherung bezeichnet. Aus diesen elementaren Transformationsmatrizen können die zugrundeliegenden Parameter dann leicht zurückgewonnen werden. Die Zerlegung von A in Q, S, R und X ist anhand der Invarianten in Tabelle 3.1 wie folgt durchzuführen:

1. Bestimme Q aus den Winkelveränderungen.

2. Bestimme aus Q 1 A die Skalierungsfaktoren anhand der Längenveränderungen.

3. Bestimme aus S 1 Q 1 A die Rotationswinkel anhand der Richtungsveränderun- gen.

4. Dann ist X = R 1 S 1 Q 1 A eine reine Translation.

Scherungen. Die allgemeine Form einer xy -Scherungsmatrix ist

Abbildung in dieser Leseprobe nicht enthalten

Die übrigen elementaren Scherungsmatrizen Q yz, Q zx können durch Koeffizienten q = 0 an den entsprechenden Positionen der Nebendiagonalen gebildet werden. Explizite Scherungen Q yx, Q zy und Q xz werden nicht benötigt, da sich diese durch die komplementäre Scherung, eine Rotation um die verbleibende Koordinatenachse

sowie eine Skalierung ausdrücken lassen. Speziell ist etwa Q yx (q) zu schreiben als

Abbildung in dieser Leseprobe nicht enthalten

Die inverse Matrix zu Q xy ist ebenfalls eine Scherung, und zwar wie sich leicht über-

prüfen läßt

Abbildung in dieser Leseprobe nicht enthalten

Die Bestimmung von qxy aus A basiert auf der Beobachtung, daß alle affinen Transformationskomponenten mit Ausnahme von Q xy die Orthogonalität der Einheitsvektoren e x und e y erhalten. Somit gilt

Abbildung in dieser Leseprobe nicht enthalten

Mit den Bezeichnungen aus (3.8) für die Koeffizienten von A folgt hieraus

Abbildung in dieser Leseprobe nicht enthalten

mit den Zeilenvektoren a0 und a1. Analog können sukzessive die Koeffizienten qyz und qzx bestimmt werden. Zu beachten ist, daß die elementaren Scherungen nicht kommutieren. Die vorstehende Gleichung gilt daher nur, wenn Q xy die zuletzt angewandte Scherung ist. Es gilt insbesondere

Abbildung in dieser Leseprobe nicht enthalten

Die Dekomposition der Scherungen muß deshalb in der Reihenfolge ihrer Anwendung auf die zu transformierenden Vektoren erfolgen.

Skalierungen. Komponentenweise Skalierung in x -, y - und z -Richtung entspricht einer Multiplikation mit folgender Matrix:

Abbildung in dieser Leseprobe nicht enthalten

Die inverse Matrix zu S ist die Skalierungsmatrix mit den inversen Skalierungsfakto-

Abbildung in dieser Leseprobe nicht enthalten

Rotation und Translation. Die verbleibende Matrix ist das Produkt RX von

Rotation und Translation und hat die Form

Abbildung in dieser Leseprobe nicht enthalten

wobei M eine reine Rotation bezeichnet. Die Rotationswinkel lassen sich hieraus durch trigonometrische Umformungen berechnen. Abschließend ist t = tx ty tz der Translationsvektor der ursprünglichen Transformation.

3.3.4 Wahl des Transformationszentrums

Rotation, Skalierung und Scherung erfolgen immer relativ zu einem festen Bezugspunkt. Dieser ist identisch mit dem Fixpunkt der affinen Transformation ohne Translation. Aufgrund der Linearität der Matrixmultiplikation ist dies zwangsläufig der Ursprung (0 , 0 , 0) des Koordinatensystems.

Aus praktischen Erwägungen ist es allerdings häufig wünschenswert, stattdessen einen anderen Punkt im Raum zu verwenden. Beispielsweise ist es vorteilhaft, zu registrierende Objekte relativ zu ihrem ”Mittelpunkt“zutransformieren.Diesgiltsowohl

für die manuelle Registrierung, als auch für die meisten automatischen Verfahren.

Die Translationskomponente einer allgemeinen affinen Transformation ist von diesen Überlegungen nicht betroffen, denn sie besitzt im allgemeinen keinen Fixpunkt. Aus diesem Grund ist die einheitliche Betrachtung mittels homogener Koordinaten in diesem Kontext ungeeignet.

Stattdessen sei die Transformation nun durch eine Transformationsmatrix M der Größe3 × 3 und einen gesonderten Translationsvektor t beschrieben:

Abbildung in dieser Leseprobe nicht enthalten

Soll ein beliebiger Ortsvektor c Fixpunkt der Transformation sein, so kann dies wie folgt erreicht werden: Zunächst wird durch eine Translation c der gewünschte Fix- punkt in den Ursprung verschoben. Anschließend erfolgt Transformation mit M, ge- folgt von einer Rückverschiebung um c und der eigentlichen Translation t. Somit ergibt sich

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.1: Gantry-Neigung bei CT-Scannern (Neigungswinkel α).

Von besonderer praktischer Bedeutung ist der Übergang von einer Transformation mit Fixpunkt c0 zu einer ä quivalenten Transformation mit Fixpunkt c1. Dazu muß für alle zu transformierenden Vektoren x die Bedingung

Abbildung in dieser Leseprobe nicht enthalten

3.3.5 Scherungen und Gantry-Neigung

Computertomographen (CT-Scanner) erlauben das Kippen der gesamten Meßeinrich- tung aus Röntgenquellen und Detektoren (Gantry). Diese in Abbildung 3.1 dargestell- te sogenannte Gantry-Neigung (engl. “gantry tilt”) kann je nach Scannertyp bis etwa 30 Grad betragen.

Zusammen mit dem Tischvorschub in Richtung der z -Koordinate wird aus der ursprünglich rechtwinkligen Anordnung der axialen Bilddaten (Abb. 3.2a) eine nicht- orthogonale Anordnung (Abb. 3.2b). Dies ist ein fundamentaler Unterschied beispiels- weise zur Akquisition nicht-axialer MRT-Daten (Abb. 3.2c), bei denen der gesamte Datenquader einschließlich der z -Achse gekippt wird. In sich bleibt das Koordinaten- system der Bilddaten dabei - anders als bei der CT - jedoch rechtwinklig.

[...]


1“Ridge” = ”Grat“bezeichneteinverallgemeinertesMaximumeinermehrdimensionalenFunktion ähnlich einem Bergrücken.

1 Die Indizierung von Matrixeinträgen beginnt mit (0 , 0) in der oberen linken Ecke.

Ende der Leseprobe aus 202 Seiten

Details

Titel
Multimodale Datenfusion fuer die bildgesteuerte Neurochirurgie und Strahlentherapie
Hochschule
Technische Universität Berlin  (Computergraphik)
Note
sehr gut
Autor
Jahr
2000
Seiten
202
Katalognummer
V17961
ISBN (eBook)
9783638223973
Dateigröße
2847 KB
Sprache
Deutsch
Anmerkungen
Die Arbeit gibt einen Ueberblick ueber gaengige Verfahren zur Registrierung und Fusion dreidimensionaler medizinischer Bilddatensaetze. Klinische Anwendungen sowie ein integriertes Softwarepaket werden vorgestellt.
Schlagworte
Multimodale, Datenfusion, Neurochirurgie, Strahlentherapie
Arbeit zitieren
Dr.-Ing. Torsten Rohlfing (Autor:in), 2000, Multimodale Datenfusion fuer die bildgesteuerte Neurochirurgie und Strahlentherapie, München, GRIN Verlag, https://www.grin.com/document/17961

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Multimodale Datenfusion fuer die bildgesteuerte Neurochirurgie und Strahlentherapie



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden