Ziel dieser Arbeit ist, ein Verfahren zur künstlichen Sensorauflösungsverbesserung vorzustellen. Zur Veranschaulichung wird dazu die Anwendung eines solchen Verfahrens im Rahmen der Röntgen-Computertomographie dargestellt.
Die Röntgen-Computertomographie als bildgebendes Verfahren hat unter anderem durch den erfolgreichen Einsatz in der Medizin, aber auch in der industriellen Messtechnik eine sehr große Verbreitung gefunden. Dabei ist oft eine Erhöhung der erreichbaren Auflösung erwünscht, um präzisere Aussagen über das untersuchte Objekt treffen zu können.
Häufig gestellte Fragen zu "Künstliche Sensorauflösungsverbesserung in der Röntgen-Computertomographie"
Was ist der Gegenstand dieser Arbeit?
Diese Arbeit präsentiert ein Verfahren zur künstlichen Sensorauflösungsverbesserung, konkret dessen Anwendung in der Röntgen-Computertomographie (XCT). Sie beschreibt das Prinzip der XCT, den Rigorous Geometric Algorithm (RG-Algorithmus) zur Auflösungsverbesserung und deren Kombination, inklusive Limitationen.
Was ist Röntgen-Computertomographie (XCT)?
XCT ist ein bildgebendes Verfahren, das die Abschwächung von Röntgenstrahlen durch ein Objekt nutzt, um dessen innere Struktur dreidimensional zu rekonstruieren. Im Gegensatz zu herkömmlichen Röntgenbildern liefert XCT Tiefeninformationen und ermöglicht die Erstellung von Schnittbildern oder 3D-Modellen.
Wie funktioniert der RG-Algorithmus?
Der RG-Algorithmus verbessert die Auflösung von Bildern, indem er mehrere leicht gegeneinander verschobene Aufnahmen desselben Objekts kombiniert. Er nutzt geometrische Beziehungen zwischen den Pixelgittern der Einzelbilder und dem höher auflösenden Zielbild, um ein überbestimmtes Gleichungssystem zu lösen und so ein optimiertes Ergebnis zu erhalten. Die Methode beruht auf dem Prinzip des Upsamplings, also der Erhöhung der Abtastrate.
Wie wird der RG-Algorithmus in der XCT eingesetzt?
In der XCT wird der RG-Algorithmus angewendet, indem man aus jedem Blickwinkel mehrere leicht verschobene Aufnahmen mit einem Zeilendetektor (oder durch entsprechende Modifikation eines Flächendetekors) macht. Die Einzelaufnahmen werden dann mit dem Algorithmus zu höher auflösenden Bildern kombiniert, was zu einer verbesserten Rekonstruktion der Schnittebene führt.
Welche Limitationen hat der RG-Algorithmus?
Der Algorithmus hat eine theoretische Grenze der Auflösungsverbesserung (maximal Faktor kleiner 2). Er ist sensibel gegenüber Rauschen in den Eingangsdaten und Fehlern in der Bestimmung der Verschiebungen zwischen den Einzelbildern. Die erhöhte Anzahl an Aufnahmen führt zu einer längeren Scan-Dauer, was in der Medizin (höhere Strahlenbelastung) und Industrie (Zeitfaktor) nachteilig sein kann.
Welche Vorteile bietet die Kombination aus XCT und RG-Algorithmus?
Die Kombination ermöglicht eine Erhöhung der Bildauflösung in der XCT ohne die Anschaffung eines neuen, teureren Detektors. Die Verwendung von XY-Tischen für die präzise Verschiebung des Detektors ist kostengünstiger als ein neuer Detektor.
Für welche Anwendungsgebiete ist die beschriebene Methode besonders relevant?
Die Methode ist besonders relevant in den Natur- und Ingenieurwissenschaften, wo die erhöhte Scan-Dauer weniger problematisch ist als in der Medizin oder Industrie. In diesen Bereichen überwiegen oft die Vorteile der erhöhten Bildauflösung die Nachteile der längeren Messzeit.
Welche weiteren Verbesserungen des RG-Algorithmus sind denkbar?
Zukünftige Verbesserungen könnten die Abschwächung der Anforderungen an die Einzelbilder (z.B. Berücksichtigung von Rotationen oder Bewegtbildern) und die Reduzierung der Sensitivität gegenüber Fehlern in den Daten durch Regularisierungsmethoden umfassen.
Inhaltsverzeichnis
1 Einleitung
2 Hauptteil
2.1 Röontgen-Computertomographie
2.1.1 Prinzip
2.1.2 Technischer Aufbau
2.1.3 Röontgenstrahlen in Materie
2.1.4 Rekonstruktion
2.2 Kuönstliche Sensoraufloösungsverbesserung
2.2.1 Abtasten
2.2.2 RigorousGeometricAlgorithm
2.2.3 Experimentelle Ergebnisse
2.3 Kombination
2.3.1 RG-Algorithmus und Zeilendetektor-XCT
2.3.2 Limitationen des Algorithmus
3 Zusammenfassung und Ausblick
Literaturverzeichnis
Abbildungsverzeichnis
2.1 Bildgebende Verfahren
2.2 Schematischer Aufbau eines XCT-Geröats (Carmignato et al. 2)
2.3 Abschwaöchung der Roöntgenstrahlen in homogenem (links) und inhomogenem Material (rechts) (Carmignato et al. 2)
2.4 Durchleuchtung eines quadratischen Objekts aus zwei Winkeln mit einem Föacherstrahl (Boyd & Vandenberghe 1)
2.5 Sampling der eindimensionalen Funktion f (x)(Luong7)
2.6 Erhoöhen der Abtastrate durch mehrere leicht verschobene Aufnahmen (Luong 7)
2.7 Pixelgitter der Einzelbilder und des gesuchten hoöher aufloösenden Bildes uöbereinander gelegt (Fryer & Mclntosh 3, modifiziert)
2.8 oben: Vier leicht verschobene Testbilder, unten links: Ergebnis des Algorithmus, unten rechts: Ergebnis einer einfachen Durchschnittsbildung (Fryer & Mclntosh 3)
1. Einleitung
Die vorliegende Arbeit ist im Rahmen des SimTech-Seminar (B.Sc.) entstanden und ergöanzt meinen am 15.06.2020 gehaltenen Vortrag.
Ziel dieser Arbeit ist, ein Verfahren zur kuönstlichen Sensoraufloösungsverbesserung vorzustellen. Zur Veranschaulichung wird dazu die Anwendung eines solchen Verfahrens im Rahmen der Röontgen-Computertomographie dargestellt.
Die Roöntgen-Computertomographie als bildgebendes Verfahren hat unter anderem durch den erfolgreichen Einsatz in der Medizin, aber auch in der industriellen Messtechnik eine sehr große Verbreitung gefunden. Dabei ist oft eine Erhoöhung der erreichbaren Auflöosung erwuönscht, um praözisere Aussagen uöber das untersuchte Objekt treffen zu köonnen.
2. Hauptteil
In Abschnitt 2.1 wird zunaächst die Räontgen-Computertomographie vorgestellt. Der Fokus liegt dabei auf dem zugrundeliegenden Prinzip, wie aus mehreren Projektionen ein Schnittbild des zu untersuchenden Objekts rekonstruiert werden kann. Als naächstes wird in Abschnitt 2.2 die kuänstliche Sensoraufloäsungsverbesserung betrachtet. Einer kurzen Einfuährung in die digitale Darstellung von Bildern folgt die detaillierte Vorstellung eines Algorithmus zur Berechnung eines hoäher aufgeloästen Bildes aus mehreren Einzelbildern. Dabei duärfen natuärlich experimentelle Ergebnisse nicht fehlen. Die Verknuäpfung der beiden vorangehenden Themen erfolgt dann in Abschnitt 2.3, wobei auch auf die Limitationen der kuänstlichen Sen- soraufloäsungsverbesserung im Allgemeinen und im Zusammenspiel mit der Roäntgen- Computertomographie eingegangen wird.
2.1 Röntgen-Computertomographie
Die Roäntgen-Computertomographie (XCT) zaählt zu den bildgebenden Verfahren. Solche Verfahren dienen dazu, ins Innere von Objekten zu blicken, ohne diese in irgendeiner Form zu zerstoären (z.B. durch Aufschneiden, etc.). Sie kommen in einer Vielzahl von Disziplinen zum Einsatz. Dazu zaählen die meisten Natur- und Ingenieurswissenschaften (z.B. Archaäologie, Materialpruäfung, etc.) und wie schon erwaähnt auch die Medizin.
Bildgebende Verfahren basieren darauf, die Interaktion des zu untersuchenden Objekts mit physikalischen Phaänomenen wie Schall, Strahlung oder Magnetismus zu messen und daraus Ruäckschluässe auf die innere Struktur des Objekts zu ziehen. Zu den traditionellen Vertretern gehoären das Ultraschallverfahren, das u.a. in der Schwangerschaftsvorsorge zum Einsatz kommt, und konventionelles Roäntgen. In Abb. 2.1 sind Beispielaufnahmen zu sehen. Modernere Verfahren sind die Magnetresonanztomographie und die Kernspintomographie oder eben die Räontgen- Computertomographie.
Die Ausfuährungen in diesem Abschnitt basieren auf den ersten beiden Kapiteln von Carmignato et al. 2.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1: Bildgebende Verfahren
2.1.1 Prinzip
Beim konventionellen Roöntgen durchleuchtet man das zu untersuchende Objekt und nimmt die austretende Roöntgenstrahlung mit einem Detektor oder einem Roöntgen- film auf. Dabei wird nur die Intensitaöt gemessen, ohne Informationen uöber das Spektrum zu beruöcksichtigen. Das ist der Grund, warum Roöntgenbilder immer Graustufenbilder sind und keine Farbinformation enthalten. Je nach Material werden die Roöntgenstrahlen beim Passieren des Objekts verschieden stark abgeschwöacht. Dies ermöoglicht zum Beispiel dichtere Strukturen wie Knochen von normalem Gewebe zu unterscheiden. Da Knochen fuör die Roöntgenstrahlen relativ undurchlöassig sind, werden sie auf einem Röontgenbild heller dargestellt als ihre Umgebung.
Roöntgenbilder haben jedoch einen großen Nachteil: Sie enthalten keinerlei Tiefeninformation. Innere Strukturen des untersuchten Objekts werden in Richtung der Roöntgenstrahlen uöberlagert dargestellt. Mit Abb. 2.1(b) ist es somit beispielsweise nicht moöglich zu entscheiden, ob ein Knochen auf der Ober- oder Unterseite der Hand angebrochen ist. Fuör die Diagnose wuörde man dazu ein zweites Röontgenbild anfertigen, das die Hand aus einer anderen Perspektive zeigt (hier etwa um 90° gedreht).
Bei der Roöntgen-Computertomographie werden nun nicht nur zwei, sondern gleich mehrere hundert Aufnahmen des Objekts aus verschiedenen Blickwinkeln genutzt. Damit erhaölt man grob gesagt die beim Durchleuchten verloren gegangene Tiefeninformation vollstöandig zuruöck und ist in der Lage, einzelne Schnittebenen oder gleich ein komplettes 3D-Volumenmodell des Objekts zu rekonstruieren. Ein Schnittbild der Hand ist in Abb. 2.1(c) zu sehen. Der qualitative Unterschied zum konventionellen Roöntgenbild (2.1(b)) ist deutlich erkennbar.
2.1.2 Technischer Aufbau
Wie ein konventionelles Roöntgengeraöt besteht ein XCT-Geraöt im Wesentlichen aus drei Komponenten: Einer Roöntgenquelle, dem zu untersuchenden Objekt und einem Roöntgen-Detektor. Der entscheidende Unterschied ist, dass beim XCT-Geraöt die Röontgen-Quelle mit dem Detektor und das zu untersuchende Objekt gegeneinander rotiert werden koönnen, um Aufnahmen aus mehreren Winkeln zu ermoöglichen. Welche Komponente sich dabei wie bewegt variiert zwischen den einzelnen Implementationen, z.B. rotieren in medizinischen Geröaten Röontgenquelle und -detektor um den Patienten, waöhrend es in industriellen Anwendungen praktischer ist, das zu untersuchende Objekt zu bewegen und die Röontgenkomponenten unbeweglich zu lassen. Weiterhin gibt es Unterschiede in der Geometrie des Roöntgenstrahls. Wir gehen im Folgenden von einem Geraöt mit Föacherstrahl (engl. fan beam) aus, wie in Abb. 2.2 dargestellt. Ein solcher Strahl durchleuchtet nur eine Ebene des Objekts, entsprechend kommt ein Zeilendetektor zum Einsatz, der aus einer Reihe von röontgen-sensitiven Pixeln besteht.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: Schematischer Aufbau eines XCT-Gerats (Carmignato et al. 2)
2.1.3 Röntgenstrahlen in Materie
In diesem und dem folgenden Abschnitt widmen wir uns nun der Rekonstruktion eines Schnittbildes, in Abb. 2.2 also der Ebene, in der der Faächerstrahl den Wuärfel schneidet. Um Schnittebenen in einer anderen Häohe zu erhalten, muss der Wuärfel lediglich in vertikaler Richtung verschoben werden.
Bei der Rekonstruktion nutzt man die Eigenschaft der Materie, Roäntgenstrahlen spezifisch abzuschwächen. Der materialspezifische Abschwächungskoeffizient p hangt stark mit der Dichte des Materials zusammen und ist somit ideal, um mithilfe seiner Kenntnis Ruäckschluässe auf das vorkommende Material zu ziehen. Ziel ist also, den Abschwaächungskoeffizienten in jedem Punkt der Schnittebene zu ermitteln und zu visualisieren.
Der physikalische Zusammenhang der Abschwäachung ist durch das Lambert-Beer' sche Gesetz gegeben. Zur Formulierung des Gesetzes (vgl. auch 4) stellen wir uns vor, dass der Fäacherstrahl aus vielen einzelnen punktfoärmigen Strahlen besteht, die alle die Schnittebene durchlaufen. Diese kännen wir somit als Gerade r C R2 beschreiben. Mit der Bogenlängenparametrisierung x(s) : R R2 gilt r = x([0,L]). Weiter benotigen wir die Intensität des Strahls I(x) : R2 R+ und einen Proportio- nalitatsfaktor, der durch die Abschwächungskoeffizienten p(x) : R2 R+ gegeben ist. Das Lambert-Beer'sche Gesetz besagt nun, dass der Intensitäatsverlust proportional zur Intensitaät des Roäntgenstrahls und zum Abschwaächungskoeffizienten an der Stelle x ist.
Abbildung in dieser Leseprobe nicht enthalten
Dies ist eine Differentialgleichung erster Ordnung und kann durch Trennung der Variablen leicht gel¨ost werden. Wir erhalten f¨ur die Intensit¨at:
Abbildung in dieser Leseprobe nicht enthalten
Im Falle homogenen Materials, d.h. konstantem Abschw¨achungskoeffizienten μ(x) = μ, wird aus dem Integral ein Produkt:
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2.3 veranschaulicht das Gesetz fuär homogenes und inhomogenes Material mit den diskretisierten Abschwaächungskoeffizienten pi. Bei homogenem Material träagt jede Stelle gleich stark zur Abschwaächung des Strahls bei, sodass einfach mit der Länge s der zuriickgelegten Strecke x([0,s]) C r multipliziert werden kann. Bei inhomogenem Material dagegen muss die Funktion der Abschwaächungskoeffizienten entlang der zuruäckgelegten Strecke integriert werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.3: Abschwaöchung der Röontgenstrahlen in homogenem (links) und inhomogenem Material (rechts) (Carmignato et al. 2)
2.1.4 Rekonstruktion
Wir kennen die Intensitaöt des Strahls an der Roöntgenquelle (s = 0) und am Detektor (s = L):
Abbildung in dieser Leseprobe nicht enthalten
Einsetzen in 2.2 und Umformen ergibt:
Abbildung in dieser Leseprobe nicht enthalten
Das heißt, die gemessenen Intensitaötswerte entsprechen dem Linienintegral der Funktion der Abschwöachungskoeffizienten entlang der Strahlgeraden. Schoön waöre nun, wenn unsere gesuchte Funktion g durch die Menge solcher Linienintegrale auf der Schnittebene eindeutig bestimmt waöre. Dies ist tatsaöchlich so und wurde bereits im Jahr 1917 von dem oösterreichischen Mathematiker Johann Radon bewiesen. Er gab auch die nach ihm benannte Radon-Transformation zur Rekonstruktion der Funktion an.
Benoötigt wird dazu jedoch die Menge aller Linienintegrale, also unendlich vielen. In der Realitaöt ist das natuörlich schon allein wegen der endlichen Pixelzahl im Detektor nicht moöglich, weshalb g nur in begrenzter Aufloösung rekonstruiert werden kann. Wie in Abb. 2.4 zu sehen, kann es auch nur endlich viele verschiedene Blickwinkel geben. Aufgrund der Problemgroöße muss die Rekonstruktion auf leistungsföahigen Computern stattfinden, daher der Name Computertomographie. Moderne Verfahren zur Rekonstruktion verwenden zwar neben der Radon-Transformation auch andere,
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.4: Durchleuchtung eines quadratischen Objekts aus zwei Winkeln mit einem Fächerstrahl (Boyd & Vandenberghe 1)
z.B. algebraische oder stochastische Ansaötze, doch auch diese sind bei endlich vielen Messpunkten nicht in der Lage, eine analytisch exakte Darstellung von p anzugeben. Zwischenbilanz: Wir sind nun also in der Lage, aus den aus verschiedenen Winkeln erfassten Aufnahmen eines Zeilendetektors die Abschwöachungskoeffizienten einer Schnittebene des untersuchten Objekts in begrenzter Aufloösung zu rekonstruieren. Damit erhalten wir einen Blick ins Innere des Objekts, ohne es zu zerstoören.
2.2 Künstliche Sensorauflösungsverbesserung
Unter dem Begriff Kuönstliche Sensoraufloösungverbesserung werden verschiedenste Methoden zusammengefasst. Ziel dieser Methoden ist, die mit einem vorhandenen Geraöt zur Bilderfassung erreichbare Auflöosung zu erhöohen. Dies geschieht oft aus Kostengruönden, um die Anschaffung eines neueren, besseren Geraöts, das mit den gewachsenen Anforderungen mithöalt, hinauszuzöogern. Andererseits kommt es auch vor, dass der aktuelle Stand der Technik zur Bilderfassung fuör eine Anwendung schlicht nicht ausreicht, sodass die Bildauflöosung auf andere Weise erhöoht werden muss. Beispiele fuör Anwendungen dieser Verfahren finden sich zuhauf in der Photogrammetrie, und natuörlich, siehe Abschnitt 2.3, in der Roöntgen-Computertomographie. Grundlage dieser Verfahren ist die Erkenntnis, dass die vom Sensor gelieferten Informationen nicht ausreichen. Denn eine hoöhere Aufloösung, d.h. mehr darzustellende Pixel als vorhandene Sensorpixel, erfordert zusöatzliche Information uöber das aufgenommene Objekt. Man kann je nach Anwendung unterschiedlichste Arten von Informationen einfließen lassen, z.B. Wissen uöber vorkommende Farben oder Strukturen. Der in Abschnitt 2.2.2 vorgestellte Algorithmus waöhlt einen allgemeineren Ansatz und berechnet aus mehreren leicht verschobenen Aufnahmen desselben Objekts ein hoöher aufgeloöstes Bild.
2.2.1 Abtasten
Bevor wir uns dem erwaähnten Algorithmus widmen, soll hier noch kurz auf die digitale Erfassung und Darstellung von Bildern eingegangen werden. Wenn digitale Bildsensoren ein Bild aufnehmen, erfassen sie in jedem ihrer Pixel die dort auftreffende Intensitaät. Der Sensor tastet also die reale, kontinuierliche Intensitaäts- verteilung an gewissen Stellen, den Pixeln, ab, man sagt auch samplen. Umgekehrt ist jedes Bild, das auf einem Bildschirm angezeigt wird mathematisch gesehen eine stuäckweise konstante Funktion und damit nur eine Approximation der Realitaät.
Abbildung in dieser Leseprobe nicht enthalten
In Abb. 2.5 sehen wir eine eindimensionale Funktion f(x), die zum Beispiel die Intensitaätsverteilung auf dem Zeilendetektor in Abb. 2.2 sein koännte. Das Sampling entspricht der Multiplikation mit einer Abtastfunktion und liefert dann eine Menge von paarweisen Stuätzstellen und Stuätzwerten, im Beispiel also die Pixelposition und der jeweilige Intensitaätswert auf dem Pixel. Zwischen den Stuätzstellen wissen wir jedoch rein gar nichts uäber den Verlauf der Intensitaätsverteilung. Um das zu beheben muässen wir f(x) irgendwie zwischen den vorhandenen Stuätzstellen auswerten käonnen. Der naheliegende Ansatz waäre, die Aufloäsung des Bildsensors zu erhoähen, sodass die Pixeldichte und damit die Abtastrate steigt. Aus den zu Beginn dieses Unterkapitels genannten Gruänden kommt diese Option aber nicht in Frage. Stattdessen bedienen wir uns eines Tricks und nehmen dieselbe Sache einfach zweimal auf, wobei der Bildsensor zwischen den Aufnahmen ganz leicht verschoben wird. Vorausgesetzt das aufzunehmende Objekt äandert oder bewegt sich zwischen den Aufnahmen nicht, erhalten wir damit Auswertungen von f (x) an doppelt so vielen Stellen. Dieser Vorgang des Upsamplings ist in Abb. 2.6 dargestellt. Wir haben also zusäatzliche Informationen gewonnen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.6: Erhöhen der Abtastrate durch mehrere leicht verschobene Aufnahmen (Luong 7)
Ganz entscheidend ist hier, nicht um Vielfache des urspruönglichen Pixelabstandes zu verschieben. Ansonsten fallen neue Stuötzstellen auf bereits vorhandene (ausgenommen die Stuötzstellen am Bildrand) und wir haötten nichts gewonnen. Weiterhin sei an dieser Stelle erwaöhnt, dass ein Pixel nicht die Intensitaöt an einer ganz bestimmten Stelle erfasst, sondern den Wert der Intensitöat uöber die Pixelflaöche mittelt. Somit entsprechen die hier gezeigten Abbildungen nicht exakt der Realitaöt, das grundlegende Prinzip, an mehr Stellen auszuwerten, bleibt jedoch davon unberuöhrt.
2.2.2 Rigorous Geometric Algorithm
Nun soll ein Algorithmus vorgestellt werden, der aus mehreren niedrig aufgeloösten Bildern ein höoher auflöosendes Bild berechnet. Der Algorithmus heißt Rigorous Geometric Algorithm und wurde 2001 in Fryer & Mclntosh 3 vorgestellt. Der Algorithmus nutzt das im vorangehenden Abschnitt erlaöuterte Prinzip, indem die Informationen der niedrig aufgeloösten Bilder durch geometrische Betrachtungen mit dem Pixelgitter des gesuchten hoöher auflöosenden Bildes verbunden werden. Dazu wird die Kenntnis der Verschiebungen der Einzelbilder zueinander, wobei diese nicht Vielfache des Pixelabstandes sein duörfen, vorausgesetzt.
Die Funktionsweise des Algorithmus soll anhand eines eindimensionalen Grauwertbildes betrachtet werden. In Abb. 2.7 sind dazu die Pixel des gesuchten hoöher aufloösenden Bildes (engl. fine pixel) und die Pixel zweier niedrig aufloösender Bilder (engl. coarse pixel) dargestellt. Dabei sind die drei Zeilenbilder entsprechend ihrer tatsaöchlichen oörtlichen Verschiebung zueinander angeordnet. Hier wurde als Vergroößerungsrate, also das Verhaöltnis der Pixellöange lF der feinen (fine) Pixel zu der Lange IC der groben (coarse) Pixel, p = |C = 2 gewöhlt. Weiterhin wurde Coarse Image 1 als Referenz genutzt, um das hoöher aufgeloöste Pixelgitter daran auszurichten. Die Intensitöatsskala reicht von 0 (weiß) bis 255 (schwarz).
Damit sind die ersten beiden Schritte, naömlich Auswaöhlen der Vergröoßerungsrate und des Referenzgitters, bereits erledigt. Nun wird im dritten Schritt fuör jedes grobe
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.7: Pixelgitter der Einzelbilder und des gesuchten höher auflösenden Bildes übereinander gelegt (Fryer & Mclntosh 3, modifiziert)
Pixel in einer Gleichung festgehalten, wie jedes feine Pixel zum Intensitaötswert des groben Pixels beitraögt. Uö ber dem ersten groben Pixel C1 befindet sich das komplette feine Pixel X1 und nur mit halber Löange noch das feine Pixel X2. Wenn wir die Pixelwerte mit der Pixellaönge gewichten, ergibt sich folgender Zusammenhang:
Abbildung in dieser Leseprobe nicht enthalten
Ebenso verfahren wir fuör den Intensitaötswert des naöchsten Pixels C2:
Abbildung in dieser Leseprobe nicht enthalten
Mit den uöbrigen groben Pixeln erhalten wir damit insgesamt n = 7 lineare Gleichungen fuör m = 6 Unbekannte. In Matrix-Vektor-Notation lautet dieses LGS
Abbildung in dieser Leseprobe nicht enthalten
mit den Beispielwerten
Abbildung in dieser Leseprobe nicht enthalten
Dabei enthält A die Verschiebungskoeffizienten, C die bekannten Pixelwerte der groben Pixel und X ist das gesuchte hoher aufläsende Bild. Wegen n > m handelt es sich hierbei um ein uäberbestimmtes LGS, welches keine eindeutige Loäsung besitzt. Wir bedienen uns im vierten Schritt einer Methode der Least-Squares- Ausgleichsrechnung und erhalten mit den Gauß'schen Normalengleichungen fuär X:
Abbildung in dieser Leseprobe nicht enthalten
Der Algorithmus liefert somit aus der Menge aller hoch aufläosenden Bilder dasjenige, welches den geringsten quadratischen Fehler zu den Einzelbildern aufweist.
Der Algorithmus läasst sich relativ leicht auf den zweidimensionalen Fall uäbertragen. Dabei gibt es dann Verschiebungen in beide Koordinatenrichtungen, was das Aufstellen der Gleichungen etwas komplizierter macht. Aufgrund der zwei Dimensionen wird auch die Nummerierung etwas aufwendiger. Das grundlegende Prinzip bleibt jedoch dasselbe.
2.2.3 Experimentelle Ergebnisse
In Fryer & Mclntosh 3 wurde der Algorithmus mit den in Abb. 2.8 zu sehenden Bildern getestet. Die obere Reihe besteht aus vier niedrig aufläosenden Bildern der gleichen Person, wobei die Aufnahmen der Voraussetzung des Algorithmus entsprechend jeweils leicht gegeneinander verschoben sind. Auf den vier Bilder sind noch deutlich die einzelnen Pixel zu erkennen, und die Gesichtszuäge der Person koännen nur erahnt werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.8: oben: Vier leicht verschobene Testbilder, unten links: Ergebnis des Algorithmus, unten rechts: Ergebnis einer einfachen Durchschnittsbildung (Fryer & Mclntosh 3)
Das vom Algorithmus berechnete Bild (unten links) bietet im Vergleich eine enorme Verbesserung. Am auffalligsten sind die kleineren Pixel, die nun schon fast nicht mehr auszumachen sind. Ein genauerer Blick zeigt auch, dass der Kontrast verbessert wurde: Im berechneten Bild wird die Grauwertskala in beide Richtungen starker ausgereizt als in jedem dem vier Einzelbilder. Der Test des Algorithmus umfasste auch noch einen Vergleich mit einer anderen Methode, und zwar dem Berechnen eines einfachen Durchschnittsbildes (unten rechts) aus den vier Einzelbildern. Dabei werden die Einzelbilder gemaß ihrer Verschiebung ubereinander gelegt und gemittelt. Die Qualitat dieses Bildes ist zwischen den Einzelbildern und dem Ergebnis des RG-Algorithmus einzuordnen. Gerade die erwahnte Verbesserung des Kontrastes kann mit der Durchschnittsberechnung nicht erreicht werden.
Es lasst sich festhalten, dass der Algorithmus tatsachlich in der Lage ist, aus den Einzelbildern deutlich mehr Information herauszuholen als es eine Durchschnittsberechnung vermag. Die in den Verschiebungen der Einzelbilder versteckte Information kann so in eine sichtbare Verbesserung der Bildqualitat umgemunzt werden.
2.3 Kombination
Nun mochten wir uns die Erkenntnisse aus der Auflösungsverbesserung im Rahmen der Rontgen-Computertomographie zunutze machen. Der praktische Nutzen der XCT haöngt vor allem von der Bildaufloösung und der Dauer einer Aufnahme ab, daher werden wir die Relevanz des vorgeschlagenen Algorithmus vor allem daran messen.
2.3.1 RG-Algorithmus und Zeilendetektor-XCT
Unser Rechenbeispiel fuör den RG-Algorithmus ist direkt auf den Fall eines XCT- Geraöts mit Zeilendetektor, wie aus Abschnitt 2.1 bekannt, anwendbar. Dazu muss der Zeilendetektor so modifiziert werden, dass in Zeilenrichtung leicht gegeneinander verschobene Aufnahmen moöglich sind. Nun werden aus jedem Blickwinkel auf das Objekt nicht nur eine, sondern mehrere leicht gegeneinander verschobene Aufnahmen gemacht. Diese werden dann mithilfe des eindimensionalen RG-Algorithmus zu einem hoöher aufloösenden Bild kombiniert. Wir haben somit die Aufloösung des Zeilendetektors erhöoht, ohne einen neuen Detektor zu benöotigen. Aus diesen verbesserten Zeilenaufnahmen kann nun eine hoöher aufloösende Rekonstruktion der Schnittebene des zu untersuchenden Objekts berechnet werden. Anders ausgedruöckt stehen uns mit der hoöheren Aufloösung der Zeilenbilder mehr bekannte Linienintegrale der Ab- schwaöchungskoeffizienten uöber die Schnittebene zur Verfuögung.
In realen Anwendungen kommen Zeilendetektoren faktisch nicht mehr vor. Um einen kompletten Volumenscan zu erhalten, musste mit ihnen namlich für jede einzelne Schnittebene (deren Anzahl hangt von der gewunschten Auflosung in Richtung der Schnittnormalen ab) ein vollstandiger XCT-Scan durchgefuhrt werden. In der Praxis haben sich stattdessen sogenannte cone beam Varianten durchgesetzt, bei denen ein kegelförmiger Röntgenstrahl zusammen mit einem Flachendetektor eingesetzt wird. Man verwendet quasi mehrere Zeilendetektoren gleichzeitig, was die Scandauer drastisch reduziert.
Um die hochgenaue Verschiebung des Detektors zu gewaöhrleisten, kommen sogenannte XY-Tische zum Einsatz. Solche Geröate erlauben praözise Translationen im Mykrometer-Bereich und kosten nur einen Bruchteil des Preises eines hoöher aufloösen- den Roöntgendetektors.
2.3.2 Limitationen des Algorithmus
Man koönnte erwarten, dass mit mehr Einzelbildern auch die Qualitaöt des berechneten Bildes immer weiter zunimmt. Der Vergröoßerungsfaktor bei der Aufloösungs- verbesserung unterliegt jedoch einer theoretischen Grenze. Aus dem Abtasttheorem der Signalverarbeitung laösst sich ableiten, dass die Pixellaönge maximal um einen Faktor kleiner zwei verringert werden kann. Weiterfuöhrende Experimente in Fryer & Mclntosh 3 ergaben, dass bereits ab einem Faktor von p = 1.6 zunehmend Artefakte und Bildrauschen die zunaöchst durch die Auflöosungserhöohung sichtbare Verbesserung der Bildqualitaöt zunichte machen. Dennoch ist es ratsam, bei einem vernuönftig gewöahltem Vergroößerungsfaktor mehr als die fuör die Löosbarkeit des LGS minimale Anzahl an Einzelbildern zu verwenden.
Problematisch ist auch, dass der Algorithmus sensitiv auf Rauschen in den Eingangsdaten reagiert. Ebenso beeintraöchtigen Fehler in den Verschiebungskoeffizienten A das Ergebnis. Solche Fehler entstehen durch Ungenauigkeiten des XY-Tisches, oder, falls wie in 3 zur Bestimmung von A stattdessen ein Algorithmus verwendet wird, durch Ungenauigkeiten im sog. image matching-Algorithmus.
Waöhrend mit dem RG-Algorithmus wie bereits ausgefuöhrt die Bildauflöosung tat- saöchlich deutlich verbessert werden kann, ist es vor allem die erhoöhte Scandauer, die die praktische Relevanz des Verfahrens im Bereich XCT einschröankt. In den beiden groößten Anwendungsgebieten, der Medizin und der industriellen Messtechnik, ist die fuör eine Aufnahme benoötigte Zeit aus verschiedenen Gruönden entscheidend: In der Medizin moöchte man die Strahlenbelastung der Patienten moöglichst gering halten. Ein XCT-Scan weist bereits eine um ein Vielfaches hoöhere Strahlenbelastung auf als konventionelles Roöntgen. Wird durch die zusaötzlichen leicht verschobenen Aufnahmen diese Belastung noch einmal vervielfacht, kommt man schnell an einen Punkt, wo die zusaötzliche Strahlenbelastung nicht mehr mit den diagnostischen Vorteilen zu rechtfertigen ist. In der Industrie dagegen geht es darum, eng getaktete Prozesse, wie z.B. in der Bandmontage, durch XCT-Materialprufungen mit Sensorauflösungsverbesserung nicht plötzlich um ein Vielfaches langer dauern zu lassen. Am meisten Relevanz hat das Verfahren in den Natur- und Ingenieurswissenschaften. Dort sind Prozesse nicht so zeitkritisch wie in der Industrie und es werden auch keine Lebewesen untersucht, die durch die erhöhte Strahlenbelastung geschädigt werden könnten. Außerdem geht es in der Forschung auch oft darum, das technisch Machbare auszuloten, wodurch gerade Verfahren wie das vorgestellte erst entwickelt werden.
3. Zusammenfassung und Ausblick
Verfahren zur künstlichen Sensorauflösungsverbesserung sind ernorm vielseitig einsetzbar, was bereits an den umfassenden Applikationen der Rontgen-Computertomo- graphie ersichtlich wird. In diesem Bereich geht es darum, das Optimum zwischen Scandauer und Bildqualität zu finden. Dabei kann der vorgestellte RG-Algorithmus noch deutlich verbessert werden, z.B. indem die Voraussetzungen an die Einzelbilder abgeschwacht werden, sodass auch Rotationen, Bilder aus verschiedenen Entfernungen oder Bewegtbilder in den Verbesserungsprozess einfließen konnen. In Li et al. 6 wurde bereits ein erster Schritt getan und mithilfe von Regularisierungsmethoden der Ausgleichsrechnung mit Erfolg die Sensitivitat auf Fehler in den Daten verringert.
Literaturverzeichnis
1 Boyd, S. & Vandenberghe, L.: Introduction to Applied Linear Algebra - Vectors, Matrices, and Least Squares. Cambridge University Press, Cambridge 2018, ISBN 978-1-316-51896-0.
2 Carmignato, S.; Dewulf, W. & Leach, R.: Industrial X-Ray Computed Tomography. Springer, Berlin, Heidelberg 2017, ISBN 978-3-319-59573-3.
3 Fryer, J. & Mclntosh, K.: Enhancement of image resolution in digital photogrammetry. Photogrammetric Engineering & Remote Sensing 62 (2001).
4 Hanke-Bourgeois, M.: Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens. Springer-Verlag, Berlin Heidelberg New York 2009, ISBN 978-3-834-89309-3.
5 Immanuel Krankenhaus Berlin: Ein infolge eines Unfalls gebrochener Mittelhandknochen (2020), URL https://berlin.immanuel.de/fileadmin/ user\_upload/IK\_ Berlin/03\_Abteilungen/03\_ 07 V ObereExtremitaet/ 02\_Leistungen/02\_ 03 V Hand/immanuel-krankenhaus-berlin-obere- extraemitaet-gebrochene-mittelhand.jpg, [Online; zugegriffen am 11.07.2020].
6 Li, P.; Shen, H. & Zhang, L.: A method of image resolution enhancement based on the matching technique. State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing, Wuhan University (2004).
7 Luong, Q. H.: Advanced image and video resolution enhancement techniques. Dissertation, PhD thesis, Faculty of Engineering Ghent University (2009).
8 Praxis fur Radiologische Diagnostik Hanau: CT Hand und Handgelenk (2020), URL https://radiologische-diagnostik.de/wp-content/uploads/ ct\_hand\_01.jpg, [Online; zugegriffen am 11.07.2020].
9 Wikipedia, die freie Enzyklopädie: 2D-Sonogramm eines Menschenfötus von neun Wochen (2011), URL https://de.wikipedia.org/wiki/Sonografie\#/ media/Datei:Medecine\_Echographie.jpg, [Online; zugegriffen am 11.07.2020].
[...]
- Arbeit zitieren
- Moritz Sigg (Autor:in), 2020, Künstliche Sensorauflösungsverbesserung bei röntgentomographischen Untersuchungen, München, GRIN Verlag, https://www.grin.com/document/1127169