Künstliche Sensorauflösungsverbesserung bei röntgentomographischen Untersuchungen


Seminararbeit, 2020

23 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

1 Einleitung

2 Hauptteil
2.1 Röontgen-Computertomographie
2.1.1 Prinzip
2.1.2 Technischer Aufbau
2.1.3 Röontgenstrahlen in Materie
2.1.4 Rekonstruktion
2.2 Kuönstliche Sensoraufloösungsverbesserung
2.2.1 Abtasten
2.2.2 RigorousGeometricAlgorithm
2.2.3 Experimentelle Ergebnisse
2.3 Kombination
2.3.1 RG-Algorithmus und Zeilendetektor-XCT
2.3.2 Limitationen des Algorithmus

3 Zusammenfassung und Ausblick

Literaturverzeichnis

Abbildungsverzeichnis

2.1 Bildgebende Verfahren

2.2 Schematischer Aufbau eines XCT-Geröats (Carmignato et al. 2)

2.3 Abschwaöchung der Roöntgenstrahlen in homogenem (links) und inho­mogenem Material (rechts) (Carmignato et al. 2)

2.4 Durchleuchtung eines quadratischen Objekts aus zwei Winkeln mit einem Föacherstrahl (Boyd & Vandenberghe 1)

2.5 Sampling der eindimensionalen Funktion f (x)(Luong7)

2.6 Erhoöhen der Abtastrate durch mehrere leicht verschobene Aufnahmen (Luong 7)

2.7 Pixelgitter der Einzelbilder und des gesuchten hoöher aufloösenden Bil­des uöbereinander gelegt (Fryer & Mclntosh 3, modifiziert)

2.8 oben: Vier leicht verschobene Testbilder, unten links: Ergebnis des Algorithmus, unten rechts: Ergebnis einer einfachen Durchschnitts­bildung (Fryer & Mclntosh 3)

1. Einleitung

Die vorliegende Arbeit ist im Rahmen des SimTech-Seminar (B.Sc.) entstanden und ergöanzt meinen am 15.06.2020 gehaltenen Vortrag.

Ziel dieser Arbeit ist, ein Verfahren zur kuönstlichen Sensoraufloösungsverbesserung vorzustellen. Zur Veranschaulichung wird dazu die Anwendung eines solchen Ver­fahrens im Rahmen der Röontgen-Computertomographie dargestellt.

Die Roöntgen-Computertomographie als bildgebendes Verfahren hat unter anderem durch den erfolgreichen Einsatz in der Medizin, aber auch in der industriellen Mess­technik eine sehr große Verbreitung gefunden. Dabei ist oft eine Erhoöhung der erreichbaren Auflöosung erwuönscht, um praözisere Aussagen uöber das untersuchte Ob­jekt treffen zu köonnen.

2. Hauptteil

In Abschnitt 2.1 wird zunaächst die Räontgen-Computertomographie vorgestellt. Der Fokus liegt dabei auf dem zugrundeliegenden Prinzip, wie aus mehreren Pro­jektionen ein Schnittbild des zu untersuchenden Objekts rekonstruiert werden kann. Als naächstes wird in Abschnitt 2.2 die kuänstliche Sensoraufloäsungsverbesserung be­trachtet. Einer kurzen Einfuährung in die digitale Darstellung von Bildern folgt die detaillierte Vorstellung eines Algorithmus zur Berechnung eines hoäher aufgeloästen Bildes aus mehreren Einzelbildern. Dabei duärfen natuärlich experimentelle Ergeb­nisse nicht fehlen. Die Verknuäpfung der beiden vorangehenden Themen erfolgt dann in Abschnitt 2.3, wobei auch auf die Limitationen der kuänstlichen Sen- soraufloäsungsverbesserung im Allgemeinen und im Zusammenspiel mit der Roäntgen- Computertomographie eingegangen wird.

2.1 Röntgen-Computertomographie

Die Roäntgen-Computertomographie (XCT) zaählt zu den bildgebenden Verfahren. Solche Verfahren dienen dazu, ins Innere von Objekten zu blicken, ohne diese in irgendeiner Form zu zerstoären (z.B. durch Aufschneiden, etc.). Sie kommen in ei­ner Vielzahl von Disziplinen zum Einsatz. Dazu zaählen die meisten Natur- und Ingenieurswissenschaften (z.B. Archaäologie, Materialpruäfung, etc.) und wie schon erwaähnt auch die Medizin.

Bildgebende Verfahren basieren darauf, die Interaktion des zu untersuchenden Ob­jekts mit physikalischen Phaänomenen wie Schall, Strahlung oder Magnetismus zu messen und daraus Ruäckschluässe auf die innere Struktur des Objekts zu ziehen. Zu den traditionellen Vertretern gehoären das Ultraschallverfahren, das u.a. in der Schwangerschaftsvorsorge zum Einsatz kommt, und konventionelles Roäntgen. In Abb. 2.1 sind Beispielaufnahmen zu sehen. Modernere Verfahren sind die Ma­gnetresonanztomographie und die Kernspintomographie oder eben die Räontgen- Computertomographie.

Die Ausfuährungen in diesem Abschnitt basieren auf den ersten beiden Kapiteln von Carmignato et al. 2.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Bildgebende Verfahren

2.1.1 Prinzip

Beim konventionellen Roöntgen durchleuchtet man das zu untersuchende Objekt und nimmt die austretende Roöntgenstrahlung mit einem Detektor oder einem Roöntgen- film auf. Dabei wird nur die Intensitaöt gemessen, ohne Informationen uöber das Spek­trum zu beruöcksichtigen. Das ist der Grund, warum Roöntgenbilder immer Graustu­fenbilder sind und keine Farbinformation enthalten. Je nach Material werden die Roöntgenstrahlen beim Passieren des Objekts verschieden stark abgeschwöacht. Dies ermöoglicht zum Beispiel dichtere Strukturen wie Knochen von normalem Gewebe zu unterscheiden. Da Knochen fuör die Roöntgenstrahlen relativ undurchlöassig sind, werden sie auf einem Röontgenbild heller dargestellt als ihre Umgebung.

Roöntgenbilder haben jedoch einen großen Nachteil: Sie enthalten keinerlei Tiefen­information. Innere Strukturen des untersuchten Objekts werden in Richtung der Roöntgenstrahlen uöberlagert dargestellt. Mit Abb. 2.1(b) ist es somit beispielsweise nicht moöglich zu entscheiden, ob ein Knochen auf der Ober- oder Unterseite der Hand angebrochen ist. Fuör die Diagnose wuörde man dazu ein zweites Röontgenbild anfertigen, das die Hand aus einer anderen Perspektive zeigt (hier etwa um 90° gedreht).

Bei der Roöntgen-Computertomographie werden nun nicht nur zwei, sondern gleich mehrere hundert Aufnahmen des Objekts aus verschiedenen Blickwinkeln genutzt. Damit erhaölt man grob gesagt die beim Durchleuchten verloren gegangene Tiefenin­formation vollstöandig zuruöck und ist in der Lage, einzelne Schnittebenen oder gleich ein komplettes 3D-Volumenmodell des Objekts zu rekonstruieren. Ein Schnittbild der Hand ist in Abb. 2.1(c) zu sehen. Der qualitative Unterschied zum konventio­nellen Roöntgenbild (2.1(b)) ist deutlich erkennbar.

2.1.2 Technischer Aufbau

Wie ein konventionelles Roöntgengeraöt besteht ein XCT-Geraöt im Wesentlichen aus drei Komponenten: Einer Roöntgenquelle, dem zu untersuchenden Objekt und ei­nem Roöntgen-Detektor. Der entscheidende Unterschied ist, dass beim XCT-Geraöt die Röontgen-Quelle mit dem Detektor und das zu untersuchende Objekt gegeneinan­der rotiert werden koönnen, um Aufnahmen aus mehreren Winkeln zu ermoöglichen. Welche Komponente sich dabei wie bewegt variiert zwischen den einzelnen Imple­mentationen, z.B. rotieren in medizinischen Geröaten Röontgenquelle und -detektor um den Patienten, waöhrend es in industriellen Anwendungen praktischer ist, das zu untersuchende Objekt zu bewegen und die Röontgenkomponenten unbeweglich zu lassen. Weiterhin gibt es Unterschiede in der Geometrie des Roöntgenstrahls. Wir gehen im Folgenden von einem Geraöt mit Föacherstrahl (engl. fan beam) aus, wie in Abb. 2.2 dargestellt. Ein solcher Strahl durchleuchtet nur eine Ebene des Ob­jekts, entsprechend kommt ein Zeilendetektor zum Einsatz, der aus einer Reihe von röontgen-sensitiven Pixeln besteht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Schematischer Aufbau eines XCT-Gerats (Carmignato et al. 2)

2.1.3 Röntgenstrahlen in Materie

In diesem und dem folgenden Abschnitt widmen wir uns nun der Rekonstruktion eines Schnittbildes, in Abb. 2.2 also der Ebene, in der der Faächerstrahl den Wuärfel schneidet. Um Schnittebenen in einer anderen Häohe zu erhalten, muss der Wuärfel lediglich in vertikaler Richtung verschoben werden.

Bei der Rekonstruktion nutzt man die Eigenschaft der Materie, Roäntgenstrahlen spe­zifisch abzuschwächen. Der materialspezifische Abschwächungskoeffizient p hangt stark mit der Dichte des Materials zusammen und ist somit ideal, um mithilfe seiner Kenntnis Ruäckschluässe auf das vorkommende Material zu ziehen. Ziel ist also, den Abschwaächungskoeffizienten in jedem Punkt der Schnittebene zu ermitteln und zu visualisieren.

Der physikalische Zusammenhang der Abschwäachung ist durch das Lambert-Beer' sche Gesetz gegeben. Zur Formulierung des Gesetzes (vgl. auch 4) stellen wir uns vor, dass der Fäacherstrahl aus vielen einzelnen punktfoärmigen Strahlen besteht, die alle die Schnittebene durchlaufen. Diese kännen wir somit als Gerade r C R2 be­schreiben. Mit der Bogenlängenparametrisierung x(s) : R R2 gilt r = x([0,L]). Weiter benotigen wir die Intensität des Strahls I(x) : R2 R+ und einen Proportio- nalitatsfaktor, der durch die Abschwächungskoeffizienten p(x) : R2 R+ gegeben ist. Das Lambert-Beer'sche Gesetz besagt nun, dass der Intensitäatsverlust propor­tional zur Intensitaät des Roäntgenstrahls und zum Abschwaächungskoeffizienten an der Stelle x ist.

Abbildung in dieser Leseprobe nicht enthalten

Dies ist eine Differentialgleichung erster Ordnung und kann durch Trennung der Variablen leicht gel¨ost werden. Wir erhalten f¨ur die Intensit¨at:

Abbildung in dieser Leseprobe nicht enthalten

Im Falle homogenen Materials, d.h. konstantem Abschw¨achungskoeffizienten μ(x) = μ, wird aus dem Integral ein Produkt:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.3 veranschaulicht das Gesetz fuär homogenes und inhomogenes Material mit den diskretisierten Abschwaächungskoeffizienten pi. Bei homogenem Material träagt jede Stelle gleich stark zur Abschwaächung des Strahls bei, sodass einfach mit der Länge s der zuriickgelegten Strecke x([0,s]) C r multipliziert werden kann. Bei inhomogenem Material dagegen muss die Funktion der Abschwaächungskoeffizienten entlang der zuruäckgelegten Strecke integriert werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Abschwaöchung der Röontgenstrahlen in homogenem (links) und inhomo­genem Material (rechts) (Carmignato et al. 2)

2.1.4 Rekonstruktion

Wir kennen die Intensitaöt des Strahls an der Roöntgenquelle (s = 0) und am Detektor (s = L):

Abbildung in dieser Leseprobe nicht enthalten

Einsetzen in 2.2 und Umformen ergibt:

Abbildung in dieser Leseprobe nicht enthalten

Das heißt, die gemessenen Intensitaötswerte entsprechen dem Linienintegral der Funk­tion der Abschwöachungskoeffizienten entlang der Strahlgeraden. Schoön waöre nun, wenn unsere gesuchte Funktion g durch die Menge solcher Linienintegrale auf der Schnittebene eindeutig bestimmt waöre. Dies ist tatsaöchlich so und wurde bereits im Jahr 1917 von dem oösterreichischen Mathematiker Johann Radon bewiesen. Er gab auch die nach ihm benannte Radon-Transformation zur Rekonstruktion der Funk­tion an.

Benoötigt wird dazu jedoch die Menge aller Linienintegrale, also unendlich vielen. In der Realitaöt ist das natuörlich schon allein wegen der endlichen Pixelzahl im Detektor nicht moöglich, weshalb g nur in begrenzter Aufloösung rekonstruiert werden kann. Wie in Abb. 2.4 zu sehen, kann es auch nur endlich viele verschiedene Blickwinkel geben. Aufgrund der Problemgroöße muss die Rekonstruktion auf leistungsföahigen Computern stattfinden, daher der Name Computertomographie. Moderne Verfahren zur Rekonstruktion verwenden zwar neben der Radon-Transformation auch andere,

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Durchleuchtung eines quadratischen Objekts aus zwei Winkeln mit einem Fächerstrahl (Boyd & Vandenberghe 1)

z.B. algebraische oder stochastische Ansaötze, doch auch diese sind bei endlich vielen Messpunkten nicht in der Lage, eine analytisch exakte Darstellung von p anzugeben. Zwischenbilanz: Wir sind nun also in der Lage, aus den aus verschiedenen Win­keln erfassten Aufnahmen eines Zeilendetektors die Abschwöachungskoeffizienten ei­ner Schnittebene des untersuchten Objekts in begrenzter Aufloösung zu rekonstruie­ren. Damit erhalten wir einen Blick ins Innere des Objekts, ohne es zu zerstoören.

2.2 Künstliche Sensorauflösungsverbesserung

Unter dem Begriff Kuönstliche Sensoraufloösungverbesserung werden verschiedenste Methoden zusammengefasst. Ziel dieser Methoden ist, die mit einem vorhandenen Geraöt zur Bilderfassung erreichbare Auflöosung zu erhöohen. Dies geschieht oft aus Kostengruönden, um die Anschaffung eines neueren, besseren Geraöts, das mit den gewachsenen Anforderungen mithöalt, hinauszuzöogern. Andererseits kommt es auch vor, dass der aktuelle Stand der Technik zur Bilderfassung fuör eine Anwendung schlicht nicht ausreicht, sodass die Bildauflöosung auf andere Weise erhöoht werden muss. Beispiele fuör Anwendungen dieser Verfahren finden sich zuhauf in der Photo­grammetrie, und natuörlich, siehe Abschnitt 2.3, in der Roöntgen-Computertomographie. Grundlage dieser Verfahren ist die Erkenntnis, dass die vom Sensor gelieferten Infor­mationen nicht ausreichen. Denn eine hoöhere Aufloösung, d.h. mehr darzustellende Pixel als vorhandene Sensorpixel, erfordert zusöatzliche Information uöber das auf­genommene Objekt. Man kann je nach Anwendung unterschiedlichste Arten von Informationen einfließen lassen, z.B. Wissen uöber vorkommende Farben oder Struk­turen. Der in Abschnitt 2.2.2 vorgestellte Algorithmus waöhlt einen allgemeineren Ansatz und berechnet aus mehreren leicht verschobenen Aufnahmen desselben Ob­jekts ein hoöher aufgeloöstes Bild.

2.2.1 Abtasten

Bevor wir uns dem erwaähnten Algorithmus widmen, soll hier noch kurz auf die digitale Erfassung und Darstellung von Bildern eingegangen werden. Wenn digi­tale Bildsensoren ein Bild aufnehmen, erfassen sie in jedem ihrer Pixel die dort auftreffende Intensitaät. Der Sensor tastet also die reale, kontinuierliche Intensitaäts- verteilung an gewissen Stellen, den Pixeln, ab, man sagt auch samplen. Umgekehrt ist jedes Bild, das auf einem Bildschirm angezeigt wird mathematisch gesehen eine stuäckweise konstante Funktion und damit nur eine Approximation der Realitaät.

Abbildung in dieser Leseprobe nicht enthalten

In Abb. 2.5 sehen wir eine eindimensionale Funktion f(x), die zum Beispiel die Intensitaätsverteilung auf dem Zeilendetektor in Abb. 2.2 sein koännte. Das Samp­ling entspricht der Multiplikation mit einer Abtastfunktion und liefert dann eine Menge von paarweisen Stuätzstellen und Stuätzwerten, im Beispiel also die Pixelpo­sition und der jeweilige Intensitaätswert auf dem Pixel. Zwischen den Stuätzstellen wissen wir jedoch rein gar nichts uäber den Verlauf der Intensitaätsverteilung. Um das zu beheben muässen wir f(x) irgendwie zwischen den vorhandenen Stuätzstellen auswerten käonnen. Der naheliegende Ansatz waäre, die Aufloäsung des Bildsensors zu erhoähen, sodass die Pixeldichte und damit die Abtastrate steigt. Aus den zu Beginn dieses Unterkapitels genannten Gruänden kommt diese Option aber nicht in Frage. Stattdessen bedienen wir uns eines Tricks und nehmen dieselbe Sache einfach zweimal auf, wobei der Bildsensor zwischen den Aufnahmen ganz leicht verschoben wird. Vorausgesetzt das aufzunehmende Objekt äandert oder bewegt sich zwischen den Aufnahmen nicht, erhalten wir damit Auswertungen von f (x) an doppelt so vielen Stellen. Dieser Vorgang des Upsamplings ist in Abb. 2.6 dargestellt. Wir haben also zusäatzliche Informationen gewonnen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.6: Erhöhen der Abtastrate durch mehrere leicht verschobene Aufnahmen (Luong 7)

Ganz entscheidend ist hier, nicht um Vielfache des urspruönglichen Pixelabstandes zu verschieben. Ansonsten fallen neue Stuötzstellen auf bereits vorhandene (ausgenom­men die Stuötzstellen am Bildrand) und wir haötten nichts gewonnen. Weiterhin sei an dieser Stelle erwaöhnt, dass ein Pixel nicht die Intensitaöt an einer ganz bestimmten Stelle erfasst, sondern den Wert der Intensitöat uöber die Pixelflaöche mittelt. Somit entsprechen die hier gezeigten Abbildungen nicht exakt der Realitaöt, das grundle­gende Prinzip, an mehr Stellen auszuwerten, bleibt jedoch davon unberuöhrt.

2.2.2 Rigorous Geometric Algorithm

Nun soll ein Algorithmus vorgestellt werden, der aus mehreren niedrig aufgeloösten Bildern ein höoher auflöosendes Bild berechnet. Der Algorithmus heißt Rigorous Geo­metric Algorithm und wurde 2001 in Fryer & Mclntosh 3 vorgestellt. Der Algo­rithmus nutzt das im vorangehenden Abschnitt erlaöuterte Prinzip, indem die In­formationen der niedrig aufgeloösten Bilder durch geometrische Betrachtungen mit dem Pixelgitter des gesuchten hoöher auflöosenden Bildes verbunden werden. Dazu wird die Kenntnis der Verschiebungen der Einzelbilder zueinander, wobei diese nicht Vielfache des Pixelabstandes sein duörfen, vorausgesetzt.

Die Funktionsweise des Algorithmus soll anhand eines eindimensionalen Grauwert­bildes betrachtet werden. In Abb. 2.7 sind dazu die Pixel des gesuchten hoöher aufloösenden Bildes (engl. fine pixel) und die Pixel zweier niedrig aufloösender Bil­der (engl. coarse pixel) dargestellt. Dabei sind die drei Zeilenbilder entsprechend ihrer tatsaöchlichen oörtlichen Verschiebung zueinander angeordnet. Hier wurde als Vergroößerungsrate, also das Verhaöltnis der Pixellöange lF der feinen (fine) Pixel zu der Lange IC der groben (coarse) Pixel, p = |C = 2 gewöhlt. Weiterhin wurde Coarse Image 1 als Referenz genutzt, um das hoöher aufgeloöste Pixelgitter daran auszurich­ten. Die Intensitöatsskala reicht von 0 (weiß) bis 255 (schwarz).

Damit sind die ersten beiden Schritte, naömlich Auswaöhlen der Vergröoßerungsrate und des Referenzgitters, bereits erledigt. Nun wird im dritten Schritt fuör jedes grobe

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.7: Pixelgitter der Einzelbilder und des gesuchten höher auflösenden Bildes übereinander gelegt (Fryer & Mclntosh 3, modifiziert)

Pixel in einer Gleichung festgehalten, wie jedes feine Pixel zum Intensitaötswert des groben Pixels beitraögt. Uö ber dem ersten groben Pixel C1 befindet sich das komplette feine Pixel X1 und nur mit halber Löange noch das feine Pixel X2. Wenn wir die Pixelwerte mit der Pixellaönge gewichten, ergibt sich folgender Zusammenhang:

Abbildung in dieser Leseprobe nicht enthalten

Ebenso verfahren wir fuör den Intensitaötswert des naöchsten Pixels C2:

Abbildung in dieser Leseprobe nicht enthalten

Mit den uöbrigen groben Pixeln erhalten wir damit insgesamt n = 7 lineare Gleichun­gen fuör m = 6 Unbekannte. In Matrix-Vektor-Notation lautet dieses LGS

Abbildung in dieser Leseprobe nicht enthalten

mit den Beispielwerten

Abbildung in dieser Leseprobe nicht enthalten

Dabei enthält A die Verschiebungskoeffizienten, C die bekannten Pixelwerte der groben Pixel und X ist das gesuchte hoher aufläsende Bild. Wegen n > m han­delt es sich hierbei um ein uäberbestimmtes LGS, welches keine eindeutige Loäsung besitzt. Wir bedienen uns im vierten Schritt einer Methode der Least-Squares- Ausgleichsrechnung und erhalten mit den Gauß'schen Normalengleichungen fuär X:

Abbildung in dieser Leseprobe nicht enthalten

Der Algorithmus liefert somit aus der Menge aller hoch aufläosenden Bilder dasjenige, welches den geringsten quadratischen Fehler zu den Einzelbildern aufweist.

Der Algorithmus läasst sich relativ leicht auf den zweidimensionalen Fall uäbertragen. Dabei gibt es dann Verschiebungen in beide Koordinatenrichtungen, was das Auf­stellen der Gleichungen etwas komplizierter macht. Aufgrund der zwei Dimensionen wird auch die Nummerierung etwas aufwendiger. Das grundlegende Prinzip bleibt jedoch dasselbe.

2.2.3 Experimentelle Ergebnisse

In Fryer & Mclntosh 3 wurde der Algorithmus mit den in Abb. 2.8 zu sehenden Bildern getestet. Die obere Reihe besteht aus vier niedrig aufläosenden Bildern der gleichen Person, wobei die Aufnahmen der Voraussetzung des Algorithmus entspre­chend jeweils leicht gegeneinander verschoben sind. Auf den vier Bilder sind noch deutlich die einzelnen Pixel zu erkennen, und die Gesichtszuäge der Person koännen nur erahnt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.8: oben: Vier leicht verschobene Testbilder, unten links: Ergebnis des Algo­rithmus, unten rechts: Ergebnis einer einfachen Durchschnittsbildung (Fryer & Mclntosh 3)

Das vom Algorithmus berechnete Bild (unten links) bietet im Vergleich eine enorme Verbesserung. Am auffalligsten sind die kleineren Pixel, die nun schon fast nicht mehr auszumachen sind. Ein genauerer Blick zeigt auch, dass der Kontrast ver­bessert wurde: Im berechneten Bild wird die Grauwertskala in beide Richtungen starker ausgereizt als in jedem dem vier Einzelbilder. Der Test des Algorithmus umfasste auch noch einen Vergleich mit einer anderen Methode, und zwar dem Berechnen eines einfachen Durchschnittsbildes (unten rechts) aus den vier Einzelbil­dern. Dabei werden die Einzelbilder gemaß ihrer Verschiebung ubereinander gelegt und gemittelt. Die Qualitat dieses Bildes ist zwischen den Einzelbildern und dem Ergebnis des RG-Algorithmus einzuordnen. Gerade die erwahnte Verbesserung des Kontrastes kann mit der Durchschnittsberechnung nicht erreicht werden.

Es lasst sich festhalten, dass der Algorithmus tatsachlich in der Lage ist, aus den Einzelbildern deutlich mehr Information herauszuholen als es eine Durchschnittsbe­rechnung vermag. Die in den Verschiebungen der Einzelbilder versteckte Information kann so in eine sichtbare Verbesserung der Bildqualitat umgemunzt werden.

2.3 Kombination

Nun mochten wir uns die Erkenntnisse aus der Auflösungsverbesserung im Rahmen der Rontgen-Computertomographie zunutze machen. Der praktische Nutzen der XCT haöngt vor allem von der Bildaufloösung und der Dauer einer Aufnahme ab, daher werden wir die Relevanz des vorgeschlagenen Algorithmus vor allem daran messen.

2.3.1 RG-Algorithmus und Zeilendetektor-XCT

Unser Rechenbeispiel fuör den RG-Algorithmus ist direkt auf den Fall eines XCT- Geraöts mit Zeilendetektor, wie aus Abschnitt 2.1 bekannt, anwendbar. Dazu muss der Zeilendetektor so modifiziert werden, dass in Zeilenrichtung leicht gegeneinander verschobene Aufnahmen moöglich sind. Nun werden aus jedem Blickwinkel auf das Objekt nicht nur eine, sondern mehrere leicht gegeneinander verschobene Aufnah­men gemacht. Diese werden dann mithilfe des eindimensionalen RG-Algorithmus zu einem hoöher aufloösenden Bild kombiniert. Wir haben somit die Aufloösung des Zeilen­detektors erhöoht, ohne einen neuen Detektor zu benöotigen. Aus diesen verbesserten Zeilenaufnahmen kann nun eine hoöher aufloösende Rekonstruktion der Schnittebene des zu untersuchenden Objekts berechnet werden. Anders ausgedruöckt stehen uns mit der hoöheren Aufloösung der Zeilenbilder mehr bekannte Linienintegrale der Ab- schwaöchungskoeffizienten uöber die Schnittebene zur Verfuögung.

In realen Anwendungen kommen Zeilendetektoren faktisch nicht mehr vor. Um einen kompletten Volumenscan zu erhalten, musste mit ihnen namlich für jede einzelne Schnittebene (deren Anzahl hangt von der gewunschten Auflosung in Richtung der Schnittnormalen ab) ein vollstandiger XCT-Scan durchgefuhrt werden. In der Praxis haben sich stattdessen sogenannte cone beam Varianten durchgesetzt, bei denen ein kegelförmiger Röntgenstrahl zusammen mit einem Flachendetektor eingesetzt wird. Man verwendet quasi mehrere Zeilendetektoren gleichzeitig, was die Scandauer drastisch reduziert.

Um die hochgenaue Verschiebung des Detektors zu gewaöhrleisten, kommen soge­nannte XY-Tische zum Einsatz. Solche Geröate erlauben praözise Translationen im Mykrometer-Bereich und kosten nur einen Bruchteil des Preises eines hoöher aufloösen- den Roöntgendetektors.

2.3.2 Limitationen des Algorithmus

Man koönnte erwarten, dass mit mehr Einzelbildern auch die Qualitaöt des berech­neten Bildes immer weiter zunimmt. Der Vergröoßerungsfaktor bei der Aufloösungs- verbesserung unterliegt jedoch einer theoretischen Grenze. Aus dem Abtasttheorem der Signalverarbeitung laösst sich ableiten, dass die Pixellaönge maximal um einen Faktor kleiner zwei verringert werden kann. Weiterfuöhrende Experimente in Fryer & Mclntosh 3 ergaben, dass bereits ab einem Faktor von p = 1.6 zunehmend Artefakte und Bildrauschen die zunaöchst durch die Auflöosungserhöohung sichtbare Verbesserung der Bildqualitaöt zunichte machen. Dennoch ist es ratsam, bei einem vernuönftig gewöahltem Vergroößerungsfaktor mehr als die fuör die Löosbarkeit des LGS minimale Anzahl an Einzelbildern zu verwenden.

Problematisch ist auch, dass der Algorithmus sensitiv auf Rauschen in den Eingangs­daten reagiert. Ebenso beeintraöchtigen Fehler in den Verschiebungskoeffizienten A das Ergebnis. Solche Fehler entstehen durch Ungenauigkeiten des XY-Tisches, oder, falls wie in 3 zur Bestimmung von A stattdessen ein Algorithmus verwendet wird, durch Ungenauigkeiten im sog. image matching-Algorithmus.

Waöhrend mit dem RG-Algorithmus wie bereits ausgefuöhrt die Bildauflöosung tat- saöchlich deutlich verbessert werden kann, ist es vor allem die erhoöhte Scandauer, die die praktische Relevanz des Verfahrens im Bereich XCT einschröankt. In den beiden groößten Anwendungsgebieten, der Medizin und der industriellen Messtechnik, ist die fuör eine Aufnahme benoötigte Zeit aus verschiedenen Gruönden entscheidend: In der Medizin moöchte man die Strahlenbelastung der Patienten moöglichst gering halten. Ein XCT-Scan weist bereits eine um ein Vielfaches hoöhere Strahlenbelastung auf als konventionelles Roöntgen. Wird durch die zusaötzlichen leicht verschobenen Aufnah­men diese Belastung noch einmal vervielfacht, kommt man schnell an einen Punkt, wo die zusaötzliche Strahlenbelastung nicht mehr mit den diagnostischen Vorteilen zu rechtfertigen ist. In der Industrie dagegen geht es darum, eng getaktete Prozesse, wie z.B. in der Bandmontage, durch XCT-Materialprufungen mit Sensorauflösungs­verbesserung nicht plötzlich um ein Vielfaches langer dauern zu lassen. Am meisten Relevanz hat das Verfahren in den Natur- und Ingenieurswissenschaften. Dort sind Prozesse nicht so zeitkritisch wie in der Industrie und es werden auch keine Lebewe­sen untersucht, die durch die erhöhte Strahlenbelastung geschädigt werden könnten. Außerdem geht es in der Forschung auch oft darum, das technisch Machbare auszu­loten, wodurch gerade Verfahren wie das vorgestellte erst entwickelt werden.

3. Zusammenfassung und Ausblick

Verfahren zur künstlichen Sensorauflösungsverbesserung sind ernorm vielseitig ein­setzbar, was bereits an den umfassenden Applikationen der Rontgen-Computertomo- graphie ersichtlich wird. In diesem Bereich geht es darum, das Optimum zwischen Scandauer und Bildqualität zu finden. Dabei kann der vorgestellte RG-Algorithmus noch deutlich verbessert werden, z.B. indem die Voraussetzungen an die Einzelbilder abgeschwacht werden, sodass auch Rotationen, Bilder aus verschiedenen Entfernun­gen oder Bewegtbilder in den Verbesserungsprozess einfließen konnen. In Li et al. 6 wurde bereits ein erster Schritt getan und mithilfe von Regularisierungsmethoden der Ausgleichsrechnung mit Erfolg die Sensitivitat auf Fehler in den Daten verrin­gert.

Literaturverzeichnis

1 Boyd, S. & Vandenberghe, L.: Introduction to Applied Linear Algebra - Vec­tors, Matrices, and Least Squares. Cambridge University Press, Cambridge 2018, ISBN 978-1-316-51896-0.

2 Carmignato, S.; Dewulf, W. & Leach, R.: Industrial X-Ray Computed Tomogra­phy. Springer, Berlin, Heidelberg 2017, ISBN 978-3-319-59573-3.

3 Fryer, J. & Mclntosh, K.: Enhancement of image resolution in digital photo­grammetry. Photogrammetric Engineering & Remote Sensing 62 (2001).

4 Hanke-Bourgeois, M.: Grundlagen der Numerischen Mathematik und des Wis­senschaftlichen Rechnens. Springer-Verlag, Berlin Heidelberg New York 2009, ISBN 978-3-834-89309-3.

5 Immanuel Krankenhaus Berlin: Ein infolge eines Unfalls gebrochener Mit­telhandknochen (2020), URL https://berlin.immanuel.de/fileadmin/ user\_upload/IK\_ Berlin/03\_Abteilungen/03\_ 07 V ObereExtremitaet/ 02\_Leistungen/02\_ 03 V Hand/immanuel-krankenhaus-berlin-obere- extraemitaet-gebrochene-mittelhand.jpg, [Online; zugegriffen am 11.07.2020].

6 Li, P.; Shen, H. & Zhang, L.: A method of image resolution enhancement based on the matching technique. State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing, Wuhan University (2004).

7 Luong, Q. H.: Advanced image and video resolution enhancement techniques. Dissertation, PhD thesis, Faculty of Engineering Ghent University (2009).

8 Praxis fur Radiologische Diagnostik Hanau: CT Hand und Handgelenk (2020), URL https://radiologische-diagnostik.de/wp-content/uploads/ ct\_hand\_01.jpg, [Online; zugegriffen am 11.07.2020].

9 Wikipedia, die freie Enzyklopädie: 2D-Sonogramm eines Menschenfötus von neun Wochen (2011), URL https://de.wikipedia.org/wiki/Sonografie\#/ media/Datei:Medecine\_Echographie.jpg, [Online; zugegriffen am 11.07.2020].

[...]

Ende der Leseprobe aus 23 Seiten

Details

Titel
Künstliche Sensorauflösungsverbesserung bei röntgentomographischen Untersuchungen
Hochschule
Universität Stuttgart  (Institut für Mechanik (Bauwesen))
Veranstaltung
SimTech-Seminar (B.Sc.)
Note
1,3
Autor
Jahr
2020
Seiten
23
Katalognummer
V1127169
ISBN (eBook)
9783346486790
ISBN (Buch)
9783346486806
Sprache
Deutsch
Schlagworte
Computertomographie, Röntgen, Künstliche Sensorauflösungsverbesserung, Resolution Enhancement, Röntgencomputertomographie
Arbeit zitieren
Moritz Sigg (Autor:in), 2020, Künstliche Sensorauflösungsverbesserung bei röntgentomographischen Untersuchungen, München, GRIN Verlag, https://www.grin.com/document/1127169

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Künstliche Sensorauflösungsverbesserung bei röntgentomographischen Untersuchungen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden