Einsatz von ultrahellen Leuchtdioden in der digitalen Holographie


Diplomarbeit, 2008

117 Seiten, Note: 1,3


Leseprobe

WESTFÄLISCHE
WILHELMS-UNIVERSITÄT
MÜNSTER
Einsatz von ultrahellen
Leuchtdioden in
der digitalen Holographie
Diplomarbeit
von
Stephan Stürwald
vorgelegt dem
Fachbereich Physik der
Westfälischen Wilhelms-Universität Münster
Münster, den 3. März 2008


Inhaltsverzeichnis
1 Einleitung und Motivation
1
2 Theoretische Grundlagen
3
2.1 Grundlagen der Holographie . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.2 Phasenschiebende Rekonstruktionsverfahren . . . . . . . . . . . . . . . . .
7
2.2.1 Zeitliche Phasenschiebeverfahren . . . . . . . . . . . . . . . . . . .
8
2.2.2 Räumliche Phasenschiebeverfahren . . . . . . . . . . . . . . . . . .
10
2.3 Numerische Propagation der komplexen Objektwelle . . . . . . . . . . . . .
12
2.4 Quasimonochromatische Lichtquellen . . . . . . . . . . . . . . . . . . . . .
13
2.4.1 Dispersion von quasimonochromatischem Licht . . . . . . . . . . . .
16
2.4.2 Mathematische Approximation des Brechungsindex . . . . . . . . .
17
2.5 Ultrahelle Licht emittierende Dioden . . . . . . . . . . . . . . . . . . . . .
18
2.5.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.5.2 Lambert-Strahler . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
3 Experimentelle Methoden
21
3.1 Charakterisierte Lichtquellen . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.2 Aufbau und Vorgehen zur Untersuchung des Abstrahlprols der LEDs . . .
22
3.3 Methoden zur Charakterisierung der Kohärenzeigenschaften der LEDs . . .
23
3.3.1 Interferometeraufbau und Justage . . . . . . . . . . . . . . . . . . .
23
3.3.2 Kontrastbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.3.3 Interferometrische Bestimmung der Kohärenzlänge . . . . . . . . . .
28
3.4 Quantizierung des Rauschens von Phasenverteilungen . . . . . . . . . . .
29
3.5 Phaseshifting und Phasestepping . . . . . . . . . . . . . . . . . . . . . . .
30
3.6 Digitalholographisches Linnik-Interferenz-Mikroskop . . . . . . . . . . . . .
31
3.7 Verwendete Gläser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
3.8 Ablauf der Hologrammauswertung . . . . . . . . . . . . . . . . . . . . . . .
33
4 Ergebnisse und Diskussion
39
4.1 Eigenschaften von LEDs . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4.1.1 Spektren der Lichtquellen . . . . . . . . . . . . . . . . . . . . . . .
39
4.1.2 Abstrahlprol der LEDs . . . . . . . . . . . . . . . . . . . . . . . .
40
4.2 Charakterisierung der Betriebsparameter der LEDs . . . . . . . . . . . . .
42
4.2.1 Zeitliches Verhalten der Spektren . . . . . . . . . . . . . . . . . . .
42
4.2.2 Stromabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
4.3 Optimierung der Kontrastbestimmung durch Fourieranalyse . . . . . . . .
47

4.3.1 Charakterisierung des Algorithmus . . . . . . . . . . . . . . . . . .
47
4.3.2 Optimierung durch Fensterfunktionen . . . . . . . . . . . . . . . . .
48
4.4 Kalibrierung der Piezotranslatoren . . . . . . . . . . . . . . . . . . . . . .
52
4.5 Stabilität des optischen Aufbaus . . . . . . . . . . . . . . . . . . . . . . . .
55
4.6 Optimierung des zeitlichen Phasenschiebens . . . . . . . . . . . . . . . . .
56
4.6.1 Vergleich der Phasenschiebealgorithmen . . . . . . . . . . . . . . .
56
4.6.2 Vergleich von Phaseshifting und Phasestepping . . . . . . . . . . .
58
4.7 Kohärenzlängenbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . .
59
4.8 Einuss der Dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
4.8.1 Untersuchung an Mikroskopie-Gläsern . . . . . . . . . . . . . . . .
62
4.8.2 Untersuchung an Strahlteilern . . . . . . . . . . . . . . . . . . . . .
66
4.9 Intensitätsrauschen der Interferogramme . . . . . . . . . . . . . . . . . . .
67
4.10 Abhängigkeit des Phasenrauschens vom Kontrast . . . . . . . . . . . . . .
68
4.11 Abhängigkeit des Phasenrauschens von der Belichtungszeit . . . . . . . . .
71
4.12 Simulation der digitalholographischen Rekonstruktionsverfahren . . . . . .
72
4.12.1 Ergebnisse der Simulation der Hologrammauswertung . . . . . . . .
72
4.12.2 Verwendbare Trägerstreifenzahl für räumliches Phasenschieben mit
LEDs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
4.13 Untersuchungen zum digitalholographischen Linnik-Interferenz-Mikroskop .
76
4.13.1 Bestimmung der Auösung . . . . . . . . . . . . . . . . . . . . . . .
76
4.13.2 Untersuchungen an Tumorzellen . . . . . . . . . . . . . . . . . . . .
83
4.13.3 Übergeordnete Diskussion der Messergebnisse . . . . . . . . . . . .
89
5 Zusammenfassung der Ergebnisse
91
6 Ausblick
93
Literaturverzeichnis
95
A Anhang
101
A.1 Technische Angaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A.1.1 Helium-Neon-Laser . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A.1.2 Spektrometer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A.1.3 Lichtleistungsmessgerät . . . . . . . . . . . . . . . . . . . . . . . . . 101
A.1.4 Messkameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
A.1.5 Piezotranslatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
A.1.6 A/D-Wandlerkarte . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
A.1.7 Auösungs-Testchart . . . . . . . . . . . . . . . . . . . . . . . . . . 103
A.1.8 Kalibrierungs-Testchart . . . . . . . . . . . . . . . . . . . . . . . . . 103
A.1.9 Zellpräparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
A.2 Ausführliche Messergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . 105
B Liste der Variablen
109

1 Einleitung und Motivation
Die Holographie ist ein Verfahren zur Aufzeichnung und Rekonstruktion von Wellenfron-
ten, d. h., neben der Intensität wird auch die Phase eines Lichtwellenfeldes aufgenommen.
Bei der digitalen Holographie wird das Hologramm, das aus der Überlagerung von zuein-
ander kohärenten Objekt- und Referenzwellen entsteht, mit einem Rastersensor (z.B. einer
CCD-Kamera) aufgezeichnet, der die Intensität des einfallenden Lichtes in ein elektrisches
Signal konvertiert. Nach anschlieÿender Diskretisierung wird die Information zur digitalen
Weiterverarbeitung im Computer gespeichert. Die Rekonstruktion der Signalwelle erfolgt
mit Hilfe von numerischen Rekonstruktionsalgorithmen.
Am Centrum für Biomedizinische Optik und Photonik werden digitalholographische Metho-
den für den Einsatz in der Mikroskopie entwickelt. Die digitalholographische Mikroskopie
stellt ein Verfahren zur quantitativen Phasenkontrastmikroskopie von biologischer Proben
dar und önet neue Möglichkeiten der Zellbeobachtung. Im Vergleich zu anderen Metho-
den wie z.B. der Fluoreszenzmikroskopie ermöglichen digitalholographische Verfahren eine
Detektion von optischen Weglängenänderungen mit interferometrischer Genauigkeit, die
im Reexionsfall durch die Form des Objektes und bei Transmission durch dessen Bre-
chungsindex bzw. deren Änderung verursacht werden. In der Lebendzellanalyse erlauben
digitalholographische Verfahren eine gleichzeitig schnelle, minimal invasive, ächenhafte,
markerfreie und quantitative Analyse von lebenden Zellen [1].
Hierbei werden die durch die Probe verursachten Variationen in der optischen Weglänge
aufgezeichnet und als quantitative Phasenkontrastbilder rekonstruiert [2].
Laser führen aufgrund der groÿen Kohärenzlänge, die im Meterbereich liegen kann, bei der
digitalen Holographie zu störenden zusätzlichen Interferenzen, die z.B. durch Mehrfache-
exionen im Aufbau verursacht werden.
Der Einsatz von kurzkohärenten Lichtquellen erönet hierbei die Möglichkeit zur Verminde-
rung dieser Eekte, da nur innerhalb des Kohärenzbereiches Interferenzen auftreten können.
Es ist daher zu erwarten, dass kurzkohärentes Licht zu einem geringeren Phasenrauschen
und damit zu einer besseren Qualität des holographischen Phasenkontrastes führt [3, 4].
Ziel dieser Arbeit ist der Aufbau, die Optimierung und Charakterisierung eines kurzko-
härenten digitalholographischen Mikroskopiesystems, das insbesondere zur Untersuchung
von Zellen eingesetzt werden soll. Hierbei werden ultrahelle Leuchtdioden (LEDs) unter-
schiedlicher Lichtwellenlängen auf die Eignung als Lichtquellen in der digitalen Holographie
untersucht, da diese eine Kohärenzlänge von wenigen Mikrometern aufweisen und die An-
schaungskosten gering sind.
Zunächst wird hierzu das für die spätere Anwendung wichtige spektrale Verhalten sowie das
Abstrahlprol verschiedener ultraheller LEDs ("Light Emitting Diodes") untersucht. Des
Weiteren werden verschiedene Betriebsmodi und Anwendungsmethoden der eingesetzten
1

KAPITEL 1. EINLEITUNG UND MOTIVATION
Lichtquellen erprobt. Anschlieÿend erfolgt eine Charakterisierung der Kohärenzeigenschaf-
ten der LEDs mit einem auf einem Michelson Interferometer basierenden experimentellen
Aufbau. Dabei werden die bei quasimonochromatischen Lichtquellen auftretenden Disper-
sionseekte unterschiedlicher Gläser charakterisiert. Hierzu erfolgt die Optimierung eines
Streifenkontrastalgorithmus für vergleichende Kontrastanalysen. Die kurzkohärenten Licht-
quellen werden im weiteren Verlauf der vorliegenden Arbeit in einem digitalholographischen
Linnik-Mikroskopie-Aufbau implementiert. Zudem erfolgt ein Vergleich unterschiedlicher,
räumlich und zeitlich phasenschiebender Rekonstruktionsmethoden an technischen und bio-
logischen Proben.
2

2 Theoretische Grundlagen
2.1 Grundlagen der Holographie
Die Holographie ist ein Verfahren zur Aufzeichnung und Rekonstruktion von Wellenfron-
ten. Um ein Objekt holographisch aufzuzeichnen wird es mit kohärentem Licht be- oder
durchleuchtet. Durch die kohärente Überlagerung des am Objekt gebeugten, reektierten
oder gestreuten Lichts E
O
(o,t) mit einer Referenzwelle E
R
(r,t) entsteht in der Hologram-
mebene das durch Gl. 2.4 beschriebene Interferogramm I
H
(o,r). Dabei bezeichnet k die
Wellenzahl, die Kreisfrequenz, t die Zeit und o, r die jeweiligen Ortsvektoren.
E
O
(o,t) = E
0O
(o) e
i
(t-k
o
o
-
o
)
,
(2.1)
E
R
(r,t) = E
0R
(r) e
i
(t-k
r
r
-
r
)
,
(2.2)
I
H
(o,r) = |E
O
(o,t) + E
R
(r,t)|
2
(2.3)
= |E
O
(o)|
2
+ |E
R
(r)|
2
+ E
O
(o,t) · E
R
(r,t) + E
R
(r,t) · E
O
(o,t)
= |E
O
(o)|
2
+ |E
R
(r,t)|
2
+ 2|E
O
(o)||E
R
(r)| cos(
O
(r) -
R
(r))
= I
O
(r) + I
R
(r) + 2 I
O
(r)I
R
(r) cos(
O
(r) -
R
(r)).
(2.4)
Im Gegensatz zur konventionellen Photographie wird zusätzlich zu der Amplitude auch die
Phase des Lichtwellenfeldes gespeichert. In einem zweiten Schritt kann das Wellenfeld, das
während der Speicherung von dem Objekt ausging, rekonstruiert werden.
Klassische Holographie
Bei der klassischen, optischen Rekonstruktion wird das Hologramm mit der zur Aufzeich-
nung verwendeten Referenzwelle beleuchtet, so dass die Referenzwelle E
R
in der Holo-
grammebene (x,y) mit dem Transmissionsgrad ~
T
moduliert wird. Werden die Zeitabhän-
gigkeit und der vektorielle Charakter vernachlässigt, gilt für die transmittierte Feldstärke:
E
T
(x,y)=E
R
(x,y) · ~
T
(x,y).
Im Falle eines Amplitudenhologramms ist die Amplitudentransmission ~
T
abhängig von
der eingestrahlten Energie B(x,y) =
t
B
0
I
(x,y,t)dt und kann in einem linearen Bereich des
Aufnahmemediums wie z.B. einem fotographischen Film durch die Aproximation
~
T
(x,y) = a - bT
B
I
H
(x,y)
(2.5)
beschrieben werden. Die entstandenen räumlichen Transmissionsschwankungen bilden das
Hologramm. Die örtliche Auösung ist dabei durch die Lichtwellenlänge, den Winkel zwi-
schen Objekt- und Referenzwelle und die spezischen Eigenschaften des Aufnahmemateri-
als bestimmt [15]. Die örtliche Auösung begrenzt zudem die Gröÿe des aufzunehmenden
3

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Objektes.
Abb. 2.1:
Rekonstruktion eines "o-axis"-Hologramms mit räumlicher Trennung der Bilder.
Zur optischen Rekonstruktion wird i.A. die Anordnung von Referenzwelle und Hologramm
beibehalten und das Hologramm ausschlieÿlich mit der Referenzwelle beleuchtet (Abb.
2.1). Dadurch entsteht unmittelbar hinter der Hologrammebene eine elektrische Feldstärke
E
T
, die gleich dem Produkt aus Amplitudentransmission ~
T
des Aufnahmemediums und
eingestrahlter Feldstärke E
R
ist:
E
T
(x,y) = E
R
(x,y) · ~
T
(x,y) = aE
R
(x,y) - bT
B
I
H
(x,y)
= aE
R
(x,y) - bT
B
E
R
(x,y)|E
R
(x,y)|
2
+ E
R
(x,y)|E
O
(x,y)|
2
+
+E
R
(x,y)E
O
(x,y)E
R
(x,y) + E
R
(x,y)E
O
(x,y)E
R
(x,y)
(2.6)
= aE
R
(x,y) - bT
B
E
R
(x,y) (I
R
(x,y) + I
O
(x,y))
0. Ordnung
+ E
O
(x,y)I
R
(x,y)
virtuelles Bild
+ E
2
R
(x,y)E
O
(x,y)
reelles Bild
(2.7)
Der erste Term in Gl. 2.7 ist bis auf einen konstanten Faktor proportional zur eingestrahl-
ten Referenzwelle und hat somit keine Bedeutung für die Bildrekonstruktion (Term 0. Ord-
nung). Der zweite Term liefert das virtuelle, orthoskopische (nicht invertierte) Bild, dessen
Wellenfeld proportional zur ursprünglichen Objektwelle ist. Das Objekt erscheint bei Be-
trachtung des Hologramms an der ursprünglichen Stelle, an der es während der Aufnahme
positioniert war (Abb. 2.1). Der dritte Term in Gl. 2.7 ist proportional zu der konjugiert
komplexen Wellenfront und liefert ein reelles, pseudoskopisches Bild, d.h. dass die Tiefen
invertiert sind. Dieser Teil wird auch als Zwillingsbild (engl.: "twin image") bezeichnet.
Sind die Propagationsrichtungen von Objekt- und Referenzwelle in der Hologrammebene
parallel, wird diese Anordnung als "in-line"-Holographie bezeichnet. In diesem Fall überla-
gert sich bei der Rekonstruktion das Bild mit der 0. Ordnung und dem Zwillingsbild. Dies
4

KAPITEL 2. THEORETISCHE GRUNDLAGEN
wird z.B. durch nichtbeugende Rekonstruktionsverfahren (siehe Abschnitt 2.2) oder eine
"o-axis"-Anordnung vermieden [15], bei der die Objekt und Signalwelle um den Winkel
verkippt sind. Dann kommt es bei der Rekonstruktion zu einer räumlichen Trennung aller
Terme in Gl. 2.7 (Abb. 2.1, [7, 8]).
Digitale Holographie
Im Gegensatz zur klassischen Holographie, bei der die Aufnahme eines Phasenhologramms
mit photoempndlichen Filmaterialien erfolgt, wird bei der digitalen Holographie das Am-
plitudenhologramm mit einem Bildaufnahmesensor aufgezeichnet und liegt somit direkt
als Matrix von Grauwerten vor. Die Rekonstruktion der Objektwelle geschieht bei der digi-
talen Holographie numerisch [5, 6, 22]. Zur Aufzeichnung von digitalen Hologrammen wer-
den im Allgemeinen CCD (Charged Coupled Device) oder CMOS (Complementary Metal
Oxide Semiconductor) -Sensoren eingesetzt. Die Belichtungzeit wird so gewählt, dass ein
möglichst groÿer Dynamikbereich des CCD-Sensors ausgenutzt wird.
Die Hologrammaufnahme ist daher mit einem analog aufgezeichneten reinen Amplitu-
denhologramm mit linearer Kennlinie des holographischen Films vergleichbar. Bei digi-
taler Aufzeichnung ist die Kennlinie nicht invertiert wie beispielsweise bei Silberhalogenid-
Photoplatten. Daher kann bei der Rekonstruktion in erster Näherung mit dem reellen
Amplitudentransmissionsgrad ~
T
(x
n
,y
m
) I
H
(x
n
,y
m
) gerechnet werden. Dabei bezeichnet
(x
n
,y
m
) die diskreten Flächenkoordinaten des Aufnahmesensors mit der Pixelauösung
N
x
× N
y
und T
B
die Belichtungszeit. Eine virtuelle "Beleuchtung" der aus der Intensitäts-
verteilung resultierenden Transmission E
T
(x
n
,y
m
) mit der Referenzwelle E
R
liefert dann:
E
T
(x
n
,y
m
) = E
R
(x
n
,y
m
) · ~
T
(x
n
,y
m
)
(2.8)
E
R
(x
n
,y
m
) · I
H
(x
n
,y
m
)
= E
R
(x,y) (I
R
(x,y) + I
O
(x,y)) + E
O
(x,y)I
R
(x,y) + E
2
R
(x,y)E
O
(x,y)(2.9)
Analog zur klassischen Holographie (vgl. Gl. 2.7) ergibt sich eine Aufteilung der Transmis-
sion E
T
in die drei Terme O. Ordnung, vituelles und reelles Bild (Gl. 2.9).
Numerische Rekonstruktion digitaler Hologramme
Grundlegend für die numerische Rekonstruktion ist die skalare Beugungstheorie von Kirch-
ho mit dem aus den Maxwellgleichungen abgeleiteten Kirchhoschen Integraltheorem [21].
Dieses ermöglicht die Berechnung der komplexen Amplitude E(x ,y ) einer Welle an einem
beliebigen Punkt B in der x ,y -Ebene (Abb. 2.2), wenn auf einer beliebigen geschlossenen
Oberäche A um einen Punkt B die komplexe Amplitude mit deren Ableitung bekannt
ist.
Bei senkrechtem Einfall der ebenen Referenzwelle E
R
auf das Hologramm in der xy-Ebene
kann die komplexe Amplitude E
z
(x ,y ) im Abstand z von der Hologrammebene mit
dem Fresnel-Kirchhoschen Beugungsintegral [15, 5] rekonstruiert werden. Das daraus ab-
geleitete Huygens-Fresnel-Prinzip gemäÿ der ersten Rayleigh-Sommerfeld-Lösung in kar-
S. Stürwald
5

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Abb. 2.2:
Hologrammebenen x,y und x',y'.
tesischen Koordinaten ist in Gl. 2.10 aufgeführt. Für eine detaillierte Beschreibung der
skalaren Beugungstheorie und die Herleitung von Gl. 2.10 wird auf [21] verwiesen.
E
z
(x ,y ) =
z
i
-
-
E
0
(x,y)
e
i2R
R
2
dxdy
(2.10)
mit: R = (x - x)
2
+ (y - y)
2
+ z
2
(2.11)
Die komplexe Amplitude E
z
(x ,y ) eines Punktes B in der x ,y -Ebene ergibt sich durch
Überlagerung aller von der xy-Ebene ausgehenden Elementarwellen mit den komplexen
Amplituden E
0
(x ,y ) und der Wellenlänge .
Gleichung 2.10 beinhaltet die der skalaren Beugungstheorie inhärenten Näherungen. Da-
bei wird der vektorielle Charakter des Lichts vernachlässigt. Die Voraussetzungen für die
Gültigkeit dieser Näherung sind, dass zum einen die beugenden Strukturen gröÿer als die
Wellenlänge sein müssen. Zum anderen darf das gebeugte Feld nicht zu nah an der Apertur
(z
) betrachtet werden [21].
Für die numerische Auswertung des Integrals 2.10 ist die als Fresnel-Approximation be-
zeichnete Näherung hilfreich. Dazu wird der durch Gleichung 2.11 in kartesischen Koor-
dinaten gegebene Abstand R im Argument der Exponentialfunktion in Gl. 2.10 durch
die ersten beiden Terme und R
2
im Nenner durch den ersten Term der Taylor-Reihe:
1 + b = 1+
1
2
b
-
1
8
b
2
+. . . ersetzt (Gl. 2.12). Dies entspricht einer parabolischen Näherung
für die von der Hologrammebene ausgehenden sphärischen Wellen, womit sich aus Gl. 2.10
die Gleichung 2.13 ergibt:
R
z 1 +
1
2
x
- x
z
2
+
1
2
y
- y
z
2
(2.12)
E
z
(x ,y ) =
e
i
2z
i
z
-
-
E
0
(x,y) exp i
z
(x - x)
2
+ (y - y)
2
dxdy
(2.13)
6

KAPITEL 2. THEORETISCHE GRUNDLAGEN
2.2 Phasenschiebende Rekonstruktionsverfahren
Eine an das klassische Verfahren angelehnte, numerische Realisierung der Objektwellen-
rekonstruktion wurde in Abschnitt 2.1 beschrieben. Alternativ lässt sich die elektrische
Feldstärke der Objektwelle mit dem Einsatz von Phasenschiebeverfahren ermitteln. Diese
beugungsfreien Verfahren vermeiden das Auftreten der Einschränkungen wie die Überlage-
rung mit der 0. Beugungsordnung bei "in-line"-Anordnung und die niedrigere Auösung
bei "o-axis"-Anordnung. Aus diesem Grunde werden in dieser Arbeit ausschlieÿlich Pha-
senschiebeverfahren verwendet.
Im Allgemeinen ist zwischen räumlichen und zeitlichen Phasenschiebemethoden zu un-
terscheiden [11, 15]. Beim zeitlichen Phasenschieben wird die Phase und Amplitude der
Objektwelle aus einer Sequenz von mindestens drei Bildern mit unterschiedlicher, relativer
Phasenlage von E
O
und E
R
bestimmt. Bei räumlich phasenschiebenden Methoden erfolgt
die Berechnung der Phase und Amplitude aus einem einzigen Interferogramm mit über-
lagertem Trägerstreifensystem durch Berücksichtigung der Intensität benachbarter Pixel.
Eine weitere Methode besteht in einer Berechnung der komplexen Amplitude im Frequenz-
raum [15, 12], worauf hier jedoch nicht weiter eingegangen werden soll. Sowohl zeitliche als
räumliche Phasenschiebeverfahren nden in dieser Arbeit Anwendung und werden daher
in den folgenden Abschnitten kurz erläutert.
Hierzu ist es sinnvoll, die Modulation
0
(x,y) einzuführen. Diese ist deniert durch Gl.
2.14.
0
(x,y)
2 I
R
(x,y)I
O
(x,y)
I
R
(x,y) + I
O
(x,y)
(2.14)
Mit I
R
(x,y) + I
O
(x,y) = I
0
(x,y) ergibt das Einsetzen von Gl. 2.14 in Gl. 2.4 die Interfero-
grammgleichung 2.15.
I
H
(x,y) = I
0
(x,y) · 1 +
0
(x,y) cos (x,y)
(2.15)
mit: (x,y) =
O
(x,y) + x
x
+ y
y
+ C
(2.16)
Der räumliche Phasengradient einer ebenen und gegenüber der Objektwelle verkippten
Referenzwelle wird durch = (
x
,
y
) ausgedrückt. Der Parameter C beschreibt einen
konstanten, globalen Phasenversatz.
Bei der Digitalisierung eines Hologramms wird die kontinuierliche Intensitätsverteilung
I
H
(x,y) diskretisiert. Da die einzelnen Detektorelemente (Pixel) eine endliche Ausdehnung
besitzen, erfolgt bei der Diskretisierung eine Integration über die lichtempndliche Fläche
jedes Pixels des Aufnahmesensors. Im Fall einer über einen Pixel mit den Koordinaten
(x
n
,y
m
) näherungsweise konstanten räumlichen Phasenverschiebung zwischen E
O
und
E
R
ist die eektive Modulation auf einem Sensor mit N
x
×N
y
Pixeln gegeben durch [11, 15]:
(x
n
,y
m
) = sinc
2
2 I
R
(x
n
,y
m
)I
O
(x
n
,y
m
)
I
R
(x
n
,y
m
) + I
O
(x
n
,y
m
)
= sinc
2
0
.
(2.17)
S. Stürwald
7

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Die mittlere eektive Modulation ¯ ist dabei identisch mit dem Kontrast (siehe auch Ab-
schnitt 3.3.2).
Die durch die Quantisierung hervorgerufenen systematischen Fehler bei Phasenschiebe-
verfahren unter Verwendung von digitalen Aufnahmesensoren werden dabei in [23, 26]
behandelt.
2.2.1 Zeitliche Phasenschiebeverfahren
Bei zeitlichen Phasenschiebeverfahren werden zur Berechnung der relativen Phase sowie
der Amplitude die Intensitäten gleicher Bildpunkte von mehreren Interferogrammen bei
unterschiedlicher Phasenlage der Referenzwelle aufgenommen. Zur Rekonstruktion der Ob-
jektwellenphase und Amplitude werden die jeweiligen Grauwerte der um einen konstanten
Wert zeitlich phasenverschobener Bildpunkte in Gl. 2.15 eingesetzt. Hieraus resultiert ein
Gleichungssystem mit drei unbekannten Variablen (I
0
, ,
), welches mit den Gleichun-
gen von mindestens drei Pixeln eindeutig lösbar ist. Folglich existiert eine Vielzahl von
Algorithmen, die nach der Anzahl der miteinander verrechneten Intensitätswerte I
j
der
Bildpunkte j (x
n
, y
m
) benannt sind. Im Rahmen dieser Arbeit werden ausschlieÿlich
variable Phasenschiebeverfahren erprobt, da diese eine Variation des Phasenvorschubes
t
zwischen den einzelnen Interferogrammen erlauben und deshalb für den spezischen ex-
perimentellen Aufbau optimiert werden können. Ein häug verwendetes Verfahren ist der
variable Drei-Schritt-Algorithmus, dessen Herleitung in [9, 15] zu nden ist. Mittels Glei-
chung (2.18) lässt sich die Objektwellenphase
O, j
des j-ten Bildpunktes auf einem durch
das Trägerstreifensystem erzeugten Phasenuntergrund x
n
x
+y
m
y
+C berechnen. Zudem
wir ein variabler Fünf-Schritt-Algorithmus (Gl. 2.19) erprobt.
(
O,j
+ x
n
x
+ y
m
y
+ j
t
+ C) mod 2 = arctan
(1 - cos )I
j
-1
- I
j
+1
sin (2I
j
- I
j
-1
- I
j
+1
)
(2.18)
(
O,j
+ x
n
x
+ y
m
y
+ j
t
+ C) mod 2 = arctan
(1 - cos 2
t
)I
j
-1
- I
j
+1
sin
t
(2I
j
- I
j
+1
- I
j
-2
)
(2.19)
Der Algorithmus liefert die Objektphase aufgrund der Mehrdeutigkeit der Tangensfunkti-
on zunächst modulo . Durch eine Berücksichtigung des Vorzeichens des Zählers und des
Nenners bei der Berechnung der inversen Tangens-Funktion kann eine Demodulation von
auf das Intervall 2 erfolgen [11].
Zur Kalibration des zeitlichen Phasenvorschubs
t
(siehe auch Abschn. 4.4) der verwende-
ten Piezotranslatoren sowie zur automatischen Überwachung des Phasenvorschubs werden
im Vergleich Gl. (2.20) und Gl. (2.21) verwendet [11]:
t
= 2 arctan
3(I
j
-1
- I
j
) - (I
j
-2
- I
j
+1
)
(I
j
-1
- I
j
) + (I
j
-2
- I
j
+1
)
(2.20)
t
= arccos
I
j
+2
- I
j
-2
2(I
j
+1
- I
j
-1
)
(2.21)
8

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Bei einer zeitlich kontinuierlichen Veränderung ("phase-shifting") der Phasendierenz von
Objekt- und Referenzwelle durch
t
zwischen zwei Aufnahmen ndet während der Inter-
ferogrammaufnahme zusätzlich zur räumlichen Integration über einen Pixel eine zeitliche
Integration statt. Diese wird durch einen zweiten sinc-Term berücksichtigt (vgl. Gl. 2.15):
I
H
(x
n
,y
m
)
j
= I
0
(x
n
,y
m
) · 1 +
0
(x
n
,y
m
)sinc
2
sinc
t
2
=:(x
n
,y
m
)
(2.22)
· cos
Oj
(x
n
,y
m
) + x
n
x
+ y
m
y
+ j
t
+ C
Der zeitliche, konstante Phasengradient zwischen den Aufnahmen wird dabei mit
t
und
der Phasenversatz während der Aufnahme mit
t
bezeichnet. Die räumliche Phasen-
verschiebung, die durch x
n
x
+ y
m
y
gegeben ist, wird hier nicht benötigt, ist aber aus
Gründen der Vollständigkeit mit aufgeführt. Für zeitliche Phasenschiebeverfahren ist eine
"in-line"-Geometrie von Vorteil, da dann das Entfernen des räumlichen Phasenuntergrun-
des im Idealfall entfällt. Bei einer schrittweisen Verschiebung der Phasendierenz ("phase-
stepping") entfällt theoretisch der zusätzliche sinc-Faktor. Diese Methode wird in dieser
Arbeit mit dem "phase-shifting" verglichen (siehe Abschnitt 3.5 und 4.6.2).
Die Genauigkeit von zeitlich phasenschiebenden Methoden ist neben dem Intensitätsrau-
schen abhängig von der Empndlichkeit gegenüber dem Fehler des Phasenvorschubs
t
.
Dieser wird in [11, 24] beschrieben und wird im Falle des Dreischritt-Algorithmus für
t
= 90
minimiert. Die Anfälligkeit gegenüber dem Intensitätsrauschen verschiedener
Algorithmen wird in [25, 28] untersucht. Dabei wird ein durch unkorreliertes Intensitäts-
rauschen bedingter Objektphasenfehler in Abhängigkeit von der Kreuzkorrelation der In-
tensitätsfehler < I
1
I
2
>
I für 120
minimal
1
. Die Funktion
IR
(I, , I
0
) ist für
den Dreischritt-Algorithmus in Gl. 2.23 aufgeführt.
IR
=
I
2
2I
0
1
sin
2
t
+
3
(1 - cos
t
)
2
(2.23)
Die Proportionalität
IR
I
2I
0
besitzt dabei für Phasenschiebeverfahren Allgemeingültig-
keit.
Rekonstruktion der Objektwellenamplitude
Zur Bestimmung der Amplitude der Objektwelle in einem zeitlich phasenschiebenden digi-
talholographischen Interferometer ist eine Berechnung der Modulation (x
n
,y
m
) sowie von
1
In der Literarur wird der Phasenvorschub meist in Radiant angegeben. Da das Gradmaÿ häug anschau-
licher ist, wird es in dieser Arbeit bevorzugt.
S. Stürwald
9

KAPITEL 2. THEORETISCHE GRUNDLAGEN
I
0
(x
n
,y
m
) erforderlich. Für den Drei-Schritt-Algorithmus in Gl. 2.18 sind diese gegeben
durch [15]:
(x
n
,y
m
) =
(2I
j
- I
j
-1
- I
j
+1
)
2
+ (I
j
-1
- I
j
+1
)
2
tan
2
t
2
I
j
-1
+ I
j
+1
- 2I
j
cos
t
,
(2.24)
I
0
(x
n
,y
m
) = I
R
(x
n
,y
m
) + I
O
(x
n
,y
m
) =
2 cos
t
I
j
- I
j
-1
- I
j
+1
2 cos
t
- 2
.
(2.25)
Unter der Annahme einer ebenen Referenzwelle mit konstanter Referenzwellenintensität
(I
R
(x
n
,y
m
) = I
R
) ergibt sich mit Gl. (2.17) für die Amplitudenverteilung:
I
0
(x
n
,y
m
)I
R
= (x
n
,y
m
) ·
1
2
· (I
R
(x
n
,y
m
) + I
O
(x
n
,y
m
)) |E
O
(x
n
,y
m
)| .
(2.26)
Bei bekannter Modulation und Phase
0
ist die komplexe Objektwelle in der Holo-
grammebene (CCD-Sensor) durch folgende Approximation miteinander verknüpft [15]:
E
O
(x
n
,y
m
) I
0
(x
n
,y
m
)(x
n
,y
m
)e
i
O
(x
n
,y
m
)
.
(2.27)
2.2.2 Räumliche Phasenschiebeverfahren
Bei räumlichen Phasenschiebeverfahren wird das Hologramm in "o-axis"-Geometrie auf-
genommen, um dem Hologramm ein Trägerstreifensystem aufzuprägen und somit einen
räumlichen Phasengradienten (
x
,
y
) in Gl. 2.22 zu erzeugen.
Zur Rekonstruktion der Objektwellenphase und Amplitude können die jeweiligen Grauwer-
te benachbarter Bildpunkte senkrecht zum Phasengradienten analog zum zeitlichen Pha-
senschieben in Gl. (2.15) eingesetzt werden, woraus dann ein lösbares Gleichungssystem
mit drei unbekannten Variablen resultiert (I
0
, ,
). Als besonders geeignet hat sich das
im Folgenden beschriebene Verfahren erwiesen, welches eine verallgemeinerte Lösung von
räumlichen Phasenschiebeverfahren darstellt. Der am Labor für Biophysik implementierte
Algorithmus wird dabei in [16, 19] vorgestellt.
Das Verfahren basiert auf der Annahme, dass nur die Dierenzphase (r) zwischen der
Objektwelle E
O
(r) und der Referenzwelle E
R
(r) = E
0R
(r) exp(i(r)) hochfrequente Ände-
rungen in der Intensität I
H
(r) im digitalen Hologramm verursachen, so dass die Objektwelle
in der Umgebung eines Punktes r = (x,y) von M Pixeln (i = 1, . . . M) als konstant betrach-
tet werden kann. Mit dieser Annahme lässt sich die komplexe Objektwelle E
O
(r) in der
Hologrammebene am Punkt r durch Lösen eines aus M Gleichungen bestehenden nicht-
linearen Gleichungssystems berechnen, dessen Gleichungen der Interferogrammgleichung
am Ort r + r
i
entsprechen.
I
H
(r + r
i
) = |E
O
(r) + E
0R
(r) exp(i(r + r
i
))|
2
(2.28)
mit
E
O
(r) E
O
(r + r
i
)
und
E
0R
(r) E
0R
(r + r
i
).
I
i
= |E
O
+ E
0R
exp(i)|
2
(2.29)
10

KAPITEL 2. THEORETISCHE GRUNDLAGEN
In Gleichung 2.29 sowie im folgenden wird die Ortsabhängigkeit aus Gründen der Über-
sichtlichkeit weggelassen. Das Lösen des resultierenden nichtlinearen Gleichungssystems
erfolgt mit der linearen Methode der kleinsten Quadrate. Die Lösung für Gl. (2.29) ist in
Gl. (2.30) aufgeführt. Komplex konjugierte Gröÿen werden dabei mit * gekennzeichnet.
E
O
=
1
E
0R
(b - va)(1 - v
v
) - (c - v
a
)(w - vv)
(1 - vv
)(1 - v
v
) - (w - vv
)(w - vv)
mit:
(2.30)
v
= 1/M
i
V
i
, w
= 1/M
i
V
2
i
, a
= 1/M
i
I
i
, b
= 1/M
i
V
i
I
i
, c
= 1/M
i
V
i
I
i
,
V
i
= E
R i
/E
0R
= exp(-i)
(2.31)
Bei den Berechnungen wird angenommen, dass die Amplitude der Referenzwelle konstant
ist (E
0R
(x,y) E
0R
). Die Berechnung der komplexen Objektwelle erfolgt pixelweise durch
Bilden der Summen v, w, a, b und c in Gl. (2.30). Für die Rekonstruktion von E
O
mit Gl.
2.30 müssen also die Intensitätsverteilung I
H
(x
n
,y
m
) und die Phasenverteilung (x
n
,y
m
)
bekannt sein. Die mathemathische Beschreibung der Phasenverteilung erfolgt durch das
Modell in Gl. (2.32) und (2.33):
(x
n
,y
m
) = 2(K
x
x
2
n
+ K
y
y
2
m
+ L
x
x
n
+ L
y
y
m
)
(2.32)
K
x
=
x
2
2
x
=
x
2
2
+ 2d
und K
y
=
y
2
2
y
=
y
2
2
+ 2d
(2.33)
Durch die quadratischen Terme in Gl. (2.33) wird ein linearer Phasengradient beschrieben,
der durch Überlagerung einer sphärischen Objektwelle mit einer ebenen Referenzwelle en-
steht, deren Quellpunkt den Abstand d zur Hologrammebene besitzt. Dies ist bei speziellen
Anordnungen wie mikroskopischen Aufbauten der Fall [19]. Für den Spezialfall zweier paral-
leler Wellen verschwinden die quadratischen Terme. Die linearen Terme beschreiben dabei
den konstanten Phasengradienten, der durch den Winkel zwischen Objekt- und Rerenzwel-
le (
x
,
y
), den Pixelabstand des Bildrastersensors x, y sowie der Wellenlänge gegeben
ist.
L
x
=
x
2
x
=
x
x
und L
y
=
y
2
y
=
y
y
(2.34)
Ein Nachteil des räumlichen Phasenschiebens besteht in dem zusätzlich zur Pixelintegra-
tion auftretenden Mittelungseekt bei der Berechnung von E
O
, wodurch im Allgemeinen
eine Verringerung der lateralen Auösung eintritt. Dieser Nachteil kann in der Mikroskopie
durch entsprechend stark vergröÿernde Mikroskopobjektive und eine Überabtastung durch
den Aufnahmesensor kompensiert werden. Da jedoch nur eine Hologrammaufnahme benö-
tigt wird, liegen die Vorteile in der geringen Anfälligkeit gegenüber Schwingungen sowie in
dem einfache zu realisierenden Aufbau.
S. Stürwald
11

KAPITEL 2. THEORETISCHE GRUNDLAGEN
2.3 Numerische Propagation der komplexen
Objektwelle
Die numerische Propagation erönet die Möglichkeit, die Objektwelle in verschiedenen Ebe-
nen zu rekonstruieren und somit nachträglich zu fokussieren. In der digitalholographischen
Mikroskopie erlaubt diese Methode, mehrere Zellen in verschiedenen Ebenen scharf abzu-
bilden.
Zur numerischen Propagation der rekonstruierten Objektwelle von der Hologrammebene
x,y
in die Bildebene x ,y mit dem Abstand z (siehe Abb. 2.2) wird das in Abschnitt
2.1 vorgestellte Huygens-Fresnel-Prinzip verwendet. Eine Realisierung des Integrals 2.13
erfolgt in dieser Arbeit mit der Faltungsmethode (engl.: "Convolution Method" (CVM))
[15].
E
z
(x ,y ) =
-
-
E
0
(x,y) h(x - x, y - y)dxdy = E
0
(x ,y ) h(x ,y ) (2.35)
mit der Impulsantwort:
h
(x ,y ) =
e
i
2z
i
z
exp i
z
x
2
+ y
2
(2.36)
wobei die Faltungsoperation darstellt. Die Anwendung der Fouriertransformation (FT)
und des Faltungssatzes auf Gl. 2.35 ergibt:
FT E
z
(x ,y ) = FT E
0
(x ,y ) h(x ,y ) = FT E
0
(x ,y ) · FT h(x ,y )
(2.37)
Nach Anwendung der inversen Fouriertransformation und dem Überführen in eine diskrete
Schreibweise mit den Koordinaten (x
n
,y
m
) ergibt sich aus Gl. 2.37 für ein N
x
× N
y
groÿes
Rasterbildfeld mit den Pixelmaÿen x und y:
E
z
(x
n
,y
m
)
=
1
i
z
e
i2z
(2.38)
FFT
-1
FFT E
0
(x
n
,y
m
) exp iz
n
2
x
2
(N
x
)
2
+
m
2
y
2
(N
y
)
2
Dabei bezeichnet FFT die schnelle Fouriertransformation. Der quadratische Phasenfaktor
in Gleichung 2.38 erfüllt das Abtasttheorem unter der Bedingung
|z|
x
2
N
x
,
|z|
y
2
N
y
.
(2.39)
Für groÿe Propagationsdistanzen muss deshalb das Datenfeld an den Rändern mit Nullen
aufgefüllt werden, um Aliasing zu vermeiden. Im Gegensatz zu anderen numerischen Aus-
wertungen von Gl. (2.10) wie der Diskreten Fresnel Transformation (DFT) bleibt bei der
CVM durch die Hin- und Rücktransformation das Abtast-Intervall konstant (x = x
bzw. y = y) [15] und die Bildgröÿe ändert sich nicht durch Propagation nicht.
12

KAPITEL 2. THEORETISCHE GRUNDLAGEN
2.4 Quasimonochromatische Lichtquellen
Die in dieser Arbeit untersuchten LEDs stellen quasimonochromatische Lichtquellen dar,
d.h. die Spektralfunktion weist eine um die Mittenwellenlänge
0
(häug auch als die zen-
trale Wellenlänge bezeichnet) verteilte Spektralfunktion auf.
Die Breite der Spektralfunktion wird beeinusst durch die Temperatur und die Eigenschaf-
ten des Festkörpers wie Gitterbaufehler und Phononen im Festkörperkristall [30, 31]. Die
Spektren der in dieser Arbeit untersuchten LEDs lassen sich i.A. mit einer Gauÿfunktion
mit dem kleinsten Fehler approximieren.
Wird von einem Spektrum in Form einer Gauÿkurve ausgegangen und zur Ausführung
der folgenden Rechnungen die reziproke Wellenlänge = 1/ verwendet, so lässt sich die
Spektralfunktion B() in Form von
B
() = B
0
e
-
(
-0
a
)
2
(2.40)
beschreiben (siehe Illustration in Abb. 2.3). Dabei bezeichnet B
0
das Maximum der Vertei-
lung,
0
das reziproke Wellenlängenzentrum und a eine zur Halbwertsbreite der Gausskurve
proportionale Konstante. Die emittierte Strahlung besitzt entsprechend eine Spektralbreite
von
=
2a
1,13a .
(2.41)
Die Interferogrammgleichung 2.4 gilt für eine Lichtquelle, die monochromatisches Licht
Abb. 2.3:
Gauÿ'sche Spektralfunktion B()
nach Gl. 2.40 einer quasimonochromatischen
Lichtquelle (: Spektralbreite, B
0
: Maximum).
.
Abb. 2.4:
Intensität I in Abhängigkeit vom opti-
schen Wegunterschied S nach Gl. (2.43) für eine
quasimonochromatische Lichtquelle.
aussendet. Besitzt die Lichtquelle keine Spektralverteilung in Form einer Delta-Funktion,
ist über die Beiträge der einzelnen Wellenlängen zu integrieren [33], wobei I
1
und I
2
die
Intensitäten der Objekt- und Referenzwelle repräsentieren:
I
(S) =
-
B
() I
1
(r) + I
2
(r) + 2 I
1
(r) · I
2
(r) cos
2S
d .
(2.42)
S. Stürwald
13

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Dies entspricht einer Fouriercosinustransformation der Spektralfunktion B(), wobei S die
optische Weglängendierenz der beiden Teilwellen im Interferometer bezeichnet.
Einsetzen von Gl. 2.40 in Gl. 2.42 mit Zusammenfassung des konstanten Summanden zu
C
= B
0
· a I
1
(r) + I
2
(r) und mit B
0
= B
0
2 I
1
(r) · I
2
(r) ergibt:
I
(S) = B
0
e
-a
2
S
2
· cos(2
0
S
) + C .
(2.43)
Dies entspricht einer mit einer Cosinus-Funktion modulierten Gausskurve (siehe Darstel-
lung in Abb. 2.4). Der Übergang von einer monochromatischen zu einer quasimonochro-
matischen Lichtquelle führt also zu einem zusätzlichen von a und S abhängigen Faktor in
Form einer Gausskurve. Die charakteristische Breite der Kurve, bei der der Maximalwert
auf 1/e abgefallen ist, beträgt [33]:
L
e
2
a
.
(2.44)
Die Vernachlässigung der räumlichen Kohärenz erlaubt demzufolge gemäÿ Gl. (2.41) die
Bestimmung einer spektralen Breite der Lichtquelle und der entsprechenden Breite .
=
2
0
=
2a
.
(2.45)
Die Kohärenzlänge L
C
1
der Lichtquelle bzw. der miteinander interferierenden Wellenfelder
ist dabei deniert als die Halbwertsbreite (engl.:"Full Width at Half Maximum" (FWHM))
der auch als Korrelogramm bezeichneten Intensitätsverteilung I(S) in Gl. (2.43):
L
C
1
= FWHM I(S) = 2
ln
2
a
2
.
(2.46)
Wie aus Abb. 2.4 zu entnehmen ist, nimmt mit |S| > 0 die Intensitätsmodulation des
Interferogramms ab. Folglich tragen z. B. an den Komponenten eines optischen Aufbaus
mehrfach reektierte Wellen mit optischer Weglängendierenz gröÿer als
2
a
kaum zum
Interferogramm bei. Der abnehmende Kohärenzgrad begrenzt jedoch auch die maximal
möglichen Zahl N
max
von Interferenzstreifen im Bereich der Kohärenzlänge:
N
max
2L
C
1
.
(2.47)
In einem alternativen theoretischen Ansatz wird davon ausgegangen, dass eine spontan
strahlende Quelle statistisch voneinander unabhängige Wellenzüge aussendet [34]. Hierzu
wird das Modell einer sinusförmigen Welle zugrunde gelegt, die im Zeitintervall t = t
2
-t
1
emittiert wird. Die Spektraldichte B() ist dann gegeben durch die Fouriertransformierte
der Welle:
B
() = B
0
t/2
-t/2
e
2ic(
0
-)t
dt ,
(2.48)
14

KAPITEL 2. THEORETISCHE GRUNDLAGEN
wobei i die imaginäre Einheit, B
0
den Maximalwert, c die Lichtgeschwindigkeit und
0
die reziproke Zentralwellenlänge bedeuten. Die Berechnung des Integrals 2.48 führt auf die
Form [34]
B
() = B
0
t
sin()
(2.49)
mit = c(
0
- )t .
(2.50)
Das Maximum wird für = 0 angenommen (siehe Abb.2.5) und hat wegen lim
0
(
sin
)
=1 den Wert B(
0
) = B
0
t. Die ersten Nullstellen auf beiden Seiten des Maximums
ergeben sich zu = ±, d.h. nach Gl. (2.50) für
(
0
-
)ct = ±1 .
(2.51)
Die mit der Frequenz ausgedrückte Gröÿe 2(
0
-
) = 2 bestimmt wesentlich die
Abb. 2.5:
Spektraldichte eines zeitlich begrenzten sinusförmigen Wellenzuges.
spektrale Bandbreite des Wellenzuges, da die Spektraldichte auÿerhalb des Intervalls -
1 ist. Es gilt also nach Gl. 2.51 für die halbe Bandbreite:
t = 1
.
(2.52)
Eine Welle endlicher Länge ist daher theoretisch gesehen quasimonochromatisch. Die Zeit-
dauer t der Schwingung, die der Kohärenzlänge entspricht, ist mit der Länge l des
angeregten Wellenzuges durch l = ct verknüpft. Mit Gl.2.52 folgt
l = c
.
(2.53)
Ist klein, kann durch Dierenzieren von = c/ auf das Wellenlängenintervall
übergegangen werden. Aus der Relation 2.53 folgt somit [35, 34]
l L
C
2
=
4
ln 2
2
2
.
(2.54)
S. Stürwald
15

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Neben Gl. 2.44 stellt Gl. 2.54 eine weitere Möglichkeit dar, ohne Berücksichtigung der
räumlichen Kohärenzdie Kohärenzlänge L
C
einer Lichtquelle approximativ aus dem expe-
rimentell bestimmten Spektrum zu berechnen. Insbesondere für Pulslaser stellt Gl. 2.54
eine gute Näherung dar. Da es sich im Falle von LEDs lediglich lokal um eine statistisch
abhängige, spontane Emission handelt, ist eine eventuelle Abweichung der nach Gl. 2.54
berechneten Kohärenzlängen zu erwarten.
Insgesamt nimmt bei quasimonochromatischen Lichtquellen die Korrelation der Phasen
bei endlicher zeitlicher Kohärenzmit zunehmender optischer Weglängendierenzab und
begrenzt damit den Kohärenzbereich. Dabei spannen der zeitliche und räumliche Kohärenz-
bereich zusammen das Kohärenzvolumen auf, in dem Interferenzerscheinungen beobachtet
werden können. Der räumlich-zeitliche Kohärenzgrad
12
() zwischen zwei Orten r
1
und
r
2
ist dabei eine nicht direkt messbare Gröÿe, ist jedoch betragsmäÿig gleich dem Interfe-
rogrammkontrast V (siehe auch Abschnitt 3.3.2.2)[36]:
V
() = |
12
()|
.
(2.55)
Eine weitere Denition der Kohärenzlänge besteht deshalb in der charakteristischen Breite
des Kontrastverlaufs V (S), bei der der Kontrast auf 1/e des Maximalwertes abgefallen ist
[36](siehe Abschnitt 3.3.3.2). Diese ndet ebenfalls in dieser Arbeit Verwendung und wird
mit L
C
3
bezeichnet.
2.4.1 Dispersion von quasimonochromatischem Licht
Bei quasimonochromatischen Lichtquellen wie z.B. LEDs sind beim Durchgang des Lich-
tes durch ein dispersives Medium Dispersionseekte zu berücksichtigen. Die Dispersion
wird durch die Dispersionsrelation n() = n () + i~() ausgedrückt (siehe auch Abschnitt
2.4.2), die im Allgemeinen aus einem Real- und einem Imaginärteil besteht [48] und die
Dispersions- bzw. die Absorptionseigenschaften des Mediums beschreiben.
Der Einuss der Dispersion ist bei der Propagation von Lichtwellen in einem dispersiven
Medium umso gröÿer, je breiter deren Spektrum ist. Dies führt z.B. zur Verbreiterung
eines Wellenpaketes mit wachsender Ausbreitungsrichtung. Dies ist auf die unterschied-
liche Phasengeschwindigkeit v() = c () =
c
n
()
(c: Lichtgeschwindigkeit im Vakuum)
zurückzuführen. Die Ausbreitungsgeschwindigkeit v der zu dem Wellenpaket gehörenden
Modulationsfunktion wird Gruppengeschwindigkeit v
g
genannt und lässt sich errechnen
aus [36]:
v
g
=
d
dk
=
c
n
+
dn
d
=
c
n
g
.
(2.56)
Für den Gruppenbrechungsindex n
g
gilt zudem:
n
g
= n -
dn
d
.
(2.57)
16

KAPITEL 2. THEORETISCHE GRUNDLAGEN
Die Dispersion bewirkt, dass die Wellenzüge insbesondere in einem Interferometer mit
unterschiedlich groÿer Dispersion in den Strahlengängen unter Verwendung quasimono-
chromatischer Lichtquellen nicht mehr vollkommen konstruktiv interferieren [37]. Ein di-
spersives Medium kann dabei durch das Glas in den optischen Interferometerkomponenten
gegeben sein. Die entstehende Korrelationsfunktion I(S) entspricht dann einer Kreuzkor-
relation und wird bei gleichzeitiger Abnahme der Modulation breiter.
Bezeichnet s
0
die optische Weglängendierenz in einem dispersiven Medium eines Interfe-
rometers, so ist die geometrische Weglängendierenz im Medium gegeben durch
s
g
=
s
0
n
g
.
(2.58)
Um die Auswirkungen der Dispersion auf die Kohärenzlänge theoretisch zu beschreiben,
bietet sich die entsprechende Theorie aus dem Bereich der OCT (optical coherence tomogra-
phy) an [42]. Gleichung 2.57 und 2.58 haben dabei einen direkten Einuss auf die eektive
Kohärenzlänge L
Cn
, die sich approximiert darstellen lässt durch [38]:
L
Cn
= L
2
c
+
dn
g
d
|
0
s
g
2
.
(2.59)
Dabei bezeichnet L
c
die ursprüngliche Kohärenzlänge der Lichtquelle. Gleichung 2.59 zeigt,
dass L
Cn
mit der Ableitung des Gruppenbrechungsindex n
g
an der Stelle der Mittenwel-
lenlänge
0
sowie mit der spektralen Halbwertsbreite ansteigt.
2.4.2 Mathematische Approximation des Brechungsindex
Für eine Beschreibung von Dispersionseekten (siehe Abschn. 2.4.1) ist eine genaue Kennt-
niss des Brechungsindex im dispersiven Medium erforderlich. Bei transparenten Medien ist
der Absorptionskoezient ~ für das sichtbare Spektrum sehr klein gegenüber dem Real-
teil n und wird vernachlässigt (n n ). Im Allgemeinen wird der Brechungsindex n()
in derLiteratur bei einer Wellenlänge von 587,56 nm angegeben, was vereinzelt durch n
d
kenntlich gemacht wird.
Für die Darstellung des Brechungsindex als eine für analytische Rechnungen einsetzba-
re Funktion existiert eine Vielzahl von Approximationen, die meist auf der Theorie der
klassischen Elektrodynamik beruhen [49]. Die Sellmeyer-Formel (Gl. 2.60) ist insbesondere
für die theoretische Beschreibung der Dispersion und der daraus resultierenden Eekte
hilfreich.
n
() = 1 +
i
=1
B
i
2
2
- C
i
,
(i {1,2,3. . }) ,
(2.60)
mit C
i
und B
i
als anzupassende Parameter. Die Absorptionsresonanzen sind dabei gegeben
durch
C
i
. An diesen Stellen benden sich Polstellen der Sellmeyer-Gleichung, weshalb
die Gleichung dort unphysikalische Werte von n = ± liefert. Es existieren eine Vielzahl
S. Stürwald
17

KAPITEL 2. THEORETISCHE GRUNDLAGEN
von modizierten Sellmeyer-Gleichungen, deren Erweiterungen den Gültigkeitsbereich der
Gleichung erweitern. Bei Wellenlängen fern von Absorptionsmaxima lässt sich der Bre-
chungsindex weiter annähern durch n = 1 +
i
B
i
r
, wobei
r
die relative dielektri-
sche Konstante bezeichnet. Insgesamt lässt sich im sichtbaren Spektralbereich durch eine
Approximation mittels der Sellmeyer-Formel eine Genauigkeit von < 1 · 10
-5
erzielen. Die
Sellmeyer-Koezienten B
i
und C
i
, wie sie von Glasherstellern bereitgestellt werden, bezie-
hen sich aufnormale Raumtemperatur. Die Behandlung der Temperaturabhängigkeit wird
ausführlich in [51, 49, 53] beschrieben. Diese ist für die hier beschriebenen Experimente
vernachlässigbar.
2.5 Ultrahelle Licht emittierende Dioden
2.5.1 Funktionsweise
Licht emittierende Dioden (LEDs) existieren in vielen Bauformen und werden in ver-
schiedensten Bereichen eingesetzt [40]. Die Haupteinsatzgebiete von LEDs sind Anzei-
gen bzw. Displays, Raumbeleuchtung, Fernbedienungen, Datenübertragung in optischen
Fasern sowie Bewegungssensoren. Dabei ist insbesondere zwischen den folgenden Typen
von Dioden zu unterscheiden: LED(Light-Emittig-Diode), OLED(Organic-Light-Emitting-
Diode), LD(Laser-Diode) und SLD(Super-Luminescence-Diodes). Die im Rahmen dieser
Arbeit behandelten Diodentypen beschränken sich aufLEDs.
LEDs bestehen im Allgemeinen aus einem Halbleiterkristall, der zur Ausbildung eines ak-
tiven Bereiches positiv und negativ dotiert wird (kurz: PN-Übergang). Dazu werden mit
Hilfe von Epitaxieverfahren verschiedene Halbleiterschichten auf einem Wafer aufgebracht,
die die erforderlichen Luminiszenzeigenschaften besitzen [39]. Häug eingesetzte Metall-
und Halbleiterkomponenten sind insbesondere im Falle von ultrahellen LEDs Aluminium-
galliumindiumphosphate [40](AlGaInP, Abb.2.7), Galliumarsenphosphate (GaAsP) und In-
diumgalliumnitrit (InGaN). Der Begri ultrahelle LEDs bezeichnet dabei keine spezielle
Bauart, sondern lediglich die durch neuere Materialkompositionen erhöhte Ezienz und
Lichtstärke, die im Rahmen der voranschreitenden Entwicklung fortlaufend verbessert wird.
Der dotierte, kubusförmige Halbleiterkristall wird bei vielen LED-Bauformen in einer ke-
Abb. 2.6:
Aufbau einer typischen 5 mm LED.
gelförmigen Reektorwanne positioniert. Auf diese Weise wird eine gerichtete Abstrahlung
realisiert und der Leucht-Wirkungsgrad der LED erhöht (siehe Abb. 2.6). Der Reektor
18

KAPITEL 2. THEORETISCHE GRUNDLAGEN
kann sich durch die Reexion negativ auf die Kohärenzeigenschaften auswirken, was für
die vorliegende Arbeit von besonderer Bedeutung ist.
Die Verbindung zu Kathode und Anode geschieht über einen Golddraht, der entsprechend
Abb. 2.6 auf der Oberseite des Halbleiters aufgebracht wird. Anschlieÿend wird die Diode
mit Epoxidharz umgeben. Der linsenförmige Kunststokörper begünstigt ebenfalls eine ge-
richtete Lichtabstrahlung. Darüber hinaus wird auf diese Weise Korrosion verhindert und
der Grenzwinkel der Totalreexion an der Chipoberäche herabgesetzt, wodurch die aus
dem Kristall austretende Strahlungsleistung erhöht wird.
Valenzband
Leitungsband
Energie
Raumkoordinate
k
E
g
/a
- /a
Energie
n-leitendes GaAs Substrat
1 m AlInP
Te-dotiert
0,5-1 m AlInP
Mg-dotiert
0,5-1 m AlGaInP undotiert
2-50 m Window Layer
Anode
Kathode
(a)
(b)
(c)
Abb. 2.7:
(a) Schichtenaufbau des Halbleiterchips einer ultrahellen LED, (b) Direkter, Licht emittierender
Übergang innerhalb der Bandstruktur eines Halbleiters. Bänderstruktur im k-Raum und in Abhängigkeit
von der Raumkoordinate (c) des Kristalls.
Das Funktionsprinzip einer LED beruht auf einem PN-Übergang, der bei in Durchlass-
richtung anliegender Polarität der Spannung und direkten Übergängen vom Leitungsband
in das Valenzband Licht emittiert (Abb.2.7). Die dabei generierten Photonen entstehen
durch Rekombination von Elektronen mit Löchern. Die Farbe des emittierten Lichtes ist
abhängig von der Gröÿe der Bandlücke bzw. von der Materialkombination [31].
Der emittierte Lichtstrom einer LED ist proportional zum elektrischen Stromuss I
e
. Der
Parameter I
e
ergibt sich zu [43]
I
e
(U,T ) = qD
0
n
2
i
W e
eU
kbT
.
(2.61)
wobei n
i
die intrinsische Ladungsträgerdichte, W die Breite der Raumladungszone, k
B
die
Boltzmann-Konstante, T die Temperatur, eV die potentielle Energie im elektrischen Feld,
D
0
eine materialspezische Konstante und q die Elementarladung bezeichnet.
Die Strahlungsleistung P
L
einer Lichtquelle ist gegeben durch die elektrische Leistung P
el
und die Quantenezienz [34]:
P
L
= P
el
· = U · I
e
(U,T ) ·
.
(2.62)
Der Parameter ist bei LEDs direkt proportional zum Anteil der unter Strahlungsemission
rekombinierenden Elektronen-Loch-Paare und ist abhängig von den Parametern U, I und
S. Stürwald
19

KAPITEL 2. THEORETISCHE GRUNDLAGEN
T
. Die Quantenezienz ist im hohen Maÿe temperaturabhängig, da durch höhere Tem-
peraturen die Bänderstruktur und somit die Energieübergänge des Halbleiters verändert
werden [43]. Sie ist zudem eine materialspezische und bauartbedingte Gröÿe. Sie kann
insbesondere durch die Verwendung von möglichst intrinsischen und gegenüber dem emit-
tierenden Spektrum weitestgehend transparenten Materialien gesteigert werden.
Ultrahelle LEDs erreichen eine Quantenezienz von zur Zeit maximal 15%. Diese wird
in Abschnitt 4.2.2 bestimmt und setzt sich zusammen aus der internen elektrischen Ef-
zienz (75 - 87%), der internen Quantenezienz (ca. 90% je nach Bedingungen) sowie
dem Verlust durch interne Reexion, der insb. auf die totale Reexion am Grenzübergang
Halbleiter-Umgebungsmaterial zurückzuführen ist ( 25% bei Epoxidharzumgebung).
2.5.2 Lambert-Strahler
Um die Abstrahlcharakteristik von LEDs zu beschreiben, wird als Modell einer ausgedehn-
ten ebenen Lichtquelle häug der Lambert-Strahler verwendet. Dieser besitzt eine vom
Betrachtungswinkel ~ abhängige kosinusförmige Strahlstärke [34]:
I
V
(~) = I
V
0
cos(~) .
(2.63)
Dabei ist I
V
0
die senkrecht auf ein Flächenelement ausgesendete Strahlstärke. Die Strahl-
stärke ist deniert als I
V
=
d ~
d
und bezeichnet den auf das Raumwinkelelement d entfal-
lenden Strahlungsuss ~. Ein Flächenelement dq einer Lichtquelle strahlt mit einer rich-
Abb. 2.8:
Illustration der vom Betrachtungswinkel cosinusförmig abhängenden Strahlstärke I
V
(~) in
einem Raumwinkelelement d.
tungsabhängigen Strahlstärke dI
V
(~) (Abb. 2.8). Die entspechende Strahldichte L, die
deniert ist als
L
(I
V
(~)) =
1
cos(~)
dI
V
(~)
dq
,
(2.64)
ist ein Maÿ für die Dichte der Energieabstrahlung. Der Faktor 1/cos(~) berücksichtigt die
mit cos(~) abnehmende Gröÿe des Flächenelementes, das von einem seitlich stehenden
Empfänger registriert wird.
Einsetzen von Gl. (2.63) in Gl. (2.64) ergibt, dass der Lambert-Strahler für jede Richtung
die gleiche Strahldichte besitzt L(I
V
(~)) = konstant . Damit gelten für den Lambert-
Strahler einfache analytische Beziehungen sowohl für die Strahldichte als auch für die
Strahlstärke.
20
Ende der Leseprobe aus 117 Seiten

Details

Titel
Einsatz von ultrahellen Leuchtdioden in der digitalen Holographie
Hochschule
Westfälische Wilhelms-Universität Münster  (Physik)
Note
1,3
Autor
Jahr
2008
Seiten
117
Katalognummer
V210263
ISBN (eBook)
9783656382287
ISBN (Buch)
9783656382812
Dateigröße
17201 KB
Sprache
Deutsch
Schlagworte
einsatz, leuchtdioden, holographie
Arbeit zitieren
Stephan Stürwald (Autor:in), 2008, Einsatz von ultrahellen Leuchtdioden in der digitalen Holographie, München, GRIN Verlag, https://www.grin.com/document/210263

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Einsatz von ultrahellen Leuchtdioden in der digitalen Holographie



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden