Das Auge als Kamera. Vergleich der Retina des menschlichen Auges mit dem Bayer-Sensor einer Videokamera


Thèse Scolaire, 2018

23 Pages, Note: 1,0


Extrait


Inhalt

I. Einleitung
1. Inhaltsübersicht
2. Relevanz
3. Arbeitsweisen

II. Ausführung

1. Retina des Menschlichen Auges
a. Allgemeines zum Auge/Augenevolution
b. Aufbau der Netzhaut
c. Funktion
d. Aufgaben

2. Bayer-Sensor einer Videokamera
a. Allgemeines zur Videokamera/Sensorentwicklung
b. Aufbau
c. Funktion

3. Vergleich
a. Allgemein Kamera - Auge
b. Gemeinsamkeiten
c. Unterschiede
d. Zukunft

III. Schluss

1. Fazit
a. Zusammenfassung
b. Schlussfolgerungen

2. Reflexion

IV. Literatur- und Quellenverzeichnis i
1. Literatur:
2. Internetquellen:

V. Anhang

I. Einleitung

1. Inhaltsübersicht

„Das Auge ist die beste Kamera der Welt“, dieses oder Ähnliches liest man oft im Internet und in Zeitschriften. Aber stimmt das wirklich? Im Rahmen dieser Arbeit sollen die Unterschiede und Gemeinsamkeiten zwischen der Retina (Netzhaut) des menschlichen Auges und dem Bayer–Sensor einer (Video)-Kamera analysiert werden. Ziel ist es, den Leser auch über den Aufbau und die Funktion der Netzhaut und des Sensors zu informieren. Für ein grundlegendes Verständnis werden wir in einer groben Übersicht auf die verschiedenen Aspekte eingehen und am Ende einen Vergleich ziehen.

Zunächst geben wir im ersten Kapitel der „Ausführung“ eine Übersicht über das Auge und den Aufbau und die Funktion der Netzhaut.

In Kapitel zwei gehen wir auf die Kamera, den Aufbau und die Funktion des Bayer-Sensors ein.

Im dritten Kapitel wird ein Vergleich zwischen den vorher beschriebenen Objekten gezogen. Wir erläutern einige Gemeinsamkeiten und Unterschiede, ohne alle Informationen aus den vorherigen Kapiteln zu wiederholen. Zum Schluss, im letzten Kapitel, schauen wir noch kurz in die Zukunft und fragen uns, was die Wissenschaft hierbei von der Natur lernen kann.

Natürlich ist diese wissenschaftliche Arbeit sehr begrenzt und erweist keinen Anspruch auf Vollständigkeit. Vor allem der Vergleich zwischen Auge und Kamera ist natürlich viel umfangreicher als dargestellt.

2. Relevanz

Der Vergleich ist ein Thema, dem bisher wenig Aufmerksamkeit gewidmet wurde und über welches man nicht viel in Büchern oder im Internet findet. Deswegen sind unsere gewählten Zitate nur von Internetseiten Trotzdem ist es, so glauben wir, ungemein interessant und wichtig. Auch weil sich darin einige Möglichkeiten für die Wissenschaft verbergen.

3. Arbeitsweisen

Wir haben unsere Arbeit aufgeteilt und möchten getrennt bewertet werden. Utz hat die Seiten mit blauem Balken und Julius die mit orangenem geschrieben. Wir haben ausschließlich eine Quellenanalyse durchgeführt. Die Untersuchung stützt sich hauptsächlich auf Internet Quellen und einigen Fachbüchern. Nach jedem Absatz haben wir angegeben aus welchen Quellen wir die Informationen entnommen haben. Zitate wurden direkt gekennzeichnet und befinden sich auch noch als Screenshot im Anhang.

II. Ausführung

1. Retina des Menschlichen Auges

a. Allgemeines zum Auge/Augenevolution

Das Auge ist ein wahres Wunderwerk und wohl eines der komplexesten und wichtigsten Organe des menschlichen Körpers. Es beinhaltet ungefähr 70% all unserer Sinnesrezeptoren. Auch deshalb nehmen wir unsere Umwelt hauptsächlich visuell wahr und arbeiten in unseren Sprachen mit bildhaften Redewendungen.1

„Wir erkennen Dinge, die so gigantisch und weit entfernt sind, wie die Sterne im Universum und so winzig und nah wie eine Ameise auf unserem Unterarm. Wir können zehn Millionen Farbtöne unterscheiden und selbst ein Photon, die kleinste Lichteinheit, genügt, um im Auge eine Reaktion auszulösen. Schon das allein macht den Sehsinn bemerkenswert. Das größte Wunder aber ist, wie das visuelle System aus dem riesigen Strom von Informationen, der permanent über die Augen eintrifft, ein stimmiges Abbild der Welt in unseren Köpfen erschafft. Im Zusammenspiel mit anderen Teilen des Denkorgans werden dabei Sinnesempfindungen sortiert, gefiltert, bewertet und so geschickt mit Gedächtnisinhalten und Erfahrungen verknüpft, dass wir uns scheinbar mühelos in unserer extrem komplexen Umgebung zurechtfinden.“2

Im Tierreich besitzen ca. 95% aller Tiere Augen. Das menschliche Auge gehört zu den Augen der Wirbeltiere und trotzdem unterscheiden sich die Augen dieser teils sehr stark. Als Beispiel wären hier zu nennen, die Nachtsicht der Katze und die Weitsicht des Steinadlers.3

Eine lange Zeit galt das Auge als Beweis dafür, dass die Evolutionstheorie nicht stimmt. Selbst Charles Darwin verzweifelte an diesem Problem. Heutzutage wird angenommen, dass alle Augentypen aus einem Urtyp von Auge, welcher vor 505 Millionen Jahren aus einfachen lichtempfindlichen Zellen und Augenflecken bestand, entsprungen sind. Manche Positionen meinen auch, dass etwa 40-60 Augentypen nebeneinander entstanden sind. Bis jetzt konnte keine Partei ihre Version glaubhaft beweisen. Einig sind sich die Wissenschaftler in jedem Fall über die Entwicklung der Sinnesorgane. Unter den Tieren begann wohl ein regelrechtes Wettrüsten und so entwickelte sich das Auge relativ schnell zu dem was es heute ist. Der Grund dafür ist, dass Augen großartige Vorteile beim Jagen und Flüchten haben. In dieser Arbeit beschränken wir uns aber nur auf das menschliche Auge und besonders auf die Netzhaut.4 5

Nun folgt ein sehr grober Aufbau des Auges (s. 1. Anhang). Es liegt gut geschützt in der Augenhöhle, Augenbraue und Wimpern verhindern das Eindringen von Fremdkörpern. Des Weiteren umfasst das Auge eine Leder-, Ader- und Netzhaut, die jeweils verschiedene Aufgaben haben. Die Hornhaut ist der Bereich den wir spüren wenn wir in die Augen fassen. Sie wird ständig durch die Augenlider mit Tränenflüssigkeit feucht gehalten und so vor dem Austrocknen geschützt.6

Das menschliche Auge lässt sich in zwei Kategorien teilen: In den optischen Teil und in die Oberfläche der Netzhaut. Im optischen Teil finden wir nach der Hornhaut im Augapfel die Iris (Regenbogenhaut). Sie reguliert, ähnlich der Blende einer Videokamera die Menge des einfallenden Lichts. Die Pupille lässt das Licht dann in das Auge hinein.7

Die Linse ist flexibel und kann das einfallende Licht so brechen, dass es gebündelt auf der Netzhaut auftrifft. Dadurch können wir erst scharf sehen. Der Bereich zwischen der Linse und der Netzhaut wird Glaskörper genannt, welcher mit Kammerwasser gefüllt ist. Nachdem die Lichtphotonen auf die Netzhaut auftreffen beginnt erst der eigentliche Wahrnehmungsprozess, den wir uns genau anschauen werden. Von dort gelangen Informationen über den Sehnerv ins Gehirn, wo sie dann in Sekundenbruchteilen verarbeitet werden. Das menschliche Sehorgan beinhaltet also viel mehr also nur der Augapfel und die Netzhaut. Weil diese sehr gut mit dem Kamerasensor zu vergleichen ist, wollen wir uns ab jetzt nur noch mit ihr befassen.8 9

b. Aufbau der Netzhaut

Unser Auge kann eine elektromagnetische Spannung von 400 (violett) -750 (rot) Nanometer wahrnehmen. Nur für Strahlungen dieser Wellenlänge besitzen wir Rezeptoren im Auge. Ein Lichtphoton ist die kleinste messbare Einheit. (s. 2. Anhang)10

Abbildung in dieser Leseprobe nicht enthalten

Dieses Licht, welches von verschiedenen Gegenständen reflektiert wird trifft auf die nur 0,2 mm dicke Netzhaut (Retina). Jetzt beginnt erst der eigentliche Wahrnehmungsprozess.11 12

Die gekrümmte Netzhaut befindet sich auf der Innenseite des Auges. (s. 3. Anhang) Sie besteht aus mehreren Zellschichten, die sehr gut miteinander vernetzt sind. Außerdem ist sie mit der Aderhaut verbunden, die sie mit Blut versorgt. Zugleich wird die Retina durch den Glaskörper an die Außenseite des Augapfels gedrückt. Sie besteht aus insgesamt 6 Zellschichten mit jeweils verschiedenen Funktionen.13

Abbildung in dieser Leseprobe nicht enthalten

Die Reihenfolge der Zellschichten verläuft aus Sicht des Lichtes umgekehrt zu ihren Funktionen:

- Ganglienzellen, ca. 1 Millionen pro Auge

- Amakrinzellen

- Bipolarzellen

- Horizontalzellen

- Photorezeptoren, ca. 126 Millionen pro Auge

- Retinales Pigmentepithel (RPE)14

Da man sich manchmal im hellen Sonnenlicht und im schwachen Mondschein zurechtfinden muss, gibt es zwei verschiedene Photorezeptoren im Auge:

Abbildung in dieser Leseprobe nicht enthalten

Photorezeptoren können das Licht in die "Einheitssprache des Gehirns" umwandeln. Sie liegen auf der Rückseite der Netzhaut. Das Licht muss erst durch alle anderen Zellschichten hindurch, um auf die Rezeptoren zu treffen. Im äußeren Bereich der Netzhaut sind nur Stäbchen vertreten, je weiter man Richtung Mitte geht, desto mehr Zapfen begegnen uns. (s. 4. Anhang) Von ihnen gibt es drei verschiedene:16

- Blau-Zapfen, die bei Licht mit 420 Nanometer am stärksten reagieren, Anzahl: 8%

- Grün-Zapfen, die bei Licht mit 534 Nanometer am stärksten reagieren, Anzahl: 46%

- Rot-Zapfen, die bei Licht mit 564 Nanometer am stärksten reagieren, Anzahl: 46%(s. 5. Anhang)17

Der Bereich wo sich fast alle Zapfen sehr gedrängt befinden nennt man Fovea centralis. Sie bildet den Ort höchster Sehschärfe der gesamten Netzhaut. Fokussiert man einen Gegenstand wird die Fovea auf das Objekt ausgerichtet. Da weniger Zapfen und später nur noch Stäbchen vorhanden sind, sehen wir alles außerhalb schon wieder unscharf.18

Die erzeugten elektrischen Impulse wandern dann wieder in umgekehrter Richtung an den Rand zum Auginneren hin, von wo die Vorsätze der Ganglienzellen sie über den Sehnerv (ca. 2mm Dick, besteht aus ca. 1Mio Fasern) durch die Netzhaut zum Gehirn leiten. Dort sind keine Rezeptoren auf der Retina vorhanden. Hier ist also ein „Blinder Fleck“, den das Gehirn aber gut ausgleichen kann. Übrigens ist die komplette Netzhaut schmerzfrei, weil sie keine Schmerzfasern enthält.19 20

c. Funktion

Schauen wir mit unserem Auge tagsüber auf einen Gegenstand sodass wir ihn scharf sehen, fliegen reflektierte Lichtphotonen in unser Sehorgan. Nachdem sie von der Linse gebrochen und gebündelt auf die letzte Zellschicht der Netzhaut treffen, wird erst einmal das überschüssige Licht von der RPE absorbiert. Dann treffen sie auf die Zapfen/Stäbchen. Am helllichten Tag werden nur die Zapfen angesprochen. Deswegen sehen wir tagsüber scharf und in Farbe, nachts und bei Dämmerung hingegen, wo nur die empfindlicheren Stäbchen gereizt werden, sehen wir hauptsächlich in Graustufen. Durch einen sehr komplexen Prozess werden die Lichtphotonen zuerst in chemische Signale umgewandelt. Diese werden verstärkt, falls noch weitere Photonen auf die Netzhaut treffen und dann als elektrisches Signal in die Bipolarzellen geleitet.21

Davor jedoch werden die Signale mithilfe der Horizontalzellen verglichen und falls das Signal auch bei anderen ankommt, wird „versendet“. Wenn nicht (z.B. ein “versehentlicher” Nervenimpuls), so wird er verworfen. Die Bipolarzellen verstärken und bündeln die Informationen. In den nachfolgenden Amakrinzellen werden die Informationen verarbeitet, d.h. gruppiert und verglichen. Von dort aus werden die Signale über die Ganglienzellen verstärkt und über Axone mit Hochgeschwindigkeit in das Gehirn geleitet. Alle Axone zusammen nennt man Sehnerv. Im Gehirn treffen die Informationen der beiden Augen zusammen und werden miteinander verrechnet. Unser Gehirn spricht also die Sprache der Nervenimpulse. Die Sinneszellen fungieren quasi als Dolmetscher zwischen den Informationen „aus anderen Sprachen“ und den Impulsen.22 23 24

„In der Sehrinde beginnt erst die eigentliche Analyse. Und sie beginnt rasend schnell: Von der Codierung des Bildes in der Netzhaut bis zu den ersten messbaren Impulsen in der primären Sehrinde vergehen bei gesunden Menschen kaum 100 Millisekunden. […]. So können wir uns dank des auf Leistung getrimmten Bauplans jederzeit sicher sein, dass das was wir sehen, auch gerade passiert […].“25

d. Aufgaben

Die Netzhaut hat diese, schon erläuterten Aufgaben:

1. Umwandeln von Lichtphotonen in Nervenimpulse mithilfe der Photorezeptoren
2. Verarbeiten der Impulse (Verstärken, Filtern, Sortieren, Ordnen)
3. Weiterleiten der gefilterten Lichtinformation ins Gehirn mithilfe der Ganglien-Zellen

Die verschiedenen Aufgaben verbrauchen, unter anderem auch, weil wir ca. 80% unserer Welt visuell aufnehmen, sehr viel Energie. Das Gehirn ist mit ca. 60% Auslastung der Großhirnrinde am Sehprozess beteiligt ist. Um es nicht zu überlasten, werden die komplexen Lichtinformationen gut vorverarbeitet. Damit werden nur die wichtigsten Impulse durch den Sehnerv an das Gehirn geleitet.26

2. Bayer-Sensor einer Videokamera

a. Allgemeines zur Videokamera/Sensorentwicklung

Der Bayer-Sensor wird aufgrund seiner Vorteile in vielen verschiedenen Foto- und Videokameras verbaut. Um zu verstehen wie dieser funktioniert, sollte man zu erst einmal wissen wie im Allgemeinen aus Licht ein Bild in einer Kamera entsteht.

Das Licht wird mit Hilfe der Linsen im Objektiv gebrochen und trifft somit als optische Projektion auf den Bildsensor. Dieser wandelt das auftreffende Licht in elektronische Signale um. Daraufhin erfolgt die Quantisierung, bei der die elektronischen Signale im Analog/Digitalwandler in digitale Sprache umgewandelt werden.

Je nach Einstellung des Ausgabeformates wird nun die Bilddatei verarbeitet und komprimiert (z.B. JPG) oder aber direkt mit allen Bildinformationen auf einem Speichermedium gespeichert (z.B. RAW).27

Es gibt verschiedene Arten von Bildsensoren. In der Foto und Video Branche werden häufig one-shot-Sensoren genutzt. Bei einem one-shot-Sensor wird nur eine Belichtung benötigt um ein Bild aufzunehmen. Der Bayer Sensor ist ein solcher und ist aufgrund seines kostengünstigen Aufbaus und seiner geringen Größe im Vergleich zu 3-Chip-Systemen am weitesten verbreitet. Er wird in Fotokameras, Filmkameras aber auch in Mobiltelefonen verbaut. Der Bayer-Sensor ist je nach Preisklasse in verschiedenen Größen erhältlich.

Ein Unterschied zu anderen Bildsensoren liegt im Farbfilter, der von dem US-amerikanischen Physiker Bryce E. Bayer erfunden wurde. „Er war in der Entwicklungsabteilung von Eastman Kodak tätig, wo er 1974 den nach ihm benannten und 1976 patentierten Bayer-Filter entwickelte.“28 29

Ein weiterer Bestandteil des Bayer-Chips ist der CCD-Sensor (charge - coupled device; dt. ladungsgekoppeltes Bauteil). Dieser wurde Ursprünglich 1969 zur Datenspeicherung entwickelt. Allerdings stellte sich heraus, dass der CCD-Sensor lichtempfindlich ist. Seit 1975 werden diese Sensoren bereits in Kameras verbaut. In der Videotechnik haben die CCD-Sensoren das Röhrenprinzip verdrängt.[3]30

b. Aufbau

Der Bayer-Sensor ist aus einem schachbrettartigen Farbfilter und einem Halbleiter mit lichtempfindlichen Fotodioden (CCD-Sensor) zusammengesetzt. Der CCD-Sensor besteht aus einem Halbleitermaterial, das durch Isolatoren in Reihen gegliedert ist. Darüber befinden sich quer zu den Isolatoren leitfähige Aluminiumstreifen. Somit ist das Halbleitermaterial in Millionen von Pixeln eingeteilt. Auf dem CCD-Sensor befindet sich der Bayer-Farbfilter. Jeder Pixel hat entweder einen blauen einen grünen oder einen roten Farbfilter. Reihenweise betrachtet befinden sich auf einer Zeile abwechselnd blaue und grüne und in der folgenden Zeile rote und grüne Farbfilter. Dieses Schema erstreckt sich über den gesamten Sensor, sodass 25% der Farbfilter nur rotes, 25% nur blaues und 50% nur grünes Licht durchlassen. Von den grünen Farbfiltern gibt es doppelt so viele, da das menschliche Auge grüne Farb- und Helligkeitswerte, aber auch den Kontrast und die Schärfe besser unterscheiden kann. Darüber befindet sich außerdem jeweils pro Pixel eine Mikrolinse.31 32 33 34 35

Ein Pixel hat die Größe von 1,4 µm bis über 20 µm. Hierbei gilt, je größer die Fläche der einzelnen Pixel, desto höher ist die Lichtempfindlichkeit. Allerdings wird bei gleichbleibender Sensorgröße die Bildauflösung schlechter.36

c. Funktion

Das Licht trifft durch die Linsen des Objektives auf den Sensor. Da die Fotodioden nur Helligkeitswerte aufnehmen können würde ohne einen RGB-Filter ein Graustufenbild entstehen. Die Farbfilter, die vor jeder einzelnen Fotodiode sitzen, lassen nur eine bestimmte Wellenlänge durch, sodass jede Fotodiode nur die Helligkeitswerte für die Farbe Rot, Grün oder Blau ermittelt. Bei der Belichtung des lichtempfindlichen Sensors stellt sich analog zu der jeweiligen Beleuchtungsstärke, an jeder einzelnen Fotodiode ein bestimmter Ladungszustand ein. Je höher die Helligkeit der eintretenden Farbe, desto höher ist die entstehende Ladungsintensität auf dem CCD-Sensor und umgekehrt.[2]37 38 39

Durch Veränderung einer Spannung am CCD-Sensor werden die Ladungsträger zeilenweise verschoben. Die verschiedenen elektronischen Werte werden nacheinander ausgelesen. Der Bildprozessor wertet nun die Informationen für jedes einzelne Pixel aus. Mit Hilfe der acht umliegenden Pixel wird mittels Mittelwertbestimmung der Farbwert für das einzelne Pixel errechnet. Dieser Vorgang wird als Interpolation bezeichnet. „Die durch die Interpolation zwangsläufige Weichzeichnung wird anschließend durch elektronische Scharfzeichnung wieder korrigiert.“[1] [4] [7]40 41

Es gibt verschiedene Möglichkeiten zu interpolieren. Unterschiedliche Software verwendet eine andere Art der Interpolation. Dabei hat jede Veränderung Einfluss auf das entstehende Bild. Aus diesem Grund kann ein Sensor der gleichen Bauart, bei den gleichen Bedingungen unterschiedlich farbliche Bilder entstehen lassen.42 43 44 45

Bei der Abspeicherung im RAW-Format kann die Interpolation später am Computer benutzerdefiniert vorgenommen werden. Hierbei können außerdem der Weißabgleich, die

[...]


1 Vgl. Gitt, 1998, S. 13

2 Das Gehirn, Sehen - (k)ein selbstverständliches Wunder, 12.02.2018

3 Vgl. Wikipedia, Augenevolution, 25.02.2018

4 Vgl. Wikipedia, Augenevolution, 25.02.2018

5 Vgl. Wissenschaft, Die verblüffende Evolution der Augen, 20.02.2018

6 Vgl. Brillen-Sehhilfen, Auge: Aufbau und Funktion, 25.02.2018

7 Vgl. Gitt, 1998, S. 13f

8 Vgl. Fritsche, 2013, S. 107

9 Vgl. Brillen-Sehhilfen, Auge: Aufbau und Funktion, 25.02.2018

10 Vgl. Heinen, 2008, S. 139

11 Vgl. Gitt, 1998, S. 15

12 Vgl. Brillen-Sehhilfen, Auge: Aufbau und Funktion, 25.02.2018

13 Vgl. Brillen-Sehhilfen, Netzhaut des Auges: Aufbau und Funktion, 25.02.2018 9 Abb. von lasikon.de, Aufbau des menschlichen Auges

14 Vgl. Brillen-Sehhilfen, Netzhaut des Auges: Aufbau und Funktion, 25.02.2018

15 Vgl. Gitt, 1998, S. 15f

16 Vgl. Brillen-Sehhilfen, Netzhaut des Auges: Aufbau und Funktion, 25.02.2018

17 Vgl. Brillen-Sehhilfen, Auge: Aufbau und Funktion, 25.02.2018

5 Abb. von lasikon.de, Aufbau des menschlichen Auges

18 Vgl. Gesundes-Auge, Die Netzhaut des Auges, 26.02.2018

19 Vgl. Gitt, 1998, S. 15f

20 Vgl. Medizininfo, Bau und Funktion der Netzhaut, 25.02.2018

21 Vgl. Brillen-Sehhilfen, Netzhaut des Auges: Aufbau und Funktion, 25.02.2018

22 Vgl. Brillen-Sehhilfen, Netzhaut des Auges: Aufbau und Funktion, 25.02.2018

23 Vgl. Das Gehirn, Sehen - (k)ein selbstverständliches Wunder, 12.02.2018

24 Vgl. Gitt, 1998, S. 16

25 Das Gehirn, Die Sehbahn – Hochgeschwindigkeitsleitung ins Gehirn, 12.02.2018

26 Vgl. Das Gehirn, Sehen - (k)ein selbstverständliches Wunder, 12.02.2018

27 Vgl. Digitipps, Bildsensor, 09.02.2018

28 Wikipedia, Bryce E. Bayer, 16.02.2018

29 Vgl. Wikipedia, Bayer-Sensor, 16.02.2018

30 Vgl. Wikipedia, CCD-Sensor, 16.02.2018

31 Vgl. YouTube, Wie funktioniert ein CCD Sensor [Compact Physics] - Fast Forward Science 2015, 16.02.2018

32 Vgl. Digitipps, Bildsensor, 09.02.2018

33 Vgl. Matrix Vision, Farbverarbeitung mit Bayer-Mosaic Sensoren, 16.02.2018

34 Vgl. Stemmer Imagine, Bayer-Filter, 16.02.2018

35 Vgl. PT4Pano, Status Sensortechnologie, 16.02.2018

36 Wikipedia, Bayer-Sensor, 16.02.2018

37 Vgl. Kindermann, 2008, S. 36 f.

38 Vgl. Red, The Bayer Sensor Strategy, 16.02.2018

39 Vgl. YouTube, Funktionsweise eines CCD-Chips, 16.02.2018

40 Böhringer, 2014, S. 120.

41 Vgl. Vision Doctor, Bayer-Farbinterpolation, 09.02.2018

42 Vgl. Matrix Vision, Farbverarbeitung mit Bayer-Mosaic Sensoren, 16.02.2018

43 Vgl. Kindermann, 2008, S. 36 f.

44 Vgl. Red, The Bayer Sensor Strategy, 16.02.2018

45 Vgl. Vision Doctor, Bayer-Farbinterpolation, 09.02.2018

Fin de l'extrait de 23 pages

Résumé des informations

Titre
Das Auge als Kamera. Vergleich der Retina des menschlichen Auges mit dem Bayer-Sensor einer Videokamera
Note
1,0
Auteur
Année
2018
Pages
23
N° de catalogue
V452556
ISBN (ebook)
9783668891364
ISBN (Livre)
9783668891371
Langue
allemand
Mots clés
Retina des Menschlichen Auges, Netzhaut, Bayer-Sensor einer Videokamera, Photorezeptoren
Citation du texte
Julius Peters (Auteur), 2018, Das Auge als Kamera. Vergleich der Retina des menschlichen Auges mit dem Bayer-Sensor einer Videokamera, Munich, GRIN Verlag, https://www.grin.com/document/452556

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Das Auge als Kamera. Vergleich der Retina des menschlichen Auges mit dem Bayer-Sensor einer Videokamera



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur