Entwurf und Implementierung einer Systemplattform für die Echtzeit-Bildverarbeitung an Bord eines VTOL-MAVs


Diplomarbeit, 2008

90 Seiten, Note: 1,0


Leseprobe

Inhalt

1 Einleitung
1.1 Aufgabenstellung
1.2 Gliederung der Arbeit

2 Grundlagen
2.1 Das VTOL-MAV MD4-
2.1.1 Leistungsdaten
2.1.2 Avionik
2.2 Digitale Signalprozessoren
2.2.1 Arithmetik
2.2.1.1 Fixkommaarithmetik
2.2.1.2 Gleitkommaarithmetik
2.2.1.3 Spezialisierte Recheneinheiten
2.2.2 Speicherzugriff
2.2.2.1 Direct Memory Access
2.2.3 Analog Devices Blackfin BF
2.2.3.1 Die Blackfin Prozessorfamilie
2.2.3.2 Peripherie
2.2.3.3 Besonderheiten des ADSP-BF
2.3 Bildsensorik
2.3.1 Verfahren der Bildaufnahme
2.3.2 Logische Repräsentation der Bilddaten
2.3.3 Bayer-Sensor
2.4 Farbmodelle
2.4.1 RGB
2.4.2 YUV und YCbCr
2.5 Bildübertragung
2.5.1 Phase Alternating Line
2.6 Der Optische Fluss
2.6.1 Prinzipien
2.6.2 Das Verfahren nach Lukas und Canade

3 Systemintegration
3.1 Anforderungen an Systemplattform
3.2 Hardware
3.2.1 Systemüberblick
3.2.2 Systemkomponenten
3.2.2.1 Prozessormodul
3.2.2.2 Kameras
3.2.2.3 Videoencoder
3.2.2.4 Massenspeicher
3.2.2.5 I[2] C und SCCB Schnittstellen
3.2.2.6 Spannungsversorgung
3.2.2.7 Benutzerschnittstellen
3.3 Betriebssystem und Applikationen
3.3.1 Das Betriebssystem μClinux
3.3.2 Layout des Arbeitsspeichers
3.3.3 Bootvorgang
3.3.3.1 Initialisierung des Prozessors
3.3.3.2 Der Bootprozess im Detail

4 Erzeugung und Übertragung stereographischer Bilddaten
4.1 Entstehung des Tiefeneindrucks
4.2 Erzeugung stereographischer Bilddaten in Echtzeit
4.2.1 Signalpfad der Bilddaten
4.2.2 Synchronisation der Kameras
4.2.3 Bayer-Interpolation
4.2.4 Farbraumkonvertierung
4.2.5 Erzeugung des PAL-Signals
4.2.5.1 Layout des SDRAM-Speichers
4.2.5.2 Übertragung des Videopuffers
4.3 Visualisierung
4.3.1 Darstellung mittels Videobrille
4.3.2 Darstellung mittels Anaglyphen

5 Schätzung des optischen Flusses mittels Census Transformation

6 Ergebnisse
6.1 Systemplattform
6.1.1 Technische Daten
6.2 Anwendungen
6.2.1 Stereographie
6.2.2 Schätzung des Optischen Flusses

7 Zusammenfassung

A Verzeichnis der Applikationen
A.1 Applikationen
A.1.1 Verzeichnis camtools
A.1.2 Verzeichnis videnctools

B Anaglyphenbrille

C Schaltpläne

Literaturverzeichnis

Abbildungsverzeichnis

1.1 VTOL-MAV MD4-200

2.1 Wesentliche Eigenschaften des VTOL-MAVs MD4-200 (aus[6] und[10] )
2.2 Schematische Darstellung der Avionikkomponenten der MD4-200
2.3 32 Bit Integer- oder Festkommadarstellung
2.4 32 Bit Gleitkommadarstellung (IEEE Format)
2.5 Mehrschichtiges Speicherkonzept
2.6 Optimierter Datenfluss mittels Direct-Memory-Access
2.7 ADSP-BF561 Blockschaltbild (aus[17] )
2.8 Prinzip der Bildaufnahme
2.9 Bayer-Filterstruktur
2.10 Farbspektrum mit Darstellung des Farbtons als RGB-Komponenten und Farbwinkel
2.11 RGB Darstellung
2.12 Beispiel in RGB Darstellung
2.13 Y, U und V Komponenten nach Zerlegung
2.14 Aufbau eines PAL-Bildes
2.15 Schema des Optischen Flusses: Bildsequenz a) und b) sowie Verschiebungs- feld der Sequenz c)

3.1 Layout der Plattformhardware
3.2 Bluetechnix Prozessormodul CM-BF561
3.3 CMOS Kameramodul OV2630
3.4 Ansteuerung des ADV7393 Videoencoders
3.5 Struktur von Betriebssystem und Applikationen
3.6 Speicherlayout
3.7 Start des uClinux Betriebssystems

4.1 Entstehung des Tiefeneindrucks
4.2 Aufnahme mittels Stereokamerasystems aus a) linker und b) rechter Perspek- tive mit Markierung perspektivisch verschobener Merkmale
4.3 Erzeugung stereographischer Bilddaten: Signalpfad
4.4 Synchronisation der Kameras
4.5 Anordnung der Bilddaten
4.6 Bayer-Interpolation durch Reduktion der Bildauflösung
4.7 Unoptimierte a) und optimierte b) Aufteilung der Zugriffe auf verschiedene SDRAM-Bänke
4.8 Übertragung der einzelnen Komponenten eines PAL-Bildes
4.9 Videobrille
4.10 Anaglyphenbrille mit Rot/Cyan Farbfilter
4.11 Farbkodierte Perspektiven vor der Überlagerung zu einem Stereobild
4.12 Anaglyph zur Betrachtung mittels Rot/Cyan Anaglyphenbrille

5.1 Grundüberlegung zur Bestimmung des optischen Flusses mittels Census- Transformation
5.2 Klassifikation der Umgebung eines Pixels
5.3 Filterschritte der Census-Transformation zur Schätzung des Optischen Flusses

6.1 Prototyp der Systemplattform
6.2 Farbsäume durch Interpolation, 4-fache Vergrößerung
6.3 Schätzung des optischen Flusses mittels a) Lukas-Canade Algorithmus der OPENCV-Bibliothek und b) Census Transformation
C.1 Schaltplan Prototyp, Stromversorgung
C.2 Schaltplan Prototyp, Prozessor und Kameras
C.3 Schaltplan Prototyp, Videoencoder

Glossar

Verwendete Abkürzungen

Abbildung in dieser Leseprobe nicht enthalten

Kapitel 1 Einleitung

Fortschritte in den Bereichen der Mikroelektronik, der elektrischen Antriebstechnik sowie insbesondere auch bei modernen Akkumulatortechnologien haben in den letzten Jahren die Entwicklung einer neuen Form von Luftfahrzeugen für die Luftbildfotografie und Fernerkundung möglich gemacht, die so genannten Micro Aerial Vehicles (MAV). Hierbei handelt es sich um kleine, unbemannte Luftfahrzeuge mit Gesamtabmessungen von weniger als einem Meter sowie einem Gewicht von unter einem Kilogramm. Die MAVs zählen zur Gruppe der Unmanned Aerial Vehicles, im deutschen Sprachraum findet man häufig auch die verallgemeinerte Bezeichnung Drohne.

Mögliche Ausführungen sind Bauformen als Starr- oder Drehflügler, vereinzelt befinden sich aber auch hybride Formen[2] in der Entwicklung, die das Flugverhalten von Insekten imitieren. Die jeweilige Ausführung ergibt sich aus der beabsichtigten Anwendung. Diese umfassen neben der militärischen Aufklärung zunehmend auch eine Fülle von zivilen Zwecken, wie zum Beispiel der Unterstützung von Polizei- und Feuerwehreinsätzen, der Inspektion von Bauwerken, der Verkehrsbeobachtung oder im Werkschutz. Durch Verwendung zusätzlicher Sensoren an Bord der MAVs wie zum Beispiel Infrarot-Detektoren oder Sensorik zur Messung von Gasen oder ionisierender Strahlung läßt sich das Einsatzspektrum auch auf den Umwelt- und Katastrophenschutz ausweiten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: VTOL-MAV MD4-200

Die Steuerung eines MAVs erfolgt durch einen Piloten per Funkfernsteuerung vom Boden aus. Da insbesondere Drehflügel-MAVs ungeregelt ein instabiles Flugverhalten aufwei- sen, werden zunehmend verschiedene unterstützende Module wie Beschleunigungs- und Drehratensensoren, Radar- und Laserabstandsmesser sowie barometrische Höhenmesser eingesetzt, um die Fluglage zu stabilisieren. Durch Erweiterung um satellitenbasierte Na- vigationssysteme wie das Global Positioning System ist es durch Fusion der verschiedenen Sensordaten möglich, eine präzise Positionsbestimmung des MAVs vorzunehmen und somit autonom zu navigieren. Neben den genannten Sensoren bieten auch automatisierte Verfahren zur Bildverarbeitung die Möglichkeit, die Positionsbestimmung zu unterstützen. Darüber hinaus lassen sich diese Verfahren als eigenständige Anwendung zur Erweiterung des Einsatzspektrums von MAVs einsetzen, beispielsweise in der Objekterkennung oder zur Georeferenzierung in der Kartografie.

Am Institut für Theoretische Elektrotechnik und Systemoptimierung der Universität Karlsru- he befindet sich derzeit in Kooperation mit der Firma Microdrones GmbH das VTOL-MAV MD4-200 in Entwicklung, das über verschiedene Sensoren zur autonomen Navigation verfügt[6].

Es ist beabsichtigt, die mit den bereits vorhandenen Sensoren erzeugte Navigationslösung durch ein System zur automatisierten Bildverarbeitung zu stützen. Hierzu existiert bereits ei- ne Sammlung an Algorithmen zu verschiedenen Anwendungen. Diese Algorithmen werden zum einen anhand von Bilddaten eingesetzt, die mit einer handelsüblichen Digitalkamera an Bord des MD4-200 aufgenommen werden, zum anderen ist die Verarbeitung mittels eines Rechners in der Bodenstation des MAVs durch Übertragung von Livebildern über eine analoge Funkverbindung möglich.

Der Einsatz einer Digitalkamera zur Erfassung der Bilddaten gestattet ausschließlich das Offline-Postprocessing der Daten und ist somit nicht geeignet, Algorithmen einzusetzen, die in Echtzeit durch Bildverarbeitung die Navigationslösung stützen. Die Verwendung eines Rechners in der Bodenstation erfordert die Übertragung von Bilddaten über eine analoge Funkstrecke; dies ermöglicht zwar über den Steuerkanal des MAVs die Rückmeldung der verarbeiteten Bilddaten an die Steuerung des MD4-200 und somit eine automatisierte Stützung der Navigationslösung, birgt jedoch verschiedene Nachteile in sich, die einen autonomen Einsatz beeinträchtigen. Im Wesentlichen sind diese durch die Eigenschaften der Funkverbindung bedingt. Der gravierendste Nachteil ist, dass diese nicht ausfallsicher ist, das heißt, dass bei einer häufig nicht zu vermeidenden Störung beispielsweise durch andere Sender in der Umgebung des MAVs oder durch Einflüsse wie Abschattungs- oder Dämpfungseffekte die Stützung der Navigation nicht möglich ist. Des Weiteren wird durch die Übertragung per Funkverbindung die Verarbeitung der Bilddaten mit einer Latenzzeit in der Größenordnung von bis zu einigen Hundert Millisekunden beaufschlagt, was die Genauigkeit der Positionsstützung herabsetzt. Schließlich erfolgt durch die analoge Übertragung eine Reduktion der möglichen räumlichen Auflösung der Bilddaten sowie durch die eingesetzten Kompressionsverfahren eine Reduktion der Farbinformation. Diese Effekte führen dazu, dass die Effizienz und Zuverlässigkeit der eingesetzten Algorithmen gegenüber der Verarbeitung von Bilddaten ohne vorhergehende Übertragung über eine analoge Funkstrecke vermindert wird.

Aus diesen Gründen ist es wünschenswert, die Bildverarbeitung zur Stützung der Na- vigationslösung an Bord des MD4-200 durchzuführen. Hierzu ist eine Systemplattform erforderlich, die über alle erforderlichen Komponenten zur automatisierten Verarbeitung von Bilddaten sowie Schnittstellen zu den bestehenden Systemen des MAVs verfügt. Darüber hinaus muss sie den physikalischen Randbedingungen genügen, die sich aus dem Einsatz an Bord des MD4-200 ergeben. Die Entwicklung dieser Systemplattform ist Gegenstand der vorliegenden Arbeit.

1.1 Aufgabenstellung

Das Ziel dieser Diplomarbeit ist die Entwicklung einer Systemplattform für die EchtzeitBildverarbeitung an Bord eines VTOL-MAV unter Berücksichtigung der gegebenen Randbedingungen des bereits existierenden Miniatur-Helikopters MD4-200. Diese Randbedingungen sind zunächst zu identifizieren, darauf aufbauend sind die erforderlichen Hardwarekomponenten der Systemplattform zu selektieren sowie ein Konzept für die Implementierung einer Softwareumgebung auf der Hardwareplattform zu entwerfen. Danach soll ein Prototyp der Systemplattform erstellt und in Betrieb genommen werden.

Um die Leistungsfähigkeit der Plattform zu validieren sind im Anschluss verschiedene Algorithmen der Bildverarbeitung zu implementieren, die auch als Basis für weitere Applikationen dienen sollen.

1.2 Gliederung der Arbeit

Im folgenden Kapitel 2 sollen die wesentlichen Grundlagen der vorliegenden Arbeit vorge- stellt werden. Diese umfassen die relevanten Eigenschaften des VTOL-MAVs MD4-200, die zur Identifizierung der Randbedingungen erforderlich sind, einen Überblick über eine spe- zielle Gattung von Mikroprozessoren, die Digitalen Signalprozessoren mit Schwerpunkt auf dem in der Arbeit eingesetzten Blackfin BF561 DSP, eine Einführung in den Themenbereich Bildsensorik und -übertragung sowie die Vorstellung des Konzepts des Optischen Flusses in der Bildverarbeitung.

In Kapitel 3 wird die entworfene Systemplattform hinsichtlich der Integration von Hardwarekomponenten und Softwareumgebung erläutert. In den im Anschluss daran folgenden Kapiteln 4 und 5 werden zwei Anwendungen beschrieben, die im Rahmen dieser Diplomarbeit auf der Systemplattform implementiert wurden. Diese beiden Anwendungen dienen auch der Validierung der Leistungsfähigkeit des Systems. Die Ergebnisse dieser Validierung werden in Kapitel 6 vorgestellt.

Die Arbeit schließt in Kapitel 7 mit einer Zusammenfassung und einer Erläuterung möglicher Erweiterungen der Systemplattform.

Kapitel 2 Grundlagen

Das vorliegende Kapitel erläutert die Grundlagen und Randbedingungen der zu entwickelten Systemplattform. Zunächst erfolgt eine kurze Zusammenstellung der für die Systemplattform wesentlichen Parameter der eingesetzten Drohne, danach eine Vorstellung der für eine Bildverarbeitungslösung erforderlichen Technologien und schließlich eine Einführung in einen Teilbereich der Algorithmik digitaler Bildverarbeitung.

2.1 Das VTOL-MAV MD4-200

Die am Institut für Theoretische Elektrotechnik und Systemoptimierung eingesetzte Drohne MD4-200 wurde in Zusammenarbeit mit der Firma Microdrones GmbH entwickelt. Es handelt sich dabei um einen so genannten Quadrokopter, das heißt einen Hubschrauber mit vier vertikal angebrachten Rotoren, die einen Richtung Erdboden erzeugten Schub erzeugen. Diese Konstruktion gestattet eine im Vergleich zu Helikoptern mit einem Haupt- und Heckrotor einfacheren Steuerung, da eine Beeinflussung der Flugrichtung über unterschiedliche Drehzahlen der einzelnen Rotoren erreicht werden kann.

Diese Konfiguration der Rotoren macht allerdings eine schnelle Änderung der Rotordreh- zahlen erforderlich, da ein Quadrokopter durch plötzlich auftretende Kippmomente ein instabiles Flugverhalten aufweist, das durch eine aktive Regelung unter Zuhilfenahme von Beschleunigungs- und Rotationssensoren kompensiert werden muss. Hierzu eignen sich Elektromotoren besser als Verbrennungsmotoren, da dieser schneller und präziser angesteuert werden können.

Die Steuerung der Drohne erfolgt über eine Funkfernsteuerung mit 9 Kanälen vom Boden aus, möglich ist dabei zum einen eine manuelle Steuerung durch den Piloten, zum anderen existiert auch ein Modus, in dem der Pilot die Drohne kommandiert, das heißt nicht aktiv in die Regelung der Fluglage eingreift, sondern per Fernsteuerung die Position des MAVs vorgibt.

Als Nutzlast dient üblicherweise eine Digitalkamera, die unterhalb der Drohne im Kreu- zungspunkt der vier Rotorausleger angebracht ist, möglich sind aber auch Nutzlasten wie Video- und Infrarotkameras sowie Sensoren wie beispielsweise Gasdetektoren.

2.1.1 Leistungsdaten

Tabelle 2.1 gibt eine Übersicht über die wesentlichen technischen Daten der eingesetzten Drohne MD4-200.

Abbildung 2.1: Wesentliche Eigenschaften des VTOL-MAVs MD4-200 (aus[6] und[10] )

Abbildung in dieser Leseprobe nicht enthalten

Die Leistungsdaten des MAVs, insbesondere die Anforderungen an die Nutzlast, bestimmen im Wesentlichen die physischen Randbedingungen der Systemplattform. Das zu entwickeln- de Hardwaremodul stellt zunächst ausschließlich die Nutzlast der Drohne dar, da jedoch geplant ist, das Navigationssytem der MD4-200 durch ein Modul zur automatischen Bild- verarbeitung zu erweitern, ist beim Entwurf der Plattform darauf zu achten, dass sich die eingesetzten Komponenten in die existierende Avionik integrieren lassen, ohne das maximal mögliche Gewicht oder Abmessungen der Nutzlast erheblich zu reduzieren.

2.1.2 Avionik

Bild 2.2 zeigt die Avionikkomponenten der MD4-200. Diese besteht zum einen aus einem Navigation-Controller, der die Positionsbestimmung der Drohne vornimmt, zum anderen aus einem Flight-Controller zur Steuerung des MAVs, der die Ansteuerung der Motoren sowie die Kommunikation mit dem Benutzer übernimmt. Darüber hinaus erfolgt über den FlightController die Steuerung der Nutzlast. Flight-Controller und Navigation-Controller tauschen Daten über eine synchrone serielle Schnittstelle (SPI) aus.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Schematische Darstellung der Avionikkomponenten der MD4-200

2.2 Digitale Signalprozessoren

Bei Digitalen Signalprozessoren handelt es sich um spezialisierte Mikroprozessoren für die Verarbeitung von analogen sowie digitalen Signalen, sie finden derzeit ihre Anwendung hauptsächlich in der Audio- und Videotechnik, der Telekommunikation sowie der Mess- technik.

DSPs sind insbesondere darauf ausgelegt, hohe Datenvolumina in Echtzeit verarbeiten zu können. Echtzeit bedeutet in diesem Kontext, dass die Verarbeitung eines Datenblocks inner- halb einer definierten Zeit abgeschlossen ist. Hierzu bedienen sie sich einiger Technologien, in denen sie sich von herkömmlichen Mikrokontrollern und -prozessoren unterscheiden. Di- gitale Signalprozessoren sind in erster Linie auf eine hohe Rechenleistung ausgelegt, dies äußert sich in erster Linie in spezialisierten Befehlen für bestimmte Rechenoperationen so- wie einer auf hohen Datendurchsatz ausgelegten Hardwarearchitektur. Häufig ist in diesem Umfeld die Harvard-Architektur anzutreffen, die über getrennte Speicherbereiche für Daten und Instruktionen verfügt und dadurch eine höhere Verarbeitungsgeschwindigkeit aufweist als die Von-Neumann Architektur mit kombinierten Speicherbereichen.

Digitale Signalprozessoren finden seit Anfang der Achtziger Jahre Verwendung[21], zu den ersten Chips gehören der Intel 2920 und NEC μPD7720. 1982 veröffentlichte Texas Instruments die TMS320 Familie und dominiert damit bis heute den DSP Markt. Weitere wichtige Anbieter sind unter anderem Motorola und Analog Devices.

Von Mikrocontrollern unterscheiden sich Digitale Mikroprozessoren neben der Optimierung auf hohe Rechenleistung vor allem dadurch, dass sie im Gegensatz zu Mikrocontrollern über wenige externe Schnittstellen verfügen. Dies erforderte bisher bei der Realisierung von Produkten, bei denen DSPs zum Einsatz kamen, häufig einen zusätzlichen Mikrocontroller zur Kommunikation mit Peripheriekomponenten oder dem Benutzer. In den vergangenen Jahren sind jedoch auch zunehmend Hybrid-Prozessoren auf dem Markt erschienen, die einen oder mehrere DSP-Kerne und einen Mikrocontroller in einer Plattform integrieren oder somit den schaltungstechnischen Aufwand reduzieren.

2.2.1 Arithmetik

Bei DSPs werden im Wesentlichen zwei unterschiedliche Zahlendarstellungen eingesetzt, die Darstellung in Fixkomma- und Gleitkommaarithmetik. Diese verschiedenen Darstellungsmöglichkeiten haben einen grundlegenden Einfluss auf die eingesetzten Recheneinheiten der Prozessoren und somit auch auf die Art und Weise der Implementierung von Applikationen und Algorithmen auf Digitalen Signalprozessoren.

2.2.1.1 Fixkommaarithmetik

Der überwiegende Teil kommerziell verfügbarer DSPs verfügt über Recheneinheiten, die zur Zahlendarstellung die Integer- oder Fixkommaarithmetik einsetzen. Der Vorteil dieser Arithmetik ist der im Gegensatz zur Gleitkommaarithmetik reduzierte schaltungstechnische Aufwand, der in einem geringeren Preis und geringerer Leistungsaufnahme resultiert. Der Nachteil liegt in der geringeren Dynamik und Präzision sowie, abhängig von der Applikation, reduzierten Verarbeitungsgeschwindigkeit komplexer Algorithmen.

Bild 2.3 verdeutlicht den Aufbau einer Zahl in Fixkommaarithmetik. Jedes Bit in dieser Repräsentation besitzt dabei die Wertigkeit eines Vielfachen von 2, wobei ein Bit, meist das MSB, zur Darstellung des Vorzeichens verwendet wird.

Die Berechnung einer Zahl mit einer Länge von 32 Bit in reiner Integerdarstellung, das heißt ohne Nachkommastellen, erfolgt mit bk als Bezeichner der Bitposition nach der Formel:

Abbildung in dieser Leseprobe nicht enthalten

Die Berechnung von Zahlen mit Nachkommastellen erfolgt durch prinzipiell willkürliche Festlegung der Position des Kommas an einer bestimmten Bitposition, so dass ein Teil eines 32-Bit Wortes die Vorkommastellen repräsentiert, der verbleibende Teil die Nachkommastel- len.

Die Darstellung von Zahlen in Fixkommaarithmetik erfolgt im Allgemeinen in einer leicht abgewandelten Form der Binärdarstellung, dem Zweierkomplement. Eine ausführliche Erläuterung dieses Formats ist in[21] zu finden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: 32 Bit Integer- oder Festkommadarstellung

Der Einsatz einer Prozessorplattform in Fixkommaarithmetik verhindert nicht die Verwen- dung von Algorithmen, die auf eine Gleitkommaarithmetik angewiesen sind, da sich diese auf Festkomma-Recheneinheiten emulieren lässt. Dies resultiert in einem erhöhten Aufwand und somit einer reduzierten Verarbeitungsgeschwindigkeit durch die erforderliche Berück- sichtigung von Überläufen sowie der Verarbeitung von Datentypen bei der Gleitkommadar- stellung, die ein Vielfaches der Datenwortbreiten von Prozessorplattform mit Fixkommaa- rithmetik betragen.

2.2.1.2 Gleitkommaarithmetik

Die Darstellung von Zahlen in Gleitkommaarithmetik erfolgt neben dem Vorzeichen S über eine Mantisse M sowie einen Exponenten E. Allgemein lässt sich eine Zahl in Gleitkommadarstellung wie folgt berechnen:

Abbildung in dieser Leseprobe nicht enthalten

Für die Aufteilung von Vorzeichen, Mantisse und Exponenten auf die entsprechenden Bitpositionen existieren eine Vielzahl von Standards, am häufigsten Verwendung findet heutzutage die IEEE Norm, die in Bild 2.4 dargestellt ist.

Der Vorteil der Gleitkommaarithmetik liegt im höheren Dynamikumfang und der höheren Präzision gegenüber der Festkommadarstellung. Dies wird außerdem dadurch verstärkt, dass Festkomma-DSPs häufig nur mit einer Wortbreite von 16 oder 32 Bit arbeiten, während Di- gitale Signalprozessoren mit Gleitkomma-Recheneinheiten meist über eine Wortbreite von 64 Bit für Rechenoperationen verfügen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: 32 Bit Gleitkommadarstellung (IEEE Format)

Der Nachteil der Gleitkommaarithmetik ist neben dem bereits erwähnten höheren schal- tungstechnischen Implementierungsaufwand in durch Rundungsfehler verursachten numeri- schen Problemen zu sehen, da häufig Zahlen, für die in Fixkommadarstellung eine exakte Repräsentierung existiert, durch die Darstellung mittels Exponenten nur angenähert werden können.

2.2.1.3 Spezialisierte Recheneinheiten

Unabhängig von der Art der verwendeten Arithmetik verfügen Digitale Signalprozessoren über Rechenwerke, die in der Digitalen Signalverarbeitung häufig vorkommende Berech- nungen effizient durchführen können. Zu den ersten spezialisierten Einheiten gehörte hierbei die Multiply-Accumulate Operation (MAC) zur Bildung einer Summe von Produkten, die beispielsweise für Faltungsoperationen oder die diskrete Fouriertransformation erforderlich ist.

Neben aus der analogen Signalverarbeitung abgeleiteten Operationen bieten kommerziell verfügbare DSPs zunehmend eine Vielzahl an Befehlen zur effizienten Datenverarbeitung in einer Vielzahl von Anwendungsszenarien, insbesondere auch der Bild- und Videoverarbeitung. Dabei kommen häufig auch Konzepte von Super- und Vektorrechnern zur Steigerung des Datendurchsatzes zum Einsatz[30].

So verfügen moderne Digitale Signalprozessoren häufig über eine SIMD-Architektur (Single Instruction, Multiple Data), die es gestattet, eine Rechenoperation auf mehrere Datensätze gleichzeitig anzuwenden und damit den Datendurchsatz signifikant gegenüber herkömmlichen, iterativen Architekturen zu steigern.

2.2.2 Speicherzugriff

Die größte Herausforderung bei der effizienten Implementierung mathematischer Algorithmen auf modernen Mikroprozessor- und DSP-Plattformen ist derzeit, dem Prozessorkern beziehungsweise der ALU die zu verarbeitenden Daten in ausreichender Geschwindigkeit zur Verfügung zu stellen.

Die Taktfrequenz moderner Prozessoren in der Größenordnung von 1 GHz liegt deutlich über der gegenwärtig existierender Speichertechnologien wie zum Beispiel DDR-SDRAM mit einer Frequenz von 200 MHz. Eine ausführliche Einführung in diesen Themenbereich bietet[30]. Zwar verfügen moderne Speichermodule über die Möglichkeit, in jedem Taktzyklus mehrere Datenblöcke zu übertragen, die Latenzzeit bei der Initialisierung des Speicherzugriffes ändert sich dadurch jedoch nicht.

Diese Problematik ist insbesondere beim Einsatz von Digitalen Signalprozessoren zu beach- ten, die darauf ausgelegt sind, große Datenmengen in Echtzeit zu verarbeiten. Aus diesem Grunde werden DSPs üblicherweise in Kombination mit SRAM-Speichern eingesetzt, die eine geringe Latenzzeit und hohe Übertragungsrate aufweisen. Der Nachteil dieser Speichertechnologie ist der im Vergleich zu DRAMs hohe Preis, was zur Konsequenz hat, dass dieser bei kommerziell verfügbaren Signalprozessoren nur in der Größenordnung von 10[5] - 10[6] Byte vorhanden ist.

Andererseits hat die digitale Bildverarbeitung hohe Anforderungen an die Menge der zu speichernden Daten, so erfordert beispielsweise ein Farbbild in SXGA-Auflösung (1280x1024 Pixel) bei 3 Farbkanälen mit jeweils 8 Bit Tiefe einen Speicherplatz von 3932160 Byte. Dies erfordert ein mehrschichtiges Speicherkonzept beim Einsatz von Digitalen Signalprozessoren in der Bildverarbeitung. Derzeit am Markt verfügbare Prozes- sorplattformen tragen diesen Erfordernissen Rechnung und besitzen neben einer geringen Menge an schnellen SRAM-Speicher eine Schnittstelle zu preisgünstigem DRAM-Speicher unterschiedlicher Technologien. Abbildung 2.5 zeigt schematisch den Speicheraufbau moderner Signalprozessoren, dargestellt sind hierbei einerseits die typischen Größen der verschiedenen Speichertypen, andererseits die Latenzzeiten für den Speicherzugriff in Prozessortaktzyklen. L1-L3 bezeichnen die Position der Speicherschicht in der Hierarchie.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Mehrschichtiges Speicherkonzept

Bei der Implementierung von Bildverarbeitungsalgorithmen ist daher neben einer effizienten Auslegung des Algorithmus hinsichtlich mathematischer Optimierungen insbesondere auf das Layout der zu verarbeitenden Daten im Speicher zu achten. So sollten rechenintensive Anwendungen möglichst auf Daten zugreifen, die sich innerhalb des L1-Speichers befinden, da im Allgemeinen Zugriffe auf diesen Bereich mit der Geschwindigkeit des CPU-Kerns erfolgen. Moderne DSP-Implementierungen verfügen zwar über schnelle Zwischenspeicher, so genannte Caches, die Zugriffe auf häufig benötigte Daten im externen Speicher beschleu- nigen, bei großen Datenmengen beziehungsweise hohen Datenraten aber nahezu wirkungs- los sind.

2.2.2.1 Direct Memory Access

Der konventionelle Zugriff der Recheneinheiten eines Mikroprozessors erfolgt über Regi- ster, das heißt Zwischenspeicher innerhalb des Prozessors. Der CPU-Kern lädt hierzu Daten aus einem externen Speicher in ein Register und wendet auf dieses Register die geforderten Operationen an.

Dieses Verfahren ist bei hohen Datenmengen ineffizient, da Zugriffe auf den langsameren externen Speicher mehrere Prozessortaktzyklen erfordern und darüber hinaus der Prozessor während des Speicherzugriffs keine Rechenoperationen durchführen kann. Aus diesem Grunde werden bei einer Vielzahl von Prozessoren DMA-Controller (Direct-Memory- Access) eingesetzt, um die CPU bei Speicherzugriffen zu entlasten.

Der Prozessor aktiviert einen DMA-Speichertransfer, indem Start- und Zieladresse sowie die Größe des zu übertragenden Speicherbereichs in ein dafür reserviertes Register geschrieben werden. Die eigentliche Übertragung erfolgt ohne weitere Zugriffe seitens des Prozessorkerns. Am Ende des DMA-Transfers wird häufig ein Interrupt generiert, der dem Prozessor das Ende der Übertragung signalisiert.

Da DMA-Transfers nicht nur zwischen einzelnen Speicherbereichen erfolgen können, son- dern auch der Einsatz für die Kommunikation mit verschiedenen Peripheriegeräten möglich ist, lässt sich durch eine Sequenz von DMA-Zugriffen ein kontinuierlicher Datenfluss erzeu- gen, ohne eine erhöhte Prozessorlast zu verursachen. Dieses Prinzip ist in Bild 2.6 dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.6: Optimierter Datenfluss mittels Direct-Memory-Access

Insbesondere im Bereich der Bild- und Videoverarbeitung mit DSPs ist die Verwendung von DMA-Transfers essentiell, da hierbei die Übertragung hoher Datenmengen erforderlich ist. Gesteuerte DMA-Zugriffe garantieren dafür, dass die zu verarbeitenden Daten dem CPUKern zum richtigen Zeitpunkt zur Verfügung gestellt werden und außerdem kontinuierlich von und zu den angeschlossenen Peripherieeinheiten übertragen werden.

2.2.3 Analog Devices Blackfin BF561

Der Festkomma-DSP ADSP-BF561 ist Mitglied einer Familie Digitaler Signalprozessoren, die unter dem Markennamen Blackfin von Analog Devices produziert und vertrieben werden. Der CPU-Kern ist eine Gemeinschaftsentwicklung der Firmen Analog Devices und Intel, in die sowohl Elemente des Festkomma-DSPs SHARC als auch des ARM-Derivats XScale einflossen.

2.2.3.1 Die Blackfin Prozessorfamilie

Der Prozessorkern ist als Hybrid-DSP ausgeführt, das heißt, dass im Gegensatz zu Architek- turen wie beispielsweise dem OMAP von Texas Instruments aus Sicht der Applikation nur eine Recheneinheit existiert, die in der Lage ist, sowohl DSP- als auch RISC-Instruktionen auszuführen. Dies trägt zu einer Vereinfachung des Entwicklungsprozess bei. Der RISC-Teil des Prozessors verfügt über eine Datenwortbreite von 32 Bit, das DSP-Modul über eine Breite von 16 Bit. Allen CPU-Kernen der Blackfin-Familie ist darüber hinaus die doppelt ausgeführten und parallel arbeitenden ALUs (Arithmetik-Logic-Units) gemeinsam, über die die Blackfin-Prozessoren eine zweifach superskalare Verarbeitungsgeschwindigkeit erreichen, das heißt, dass pro Taktzyklus zwei Instruktionen ausgeführt werden können. Die maximale Taktfrequenz der Blackfin-Prozessorfamilie liegt, abhängig vom eingesetzten Modell, bei 600 oder 750 MHz.

2.2.3.2 Peripherie

Ein wesentliches Alleinstellungsmerkmal der Blackfin-Familie gegenüber herkömmlichen DSP-Architekturen wie beispielsweise dem SHARC, der ebenfalls von Analog Devices ver- trieben wird, ist die Integration einer Vielzahl von peripheren Einheiten. Dies reduziert den Entwicklungsaufwand erheblich und ermöglicht gleichzeitig sehr kleine Baugrößen. Von besonderem Interesse ist insbesondere die Integration einer so genannten Parallel Peripheral-Interconnect (PPI) Schnittstelle, die den Anschluss von Komponenten zur Bild- und Videoverarbeitung mit geringem schaltungstechnischen Aufwand gestattet. Eine Übersicht über die verfügbaren Peripheriekomponenten der Blackfin-Serie bietet Ta- belle 2.1.

Tabelle 2.1: Mögliche Peripherieeinheiten der Blackfin Prozessorfamilie

Abbildung in dieser Leseprobe nicht enthalten

Anmerkung: in ADSP-BF561 nicht enthaltene Einheiten sind kursiv dargestellt

Als weitere wichtige Eigenschaft verfügen die Prozessoren der Blackfin-Familie über einen Speichercontroller, der die Möglichkeit bietet, den internen SRAM-Speicher um externe SDRAM oder DDR-SDRAM Module zu erweitern. Dies erleichtert ebenfalls den Einsatz von Blackfin Prozessoren in der digitalen Bildverarbeitung, da hierbei häufig die Bearbeitung großer Datenvolumina erforderlich ist.

2.2.3.3 Besonderheiten des ADSP-BF561

Das wesentliche Merkmal des ADSP-BF561 ist die Integration zweier BlackfinProzessorkerne in einem Gehäuse. Beide Kerne können dabei unabhängig voneinander betrieben werden und haben Zugriff auf alle Peripherieeinheiten. Abbildung 2.7 bietet einen funktionalen Überblick über diesen Prozessor.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.7: ADSP-BF561 Blockschaltbild (aus[17] )

Wie in Tabelle 2.1 dargestellt, verfügt der ADSP-BF561 nur über eine vergleichsweise geringe Auswahl möglicher Peripherieelemente der Blackfin-Familie. Dies ist bedingt durch die Fokussierung auf performante Applikationen in der digitalen Bildverarbeitung, was insbesondere durch die Auslegung als Dual-Core Prozessor verdeutlicht wird. Darüber hinaus stellte der ADSP-BF561 bis zur Ankündigung der ADSP-BF54X Baureihe das einzige Modell der Blackfin Serie mit 2 PPI-Schnittstellen dar. Weiterhin bietet der ADSP-BF561 den größten internen L1-Speicher der gesamten Prozessorfamilie. Tabelle 2.2 gibt einen Überblick der Speicherarchitektur dieses Blackfin-Prozessors.

Insgesamt verfügt er über 200 KByte internen SRAM-Speicher, auf den innerhalb eines Takt- zykluses zugegriffen werden kann. Die interne Taktfrequenz kann dabei bis zu 600 MHz be- tragen, sie dient als Referenz für die Verarbeitungsgeschwindigkeit des Blackfin-Kerns und des SRAM-Speichers. Die Ansteuerung der externen Peripherieeinheiten und damit auch des SDRAM-Speichers erfolgt über eine reduzierte Taktfrequenz von bis zu 133 MHz, die in einem festen Verhältnis zur internen Taktfrequenz steht. Dieses Verhältnis lässt sich zur Laufzeit per Software anpassen.

Der externe Speicher ist in jeweils 4 so genannte B ä nke segmentiert, jede Bank wird dabei an eine feste Startadresse innerhalb des gesamten Speicherbereichs eingeblendet. Neben 4 Bänken zum Anschluss von SDRAM Speicher bietet der ADSP-BF561 4 weitere Bänke zur Integration von asynchronen Speicherelementen, dies können beispielsweise SRAM oder NOR-Flash Module sein, möglich ist aber hierüber auch die Verbindung zu I/O Bausteinen mit asynchronen Schnittstellen, wie sie häufig auch bei Mikrocontrollern Anwendung finden.

Tabelle 2.2: Speichereinheiten des ADSP-BF561

Abbildung in dieser Leseprobe nicht enthalten

2.3 Bildsensorik

Die grundlegenden Prinzipien der Bilderfassung mit dem Ziel der digitalen Weiterverarbeitung werden im folgenden Abschnitt beschrieben.

2.3.1 Verfahren der Bildaufnahme

Das prinzipielle Verfahren der digitalen Bildaufnahme ist in Abbildung 2.8 dargestellt. Lichtstrahlen, die von einem dreidimensionalen Objekt ausgehen, fallen über ein Objektiv auf einen Bildsensor, der aus CMOS- oder CCD-Elementen besteht. Diese Elemente sind in den meisten Fällen in Form einer Matrix angeordnet und führen, bedingt durch ihre endliche Größe, zu einer Diskretisierung des betrachteten Bildausschnitts.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.8: Prinzip der Bildaufnahme

Die CMOS- beziehungsweise CCD-Elemente wandeln die Energie der auftreffenden Photonen in elektrische Ladungen um, so dass die Ladungsmenge, die in jedem Bildelement enthalten ist, der Helligkeit des auftreffenden, diskretisierten Lichtstrahls entspricht. Diese Ladungsmenge lässt sich als Spannung an jeder Zelle auslesen und über einen AnalogDigitalwandler in einen digitalen Wert überführen.

2.3.2 Logische Repräsentation der Bilddaten

Die Bilddaten liegen nach der Bilderfassung in Form von diskreten Bildpunkten vor, den so genannten Pixeln. Dies ist eine aus dem Englischen entnommene Abkürzung für Picture Element. Bedingt durch die Projektion dreidimensionaler Objekte auf die zweidimensionale Oberfläche des Bildsensors liegen die aufgenommenen Objekte in einem zweidimensiona- len Koordinatensysteme in Form der diskretisierten Pixel vor. Somit lässt sich die Position jedes Pixels ebenfalls durch zweidimensionale Koordinaten darstellen. Die Repräsentation dieser Pixelkoordinate erfolgt meist in Form der Angabe seiner Spalten (x-) und Zeilen (y-) Position.

Da durch das verwendete Aufnahmeverfahren zunächst nur Informationen über die Helligkeit eines Pixels zur Verfügung stehen, sind weitere Schritte zur Erfassung der Farbinformation erforderlich. Hierzu existieren verschiedene Ansätze, die auf der Zerlegung der Farbinformation in die 3 Primärfarben Rot, Grün und Blau basieren.

2.3.3 Bayer-Sensor

Das derzeit gängigste Verfahren zur Aufnahme von Farbbildern ist die Verwendung eines Bayer-Sensors. Hierzu werden die einzelnen Helligkeitssensoren eines CCD- oder CMOS- Sensors mit roten, grünen und blauen Farbfiltern versehen, so dass jedes Sensorelement nur jeweils die Informationen über einen Farbkanal enthält. Abbildung 2.9 zeigt die schemati- sche Anordnung einer Bayer-Farbfilterstruktur. Der Anteil des Grünkanals wird von 50 % der verfügbaren Sensorelemente ausgewertet, die Anteile von Rot- und Blaukanal von jeweils 25 % der Elemente. Mit dieser Anordnung macht man sich zu Nutze, dass das menschliche Auge ebenfalls im grünen Spektralbereich die höchste Empfindlichkeit besitzt und erreicht somit eine der menschlichen Wahrnehmung angepasste Farbrekonstruktion.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.9: Bayer-Filterstruktur

Die Angabe der Pixelanzahl eines Bildsensors entspricht gängigerweise der Gesamtanzahl aller Bildsensoren, obwohl in der Realität lediglich 25 % beziehungsweise 50 % der Sen- soren für jeden Farbkanal zur Verfügung stehen. Um die volle Auflösung zu erreichen, ist daher eine Interpolation der fehlenden Farbkanäle erforderlich. Es existieren eine Vielzahl von Interpolationsverfahren für die Rekonstruktion der fehlenden Komponenten, die auch als Demosaicing bezeichnet werden. Die verschiedenen Methoden unterscheiden sich von- einander hinsichtlich des erforderlichen Rechenaufwandes und der Qualität der Interpolati- on[3], das heißt der möglichst wirklichkeitsgetreuen Rekonstruktion der Bildinformation. Prinzipiell erfordern Algorithmen, die geringe Interpolationsartefakte in den rekonstruierten Bildern erzeugen, einen wesentlich höheren Rechenaufwand als Algorithmen mit deutlich wahrnehmbaren Artefakten. Die Implementierung eines Interpolationsverfahrens stellt daher immer ein Kompromiss zwischen der Komplexität des Algorithmus und damit dem erforder- lichen Rechenaufwand und der Qualität der resultierenden Bilddaten dar.

Gängige Demosaicing-Verfahren reichen von der Replikation der Farbkanäle benachbarter Bildpunkte als Verfahren von geringer Komplexität bis hin zu adaptiven Filtermethoden, die unter Echtzeitanforderungen eine Realisierung mit Hilfe von FPGAs erfordern[12]. Neben der Farbrekonstruktion mittels Bayer-Farbfiltern existieren Technologien wie 3-Chip CCD-Sensoren, die mittels Prismen die verschiedenen Spektralanteile auf 3 CCD-Sensoren ablenken, oder der Foveon X3 Sensor[5] mit 3 vertikal gestapelten Bildsensoren, die zur Farbaufnahme eines jeden Pixels 3 Sub-Pixel der jeweiligen Farbkanäle einsetzen und somit keine Interpolation erfordern.

2.4 Farbmodelle

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.10: Farbspektrum mit Darstellung des Farbtons als RGB-Komponenten und Farbwinkel[1]

Im Laufe der technischen Entwicklung der Bildaufnahme und -wiedergabe haben sich eine Vielzahl verschiedener Modelle zur Darstellung von Farben etabliert, die ihren Ursprung in den unterschiedlichen Anforderungen der jeweiligen Aufnahme-, Übertragungs- oder Wie- dergabetechnik besitzen. Abbildung 2.10 stellt einen Teil[2] des sichtbaren Farbspektrums dar und zeigt exemplarisch die Beschreibung der Farbtöne mittels RGB-Komponenten und Farb- winkel. Diese Darstellung wurde im Rahmen der Diplomarbeit als Referenz zur Verifikation der Farbtreue der eingesetzten Bildaufnahme- und Wiedergabekomponenten eingesetzt.

2.4.1 RGB

Das RGB-Farbmodell findet Anwendung bei Systemen, die sich zur Darstellung der additiven Farbmischung bedienen. Hierbei werden die einzelnen Farben durch die Anteile der spektralen Komponenten der Farben Rot, Grün und Blau dargestellt. Dieser Sachverhalt ist in Abbildung 2.11 erläutert. Jeder spektrale Anteil kodiert dabei nicht nur den Farbton, sondern ebenfalls implizit auch die Helligkeit der zu erzeugenden Farbe.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.11: RGB Darstellung

Dieses Farbmodell ist in vielen technischen Anwendungen wie zum Beispiel Röhrenmonitoren, TFT-Anzeigen und Kameras zu finden. Der Grund hierfür liegt in der Verwendung der additiven Farbmischung, die im Wesentlichen durch die zur Verfügung stehenden Materialien zur Lichterzeugung (wie beispielsweise Phosphorverbindungen im Rahmen der Entwicklung von Röhrenmonitoren) bedingt wurde.

2.4.2 YUV und YCbCr

Neben dem technisch orientierten Farbmodell RGB existieren eine Reihe von Farbmodel- len, die an die spezifischen Eigenschaften der menschlichen Physiologie angepasst sind. Das menschliche Auge besitzt unterschiedliche Sinneszellen für die Wahrnehmung von Hellig- keiten und Farbtönen, die über unterschiedliche Empfindlichkeiten verfügen. Helligkeitsun- terschiede können dabei besser aufgelöst werden als Farbtonunterschiede. Aus diesem Grun- de wurden insbesondere im Rahmen der Entwicklung von Videoübertragungstechniken, bei der es auf eine möglichst effektive Reduktion des zu transferierenden Datenvolumens an- kommt, Farbmodelle entwickelt, die die Farbinformation aus den Komponenten Helligkeit und Farbton zusammensetzen.

Eines dieser Farbmodelle ist das YUV-Modell, das im Zuge der Umstellung von Schwarzweiss- auf Farbfernsehen entworfen wurde. Es setzt sich zusammen aus den Kom- ponenten Lichtstärke pro Fläche, als Luminanz bezeichnet, und dem Farbanteil, der Chromi- nanz. Diese besteht wiederum aus den beiden Komponenten U und V, die die Abweichung des Farbwertes eines Pixel zwischen Gelb und Blau (U Komponente) sowie zwischen Grün und Rot (V Komponente) beschreiben.

Das Format ist in der ITU-Empfehlung BT.601 spezifiziert[22], in der auch die Koeffizienten für die Umrechnung zwischen den Modellen RGB und YUV definiert sind. Diese Koeffizienten tragen insbesondere der Tatsache Rechnung, dass das menschliche Auge die einzelnen Primärfarben unterschiedlich hell wahrnimmt. Die Transformation zwischen dem RGB- und YUV-Farbmodell erfolgt definitionsgemäß anhand der folgenden Formeln:

Abbildung in dieser Leseprobe nicht enthalten

Die durch Verwendung des YUV-Farbmodells mögliche Kompression wird in Abbildung 2.12 und 2.13 verdeutlicht. Dargestellt ist zunächst eine Landschaftsaufnahme im üblichen RGB-Farbraum sowie die daraus gewonnene Zerlegung in Helligkeitswerte, entsprechend der Y-Komponente, und Farbdifferenzwerte, den U- und V-Komponenten. Ersichtlich ist dabei, dass der Luminanzwert sehr viele Details enthält, während die Chrominanzwerte nur einen geringen Informationsgehalt tragen. Da die Farbdifferenzsignale gegenüber dem Hel- ligkeitswert weniger Informationen enthalten, können sie mit einer geringeren Bandbreite übertragen werden. Dies unterscheidet das YUV-Modell wesentlich vom RGB-Farbmodell, bei dem alle Kanäle mit der selben Bandbreite übertragen werden müssen.

Das YUV-Farbmodell fand durch die Übertragungstechnik des analogen Fernsehens

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.12: Beispiel in RGB Darstellung

weite Verbreitung und erfuhr verschiedene Weiterentwicklungen. Eine davon ist das YCbCr-Modell, dass das Konzept der Farbdifferenzsignale auf digitale Bilddaten erweitert. Hierbei kommen teilweise leicht angepasste Umrechnungsfaktoren für die Transformation zwischen RGB- und YCbCr-Farbraum zur Anwendung, zum einen um der veränderten Darstellungscharakteristik von Computerbildschirmen gegenüber dem analogen Fernsehen Rechnung zu tragen, zum anderen um einen Wertebereich innerhalb des YCbCr-Raumes für

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.13: Y, U und V Komponenten nach Zerlegung

Synchronisationssignale zur Verfügung zu haben.

Eine weitere Reduktion der Übertragungsbandbreite kann durch die Zusammenfassung benachbarter Cb- beziehungsweise Cr-Werte realisiert werden. Dabei macht man sich zu Nutze, dass das menschliche Auge kleine Farbfehler nicht wahrnimmt. Üblich ist eine Unterabtastung der Chrominanzwerte gegenüber den Luminanzwerten in horizontaler Richtung um den Faktor 2. Diese Form der Unterabtastung wird häufig mittels der A:B:C- Notation dargestellt, die angibt, wie häufig die beiden Chrominanzwerte gegenüber dem Luminanzwert abgetastet werden. Die erwähnte Unterabtastung um den Faktor 2 wird beispielsweise als 4:2:2 geschrieben.

2.5 Bildübertragung

Es existiert mittlerweile eine große Anzahl an Übertragungsverfahren für Bild- und Videodaten, zu denen das analoge PAL-Verfahren trotz der Zunahme digitaler Übertragungsstandards weiterhin zu den wichtigsten zählt. Die in diesem analogen Verfahren definierten Standards finden bezüglich Auflösung und Art der Bildübertragung in einer Vielzahl von Geräten der Bildverarbeitung weiterhin Anwendung.

[...]

Ende der Leseprobe aus 90 Seiten

Details

Titel
Entwurf und Implementierung einer Systemplattform für die Echtzeit-Bildverarbeitung an Bord eines VTOL-MAVs
Hochschule
Universität Karlsruhe (TH)  (Institut für Theoretische Elektrotechnik und Systemoptimierung)
Note
1,0
Autor
Jahr
2008
Seiten
90
Katalognummer
V178023
ISBN (eBook)
9783640999095
ISBN (Buch)
9783640998845
Dateigröße
3108 KB
Sprache
Deutsch
Schlagworte
Bildverarbeitung, DSP, Blackfin, Bilderkennung, Digitaler Signalprozessor, Drohne, Quadrokopter, Navigation, Mikrokontroller, Embedded System, Stereoskopie, Optischer Fluss, Navigationssystem
Arbeit zitieren
Carsten Kappenberger (Autor), 2008, Entwurf und Implementierung einer Systemplattform für die Echtzeit-Bildverarbeitung an Bord eines VTOL-MAVs, München, GRIN Verlag, https://www.grin.com/document/178023

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Entwurf und Implementierung einer Systemplattform für die Echtzeit-Bildverarbeitung an Bord eines VTOL-MAVs



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden