Entwurf und Implementierung von Algorithmen zur Erfassung und Verfolgung von sich bewegenden Personen in Videosequenzen


Diplomarbeit, 2001

71 Seiten, Note: 2


Leseprobe

Inhaltsverzeichnis

1 Einführung
1.1 Einleitung
1.2 Erläuterung der Aufgabenstellung
1.3 Gliederung der Arbeit

2 Der Weg vom Grauwertbild zur Hypothese
2.1 Bewegungsdetektion aus der Bildsequenz
2.2 Bildbasierte Vorselektion der Hypothesen

3 Erfassung und Beschreibung der Bewegungsvorgänge
3.1 Situationsübersicht
3.2 Terminologie
3.3 Initialzustand
3.4 Auswahl eines Nachfolgezustands
3.5 Prädiktion
3.5.1 Wissensbasierte Verfahren
3.5.2 Kalmanfilter
3.5.3 lineare Prädiktion
3.6 Bestimmung eines adaptiven Suchraumes
3.6.1 Berechnung von r aus dem Prädiktionsfehler . .
3.6.2 Berechnung von r aus der Schrittweite
3.7 Zusammenführung und Auftrennung
3.8 Inaktivität bei Instanzen
3.9 Zählung der Personen und Konzepte gegen Fehlzählungen .
3.9.1 Durchtrittsrichtung
3.9.2 Pendeln von Personen

4 Entwurf und Implementierung
4.1 Terminologie
4.2 Sequentielle und verkettete (lineare) Listen
4.3 Dll-Programmierung
4.4 Beschreibung des Algorithmus
4.5 Parameter zur Anpassung

5 Ergebnisse und Interpretation
5.1 Darstellung und Prüfung definierter Situationen
5.2 Test an praktischen Beispielsequenzen
5.3 Komplexes Beispiel über ca. 4 Minuten Beobachtungsdauer .

6 Zusammenfassung und Ausblick

A Dateiformat (Quelldaten)

Literaturverzeichnis

Verzeichnis von WWW-Seiten

Abbildungsverzeichnis

Tabellenverzeichnis

Kapitel 1

Einführung

1.1 Einleitung

Dank der großen Fortschritte im Bereich der Computerhardware in den letz- ten Jahren stehen heute preisgünstige Rechner mit vor einigen Jahren noch unvorstellbarer Kapazität sowohl in Bezug auf Rechenleistung als auch Spei- cherkapazitäten bereit. Letztlich sind es diese Fortschritte, welche zu immer neuen Anwendungen so auch im Bereich der Bildverarbeitung führen. Das Erfassen und Verfolgen von Personen zumindest in Echtzeit, ist nicht ohne leistungsfähige Rechentechnik möglich, wenngleich die in dieser Arbeit be- handelte Aufgabe lediglich die Grundlage für einen späteren Echtzeiteinsatz darstellt. So stellt vor allem die inhaltliche Deutung von Bildern sehr hohe Ansprüche an die Rechenleistung.

Eine große Anzahl an interessanten und sinnvollen Anwendungsmöglich- keiten liefert die Motivation für solche Systeme. So wurden und werden Sys- teme zur Objektverfolgung sehr viel in militärischen Anwendungen verwen- det. Jedoch auch in der zivilen Welt sind eine große Anzahl von Anwen- dungsmöglichkeiten zu finden. So wird in der Verhaltensforschung der Ein- satz solcher Systeme sehr begrüßt, da hier eine große Arbeitserleichterung zu erreichen ist, indem Aufgaben wie Beobachtung von Bewegungen auto matisiert und objektiviert werden können. Hierzu sind in [ct200023] einige Ausführungen zu finden.

Ein weiterer Anwendungsfall ist die Zählung von Personen. Dieser Anwendungsfall findet sich in vielen Bereichen des täglichen Lebens. So besteht großes Interesse daran, Personen zu zählen und deren Wege zu erfassen, in den Konsumbereichen, wie Kaufhäusern und Supermärkten.

Auch eine Anwendung im Bereich des öffentlichen Nahverkehrs ist sinn- voll. So könnten Personenströme auf Bahnhöfen und deren Zu- und Abstrom automatisiert erfasst werden. Hierdurch könnten präzise Statistiken über das Verkehrsaufkommen erstellt werden, wodurch sicherlich eine Optimierung der Wartezeit der Passagiere und der notwendigen Einsatzhäufigkeit (Taktung) des Transportmittels erreicht werden könnte. Die dazu nötige Infrastruktur, das sind insbesondere entsprechend positionierte Kameras, ist heute bereits aus sicherheitsrelevanten Erwägungen oft vorhanden. Somit ist die Umstel- lung beziehungsweise Aufwertung vorhandener Überwachungssysteme sicher- lich nur eine Frage der Zeit, das heißt wann solche Systeme marktreif verfüg- bar sind und weniger eine Frage der Kosten, da entsprechende Infrastruktur bereits vorhanden ist.

Vielleicht wird es in Zukunft auch Systeme in Verbindung mit Gesichtser- kennung geben, so dass einzelne Persönlichkeiten differenziert werden können.

Mit diesem Schritt würde die Vision des Orwell1, die 1949 in dem Roman Überwachungsstaates von George ”1984 “erschienenistunddurchdenwelt- bekannten Ausspruch ”BIGBROTHERISWATCHINGYOU“geprägtist, sicherlich wesentlich realer werden.

1.2 Erläuterung der Aufgabenstellung

Ziel dieser Arbeit ist die Zählung von Personenbewegungen bezogen auf das Durchschreiten von ”Zählschranken“wiezumBeispieldasBetretenoderVer- lassen eines definierten Szenenbereiches.

Diese Arbeit entstand als Diplomarbeit im Rahmen eines Projektes in der Gesellschaft zur Förderung angewandter Informatik e. V. (GFaI). ”Die GFaI wurde am01.06.1990 in Berlin gegründet und verfolgt gemeinnützige forschungsfördernde Zwecke. Mit ihren ca.70 Mitarbeitern ist sie vor al- lem in den Bereichen Bildverarbeitung und Multimedia tätig. Die GFaI ist Mitglied der Arbeitsgemeinschaft industrieller Forschungsvereinigungen e. V. (AiF) und An-Institut der Technischen Fachhochschule Berlin (TFH) und der Fachhochschule für Technik und Wirtschaft Berlin (FHTW).“ [GFaI]

Ausgangsbasis für das Bildmaterial ist eine Beobachtungssituation, bei welcher sich die Kamera senkrecht über der zu betrachtenden Szene2 befindet. Wie in Abbildung 1.1 dargestellt, beträgt der vertikale Abstand zwischen Kamera und Boden zwischen 3 und 5 m und der Bildausschnitt bezogen auf den Fußboden ist ca. 4 m * 5 m.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: Position Kamera / Bildausschnitt

Das Bildmaterial liegt zur Zeit als Folge von Grauwert-Einzelbildern vor. Die Beobachtungssituation stellt sich sehr flexibel dar, da Szenen sowohl im Innenbereich als auch im Außenbereich verarbeitet werden sollen. Störun- gen sind dabei in allen Szenen zu erwarten. Im Innenbereich werden diese zum Beispiel durch mitgeführte Einkaufswagen oder bewegte Europaletten hervorgerufen.

Ein Beispiel für eine Szene im Innenbereich, dargestellt im oberen Teil von Abbildung 1.2, befindet sich in einem Einkaufszentrum. Im Außenbereich sind Störungen durch wechselnde Wetterverhältnisse sowie durch hochgradig unterschiedliche Beleuchtungsverhältnisse (natürlichen und künstlichen Ur- sprungs) zu erwarten.

Die Aufgabe, sich bewegende Personen in Videosequenzen zu verfolgen, ist geprägt von den Erscheinungsbildern der Personen, wie sie sich in der Szene ergeben. Diese Personen stellen sich innerhalb dieser Bilder als nicht-rigide3 Objekte dar. Das Erkennen von Personen in Einzelbildern beziehungsweise in einer Sequenz von aufeinanderfolgenden Bildern wird hier durch das in Kapitel 2.1 beschriebene Verfahren realisiert, welches nicht Gegenstand der Diplomarbeit ist, aber schon vorliegt.

Darauf aufbauend ist es Ziel der vorliegenden Arbeit, ein Trackingmodul zu schaffen. Aufgabe dieses Trackingmodules ist es, basierend auf der Erken- nung von Bewegungen von Personen in aufeinanderfolgenden Bildern, deren Bewegung über die ganze Szene in einer entsprechenden Bildfolge zu erfassen.

Das Datenmaterial welches dieser Arbeit zugrunde liegt zeigt einen Supermarkt, wie in Abbildung 1.2 oben dargestellt. Die Beobachtungssituation ist so gewählt, dass die Kamera senkrecht über dem zu beobachtenden Bildausschnitt steht. Daher liegen die Ergebnisse der Beobachtung als zweidimensionale Bilder, in Form einer Draufsicht, vor.

Die gesamte Aufgabe der Personenverfolgung erfordert im Wesentlichen drei Schritte, wie in Abbildung 1.2 dargestellt.

- Im 1. Schritt werden die sensorischen Daten in Form von GrauwertBildern bereitgestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.2: Datenfluss

- Der 2. Schritt umfasst die Bildverarbeitung und Bildanalyse und liefert aufbereitete Daten (Hypothesen) aus den Bildersequenzen zur Weiterverarbeitung, dem Tracking.
- Der 3. Schritt ist die Analyse durch das Trackingmodul. Hier werden die aus der Bildverarbeitung gewonnen Daten zu einer Bewegungsanalyse in der Szene verarbeitet. Dadurch lassen sich auch Zählergebnisse für Personenzählungen erstellen, die letztlich Ziel dieser Arbeit sind.

Diese Funktionalität soll mittels ANSI4 C in einer Dynamic Link Library (siehe dazu Kapitel 4.3) implementiert werden.

1.3 Gliederung der Arbeit

Das erste Kapitel soll die Aufgabenstellung erläutern und mögliche Anwendungsbereiche für dieses und ähnlich geartete Systeme aufzeigen.

In Kapitel zwei wird erläutert, wie die per Kamera gewonnenen Bilder verarbeitet werden. Wie werden überhaupt interessierende Objekte erkannt und identifiziert? Welche Daten werden aus den Bildern gewonnen?

Kapitel drei zeigt, wie die aus der Bildanalyse gewonnenen Daten verar- beitet werden, so dass die Bewegung von Personen tatsächlich verfolgt wird.

Auch werden

”Probleme“aufgezeigt,dieeszulösengibt,wenneinAlgorith mus nicht nur eine Person, sondern mehrere Personen gleichzeitig verfolgen soll. Hierzu werden Konzepte entwickelt und vorgestellt.

In Kapitel vier wird auf die Implementierung des Algorithmus eingegan- gen. Der Algorithmus wird graphisch veranschaulicht und erläutert. Auch die Parameter, die der Flexibilität des Algorithmus dienen werden erläutert.

Kapitel fünf veranschaulicht die Funktionsfähigkeit des Algorithmus.

Hierzu werden Testreihen an ”synthetischen“Beispielendurchgeführt.Wei- terhin wird Bildmaterial aus praktischen Beispielsequenzen sowohl über den Algorithmus als auch visuell ausgewertet, wobei eventuell entstehende Unterschiede erläutert werden.

Eine Zusammenfassung der Ergebnisse, die in Kapitel fünf gewonnen wurden, wird in Kapitel sechs gegeben. Weiterhin werden mögliche Vorschläge zur Verbesserung und Weiterentwicklung gemacht.

Kapitel 2

Der Weg vom Grauwertbild zur Hypothese

Dieses Kapitel soll einen Überblick über die Verfahren geben, die zur Gewinnung von Daten aus Bildern nötig sind und damit die Voraussetzung für eine Auswertung und Analyse schaffen.

2.1 Bewegungsdetektion aus der Bildsequenz

Die Bilder beziehungsweise Bildsequenzen liegen in Videonorm vor. Die Auflösung beträgt (Vollbild) 768x572 Pixel2 mit 256 Grauwerten, der Abstand zwischen zwei Bildern beträgt 40ms.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: 10 Bilder Squenz 40ms

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: 10 Bilder Squenz 200ms

Abbildung 2.1 zeigt eine typische 40ms-Sequenz von 10 Bildern mit einem zeitlichen Abstand von 40ms zwischen den Einzelbildern. In Abbildung 2.2 sind aus der gleichen Sequenz 10 Bilder mit einem zeitlichen Abstand von je 200ms dargestellt.

Die Aufgabe der Bewegungsdetektion (oder wie hier definiert das Auffinden von Hypothesen für eine Objektbewegung) lässt sich in mehrere Teilschritte gliedern, die durch Verfahren der digitalen Bildverarbeitung und Bildanalyse bestimmt werden (Abbildung 2.3).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Teilschritte Bildverarbeitung und Bildanalyse

So steht zu Beginn die Wahl eines geeigneten (minimalen) Zeitintervalls zwischen zwei Bildaufnahmen, bestimmt durch das Ziel der Erkennung re levanter Ereignisse und der auftretenden gesamten Verarbeitungszeit im Sy- stem. Hier kommt das Problem der Datenmenge zum Tragen. Wird der zeit- liche Abstand zwischen den zu verarbeitenden Bildern verringert, so ist mit einer höheren Leistung in Bezug auf die Erkennung von relevanten Ereignis- sen zu rechnen. Nachteil hierbei ist die hohe Datenmenge. Wird der Abstand zwischen zwei Bildern hingegen relativ groß gewählt, sinkt die Erkennungs- leistung. Auch die zu verarbeitende Datenmenge sinkt mit zunehmendem Bildabstand. Dieser Umstand erlaubt jedoch auch den Einsatz von leistungs- schwächeren Systemen. Ziel ist deshalb ein optimaler zeitlicher Abstand zwi- schen den Bildern. Nach [Schulz00] sind 5 Bilder/s eine übliche Größe bei dieser Art der Beobachtung.

Die eigentliche Aufgabe besteht in der Ermittlung der Hypothesen. Dabei wird aus dem Vergleich von Grauwertbildern (unter Anwendung zusätzlicher Filter oder Methoden zur Beseitigung von Bildrauschen) der interessieren- de Bildinhalt ermittelt und dann über die Segmentierung (Binarisierung) die signifikante Information (Flächenobjekte) bereitstellt. Über eine entsprechen- de Analyse entstehen daraus die Hypothesen, beschrieben durch Größe und Position. Hier finden im wesentlichen folgende Methoden zur Bewegungsde- tektion in Bildsequenzen Anwendung:

- Differenzbildung zu einem Hintergrundbild (DiffHGB)1
- Bildung der absoluten Differenz (AbsDiff)2 zwischen zwei (gemäß gewähltem Zeitintervall) aufeinanderfolgenden Bildern
- Spezielle Methoden, zum Beispiel Motion Energy Method (MoEnMe)3

In Abbildung 2.4 ist das Verfahren der Differenzbildung zu einem Hinter- grundbild (DiffHGB) dargestellt. Links oben ist ein Hintergrundbild darge- stellt, rechts oben ein Bild aus der aktuellen Szene. Die Differenz aus diesen beiden Bildern ist im Bild in der linken unteren Ecke dargestellt. Nach der

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: DiffHGB - Differenzbildung zu einem Hintergrundbild

darauf folgenden Segmentierung mit einem Schwellwert erhält man das Ergebnis, wie es rechts unten dargestellt ist. Zur Veranschaulichung ist dieses Ergebnis noch mit dem Bild rechts oben überlagert.

Die Methode DiffHGB liefert die eindeutigsten Bilder bezüglich Objektlage und Objektform, ist aber in den vorliegenden realen Szenen schwierig in der Realisierung.

Ein Hintergrundbild4 ist nicht immer ermittelbar und zweitens ist das Hintergrundbild nicht stationär, das heißt es sind Aktualisierungen notwendig in bestimmten Zeitabschnitten beziehungsweise in Abhängigkeit von länger wirkenden Störungen, die dann auch erst als solche detektiert werden müs- sen. Eine Variante dieser Methode bedient sich einer fortlaufenden adaptiven

Anpassung des Hintergrundbildes durch ”BerechnungeinesHintergrundbil- des“ aus der laufenden Sequenz. Dazu existieren unterschiedliche Methoden, die sich im Aufwand der Berechnung, dem Bedarf an Speicher und ihrer Anpaßgeschwindigkeit zu Bildveränderungen unterscheiden.

In Abbildung 2.5 ist das Verfahren der Bildung der absoluten Differenz

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: AbsDiff - Bildung der absoluten Differenz

(AbsDiff) dargestellt. Links und rechts oben befinden sich zwei Bilder, die zu unterschiedlichen Zeitpunkten entstanden sind. Zwischen diese beiden Bil- dern wird die absolute Differenz gebildet, wobei das Ergebnis entsteht, wie es unten links abgebildet ist. Das Ergebnis wird binarisiert und darauf ein Sobel-Filter5 angewandt, wobei das Ergebnis entsteht, das unten rechts dar- gestellt ist. Zur Veranschaulichung wurde eine Überlagerung mit einem Bild der Szene vorgenommen.

Die Methode AbsDiff liefert bezüglich Objektlage und Objektform keine eindeutigen Informationen über die Bewegung im Bild, insbesondere dann, wenn sich ein Objekt nicht über seine vorherige räumliche Ausdehnung hinaus bewegt hat.

Die Funktionsweise der Motion Energy Method (MoEnMe) ist in Abbildung 2.6 dargestellt.

Die Motion Energy Method benutzt auch die absolute Differenz zwischen zwei Bildern. Dies sind die beiden oberen Bilder. Dann erfolgt aber eine

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.6: MoEnMe - Motion Energy Method

UND-Verknüpfung der (binarisierten) absoluten Differenz und dem (binari- sierten) Kantenbild des ersten der zwei oberen Bilder. Damit wird versucht, den signifikanten Bereich gegenüber der vorhergehenden Methode auf die Veränderung aus einem Bild zu begrenzen. Als Ergebnis dieser Operationen erhält man das Ergebnisbild, welches unten links dargestellt ist. Rechts unten ist schließlich die Szene mit den eingezeichneten Hypothesen dargestellt.

Als Ergebnis liegt für jedes Bild eine Textdatei als Schnittstelle6 vor, die neben der Bildnummer die für das Bild erstellten Hypothesen mit ihrer Pixelanzahl und den x- und y-Koordinaten des Schwerpunktes dieser Flächen enthält.

Es sei darauf hingewiesen, dass die Ergebnisse keine Detailinformationen über Personen liefern, das heißt die Trennung von Person/Einkaufswagen oder die Berührung von mehreren Personen, ist mit diesen Verfahren so nicht erreichbar.

2.2 Bildbasierte Vorselektion der Hypothesen

Die Menge der Hypothesen H, die durch die Segmentierung generiert werden, enthält auch eine Teilmenge von Hypothesen, die durch Störungen generiert wurden. Diese Störungen sind zum Beispiel durch Bildrauschen hervorgeru- fen. Auswertungen des Bildmaterials haben gezeigt, dass sich diese Störungen besonders am Bildrand und Bildbereichen mit hohem Kontrast häufen. Um diesem Problem zu begegnen, wird zum Beispiel ein Ausschlussbereich am Bildrand definiert. Alle Hypothesen, welche innerhalb dieses Randbereiches vorkommen, werden hierdurch entfernt und stehen somit zur Weiterverar- beitung nicht mehr zur Verfügung. Im konkreten Fall der Implementierung wurden alle Hypothesen mit Abstand <15 Pixel7 vom Rand beseitigt. Dieser Wert ist jedoch nur für einen bestimmten Beobachtungsstandort gültig und muss im Einzelfall neu bestimmt werden.

Nachfolgende auf die Fläche der Hypothesen bezogene Kriterien haben ihre Ursache darin, dass durch die Bildverarbeitung und Bildanalyse keine ”eindeutigeZuordnung“HypothesezuObjektgetroffenwerdenkann.Sowohl Zergliederung als auch Verschmelzung von Objekten zu Hypothesen treten auf. Ein weiteres Kriterium ist die segmentierte Fläche der zu beobachten- den Objekte. Dieses Kriterium ist jedoch nicht sehr allgemeingültig und setzt voraus, dass sich die zu beobachtenden Objekte wenig unterscheiden und so- mit die Streuung der Objektfläche gering ausfällt. Ist diese Voraussetzung allerdings erfüllt, so lässt sich dieses Kriterium gut zur Beseitigung von Stö- rungen nutzen, da die Fläche von Störungen im Bild oft erheblich kleiner als die Objektfläche der zu beobachtenden Objekte ist. Implementiert wurde dieses Kriterium in Form eines Schwellwertes, so dass nur Objekte (Hypo- thesen) deren Fläche größer als ein bestimmter Grenzwert ist berücksichtigt werden. Objekte (Hypothesen), deren Fläche sich unterhalb dieser Schwelle befindet, werden nicht berücksichtigt. Auch dieser Wert muss im konkreten Fall, je nach Szene und zu betrachtenden Personen neu bestimmt werden. Aus experimentellen Gründen wurde zur Aufstellung der Hypothesen dieser Wert erst relativ klein (>100 Pixel) angesetzt und dann im Trackingmodul bei der eigentlichen Analyse variabel gestaltet, zum Beispiel auf >400 Pixel verändert. Der Vorteil dieser Vorgehensweise ist, dass nicht alle Verarbei- tungsschritte (siehe Abbildung 2.3) neu durchlaufen werden müssen. Weitere Details dazu in Kapitel 4.

Im Verlauf der Diplomarbeit wurden auch ”korrigierte“Hypothesenbe- reitgestellt, deren Berechnung durch Zusammenfassen eng beieinanderliegen- der Hypothesen zu einer Hypothese nach differenzierten Kriterien erfolgte. Das angestrebte Ziel dabei ist, ”viele“Einzelhypothesendieletztlich ”Störun- gen“ für den Trackingalgorithmus darstellen, zu verringern.

Kapitel 3

Erfassung und Beschreibung der Bewegungsvorgänge (Hypothesen) zur Trajektorienbildung

Einzeln für sich betrachtet, besagt eine Hypothese (siehe Definition Seite 20) H zum Zeitpunkt t lediglich, dass an einer bestimmten Position eine signi- fikante Bewegung stattgefunden hat, deren sensorische Ursache mit hoher Wahrscheinlichkeit eine Person ist. Um Bewegungsvorgänge in einem länge- ren Zeitintervall zu erfassen und zu beschreiben, muss ein Zusammenhang zwischen den Einzelereignissen, den Hypothesen, hergestellt werden. Dieser Zusammenhang besitzt einen zeitlichen als auch einen räumlichen Aspekt. Der zeitliche Zusammenhang besteht darin, über einen Zeitraum hinweg:

1. Personen als neu zu erkennen,
2. vorhandene Personen zu verfolgen und
3. in der Szene nicht mehr vorhandene Personen zu entfernen.

Der räumliche Zusammenhang soll sicherstellen, dass Fehler bei der Zuord- nung vermieden werden. So kann sich beispielsweise keine natürliche Person von einem Zyklus zum darauf folgenden Zyklus quer über das gesamte Bild bewegen, wenn sich der Zeitabstand zwischen diesen Zyklen im Bereich von Sekundenbruchteilen befindet. Diese Forderung ergibt sich schon aus der Ge- gebenheit, dass dieses System für die Verfolgung von natürlichen Personen eingesetzt wird und diese eine maximale Fortbewegungsgeschwindigkeit be- sitzen. In diesem Fall darf der Algorithmus diese zwei Ereignisse nicht einer einzelnen Person zuordnen, da hier kein sinnvoller räumlicher Zusammen- hang besteht. Wie in diesen Ausführungen schon deutlich wird, lassen sich diese beiden Aspekte nicht scharf trennen, da ein räumlicher Zusammenhang in Bezug auf Bewegungen auch eine Zeitdifferenz bedingt.

3.1 Situationsübersicht

Es gibt viele Situationen, die bei der Fortbewegung von Personen auftreten können, welche für die maschinelle Auswertung ungeeignet beziehungsweise etwas problematisch sind. Dies ergibt sich aus der einfachen Tatsache, das dem Algorithmus für das Erkennen von Personen und die Auswertung der Bewegungen viel weniger komplexe Informationen zur Verfügung stehen als beispielsweise einem menschlichen Beobachter. Als einzige Lösungsmöglich keit für solche ”problembehafteten“Situationenergibtsichdahereineexpli- zite Vorgehensweise beim Entwurf des Algorithmus mit zu berücksichtigen. Daher sollen im folgenden einige typische Situationen angezeigt und Strategien zu deren ,Entschärfung‘ aufgezeigt werden.

- Situationen mit einer Person
- Eine Situation ist das Verharren von Personen an einer Stelle oh- ne sich merklich zu bewegen. Nach einer längeren Zeit bewegt sich die Person dann weiter, wie beispielsweise in Abbildung 3.1 darge- stellt. Ein typisches Beispiel ist das Betrachten von Waren in Re- galen in einem Supermarkt.

[...]


1 George Orwell,englischer Schriftsteller.

2 Unter dem Begriff Szene wird hier ein feststehender Bildausschnitt mit feststehender Kamera verstanden.

3 Als nicht rigid werden Objekte bezeichnet, welche keine konstante Form besitzen. Nicht-rigid kann also mit nicht-formfest umschrieben werden.

4 American National Standards Institute

1 vgl. [Zedler01]

2 vgl. [Zedler01]

3 vgl. [Tse98]

4 Unter einem Hintergrundbild ist die leere Szene zu verstehen. D.h. sich bewegende Objekte wie zum Beispiel Personen sind darin nicht enthalten.

5 Der Sobel-Filter gehört zur Klasse der sogenannten Kantendetektionsfilter beziehungsweise Kantenextraktionsfilter. Zweck der Anwendung ist die Erlangung eines Kantenbildes, d.h. der Umriss eines Objektes wird dargestellt.

6 Spezifikation siehe Anhang A

7 Dieser Wert ergibt sich aus einer Betrachtung des vorliegenden Bildmaterials, da be- stimmte Störungen nur in diesem Randbereich auftreten. Statistisch ist dieser Wert nicht abgesichert.

Ende der Leseprobe aus 71 Seiten

Details

Titel
Entwurf und Implementierung von Algorithmen zur Erfassung und Verfolgung von sich bewegenden Personen in Videosequenzen
Hochschule
Hochschule für Technik und Wirtschaft Berlin  (Informatik)
Note
2
Autor
Jahr
2001
Seiten
71
Katalognummer
V4576
ISBN (eBook)
9783638128124
ISBN (Buch)
9783640551958
Dateigröße
4332 KB
Sprache
Deutsch
Schlagworte
Tracking Video Computer Vision Algorithmen Bildverarbeitung
Arbeit zitieren
Diplom - Informatiker (FH) Alexander Busch (Autor), 2001, Entwurf und Implementierung von Algorithmen zur Erfassung und Verfolgung von sich bewegenden Personen in Videosequenzen, München, GRIN Verlag, https://www.grin.com/document/4576

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Entwurf und Implementierung von Algorithmen zur Erfassung und Verfolgung von sich bewegenden Personen in Videosequenzen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden