Deterministische und stochastische Interpolationsverfahren


Hausarbeit (Hauptseminar), 2002

34 Seiten, Note: 2,0


Leseprobe

Inhalt

1. Einleitung

2. Begriffsbeschreibung

3. Anwendungsbereiche von Interpolation

4. Interpolationsverfahren
4.1 Deterministische Interpolationsverfahren
4.1.1 Die Spline- Interpolation
4.1.2 Das Verfahren nach Shepard (Inverse distance)
4.1.3 Die Polygon- Methode (Thiessen)
4.1.4 Die Triangulierung
4.1.5 Die Trendflächenanalyse
4.1.6 Die pyknophylaktische Interpolation
4.2 Stochastische Interpolationsverfahren
4.2.1 Das Kriging
4.2.2 Das Co- Kriging

5. Anwendungsbeispiel

6. Zusammenfassung

Abbildungsverzeichnis

Literaturverzeichnis

1. Einleitung

Die vorliegende Hausarbeit im Bereich „Anwendungen Geographischer Informationssysteme“ beschäftigt sich mit dem Themenschwerpunkt „Deterministische und stochastische Interpolationsmethoden“. Das Problem, quantifizierte und genaue Informationen über räumliche Variationen eines zu untersuchenden Phänomens zu gewinnen, ergibt sich aus der Kenntnis meist weniger punktueller Daten im Raum. In Abhängigkeit von der räumlichen Verteilung der gegebenen Werte- innerhalb des zu untersuchenden Gebietes- können unterschiedliche Methoden zur räumlichen Interpolation zum Einsatz kommen. Es existieren viele verschiedene Interpolationsverfahren. Diese Arbeit soll einen Überblick über die wichtigsten und gängigsten deterministischen sowie stochastischen Methoden liefern. Um den Einstieg in die Thematik etwas zu erleichtern, erfolgt zu Beginn eine Definition des thematischen Begriffes. Anschließend wird ein kurzer Überblick über die wichtigsten Anwendungsbereiche gegeben. Den Schwerpunkt bilden dann die eigentlichen Interpolationsmethoden, die, unterteilt nach deterministische und stochastische Verfahren, erläutert werden.

2. Begriffsbeschreibung

Mit Hilfe der unterschiedlichen Verfahren der Interpolation werden Werte für Orte bestimmt, an denen keine Messung erfolgt ist. Aus spärlich verteilten Punkt- bzw. Einzelmessungen innerhalb einer Fläche sollen räumlich kontinuierliche Datensätze entstehen. Es werden unbekannte Werte einer Variablen aus den gemessenen Daten für die nicht beprobten Orte geschätzt. Die Aufgabe der Interpolation ist es, Näherungswerte für einen unbekannten Ort zu ermitteln (Kappas 2001, Schrutka 1941). Im allgemeinen kann gesagt werden, dass die Interpolation der Datenverdichtung dient. Die Grundannahme der verschiedenen Interpolationsverfahren ist eine räumliche Ähnlichkeit zwischen den einzelnen benachbarten Werten. Dabei gilt, dass bei räumlich naheliegenden Daten eine größere Ähnlichkeit zu verzeichnen ist, als bei Werten, die weit voneinander entfernt sind. Wie die Qualität der interpolierten Ergebnisse ausfällt, ist von der Genauigkeit, der Anzahl und von der Verteilung der in die Berechnung eingehenden Punkte abhängig. Am günstigsten ist es, wenn die Punkte relativ gleichmäßig über die Gesamtfläche verteilt sind. Aber auch eine unregelmäßige Anordnung ist für eine Interpolation möglich (Mey 1999).

Die Interpolationsverfahren können nach verschiedenen Kriterien unterteilt werden. Zum einen gibt es eine Trennung in exakte und nicht exakte Methoden. Als exakt wird hierbei ein Verfahren bezeichnet, bei dem das Vorhersageergebnis der Interpolation genau mit dem real gemessenen Wert übereinstimmt. Bei derartigen Verfahren verläuft die interpolierte Fläche genau durch die gemessenen Datenpunkte. Am besten anzuwenden sind solche Methoden auf Datensätze, die nur kleine Fehler aufweisen oder bei sich sprunghaft ändernden Phänomenen (Mey 1999). Als nicht exakte Interpolationen werden Verfahren bezeichnet, bei denen das Vorhersageergebnis nicht genau mit dem realen Wert übereinstimmt (Kappas 2001). Deshalb werden sie auch als approximativ bezeichnet, da die interpolierten Werte nur annähernd an die erhobenen Daten heranreichen. Nicht exakte Interpolationsverfahren werden bei einer hohen Datenfehlerwahrscheinlichkeit eingesetzt und sind vor allem für sich langsam und kontinuierlich ändernde Phänomene besonders gut geeignet (Mey 1999). Eine weitere Unterscheidungsmöglichkeit beschreibt die Abgrenzung nach globalen und lokalen Verfahren. Hierbei gehen bei den globalen Methoden alle verfügbaren Daten in die Interpolation mit ein. Es wird nur ein einziger Algorithmus auf die gesamte Fläche angewandt. Wird bei diesen Interpolationsarten ein Datenpunkt hinzugefügt, entfernt oder dessen Koordinaten verändert, wirkt sich dies auf die Gesamtfläche des Bezugsraumes aus. Das Ergebnis der globalen Interpolation sind stark geglättete Datenoberflächen ohne abrupte Änderungen oder große Sprünge. Von Nachteil für diese Verfahren ist, dass sie beim Auftreten einer Veränderung der Daten alle Punkte neu ermitteln müssen und somit ein sehr hoher Rechenaufwand besteht (Kappas 2001). Die lokalen Methoden dagegen beziehen nur einen bestimmten Umkreis um den zu interpolierenden Wert mit in die Berechnung ein. Eine Veränderung der Eingabewerte bezieht sich somit nur auf ein Teilgebiet, d.h. nur auf die Punkte in der näheren Umgebung und nicht auf den gesamten Raum (Mey 1999). Lokale Interpolationsstrategien sind bei großen Datenmengen zu bevorzugen. Ebenfalls werden, wie bei den globalen Methoden, auftretende Probleme wie Speicherplatz- oder Rechenzeitverbrauch vermieden (Hensen 1999). Es ist hierbei zu erwähnen, dass nicht alle Verfahren als global oder lokal gekennzeichnet werden können. Bei der Veränderung bestimmter Parameter der Methoden können einige der Verfahren beiden Kategorien zugeordnet werden (Mey 1999). Ob es sich bei der vorliegenden Interpolation um eine graduelle, stufenweise oder abrupte Merkmalsveränderung handelt, ist eine weitere Unterscheidungsmöglichkeit. Geologische Störungen, sind harte Grenzen, die z.B. zu einer abrupten, das distanzgewichtete gleitende Mittel dagegen zu einer graduellen Veränderung der Interpolationsoberfläche führen können. Ein weiteres Kriterium ist die Trennung nach Punkt- und Flächeninterpolationen. Die Verfahren der Punktinterpolation basieren auf Techniken, welche in irgendeiner Weise versuchen Grenzen zu ziehen. Es besteht dabei die Annahme, dass alle wichtigen Veränderungen innerhalb dieser auftreten. Bei den flächenhaften Interpolationsmethoden geben die Daten Hinweise auf verschiedene polygonale Strukturen innerhalb eines geographischen Bereichs. Dies ist z.B. oft der Fall bei sozioökonomischen Daten, welche nicht den Landschaftszonen folgen, sondern gewöhnlich auf der Basis der administrativen Regionen gesammelt werden. Weiterhin können die Interpolationsmethoden in stochastische und deterministische Verfahren unterteilt werden. Bei der stochastischen Interpolation bildet das Konzept der Zufallsverteilung die Grundlage der Berechnungen. Die deterministischen Verfahren dagegen sind unabhängig von der Wahrscheinlichkeitstheorie. Ihnen fehlt das geostatistische Modell (Kappas 2001). Diese Unterteilungsmöglichkeit soll die Grundlage der vorliegenden Arbeit bilden.

3. Anwendungsbereiche von Interpolation

Anwendung finden die verschiedenen Interpolationsverfahren z.B. bei der Datenkonvertierung von einem in ein anderes System mit unterschiedlicher Auflösung und Orientierung. Dies ist häufig der Fall bei gescannten Luft- oder Satellitenbildern, bei denen die vorliegende räumliche Auflösung von der geforderten abweicht. Weiterhin wird die Interpolation bei der Datentransformation von einem Speichersystem in ein anderes angewandt. Dies ist z.B. der Fall, wenn die Ableitung einer Datenoberfläche aus einem anderen Datenmodell gefordert ist. Die Umwandlungen von Vektorpolygonen in Rasterdaten, vom TIN zum Raster oder umgekehrt stellen derartige Datentransformationen dar. Bei einer weiteren Anwendungsart werden die gemessenen Punktwerte auf die Fläche übertragen, da die Einzelwerte das Untersuchungsgebiet nicht komplett abdecken. Dies ist der klassische Fall (Kappas 2001). Es können so u.a. physische, demographische, soziale oder ökonomische Variablen zu flächenbezogenen Aussagen interpoliert werden (Rase 1996). Das Anwendungsspektrum für Interpolationsverfahren ist sehr vielfältig. Sie kommen z.B. in der Landesplanung, der Raumordnung oder bei der Regionalanalyse zum Einsatz. Ein Beispiel für eine solche Interpolation ist die teilflächenspezifische Bewirtschaftung landwirtschaftlicher Areale. Hierbei werden aus den punktuell gemessenen Werten durch Interpolation Aussagen über die räumliche Verteilung von Stoffgehalten im Boden oder von Erträgen getroffen. Weiterhin können mittels derartiger Verfahren wichtige Informationen für die Hochwasservorhersage gemacht werden. Dabei wird der Niederschlag der Einzugsgebiete der gewählten Flüsse punktuell gemessen und anschließend räumlich interpoliert (Streit 2000). Ebenfalls eingesetzt werden die Interpolationsmethoden zur Modellierung von Temperatur- und Windfeldern oder zur Darstellung von Populationsdichten. Weiterhin können z.B., für die Einspeisung in ein hydrologisches Informationssystem oder für Zwecke der programmgesteuerten Isolinienzeichnung, an beliebigen Zwischenpunkten Evapotranspirationsabschätzungen bei Untersuchungen des Wasserhaushalts sowie die Regularisierung unregelmäßig verteilter, punkthaft aufgenommener Werte der Bodenfeuchte in ein Gitternetz gewonnen werden. Auch die Eingangswerte für ein Niederschlags- Abfluss- Modell können durch eine räumliche Verdichtung der einzeln gemessenen Niederschlagshöhen innerhalb eines Flussgebietes ermittelt werden (Streit 1981). Dies sind nur ein paar Beispiele bei denen die Interpolation zum Einsatz kommt. Das Anwendungsspektrum ist aber noch sehr viel breiter.

4. Interpolationsverfahren

Wie bereits eingangs erwähnt, sollen in dieser Hausarbeit die wichtigsten und am weitet verbreiteten Interpolationsverfahren kurz erläutert werden. Unterteilt werden diese hierbei in deterministische und stochastische Methoden.

4.1 Deterministische Interpolationsverfahren

Den deterministischen Interpolationsverfahren fehlt das geostatistische Modell. Sie sind unabhängig von der Wahrscheinlichkeitstheorie (Kappas 2001).

4.1.1 Die Spline- Interpolation

Kurven, also gekrümmte Linien, spielen bei Geländemodellen und den dazu analogen abstrakten funktionalen Modellen eine wichtige Rolle. Sie sind aber auch als eigenständige geometrische Phänomene zu sehen. So z.B. Isolinien, Flüsse oder Überlandstrassen, bei deren Abbildung, in kleinmassstäbigen Karten oder elektrischen Atlanten, es eher um das Aufzeigen globaler Beziehungen als um das Erreichen der größtmöglichen geometrischen Genauigkeit geht. Viele derartige Phänomene passen sich in ihrem gesamten Verlauf keiner, in mathematisch geschlossener Form, definierbaren Kurve an. Aus diesem Grund wird versucht, die Kurve durch eine Folge von Kurvenpunkten zu beschreiben, aus denen sie jederzeit reproduziert werden kann. Im engeren Sinn ist die Kurveninterpolation ein Darstellungsproblem, bei der es neben der gefälligen Form auch um die interne Repräsentation geht. Dies bedeutet, dass der notwendige Speicherplatzbedarf so gering wie möglich ist und gleichzeitig aber ein sehr großer Informationsgehalt erzeugt wird. Des weiteren sollen geometrische Auswertungen wie z.B. Längenberechnungen möglich sein (Bartelme 1995). Um eine Interpolation im engeren Sinn handelt es sich, wenn die gegebenen Punkte genau reproduziert werden. Ist dies nicht der Fall und verläuft die Kurve nahe an den gegebenen Punkten, wird von einer Approximation gesprochen. Werden aber die Punktabweichungen von der interpolierten Kurve als Messfehler betrachtet, verwischt die Grenze zwischen Interpolation und Approximation (Bartelme 1989). Es existieren verschiedene Forderungen, die an eine interpolierte Kurve gestellt werden. Dazu zählt, dass ein übermäßiges Oszillieren verhindert wird und die Stützpunkte nur einen lokalen Einfluss haben sollen. D.h., dass ein fehlerhafter Wert nicht die gesamte Kurve, sondern nur die unmittelbare Umgebung beeinflusst. Weiterhin muss der Stetigkeitsgrad ausreichend groß und das Modell achsenunabhängig sein, so dass die geometrische Relation innerhalb der Kurven bei einer Verdrehung der Darstellung gleich bleibt (Bartelme 1989). Die Stetigkeit beschreibt, beim Übergang von einem Teilstück zum nächsten, die Beibehaltung des glatten Kurvenverlaufs (Dumfarth 1996).

Splines stellen in der Praxis das wohl bekannteste Interpolationsverfahren für glatte Kurven dar. Der Begriff „spline“ kommt aus dem Englischen und bezeichnet ein biegsames Kurvenlineal (Streit 2000). Ein Spline beschreibt ein stückweise definiertes Polynom p(x) höchstens m- ten Grades. Voraussetzung ist, dass an den Übergangsstellen Stetigkeit, d.h. Glättung, besteht. M definiert dabei, ob es sich um einen linearen (m = 1), einen quadratischen (m = 2) oder einen kubischen Spline (m = 3) handelt (Bartelme 1989, Lam 1983). Kubische Splines werden z.B. bei der Interpolation von Oberflächen verwendet, bei denen zusätzlich ein a- räumliches Werteattribut an die zweidimensionale Lageinformation der Stützpunkte geknüpft ist. Auf der Tatsache, dass die Splines lokal sehr einfach aber dennoch global sehr flexibel sind, beruht ihr Erfolg (Dumfarth 1996). Die allgemeine Definition einer stückweisen polynominalen Funktion lautet nach Burrough (1998):

Abbildung in dieser Leseprobe nicht enthalten

Bei den Splines wird vorausgesetzt, dass die Steigungen direkt rechts und links von einem Punkt gleich sind. Aus diesem Grund sind sie im gesamten, durch die Messwerte gegebenen Intervall, differenzierbar (Mey 1999). Folgende Gleichung spiegelt einen effizienten Ansatz wieder, bei dem der Spline als eine Linearkombination von einfach gearteten Bausteinen (Basissplines) aufgezeigt wird.

Abbildung in dieser Leseprobe nicht enthalten

Die Aufgabe der Spline- Interpolation besteht darin, die interpolierte Raumkurve so nah und gleichzeitig so glatt wie möglich an die vorgegebenen Datenpunkte heranzuführen. Die Stützpunkte besitzen einen lokalen Einfluss und die Werte außerhalb des Interessenbereiches sind mit Null definiert. Basissplines sind exakte Interpolatoren und werden z.B. dort eingesetzt, wo kontinuierliche, fließende Linien erwünscht sind. So z.B. um die Grenzen in geologischen Karten oder in Bodentypkarten darzustellen. Weiterhin auch zur Modellierung von Wasserstandshöhen oder Verschmutzungskonzentrationen (Kappas 2001, Mey 1999). Der Vorteil einer Spline- Funktion innerhalb der räumlichen Interpolation ist, dass sie stückweise erfolgt und deshalb relativ wenig Punkte erfordert. Somit kann auch nur ein Teil der Kurve bearbeitet werden, wobei trotzdem exakte Ergebnisse entstehen. Dies ist z.B. im Gegensatz bei der Trendflächenanalyse nicht möglich (Lam 1983, Mey 1999).

4.1.2 Das Verfahren von Shepard (Inverse distance)

Das Verfahren nach Shepard gehört zu den nichtstatistischen Interpolationsmethoden. Vor allem in der englischsprachigen Literatur wird es auch als „inverse distance weighted interpolation“ (IDW) bezeichnet, bei der es sich um eine globale Methode handelt. Bei dieser Art der Interpolation erfolgt die Berechnung des Gitterwertes, d.h. des gesuchten Punktes, über die Bildung des Mittelwertes mit Gewichtung. Es wird nicht versucht eine mathematisch beschreibbare Teilfläche zu erstellen, sondern diese dynamisch aus den vorhandenen Informationen zu berechnen (Bartelme 1995). Bei diesem Verfahren wird davon ausgegangen, dass die Werte des unbekannten Punktes und des Stützpunktes umso ähnlicher werden, desto näher sie sich liegen. Mit zunehmendem Abstand nimmt demzufolge der Zusammenhang zwischen den Beobachtungsvariablen ab. Über die Reichweite des Zusammenhangs entscheidet der Anwender. Er legt die Anzahl der Nachbarpunkte fest, die in die Schätzung mit eingehen sollen (Streit 2000). Das Gewicht für die einzelnen Stützpunkte bildet bei Shepard die Inverse, d.h. die Umgekehrte, der Distanz des Gitterpunktes vom jeweiligen Stützpunkt. Zu Beginn wird festgelegt, wie viel Nachbarpunkte in die Interpolation eingehen sollen. Anschließend wird der gesuchte Punkt durch die Mittelwertberechnung der Nachbarstützpunkte bestimmt. Dies erfolgt gewichtet mit dem Inversen der Entfernungen zwischen dem gesuchten Wert und den umgebenden Stützpunkten. Dadurch erhalten die jeweiligen Datenpunkte, einen je nach Entfernung gewichteten Einfluss auf den zu interpolierenden Punkt. Die Distanz (d) wird dann zusätzlich potenziert, d.h. mit einem Exponenten (p) versehen, der die nichtlineare Abnahme des Gewichtes darstellen soll. Dies wird laut National Center of Geographic Information & Analysis (1997) durch die folgende Gleichung beschrieben:

Abbildung in dieser Leseprobe nicht enthalten

Der Wert des Exponenten bestimmt die Einflussstärke der umliegenden Punkte. Besitzt der Exponent einen großen Wert, ist der Einfluss der naheliegenden Punkte sehr hoch und dementsprechend der weitentfernten Punkte nur gering. Dies äußert sich in einer unruhigen Oberfläche. Eine glatte, d.h. ruhige Oberfläche wird bei einem kleinen Exponenten erzeugt. Der Vorteil dieses Interpolationsverfahrens ist in seiner Einfachheit zu sehen. Es ist im Gegensatz zu komplizierteren Algorithmen leicht verständlich und nachvollziehbar. Von Nachteil ist, dass es sehr stark von den Stützpunkten beeinflusst wird. Dies äußert sich darin, dass die interpolierte Oberfläche der umliegenden Stützpunkte flach und parallel zur Bezugsebene verläuft. Erkennbar durch das Auftreten konzentrischer Kreise (Abb. 1) (Brückler 1996, Rase 1996).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: The Inverse Distance Weighted Interpolation (aus: Streit 2000, o. A.)

[...]

Ende der Leseprobe aus 34 Seiten

Details

Titel
Deterministische und stochastische Interpolationsverfahren
Hochschule
Friedrich-Schiller-Universität Jena  (Institut für Geographie)
Note
2,0
Autor
Jahr
2002
Seiten
34
Katalognummer
V18143
ISBN (eBook)
9783638225465
Dateigröße
1794 KB
Sprache
Deutsch
Schlagworte
Deterministische, Interpolationsverfahren
Arbeit zitieren
Susann Kupke (Autor), 2002, Deterministische und stochastische Interpolationsverfahren, München, GRIN Verlag, https://www.grin.com/document/18143

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Deterministische und stochastische Interpolationsverfahren



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden