Predictive Policing. Status Quo in Praxis und Forschung


Bachelorarbeit, 2020

47 Seiten, Note: 2,3


Leseprobe


Inhaltsverzeichnis

Inhaltsverzeichnis

Abbildungsverzeichnis

1 Einleitung

2 Theoretische Grundlagen
2.1 Big Data Analytics
2.2 Ziele und Methoden des Predictive Policing
2.3 Verwandte Arbeiten

3 Methodik
3.1 Systematische Literaturreview
3.2 Inhaltsanalyse, Marktanalyse

4 Ergebnisse
4.1 Status Quo der Praxis
4.2 Status Quo der Forschung
4.3 Marktanalyse
4.4 Anwendungsgebiete von Predictive Policing
4.5 Predictive Policing Framework

5 Diskussion
5.1 Wissenschaftliche und Praktische Implikationen
5.2 Limitationen

6 Fazit

Literaturverzeichnis

Anhang

Abbildungsverzeichnis

Abbildung 1.1 Google Scholar Ergebnisse für „Predictive Policing“

Abbildung 4.1 Predictive Policing Prozess

Abbildung 4.2 Beispiel Übersichtskarte Skala MAP

Abbildung 4.3 Empfangene GPS-Signale in Risikogebieten, links ohne Bezug, rechts zielgerichtete Bestreifung

Abbildung 4.4 Prognoseflächen: links Wohnquartiere, rechts Raster

Abbildung 4.5 Predictive Policing „Haus“ Framework (eigene Abbildung)

1 Einleitung

Das wissenschaftliche Interesse an Predictive Policing hat in den vergangenen Jahren stark zugenommen (Gerstner 2017, S. 9). In der Technologie wird ein hohes Potenzial gesehen, um zukünftig mit auf Big Data Analytics basierenden Verfahren Prognosen zu erstellen und auf Basis davon die Polizeiarbeit zu steuern. Mit Hilfe dieser Verfah­ren lassen sich innovative Präventivmaßnahmen entwickeln und polizeiliche Ressour­cen gezielt und effizient einsetzen, um das Kriminalitätsaufkommen zu verringern und Verbrechensbekämpfung grundlegend zu verändern. In Deutschland (Seidensticker et al. 2018) und anderen Ländern (Gluba 2015, S. 9-10) gab es bereits verschiedene Pi­lotprojekte zum Einsatz von Predictive Policing Software. Ziel dieser Arbeit ist es, einen Überblick über die durchgeführten Projekte sowie den aktuellen Stand der For­schung zu schaffen und herauszuarbeiten welche Erfahrungen bisher mit Predictive Policing gemacht wurden, wie erfolgreich der Einsatz war und welche Probleme noch zu lösen sind, beziehungsweise wo noch Verbesserungspotenzial besteht. Es sollen auch Faktoren identifiziert werden, die wesentlich für den erfolgreichen Einsatz von Predictive Policing sind.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1 Google Scholar Ergebnisse für „Predictive Policing“ (Gerstner 2017)

Zu diesem Zweck wird eine systematische Literaturreview durchgeführt; die vorhan­dene theoretische Literatur sowie Berichte zu den Pilotprojekten werden untersucht. Es wird außerdem eine Marktanalyse durchgeführt, um einen Überblick über die ak­tuell am Markt verfügbaren Predictive Policing Softwarelösungen zu geben.

In Kapitel zwei „Theoretische Grundlagen“ wird zuerst Big Data und Predictive Poli­cing erläutert, sowie ein Überblick über verwandte Arbeiten gegeben. Im Kapitel drei „Methodik“ wird anschließend die Vorgehensweise bei der systematischen Literatur­review und der Marktanalyse beschrieben. In Kapitel vier werden darauffolgend die Ergebnisse der Literaturreview behandelt. Diese sind aufgeteilt in die Ergebnisse der theoretischen Arbeiten und die der Pilotprojekte; hier werden auch die Ergebnisse der Marktanalyse beschrieben. Aufbauend auf den Ergebnissen wird am Ende des Kapitels ein Predictive Policing Framework erstellt. Im Kapitel „Diskussion“ werden die wis­senschaftlichen und praktischen Implikationen erläutert und mögliche Fragen für zu­künftige Forschungen beschrieben. Außerdem werden in diesem Kapitel die Limitati­onen der Arbeit genannt. Im Fazit wird die Arbeit abschließend noch einmal zusam­menfassend betrachtet.

2 Theoretische Grundlagen

Dieses Kapitel gibt einen Überblick über die theoretischen Grundlagen, angefangen mit einer Definition von Big Data und Big Data Analytics, über die Ziele und verschie­dene Methoden von Predictive Policing. Zum Schluss wird noch ein Überblick über verwandte Arbeiten gegeben.

2.1 Big Data Analytics

Big Data wird allgemein hin definiert als eine Datenmenge die mit konventionellen Tools und Methoden nicht analysiert werden kann. Die Daten sind dabei häufig un­strukturiert und entstammen aus verschiedensten Quellen (Pyne et al. 2016, S. 13). Big Data hat fünf wesentliche Eigenschaften, bekannt als die fünf V's, diese sind:

- Volume: Es handelt sich um große Datenmengen im Tera- bis Zettabyte Be­reich.
- Variety: Strukturierte, semi-strukturierte und unstrukturierte Daten verschie­dener Datentypen und Formate werden gespeichert und analysiert.
- Velocity: Die Datenströme werden in Echtzeit ausgewertet und analysiert.
- Value: Die Daten müssen auch einen Mehrwert für das Unternehmen haben.
- Vearcity: Die Daten müssen auch von hoher Qualität, präzise und unverfälscht sein.

Der Einsatz von Big Data kann vielen verschieden Unternehmen und Organisationen dabei helfen ihre Produkte und Angebote zu verbessern (Meier 2018, S. 6-7).

Big Data Analytics wiederum lassen sich unterscheiden in vier verschiedene Katego­rien, diese sind:

- Describtive Analytics: Hier werden historische Daten analysiert und auf mög­liche Muster hin untersucht, im Kern steht dabei die Beantwortung der Frage: Was ist passiert? Zu diesem Zweck werden die Daten auch visualisiert, um sie für Menschen besser verständlich zu machen und ihre Bedeutung aufzuzeigen.
- Predictive Analytics: Mit Predictive Analytics lassen sich sich Voraussagen über die Zukunft treffen, es soll die Frage: „Was könnte passieren?“ beantwor­tet werden. Unternehmen verwenden Predictive Analytics zum Beispiel um Vorhersagen über ihre Einnahmen zu treffen oder um Ausfälle von Maschinen als Folge von Abnutzung vorauszusagen.
- Prescribtive Analytics: Prescribtive Analytics soll bei der Entscheidungsfin­dung helfen, indem es Vorhersagen über die Auswirkungen verschiedener Ent­scheidungen trifft. Beantwortet werden soll die Frage: „Wie können wir dafür sorgen, dass es passiert?“ Gasunternehmen nutzen diese Form von Big Data Analytics zum Beispiel um die Suche nach neuen Gasvorkommen zu optimie­ren (Pyne et al. 2016, S. 15-17).
- Autonomous Analytics: Während bei allen vorherigen Fällen die Software Menschen bei der Entscheidungsfindung unterstützt hat, trifft im Falle von Au­tonomous Analytics die Maschine die Entscheidung selber, ohne zusätzliche Hilfe oder Beeinflussung durch einen Menschen (Davenport, 2017).

2.2 Ziele und Methoden des Predictive Policing

Predictive Policing wird definiert als das Verwenden von technologiebasierten Analy­severfahren um Vorhersagen über das Auftreten von Straftaten an bestimmten Orten und Zeitpunkten machen zu können. Ziel ist es, die Ressourcen der Polizei möglichst effizient zu verteilen und zu nutzen. Analysiert werden können dabei nicht nur die Kriminalitätsstatistiken, sondern auch Daten aus beliebigen anderen Quellen, zum Bei­spiel aus der Intelligenten Videoüberwachung (CCTV) (Egbert und Krasmann 2019, S. 11;Gluba 2015). Um diese Vorhersagen treffen zu können finden im Wesentlichen sechs verschiedene Theorien Anwendung:

- Repeat Victimisation: Diese Theorie besagt, dass Opfer einer Straftat zu wer­den die Wahrscheinlichkeit erhöht, in (naher) Zukunft wieder Opfer einer Straftat zu werden. Je häufiger man dabei in der Vergangenheit bereits Opfer geworden ist, umso höher ist die Wahrscheinlichkeit auch in Zukunft wieder Opfer zu werden.
- Near Repeat-Hypothese: Hierbei handelt es sich um eine Erweiterung von Repeat Victimisation. Diese Hypothese sagt aus, dass wenn Straftaten in einem bestimmten Gebiet auftreten, die Wahrscheinlichkeit für das erneute Auftreten einer Straftat in dem Gebiet ebenfalls steigt.
- Routine-Activity-Theorie: Laut dieser Theorie handeln Verbrecher rational und überlegt und drei Bedingungen müssen erfüllt sein, damit es zu einer Straf­tat kommt. 1. Ein motivierter Täter 2. Ein verfügbares Tatziel 3. Es dürfen keine adäquaten Schutzmechanismen für das Ziel vorhanden sein. Hierbei spielen auch die Routine Activitys eine wichtige Rolle, das heißt bestimmte regelmäßige Handlungen, die ein potenzielles Opfer ausübt, wie zum Beispiel ein Konzertbesuch oder der tägliche Weg zur Arbeit.
- Lifestyle Approach: Verwandt mit der Routine-Activity-Theorie ist der Life­style Approach. Laut diesem haben bestimmte Eigenschaften einer Person wie Familienstand, Alter oder Geschlecht Auswirkungen auf die Routine Activitys die eine Person durchführt und damit auch auf die Wahrscheinlichkeit, dass eine bestimmte Person einem Verbrechen zum Opfer fällt.
- Broken-Windows-Theorie: Diese Theorie besagt, dass soziale und physische Unordnung, wenn sie nicht beseitigt wird, sich immer weiter verstärkt. Durch diese Unordnung entsteht dann ein Verlust an Kontrolle, was Straftaten be­günstigt.
- Rational-Choice-Theorie: Laut dieser Theorie sind Straftaten die Folge einer rationalen Abwägung zwischen Kosten und Nutzen mit dem Ziel den eigenen Nutzen zu optimieren. Wäre also in einem Wohngebiet die Aufklärungsquote für Einbrüche gering und zeitgleich der Wohlstand in diesem Gebiet hoch, würde das die Wahrscheinlichkeit für das Auftreten von Einbruchsdelikten er­höhen (Gluba 2015).

Die Verfahren die bei Predictive Policing zur Anwendung kommen, sind entweder raum- oder personenbezogen, das heißt sie bestimmen entweder Risikogebiete, in de­nen das Auftreten von Straftaten in der Zukunft besonders hoch ist oder bestimmen potenzielle Täter und Opfer von Straftaten.

Zu den raumbezogenen Verfahren gehören folgende drei:

- Hot-Spot Methode: Dies ist die einfachste Form von polizeilichen Prognose­verfahren. Hierbei werden aus dem Straftatenaufkommen der Vergangenheit räumliche Cluster gebildet und es wird davon ausgegangen, dass Straftaten in diesen Gebieten in Zukunft mit einer ähnlichen Häufigkeit auftreten. Um das möglichst zu verhindern, werden diese Gebiete dann in Zukunft stärker über­wacht. Ob es sich hierbei allerdings tatsächlich um Predictive Policing handelt, steht aber zur Debatte, da hierbei keine maschinelle Unterstützung erforderlich ist und sich Hot Spot Methoden auch dem Crime Mapping zuordnen lassen.
- Near-Repeat Prognostik: Diese Methode wird am häufigsten verwendet und ihre Effektivität wurde bereits wissenschaftlich bestätigt. Sie wird vor allem zur Prognose von Einbruchsdelikten verwendet. Die Near-Repeat Prognostik greift auf die Rational-Choice-Theorie zurück. Es wird davon ausgegangen, dass Einbrecher, sobald sie in einem Gebiet, das sie als potenziell lukrativ iden­tifiziert haben, erfolgreich zugeschlagen haben, in diesem Gebiet in Zukunft wieder zuschlagen werden, da sie Risiken und Gewinne nun besser abschätzen können (Boost-Hypothese). Alternativ dazu besagt die Flag-Hypothese die Ge­bäude würden wegen ihrer inhärenten Charakteristika, wie zum Beispiel schlechter Einsehbarkeit, anfälliger für Einbrüche sein, unabhängig ob vom gleichen oder von verschiedenen Tätern. Diese beiden Hypothesen stehen zu einander in Konkurrenz, weshalb aber genau sich die Straftaten in solchen Fäl­len häufen, ist für Predictive Policing selbst nicht relevant.
- Risk Terrain Analysis: Risk Terrain Analysen sind deutlich komplexer als die beiden vorher genannten Verfahren, da hierbei nicht nur die Kriminalstatisti­ken analysiert werden, sondern auch Infrastrukturdaten und sozioökonomische Informationen.

Personenbezogene Verfahren finden aktuell bereits beispielsweise in Chicago An­wendung, um das Risiko von Gewalttaten zu bestimmen. Die Theorie dahinter ist, dass aufgrund der hohen Gangkriminalität in Chicago, Menschen deren Familien­angehörige und Bekannte Opfer oder Täter von Gangkriminalität geworden sind ein erhöhtes Risiko besitzen, ebenfalls Opfer oder Täter dieser Verbrechen zu wer­den. Menschen für die dann ein erhöhtes Risiko ermittelt wurde, werden dann ei­nerseits von der Polizei vor diesem Risiko gewarnt und andererseits ermahnt, ihr Verhalten zu ändern, da sie sonst mit den dafür vorgesehenen, strafrechtlichen Konsequenzen zu rechnen haben (Egbert und Krasmann 2019, S.13-22).

2.3 Verwandte Arbeiten

Eine Arbeit des Landeskriminalamt Niedersachsen aus dem Jahr 2014 befasste sich mit dem aktuellen Stand von Predictive Policing, gab dabei aber nur einen kleinen Überblick über die damals noch wenigen Pilotprojekte. Theoretische Arbeiten zum Thema wurden in dieser Arbeit überhaupt nicht betrachtet (Gluba 2015). Seitdem wur­den umfassende Projekte zur Untersuchung von Predictive Policing durchgeführt so­wie eine Vielzahl theoretischer Arbeiten zu dem Thema verfasst, von denen eine Aus­wahl in dieser Arbeit behandelt werden. Eine Bachelorarbeit der Fachhochschule für öffentliche Verwaltung NRW in Duisburg aus dem Jahr 2017 befasste sich ebenfalls mit dem Thema, ohne dabei umfassend auf die vorhandene Literatur einzugehen. Als Teil des Polizeistudiums befasst sich diese Arbeit außerdem mit dem Thema primär aus einer polizeilich/praktischen Perspektive (Kawelovski 2017). Eine Arbeit der Uni­versität Konstanz gibt einen kurzen Überblick über die in Deutschland durchgeführten Projekte, ist aber im Umfang mit sieben Seiten sehr kurz. Weiterhin geht die Arbeit nicht auf die Ergebnisse der Projekte ein und befasst sich auch nicht mit der theoreti­schen Literatur zu dem Thema (Seidensticker et al. 2018). Eine Masterarbeit der Til­burg Law School in den Niederlanden befasste sich mit der Verwendung des Crime Anticipation System durch die Polizei von Amsterdam aus einer rechtlichen Perspek­tive (van Kooten 2018). Studentische Arbeiten aus dem Bereich Informatik oder Wirt­schaftsinformatik ließen sich nicht finden, genauso wenig Arbeiten die sowohl die durchgeführten Pilotprojekte als auch die vorhandene theoretische Literatur untersucht haben.

3 Methodik

In diesem Kapitel wird die Vorgehensweise bei der Literaturreview sowie der Inhalts­und Marktanalyse beschrieben.

3.1 Systematische Literaturreview

Im Zuge der Arbeit wurde eine systematische Literaturreview nach vom Brocke et al. (Vom Brocke et al., 2009) durchgeführt. Diese beinhaltet einen iterativen Prozess be­stehend aus fünf Schritten. Schritt eins ist dabei die Definition des Anwendungsbe­reichs. Vom Brocke empfiehlt hierfür die Taxonomie nach Cooper (Cooper, 1988). Cooper verwendet für die Definition des Anwendungsgebietes sechs verschiedene Di­mensionen. Die erste davon ist der Fokus, der für diese Arbeit auf Pilotprojekte und theoretische Untersuchungen liegt. Ziel ist die Generalisierung, also die Zusammen­fassung der bestehenden Literatur und, basierend darauf, das Treffen von zentralen Aussagen über Predictive Policing. Die Perspektive der Arbeit ist neutral. Aufgrund des begrenzten Umfangs der Arbeit wird auf eine repräsentative Darstellung der Lite­ratur abgezielt. Die Organisation der Arbeit wiederum ist konzeptuell. Die Zielgruppe der Arbeit sind Wissenschaft sowie Fachleute. Der zweite Schritt der Literaturreview ist die Konzeptualisierung des Themas. Das Thema ist dabei Predictive Policing. Schritt drei ist die eigentliche Suche nach Literatur. Diese erfolgte in den Datenbanken Ebsco Host und Scopus. Auf Scopus waren 219 Ergebnisse zu dem Thema zu finden. Von diesen waren nach Untersuchung des Abstracts 78 für die Arbeit relevant. Von diesen 78 waren wiederum 28 nicht zugänglich. Auf Ebsco Host gab es zum Thema 95 Ergebnisse, wovon 12 für die Arbeit relevant waren, fünf hiervon waren ebenfalls nicht zugänglich. Insgesamt gab es also 57 relevante Arbeiten, eine davon war eine Arbeit über ein Pilotprojekt, der Rest waren theoretische Arbeiten. Um einen besseren Überblick über die Pilotprojekte zu bekommen, wurden deshalb zusätzlich Berichte zu den Projekten der Landeskriminalämter Nordrhein-Westfalen, Niedersachsen, und Baden-Württemberg hinzugezogen. Diese wurden auf den jeweiligen Webseiten der Bundesländer, beziehungsweise im Fall von Baden-Württemberg auf der Webseite des Max-Planck-Institutes abgerufen. Schritt vier besteht in der Analyse und Kategorisie- rung der gefundenen Literatur, was hier bereits passiert ist (siehe oben). Schritt Num­mer fünf besteht im Erstellen einer Research Agenda zur Benennung von Fragestel­lungen für zukünftige Forschung. Dies erfolgt im Kapitel 5.1 „wissenschaftliche und praktische Implikationen“ dieser Arbeit (Vom Brocke et al., 2009). Es wurden insge­samt vier Berichte und drei theoretische Arbeiten untersucht.

3.2 Inhaltsanalyse, Marktanalyse

Für die Marktanalyse wurde die vorhandene Literatur auf alle bekannten Predictive Policing Lösungen hin untersucht. Als weitere Quellen wurden die Webseiten der je­weiligen Anbieter verwendet.

Es wurde eine qualitative Inhaltsanalyse durchgeführt, genauer gesagt eine zusammen­fassende Inhaltsanalyse. Ziel hierbei ist es, den Text zu reduzieren, ohne dabei die wesentlichen Inhalte außen vor zu lassen. Die Kernaussage soll also erhalten bleiben. Dafür kommen verschiedene zusammenfassende Prozesse zum Einsatz, wie zum Bei­spiel Auslassung, Generalisation, Bündelung, etc. (Mayring, 2010).

4 Ergebnisse

In diesem Kapitel werden die Ergebnisse der Systematischen Literaturreview und der darauf aufbauenden Inhaltsanalyse sowie der Marktanalyse präsentiert und anschlie­ßend, aufbauend darauf, ein Predictive Policing Framework erstellt.

4.1 Status Quo der Praxis

Das Projekt Skala des Landeskriminalamt Nordrhein-Westfalen begann mit der Vor­bereitungsphase im Februar 2015 gefolgt von der Umsetzungsphase von Oktober 2015 bis Dezember 2017. Ziel dieses Projektes war es, die Möglichkeiten und Grenzen der Prognose von Kriminalitätsbrennpunkten herauszufinden und die Effizienz und Effek­tivität von polizeilichen Interventionen auf Basis dieser Prognosen zu bestimmen. Die Implementierung von Skala fand in den Pilotbehörden Köln, Duisburg, Düsseldorf, Essen und Gelsenkirchen statt. Im Wesentlichen war das Projekt auf die Prognose von Wohnungseinbruchsdiebstahl fokussiert, es wurde aber auch die Möglichkeit zur Prognose von Einbruchsdelikten in Gewerbeobjekten und Kraftfahrzeugdelikte evalu­iert (Landeskriminalamt NRW 2018, S. 1-4). Für die Prognosen wurden in diesem Fall, neben den polizeieigenen Kriminalstatistiken, die Daten wie Tatort, Tatzeit und

Modus Operandi beinhalten, auch soziostrukturelle Daten verwendet. Diese wurden extern erworben. Zu den soziostrukturellen Daten, die zur Anwendung gekommen sind, gehören: Einwohnerstruktur, Gebäudestruktur, Verkehrsanbindung, Kaufkraft und Mobilität. Als Software wurde für das Projekt IBM SPSS Modeler verwendet. Die dazugehörige Hardware wurde in einem geschlossenen Netzwerk, ohne Verbindung zum Internet oder polizeieigenen Netzwerk, betrieben. Außerdem wurde diese in ei­nem separaten Raum betrieben, zu dem nur die dem Projekt zugehörigen Mitarbeiter Zugang hatten. SPSS Modeler wurde im Bericht für seine benutzerfreundliche Ober­fläche und leichte Bedienbarkeit ohne die Voraussetzung von Programmierkenntnis­sen gelobt. Die Prognosen waren als Folge transparent und Fehlerquellen waren ein­fach zu identifizieren. Der Datentransfer erfolgte immer über USB mittels einer Da­tenschleuse, um den Schutz vor Viren zu gewährleisten. Anfangs kam es im Umgang mit dem System zu Performanceproblemen, die aber mit der Installation einer SQL- Pushback-Datenbank und der Verlagerung der Rechenoperationen in die Datenbank behoben werden konnten. Zur Visualisierung der Prognosen wurden ArcGIS Produkte von ESRI sowie ein eigenhändig in Zusammenarbeit mit der Universität Konstanz ent­wickeltes Tool namens SKALA MAP verwendet. Um den Anforderungen an den Da­tenschutz zu genügen und weil es für die Prognosen nicht erforderlich war, wurden keine Täter- oder Opferdaten verwendet. Alle personenbezogenen Daten wurden des Weiteren ausreichend aggregiert. Die polizeieigenen Daten wurden einmal wöchent­lich aus dem Polizeisystem über eine automatisierte Abfragemaske entnommen, hier­für wurde der Oracle Discoverer verwendet. Um die Datenqualität weiterhin gewähr­leisten zu können, wurde zudem einmal monatlich ein Gesamtdatensatz aus dem Sys­tem entnommen, da der Datentransfer immer über USB erfolgen musste, war dies be­sonders zeitaufwendig. Im Bericht wird deshalb auf die Notwendigkeit einer zusätzli­chen Optimierung in diesem Prozess hingewiesen (Landeskriminalamt NRW 2018, S. 22-25).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4.1 Predictive Policing Prozess (Landeskriminalamt NRW 2018, S. 27)

Der verwendete Predictive Policing Prozess wurde in sechs wesentlichen Schritten de­finiert, beginnend mit der Auswahl, Sammlung und Aufbereitung der Daten. Darauf folgt die Modellierung, also die Verwendung eines Modells zur angemessenen Dar­stellung der Kriminalitätslage. Anschließend folgt die eigentliche Prognoseerstellung, die als Ergebnis das Kriminalitätsrisiko für ein bestimmtes Gebiet für einen bestimm­ten Zeitraum hervorbringt. Folgend kommen die Prognosedarstellung und Prognose­verwertung, hierbei werden die Ergebnisse der Prognose auf einer Karte visualisiert und diese Karte entweder in Papierform oder Digital den Beamten zur Verfügung ge­stellt. Im letzten Schritt wird die Eignung der gewählten Analyse- und Darstellungs­methoden evaluiert (Landeskriminalamt NRW 2018, S. 26). Um die Städte in einzelne Gebiete für die Prognose aufzuteilen, entschied man sich gegen ein Raster und für die Einteilung in Wohnquartiere, die an die Stimmbezirke angelehnt sind und ungefähr 400 Haushalte umfassen. Hierdurch sollte einerseits sichergestellt werden, dass räum­lich und sozial homogene Gebiete nicht willkürlich zerteilt werden. Außerdem wollte man damit gewährleisten, dass die Gebiete groß genug sind um Prognosen überhaupt zu zulassen, da bei zu kleinen Gebieten die Wahrscheinlichkeit für ein Verbrechen immer annähernd null wäre, aber auch nicht so groß, dass durch Aggregation zu viele Detailinformationen verloren gehen, worunter die Aussagekraft der Prognosen stark leiden würde. Für Wohnungseinbruchdiebstahl und Fahrzeugdelikte wurde ein Prog­nosezeitraum von sieben Tagen gewählt und für den Einbruchsdiebstahl in Gewerbe­objekte ein Zeitraum von 14 Tagen.Begründet wurde dies damit, dass es bei Gewer­beobjekten eine geringere Fallzahl und Dynamik gibt. Um die Datenmenge für die einzelnen Behörden überschaubar zu halten, wurden jeder Behörde nur die Daten von etwa 1,5% aller Wohnquartiere, nämlich jene mit einer hohen Wahrscheinlichkeit, übermittelt. Für die Erstellung der Prognose wurde der CHAID Algorithmus ausge­wählt, da man sich hiermit eine hohe Transparenz und Flexibilität erhofft hat. Die Cross Validation Accuracy war hierbei auf demselben Niveau wie die anderen im Rah­men des Projektes getesteten Methoden. Bei der Prognose von Einbruchsdiebstahl in Gewerbeobjekten und Kraftfahrzeugdelikten gab es Schwierigkeiten diese genau von anderen Straftaten abzugrenzen, was für eine akkurate Prognose aber notwendig ist. Man ist aber zu dem Ergebnis gekommen, dass auch hier Prognosen möglich wären, vorausgesetzt die soziostrukturellen Daten, die explizit für die Prognose von Woh­nungseinbruchsdiebstahl beschafft wurden, würden um Daten erweitert werden, die für die Vorhersage solcher Straftaten zusätzlich notwendig wären (Landeskriminalamt NRW 2018, S. 26-31/69-77).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4.2 Beispiel Übersichtskarte Skala MAP (Landeskriminalamt NRW 2018, S. 49)

Das Projekt wurde in jeder der örtlichen Polizeibehörden von Teams aus durchschnitt­lich fünf Personen umgesetzt. Diese Teams wurden von qualifizierten Bediensteten aus den Gebieten Informatik und Geographie unterstützt. Die Teilprojektleiter in den örtlichen Behörden hatten direkte Ansprechpartner in den Direktionen Gefahrenab- wehr/Einsatz und Verkehr sowie dem Leitungsstab. Hiermit konnte ein direktions- übergreifender Informationsaustausch gewährleistet und eine gemeinsame Abstim­mung erleichtert werden. Die Prognosen wurden nach der Übermittlung erst einer

[...]

Ende der Leseprobe aus 47 Seiten

Details

Titel
Predictive Policing. Status Quo in Praxis und Forschung
Hochschule
Universität Osnabrück  (Unternehmensrechung und Wirtschaftsinformatik)
Note
2,3
Autor
Jahr
2020
Seiten
47
Katalognummer
V1025673
ISBN (eBook)
9783346426178
ISBN (Buch)
9783346426185
Sprache
Deutsch
Schlagworte
Predictive Policing, Wirtschaftsinformatik, bachelorarbeit, abschlussarbeit, big data
Arbeit zitieren
Lukas Koch (Autor:in), 2020, Predictive Policing. Status Quo in Praxis und Forschung, München, GRIN Verlag, https://www.grin.com/document/1025673

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Predictive Policing. Status Quo in Praxis und Forschung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden