Leseprobe
Inhaltsverzeichnis
Inhaltsverzeichnis
Abbildungsverzeichnis
1 Einleitung
2 Theoretische Grundlagen
2.1 Big Data Analytics
2.2 Ziele und Methoden des Predictive Policing
2.3 Verwandte Arbeiten
3 Methodik
3.1 Systematische Literaturreview
3.2 Inhaltsanalyse, Marktanalyse
4 Ergebnisse
4.1 Status Quo der Praxis
4.2 Status Quo der Forschung
4.3 Marktanalyse
4.4 Anwendungsgebiete von Predictive Policing
4.5 Predictive Policing Framework
5 Diskussion
5.1 Wissenschaftliche und Praktische Implikationen
5.2 Limitationen
6 Fazit
Literaturverzeichnis
Anhang
Abbildungsverzeichnis
Abbildung 1.1 Google Scholar Ergebnisse für „Predictive Policing“
Abbildung 4.1 Predictive Policing Prozess
Abbildung 4.2 Beispiel Übersichtskarte Skala MAP
Abbildung 4.3 Empfangene GPS-Signale in Risikogebieten, links ohne Bezug, rechts zielgerichtete Bestreifung
Abbildung 4.4 Prognoseflächen: links Wohnquartiere, rechts Raster
Abbildung 4.5 Predictive Policing „Haus“ Framework (eigene Abbildung)
1 Einleitung
Das wissenschaftliche Interesse an Predictive Policing hat in den vergangenen Jahren stark zugenommen (Gerstner 2017, S. 9). In der Technologie wird ein hohes Potenzial gesehen, um zukünftig mit auf Big Data Analytics basierenden Verfahren Prognosen zu erstellen und auf Basis davon die Polizeiarbeit zu steuern. Mit Hilfe dieser Verfahren lassen sich innovative Präventivmaßnahmen entwickeln und polizeiliche Ressourcen gezielt und effizient einsetzen, um das Kriminalitätsaufkommen zu verringern und Verbrechensbekämpfung grundlegend zu verändern. In Deutschland (Seidensticker et al. 2018) und anderen Ländern (Gluba 2015, S. 9-10) gab es bereits verschiedene Pilotprojekte zum Einsatz von Predictive Policing Software. Ziel dieser Arbeit ist es, einen Überblick über die durchgeführten Projekte sowie den aktuellen Stand der Forschung zu schaffen und herauszuarbeiten welche Erfahrungen bisher mit Predictive Policing gemacht wurden, wie erfolgreich der Einsatz war und welche Probleme noch zu lösen sind, beziehungsweise wo noch Verbesserungspotenzial besteht. Es sollen auch Faktoren identifiziert werden, die wesentlich für den erfolgreichen Einsatz von Predictive Policing sind.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1.1 Google Scholar Ergebnisse für „Predictive Policing“ (Gerstner 2017)
Zu diesem Zweck wird eine systematische Literaturreview durchgeführt; die vorhandene theoretische Literatur sowie Berichte zu den Pilotprojekten werden untersucht. Es wird außerdem eine Marktanalyse durchgeführt, um einen Überblick über die aktuell am Markt verfügbaren Predictive Policing Softwarelösungen zu geben.
In Kapitel zwei „Theoretische Grundlagen“ wird zuerst Big Data und Predictive Policing erläutert, sowie ein Überblick über verwandte Arbeiten gegeben. Im Kapitel drei „Methodik“ wird anschließend die Vorgehensweise bei der systematischen Literaturreview und der Marktanalyse beschrieben. In Kapitel vier werden darauffolgend die Ergebnisse der Literaturreview behandelt. Diese sind aufgeteilt in die Ergebnisse der theoretischen Arbeiten und die der Pilotprojekte; hier werden auch die Ergebnisse der Marktanalyse beschrieben. Aufbauend auf den Ergebnissen wird am Ende des Kapitels ein Predictive Policing Framework erstellt. Im Kapitel „Diskussion“ werden die wissenschaftlichen und praktischen Implikationen erläutert und mögliche Fragen für zukünftige Forschungen beschrieben. Außerdem werden in diesem Kapitel die Limitationen der Arbeit genannt. Im Fazit wird die Arbeit abschließend noch einmal zusammenfassend betrachtet.
2 Theoretische Grundlagen
Dieses Kapitel gibt einen Überblick über die theoretischen Grundlagen, angefangen mit einer Definition von Big Data und Big Data Analytics, über die Ziele und verschiedene Methoden von Predictive Policing. Zum Schluss wird noch ein Überblick über verwandte Arbeiten gegeben.
2.1 Big Data Analytics
Big Data wird allgemein hin definiert als eine Datenmenge die mit konventionellen Tools und Methoden nicht analysiert werden kann. Die Daten sind dabei häufig unstrukturiert und entstammen aus verschiedensten Quellen (Pyne et al. 2016, S. 13). Big Data hat fünf wesentliche Eigenschaften, bekannt als die fünf V's, diese sind:
- Volume: Es handelt sich um große Datenmengen im Tera- bis Zettabyte Bereich.
- Variety: Strukturierte, semi-strukturierte und unstrukturierte Daten verschiedener Datentypen und Formate werden gespeichert und analysiert.
- Velocity: Die Datenströme werden in Echtzeit ausgewertet und analysiert.
- Value: Die Daten müssen auch einen Mehrwert für das Unternehmen haben.
- Vearcity: Die Daten müssen auch von hoher Qualität, präzise und unverfälscht sein.
Der Einsatz von Big Data kann vielen verschieden Unternehmen und Organisationen dabei helfen ihre Produkte und Angebote zu verbessern (Meier 2018, S. 6-7).
Big Data Analytics wiederum lassen sich unterscheiden in vier verschiedene Kategorien, diese sind:
- Describtive Analytics: Hier werden historische Daten analysiert und auf mögliche Muster hin untersucht, im Kern steht dabei die Beantwortung der Frage: Was ist passiert? Zu diesem Zweck werden die Daten auch visualisiert, um sie für Menschen besser verständlich zu machen und ihre Bedeutung aufzuzeigen.
- Predictive Analytics: Mit Predictive Analytics lassen sich sich Voraussagen über die Zukunft treffen, es soll die Frage: „Was könnte passieren?“ beantwortet werden. Unternehmen verwenden Predictive Analytics zum Beispiel um Vorhersagen über ihre Einnahmen zu treffen oder um Ausfälle von Maschinen als Folge von Abnutzung vorauszusagen.
- Prescribtive Analytics: Prescribtive Analytics soll bei der Entscheidungsfindung helfen, indem es Vorhersagen über die Auswirkungen verschiedener Entscheidungen trifft. Beantwortet werden soll die Frage: „Wie können wir dafür sorgen, dass es passiert?“ Gasunternehmen nutzen diese Form von Big Data Analytics zum Beispiel um die Suche nach neuen Gasvorkommen zu optimieren (Pyne et al. 2016, S. 15-17).
- Autonomous Analytics: Während bei allen vorherigen Fällen die Software Menschen bei der Entscheidungsfindung unterstützt hat, trifft im Falle von Autonomous Analytics die Maschine die Entscheidung selber, ohne zusätzliche Hilfe oder Beeinflussung durch einen Menschen (Davenport, 2017).
2.2 Ziele und Methoden des Predictive Policing
Predictive Policing wird definiert als das Verwenden von technologiebasierten Analyseverfahren um Vorhersagen über das Auftreten von Straftaten an bestimmten Orten und Zeitpunkten machen zu können. Ziel ist es, die Ressourcen der Polizei möglichst effizient zu verteilen und zu nutzen. Analysiert werden können dabei nicht nur die Kriminalitätsstatistiken, sondern auch Daten aus beliebigen anderen Quellen, zum Beispiel aus der Intelligenten Videoüberwachung (CCTV) (Egbert und Krasmann 2019, S. 11;Gluba 2015). Um diese Vorhersagen treffen zu können finden im Wesentlichen sechs verschiedene Theorien Anwendung:
- Repeat Victimisation: Diese Theorie besagt, dass Opfer einer Straftat zu werden die Wahrscheinlichkeit erhöht, in (naher) Zukunft wieder Opfer einer Straftat zu werden. Je häufiger man dabei in der Vergangenheit bereits Opfer geworden ist, umso höher ist die Wahrscheinlichkeit auch in Zukunft wieder Opfer zu werden.
- Near Repeat-Hypothese: Hierbei handelt es sich um eine Erweiterung von Repeat Victimisation. Diese Hypothese sagt aus, dass wenn Straftaten in einem bestimmten Gebiet auftreten, die Wahrscheinlichkeit für das erneute Auftreten einer Straftat in dem Gebiet ebenfalls steigt.
- Routine-Activity-Theorie: Laut dieser Theorie handeln Verbrecher rational und überlegt und drei Bedingungen müssen erfüllt sein, damit es zu einer Straftat kommt. 1. Ein motivierter Täter 2. Ein verfügbares Tatziel 3. Es dürfen keine adäquaten Schutzmechanismen für das Ziel vorhanden sein. Hierbei spielen auch die Routine Activitys eine wichtige Rolle, das heißt bestimmte regelmäßige Handlungen, die ein potenzielles Opfer ausübt, wie zum Beispiel ein Konzertbesuch oder der tägliche Weg zur Arbeit.
- Lifestyle Approach: Verwandt mit der Routine-Activity-Theorie ist der Lifestyle Approach. Laut diesem haben bestimmte Eigenschaften einer Person wie Familienstand, Alter oder Geschlecht Auswirkungen auf die Routine Activitys die eine Person durchführt und damit auch auf die Wahrscheinlichkeit, dass eine bestimmte Person einem Verbrechen zum Opfer fällt.
- Broken-Windows-Theorie: Diese Theorie besagt, dass soziale und physische Unordnung, wenn sie nicht beseitigt wird, sich immer weiter verstärkt. Durch diese Unordnung entsteht dann ein Verlust an Kontrolle, was Straftaten begünstigt.
- Rational-Choice-Theorie: Laut dieser Theorie sind Straftaten die Folge einer rationalen Abwägung zwischen Kosten und Nutzen mit dem Ziel den eigenen Nutzen zu optimieren. Wäre also in einem Wohngebiet die Aufklärungsquote für Einbrüche gering und zeitgleich der Wohlstand in diesem Gebiet hoch, würde das die Wahrscheinlichkeit für das Auftreten von Einbruchsdelikten erhöhen (Gluba 2015).
Die Verfahren die bei Predictive Policing zur Anwendung kommen, sind entweder raum- oder personenbezogen, das heißt sie bestimmen entweder Risikogebiete, in denen das Auftreten von Straftaten in der Zukunft besonders hoch ist oder bestimmen potenzielle Täter und Opfer von Straftaten.
Zu den raumbezogenen Verfahren gehören folgende drei:
- Hot-Spot Methode: Dies ist die einfachste Form von polizeilichen Prognoseverfahren. Hierbei werden aus dem Straftatenaufkommen der Vergangenheit räumliche Cluster gebildet und es wird davon ausgegangen, dass Straftaten in diesen Gebieten in Zukunft mit einer ähnlichen Häufigkeit auftreten. Um das möglichst zu verhindern, werden diese Gebiete dann in Zukunft stärker überwacht. Ob es sich hierbei allerdings tatsächlich um Predictive Policing handelt, steht aber zur Debatte, da hierbei keine maschinelle Unterstützung erforderlich ist und sich Hot Spot Methoden auch dem Crime Mapping zuordnen lassen.
- Near-Repeat Prognostik: Diese Methode wird am häufigsten verwendet und ihre Effektivität wurde bereits wissenschaftlich bestätigt. Sie wird vor allem zur Prognose von Einbruchsdelikten verwendet. Die Near-Repeat Prognostik greift auf die Rational-Choice-Theorie zurück. Es wird davon ausgegangen, dass Einbrecher, sobald sie in einem Gebiet, das sie als potenziell lukrativ identifiziert haben, erfolgreich zugeschlagen haben, in diesem Gebiet in Zukunft wieder zuschlagen werden, da sie Risiken und Gewinne nun besser abschätzen können (Boost-Hypothese). Alternativ dazu besagt die Flag-Hypothese die Gebäude würden wegen ihrer inhärenten Charakteristika, wie zum Beispiel schlechter Einsehbarkeit, anfälliger für Einbrüche sein, unabhängig ob vom gleichen oder von verschiedenen Tätern. Diese beiden Hypothesen stehen zu einander in Konkurrenz, weshalb aber genau sich die Straftaten in solchen Fällen häufen, ist für Predictive Policing selbst nicht relevant.
- Risk Terrain Analysis: Risk Terrain Analysen sind deutlich komplexer als die beiden vorher genannten Verfahren, da hierbei nicht nur die Kriminalstatistiken analysiert werden, sondern auch Infrastrukturdaten und sozioökonomische Informationen.
Personenbezogene Verfahren finden aktuell bereits beispielsweise in Chicago Anwendung, um das Risiko von Gewalttaten zu bestimmen. Die Theorie dahinter ist, dass aufgrund der hohen Gangkriminalität in Chicago, Menschen deren Familienangehörige und Bekannte Opfer oder Täter von Gangkriminalität geworden sind ein erhöhtes Risiko besitzen, ebenfalls Opfer oder Täter dieser Verbrechen zu werden. Menschen für die dann ein erhöhtes Risiko ermittelt wurde, werden dann einerseits von der Polizei vor diesem Risiko gewarnt und andererseits ermahnt, ihr Verhalten zu ändern, da sie sonst mit den dafür vorgesehenen, strafrechtlichen Konsequenzen zu rechnen haben (Egbert und Krasmann 2019, S.13-22).
2.3 Verwandte Arbeiten
Eine Arbeit des Landeskriminalamt Niedersachsen aus dem Jahr 2014 befasste sich mit dem aktuellen Stand von Predictive Policing, gab dabei aber nur einen kleinen Überblick über die damals noch wenigen Pilotprojekte. Theoretische Arbeiten zum Thema wurden in dieser Arbeit überhaupt nicht betrachtet (Gluba 2015). Seitdem wurden umfassende Projekte zur Untersuchung von Predictive Policing durchgeführt sowie eine Vielzahl theoretischer Arbeiten zu dem Thema verfasst, von denen eine Auswahl in dieser Arbeit behandelt werden. Eine Bachelorarbeit der Fachhochschule für öffentliche Verwaltung NRW in Duisburg aus dem Jahr 2017 befasste sich ebenfalls mit dem Thema, ohne dabei umfassend auf die vorhandene Literatur einzugehen. Als Teil des Polizeistudiums befasst sich diese Arbeit außerdem mit dem Thema primär aus einer polizeilich/praktischen Perspektive (Kawelovski 2017). Eine Arbeit der Universität Konstanz gibt einen kurzen Überblick über die in Deutschland durchgeführten Projekte, ist aber im Umfang mit sieben Seiten sehr kurz. Weiterhin geht die Arbeit nicht auf die Ergebnisse der Projekte ein und befasst sich auch nicht mit der theoretischen Literatur zu dem Thema (Seidensticker et al. 2018). Eine Masterarbeit der Tilburg Law School in den Niederlanden befasste sich mit der Verwendung des Crime Anticipation System durch die Polizei von Amsterdam aus einer rechtlichen Perspektive (van Kooten 2018). Studentische Arbeiten aus dem Bereich Informatik oder Wirtschaftsinformatik ließen sich nicht finden, genauso wenig Arbeiten die sowohl die durchgeführten Pilotprojekte als auch die vorhandene theoretische Literatur untersucht haben.
3 Methodik
In diesem Kapitel wird die Vorgehensweise bei der Literaturreview sowie der Inhaltsund Marktanalyse beschrieben.
3.1 Systematische Literaturreview
Im Zuge der Arbeit wurde eine systematische Literaturreview nach vom Brocke et al. (Vom Brocke et al., 2009) durchgeführt. Diese beinhaltet einen iterativen Prozess bestehend aus fünf Schritten. Schritt eins ist dabei die Definition des Anwendungsbereichs. Vom Brocke empfiehlt hierfür die Taxonomie nach Cooper (Cooper, 1988). Cooper verwendet für die Definition des Anwendungsgebietes sechs verschiedene Dimensionen. Die erste davon ist der Fokus, der für diese Arbeit auf Pilotprojekte und theoretische Untersuchungen liegt. Ziel ist die Generalisierung, also die Zusammenfassung der bestehenden Literatur und, basierend darauf, das Treffen von zentralen Aussagen über Predictive Policing. Die Perspektive der Arbeit ist neutral. Aufgrund des begrenzten Umfangs der Arbeit wird auf eine repräsentative Darstellung der Literatur abgezielt. Die Organisation der Arbeit wiederum ist konzeptuell. Die Zielgruppe der Arbeit sind Wissenschaft sowie Fachleute. Der zweite Schritt der Literaturreview ist die Konzeptualisierung des Themas. Das Thema ist dabei Predictive Policing. Schritt drei ist die eigentliche Suche nach Literatur. Diese erfolgte in den Datenbanken Ebsco Host und Scopus. Auf Scopus waren 219 Ergebnisse zu dem Thema zu finden. Von diesen waren nach Untersuchung des Abstracts 78 für die Arbeit relevant. Von diesen 78 waren wiederum 28 nicht zugänglich. Auf Ebsco Host gab es zum Thema 95 Ergebnisse, wovon 12 für die Arbeit relevant waren, fünf hiervon waren ebenfalls nicht zugänglich. Insgesamt gab es also 57 relevante Arbeiten, eine davon war eine Arbeit über ein Pilotprojekt, der Rest waren theoretische Arbeiten. Um einen besseren Überblick über die Pilotprojekte zu bekommen, wurden deshalb zusätzlich Berichte zu den Projekten der Landeskriminalämter Nordrhein-Westfalen, Niedersachsen, und Baden-Württemberg hinzugezogen. Diese wurden auf den jeweiligen Webseiten der Bundesländer, beziehungsweise im Fall von Baden-Württemberg auf der Webseite des Max-Planck-Institutes abgerufen. Schritt vier besteht in der Analyse und Kategorisie- rung der gefundenen Literatur, was hier bereits passiert ist (siehe oben). Schritt Nummer fünf besteht im Erstellen einer Research Agenda zur Benennung von Fragestellungen für zukünftige Forschung. Dies erfolgt im Kapitel 5.1 „wissenschaftliche und praktische Implikationen“ dieser Arbeit (Vom Brocke et al., 2009). Es wurden insgesamt vier Berichte und drei theoretische Arbeiten untersucht.
3.2 Inhaltsanalyse, Marktanalyse
Für die Marktanalyse wurde die vorhandene Literatur auf alle bekannten Predictive Policing Lösungen hin untersucht. Als weitere Quellen wurden die Webseiten der jeweiligen Anbieter verwendet.
Es wurde eine qualitative Inhaltsanalyse durchgeführt, genauer gesagt eine zusammenfassende Inhaltsanalyse. Ziel hierbei ist es, den Text zu reduzieren, ohne dabei die wesentlichen Inhalte außen vor zu lassen. Die Kernaussage soll also erhalten bleiben. Dafür kommen verschiedene zusammenfassende Prozesse zum Einsatz, wie zum Beispiel Auslassung, Generalisation, Bündelung, etc. (Mayring, 2010).
4 Ergebnisse
In diesem Kapitel werden die Ergebnisse der Systematischen Literaturreview und der darauf aufbauenden Inhaltsanalyse sowie der Marktanalyse präsentiert und anschließend, aufbauend darauf, ein Predictive Policing Framework erstellt.
4.1 Status Quo der Praxis
Das Projekt Skala des Landeskriminalamt Nordrhein-Westfalen begann mit der Vorbereitungsphase im Februar 2015 gefolgt von der Umsetzungsphase von Oktober 2015 bis Dezember 2017. Ziel dieses Projektes war es, die Möglichkeiten und Grenzen der Prognose von Kriminalitätsbrennpunkten herauszufinden und die Effizienz und Effektivität von polizeilichen Interventionen auf Basis dieser Prognosen zu bestimmen. Die Implementierung von Skala fand in den Pilotbehörden Köln, Duisburg, Düsseldorf, Essen und Gelsenkirchen statt. Im Wesentlichen war das Projekt auf die Prognose von Wohnungseinbruchsdiebstahl fokussiert, es wurde aber auch die Möglichkeit zur Prognose von Einbruchsdelikten in Gewerbeobjekten und Kraftfahrzeugdelikte evaluiert (Landeskriminalamt NRW 2018, S. 1-4). Für die Prognosen wurden in diesem Fall, neben den polizeieigenen Kriminalstatistiken, die Daten wie Tatort, Tatzeit und
Modus Operandi beinhalten, auch soziostrukturelle Daten verwendet. Diese wurden extern erworben. Zu den soziostrukturellen Daten, die zur Anwendung gekommen sind, gehören: Einwohnerstruktur, Gebäudestruktur, Verkehrsanbindung, Kaufkraft und Mobilität. Als Software wurde für das Projekt IBM SPSS Modeler verwendet. Die dazugehörige Hardware wurde in einem geschlossenen Netzwerk, ohne Verbindung zum Internet oder polizeieigenen Netzwerk, betrieben. Außerdem wurde diese in einem separaten Raum betrieben, zu dem nur die dem Projekt zugehörigen Mitarbeiter Zugang hatten. SPSS Modeler wurde im Bericht für seine benutzerfreundliche Oberfläche und leichte Bedienbarkeit ohne die Voraussetzung von Programmierkenntnissen gelobt. Die Prognosen waren als Folge transparent und Fehlerquellen waren einfach zu identifizieren. Der Datentransfer erfolgte immer über USB mittels einer Datenschleuse, um den Schutz vor Viren zu gewährleisten. Anfangs kam es im Umgang mit dem System zu Performanceproblemen, die aber mit der Installation einer SQL- Pushback-Datenbank und der Verlagerung der Rechenoperationen in die Datenbank behoben werden konnten. Zur Visualisierung der Prognosen wurden ArcGIS Produkte von ESRI sowie ein eigenhändig in Zusammenarbeit mit der Universität Konstanz entwickeltes Tool namens SKALA MAP verwendet. Um den Anforderungen an den Datenschutz zu genügen und weil es für die Prognosen nicht erforderlich war, wurden keine Täter- oder Opferdaten verwendet. Alle personenbezogenen Daten wurden des Weiteren ausreichend aggregiert. Die polizeieigenen Daten wurden einmal wöchentlich aus dem Polizeisystem über eine automatisierte Abfragemaske entnommen, hierfür wurde der Oracle Discoverer verwendet. Um die Datenqualität weiterhin gewährleisten zu können, wurde zudem einmal monatlich ein Gesamtdatensatz aus dem System entnommen, da der Datentransfer immer über USB erfolgen musste, war dies besonders zeitaufwendig. Im Bericht wird deshalb auf die Notwendigkeit einer zusätzlichen Optimierung in diesem Prozess hingewiesen (Landeskriminalamt NRW 2018, S. 22-25).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4.1 Predictive Policing Prozess (Landeskriminalamt NRW 2018, S. 27)
Der verwendete Predictive Policing Prozess wurde in sechs wesentlichen Schritten definiert, beginnend mit der Auswahl, Sammlung und Aufbereitung der Daten. Darauf folgt die Modellierung, also die Verwendung eines Modells zur angemessenen Darstellung der Kriminalitätslage. Anschließend folgt die eigentliche Prognoseerstellung, die als Ergebnis das Kriminalitätsrisiko für ein bestimmtes Gebiet für einen bestimmten Zeitraum hervorbringt. Folgend kommen die Prognosedarstellung und Prognoseverwertung, hierbei werden die Ergebnisse der Prognose auf einer Karte visualisiert und diese Karte entweder in Papierform oder Digital den Beamten zur Verfügung gestellt. Im letzten Schritt wird die Eignung der gewählten Analyse- und Darstellungsmethoden evaluiert (Landeskriminalamt NRW 2018, S. 26). Um die Städte in einzelne Gebiete für die Prognose aufzuteilen, entschied man sich gegen ein Raster und für die Einteilung in Wohnquartiere, die an die Stimmbezirke angelehnt sind und ungefähr 400 Haushalte umfassen. Hierdurch sollte einerseits sichergestellt werden, dass räumlich und sozial homogene Gebiete nicht willkürlich zerteilt werden. Außerdem wollte man damit gewährleisten, dass die Gebiete groß genug sind um Prognosen überhaupt zu zulassen, da bei zu kleinen Gebieten die Wahrscheinlichkeit für ein Verbrechen immer annähernd null wäre, aber auch nicht so groß, dass durch Aggregation zu viele Detailinformationen verloren gehen, worunter die Aussagekraft der Prognosen stark leiden würde. Für Wohnungseinbruchdiebstahl und Fahrzeugdelikte wurde ein Prognosezeitraum von sieben Tagen gewählt und für den Einbruchsdiebstahl in Gewerbeobjekte ein Zeitraum von 14 Tagen.Begründet wurde dies damit, dass es bei Gewerbeobjekten eine geringere Fallzahl und Dynamik gibt. Um die Datenmenge für die einzelnen Behörden überschaubar zu halten, wurden jeder Behörde nur die Daten von etwa 1,5% aller Wohnquartiere, nämlich jene mit einer hohen Wahrscheinlichkeit, übermittelt. Für die Erstellung der Prognose wurde der CHAID Algorithmus ausgewählt, da man sich hiermit eine hohe Transparenz und Flexibilität erhofft hat. Die Cross Validation Accuracy war hierbei auf demselben Niveau wie die anderen im Rahmen des Projektes getesteten Methoden. Bei der Prognose von Einbruchsdiebstahl in Gewerbeobjekten und Kraftfahrzeugdelikten gab es Schwierigkeiten diese genau von anderen Straftaten abzugrenzen, was für eine akkurate Prognose aber notwendig ist. Man ist aber zu dem Ergebnis gekommen, dass auch hier Prognosen möglich wären, vorausgesetzt die soziostrukturellen Daten, die explizit für die Prognose von Wohnungseinbruchsdiebstahl beschafft wurden, würden um Daten erweitert werden, die für die Vorhersage solcher Straftaten zusätzlich notwendig wären (Landeskriminalamt NRW 2018, S. 26-31/69-77).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4.2 Beispiel Übersichtskarte Skala MAP (Landeskriminalamt NRW 2018, S. 49)
Das Projekt wurde in jeder der örtlichen Polizeibehörden von Teams aus durchschnittlich fünf Personen umgesetzt. Diese Teams wurden von qualifizierten Bediensteten aus den Gebieten Informatik und Geographie unterstützt. Die Teilprojektleiter in den örtlichen Behörden hatten direkte Ansprechpartner in den Direktionen Gefahrenab- wehr/Einsatz und Verkehr sowie dem Leitungsstab. Hiermit konnte ein direktions- übergreifender Informationsaustausch gewährleistet und eine gemeinsame Abstimmung erleichtert werden. Die Prognosen wurden nach der Übermittlung erst einer
[...]
- Arbeit zitieren
- Lukas Koch (Autor:in), 2020, Predictive Policing. Status Quo in Praxis und Forschung, München, GRIN Verlag, https://www.grin.com/document/1025673
Kostenlos Autor werden
Kommentare