Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Jura - Sonstiges

Nulla poena sine culpa. Künstliche Intelligenzen als Adressaten einer Strafandrohung am Beispiel des vollautomatisierten Fahrens

Titel: Nulla poena sine culpa. Künstliche Intelligenzen als Adressaten einer Strafandrohung am Beispiel des vollautomatisierten Fahrens

Seminararbeit , 2023 , 45 Seiten , Note: 11,0

Autor:in: Desiree Shirin Helene Ortlieb (Autor:in)

Jura - Sonstiges
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Die Arbeit untersucht, ob und wie Künstliche Intelligenzen im Kontext vollautomatisierten Fahrens strafrechtlich verantwortlich gemacht werden können. Sie zeigt, wo klassische Strafrechtsgrundsätze an ihre Grenzen stoßen und welche theoretischen Modelle sich für eine künftige rechtliche Einordnung eignen. Technische Grundlagen werden nur soweit erklärt, wie sie für das Verständnis der strafrechtlichen Bewertung nötig sind. Die Studie bietet eine fundierte, verständliche Einführung in einen der zentralen Rechtsfragen der kommenden Mobilitätsentwicklung.

Leseprobe


Inhaltsverzeichnis

  • Literaturverzeichnis
  • A. Einführung
    • I. Einleitung und Problemstellung
    • II. Gegenstand der Untersuchung
    • III. Gang der Untersuchung
  • B. Grundlagen
    • I. Begriffsbestimmung
      • 1. Künstliche Intelligenz
      • 2. Automatisierungsstufen im Straßenverkehr
        • a) Level 0: Keine Automatisierung
        • b) Level 1: Assistiertes Fahren
        • c) Level 2: Teilautomatisierte Fahrsysteme
        • d) Level 3: Hochautomatisiertes Fahren
        • e) Level 4: Vollautomatisiertes Fahren
        • f) Level 5: Autonomes Fahren
    • II. Technische Grundlagen
      • 1. Technik und Funktionsweise
      • 2. Besonderheiten der Software vollautomatisierter Fahrsysteme
      • 3. Fehler- und Störungspotential
    • III. Nationaler Rechtsrahmen: Achtes Gesetz zur Änderung des Straßenverkehrsgesetzes
      • 1. Kraftfahrzeuge mit vollautomatisierter Fahrfunktion gem. § 1a StVG
      • 2. Rechte und Pflichten des Fahrzeugführers bei Nutzung vollautomatisierter Fahrfunktion i.S.d. § 1b StVG
  • C. Verantwortlichkeit des intelligenten Systems
    • I. Handlungsfähigkeit des Systems
      • 1. Normtheoretische Grundlegung
      • 2. Rechtlicher Handlungsbegriff
        • a) Handlungsbegriff nach Kant und Hegel
        • b) Kausaler Handlungsbegriff
        • d) Stellungnahme
    • II. Schuldfähigkeit des Systems
      • 1. Schuld als „Anders-Handeln-Können"
      • 2. Funktionaler Schuldbegriff
      • 3. Stellungnahme
    • III. Bestrafbarkeit des Systems
      • 1. Absolute Straftheorien
      • 2. Relative Straftheorien
      • 3. Stellungnahme
    • IV. Fazit zur Verantwortlichkeit
  • D. Schlussbetrachtung
    • I. Abschließende Thesen
    • II. Gesamtergebnis der Untersuchung

Zielsetzung & Themen

Diese Seminararbeit befasst sich mit der theoretischen Auseinandersetzung über die Strafbarkeit von Künstlichen Intelligenzen am Beispiel des vollautomatisierten Fahrens in Deutschland. Das primäre Ziel ist es, erste Grundlagen für einen zukünftigen Diskurs zu schaffen und mögliche Lösungsansätze bezüglich der Verantwortlichkeit von intelligenten Systemen im strafrechtlichen Sinne zu beleuchten.

  • Klärung und Abgrenzung grundlegender Begriffe wie Künstliche Intelligenz und Automatisierungsstufen im Straßenverkehr.
  • Darstellung der technischen Grundlagen vollautomatisierter Fahrsysteme sowie deren Fehler- und Störungspotenziale.
  • Analyse des nationalen Rechtsrahmens, insbesondere des Achten Gesetzes zur Änderung des Straßenverkehrsgesetzes.
  • Tiefgehende Untersuchung der Handlungsfähigkeit, Schuldfähigkeit und Bestrafbarkeit intelligenter Systeme im Kontext des deutschen Strafrechts.
  • Prüfung der Anwendbarkeit traditioneller strafrechtlicher Grundsätze auf nicht-menschliche Akteure.

Auszug aus dem Buch

C. Verantwortlichkeit des intelligenten Systems

Die Beschäftigung mit der Frage nach der strafrechtlichen Verantwortlichkeit von intelligenten Systemen mag auf den ersten Blick realitätsfern und futuristisch erscheinen. Nicht zuletzt, da sich das deutsche Strafrecht grundsätzlich an den Menschen – als Rechtssubjekt – richtet. Wirft man einen Blick auf die rasanten technischen Entwicklungen von KI wird schnell deutlich, dass sie nicht nur im Bereich des automatisierten Fahrens aufzufinden ist, auch in der Medizin, dem Haushalt oder Militär finden sich intelligente Systeme, die in ihrer Entscheidungsfähigkeit dem Menschen zunehmend ähneln. Die zunehmende Relevanz der Beschäftigung mit der Frage nach der Verantwortlichkeit lässt sich nicht mehr von der Hand weisen.

Das deutsche Strafrecht verlangt grundsätzlich die individuelle Schuld des Täters. Aus dem Gesetz ergibt sich zudem, wer nicht Täter sein kann: nach § 20 StGB kann nicht schuldhaft handeln, wer an einer kranhaften seelischen Störung, einer tiefgreifenden Bewusstseinsstörung, einer Intelligenzminderung oder einer sonstigen schweren seelischen Störung leidet. Nach § 19 StGB sind Kinder bis zur Vollendung des 14. Lebensjahres ebenfalls schuldunfähig.

Die Tätereigenschaft war nicht immer dem Menschen vorbehalten. Aus Berichten der Strafrechtsgeschichte geht hervor, dass im Mittelalter auch Tiere für schädigendes Verhalten verurteilt und bestraft wurden. Heute wird diskutiert, ob Unternehmen als juristische Personen taugliche Täter einer Straftat sein können. Viele ausländische Rechtsordnungen haben die strafrechtliche Verantwortlichkeit juristischer Personen ausdrücklich geregelt. Demgegenüber sieht das deutsche Recht bislang nur ordnungsrechtliche Sanktionen gegenüber juristischen Personen vor, weil Unternehmen keine moralethischen Entscheidungen treffen können und damit nicht dem Schuldprinzip entsprechen können. Vorschläge aus den Reihen der deutschen Juristen zur Einführung eines Verbandsstrafrechts in Deutschland gibt es bereits. Vor diesem Hintergrund könnte ein Festhalten an einem ausschließlich menschlichen Täter zukünftig nicht mehr angemessen erscheinen.

Gegen eine mögliche Ausweitung des Adressatenkreises im Strafrecht könnte man anbringen, dass die automatisierten Systeme vom Menschen durch entsprechende Programmierung geschaffen wurden und als „Werkzeuge" fungieren, derer wir uns bedienen. Dies leuchtet jedoch nur insoweit ein, sofern es sich um ein System handelt, welches ausschließlich auf Basis seiner zuvor festgelegten Programmierung agiert. Demgegenüber stehen intelligente bzw. selbstlernende Systeme, welche die Fähigkeit des selbstständigen Lernens besitzen. Zwar könnte man auch hier einwenden, dass auch diese Fähigkeit vom Menschen entwickelt und dem System einprogrammiert wurde, aber ein sich selbst erschaffendes System ist schlicht unvorstellbar. Schließlich wird auch jeder Mensch, den wir – mit Ausnahme der Schuldunfähigkeit – als Rechtssubjekt betrachten, vom Menschen geschaffen.

Vollautomatisierte Fahrzeuge können selbstständig lernen und sollen in ihrer Entscheidungsfähigkeit dem Menschen immer ähnlicher werden, sodass es einer Diskussion bedarf, inwieweit die Grundsätze des Strafrechts auf diese Systeme übertragbar sind. Die folgende Untersuchung beschränkt sich daher auf intelligente Systeme mit selbstlernenden Komponenten.

Zusammenfassung der Kapitel

A. Einführung: Dieses Kapitel führt in die Problemstellung der strafrechtlichen Verantwortlichkeit von Künstlichen Intelligenzen im Kontext des vollautomatisierten Fahrens ein und legt den Gegenstand sowie den Gang der Untersuchung dar.

B. Grundlagen: Hier werden die fundamentalen Begriffe wie Künstliche Intelligenz und die verschiedenen Automatisierungsstufen im Straßenverkehr definiert, die technischen Funktionsweisen vollautomatisierter Fahrsysteme erläutert und der nationale Rechtsrahmen vorgestellt.

C. Verantwortlichkeit des intelligenten Systems: Dieses Hauptkapitel befasst sich eingehend mit der Frage, inwiefern intelligenten Systemen strafrechtliche Handlungsfähigkeit, Schuldfähigkeit und Bestrafbarkeit zugeschrieben werden können, wobei verschiedene rechtliche Theorien analysiert werden.

D. Schlussbetrachtung: Das abschließende Kapitel fasst die wesentlichen Thesen und Ergebnisse der Untersuchung zusammen und stellt das Gesamtergebnis bezüglich der Vereinbarkeit von KI mit strafrechtlichen Grundsätzen dar.

Schlüsselwörter

Künstliche Intelligenz, vollautomatisiertes Fahren, Strafrecht, Verantwortlichkeit, Schuldprinzip, Handlungsfähigkeit, Schuldfähigkeit, Bestrafbarkeit, Straßenverkehrsdelikte, Automatisierungsstufen, Maschinelles Lernen, Rechtsrahmen, Risikominimaler Zustand, Normgeltungsbewusstsein, SAE-Standard.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Diese Arbeit befasst sich mit der Frage, inwiefern Künstliche Intelligenzen, insbesondere im Kontext des vollautomatisierten Fahrens, im deutschen Strafrecht strafrechtlich zur Verantwortung gezogen werden können.

Was sind die zentralen Themenfelder?

Zentrale Themenfelder sind die Begriffsbestimmung von KI und Automatisierungsstufen, die technischen Grundlagen von Fahrsystemen, der nationale Rechtsrahmen sowie die strafrechtliche Handlungsfähigkeit, Schuldfähigkeit und Bestrafbarkeit intelligenter Systeme.

Was ist das primäre Ziel oder die Forschungsfrage?

Das primäre Ziel ist es, die Anwendbarkeit allgemeiner strafrechtlicher Grundsätze auf Künstliche Intelligenzen zu untersuchen und erste Grundlagen für einen zukünftigen Diskurs über deren mögliche Strafbarkeit zu schaffen.

Welche wissenschaftliche Methode wird verwendet?

Die Arbeit führt eine theoretische Auseinandersetzung mit der Thematik durch, indem sie allgemeine strafrechtliche Grundsätze auf Künstliche Intelligenzen anwendet und deren Vereinbarkeit prüft.

Was wird im Hauptteil behandelt?

Der Hauptteil der Arbeit, "C. Verantwortlichkeit des intelligenten Systems", behandelt die Handlungsfähigkeit, Schuldfähigkeit und Bestrafbarkeit intelligenter Systeme aus strafrechtlicher Perspektive, inklusive normtheoretischer und rechtlicher Handlungsbegriffe sowie Straftheorien.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die Arbeit wird charakterisiert durch Schlüsselwörter wie Künstliche Intelligenz, vollautomatisiertes Fahren, Strafrecht, Verantwortlichkeit, Schuldprinzip, Handlungsfähigkeit und Bestrafbarkeit.

Wie unterscheidet sich die "Autonomie" eines Fahrsystems von "Vollautomatisierung"?

Autonome Fahrsysteme zeichnen sich durch ein erheblich höheres Maß an Selbstständigkeit aus, indem sie das Fahrzeug mithilfe eigener Wahrnehmungen steuern, ohne auf Nutzereingaben angewiesen zu sein. Vollautomatisierte Systeme folgen hingegen primär programmierten Mustern, wobei noch ein gesetzlich vorgeschriebener Fahrer als Rückfallebene existiert.

Warum ist der traditionelle Handlungsbegriff des Strafrechts bei intelligenten Systemen problematisch?

Der traditionelle Handlungsbegriff des Strafrechts setzt einen auf Willensentschluss beruhenden, menschlichen Eingriff in die Außenwelt voraus. Intelligente Systeme agieren jedoch auf Basis ihrer Programmierung und lernen selbstständig, ohne über ein eigenes Bewusstsein oder einen freien Willen im menschlichen Sinne zu verfügen, was die Zuschreibung strafrechtlicher Handlungsfähigkeit erschwert.

Können intelligente Systeme nach dem derzeitigen Stand strafrechtlich bestraft werden?

Nach derzeitigem Stand von Wissenschaft und Technik können vollautomatisierte Fahrzeuge nicht bestraft werden, da weder absolute noch relative Straftheorien auf sie anwendbar sind. Ihnen fehlt ein eigenes Bewusstsein und die Fähigkeit, einen Normverstoß als Tadel zu begreifen, was die Sinnhaftigkeit jeglicher Sanktionierung entzieht.

Welche Rolle spielen Fehler- und Störungspotenziale bei vollautomatisierten Fahrsystemen?

Mit der Entwicklung vollautomatisierter Fahrzeuge entstehen neue Fehler- und Störungspotenziale in Elektronik, Mechanik oder Software, die über die klassischen Fahrzeugrisiken hinausgehen. Diese erfordern eine juristische Anpassung und technische Verständnis, um angemessen auf mögliche Fehlfunktionen reagieren zu können.

Ende der Leseprobe aus 45 Seiten  - nach oben

Details

Titel
Nulla poena sine culpa. Künstliche Intelligenzen als Adressaten einer Strafandrohung am Beispiel des vollautomatisierten Fahrens
Hochschule
FernUniversität Hagen  (Rechtswissenschaftliches Institut)
Note
11,0
Autor
Desiree Shirin Helene Ortlieb (Autor:in)
Erscheinungsjahr
2023
Seiten
45
Katalognummer
V1675579
ISBN (PDF)
9783389166543
ISBN (Buch)
9783389166550
Sprache
Deutsch
Schlagworte
Künstliche Intelligenz Jura KI Recht Automatisiertes Fahren Strafe KI Strafandrohung KI straßenverkehr
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Desiree Shirin Helene Ortlieb (Autor:in), 2023, Nulla poena sine culpa. Künstliche Intelligenzen als Adressaten einer Strafandrohung am Beispiel des vollautomatisierten Fahrens, München, GRIN Verlag, https://www.grin.com/document/1675579
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  45  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum