Interaktionen von autonomer, starker KI und Außenstehenden gibt es in ihrer Höchstform noch nicht, jedoch nimmt der Fortschritt technischer Erfindungen immer mehr an Fahrt auf, sodass es vermutlich nicht mehr allzu lange dauern wird, bis erste marktreife Softwareagenten in einer hochgradig autonomen Form starker KI mit Außenstehenden interagieren werden. Nun gilt es, die oben behandelten Verhaltensmuster und Fähigkeiten von Softwareagenten rechtlich - vor allem mit Blick auf die Zukunft - zu würdigen. Es wird um die Frage gehen, ob Softwareagenten ,,handeln" können, und ob sie Verträge für jemanden schließen können. Und wenn dies der Fall ist, was soll passieren, wenn dem Vertragspartner oder einem Dritten ein Schaden entsteht? Wer haftet?
Heutzutage findet man noch keine Softwareagenten vor, die auf einer vollständig starken KI basieren, man ist jedoch nicht mehr weit von den Fähigkeiten einer starken KI entfernt. Autonome Softwareagenten werden z. B. im High-Frequency-Trading eingesetzt. Hierbei werden minimale Kursunterschiede automatisch vom Softwareagenten analysiert, dieser entscheidet dann - ohne menschliches Zutun - ob, wo und wann Wertpapiere u. ä. ge- oder verkauft werden. Zu vergleichen sind diese Softwareagenten mit einem Börsenmakler, der in rasantem Tempo seine Geschäfte tätigt und mit den Jahren an Erfahrung sammelt, um daraus neues Wissen für künftige Entscheidungen zu generieren.
Für den Durchschnittsverbraucher, der nichts mit HFT zu tun hat, könnte Google Duplex als Softwareagent für den häuslichen Gebrauch bald nicht mehr wegzudenken sein. Duplex ist ein autonomer Sprachassistent (nicht Google Assistant!), der mit einer natürlichen Menschenstimme spricht, und hauptsächlich Termine für seinen Verwender buchen kann. Hierbei verhält sich Duplex am Telefon wie ein menschlicher Gesprächspartner, benutzt sogar Füllwörter (Hmm, Ehm, .) und kann flexibel auf jegliches Verhalten des Gesprächspartners reagieren. Diese Technik stützt sich unter anderem auf eine große Datenbasis und vor allem auf Neuronale Netze, sodass hier schon beinahe von starker KI gesprochen werden kann, es jedoch i. E. noch nicht ist.
Inhaltsverzeichnis
A. Künstliche Intelligenz – Was ist das?
I. Schwache KI
II. Starke KI
III. Lernprozesse des Softwareagenten
1. Machine-Learning
2. Deep-Learning
IV. Softwareagenten im heutigen Gebrauch
B. Lösung de lege lata
I. Digitale Willenserklärung
1. Willenserklärung des Softwareagenten?
2. Botenschaft
3. Blanketterklärung
II. Vertragliche Haftung
III. Deliktische Haftung des Verwenders
C. Vorschläge/Ansätze für Lösungen de lege ferenda
I. Rechtssubjektivität und Stellvertretung
1. Haftung nach § 179 BGB analog
2. Haftungsmasse des Softwareagenten
II. Regelwerk zur Interaktion mit Softwareagenten
III. Gefährdungshaftungstatbestand
IV. Ausblick auf die E-Personhood
D. Resümee
Zielsetzung & Themen
Die Arbeit untersucht die rechtliche Einordnung von Künstlicher Intelligenz und autonomen Softwareagenten im deutschen Zivilrecht, mit dem primären Ziel, Haftungsfragen und die Zulässigkeit von Willenserklärungen durch KI-Systeme zu klären.
- Grundlagen der Künstlichen Intelligenz (Schwache vs. Starke KI)
- Rechtliche Behandlung digitaler Willenserklärungen
- Vertragliche und deliktische Haftungsmodelle bei Einsatz von Softwareagenten
- Vorschläge für eine künftige Gesetzgebung (de lege ferenda)
- Diskussion von E-Personhood und Haftungsfonds
Auszug aus dem Buch
1. Machine-Learning
Machine-Learning bezeichnet den Prozess, in dem der Softwareagent, bzw. die KI im Softwareagenten, selbstständig aus ihm bereits bekannten Daten neue Schlüsse zieht und somit seine Wissensbasis erweitert. Der Vorgang ähnelt einer Transferleistung: Lernt das Kind, dass 1+2=3 ist, dann wird es irgendwann verstehen, dass 3-1=2 ist.
Zusammenfassung der Kapitel
A. Künstliche Intelligenz – Was ist das?: Dieses Kapitel definiert die Grundlagen von Künstlicher Intelligenz, unterscheidet zwischen schwacher und starker KI und erläutert Lernprozesse wie Machine- und Deep-Learning.
B. Lösung de lege lata: Hier wird analysiert, wie das geltende Recht (de lege lata) auf die Herausforderungen durch autonome Softwareagenten bei der Willenserklärung und in Haftungsfragen reagiert.
C. Vorschläge/Ansätze für Lösungen de lege ferenda: Dieses Kapitel diskutiert künftige rechtliche Gestaltungsoptionen (de lege ferenda), darunter neue Haftungsmodelle, E-Personhood und spezielle Regelwerke für KI-Interaktionen.
D. Resümee: Das Schlusskapitel fasst die Notwendigkeit zusammen, den technologischen Fortschritt durch eine ausgewogene Gesetzgebung zu begleiten, ohne dabei Innovationen durch voreilige Regulierungen zu ersticken.
Schlüsselwörter
Künstliche Intelligenz, Softwareagenten, Zivilrecht, Willenserklärung, Vertragliche Haftung, Deliktische Haftung, Machine-Learning, Deep-Learning, De lege ferenda, E-Personhood, Haftungsfonds, Rechtsfähigkeit, Stellvertretung, BGB, Technologierecht.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit befasst sich mit der rechtlichen Einordnung von Künstlicher Intelligenz und der Frage, wie das deutsche Recht den Einsatz autonomer Softwareagenten bei Rechtsgeschäften und Schadensfällen bewerten soll.
Was sind die zentralen Themenfelder der Publikation?
Die Arbeit fokussiert sich auf die Schnittstelle zwischen technologischer Autonomie und den bestehenden zivilrechtlichen Normen zur Haftung und Stellvertretung.
Was ist das primäre Ziel der Untersuchung?
Das Hauptziel ist es, aufzuzeigen, wie das geltende Recht (de lege lata) interpretiert werden kann und welche Anpassungen (de lege ferenda) notwendig sind, um Rechtssicherheit im Umgang mit KI-Systemen zu schaffen.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit stützt sich auf eine dogmatische Analyse des geltenden Zivilrechts unter Einbeziehung aktueller juristischer Fachliteratur und technischer Grundlagen der KI.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in eine Bestandsaufnahme der KI-Technologie, eine Analyse der aktuellen Rechtslage bezüglich Willenserklärungen und Haftung sowie eine kritische Auseinandersetzung mit künftigen Lösungsansätzen.
Welche Schlüsselwörter charakterisieren die Arbeit?
Kernbegriffe sind Künstliche Intelligenz, Softwareagenten, Zivilrecht, Haftungsmodell, Willenserklärung und Rechtssubjektivität.
Inwieweit kann eine Willenserklärung überhaupt von einem Softwareagenten ausgehen?
Die Arbeit hinterfragt, ob der Softwareagent eine eigene Willenserklärung abgeben kann oder ob er lediglich als „verlängerter Arm“ (Botenschaft/Blanketterklärung) des Verwenders fungiert.
Wie bewertet der Autor die Einführung einer „E-Personhood“?
Der Autor diskutiert die E-Personhood als möglichen Ansatz zur Zuweisung von Rechten und Pflichten für autonome Roboter, weist jedoch auf die Komplexität der Registerführung und bürokratische Belastungen hin.
Welche Rolle spielt die Gefährdungshaftung bei KI-Systemen?
Die Arbeit untersucht die Einführung eines Gefährdungshaftungstatbestands für autonome Systeme, um Schäden abzusichern, für die der Verwender aufgrund der Unvorhersehbarkeit des KI-Verhaltens nicht direkt einstehen kann.
- Arbeit zitieren
- Antek Kutscheid (Autor:in), 2019, Künstliche Intelligenz und selbstständig handelnde Softwareagenten. (Partielle) Rechtssubjektivität de lege lata et ferenda, München, GRIN Verlag, https://www.grin.com/document/539304