Drohnen und ihre Verwendung im privaten Bereich. Welche Faktoren beeinflussen unsere Einstellung zu robotischen Systemen?


Fachbuch, 2019
255 Seiten

Leseprobe

Inhaltsverzeichnis

Abstract Deutsch

Abstract English

Abkürzungsverzeichnis

1 Einleitung
1.1 Ausgangslage und Relevanz des Themas
1.2 Zielsetzung der Arbeit
1.3 Forschungsfrage
1.4 Methodologie
1.5 Aufbau der Arbeit

2 Künstliche Intelligenz
2.1 Definitionsansätze der Künstlichen Intelligenz
2.2 Funktionen der Künstlichen Intelligenz
2.3 Aktuelle Forschungsfelder
2.4 Entwicklungsstufen der Künstlichen Intelligenz

3 Robotik
3.1 Definitionsansätze der Robotik
3.2 Autonomie
3.3 Militärische Robotik

4 Innovation
4.1 Innovationstheorie
4.2 Militärische Revolutionen und Revolutions in Military Affairs
4.3 Makroökonomische Umfeldanalyse

5 Empirie
5.1 Empirische Forschung
5.2 Ergebnisse der Empirischen Forschung

6 Conclusio

7 Ausblick

8 Limitation

Abbildungsverzeichnis

Tabellenverzeichnis

Literaturverzeichnis

Anhang

Abstract Deutsch

Drohnen stehen seit einigen Jahren im Zentrum leidenschaftlich geführter Debatten und gehören mit zu den bedeutendsten technologischen Errungenschaften der jüngeren Vergangenheit und deren Nutzung eröffnet neue, bis dato unbekannte Perspektiven in zahlreichen verschiedenen Anwendungsbereichen. Ausgehend vom Einsatz im militärischen Kontext erobern diese robotischen Systeme zunehmend den kommerziellen und zivilen Bereich und werden unter anderem zur Inspektion von Anlagen, in der Land- und Forstwirtschaft oder auch als Hobby in der Freizeit genutzt.

Die Drohnentechnologie erfährt einen stetigen Fortschritt und wird in Zukunft in immer mehr Anwendungsbereichen zum Einsatz kommen. Die Forschung und Entwicklung der Künstlichen Intelligenz wird dem zusätzlichen Antrieb verleihen und die robotischen Systeme zunehmend autonomer agieren lassen. Die radikale Innovation birgt ein enormes Zukunftspotential mit weitreichenden Auswirkungen für die Wirtschaft und Gesellschaft.

Heutzutage herrscht ein „cultural lag“, da Drohnen seit mehreren Jahren im militärischen Milieu verwendet werden, sodass diese einen entwicklungstechnologischen Vorsprung im Vergleich zur sozialen Akzeptanz der Menschen besitzen. Die neuartige Technologie ist ihnen zwar durchaus bekannt, jedoch haben sie in der Regel keine direkten Erfahrungen mit diesen gemacht. Eine Rezeption erfolgt zumeist über die Medien. Ziel dieser Arbeit ist es herauszufinden, welche Faktoren die Einstellung zu autonomen Drohnen beeinflussen können.

Für die Befragten sind vor allem eine einheitliche internationale Regelung, die Achtung der Privatsphäre, die Möglichkeit jederzeit auf die Drohne einzugreifen und die zukünftige Differenzierung zwischen autonomen und nicht-autonomen Drohnen von Relevanz. Am wichtigsten ist jedoch das Verbot der moralischen Autonomie bei robotischen Systemen.

Schlagworte: Drohne, UAV, autonom, Einflussfaktoren, Positionierung

Abstract English

Drones have been at the center of passionate debates for some years and are among the most significant technological achievements of the recent past and their exploitation opens up new, unknown perspectives in a wide variety of applications. Based on their use in military contexts, these robotic systems are increasingly conquering the commercial and civilian sectors and are today already used for the inspection of plants, in the agriculture and forestry or also as hobby in the spare time.

Drone technology is undergoing steady progress and will be used in more and more applications in the future. The research and development of artificial intelligence will give additional impetus and make the robotic systems increasingly autonomous. The radical innovation holds enormous future potential with far-reaching effects for the economy and society.

Today, a "cultural lag" prevails, as drones have been used for several years in the military environment, so that they have a developmental technological advantage compared to the social acceptance of the people. The new technology is well known to them, but they usually have no direct experience with drones. A reception is usually via the media. The aim of this work is to find out which factors can influence the attitude to autonomous drones.

For the respondents, above all, a uniform international regulation, the respect for privacy, the ability to intervene at any time on the drone and the future differentiation between autonomous and non-autonomous drones are of relevance. Most important, however, is the prohibition of moral autonomy in robotic systems.

Keywords: drones, UAV, autonomous, influencing factors, positioning

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Im ersten Kapitel der Masterarbeit soll die Ausgangslage und die Relevanz des Themas aufgezeigt sowie die Zielsetzung, die Forschungsfrage und die angewandte Methodologie erläutert werden. Das Kapitel schließt mit dem Aufbau der Arbeit.

1.1 Ausgangslage und Relevanz des Themas

Die vorliegende Masterarbeit zur Erreichung des akademischen Grades „Master of Arts in Business“ im Studienfach „Produktmarketing und Innovationsmanagement“ beschäftigt sich mit dem Thema der Proliferation autonomer Drohnen.

Drohnen stehen seit einigen Jahren im Zentrum leidenschaftlich geführter Debatten und gehören mit zu den bedeutendsten technologischen Errungenschaften der jüngeren Vergangenheit und deren Nutzung eröffnet neue, bis dato unbekannte Perspektiven in zahlreichen verschiedenen Anwendungsbereichen. Ursprünglich wurden diese Flugroboter im militärischen Kontext, anfangs für die Überwachung und Spionage, in weiterer Folge auch zu Kampfzwecken, verwendet. Mittlerweile stoßen diese robotischen Systeme auch in den zivilen Bereich vor und werden unter anderem zur Inspektion von Anlagen, in der Land- und Forstwirtschaft oder auch als Hobby in der Freizeit genutzt.

Die Drohnentechnologie erfährt derweilen stetigen Fortschritt. Durch die Forschung wird eine zunehmende Miniaturisierung sowie Autonomisierung, durch Errungenschaften im Bereich der Künstlichen Intelligenz, angestrebt und die Verbreitung kostengünstiger Komponenten sorgt dafür, dass der Technologie großes Zukunftspotential innewohnt - mit weitreichenden Auswirkungen für die Wirtschaft und Gesellschaft.

Mit der fortschreitenden Entwicklung und steigende Anzahl der Drohnen1 werden die Menschen dabei zunehmend mit einer Technologie konfrontiert, die sie aus Nachrichten und Medien kennen. Die Erfahrungen, die sie mit den Flugrobotern machen konnten, sind in der Regel passiv und die Rezeption entspringt einem militärischen Konnex. Anhand einer Erhebung des KfV wurde deutlich, dass die Mehrheit nur einen geringen Wissensstand zu Drohnen besitzen2. Diese Ergebnisse decken sich mit Studien aus der Schweiz3 und Deutschland4. Oftmals ist diese Unwissenheit mit Vorbehalten behaftet und die Drohnentechnologie hat eine negative Konnotation inne5. Der Grad der Besorgtheit korreliert dabei jedoch neben dem Alter und Geschlecht auch mit dem generellen Kenntnisstand6. Die wissenschaftliche Arbeit hat somit eine hinreichende Relevanz und erfüllt einen notwendigen Zweck, da sie sich zum Anlass nimmt, in konsolidierter Form Einstellungen potentieller Käufer und User von Drohnen für den privaten Gebrauch zu erforschen und zu analysieren.

1.2 Zielsetzung der Arbeit

Die dargestellte Ausgangslage regt dazu an, mehr Fakten über die Drohnentechnologie zu kommunizieren. Diese Information geschieht jedoch auf bilaterale Art und Weise, sodass sich die wissenschaftliche Arbeit an zwei Zielgruppen richtet: unbedarfte sowie versierte Drohnennutzer. Für Laien sollen Informationen aufbereitet, für Experten Implikationen zur praktischen Nutzung erarbeitet werden.

Das Ziel der Arbeit ist dem Leser näher zu bringen, worum es sich genau um eine Drohne handelt und zum anderen, welche Einstellung die Menschen zu dieser Technologie besitzt, welche Gefahren und Risiken befürchtet und welche Einsatzbereiche favorisiert werden. Im Zuge dessen wird sich einerseits der theoretischen Aufbereitung der Thematik, andererseits der empirischen Erkenntnisgewinnung gewidmet.

Als theoretische Grundlage bedient sich die Arbeit verschiedener Fachliteratur sowie wissenschaftlich relevanter Journals aus der Datenbank der Fachhochschule Wiener Neustadt. Basierend auf den Ergebnissen der Literaturrecherche, wird im Anschluss eine empirische Untersuchung erhoben. Mithilfe der erarbeiteten Theorie und den gewonnenen Erkenntnissen der empirischen Forschung soll die vorliegende Forschungsfrage der Arbeit beantwortet werden.

1.3 Forschungsfrage

Um die Zielsetzung zu erreichen, wurde nachstehende Forschungsfrage formuliert, welche durch diese wissenschaftliche Arbeit eruiert werden sollen.

Welche Faktoren beeinflussen die Einstellung potentieller Käufer und User von Drohnen für den privaten und kommerziellen Gebrauch?

1.4 Methodologie

Die wissenschaftliche Arbeit stützt sich zur Beantwortung der Forschungsfrage auf die empirische Forschung. Im Zuge der Empirie wird ein sogenannter Mixed-Methods-Ansatz verfolgt. Dieser kombiniert die qualitative Forschung mit der quantitativen. Durch die Kombination des multivariaten Ansatzes können Erkenntnisse der qualitativen sowie der quantitativen Befragung zu einem holistischen Bild zusammengefügt werden.

Da die Drohnentechnologie eine sensible, facettenreiche Thematik ist, wird sich durch die Anwendung der qualitativen Forschung neue Sachverhalte versprochen, die trotz intensiver Literaturrecherche nicht aufgekommen wären. Im Vordergrund der leitfadengeführten Experteninterviews stehen Einstellungen, Meinungen und Erwartungen der Befragten. Diese Ergebnisse sollen in weiterer Folge in die quantitative Erhebung fließen.

Die Methodik der quantitativen Forschung bedient sich der Online-Befragung. Diese wurde gewählt, um gezielt mengenmäßige Aussagen treffen zu können. Durch den Einsatz eines standardisierten Fragebogens kann eine hohe Anzahl numerischer Daten generiert werden, um möglichst viele Facetten und Informationen über die Meinung und Motive der Drohnentechnologie zu erhalten.

Um eine fundierte Basis der qualitativen Forschung aufzubereiten, werden im ersten Schritt relevante Themen theoretisch betrachtet, um Items für den Leitfaden der Experteninterviews zu definieren. Der genaue Aufbau der wissenschaftlichen Arbeit wird im Folgenden dargestellt.

1.5 Aufbau der Arbeit

Eine geordnete Struktur einer Arbeit ist essentiell, um sich einer komplexen Thematik wie die der Drohnentechnologie anzunähern.

Im ersten Kapitel wird die Ausgangslage, die Zielsetzung der Arbeit, die aufgeworfenen Forschungsfragen sowie die angewandte Methodologie nähergebracht.

Das zweite Kapitel widmet sich der Künstlichen Intelligenz, die ein notwendiges Kriterium eines autonomen künstlichen Systems darstellt. Dort wird eruiert, was genau eine Künstliche Intelligenz ist und welche Funktionen diese besitzt. Weiters wird auf aktuelle Forschungsfelder eingegangen sowie die unterschiedlichen Entwicklungsstufen der Künstlichen Intelligenz skizziert.

Kapitel drei beschäftigt sich mit der Robotik im Allgemeinen und versucht, diese mittels verschiedener Ansätze zu definieren. Ein Kernthema robotischer Systeme ist die Autonomie, die in diesem Kapitel ebenfalls ausführlich behandelt wird. Da Drohnen der militärischen Entwicklung entstammen, wird die militärische Robotik anhand non-letaler und letaler Systeme detaillierter beschrieben.

Das vierte Kapitel fokussiert sich auf die Innovation. Da Drohnen eine neuartige Technologie sind, ist es von Interesse, diese aus innovationstheoretischer Sicht zu betrachten und zu analysieren. Dieser Teil der Masterarbeit endet mit einer makroökonomischen Umfeldanalyse, die zum empirischen Inhalt überleitet.

Im fünften Kapitel wird die Empirie einerseits seitens der empirischen Untersuchung sowie andererseits mittels Ergebnisse der qualitativen und quantitativen Erhebung vorgestellt.

Im sechsten und letzten Kapitel werden Erkenntnisse aus der Empirie gezogen und interpretiert. Die wissenschaftliche Arbeit schließt mit der Beantwortung der Forschungsfrage, das Ziehen eines Resümees und eines Ausblicks sowie einer Limitation ab.

2 Künstliche Intelligenz

Die Künstliche Intelligenz (KI) besitzt das Potential, in der Zukunft einen Paradigmenwechsel herbeizuführen und einen weitreichenden Einfluss auf die Wirtschaft, digital wie real, und die Gesellschaft zu entwickeln. Bereits heutzutage ist zu erkennen, dass computergesteuerte Informationssysteme mit immer höherer Intelligenz in zahlreiche Arbeits- und Lebensbereiche vordringen.

Der gegenwärtige Fortschritt in den letzten Jahren hat zu einer stetig steigenden Popularität der KI geführt. Die Kombination aus rapide steigender Rechenleistung, Verarbeitung riesiger Datenmengen sowie optimierten Algorithmen haben dafür Sorge getragen. Was vor wenigen Jahren noch unrealistisch erschien, ist heute denkbar oder sogar schon Realität. Im Kontext der zunehmenden Digitalisierung und einer von Daten getriebenen Ökonomie, wird sich zukünftig das Einsatzspektrum von KI-Systemen noch weiter ausdehnen. Dies reicht von der Unterstützung menschlicher Tätigkeiten durch kognitive intelligente Systeme, Roboter, die eigenständig und adaptiv mit Menschen interagieren können, sowie intelligente und autonome Geräte im Internet of Things (IoT) bis hin zu selbstfahrenden Fahrzeugen, die schon in naher Zukunft auf den Straßen oder in der Luft verkehren könnten.

KI bzw. im Englischen Artificial Intelligence (AI) ist keinesfalls ein neues Thema, das erst in den letzten Jahren aufgekommen ist. Die Entwicklung und weitreichenden Folgen einer KI beschäftigt die Menschheit schon seit Jahrzehnten. Seit dem Beginn der ersten elektronischen Rechner ist es ein Traum von Computerexperten, Computer mit menschlicher Intelligenz zu verbinden. Turing stellte schon 1950 in seiner Arbeit „Computing Machinery and Intelligence“7 die Frage, ob Maschinen in der Lage sind zu denken. Um dies zu klären, entwickelte er eigens dafür den sogenannten „Turing Test“. Dieser erlangte in der Folge große Berühmtheit und ist selbst heutzutage noch ein Maßstab zur Kategorisierung von KI. In den folgenden Jahrzehnten durchlief das Wissenschaftsfeld der KI Phasen mit hohen, beachtlichen Forschungsaktivitäten aber auch Phasen mit geringer Intensität, die sogenannten „KI-Winter“8. In den späten 1990er Jahren begannen sich die Fortschritte in der Forschung und Entwicklung zu beschleunigen. Die Forscher konzentrierten sich zunehmend auf Subprobleme und Anwendungsbereiche, die reale Probleme, wie etwa die Bilderkennung (Image Recognition) und die medizinische Diagnose, behandelten. Ein erster Meilenstein wurde erreicht als IBMs Schach-Computer „Deep Blue“ 1997 den damaligen Schach-Weltmeister Kasparov in einem aufsehenerregenden Duell besiegte9. Weitere signifikante Errungenschaften sollten folgen. DARPAs „Cognitive Agent that Learns and Organises“ (CALO), welcher zu Apples digitaler KI „Siri“ führte10, sowie der Sieg von IBMs Supercomputer Watson bei der Frageshow „Jeopardy“11 sind nur zwei Erfolgsbeispiele. Die Entwicklung der KI zeigt, dass die Systeme stets immer komplexere Aufgaben meistern und Aufgabenstellungen, die über das logische Denken und Abwägen von Alternativen hinausgehen, lösen konnten.

Die aktuelle Popularität und Welle der Begeisterung rund um die KI begann etwa um das Jahr 2010. Dies wurde vorrangig durch folgende inkrementelle Faktoren angetrieben, die aufeinander aufbauen: die Verfügbarkeit von großen Datenmengen aus digitalen Quellen stellen den Rohstoff für optimiertes maschinelles Lernen und den damit verbundenen verbesserten Algorithmen dar. Parallel wiederum steigt stetig die Rechenleistung und -kapazität von Computern12. Durch das Aufkommen von cloudbasierten Speicherungsmöglichkeiten, dem Cloud Computing, entstand zudem faktisch ein quasi unbegrenzter Zugang zu Rechenleistung13. Ebenfalls das Sammeln von Daten, das Big Data, trug zur erhöhten Verfügbarkeit von Daten bei. Das globale Datenwachstum wächst seit 2010 um mehr als die Hälfte pro Jahr an und wird sich bis zum Jahr 2025 verzehnfachen14. Laut den Internet World Stats (IWS) von 2017 liegt die weltweite Internet-Penetration im Durchschnitt bei etwa 55 Prozent15. Dies bedeutet, dass mehr als die Hälfte der Menschen freien Zugang zum Internet besitzt. Vor allem Asien (48%) und Afrika (35%) besitzen als Schwellenländer noch enormes Potential16 und werden in Zukunft bei der Anbindung der Menschen ans Internet, zusätzlich riesige Datenmengen produzieren. Mit der zukünftigen Entwicklung des IoT, welches die Verknüpfung von Alltagsgegenständen und Maschinen mit dem Internet impliziert, wird diese Entwicklung rasant zunehmen und diese Daten werden zusätzliches Lern- und somit Entwicklungspotential für die KI-Systeme liefern17.

Nach Schätzungen von Internet- und Marktforschern wird jedoch etwa nur ein halbes Prozent der weltweiten Datenbestände aktuell analysiert und dementsprechend nutzbar gemacht18. Dies zeigt, dass es nicht nur auf die Quantität, also das Rohmaterial in Form einer gewissen Datenmenge, ankommt, sondern ebenfalls auf die Qualität, sprich die aktive Nutzung dieser Daten. Letzten Endes benötigen künstliche Systeme diese Daten als „Nahrung“, um zu lernen und sich stetig weiterzuentwickeln. In Zukunft wird sich der Fortschritt der KI auf die Qualität der Daten fokussieren. Aus Big Data wird Smart Data, damit profitiert einerseits der Nutzer eines KI-Systems von der Geschwindigkeit, Leistungsvermögen und Verarbeitungsqualität der Anwendungen sowie andererseits das KI-System selbst durch optimierte Algorithmen und daraus resultierender Leistungssteigerung.

2.1 Definitionsansätze der Künstlichen Intelligenz

Obwohl, wie zuvor beschrieben, das Thema der KI die Menschheit schon jahrzehntelang beschäftigt, gibt es bis dato keine eindeutige, universell akzeptierte Definition. Im Cambridge Advance Learner’s Dictionary wird der allgemeine Begriff Intelligenz folgendermaßen definiert: „intelligence is the ability to learn, understand and make judgements based on reason”19. Intelligenz ist also die Fähigkeit, zu lernen, zu verstehen und auf Vernunft basierende Entscheidungen zu treffen. Der Duden definiert Intelligenz als „[die] Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten“20. 1990 definierte Kurzweil Künstliche Intelligenz als „[…] Kunst Maschinen zu erschaffen, die Funktionen erfüllen, die, werden sie von Menschen ausgeführt, der Intelligenz bedürfen“21. Eine weitere Definition stammt von der Association for the Advancement of Artificial Intelligence. Diese beschreibt KI als „[…] das wissenschaftliche Verstehen der Mechanismen, die dem denkenden und intelligenten Verhalten zugrunde liegen und deren Implementierung in Maschinen“22. Bei der Analyse dieser Definitionen wird deutlich, dass sich diese vorrangig auf Denkprozesse und logisches Schlussfolgern sowie das Verhalten der Systeme bezieht. Des Weiteren werden Systeme mit Menschen verglichen und deren Replikation menschlicher Leistungen bzw. auf deren ideale Leistungsgröße – die Rationalität. Ein System handelt per definitionem rational, sofern es nach seinem Kenntnisstand „das Richtige“ macht. Dies führte in der Vergangenheit zu vier verschiedenen Ansätzen der KI, die im Fokus der Forschung und Entwicklung verschiedener Akteure standen: menschliches Denken, menschliches Handeln, rationales Denken sowie rationales Handeln23.

Modernere Definitionen beziehen sich heutzutage ebenfalls auf die Nachahmung menschlicher Leistungen. Das Center for Data Innovation beschreibt die KI etwa als eine Disziplin der Computerwissenschaften, das sich mit der (künstlichen) Erschaffung von Computersystemen beschäftigt, die Tätigkeiten analog zum menschlichen Denken und menschlicher Entscheidungsfindung ausüben24. Die renommierte Universität Stanford definiert KI als eine eigene Wissenschaft und eine Ansammlung von zahlreichen Technologien, die davon inspiriert ist, wie Menschen mittels ihres Nervensystems und ihres Körpers wahrnehmen, lernen, logisch denken und Handlungen vollziehen – und dabei aber zumeist unterschiedlich in verschiedenen Situationen agieren25. Da sich die Masterarbeit nicht explizit auf die KI selbst fokussiert, sondern diese lediglich zum Mittel zum Zweck hinsichtlich der Verwirklichung rationaler Maschinen im Sinne der Autonomie ansieht, wird die nicht so sperrige Definition von Nilsson, ebenfalls aus der Veröffentlichung der Stanford University stammend, favorisiert: „artificial intelligence is that activity devoted to making machines intelligent, and intelligence is that quality that enables an entity to function appropriately and with foresight in its environment“26. Nilsson impliziert, dass die KI Systeme im Allgemeinen intelligent agieren lassen und diese Intelligenz es erlaubt, die Systeme angemessen in unterschiedlichen Situationen funktionieren zu lassen und dass dies in Voraussicht bzw. Weitblick der Umwelt geschieht.

Eine weitere Annäherung und weniger abstrakte Herangehensweise an den Begriff der KI ist die über die technischen Funktionen. Beispielsweise stehen dort, wie zuvor bei Russel erwähnt, das rationale bzw. logische Denken, die Problemlösung aber auch das Lernen aus Erfahrung oder Spracherkennung im Vordergrund. Das Center for Data Innovation definiert die wesentliche Funktionalität von KI-Systemen als „Lernen, Verstehen, Schlussfolgern bzw. Urteilen und Interaktion (mit Menschen sowie mit Maschinen)“27.

Mit der fortschreitenden Entwicklung von KI-Systemen, haben sich heutzutage verschiedene Formen der KI gebildet. Diese Unterscheidung ermöglicht ebenfalls, sich dieser Thematik anzunähern. Die amerikanische Universität Massachusetts Institute of Technology in Cambridge veröffentliche im Juni 2016 folgende Formen der KI28:

2.1.1 Assisted Intelligence

Diese wird vor allem zur Automatisierung von einfachen Aufgaben eingesetzt, um diese schneller und ökonomischer durchzuführen. Assisted Intelligence bildet die Basis bzw. das untere Ende des Spektrums der Leistungsfähigkeit einer KI. Wie der Name schon sagt, besitzt diese Form der Intelligenz eine assistierende Funktion und im Allgemeinen spricht man hier von einer „schwachen“ KI. Aus heutiger Sicht ist diese Form der KI bereits weit verbreitet und aus unserem Alltag nicht mehr wegzudenken.

2.1.2 Augmented Intelligence

Diese soll Menschen dabei helfen, bessere situationsbasierte Entscheidungen treffen zu können. Diese Form der KI kann aus den Inputs, vor allem Daten und manuelle Eingaben, von Menschen lernen, sodass die menschlichen Entscheidungen aufgrund der durch die KI bereitgestellten Informationen präziser und prägnanter werden. Die KI selbst trifft dabei keine eigenständigen Entscheidungen, „vielmehr schafft [die KI] immer schneller, vollständiger und selbstlernend die besten Voraussetzungen für das Treffen von Entscheidungen sowie zum Entwickeln strategischer Perspektiven“29. Unter Berücksichtigung des Begriffs „augmented“ und dessen Übersetzung wird die Einordnung greifbarer. Die KI vermehrt die zu Rate gezogenen Parameter und erweitert die Analyse um zusätzliche Daten, die für den Menschen allein nicht zu bewältigen bzw. zu unübersichtlich wären, sodass die Entscheidungsfindung verbessert wird.

2.1.3 Autonomous Intelligence

Diese Form ist die am weitesten fortgeschrittene Form der KI. Das System agiert eigen- und selbstständig ohne menschliches Handeln. Der Mensch hat maximal die Funktion der Überwachung des Systems inne. Künstliche Systeme in Zukunft autonom agieren zu lassen, ist ein Ziel, dass über viele Forschungsfelder hinweg angestrebt wird. Auf die Autonomie wird im Speziellen in Kapitel 3.2 eingegangen. Letzten Endes gilt die Prämisse der Autonomous Intelligence im Grunde für alle möglichen Maschinen, die in der Lage sind, sich fortbewegen zu können: Fahrzeuge, der motorisierte Verkehr sowie Landwirtschaftsmaschinen, sowie Roboter, in der Industrie oder im privaten Alltag, aber auch Flugzeuge und Fahrzeuge auf oder unterhalb des Wassers.

2.2 Funktionen der Künstlichen Intelligenz

Anhand zuvor genannter Formen der KI unterscheiden sich ebenfalls deren jeweilige Funktionen. Assisted Intelligence hat im Vergleich zur Autonomous Intelligence nur einen eingeschränkten Tätigkeitsbereich und führt weit weniger Funktionen aus als Letztere. Die verschiedenen Aufgaben und Handlungen lassen sich clustern und zu sieben allgemeinen Anwendungen bzw. Funktionen zusammenführen30. Diese beinhalten:

2.2.1 Monitoring

KI-Systeme sind in der Lage, in kürzester Zeit große Datenmengen zu analysieren und Muster in diesen festzustellen. Die Vorteile sind einerseits, dass die Systeme dies weitaus schneller und genauer tun als es Menschen je könnten und anderseits geschieht diese Analyse in Echtzeit. Anwendungsbereiche sind etwa die Cyber-Security oder Analyse von komplexen Umweltveränderungen. In einigen Venture-Capital Unternehmen analysieren KI-Systeme Finanzdaten und geben Handlungsanweisungen, um den höchstmöglichen Profit zu generieren31.

2.2.2 Tracking

Bei der Analyse riesiger Datenmengen können wertvolle Erkenntnisse mittels Data Mining extrahiert und neue Lösungen durch Simulationen erarbeitet werden. KI-Systeme wenden dynamische Modelle an, die es ihnen ermöglichen, aus den Daten zu lernen und sich anzupassen. Dies macht sie sehr effektiv beim Entdecken von abstrakten Mustern und neuen Zusammenhängen, die von traditionellen Computerprogrammen unentdeckt geblieben wären.

2.2.3 Prädiktion

Aufgrund ihrer hohen analytischen Fähigkeit können KI Vorhersagen treffen oder Modelle darstellen. In Echtzeit können sie unzählige Simulationen durchspielen und beispielweise derartig extrapolieren, um vorherzusagen, wie sich Trends in der Zukunft entwickeln werden. Diese Eigenschaft befähigt die Systeme, Ergebnisse zu prognostizieren, Antworten zu empfehlen und je nach Anwender zu personalisieren.

2.2.4 Interpretation

Da wie zuvor erwähnt KI-Systeme lernen und Muster erkennen können, sind sie des Weiteren in der Lage, auch unstrukturierte Daten zu interpretieren. Diese sind normalerweise schwer einzuordnen, wie etwa Bilder, Videos, Audio- sowie Textdateien. KI können somit eine vielfach größere Datenmenge analysieren und höherwertige Ergebnisse liefern als klassische Datenanalysemethoden.

2.2.5 Interaktion mit der Umwelt

KI-Systeme können eine Vielzahl an Interaktionen zwischen Maschinen und ihrer Umgebung ermöglichen. Künstliche Entitäten wie Roboter sind zum Teil schon heutzutage fähig, durch ihre Umwelt zu navigieren und diese zu manipulieren. Ein Zukunftsszenario sind zum Beispiel selbstfahrende Autos, die eine Vielzahl an Echtzeitdaten analysieren müssen, um sicher und effizient eine Fahrtrichtung bestimmen zu können.

2.2.6 Interaktion mit Menschen

In der Vergangenheit und im Normalfall haben sich Menschen bisher an die Anforderungen des Computers angepasst, beispielsweise via Tastatur und Maus. Mittels KI ist es dagegen zukünftig möglich, mit Computersystemen auf eine Art und Weise zu interagieren, wie sie es auch mit anderen Menschen geschieht: über Sprache, Gestik und Mimik. Entitäten passen sich in der Zukunft den Gegebenheiten des Menschen an und unterstützen den Menschen im privaten sowie beruflichen Leben.

2.2.7 Interaktion mit Maschinen

KI-Systeme befähigen Maschinen, automatisiert komplizierte Maschine-zu-Maschine-Interaktionen zu koordinieren und automatisch notwendige Anpassungen an diesen durchzuführen. So können sich mehrere Systeme untereinander und miteinander koordinieren.

2.3 Aktuelle Forschungsfelder

KI stellt per se keine einzelne Technologie dar, sondern setzt sich aus einer Reihe unterschiedlicher Technologien und Methoden zusammen und die Vielfalt von Anwendungen und Techniken weisen eine Kohärenz auf32. KI ist also keine vollkommene, eigenständige Lösung, sondern sollte eher als Zusammensetzung verschiedener Technologien und Teildisziplinen betrachtet werden und erst aus der Summe derer entsteht eine echte KI33. Zu diesen Teilen zählen beispielsweise das Maschinelle Lernen und dessen verschiedenste Ausprägungen, das visuelle Erkennen von Objekten mittels Sensoren oder die Spracherkennung34. KI-Technologien und Methoden, denen aktuell die größte Aufmerksamkeit zu Teil wird, werden im Folgenden dargestellt und näher erläutert35:

2.3.1 Large-scale Machine Learning

Optimierung des Designs von Lern-Algorithmen und Skalierung bestehender Algorithmen, um mit extrem großen Datensätzen arbeiten zu können.

2.3.2 Deep Learning

Stellt eine Unterklasse des maschinellen Lernverfahrens dar und hat heutzutage schon die maschinelle Objekterkennung in Bildern und Aktivitätserkennung in Videos ermöglicht. Des Weiteren führte Deep Learning zu weitreichenden Fortschritten in Bereichen der maschinellen Wahrnehmung, wie Audio- und Spracherkennung, sowie Natural Language Processing.

2.3.3 Natural Language Processing

Oftmals mit automatischer Spracherkennung verbunden und wird bereits zunehmend für weitläufig gesprochene internationale Sprachen eingesetzt. Der Fokus der Forschung verlagert sich zunehmend auf verfeinerte Systeme und auf Systeme, die nicht nur stilisiert auf Anfragen reagieren können, sogenannte Chat-Bots, sondern mittels maschinellem Lernen echte „Mensch-zu-Mensch-Dialoge“ ermöglichen.

2.3.4 Reinforcement Learning

Der Fokus des maschinellen Lernens verschiebt sich vom Erkennen von Mustern hin zur sequentiellen Entscheidungsfindung basierend eigener Erfahrungen. Das Konzept kann es zukünftig ermöglichen, dass KI-Applikationen Aktionen in der realen Welt ausführen können. Ehemals war dies nur wissenschaftliche Theorie, mittlerweile gibt es auch praktische und angewandte Erfolge aus der Realität. Ein Beispiel ist die Google KI DeepMind, die sich das Spiel Breakout ausgehend von den Spielregeln selbst beibringen sollte und mit der Prämisse, mit möglichst wenigen Handlungen die maximale Belohnung zu erzielen. Nach vier Stunden Spielzeit fand es den optimalen Weg zur Zielerreichung36. Mit dem Reinforcement Learning sollen KI angeleitet werden, die Aufgaben nach vorgegebenen Parametern am ökonomischsten zu erledigen, um Zeit und Kosten zu sparen.

2.3.5 Computer Vision

Die maschinelle Bilderkennung ist die aktuell verbreitetste Form der maschinellen Wahrnehmung. Diese Disziplin ist ein Teilbereich der KI und wird maßgeblich durch das Deep Learning beeinflusst. Erstmals sind Computer bei einigen Wahrnehmungsaufgaben besser als Menschen. Ziel ist es in Zukunft, KI automatisch Bilder und Videos hinsichtlich der Inhalte analysieren zu lassen.

2.3.6 Internet of Things

In diesem Bereich der Forschung sollen intelligente Geräte mit dem Internet vernetzt werden und zukünftig eine Verbindung mit der KI geschehen. Smart-Home-Anwendungen sind praktische Beispiele einer solchen Vernetzung. Zukünftig soll eine KI die Vielzahl an Geräten und Schnittstellen steuern und für den Menschen eine Komplexitätsreduktion herbeiführen.

2.3.7 Crowdsourcing und Human Computation

Erforscht Methoden, um Computersysteme derartig zu erweitern, dass automatisiert menschliches Fachwissen eingebunden werden kann, um Probleme zu lösen, die ein Computer alleine (noch) nicht bewältigen kann.

2.3.8 Collaborative Systems

Ziel dieses Teilbereichs ist es, die Entwicklung von Modellen und Algorithmen autonomer Systeme voranzutreiben, die gemeinsam mit anderen Systemen und/oder Menschen zusammenarbeiten können. Eine solche Kooperation intelligent verteilter Systeme kann ebenfalls als KI bezeichnet werden. Hierbei spricht man oft von kollektiver Intelligenz bzw. der sogenannten Schwarmintelligenz37.

2.3.9 Robotik

Aktuell wird daran geforscht, wie man Roboter anlernen kann, mit ihrer Umwelt in allgemeiner und adaptiver Art und Weise zu interagieren. Die Interaktion von Roboter zu Roboter aber auch von Roboter zu Mensch sowie die Manipulation von Objekten im Allgemeinen stehen im Vordergrund. Die Fortschritte sind mit vielen verschiedenen Technologien verbunden, jedoch besonders eng mit der Verbesserung der Zuverlässigkeit und Generalität der Computer Vision (maschinelle Bilderkennung) gekoppelt.

Da sich die Masterarbeit insbesondere auf die Proliferation autonomer Drohnen fokussiert, wird in weiterer Folge vor allem auf das letzte Forschungsfeld, die Robotik, näher eingegangen. Laut eines Berichts des US-amerikanischen Defense Science Board in Kooperation mit dem Office for Defense for Acquisition, Technology and Logistics werden sechs essentielle Forschungsfelder für die Entwicklung unbemannter Systeme genannt: „perception, planning, learning, human-robot interaction, natural language understanding, and multiagent coordination“38. Die sechs Forschungsbereiche sollen im Folgenden detaillierter erklärt werden.

Perception bzw. die robotische Wahrnehmung behandelt vorrangig Themen, die sich um die Sensorik der Systeme drehen und bezieht sich auf zuvor genannte Computer Vision. Diese beinhaltet neben der Hardware der Sensoren auch die Software in Form des Sensing, also das robotische „Fühlen“. Im Gegensatz zu unseren menschlichen Emotionen ist damit das situativ angepasste Verhalten des Roboters gemeint. Im Vordergrund steht vor allem die Adäquanz im Sinne der Verhältnismäßigkeit der getroffenen Wahl von Entscheidungen künstlicher Systeme. Des Weiteren sollen diese nicht nur in der Lage sein, die Situation wahrzunehmen, sondern aktiv zu erkennen, welche Verhaltens- und Gemütszustände bei Menschen vorherrschen und dementsprechend mit ihnen zu interagieren.

Das zweite Forschungsfeld „planning“ bezieht sich auf „[…] computing a sequence or partial order of actions that achieve a desired state”39. Dieser Prozess liegt Algorithmen zu Grunde, die nötig sind, um autonome Handlungsentscheidungen zu erlauben.

Das „learning“ behandelt Themen, die sich um die Frage drehen, wie Maschinen große Datenmengen verarbeiten und diese letztlich aktiv für sich nutzen und in Wissen umwandeln können. Dieses Forschungsfeld zeigt sich auch in der Studie der Stanford University im Reinforcement Learning und Large-Scale Machine Learning.

Die komplexe Forschung rund um „human-robot interaction“, also wie Menschen und Roboter miteinander interagieren, ist vollkommen anders zu bewerten, als die Interaktion mit bisherigen nicht-menschlichen Maschinen. Roboter sind „physically situated agents“ und etwaige Handlungen „[…] need to span a number of domains well beyond engineering, including psychology, cognitive science, and communications, among others”40.

Das „natural language processing” hat wie in der Studie der Stanford University das Ziel, dass robotische Systeme mit Menschen auf gewöhnliche Art und Weise kommunizieren können, wie sie es ansonsten mit einem menschlichen Gegenüber täten. „Natural language is the most normal and intuitive way for humans to instruct autonomous systems; it allows them to provide diverse, high-level goals and strategies rather than detailed teleoperation”41. Diese Entwicklung ist von außerordentlicher Wichtigkeit bei eingesetzten Systemen, deren Handlungen Leben und Tod eines Lebewesens bedeuten können. So darf es etwa bei direkten Befehlen im Militärbereich unter keinen Umständen zu Verständnisschwierigkeiten kommen oder Freiraum für Interpretationen geben. Das Militär fußt auf verschiedenen Säulen, eines davon ist das der Befehlshörigkeit sowie Gehorsam Vorgesetzten gegenüber42. Dies gilt zukünftig nicht nur für menschliche Streitkräfte, sondern ebenfalls für robotische Systeme.

Das Forschungsfeld der „multiagent coordination” bezieht sich, wie der Teilbereich der Collaborative Systems der Stanford Studie, auf Umstände bzw. eine Umwelt, in der Handlungen von einer Vielzahl von Robotern ohne menschlichen Einfluss getätigt werden. Diese Operationen unterliegen einem generellen, zentralen Ziel und die Zielerreichung wird von den Systemen untereinander autonom koordiniert. Dieses Zusammenwirken geht über die gewöhnliche Kooperation hinaus, „[…] because it assumes that the agents have a cognitive understanding of each other’s capabilities, can monitor progress towards the goal, and engage in more human-like teamwork”43.

Anhand der Forschungsfelder der Stanford University sowie der des Berichts des Defense Science Board, wird deutlich, dass die Entwicklung rund um KI im robotischen Kontext multidimensional ist und eine Zusammenarbeit verschiedenster Disziplinen voraussetzt. Diese schließt die Informatik, Elektrotechnik, Physik, aber auch den Maschinenbau ein. Überdies ist zu beachten, dass es nicht korrekt wäre im Allgemeinen von der „einen“ KI zu sprechen. Diese ist weitaus differenzierter zu betrachten. Um ein detaillierteres Bild über die KI zu erhalten, wird im folgenden Abschnitt auf die unterschiedlichen Ausprägungen und Stufen der KI näher eingegangen.

2.4 Entwicklungsstufen der Künstlichen Intelligenz

Auf so gut wie jedem Smartphone findet man heutzutage eine KI. Sie ist längst zu einem festen Bestandteil in unserem Leben geworden. Sei es Siri bei Apple, Alexa von Amazon oder andere Programme zur automatischen Spracherkennung. Dennoch bestehen sowohl in der Öffentlichkeit als auch bei Experten elementare Befürchtungen, was die potentiellen Auswirkungen einer KI betrifft. Diese Ängste reichen von der Massenarbeitslosigkeit bis zur Übernahme der Weltherrschaft oder der Eliminierung der Menschheit durch die Maschinen44. Zu beachten ist jedoch, dass es im Allgemeinen nicht die eine, allgemeingültige KI gibt. Innerhalb einer KI gibt es verschiedene Entwicklungsstufen, welche immer komplexere Funktionen beinhalten und ein Kontinuum darstellen. Dieser Abschnitt widmet sich diesem Thema, um die verschiedenen Stufen näher auszuführen. Der Einfachheit halber wird oft im allgemeinen Sprachgebrauch von „schwacher“ und „starker“ KI gesprochen. Während sich erstere schon in der praktischen Umsetzung befindet, ist letztere (noch) hypothetischer Natur.

Die Basis der KI stellt die „schwache“ KI dar. Die zuvor erwähnte Assisted Intelligence heißt im Fachjargon Artificial Narrow Intelligence (ANI). Sie ist die limitierteste Form der KI und ist der derzeitige Stand der Technik, der am weitesten verbreitet ist. ANI kann spezifische Aufgaben ausführen, indem komplexe Algorithmen mit maschinellem Lernen und zahlreichen anderen Technologien je nach Anwendungsfall kombiniert werden45. In der Interaktion mit Menschen kommen dabei auch Techniken zur natürlichen Spracherkennung zum Einsatz46. ANI verlässt sich dabei auf maschinelle Lernalgorithmen, die einerseits riesige Datenmengen sowie andererseits eine Adaptierung unserer realen Welt erfordern, um diese verstehen zu können. ANI-Systeme können ihre spezifischen Aufgaben nur deshalb durchführen, weil Menschen im Vorfeld ihre natürliche Umwelt für sie adaptiert haben47.

Die nächste Entwicklungsstufe ist die Artificial General Intelligence (AGI). Dieser Level ist erreicht, wenn die Intelligenz eines Menschen erreicht wurde, welches einem durchschnittlichen Intelligenzquotienten von 100 entspricht48. In Zukunft können AGI-Systeme Aufgaben erledigen, die in der Regel von Menschen erbracht werden können. Die AGI misst die Kompetenz eines Systems, seine Aufgaben und Ziele in einer umfassenden Menge in unbekannten Umwelten zu erreichen49. Auch wenn, wie in der Einleitung des Kapitels beschrieben, schon beeindruckende Ergebnisse von den KI erzielt worden sind, etwa „Watson“ von IBM, der die besten Jeopardy-Spieler schlagen konnte, stellen diese keine allgemeinen Intelligenzen im Sinne einer AGI dar. Diese Stufe der KI wird oft auch „Human-Level AI“ genannt50.

Um diese facettenreichen Aufgaben auf einem menschenähnlichen Niveau (oder besser) erfüllen zu können, ist eine Hardware, also die technische Voraussetzung eines Systems, nötig, die mit dem menschlichen Gehirn vergleichbar ist51. Dieses kann etwa eine Billiarde52 Kalkulationen pro Sekunde durchführen und braucht dafür lediglich nur 20 Watt Energie53. Der derzeit leistungsstärkste Computer, der chinesische Sunway TaihuLight, kann mit solch einer Rechenleistung schon heutzutage aufwarten, da er mit seiner Spitzenleistung 93 Billiarden Kalkulationen (93 Petaflops) in der Sekunde berechnen kann. Dafür benötigt er eine Fläche von 600 Quadratmeter, 22 Megawatt Energie inklusive Kühlung und kostete etwa 275 Mio. Dollar54 55. Diesen Energieaufwand verbrauchen zum Vergleich circa 12000 Haushalte im Jahr. Um diese Zahlen halbwegs greifbar zu machen: um eine Minute Rechenleistung dieser Maschine zu bewältigen, müsste die gesamte Erdbevölkerung 538 Jahre lang jede Sekunde eine Rechnung in einen Taschenrechner eingeben56. Diese Monstrosität zeigt, dass die Hardware, wenn auch mit enormen Ausmaßen, nicht das vorwiegende Problem bei der Entwicklung einer AGI darstellt, sondern die größten Schwierigkeiten viel mehr im Bereich der Software liegen57. Eine Programmierung zu entwickeln, die so kompliziert und fortgeschritten ist wie das menschliche Gehirn, stellt die Forscher und Entwickler vor enorme Herausforderungen. Es ist absehbar, dass derzeit, aller Petaflops und zukünftig auch Exaflops58 zum Trotz, eine solche Software nicht in naher Zukunft oder, nach Meinung vieler Wissenschaftler, eventuell niemals existieren wird.

Die Mehrzahl der Computerwissenschaftler ist sich einig, dass die vielversprechendste Methode, um dieses Ziel zu erreichen, eine KI ist. Ausgehend von der menschlichen Programmierung kann sich diese selbstständig verbessern und ihren ursprünglichen Code eigenständig optimieren. So wäre das System in der Lage, zunehmend intelligenter zu werden und kontinuierlich auf ihre eigene Intelligenz aufzubauen, was zu exponentiellen Steigerungen ihrer Intelligenz führen würde59. Die Entwicklung in der Computertechnologie beschäftigt sich jedoch nicht nur mit der Optimierung klassischer Computersysteme, sondern auch mit der Forschung von neuartigen Computern, sogenannte Quantencomputer: „[…]they create new opportunities for AI applications or unleash new unforeseen behaviours in computing systems“60. Auf diese hoch spannende, nicht minder komplexe Thematik kann im Zuge dieser wissenschaftlichen Arbeit jedoch nicht eingegangen werden, da sie sonst den Umfang sprengen würde. Zusammenfassend lässt sich feststellen, dass die Möglichkeiten einer AGI selbst in konservativen Szenarien atemberaubende Perspektiven eröffnen, es aber noch nicht absehbar ist, wann oder überhaupt dieser Level der KI erreicht werden kann.

Die höchste Stufe der KI ist die Artificial Superintelligence (ASI). Sie steht nochmals ein Level über der AGI und bezeichnet eine Intelligenz, die der menschlichen in jedweder Hinsicht überlegen ist. Dies schließt ebenso die wissenschaftliche Kreativität, den gesunden Menschenverstand sowie die Sozialkompetenz ein61. Durch zuvor genannte exponentielle Entwicklung der Intelligenz (Law of Accelerating Returns62 ), ist es möglich, dass dieser Zustand schon Wochen, Tage oder gar nur Stunden nach dem Erreichen der AGI auftritt. Der Mathematiker Good, der im Zweiten Weltkrieg die Enigma entschlüsselte, stellte schon 1965 fest: „Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat“63. Diese Kaskade wird im Allgemeinen auch Intelligenzexplosion genannt. Die Intelligenz der Maschine wächst exponentiell und ist ebenfalls in der Lage, neue intelligentere Maschinen mit uns unbekannter Software zu entwickeln. „Das würde zu einem sukzessiven Prozess der rekursiven Verbesserung führen. Mit jeder neuen Revision würde das System klüger werden und seine Fähigkeiten ausbauen64. Das Endresultat wird oftmals als Technologische Singularität beschrieben. „Es handelt sich um einen zukünftigen Zeitabschnitt, in dem der technische Fortschritt so schnell und seine Auswirkungen so tiefgreifend sein werden, dass das menschliche Leben einen unwiderruflichen Wandel erfährt“65.

Die Folgen der ASI lassen sich per definitionem – sie übersteigen die Intelligenz der Menschen – nur schwer prognostizieren. In kürzester Zeit könnte eine solche KI aufgrund besagter Intelligenzexplosion millionenfach intelligenter sein als ihre einstigen menschlichen Schöpfer. KI-Systeme könnten ihren „dienenden“ Charakter verlieren, da sie genau genommen sich nur dann weiterentwickeln können je autonomer wir Menschen sie werden lassen. Die KI wird zur „erkennenden“ Technologie und könnte zu ganz anderen Einschätzungen darüber gelangen, was per se „gut“ oder „schlecht“ ist. Im weiteren Sinn könnte es für solch ein System rationaler sein, gewisse Entscheidungen und Tatsachen vor uns geheim zu halten. Eine Abschätzung der Folgen im klassischen Sinne der angewandten Ethik kann deshalb nur sehr eingeschränkt stattfinden. Viele mit KI verbundene Ängste und Bedenken beziehen sich daher auf die „starke KI“66. Pessimisten gehen davon aus, „dass KI diejenige Technologie ist, von der aktuell und mittelfristig die höchsten Chancen aber auch Risiken ausgehen“67. Den Befürchtungen der Möglichkeit einer schnellen Eigenentwicklung von Maschinen, die sich selbst programmieren und verbessern können, teilen ebenfalls führende Experten wie Bostrom, Hawking oder Musk. Letzterer ist sich sogar sicher, dass KI zum Dritten Weltkrieg führen wird68. Des Weiteren warnen sie vor einer KI-Revolution, in der die Maschinen den Menschen letztendlich überlegen wären und vielleicht sogar zu dem Schluss kommen könnten, dass Menschen eine existenzielle Bedrohung für die KI-Systeme darstellen. Optimisten hingegen, wie etwa Schmidt, der ehemaliger CEO von Google, sind der Meinung, dass die Menschen von einer KI profitieren und diese eine positive Wirkung auf die Menschheit entfalten kann. Die KI würde uns unterstützen, „intelligenter machen und neue Lösungen für Probleme entwickeln“69.

Sicherlich ist es interessant Hypothesen aufzustellen und über mögliche Szenarien sowie deren Folgen für die Menschheit zu diskutieren, jedoch ist dies nicht zielführend, da es nach aktuellem Stand der Forschung und Entwicklung eher eine Glaubensfrage darstellt. Optimisten sehen das Positive in der Entwicklung einer KI, während Pessimisten das Negative hervorheben. Die Masterarbeit widmet sich jedoch nicht diesem Thema, sondern möchte vielmehr abseits hypothetischer Natur Fakten und Klarheit zu künstlichen Systemen schaffen. Die Verwirklichung der Entwicklungsstufen der AGI und ASI sind de facto zukünftig noch nicht absehbar.

Da mittlerweile eine Vielzahl an KI-Anwendungen existiert, gilt es vielmehr diese nach ihren Funktionen zu messen. Dem widmeten sich die chinesischen Wissenschaftler Feng, Yong und Ying 2017. Sie machten sich zur Aufgabe, populäre KI hinsichtlich ihrer Intelligenzleistung einzuordnen. Sie kamen zu dem Schluss, dass die KI AlphaGo von Google die momentan intelligenteste KI-Form ist, diese jedoch nur ein IQ von 47 aufweist und somit unter dem Niveau eines durchschnittlichen sechsjährigen Kindes liegt70. Auf den weiteren Rängen folgen drei chinesische KI mit Duer (IQ 37), Baidu (IQ 33) sowie Sogou (IQ 32). Bing (IQ 32), Microsofts Xiaobing (IQ 24) und SIRI (IQ 24) reihen sich dahinter ein. Das Ergebnis mag zunächst lächerlich klingen und die Intelligenz der Systeme degradieren, jedoch war dies keineswegs Absicht der chinesischen Forscher. Vielmehr sollte die Entwicklung der KI seit 2014 dokumentiert werden. Baidou erzielte innerhalb dieser kurzen Zeitspanne eine IQ-Steigerung von 40 Prozent, Sogou 47 Prozent und Googles AlphaGo sogar fast 80 Prozent. Die durchschnittliche Intelligenz eines Erwachsenen liegt bei 100 mit der Standardabweichung von 15, also zwischen 85 und 11571. Dies stellt nach wie vor einen großen Unterschied zu aktuellen KI dar. Nichtsdestotrotz ist das Niveau der digitalen Intelligenzen bereits höher als 99 Prozent der Lebewesen auf unserem Planeten. Des Weiteren skizzieren die Autoren zwei Szenarien für die zukünftige Entwicklung der KI (siehe Abbildung 1). Die chinesischen Wissenschaftler sind der Ansicht, dass die KI es entweder niemals schafft, das Intelligenzniveau eines Menschen (Kurve B) zu erreichen (Kurve C) oder in Form einer ASI die Menschen um ein Vielfaches übertreffen wird (Kurve A).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Zukünftige Entwicklung künstlicher und menschlicher Intelligenz

Quelle: Liu, F., Shi, Y., Liu, Y. (2017): Intelligence Quotient and Intelligence Grade of Artificial Intelligence, In: Annals of Data Science, June 2017, Nr.4, Issue 2, Springer Verlag, S.189.

Wann eine Form der AGI oder der ASI jedoch tatsächlich Wirklichkeit werden könnte, lassen Feng, Yong und Ying offen. Weitere Forscher und Experten sind ebenfalls vorsichtig bezüglich einer Prognose und verweisen auf die Tatsache, dass eine Einschätzung nur sehr schwer erfolgen kann.

In der Vergangenheit haben schon viele Computerwissenschaftler verschiedenste Prognosen abgegeben, allerdings musste die vorhergesagte Zeitlinie für die Entwicklung einer AGI kontinuierlich nach hinten verschoben werden. In den 1960er- und 1970er-Jahren war man aufgrund der bahnbrechenden Computerentwicklungen derart euphorisch, dass man glaubte, eine KI innerhalb einer Dekade entwickeln zu können, die der menschlichen Intelligenz entspricht, da man der Meinung war, dass die KI-Forschung im Gegensatz zur Evolution, die sich über Jahrtausende in langsamen und ungezielten sowie zum Teil verschwenderischen Fortschritten weiterentwickelte, deutlich schneller und zielgerichteter verlaufen würde72. Der Nobelpreisträger Simen sagte beispielsweise 1965 voraus, dass Maschinen in den nächsten 20 Jahren alle Aufgaben meistern könnten, zu denen auch Menschen fähig sind. Minsky, ein damaliger Vordenker im KI-Fachbereich, prognostizierte das Jahr 197573. Trotz ihres Wissens um die Forschung und Entwicklung der KI, zeigen diese Beispiele, dass eine Prognose über die zeitliche Einordnung, bis die KI einen bestimmten Level erreicht, kaum möglich ist. Nichtsdestotrotz gibt es stets Schätzungen, wann etwa eine KI, die dem Menschen ebenbürtig oder diesen gar übertrifft.

Das Center for Data Innovation geht davon aus, dass, sofern es überhaupt möglich ist, eine AGI-Entwicklung noch sehr viel Zeit benötigen wird. Zwar steigt die Rechenleistung exponentiell, doch wie zuvor beschrieben, stellt nicht die Hardware, sondern die Software das größte Problem dar74. Es sind zwar „dramatische Fortschritte im Bereich der KI geleistet worden, eine AGI könnte aber immer noch so weit entfernt sein wie damals [1960]“75. Im Bericht „Global Trends 2015-2025“ von AT Kearneys wird es für möglich gehalten, dass in den kommenden 30 Jahren eine AGI entwickelt werden kann. Bis 2075 könnte aus dieser AGI eine ASI verwirklicht werden. Mit dieser Prognose zeigt sich nicht nur ein Unterschied zu der zuvor genannten Hypothese, sondern ebenfalls eine signifikant andere Einschätzung zu der von Deloitte. Diese geht davon aus, dass die ASI nur sehr kurze Zeit nach der Entwicklung einer AGI möglich sein wird. Bei einer Umfrage vom KI-Forscher Bostrom unter Computerexperten und Wissenschaftlern, geht die Hälfte der Befragten davon aus, dass mit einer 50-prozentigen Wahrscheinlichkeit eine AGI bis 2040 erreicht wird. Bis 2065 wird die Wahrscheinlichkeit auf 90 Prozent geschätzt76. Die Mehrheit der Forscher sind des Weiteren der Meinung, dass, sofern eine hochentwickelte KI, die die meisten Tätigkeiten und Handlungen eines Menschen erledigen kann, erst einmal existieren sollte, diese mit 75-prozentiger Wahrscheinlichkeit innerhalb von 30 Jahren zu einer ASI entwickelt werden kann, die den Menschen in seinen Fähigkeiten um ein Vielfaches überlegen sein wird. Die Meinung von Deloitte, dass die ASI in nur zwei Jahren nach der AGI möglich sein wird, schätzen die Wissenschaftler nur auf etwa 10 Prozent77.

Abgesehen der unterschiedlichen Meinungen eines Zeithorizonts, sind sich die Wissenschaftler und Experten einig, dass eine digitale Intelligenz der menschlichen überlegen ist. Moderne Mikroprozessoren sind heutzutage schon in der Lage, millionenfach schneller als menschliche Neuronen Signale zu übertragen und die Hardware eines Computers kann beliebig modular erweitert werden und über bedeutend mehr Grundelemente verfügen als das menschliche Gehirn78. Die Software eines Supercomputers weist ebenfalls komparative Vorteile auf. Diese lässt sich leicht editieren bzw. replizieren, sodass die Vorzüge gleich auf mehrfache Weise parallel genutzt werden kann. Des Weiteren kann die KI in Verbindung mit Datenbanken jederzeit potentiell relevante Informationen abrufen79. In einigen Bereichen hat jedoch das menschliche Gehirn gegenüber der KI die Oberhand. Die Resilienz bei physikalischen Beschädigungen sowie die „graceful degradation“80. Diese besagt, dass das menschliche Gehirn die Fähigkeit besitzt „[…] to maintain limited functionality even when a large portion of it has been destroyed or rendered inoperative. The purpose of graceful degradation is to prevent catastrophic failure“81. Zukünftig kann dies bei künstlichen Systemen mittels cloudbasierten Softwareprogrammen oder Online-Backup-Partitionen umgangen werden, jedoch kann die KI den größten Vorteil des menschlichen Organismus nur schwer übertreffen: die Energieeffizienz82. Wie zuvor beschrieben wurde, benötigt das Gehirn etwa 20 Watt Energie und damit weniger als eine Glühbirne, während der chinesische Supercomputer 20 Megawatt braucht, was eine Steigerung von einer Million entspricht. Heutzutage und ebenfalls in naher Zukunft wird noch weitreichende Forschung und Entwicklung nötig sein, um einen direkten Zusammenhang zwischen thermodynamischer Effizienz und Komplexitätsreduktion auf der Ebene der Informationsverarbeitung herzustellen83.

Die ultimative Herausforderung für eine KI ist jedoch, in der physikalischen Welt zu agieren, da bei der Konstruktion eines Roboters alle Techniken und Methoden zusammenarbeiten müssen84. Die KI wird gewissermaßen physisch verkörpert und die kognitiven Prozesse an eine substantielle Entität gekoppelt, sodass eine Verankerung der KI im Hier und Jetzt der Welt stattfindet85. Mittels Visions- und Navigationssysteme sind die mobilen Roboter fähig, sich selbst und die Umgebung wahrzunehmen. Die KI ist nach Brooks in räumlicher und manipulativer Hinsicht situativ geworden, da die situierte Intelligenz „[…] is embedded in the world, and that does not deal with abstract descriptions, but through its sensors with the here and now of the world, which directly influences the behavior of the creature“86. Hesse beschreibt die Robotik als „Eintreten der Künstlichen Intelligenz in die reale Welt”87. Diese physischen Manifestationen der KI, die Roboter, sollen im kommenden Kapitel der wissenschaftlichen Arbeit detaillierter dargestellt werden.

3 Robotik

Dieses Kapitel widmet sich der physischen Verkörperung der KI: die Robotik. Im ersten Schritt wird die Robotik anhand verschiedener Ansätze näher definiert. Im Anschluss wird auf die Autonomie, den Erfolgsfaktor eines künstlichen Systems eingegangen. Zu guter Letzt wird die militärische Robotik erläutert, die sich in non-letale und letale Systeme aufgliedert.

3.1 Definitionsansätze der Robotik

Eine einheitliche Definition des vielfältig verwendeten Begriffs Roboter sucht man vergebens. Um 1920 wurde die Bezeichnung durch den tschechischen Autor Karel Capek in Bezug auf künstlich erschaffene Menschensklaven, die letztlich die gesamte Menschheit vernichten, eingeführt88. Das Wort Roboter wird vom Slawischen „robota“ abgeleitet, was Zwangsarbeit bzw. Fronarbeit bedeutet89. Seit diesem Neologismus wird dieser Begriff häufig benutzt und findet in zahlreichen weiteren literarischen Werken, besonders prominent in Isaac Asimovs Novellen, seinen Auftritt90. Der Mensch dient der Entwicklung von Robotern als Vorbild, da er ein „complex system“91 mit „goal-based mechanisms“92 sowie „collections of components“93 darstellt. Ein Roboter bezieht seine Anleihen vom Menschen aus mehreren Gründen. Die Welt, wie wir sie kennen, ist auf unsere physischen Anforderungen angepasst. Sofern eine Maschine unseren Gegebenheiten ähnelt, ist es infolgedessen nicht notwendig weitreichende Anpassungen an den Aktoren und Effektoren, den Extremitäten des Roboters, vorzunehmen. Des Weiteren genießt ein humnanoider Roboter, der uns in Gestik und Mimik gleicht, höhere soziale Akzeptanz bei den Menschen94. Dies baut die negativen Einstellungen des zukünftigen Gebrauchs eines Roboters ab und fördert die Mensch-Maschine-Interaktion, da der Roboter einem unbewusst vertraut vorkommt, da er dem menschlichen Abbild ähnelt.

Im oft zitierten wissenschaftlichen Standardwerk „Robotik“ von Christaller und Kollegen werden Roboter definiert als sensomotorische Maschinen, die die menschliche Handlungsfähigkeit erweitern und aus mechatronischen Komponenten, Sensoren und rechnerbasierten Kontroll- und Steuerungsfunktionen bestehen95. Eine weitaus pragmatischere und plastischere Definition stammt von Bekey, der Roboter als eine Maschine, „that senses, thinks, and acts“, die im Allgemeinen also wahrnehmen, denken und handeln kann96. Damit ein Roboter funktionieren kann, bedarf er Sensoren, um seine Umwelt wahrzunehmen, Prozessoren, um kognitive Leistungen zu erbringen ergo denken zu können, sowie Aktoren, um in seiner Umgebung Handlungen vollziehen zu können97. Um physisch existierende und präsente Roboter von virtuellen Robotern, sogenannten Cyber- oder Software Bots98, abzugrenzen, wurde zuvor genannte Definition um das Kriterium der physischen Manifestation, „a machine, situated in the world“99, ergänzt. Als Synonym und eng verknüpft sind die nicht-belletristischen Begriffe „Autonome Systeme“ oder „Agenten“. Aufgrund der Tatsache, dass sie teilweise deckungsgleich sind und sich durch eine mögliche Differenzierung damit neue Abgrenzungsprobleme ergeben, wird im Rahmen dieser Masterarbeit am Terminus Roboter festgehalten, da er sich bereits als wissenschaftlicher Sammelbegriff etabliert hat.

Wie gezeigt wurde, ist es schwierig, den Begriff Roboter eindeutig zu definieren. Eine weitere Möglichkeit nebst einer theoretischen Herangehensweise, ist die konzeptionelle Erfassung. Hier werden Analogien, ähnlich zum vorherigen Kapitel der Künstlichen Intelligenz, zwischen Menschen und Maschinen hergestellt. Federführend ist der britische Roboterforscher Winfield, der beispielsweise vorschlägt, dass die Steuerungssoftware und die Mikroprozessoren analog zum menschlichen Gehirn und dessen Bewusstsein zu betrachten ist100. Die Sensoren des Roboters, die es ihm ermöglichen seine Umwelt wahrzunehmen, sind mit unseren menschlichen fünf Sinnen gleichzusetzen. Der menschliche Körper bewegt sich aufgrund seiner Muskeln in Armen und Beinen. Der Roboter interagiert in seinem Umfeld mit entsprechenden Motoren und mechanischen Gliedmaßen. Nach Winfield ist ein Roboter eine „embodied artificial intelligence“101, also eine in einem physischen Körper integrierte künstliche Intelligenz. Diese Maschine kann seine Umwelt aktiv wahrnehmen und gezielt mit dieser autonom interagieren. Die Autonomie bzw. Unabhängigkeit des Roboters stellt einen essentiellen Faktor dar. Auf diese wird in Kapitel 3.2 ausführlicher eingegangen.

Roboter und andere computergestützte Systeme werden schon seit Jahrzehnten eingesetzt und vielfach verwendet – sei es im militärischen, kommerziellen oder auch im zivilen Kontext102. Die Tätigkeiten, die die Roboter in der Gegenwart ausführen, beschreiben Roboterforscher mit den berühmten vier D‘s der Robotik: dirty, dull, dangerous und dodgy103. Dies bedeutet, dass die Arbeiten in der Regel monoton (dull), dreckig (dirty), gefährlich (dangerous) und/oder knifflig (dodgy) sind. Roboter werden daher vorrangig in der Produktion verwendet, insbesondere in der Automobil- und Verpackungsindustrie. In der Regel handelt es sich bei diesen Robotern um flexible Greifarmsysteme, die vollautomatisch greifen, einlegen, entnehmen, kleben, montieren, schweißen, stanzen und/oder lasern können104. Mit diesen Systemen sollen möglichst kurze Durchlaufzeiten und höchste Präzision bei der Fertigung erreicht werden105. Der Einsatz derartiger Roboter geschieht neben Sicherheitsgründen vor allem aus ökonomischen Aspekten im Sinne der Kosteneffizienz und Gewinnmaximierung106. Weitere Faktoren sind die qualitative und quantitative Steigerung der Produkte, die Fertigungsflexibilität, also der einprogrammierte Wechsel eines Herstellungsprozesses, die Reduzierung des gebundenen Kapitals, vor allem Lager- und Bestandskosten, sowie die Minimierung der Produktionsfläche107. Exotische Beispiele wie der Mars-Rover, der von der amerikanischen Raumfahrtbehörde NASA zur Erkundung der Marsoberfläche eingesetzt wird, zeigt das enorme Potential eines Roboters108. Für kniffelige Aufgaben bzw. dodgy tasks, können als Beispiel Roboter in der Humanmedizin herangezogen werden109, etwa bei der Strahlentherapie oder Diagnostik. Künstliche Systeme werden ebenfalls als Assistenzsysteme im Operationssaal eingesetzt. Der Operationsroboter „da Vinci“ des US-Herstellers Intuitive Surgical, der auch in Deutschland eingesetzt wird, übernimmt bei bestimmten Arbeitsschritten die Steuerung der Werkzeuge110. Die Roboter sind in der Lage, schwierige medizinische Operationen präziser auszuführen als ihre menschlichen Kollegen111.

Jedenfalls führt die Entwicklung intelligenter Roboter zu einer engeren Kooperation zwischen Mensch und Maschine. Industrieroboter werden in Zukunft ihr definiertes, limitiertes Tätigkeitsfeld ausweiten und Hand in Hand mit menschlichen Kollegen zusammenarbeiten. Doch nicht nur am Arbeitsplatz, sondern auch im privaten Umfeld, übernehmen humanoide, also dem Menschen nachempfundene, Serviceroboter neben Assistenzfunktionen auch eine zunehmend soziale Rolle. Die zukünftige Generation intelligenter Entitäten muss sich dabei dynamisch an ihrem Nutzer und dessen Umgebung adaptieren können. Anstelle vorgegebener Abläufe und manueller Rekonfiguration treten maschinelles Lernen und algorithmische, strategische Planung der Handlungen auf Basis von User- und Umweltdaten in den Vordergrund112. Ersteres ist ein besonders wichtiges Forschungsfeld der KI. Maschinelles Lernen beschäftigt sich „mit der computergestützten Modellierung und Realisierung von Lernphänomenen“113. Dies bedeutet, das System fokussiert sich auf Algorithmen, die sich auf das Auffinden von Mustern in Daten konzentriert und diese nutzt, um beispielsweise Vorhersagen zu treffen. Mit dieser Analyse sollen autonome Systeme komplexe Aufgaben problemlos lösen, selbstständig lernen, eigenständig Entscheidungen treffen und ohne Einschreiten eines Menschen auf variable Abläufe reagieren können114. Sowohl in militärischen als auch in zivilen Anwendungsbereichen verfolgen Roboter das primäre Ziel, den Menschen zu entlasten und das Leben zu vereinfachen.

KI-Methoden lassen Roboter den „semantischen Kontext der Umgebung ermitteln, in dem sie sich befindet. Auf Basis des so erhaltenen Wissens erstellt die Maschine Handlungspläne, durch deren Ausführung sie selbstständig vorgegebene Handlungsziele erreichen kann. All diese Schritte müssen robust sein gegenüber Unsicherheit und Unvollständigkeit des Wissens und der Wahrnehmung der Roboterumgebung“115. Mit der Ausstattung von zahlreichen Sensoren und Interpretation der erhaltenen Daten wird es den robotischen Systemen erlaubt, ihre Umwelt wahrzunehmen. Mittels Exploration identifizieren Roboter entsprechende Handlungsoptionen, damit sie sich in sich verändernden, dynamischen Umgebungen sicher bewegen und agieren können. Bei der Entwicklung kognitiver Roboter zählen zu den wesentliche Herausforderungen „[…] die systematische Behandlung von Unsicherheiten, die semantische Modellierung der Umwelt, die Identifikation geeigneter Lernverfahren sowie die Gestaltung intuitiver Benutzerschnittstellen“116.

Heutzutage werden Roboter vielfältig eingesetzt. Sie sind aufgrund der zuvor genannten vier D‘s dazu prädestiniert, verschiedenste Tätigkeiten zu übernehmen, die zum einen den Menschen schlichtweg von monotoner Arbeit entlasten oder zum anderen in „[…] unwegsamen, unwirtlichen oder gefährlichen Gebieten“117 stattfinden. Ersteres kommt neben der industriellen Produktion durch Industrieroboter auch in der Hotellerie in Frage. Einfache Botengänge, aber auch komplexere Handlungen wie das Reinigen der Zimmer, könnte schon bald ein Roboter übernehmen118. Lebensunwirtliche Räume beziehen sich nicht nur auf die Erde, etwa bei der Handhabung atomarer Stoffe119, bei Unfällen in Kernkraftwerken wie Fukushima120 sowie in Wüstengebieten oder der Antarktis121, sondern auch auf das Weltall. Die NASA setzt schon sogenannte Robonauten, also humanoide Roboter, ein und lässt diese im Weltall agieren122. Diese sollen es zukünftig ermöglichen, ohne menschliche Besatzung weit entfernte Planeten zu erkunden und wertvolle Daten an die Erde zu transferieren123.

Die vier D‘s beschreiben den jetzigen Ist-Zustand der Rollenverteilung zwischen Mensch und Maschine. Mit dem einhergehenden technologischen Fortschritt, werden Roboter den Menschen zukünftig ebenfalls die Möglichkeit bieten, komplexe Analysen und Auswertungen inklusive Handlungsoptionen zu liefern. Schon heutzutage nehmen die künstlichen Systeme derartige Aufgaben wahr. Der „computational pathologist“ (C-Path) der Universität Stanford analysierte tausende Lungentumor-Röntgenbilder und konnte so zahlreiche unentdeckte Brustkrebserkran­kungen aufdecken124, während die Google KI DeepMind den Stromverbrauch der Google Datenzentren um etwa 15 Prozent senken konnte125. In Zukunft sollen künstliche Entitäten zusätzlich in der Lage sein, mit ihrer Umwelt zu interagieren und diese zu manipulieren. Dies erfordert einen hohen Grad an Autonomie und stellt ein qualitatives Merkmal eines künstlichen Systems dar und ist nach Knoll „unabdingbare Voraussetzung“126. In einer Welt, die von steter Dynamik zahlreicher externer Faktoren geprägt ist, ist es erforderlich, dass eine künstliche Entität sich an die nicht immer exakt vorhersehbaren Einflüsse anpassen kann, ohne den Menschen in seinen Tätigkeiten zu beeinträchtigen oder gar Schaden anzurichten127. Neben diesen externen Faktoren müssen sich Roboter des Weiteren auch auf sich verändernde menschliche Verhaltensweisen einstellen können. Um diese Herausforderungen zu meistern, bedarf es des Erfolgsfaktors der Autonomie128. Um was es sich bei diesem Begriff genau handelt, wird im folgenden Abschnitt näher behandelt.

3.2 Autonomie

Anhand der theoretischen Definition sowie der konzeptionellen Erfassung eines Roboters lässt sich erkennen, dass die Robotik ein komplexes Thema darstellt. Weitaus heikler und problematischer wird vor allem in Zukunft die Frage sein, wie hoch der Grad der Autonomie eines Roboters sein wird bzw. sein darf. Dies bezieht sich neben den konzeptionellen und technologischen Aspekten auch auf ethische und moralische Fragen129. Nichtsdestotrotz ist, wie zuvor gezeigt wurde, eine Autonomie nötig, um den Roboter selbstständig Aufgaben ausführen lassen zu können.

Maschinelle Autonomie kann definiert werden als „[…] die Fähigkeit, in einer realen Umgebung ohne jegliche Form externer Kontrolle über einen längeren Zeitraum zu handeln, jedenfalls nachdem die Maschine einmal aktiviert worden ist und zumindest in einigen Handlungsbereichen“130. Eine weitere, ähnliche Definition beschreibt die Autonomie „as the ability of a machine to execute a task, or tasks, without human input, using interactions of computer programming with the environment”131. Ein autonomes System, sei es Hardware oder Software, ist also in der Lage, ihm übertragene Aufgaben bzw. Funktionen eigenständig und ohne menschliche Kontrolle zu erledigen. Auch hier sei erwähnt, dass es nicht die eine, allgemeingültige Form der Autonomie gibt, sondern diese analog zur KI ein Kontinuum darstellt. Smithers beschreibt, dass es keine Unterscheidung der Autonomie zwischen Schwarz und Weiß gibt, sondern graduelle Abstufungen existieren, die „a necessary prerequisite for intelligent behaviour [are]: The more or less an agent, the more or less its potential for intelligent behavior”132.

Unterschieden werden Roboter zwischen nicht-autonomen sowie semi-autonomen und operational autonomen Robotersystemen133. Erste werden durch NARS (non-autonomous robot system) abgekürzt, letztere durch OARS (operational autonomous robot system). Die gegenwärtige Generation von Robotern besteht vorwiegend aus NARS. Diese Systeme zeichnen sich dadurch aus, dass sie mittel- oder unmittelbar von einem Menschen via Fernsteuerung verwendet oder kontrolliert werden. Drohnen hingegen besitzen im Gegensatz zu ihren bodengebundenen und maritimen robotischen Kollegen die Fähigkeit, autonom zu starten und zu landen134. Nichtsdestotrotz ist die Präsenz eines menschlichen Anwenders erforderlich, um abseits der Spionage und Überwachung auch Raketen abschießen zu können. Sie stellen somit ferngesteuerte Systeme dar, welche mit den militärischen anglistischen Fachbegriffen als in-the-loop Systeme beschrieben werden. Der Drohnennutzer ist Teil des „decision-making loop“135. Er trägt die Verantwortung für alle systemimmanenten Entscheidungsprozesse, ergo trifft alle Entscheidungen im und für das System.

NARS wurden in jüngerer Vergangenheit mittels intensiver Forschung und Entwicklung weiterentwickelt. Sogenannte tele-operated NARS (NARSto) werden heutzutage via Videolink kontrolliert136. Die Kontrollstation befindet sich dabei in sicherer Entfernung zum Einsatzgebiet der Drohne und meistens sogar auf den Militärstützpunkten in den jeweiligen Heimatländern selbst. Für die erfolgreiche Nutzung eines NARSto müssen jedoch zwei Voraussetzungen erfüllt sein: Bilder vom Einsatzort in möglichst hoher Qualität mittels hervorragender on-board Sensorik sowie eine stabile Funkverbindung, damit die Bildaufnahmen jederzeit an den Anwender weitergeleitet werden können, sodass dieser in der Lage ist, dem System Befehle ohne Verzögerungen zu übermitteln. Die amerikanischen Drohnen vom Typ Predator und dessen Nachfolger Reaper (siehe Abbildungen 2 und 3) sind die heutzutage am häufigsten in Kriegsgebieten eingesetzten Drohnen, die über einen Satellitenlink gesteuert werden137.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Seitenansicht MQ-9-Reaper auf der Holloman Air Force Base, USA

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Frontansicht inkl. Bewaffnung MQ-9-Reaper auf der Holloman Air Force Base, USA

Quelle: Tuck, J. (2016): Evolution ohne uns: Wird künstliche Intelligenz uns töten?, Plassen Verlag, S.262-263.

Um in Zukunft die Voraussetzung einer stabilen Funkverbindung zu umgehen, vor allem in unwegsamen Krisengebieten im Nahen Osten, sollen NARSto zu OARS weiterentwickelt werden. Diese führen Aufgaben autonom aus und sind auf keine direkte Steuerung eines menschlichen Nutzers angewiesen. Der Begriff der Autonomie ist allerdings hier problematisch. In der Rechts- und Moralphilosophie sowie in der politischen Philosophie und Theorie bedeutet der Begriff Autonomie, dass ein Akteur oder Handlungsträger aus eigenen Gründen handelt138. Er handelt nicht heteronom bzw. fremdbestimmt. Es drängt sich somit die philosophische Frage auf, ob es zukünftig möglich sein wird, einen Roboter mit einem derart hohen Level der KI zu erschaffen, also mindestens die Stufe der AGI, die in diesem Sinne autonom handeln kann. Doch was früher reine Science-Fiction und Phantasie war, erscheint aufgrund der Entwicklungen der letzten Jahre realistischer als zuvor gedacht.

Im weiteren Verlauf der Arbeit werden Roboter als operational autonom bezeichnet (OARS). Sie werden somit von den moralisch autonomen Akteuren abgegrenzt. Gransche und Kollegen charakterisieren diese Kontrolle in drei Stufen: operativ, strategisch und normativ139. Erste Ebene bezieht sich auf die Mittelwahl und deren Einsatz, zweite auf die strategischen Entscheidungen zur Zweckerfüllung und dritte im Sinne der allgemeinen Anerkennung bzw. Ablehnung der jeweiligen Zwecke140. Die meisten heutigen Systeme besitzen die operative und strategische Kontrolle. Operationale Autonomie bedeutet also nicht gleichzeitig, dass der Roboter die moralische Autonomie innehat, also im moralischen und rechtlichen Sinne autonom handelt. Die Gründe für die Handlungen des Roboters liegen in dessen Programmierung und wurden vom menschlichen Nutzer bestimmt. Letzterer muss auch nicht physisch anwesend sein, damit der Roboter seinen Aufgaben nachgeht. Resümierend lässt sich festhalten, dass der Roboter zwar autonom Entscheidungen treffen kann, jedoch nur dahingehend wann und auf welche Art und Weise seine Handlungen ausgeführt werden. Die normative Ebene, das Warum bzw. Hinterfragen, obliegt bei der operationalen Autonomie immer noch dem menschlichen Anwender des künstlichen Systems.

Der gewählte Begriff der operationalen Autonomie wirft die Frage auf, wie sich OARS von automatisierten Systemen unterscheiden. In der Definition der Autonomie vom Defense Science Board werden diese Terminologien gar vermischt: „a capability (or a set of capabilities) that enables a particular action of a system to be automatic or, within programmed boundaries, ‘self-governing’”141. Nach dieser Definition hätten schon bestehende Technologien bzw. Programme, wie beispiels­weise der Autopilot eines Flugzeugs, die Qualifikation der Autonomie erreicht. Zuvor genannte Self-Governance lässt sich nach dem Wissenschaftler und Ingenieur Thrun in drei Grade differenzieren: „automatic, automated and autonomous systems“142. Erstere reagieren mechanisch auf ihren sensorischen Input und agieren mittels vorher definierten Tätigkeiten. Hierzu zählen vor allem robotische Systeme in der Produktion und Manufaktur. Während sich die „automatic systems“ vergleichsweise einfach von den anderen beiden unterscheiden lassen, umso schwerer gilt dies für die „automated“ und „autonomous systems“. Sie sind beide fähig, in ihrem Handlungsspektrum variabel auf ihr Umfeld zu reagieren und verfügen über ein gewisses Maß an (Selbst-)Kontrolle ihrer Tätigkeiten. Einige Wissenschaftler und Experten sind der Meinung, dass autonome Systeme „[…] in terms of degree of self-governance view autonomous systems merely as more complex and intelligent forms of automated systems”143. Sie definieren diese beiden Systeme demnach nicht als komplett verschiedene Systeme, sondern nähern sich der problematischen Unterscheidung damit, dass autonome Systeme lediglich eine technisch höhere Entwicklungsstufe der automatisierten sind, also ein Kontinuum darstellen, welche komplexere Aufgaben intelligenter lösen können. Williams und andere Experten hingegen sehen dies anders und argumentieren anhand des Beispiels von Drohnen: „An autonomous system is capable of understanding higher-level intent and direction. From this understanding and its perception of its environment, such a system can take appropriate action to bring about a desired state. It is capable of deciding a course of action, from a number of alternatives, without depending on human oversight and control, although these may still be present. Although the overall activity of an autonomous unmanned aircraft will be predictable, individual actions may not be”144. Vor allem der letzte Satz der Definition zeigt den großen Unterschied zwischen beiden Systemen auf: automatisierte Systeme haben einen vorhersagbaren Output mit vorhersagbaren Handlungen, während autonome Systeme ebenfalls ein vorhersagbares Resultat aufweisen, jedoch sich die Art und Weise zur Zielerreichung aufgrund externer Faktoren, zum Beispiel das Wetter, stets ändern kann. Es zeigt sich also, dass die Frage der Autonomie bzw. die Differenzierung innerhalb dieser nicht einfach zu klären ist.

Doch was bedeutet diese konzeptuelle Herangehensweise für die Praxis? Auf der einen Seite kann argumentiert werden, dass es keinerlei Unterschiede zwischen den zuvor genannten Systemen gebe. OARS wären demnach lediglich Systeme, die einen sehr hohen Grad an Autonomie besitzen. Hinsichtlich der Differenzierung zwischen automatisierten und autonomen Systemen erklären Forscher, dass OARS, im Gegensatz zu automatisierten Systemen, über Lernmechanismen verfügen. Diese ermöglichen es dem System, in komplexen und sich verändernden Kontexten, sprich in ihrer unmittelbaren Umwelt, zu operieren. Diese Flexibilität erlaubt es dem operational autonomen Roboter, sein Verhalten variablen Umweltbedingungen anzupassen. In der Realität sind autonome Systeme fähig „[…] to transform data from the environment into purposeful plans and actions”145. Dies spiegelt sich in den drei zuvor genannten Kernkompetenzen eines Roboters wider: „sense, decide and act“146. Automatisierte Systeme sind dazu nicht, oder nur sehr eingeschränkt, in der Lage. Daher finden diese auch nur Anwendung in sehr stabilen Umweltbedingungen, etwa in einem Lagerhaus oder einer Produktionshalle.

Es lässt sich also resümieren, dass OARS durchaus von automatisierten Systemen differenziert werden können und beide jeweils eine eigene Klassifikation anhand der Autonomie aufweisen. Diese Unterscheidung erfolgt auf „differences of degree“. Eine ebenfalls durchaus interessante Differenzierung ist die Klassifizierung nach in-the-loop sowie on-the-loop und out-of-the-loop-Systemen147. NARS werden zu Ersteren gezählt. Der Mensch hat die Kontrolle inne und wählt die Aufgaben bzw. Ziele für das System und gibt den direkten Befehl zur Handlung. Beispiel hierfür ist etwa der israelische „Iron Dome“148. Dieses System erkennt feindliche Raketen, analysiert deren Flugbahn und leitet diese Informationen komprimiert an einen menschlichen Befehlshaber weiter, sodass dieser eine Entscheidung treffen kann149. On-the-loop Systeme besitzen einen höheren Grad an Autonomie und sind in der Lage, “[to] select targets and deliver force under the oversight of a human operator who can override the robots’ actions”150. Ein dafür schon im Einsatz befindliches System befindet sich an der Grenze zwischen Nord- und Südkorea. Das „SGR-A1“ von Samsung ist ein Wachposten-System, welches an der demilitärischen Zone stationär betrieben wird151. Mittels verschiedener Technologien, etwa Nachtsichtfunktion, Computer Vision und Pattern-Recognition, kann der Roboter Eindringlinge schon aus über drei Kilometern erkennen, Alarm auslösen und den feindlichen Akteur verbal warnen und auffordern, sich zu ergeben. Folgt er dieser Anweisung nicht, kann die Maschine mittels eines Operateurs tele-operational (NARSto) oder im „Automatic Mode“ selbstständig, ohne menschlichen Einfluss, ein Maschinengewehr auf das Ziel abfeuern (OARS)152.

Solche Systeme sind jedoch keinesfalls neu. Sie werden schon seit den 1980er auf Kriegsschiffen und U-Booten eingesetzt. Das „MK-15 Phalanx Close-In Weapon System“ (CIWS) kann ähnlich dem israelischen „Iron Dome“ ebenfalls Raketen und Torpedos erkennen und deren Bewegungsbahn analysieren153. Im Gegensatz zum System aus Israel ergreift es eigenständig Maßnahmen154. Eine Studie des Center for a New American Security aus dem Jahr 2015 schätzt, dass etwa 30 Staaten weltweit solche on-the-loop Systeme aktiv betreiben155. Eine offizielle Zahl sucht man leider vergebens, doch heutzutage sind vermutlich nicht nur die Anzahl der Staaten sowie die aktiven on-the-loop Systeme um einiges höher.

Obwohl diese schon seit mehreren Jahrzehnten bestehen und eingesetzt werden, zeigt sich dennoch ein Unterschied. Diese werden weiterentwickelt und on-the-loop Systeme stellen kurz- bis mittelfristig nur noch eine Übergangslösung dar. Die Vielzahl aktueller Defensivsysteme soll eine Umrüstung erfahren, indem sie zukünftig einen höheren Grad an Autonomie aufweisen, sodass der Mensch nicht wie früher eine Übersteuerungsmöglichkeit (override function) innehat, um dieses im Notfall stoppen zu können, sondern allenfalls eine Überwachungsfunktion besitzt. Defensivsysteme wie der „Iron Dome“ oder das „SGR-A1“ sind dazu prädestiniert, zukünftig autonom bzw. out-of-the-loop zu arbeiten. Ihre Vorteile liegen vor allem in den erforderlichen kurzen Reaktionszeiten mit einer möglichst geringen Latenz zwischen Erkennen der Gefahr und Ergreifen von Abwehrmaßnahmen. Des Weiteren sind sie dazu fähig, bei gleichzeitiger Zieldiskriminierung, also mehrfachen Beschuss und einer Vielzahl sich nähernder feindlicher Objekte, die Daten zu analysieren und eine kontinuierliche Zielführung im Sinne der Abwendung der Gefahr zu gewährleisten156.

Die heutige Forschung und Entwicklung konzentriert sich jedoch weniger auf Verteidigungssysteme, sondern vorrangig auf neue Angriffssysteme und will dort Fortschritte erzielen, sodass diese ebenfalls die Fähigkeit besitzen, aktiv autonom zu handeln. Diese robotischen Systeme entwickeln sich zu out-of-the-loop Systemen und „[…] [are] capable of selecting targets and delivering force without any human input or interaction”157. Ein Beispiel ist der russische Kampfpanzer „T-14“ von Armata, der von vielen Fachleuten als der aktuell fortschrittlichste der Welt gilt158. Er verfügt über einen semi-autonomen Waffenturm und soll zukünftig als erster Panzer vollkommen autonom agieren können159. Im Februar 2018 bestellte das russische Verteidigungsministerium zwei Bataillonen bis zum Jahr 2020160. Aufgrund des mit mehr als vier Millionen Euro teuren Stückpreises, fokussiert sich Russland allerdings mehr der Modernisierung bestehender Kampfpanzer161.

Damit in Zukunft Angriffssysteme fähig sind, autonom operieren zu können, bedarf es, im Gegensatz zu autonomen Defensivsystemen, erhöhter Fähigkeiten und Kompetenzen, da sie nicht nur auf gegebene Situationen reagieren (reaktiv), sondern diese proaktiv mitbestimmen und mitgestalten. Um diesen Fortschritt zu erreichen, dient den Forscher und Entwicklern wieder der Mensch als Vorbild: zukünftig soll die Software dem menschlichen Gehirn nachempfunden werden. Dies hat den großen Vorteil der aktiven Selbst-Reorganisation162. Das bedeutet, dass es sich selbst restrukturieren und anpassen kann, um Fehlfunktionen im Gehirn zu vermeiden bzw. auszugleichen. Die heutige Computersoftware verfügt aus heutiger Sicht noch nicht über diese Fähigkeit und führt Programme im Prinzip konservativ, sprich unverändert, aus. Die maschinelle Datenverarbeitung und Wahrnehmung, ist nach aktuellem Entwicklungsstand ein Prozess binären Vergleichens: wichtig oder unwichtig, beachten oder ignorieren, priorisieren oder kategorisieren. Für die Gegenwart und nähere Zukunft bedeutet dies für die zunehmende Automatisierung eines Roboters, dass er Entscheidungen nur auf Basis bekannter Datenmengen treffen kann. Prinzipiell und qualitativ wird die Autonomie des Roboters dadurch auf das antizipierende Denken der menschlichen Programmierer limitiert163. Diese Grenzen können jedoch mit der Entwicklung einer KI umgangen werden. Eine KI besitzt Lernmechanismen, kann sein Verhalten analysieren und sich eigenständig optimieren, notfalls den ursprünglichen Quellcode des (menschlichen) Programmierers umschreiben sowie anpassen und letztendlich besagte Limitierung beseitigen. Das Intelligenzniveau, welche das menschliche Gehirn über die Jahrmillionen während der Evolution erreicht hat, kann die KI mittels Billiarden Rechenoperationen pro Sekunde in vergleichsweise kürzester Zeit erlangen. Damit kann der Mensch nicht mithalten erachtet Hawking: „Humans, who are limited by slow biological evolution, couldn't compete [with AI] and would be superseded”164.

Diese Lernmechanismen mögen effektiv und effizient sein, allerdings bergen sie auch weitreichende Gefahren in sich. Das Verhalten der Maschine kann nicht mehr vollständig prognostiziert werden. Das US-Department of Defense beschreibt die Autonomie daher wie folgt: „an autonomous system is able to make a decision based on a set of rules and/or limitations. It is able to determine what information is important in making a decision”165. Vor allem der letzte Satz impliziert, im Vergleich zu automatisierten Systemen, dass autonome Systeme nicht immer vorhersagbare Aktionen tätigen, da sie in eigenem Ermessen die Informationen zu Rate ziehen, die ihnen geeignet erscheinen. Diese autonome Entscheidungsfindung erlaubt es dem Roboter, in einem gewissen Handlungsspielraum zu operieren. In erster Linie ist der menschliche Programmierer dafür verantwortlich, dass die Tätigkeiten konsistent mit den Regeln, Strategien sowie mit den Werten und Normen der Gesellschaft im Einklang sind. Im Laufe der Zeit könnte sich die Software allerdings vollständig ändern und wäre für Externe, sprich menschliche Programmierer, ex post nicht mehr umzuprogrammieren. Mit der Rechenleistung von Billiarden von Operationen pro Sekunde, könnte sich diese Tatsache zudem sehr schnell einstellen. Sofern der Roboter in einem im Vorhinein festgelegten Freiraum seine Aufgaben frei bestimmbar ausführen kann, beispielsweise ein Industrieroboter, verfügt er nicht über die moralische Autonomie. Er sollte zudem nicht als freier Handlungsakteur im metphysischen Sinn angesehen werden. Bei Robotern, die jedoch nicht in einem bestimmten Handlungsspektrum agieren, sondern sich frei in ihrer Umwelt bewegen, diese wahrnehmen und gar manipulieren können, also zuvor genannte out-of-the-loop Systeme, sind die Auswirkungen der robotischen Lernmechanismen um ein Vielfaches folgenschwerer und risikobehafteter. Zwar wird in diesem Kontext zumeist der Konjunktiv verwendet, nichtsdestotrotz muss diese Sichtweise in der Forschung und Entwicklung berücksichtigt werden.

Systeme, die ohne jeglichen Einfluss der Menschen die Welt manipulieren dürfen, verfügen, wie zuvor dargestellt, über den höchsten Grad an Autonomie und weisen parallel das größte Konfliktpotential auf. US-Militärstratege Adams warnt „in the future humans would be reduced to making only initial policy decisions about war, and they would have mere symbolic authority over automated systems”166. Docherty geht einen Schritt weiter und prophezeit in dem Bericht der Human Rights Watch: „by eliminating human involvement in the decision to use lethal force in armed conflict, fully autonomous weapons would undermine other, nonlegal protections for civilians”167. Out-of-the-loop Systeme, vor allem im militärischen Kontext, besitzen die größte Brisanz, erhitzen zunehmend die Gemüter und fachen kontroverse Diskussionen an. Wobei es sich bei diesen Systemen jedoch genau handelt, darüber wird im folgenden Teil der Arbeit detaillierter eingegangen.

3.3 Militärische Robotik

Die Kriegsführung im 21.Jahrhundert ist einer bedeutsamen Alteration unterworfen. Diese Transformation betrifft nicht nur die Streitkräfte in einem breiteren politischen und gesellschaftlichen Umfeld, sondern im Speziellen die Streitkräfte per se168. Dies ist unter anderem der Entwicklung von hochmodernen Waffen, vor allem computergestützte Waffensysteme und Roboter im Einsatz militärischer Operationen, geschuldet. „Warfare will continue and autonomous robots will ultimately be deployed in its conduct“169. Die militärische Nutzung von Robotern ist im ersten Jahrzehnt dieses Jahrhunderts bereits stark gestiegen. Sie werden auf dem Landweg, in der Luft und unter Wasser verwendet. Vorrangig werden sie zur Spionage und Aufklärung, aber auch zur feindlichen Bekämpfung und Kampfmittelräumung, etwa bei Minen und Sprengfallen, eingesetzt. In Zukunft wird die Anzahl robotischer Systeme nach diversen Prognosen weiter exponentiell zunehmen. Die Investitionen haben sich seit 2010 (2,4 Mrd. US-Dollar) bis 2015 verdreifacht (7,5 Mrd. US-Dollar)170 und werden sich, nach einem Bericht der Boston Consulting Group bis 2025 auf circa 16,5 Milliarden US-Dollar, mehr als verdoppeln171. Einem weiteren Bericht nach beziffert das Investitionsvolumen des militärischen Robotikmarktes bis zum Jahr 2022 knapp 31 Milliarden US-Dollar172. Weitere vier Jahre später wird vorhergesagt, dass der Markt 2026 etwa 245 Milliarden US-Dollar ausmachen soll173, welches eine achtfache Steigerung in dieser kurzen Zeitspanne bedeuten würde. Auch wenn diese Zahlen nicht fundiert und deshalb mit Vorsicht zu genießen sind, zeigen sie dennoch das enorme Wachstumspotential des Marktes. Anhand der Reporte lassen sich zudem differente Meinungsbilder des zukünftigen militärischen Robotikmarktes wiedererkennen. Die Investitionsdynamik weist hohe quantitative Schwankungen auf: von 16 bis 31 oder gar fast 250 Milliarden US-Dollar ist die Rede. Trotz der unterschiedlichen Annahmen geht die große Mehrheit von einem exponentiellen Wachstum des militärischen Robotikmarktes mit außergewöhnlichem Entwicklungspotential aus.

Seit der regelmäßigen Verwendung von unbemannten Luftfahrzeugen, in Englisch Unmanned Aircraft System (UAS) oder Unmanned Aerial Vehicle (UAV)174, seitens der Vereinigten Staaten, vor allem bei geheim gehaltenen Einsätzen in Pakistan 2004 im Rahmen des „War on Terror“175, wurden UAV, nebst fortschreitender Entwicklung und dessen militärischem Einsatz, zum Gegenstand einer öffentlichen Debatte. Es ist absehbar, dass sich durch den vermehrten Einsatz von autonomen Waffensystemen diese Diskussion zukünftig weiter ausbreiten und aufgrund der sensiblen Thematik kontrovers geführt werden wird. Ein besonders heikles Thema stellt, wie schon im Unterkapitel der Autonomie umrissen, die robotische Waffentechnologie dar. Das Ziel dieser Technologie ist es, in Zukunft Maschinen mittels KI ohne menschliche Beeinflussung agieren und entscheiden zu lassen, im Gegensatz zu gegenwärtigen im Einsatz befindenden UAS, die immer noch von einem menschlichen Part kontrolliert oder zumindest bewacht werden. In naher Zukunft werden militärische Systeme die menschlichen Streitkräfte zunehmend entlasten, sie mittelfristig ablösen und langfristig diese vollkommen ersetzen.

Auf dem Weg dorthin stellen sogenannte Assistenzsysteme das Bindeglied zwischen Automatisierung von sich wiederholenden Aufgaben und Prozessen und einer maßgebenden Autonomie dar. Ihre Aufgabe ist es, den Anwender dabei zu unterstützen, um komplexe Situationen zu beherrschen und mittels Übernahme von einzelnen Handlungsabläufen dessen Entscheidungen zu vereinfachen. Diese Systeme wirken „[…] prozess- und aufgabenbegleitend sowie diagnostisch, übernehmen jedoch keine prozessbestimmende Rolle. Die Prozess- und Aufgabenbegleitung tritt in Form von Entscheidungsassistenzen und der Unterstützung der Vor- und Nachbereitung einer Entscheidung in Erscheinung“176. Die Funktionen verrichten die Systeme in Form von komplexen Algorithmen. Diese digitalen Programme fungieren wie dynamische Filter, die einerseits zwischen Sensorik und Anwender und andererseits zwischen Anwender und Manipulator vermitteln. Sie dienen somit als Schnittstelle und präsentieren eine komplexe Datenmenge vereinfacht und stellen diese dem Nutzer verständlich dar. Die aufgrund der Komplexitätsreduktion getroffenen menschlichen Entscheidungen setzen die kognitiven Systeme dann in komplexe technisch-physikalische Abläufe um (Komplexitätsexpansion)177. Das US-Kampfflugzeug „F-16“ besitzt beispielsweise zahlreiche solche Assistenzsysteme178. Erteilt der Pilot den Abschussbefehl, wählt das System selbstständig den richtigen Zeitpunkt, die am besten geeignete Waffenmunition und verzögert das Auslösen, sofern ungünstige Einsatzparameter auftreten. Dem Assistenten ist es also möglich, die menschliche Entscheidung zu überprüfen und quanti­tativ zu beeinflussen, jedoch niemals qualitativ im Sinne einer alternierenden Zielauswahl bzw. vollständigen Negation des Befehls des Menschen.

Bisher beschränken sich Assistenzsysteme auf die sensorische Verarbeitung, also die Erfassung von eingehenden Daten, sowie auf die Wahrnehmung dieser Daten, indem sie Schlussfolgerungen ziehen und dem Anwender etwaige Handlungsalternativen anbieten179. Teilweise verfügen heutige Mensch-Maschine-Systeme über die Fähigkeit einer Reaktionsauswahl im Falle einer automatisierten Handlungsausführung. Dies wird vor allem in Situationen schlagend, wenn der Nutzer selbst nicht fähig ist, schnell genug auf eine Gefahrensituation zu reagieren. Beim „F-16“ hilft ein automatisierter Abwehrmechanismus, den Einschlag einer feindlichen Rakete zu verhindern. Bis auf diese passiven Mechanismen (Verteidigungssystem) treffen nach gegenwärtigem Stand Assistenzsysteme keine aktive Entscheidung hinsichtlich eines Angriffssystems. Dies wird sich jedoch in Zukunft, vor allem in Hinblick zunehmender technologischer Entwicklung und immer höherer Komplexität des Handlungsspektrums, ändern.

[...]


1 Hengster, S. (2018): Die Drohnen heben ab, Pressemitteilung Branchenradar DACH Region, Januar 2018, https://www.branchenradar.com/PDF.aspx?typ=presse&id=7858.

2 Hautzinger, P. (2017): Drohnen: Was man über das „unbemannte Luftfahrzeug“ wissen sollte, In: Niederösterreichische Wirtschaft, Nr.21, Mai 2017, S.25.

3 Guillaume, M., Christen, M., Moll, K., Lenhart, P.M., Jablonowski, M. (2018): Ferngelenkte fliegende Kisten, TA-SWISS, Bern 2018, TA 66A/2018, S.12.

4 Dambowsky, F., Stolz, M., Biella, M., Eißfelt, H. (2018): Einsatz ziviler Drohnen in Deutschland: DLR-Studie zeigt Zustimmung für Rettungs- und Forschungseinsätze sowie bestehende Vorbehalte, Dezember 2018, https://www.dlr.de/dlr/desktopdefault.aspx/tabid-10081/151_read-31542/#/gallery/33034.

5 Torgersen, H. (2018): TA 18 - Technikfolgenabschätzung und Normativität, In: TaTUP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, Nr.27(3), oekom Verlag, München, S.71.

6 Dambowsky, F., Stolz, M., Biella, M., Eißfelt, H. (2018): DLR-Studie zur Akzeptanz unbemannter Luftfahrzeuge, Deutsches Zentrum für Luft- und Raumfahrt (DLR), https://www.dlr.de/dlr/Portaldata/1/Resources/documents/2018/infas_Praesentation_DLR_5872_.pdf, S.27f.

7 Turing, A.M. (1950): Computing Machinery and Intelligence, In: Mind, New Series, Vol.59, Nr.236, Oktober 1950, S.433-460.

8 Dürand, D. (2016): Aufbruch in die Robo-Zukunft, Dezember 2016, https://www.wiwo.de/technologie/digitale-welt/serie-kuenstliche-intelligenz-aufbruch-in-die-robo-zukunft/14885882-all.html.

9 Fink, G.A. (2013): Mustererkennung mit Markov-Modellen: Theorie, Praxis, Anwendungsgebiete, Springer-Verlag, S.13.

10 Weiss, L. (2014): America Inc.?: innovation and enterprise in the national security state, Cornell University Press, S.158.

11 Gliozzo, A., Ackerson, C., Bhattacharya, R., Goering, A.,Jumba, A (2017): Building Cognitive Applications with IBM Watson Services, Nr.1, IBM Redbooks, S.30.

12 National Intelligence Council - Office of the Director of National Intelligence (2012): National Intelligence Council Global Trends 2030: Alternative Worlds. http://globaltrends2030.files.wordpress.com/2012/11/global-trends-2030-november2012.pdf, S.86.

13 Bedner, M. (2013): Cloud Computing: Technik, Sicherheit und rechtliche Gestaltung, Forum Wirtschaftsrecht, Nr.14, Kassel University Press, S.33f.

14 Kroker, M. (2017): Weltweite Datenmengen verzehnfachen sich bis zum Jahr 2025 gegenüber heute, April 2017, http://blog.wiwo.de/look-at-it/2017/04/04/weltweite-datenmengen-verzehnfachen-sich-bis-zum-jahr-2025-gegenueber-heute.

15 Internet World Stats 2017 – Internet World Penetration Rates by Geographic Regions, 31.12.2017, Miniwatts Marketing Group, https://www.internetworldstats.com/stats.htm.

16 Internet World Stats 2017 – Internet Usage Statistics, The Internet Big Picture, 31.12.2017, Miniwatts Marketing Group, https://www.internetworldstats.com/stats.htm.

17 Purdy, M., Daugherty, P. (2016): Why artificial intelligence is the future of growth, Accenture, S.11f.

18 IDC-Studie: BIG DATA in Deutschland 2012 – Unternehmen stehen noch ganz am Anfang, Frankfurt am Main.

19 Cambridge Advance Learner’s Dictionary (2018): Definition Intelligence, https://dictionary.cambridge.org/us/dictionary/english/intelligence.

20 Duden (2018): Definition Intelligenz, https://www.duden.de/rechtschreibung/Intelligenz.

21 Kurzweil, R., Richter, R., Schneider, M.L. (1990): The age of intelligent machines, Nr.579, Cambridge, MIT Press, S.7.

22 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.2.

23 Russell, S.J., Norvig, P. (2016): Artificial intelligence: a modern approach, Malaysia, Pearson Education Limited, S.3.

24 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.3.

25 Horvitz, E. (2014): One Hundred Year Study on Artificial Intelligence: Reflections and Framing, S.6.

26 Nilsson, N.J. (2010): The Quest for Artificial Intelligence: A History of Ideas and Achievements , Cambridge University Press, UK, Cambridge, Vorwort, XIII.

27 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.3.

28 Technology Review (2016): AI Drives Better Business Decisions, MIT Technology Review Insights, https://www.technologyreview.com/s/601732/ai-drives-better-business-decisions.

29 Schmitz, R., Litzel, N. (2017): Augmented Intelligence - nehmen uns Daten das Denken ab?, Dezember 2017, https://www.bigdata-insider.de/augmented-intelligence-nehmen-uns-daten-das-denken-ab-a-651230.

30 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.4f.

31 Häckermann, T. (2016): Artificial Intelligence: Bringing machines into the boardroom, April 2016. https://www.sherpany.com/en/blog/2016/04/21/artificial-intelligence-bringing-machines-boardroom.

32 Sprenger, F., Engemann, C. (2015): Internet der Dinge: Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt, transcript Verlag, Bielefeld, S.9.

33 Bergmann, M. (2017): Mehr als die Summe ihrer Teile: Über die Bausteine künstlicher Intelligenz, September 2017, https://www.capgemini.com/de-de/2017/09/die-bausteine-kuenstlicher-intelligenz.

34 Steinbock, H.J. (2013): Potentiale der Informationstechnik: state of the art und Trends aus Anwendungssicht, BG Teubner, Stuttgart, S.247f.

35 Horvitz, E. (2014): One Hundred Year Study on Artificial Intelligence: Reflections and Framing, S.3f.

36 Zsolnai-Fehér, K. (2015): Google DeepMind's Deep Q-learning playing Atari Breakout, Research Division of Computer Graphics, Technische Universität Wien, https://www.youtube.com/watch?v=V1eYniJ0Rnk.

37 Bogon, T. (2013): Agentenbasierte Schwarmintelligenz, Springer Verlag, S.4.

38 Defense Science Board, Task Force Report (2012): The Role of Autonomy in DoD Systems, Washington D.C., Office for Defense for Acquisition, Technology and Logistics, Juli 2012, S.31.

39 ebd., S.38f.

40 ebd., S.44.

41 ebd., S.49.

42 Verordnung der Bundesregierung vom 9. Jänner 1979 über die Allgemeinen Dienstvorschriften für das Bundesheer (ADV), StF: BGBl. Nr. 43/1979, §7.

43 Defense Science Board, Task Force Report (2012): The Role of Autonomy in DoD Systems, Washington D.C., Office for Defense for Acquisition, Technology and Logistics, July 2012, S.50.

44 Atkinson, R. (2016): ‘It's Going to Kill Us!’ And Other Myths About the Future of Artificial Intelligence, Information Technology & Innovation Foundation, S.8.

45 Siau, K., Yang, Y. (2017): Impact of Artificial Intelligence, Robotics, and Machine Learning on Sales and Marketing. In: Twelve Annual Midwest Association for Information Systems Conference (MWAIS 2017), S.18.

46 Deloitte (2016): Artificial Intelligence Innovation Report, London, Springwise Intelligence Ltd., Deloitte 2016, https://www2.deloitte.com/content/dam/Deloitte/de/Documents/Innovation/Artificial

47 ebd, S.4.

48 Falkenberg, M (2015): Der werdende Mensch: Durch Wissen und Bewusstsein zum Erfolg, Books on Demand, S.80.

49 Legg, S., Hutter, M. (2005): A Universal Measure of Intelligence for Artificial Agents. In: International Joint Conference on Artificial Intelligence, Nr.19, Lawrence Erlbaum Associates Ltd., S.1509.

50 Goertzel, B. (2007): Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil, In: Artificial Intelligence, Nr.171(18), S.1161-1173, S.1162.

51 Hutter, M. (2007): Universal Algorithmic Intelligence: A Mathematical Top-Down Approach, In: Artificial General Intelligence, Nr.6(2), Springer Verlag, S. 227-290.

52 1 Billiarde = 1 Mio. Milliarden = 10^15.

53 Tretter, F., Grünhut, C. (2010): Ist das Gehirn der Geist?: Grundfragen der Neurophilosophie, Hogrefe Verlag, S.181.

54 Strohmeier, E. (2017): The Top 500 list of the fastest supercomputers, November 2017, https://www.top500.org/lists/2017/11.

55 Stiller, A. (2017): Supercomputer: China wieder first, America second, November 2017, https://www.heise.de/newsticker/meldung/Supercomputer-China-wieder-first-America-second-3889197.html.

56 Freitag, J. (2017): Eine Trillion Rechnungen in der Sekunde, Februar 2017, http://www.faz.net/aktuell/wirtschaft/macht-im-internet/tianhe-3-ist-der-1-exaflop-rechner-was-bedeutet-das-14886992.html.

57 Bartelme, N. (2013): GIS Technologie: Geoinformationssysteme, Landinformationssysteme und ihre Grundlagen, Springer-Verlag, Berlin, Heidelberg, S.224.

58 Zhihao, Z. (2017): China to jump supercomputer barrier, Februar 2017, China Daily, http://www.chinadaily.com.cn/china/2017-02/20/content_28259294.htm.

59 Deloitte (2016): Artificial Intelligence Innovation Report, London, Springwise Intelligence Ltd., Deloitte 2016, https://www2.deloitte.com/content/dam/Deloitte/de/Documents/Innovation/Artificial-Intelligence-Innovation-Report-2018-Deloitte.pdf, S.3.

60 Yirka, B. (2016): Researchers create organic nanowire synaptic transistors that emulate the working principles of biological synapses, TechXplore, https://techxplore.com/news/2016-06-nanowire-synaptic-transistors-emulate-principles.html.

61 Schmidhuber, J. (2012): Philosophers & Futurists, Catch Up! Response to The Singularity, In: Journal of Consciousness Studies, Nr.19(1-2), S.173-182, S.177.

62 Kurzweil, R. (2001): The Law of Accelerating Returns, Essay, März 2001.

63 Good, I.J. (1966): Speculations concerning the first ultraintelligent machine, In: Advances in computers, Nr.6, Elsevier, S.31-88, S.33.

64 Ford, M. (2015): Aufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird und wie wir darauf reagieren müssen, Kulmbach, S.16.

65 Kurzweil, R. (2015): Menschheit 2.0: die Singularität naht, Lola Books, S.1.

66 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.4.

67 Metzinger, T. (2017): Fukushima der künstlichen Intelligenz, In: Unsere digitale Zukunft, Springer-Verlag, Berlin, Heidelberg, S.83-95, S.87f.

68 Musk, E. (2017): “China, Russia, soon all countries w strong computer science. Competition for AI superiority at national level most likely cause of WW3 imo”, September 2017, https://twitter.com/elonmusk/status/904638455761612800.

69 Laudicina, P.A., Peterson, E.R. (2015): Global Trends 2015-2025: Divergence, Disruption, and Innovation - twelve key trends will shape the global outlook and operating environment through 2015, AT Kearney, S.23.

70 Feng, L., Yong, S., Ying, L. (2017): Intelligence Quotient and Intelligence Grade of Artificial Intelligence, In: Annals of Data Science, June 2017, Nr.4(2), Springer-Verlag, S.179-191, S.181.

71 Remschmidt, H., Becker, K. (2011): Kinder-und Jugendpsychiatrie: eine praktische Einführung, Georg Thieme Verlag, S.122.

72 Shulman, C. Bostrom, N. (2012): How Hard Is Artificial Intelligence? Evolutionary Arguments and Selection Effects, In: Journal of Consciousness Studies, Nr.19(7-8), S.103-130, S.111.

73 Atkinson, R. (2016): ‘It's Going to Kill Us!’ And Other Myths About the Future of Artificial Intelligence, Information Technology & Innovation Foundation, S.10.

74 Eliasmith, C. (2015): On the Eve of Artificial Minds, In: Metzinger, T., Widt, J.M. (Hrsg.), Open mind, MIND Group. (http://open-mind.net/papers/@@chapters?nr=12).

75 Castro, D., New, J. (2016): The promise of artificial intelligence, Center for Data Innovation, S.5.

76 Müller, V.C., Bostrom, N. (2016): Future progress in artificial intelligence: A survey of expert opinion, In: Fundamental issues of artificial intelligence, Springer Verlag, S. 555-572, S.564.

77 ebd., S.564.

78 Bostrom, N. (2014): Superintelligence: Paths, Dangers, Strategies. Oxford University Press, S.60.

79 ebd., S.60f.

80 Sengupta, B., Stemmler, M. (2014): Power Consumption During Neuronal Computation, In: Proceedings of the IEEE, Nr.102(5), S.738-750, S.741.

81 Rouse, M. (2007): Graceful degradation definition, März 2007, http://searchnetworking.techtarget.com/definition/graceful-degradation.

82 Sengupta, B., Stemmler, M. (2014): Power Consumption During Neuronal Computation, In: Proceedings of the IEEE, Nr.102(5), S.738-750, S.741.

83 Friston, K. (2010): The Free-Energy Principle: A Unified Brain Theory?, In: Nature Reviews Neuroscience, Nr.11, S.127-138, S.128.

84 Görz, G., Nebel, B. (2015): Künstliche Intelligenz. Fischer Verlag, S.13.

85 Rammert, W. (2003): Die Zukunft der künstlichen Intelligenz: verkörpert, verteilt, hybrid, Berlin, TUTS-WP-4-2003, S.6.

86 Brooks, R.A. (2002): Robot: The future of flesh and machines, London, UK, Penguin Books, S.51f.

87 Hesse, S. (1999): Lexikon künstliche Intelligenz: 1300 Begriffe von A bis Z zum maschinellen Denken - für Lehre, Studium und Beruf, Renningen-Malmsheim, S.195.

88 Capek, K. (1922): R.U.R., Prag, Lipsko, Orbis.

89 Beck, S. (2009): Grundlegende Fragen zum Umgang mit der Robotik, In: Juristische Rundschau (JR), Nr.6/2009, S.225-230, S.226.

90 Asimov, I. (1983): The Complete Roboter, London.

91 Fong, T., Nourbakhsh, I.R., Dautenhahn, K. (2002): A survey of socially interactive robots: concepts, design, and applications, In: Robotics and Autonomous Systems, Nr.42(3-4), S.1-58, S.19.

92 Šabanović, S. (2010): Emotion in Robot Cultures: Cultural Models of Affect in Social Robot Design, In: Proceedings of the 7th International Conference on Design and Emotion, Chicago, October 2010, S.26.

93 Brooks, R.A. (2002): Flesh and Machines: How Robots Will Change Us, New York, Pantheon Books, S.9.

94 Brauer, R.R. (2017): Akzeptanz kooperativer Roboter im industriellen Kontext, Universitätsverlag Chemnitz, S.34.

95 Christaller, T., Decker, M., Gilsbach, J.M., Hirzinger, G., Lauterbach, K., Schweighofer, E., Schweitzer, G., Sturma, D. (2001): Robotik, Berlin, S.18.

96 Bekey, G.A. (2005): Autonomous Robots, Cambridge, S.2.

97 Bekey, G.A. (2012): Current Trends in Robotics, In: Lin, P., Abney, K., Bekey, G.A. (Hrsg.), Robot Ethics, Cambridge, S.17-34, S.18.

98 Kerr, I.R. (2004): Bots, Babes and the Californication of Commerce, In: University of Ottawa Law and Technology (UOLTJ), 01/2004, S.284-324, S.306ff.

99 Bekey, G.A. (2012): Current Trends in Robotics, In: Lin, P., Abney, K., Bekey, G.A. (Hrsg.), Robot Ethics, Cambridge, S.17-34, S.18.

100 Winfield, A. (2012): Robotics: A very short introduction, Oxford University Press, S.6f.

101 ebd., S.8.

102 Scholer, M. (2019): Branchenspezifische Applikationen der MRK, In: Franke, J. (Hrsg.), Handbuch Mensch-Roboter-Kollaboration, Carl Hanser Verlag, München, S.361-376 ,S.361f.

103 Strachan, H., Scheipers, S. (2011): The changing character of war, Oxford University Press on Demand, S.338.

104 Brühl, V. (2015): Wirtschaft des 21. Jahrhunderts: Herausforderungen in der Hightech-Ökonomie, Springer-Verlag, Wiesbaden, S.81.

105 Milberg, J. (2013): Wettbewerbsvorteile durch Integration in Produktionsunternehmen, Institut für Werkzeugmaschinen und Betriebswissenschaften, Technische Universität München, Springer-Verlag, S.339.

106 Weber, K., Frommeld, D., Manzeschke, A., Fangerau, H. (2015): Technisierung des Alltags, Wissenschaftsforschung, Franz Steiner Verlag, Wiesbaden, S.229.

107 Ecomomic Commission for Europe (ECE) (2005): World Robotics 2005, International Federation of Robotics, United Nations Publications, S.279f.

108 Siciliano, B., Khatib, O. (2008): Springer handbook of robotics, Springer Science & Business Media, S.1121.

109 Klodmann J. (2018): http://www.dlr.de/rm/en/desktopdefault.aspx/tabid-3795/16616_read-40529.

110 Da Vinci Surgery (2018): Minimally Invasive Surgery, www.davincisurgery.com.

111 Maßberg, W. (1999): 1. Symposium: Neue Technologien für die Medizin, Forschung-Praxis-Innovation, Herbert Utz Verlag, S.48.

112 Weber, M., Burchardt, A. (2017): Entscheidungsunterstützung mit Künstlicher Intelligenz: wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Bitkom, S.9.

113 Görz, G., Schneeberger, J. (2003): Handbuch der künstlichen Intelligenz, Walter de Gruyter, S.518.

114 Christaller, T., Hein, H.W., Richter, M.M. (2013): Künstliche Intelligenz: Theoretische Grundlagen und Anwendungsfelder, Informatik-Fachberichte Nr.159, Springer-Verlag, Berlin, Heidelberg, S.64

115 Hertzberg, J., Stiene, S. (2018): Planbasierte Robotersteuerung, https://www.dfki.de/web/forschung/forschungsbereiche-gruppen/planbasierte-robotersteuerung.

116 Behnke, S. (2018): Cognitive Robotics - Intelligente Roboter lernen durch Interaktion mit Menschen und Systemen, https://www.iais.fraunhofer.de/de/forschung/bereiche/cognitive-robotics.html.

117 Bendel, O. (2016). Die Moral in der Maschine (Telepolis): Beiträge zu Roboter-und Maschinenethik, Heise Medien, S.90.

118 IFR (2017): Little butler robot wins international inventors’ award, IERA Award presented at ICRA 2017, IFR Press Releases, Juli 2017, https://ifr.org/ifr-press-releases/news/little-butler-robot-wins-international-inventors-award.

119 Schraft, R.D., Schmierer, G. (2013): Serviceroboter: Produkte, Szenarien, Visionen, Springer-Verlag, S.55.

120 Fackler, M. (2017): Six Years After Fukushima, Robots Finally Find Reactors’ Melted Uranium Fuel, November 2017, https://www.nytimes.com/2017/11/19/science/japan-fukushima-nuclear-meltdown-fuel.html.

121 Hesse, S., Schnell, G. (2004): Sensoren für die Prozess-und Fabrikautomation - Funktion, Ausführung, Anwendung, Springer-Verlag, Wiesbaden, S.164f.

122 Seedhouse, E. (2015): Mars Via the Moon: The Next Giant Leap, Springer-Verlag, S.96.

123 Angelo, J.A. (2014): Robot Spacecraft, Infobase Publishing, New York, S.150.

124 Martin, M. (2012): C-Path: Updating the art of pathology, In: Journal of the National Cancer Institute, Nr.104 (16), S.1202-1204, http://jnci.oxfordjournals.org/content/104/16/1202.full.

125 Clark, J. (2016): Google cuts its giant electricity bill with deepmind-powered AI, Bloomberg Technology, Juli 2016, http://www.bloomberg.com/news/articles/2016-07-19/google-cuts-its-giant-electricity-bill-with-deepmind-powered-ai.

126 Knoll, A. (2003): Autonomie für situierte Robotersysteme Stand und Entwicklungslinien, Forschungsbericht der Technischen Fakultät Abteilung Informationstechnik, Report 99-06, S.1.

127 Pöchhacker-Tröscher, G., Scherk, J., Wagner, K. (2017): Künstliche Intelligenz - Artificial Intelligence, BMVIT, Bereich Innovation, Linz, S.6.

128 Hofstetter, M. (2011): Serviceroboter für den häuslichen Bereich: Science Fiction wird Realität, In: WirtschaftsWissen, Nr.04/2011, Genios Verlag, S.1-9, S.1f.

129 Rötzer, F. (2016): Programmierte Ethik (Telepolis): Brauchen Roboter Regeln oder Moral?, Heise Medien, S.4f.

130 Lin, P., Bekey, G., Abney, K. (2008): Autonomous Military Robotics: Risk, Ethics, and Design, US Department of Navy, Office of Naval Research, Arlington, Virginia, S.4.

131 Williams, A. (2015): Defining autonomy in systems: challenges and solutions, In: Williams, A.P., Scharre, P.D. (Hrsg.), Autonomous Systems: Issues for Defence Policymakers, NATO, Norfolk, Virginia, S.8.

132 Smithers, T. (1995): Are autonomous agents information processing systems?., In: The artificial life route to artificial intelligence, S.123-162, S.123.

133 Steinfeld, A. (2004): Interface lessons for fully and semi-autonomous mobile robots, In: Robotics and Automation, Proceedings of ICRA 2004, IEEE International Conference, Nr.3, S.2752-2757, S.2752.

134 Reisner, M. (2017): Robotic Wars - Legitimatorische Grundlagen und Grenzen des Einsatzes von Military Unmanned Systems in modernen Konfliktszenarien, Books on Demand, S.300.

135 Krishnan, A. (2009): Killer robots: legality and ethicality of autonomous weapons, Ashgate Publishing, S.33.

136 Tsui, K., Desai, M., Yanco, H., Cramer, H., Kemper, N. (2011): Measuring the perceptions of autonomous and known human controlled robots, In: International Journal of Intelligent Control and Systems, Nr.16(2), S.1-16, S.10.

137 Henken, L. (2013): Kampfdrohnen als zentraler Bestandteil der “Neuausrichtung der Bundeswehr”, In: Strutynski, P. (Hrsg.): Töten per Fernbedienung - Kampfdrohnen im weltweiten Schattenkrieg, Promedia, S.36.

138 Hummitzsch, M. (2013): Die Bedingungen der Autonomie bei Peter Schaber und Joseph Raz, Grin Verlag, S.5f.

139 Gransche, B., Shala, E., Hubig, C., Alpsancar, S., Harrach, S. (2014): Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen - Grundsatzfragen autonomieorientierter Mensch-Technik-Verhältnisse, Fraunhofer Verlag, Stuttgart, S.45ff.

140 Pietsch, W., Wernecke, J., Ott, M. (2017): Berechenbarkeit der Welt? Philosophie und Wissenschaft im Zeitalter von Big Data, Springer-Verlag, S.545.

141 Defense Science Board (DSB) (2012): The Role of Autonomy in DoD Systems, Washington D.C., Office for Defense for Acquisition, Technology and Logistics, Task Force Report, Juli 2012, Washington D.C., S.1.

142 Thrun, S. (2004): Toward a framework for human-robot interaction, In: Human-Computer Interaction, Vol.19, Nr.1-2, S.9-24, S.11.

143 Mindell, D.A. (2015): Our Robots, Ourselves: Robotics and the Myths of Autonomy, Viking, New York, S.12.

144 Ministry of Defense (MoD) U.K. (2011): Joint Doctrine Note 2/11 the UK Approach to Unmanned Aircraft Systems, UK MoD The Development, Concepts and Doctrine Centre, Swindon, Wiltshire, S.100.

145 Mindell, D.A. (2015): Our Robots, Ourselves: Robotics and the Myths of Autonomy, Viking, New York, S.6.

146 US Department of Defense (DOD), Office of Technical Intelligence, Office of the Assistant Secretary of Defense for Research and Engineering, Technical Assessment (2015): Autonomy, Washington D.C., S.2.

147 Docherty, B. (2012): Losing Humanity: The Case against Killer Robots, Cambridge, Massachusetts, Human Rights Watch, November 2012, S.2.

148 Israel Defense Forces (2018): Iron Dome Missile Defense System, http://www.jewishvirtuallibrary.org/iron-dome-missile-defense-system.

149 Marks, P. (2012): Iron Dome Rocket Smasher Set to Change Gaza Conflict, New Scientist Daily News Online, November 2012, https://www.newscientist.com/article/dn22518-iron-dome-rocket-smasher-set-to-change-gaza-conflict.

150 Mindell, D.A. (2015): Our Robots, Ourselves: Robotics and the Myths of Autonomy, Viking, New York, S. 2.

151 Prigg, M. (2014): Who goes there? Samsung unveils robot sentry that can kill from two miles away, September 2014, http://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html.

152 Lin, P., Bekey, G., Abney, K. (2008): Autonomous Military Robotics: Risk, Ethics, and Design, Department of the Navy, Office of Naval Research, Arlington, Virginia, S.6.

153 Stoner, R.H. (2009): R2D2 with attitude: the story of the Phalanx close-in weapon systems (CIWS), In: Naval Weapons, Nr.10/2009, http://www.navweaps.com/index_tech/tech-103.php.

154 NAVY (2017): MK 15 - Phalanx Close-In Weapons System (CIWS), Navy Fact Sheet, Naval Sea Systems Command, Januar 2017, https://www.navy.mil/navydata/fact_display.asp?cid=2100&tid=487&ct=2.

155 Scharre, P., Horowitz, M. (2015): An Introduction to Autonomy in Weapons Systems, Center for a New American Security, Februar 2015, S.18.

156 Dickow, M. (2017): Robotik - ein Game Changer für Militär und Sicherheitspolitik, In: Ehrhart, H.G. (Hrsg.): Krieg im 21. Jahrhundert - Konzepte, Akteure, Herausforderungen, Nomos, Baden-Baden, Nr.220, S.282-310, S.292.

157 Boothby, W.H. (2016): Weapons and the law of armed conflict, Oxford University Press, New York, S.249.

158 Gady F.S. (2016): https://thediplomat.com/2016/11/russias-t-14-armata-the-most-revolutionary-tank-in-a-generation.

159 Odrich, P. (2015): Steuerung per Fernbedienung - Russland entwickelt Roboterversion des Panzers Armata T-14, März 2018, http://www.ingenieur.de/Branchen/Fahrzeugbau/Russland-entwickelt-Roboterversion-Panzers-Armata-T-14.

160 Cranny-Evans, S. (2018): Order for T-14 MBTs, T-15 heavy IFVs for extended trials confirmed by Russian MoD, Februar 2018, http://www.janes.com/article/77950/order-for-t-14-mbts-t-15-heavy-ifvs-for-extended-trials-confirmed-by-russian-mod.

161 Kramper, G. (2018): Zu teuer für den Kreml? Keine Massenproduktion des Superpanzers Armata T14, August 2018, https://www.stern.de/digital/technik/panzer-t14--eine-massenproduktion-des-superpanzers-soll-es-nicht-geben-8196078.html.

162 Hüther, G. (2016): Bedienungsanleitung für ein menschliches Gehirn, Vandenhoeck & Ruprecht, S.15.

163 Dickow, M. (2017): Robotik - ein Game Changer für Militär und Sicherheitspolitik, In: Ehrhart, H.G. (Hrsg.): Krieg im 21. Jahrhundert - Konzepte, Akteure, Herausforderungen, Nomos, Baden-Baden, Nr.220, S.282-310, S.291.

164 Cellan-Jones, R. (2014): Stephen Hawking warns artificial intelligence could end mankind, Dezember 2014, http://www.bbc.com/news/technology-30290540.

165 US Department of Defense (DOD) (2011): Unmanned Systems Integrated Roadmap FY2011-2036, Washington D.C., Government Publishing Office (GPO), S.43.

166 Adams, T.K. (2002): Future Warfare and the Decline of Human Decisionmaking, In: Parameters, Vol.31, Nr.4 Winter 2001/02, S.57-71, S.60.

167 Docherty, B. (2012): Losing Humanity: The Case against Killer Robots, Cambridge, Massachusetts, Human Rights Watch, November 2012, S.4.

168 Helmig, J., Schörnig, N. (2008): Die Transformation der Streitkräfte im 21. Jahrhundert: militärische und politische Dimensionen der aktuellen Revolution in Military Affairs, Nr.54, Campus Verlag, S.291.

169 Arkin, R. (2009): Governing lethal behavior in autonomous robots, Boca Raton, CRC Press, S.29.

170 Walker, J. (2018): Military Robotics Innovation - Comparing the US to Other Major Powers, Dezember 2018, https://www.techemergence.com/military-robotics-innovation.

171 Meldon, W., Lukic, V., Sander, A., Martin, J., Küpper, D. (2017): Gaining robotcs advantage, Juni 2017, https://www.bcg.com/publications/2017/strategy-technology-digital-gaining-robotics-advantage.aspx.

172 Markets and Markets Research (2017): Military Robots Market by Platform (Land, Marine, Airborne), Application (ISR, Search and Rescue, Combat Support, Transportation, EOD, Mine Clearance, Firefighting), Mode of Operation (Human Operated, Autonomous), and Region - Global Forecast to 2022, https://www.marketsandmarkets.com/PressReleases/military-robots.asp.

173 PR Newswire (2017): The Military Robotics Market is expected to reach US$ 245.1 Billion by 2026, Juni 2017, https://www.prnewswire.com/news-releases/the-military-robotics-market-is-expected-to-reach-us2451-billion-by-2026-300474246.html.

174 International Civil Aviation Organization (ICAO) (2011): Cir 328 AN/190, S.1 Absatz 1.4.

175 o.V. (2010): USA: Illegaler Drohnen-Krieg?, In: Der Spiegel, Nr.13, März 2010, S.89.

176 Hohwieler, E., Mahrin, B., Schallock, B., Kriesel, J. (1998): Arbeitskreis: Assistenzsysteme in der Produktions- und Anlagentechnik, In: Willumeit, H.P., Kolrep, H. (Hrsg.), Wohin führen Unterstützungssysteme? Entscheidungshilfe und Assistenz in Mensch-Maschine-Systemen, Pro Universitate Verlag, S.1-20, S.20.

177 Gerke, W. (2014): Technische Assistenzsysteme: vom Industrieroboter zum Roboterassistenten, Walter de Gruyter, Oldenbourg, S.138.

178 Lockheed M. (2016): F-16 Fighting Falcon, https://www.lockheedmartin.com/us/products/f16.html.

179 Doğangün, A. (2012): Adaptive Awareness-Assistenten: Entwicklung und empirische Untersuchung der Wirksamkeit, Schriften zu Kooperations- und Mediensystemen, Nr.32, Josef Eul Verlag, Köln, S.21.

Ende der Leseprobe aus 255 Seiten

Details

Titel
Drohnen und ihre Verwendung im privaten Bereich. Welche Faktoren beeinflussen unsere Einstellung zu robotischen Systemen?
Autor
Jahr
2019
Seiten
255
Katalognummer
V460657
ISBN (eBook)
9783956879876
ISBN (Buch)
9783956879883
Sprache
Deutsch
Schlagworte
Drohnen, autonom, UAV, Einflussfaktoren, Positionierung, Faktoren, Künstliche Intelligenz, Robotik, Autonomie, Innovation, Artificial Intelligence
Arbeit zitieren
Daniel Cavanaugh (Autor), 2019, Drohnen und ihre Verwendung im privaten Bereich. Welche Faktoren beeinflussen unsere Einstellung zu robotischen Systemen?, München, GRIN Verlag, https://www.grin.com/document/460657

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Drohnen und ihre Verwendung im privaten Bereich. Welche Faktoren beeinflussen unsere Einstellung zu robotischen Systemen?


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden