Künstliche Intelligenz. Roboter und Mensch Hand in Hand im Alltag


Facharbeit (Schule), 2020

75 Seiten, Note: 15 Punkte (1,0)

Anonym


Leseprobe


Inhalt

1 Einleitung

2 Künstliche Intelligenz gestern, heute, morgen
2.1 Geschichte und Entwicklung
2.1.1 Zwanzigstes Jahrhundert
2.1.2 Einundzwanzigstes Jahrhundert
2.2 Aktuelle Bedeutung der KI
2.2.1 Anwendungsgebiete alltäglicher Künstlicher Intelligenz
2.2.2 Deep Learning und Machine Learning
2.2.2.1 Deep Learning am Beispiel von Google Lens
2.2.2.2 Unterschiede zwischen Machine Learning und Deep Learning
2.2.2.3 Machine Learning
2.2.3 Schwache KI
2.3 Entwicklungsmöglichkeiten in der Zukunft
2.3.1 Starke KI
2.3.2 Positive und negative Auswirkungen der KI auf das Leben in der Zukunft
2.3.3 Zukunft der künstlichen Intelligenz in der Medizin

3 Ersatz von Menschen durch Roboter in verschiedenen Gesellschafts bereichen
3.1 Bereich der Industrie
3.1.1 Bau und Fertigung
3.1.2 Logistikroboter
3.1.3 Künstlich Intelligenter Hafen
3.1.4 Unterstützung im Einzelhandel
3.2 Bereich der Medizin und Gesundheit
3.2.1 Krebsdiagnoseprogramm
3.2.2 Pflegeroboter
3.3 Autonomes Fahren
3.3.1 Vorteile und Risiken
3.3.2 Truck-Platooning
3.4 Militärische Zwecke
3.4.1 Kampfanzug
3.4.2 Kampfroboter
3.4.3 Kamikaze-Drohne

4 Entwicklung von Robotern und daraus resultierende Gefahren
4.1 Mobile Roboter und ihre Entwicklung
4.1.1 Der mobile Roboter
4.1.1.1 Beispiele für umgebungsabhängige Aktionen
4.1.1.2 Der Saugroboter als Beispiel für Mobile Roboter
4.1.2 Die Entwicklung Mobiler Roboter
4.1.2.1 Sensorik
4.1.2.1.1 Bewegungsmessung
4.1.2.1.2 Ausrichtungsmessung
4.1.2.1.3 Globale Positionsbestimmungssysteme
4.1.2.1.4 Entfernungsmessung
4.1.2.1.5 Kameras
4.1.2.2 Fortbewegung
4.2 Funktion eines Mähroboters
4.3 Gefahren eines Mähroboters

5 Bau eines Legoroboters
5.1 Materialbeschaffung
5.2 Bau
5.2.1 Bauschritte
5.3 Programmierung
5.4 Mögliche Fehlerquellen
5.5 Weitere Anwendungs- und Weiterentwicklungsmöglichkeiten

6 Testreihe: Objekterkennung mit Google Lens
6.1 Funktionen von Google Lens
6.2 Durchführung der Testreihe
6.3 Bewertung
6.4 Auswertung

7 Fazit

Anhang

Literaturverzeichnis

Glossar

Anmerkung:

Aus urheberrechtlichen Gründen wurde der Anhang von der Redaktion entfernt.

1 Einleitung

Wir haben das Thema der Künstlichen Intelligenz im alltäglichen Leben gewählt, da wir finden, dass die KI besonders in der heutigen Zeit immer mehr an Bedeutung gewinnt und man immer wieder von ihr, sei es aus Filmen, Büchern oder anderen Medien, erfährt. Weil unsere Generation in der Zukunft eng mit Künstlicher Intelligenz zusammenleben wird und wir denken, dass sie unser Leben immer mehr beeinflussen wird, interessiert uns diese Thematik umso mehr.

Die Künstliche Intelligenz ist heutzutage allgegenwärtig: Sie kann in der Raumfahrt, in der Wissenschaft und Industrie, jedoch seit einiger Zeit auch im Alltag vorgefunden werden. Mit der Verwendung im alltäglichen Leben jedoch möchten wir uns in dieser Arbeit genauer beschäftigen.

Sie wird bereits in Altenheimen eingesetzt, um den Fachkräftemangel kompensieren und eine effektivere Pflege ermöglichen zu können oder auch in Flughäfen, um den Passagieren weiterhelfen zu können. Das populärste und meist verbreitete Einsatzgebiet sind jedoch Sprachassistenten in Mobil- und Heimgeräten, wie beispielsweise in Smartphones oder Smart-Speakern. Sie sind in unser aller Leben ständig präsent, weshalb wir uns auch deshalb mit diesem Thema auseinandersetzen werden.

In dieser Seminarfacharbeit werden wir die Geschichte der künstlichen Intelligenz, ihre aktuelle Bedeutung verbunden mit der Funktionsweise von verschiedenen Arten der KI und ihr zukünftiges Potenzial mitsamt Gefahren erläutern. Des Weiteren werden wir Beispiele, bei denen Menschen durch künstlich intelligente Systeme ersetzt wurden, wie in der Industrie, im Straßenverkehr, im Gesundheitssystem und im Militär, ausführen. Die Entwicklung von Haushaltsrobotern wird an einem Beispiel mit daraus resultierenden Gefahren zudem von uns aufgezeigt. Der Schwerpunkt der wissenschaftlichen Arbeit wird hierbei jedoch auf der Vielfältigkeit der Einsatzgebiete Künstlicher Intelligenz und ihrer Funktionsweise liegen.

Unser Vorhaben ist außerdem, einen Alltagsroboter zu erschaffen, der als intelligente Überwachungskamera dienen und somit für mehr Sicherheit in Abwesenheit des Besitzers sorgen soll. Er wird Objekte verfolgen, sie aufzeichnen und einen Alarm setzen können und ist somit eine Hilfe im Alltag der Menschen. Uns ist es mit unseren sowohl finanziell als auch fachspezifischen Mitteln nicht möglich, ein finales Produkt zu entwickeln, welches fehlerfrei funktioniert, jedoch möchten wir das Prinzip der künstlichen Intelligenz auf diesem Weg veranschaulichen.

Mit dieser wissenschaftlichen Arbeit möchten wir Menschen zeigen, wie sehr künstliche Intelligenz unser alltägliches Leben bereits heute beeinflusst, doch auch, welche Gefahren sich aus ihren Möglichkeiten ergeben. Im selben Zug ist es unser Ziel, darüber aufzuklären, wie alltägliche KI funktioniert, sodass man verstehen kann, wie die einzelnen Schritte, die beispielsweise Sprachassistenten täglich ausführen, ablaufen und welche Ressourcen hierfür benötigt werden. Viele Konsumenten verwenden bereits heute Haushaltsroboter, die ihnen im Alltag helfen. Die Meisten von ihnen wissen jedoch nicht, wie diese aufgebaut sind , welche Unterschiede bestehen und welche Gefahren sich aus ihrer Entwicklung und Benutzung ergeben. Aus diesem Grund möchten wir den Menschen diese Inhalte näher bringen. Die Erläuterung ihres Potenzials und der Gefahren in der Zukunft ist uns zudem wichtig, um die alltäglichen Nutzer darüber zu informieren, wie das zukünftige Leben aussehen kann. Da sich die meisten Menschen nicht ausreichend mit diesem Thema auseinandersetzen, ist es weiterhin unsere Intention, jene darüber aufzuklären, was man unter Künstlicher Intelligenz versteht, da der Begriff nur sehr selten konkret definiert wird. Da KI in den Medien oft so dargestellt wird, dass sie eines Tages die Weltherrschaft übernehmen und die Menschheit vernichten wird, möchten wir des Weiteren Klarheit darüber schaffen, ob dieser Fall jemals eintreten könnte. Weiterhin ist für uns interessant, ob künstlich intelligente Systeme das Potenzial haben, Gefühle zu empfinden und somit Empathie zu besitzen.

Unser hauptsächliches Ziel ist, eine bewusstere Benutzung der KI zu fördern, sodass ihre Möglichkeiten optimal genutzt und die negativen Folgen minimiert werden können.

2 Gestern, heute, morgen

In diesem Abschnitt wird es zuerst um die generelle Entwicklung der künstlichen Intelligenz, wie wir sie heute kennen, gehen. Danach wird erläutert, wie sie unser alltägliches Leben aktuell beeinflusst und zum Schluss, was diese Technik für uns in der Zukunft bedeuten könnte.

2.1 Geschichte und Entwicklung

Bereits im 17. Jahrhundert behaupteten Wissenschaftler und Philosophen wie Thomas Hobbes, Gottfried Wilhelm Leibniz oder René Descartes, dass alle menschlichen Überlegungen auf Berechnungen reduziert und damit auf Maschinen angewandt werden können1. Im 17. Jahrhundert wurden auch von Ada Lovelace und Charles Babbage erste Überlegungen zu Computern angestellt, welche mit den heutigen Exemplaren leistungsmäßig zwar nicht vergleichbar sind, deren Aufbau den Aktuellen jedoch bereits ähnelte1 2. Diese Vorstellung führte beispielsweise über mechanische Rechenmaschinen [Abb. 1] und elektromechanische Tischrechenmaschinen3 [Abb. 2] zur Erfindung des Taschenrechners4 [Abb. 3] im Jahr 19675.

2.1.1 Zwanzigstes Jahrhundert

Nach der industriellen Revolution im 19. Jahrhundert setzten sich auch Künstler mit dem Thema Künstliche Intelligenz auseinander6. Legenden wie Frankensteins Monster, welches sich gegen seinen Erschaffer wendet7 oder auch das Theaterstück „Rossum’s Universal Robots", in dem der Autor Karel Capek 1920 „Robotermenschen" als billige Arbeitskräfte einsetzt und die Menschheit schließlich durch jene vernichtet wird, wurden erschaffen8.

1936 wurde durch den britischen Mathematiker Alan Turing der Grundstein für die heutzutage etablierte „Künstliche Intelligenz" gelegt9. Mit seinem theoretischen Modell der „Turingmaschine" bewies er, dass Rechenmaschinen in der Lage wären, kognitive Prozesse auszuführen, insofern sich diese Vorgänge in mehrere Einzelschritte zerlegen und durch einen Algorithmus (s. Anhang) darstellen ließen10. Eine Welle der Euphorie brach los, als der Informatiker im zweiten Weltkrieg die verschlüsselten Funksprüche der Deutschen mithilfe des ersten vollwertigen Computers entziffern konnte und die Alliierten unter anderem deshalb den Krieg gewinnen konnten11. Der selbe Mann war es, der 1950 den Turing-Test, der die Intelligenz eines Computers bestimmen sollte2, entwickelte und somit einen Maßstab für Künstliche Intelligenz setzte3. In jenem Test führt eine Person gleichzeitig ein Gespräch mit einem Menschen und einer KI, ohne zu wissen, welcher Gesprächspartner der Mensch und welcher das Programm ist4. Wenn sie nach einem bestimmten Schema von Gesprächsabschnitten die Partner nicht voneinander unterscheiden kann, hat die KI den Turing-Test bestanden5. Zusammen mit Alonzo Church stellte Turing die Church-Turing- These auf, welche bewies, dass Turing-Maschinen theoretisch alles berechnen könnten, was auf einfachen Symbolen wie 1 und 0 beruht6, besser bekannt als das Binärsystem7. Wenn sich kognitive Prozesse auf mathematische Ableitungen reduzieren ließen, könnte eine Maschine wie ein Mensch denken8. Basierend auf dieser Annahme schrieb Arthur Samuel, Mitarbeiter der Technikfirma „IBM", Jahre darauf ein Programm, das sich im Brettspiel Dame verbessern und selbstständig lernen konnte9.

Im Sommer 1956, während einer Wissenschaftskonferenz im Dartmouth College im US- Bundesstaat New Hampshire, entwickelten Wissenschaftler das erste KI-Programm der Welt: den „Logic Theorist"10. Dieses schaffte es, mehrere Dutzend mathematische Lehrsätze zu beweisen12. Im selben Zug wurde vom Programmierer John McCarthy der Begriff „Künstliche Intelligenz" für die Simulation von menschlicher Intelligenz durch Maschinen vorgeschlagen12. Auf dieser Konferenz wurden zudem erste bedeutende Computersprachen wie FORTRAN, LISP oder COBOL entwickelt13. Joseph Weizenbaum, deutschamerikanischer Informatiker vom Massachusetts Institute of Technology14, schrieb 1966 ein Programm namens „ELIZA", welches mittels Skripten verschiedene Gesprächspartner, wie zum Beispiel einen Psychotherapeuten simulieren konnte15 und als eines der ersten Programme weltweit den bereits erwähnten Turing-Test bestand16. Weizenbaum war selbst erstaunt darüber, wie einfach die Illusion eines echten Gesprächspartners entstehen kann17. ELIZA lässt sich mit dem Titel „erster Chatbot" (s. Anhang) beschreiben. So wurde die Grundlage für heute verbreitete Sprachassistenten wie „Siri" oder „Alexa" gelegt.

Leider schafften es die an künstlicher Intelligenz forschenden Wissenschaftler nicht, ihre Versprechen vom Erschaffen menschlicher Intelligenz aus den Vorjahren zu halten18. Deshalb und auch nicht zuletzt wegen der allgemein schlechten Wirtschaftslage in den 1970er Jahren wurden ihnen die Mittel für ihre Forschung erheblich gekürzt19. Dieses Ereignis bezeichnet man auch als KI-Winter13 (s. Anhang).

Gleichzeitig schuf man in Japan mit dem WABOT-1 den ersten vollwertigen menschenähnlichen Roboter2 [Abb. 4].

Zwei Jahre später, 1972, fand das von Ted Shortliffe an der Stanford University entwickelte Expertensystem (s. Anhang) „MYCIN" trotz der ungünstigen Umstände den Weg in die Medizin3 und konnte bereits damals die Ärzte bei Diagnose und Therapie von Patienten unterstützen4. Das Expertensystem sollte die damalige übermäßige Anwendung von Antibiotika in Abhängigkeit vom jeweiligen Krankheitsbild optimieren5. MYCIN erzielte zwar eine hohe Trefferquote6, allerdings konnte es sich in der damaligen Zeit nicht durchsetzen7, weil man Computer noch nicht vollständig akzeptierte. Sie galten als zu schwer durchschaubar8. Im selben Jahrzehnt wurden Projekte umgesetzt, die keiner großen Kosten bedurften: die Programmiersprachen C, Prolog, SQL und Pascal wurden entwickelt, legten den Grundstein für die moderne Programmierung und können sich auch noch in der heutigen Zeit großer Beliebtheit erfreuen9.

1986 wurde zum ersten Mal ein Roboter zum Sprechen gebracht, als Terrence J. Sejnowski und Charles Rosenberg das Programm „NETtalk" schrieben. Dieses konnte Wörter lesen, korrekt aussprechen10 und zudem das bereits Gelernte auf neue, unbekannte Wörter anwenden14. Diese Art von Software wird auch als künstliches neuronales Netz (s. Anhang) bezeichnet.

Weitere Expertensysteme wurden entwickelt und konnten Unternehmen bei Aufgaben wie Disposition, Lagerverwaltung oder Auftragsabwicklung behilflich sein12. Die Vorteile äußerten sich darin, dass Kosten durch nicht benötigte Arbeitskräfte gespart wurden und Aufträge schneller, präziser und effizienter erledigt werden konnten, sodass die Firmen, die sich Expertensysteme leisten konnten, mehr Gewinn erwirtschafteten13. Dies sorgte für einen großen Wirtschaftsaufschwung14. Die Unternehmen konzentrierten sich mehr und mehr auf die Finanzierung und den Aufbau von Infrastrukturen, die solche Expertensysteme warten konnten15. Bessere, schnellere Maschinen mit größerer Implementierungsmöglichkeit und leichterer Wartbarkeit (s. Anhang) und wieder neuen Programmiersprachen, welche heutzutage noch viel genutzt werden, wurden erschaffen16. Im selben Zug wurden zudem Technologien entwickelt, die Daten und Logik zur Automatisierung von Prozessen nutzen konnten17.

Anfang der 1980er begann Russland mit der Forschung im Bereich der Künstlichen

Intelligenz15. Da sich Russland und die USA im ständigen Wettstreit befanden, versuchten die Vereinigten Staaten, ihren Vorsprung in diesem Bereich weiter auszubauen: Das Verteidigungsministerium startete ein Langzeitprojekt, das schlussendlich den Einsatz selbstfahrender Autos und Panzer ermöglichen sollte2: die Strategic Computing Initiative3. Diese wurde von der neu gegründeten Forschungs- und Entwicklungsabteilung des US- Militärs, der DARPA, finanziert4. Im selben Jahrzehnt gewannen Expertensysteme wieder an Bedeutung, da man glaubte, sie seien für die Verarbeitung großer Datensätze und somit für intelligentes Denken notwendig5. So wurden viele verschiedene Systeme weltweit entwickelt, bei denen sich jedoch Probleme abbildeten6: Die Kleinen hatten zu wenig Rechenleistung, die Großen waren zu teuer und zu kompliziert zu bedienen7. Deshalb wurden fast alle Projekt gegen Ende der 80er wieder eingestampft8, was schließlich im zweiten KI-Winter resultierte9. Dies führte so weit, dass Entwickler Begriffe wie „Robotik" oder „künstliche Intelligenz" möglichst mieden, um potenzielle Fördermittel und Finanzierungen nicht zu gefährden10.

Als die Forschungen 1990 wieder in Gang kamen16, gelangte man zu dem Entschluss, dass die good old-fashioned Artificial Intelligence (s. Anhang), oder auch „GOFAI" genannt, veraltet und somit nicht mehr auf dem aktuellen Stand war12. Die Schwierigkeit bei dieser Art von Künstlicher Intelligenz war, dass selbst kleine Veränderungen in der Problemdefinition oder den Ausgangsbedingungen zum vollständigen Zusammenbruch des Algorithmus führten13. Wenn die Aufgabe nur geringfügig variierte, versagte das Programm. Aus diesem Grund wurde mit anderen Algorithmen, die mit derartigen Herausforderungen besser umgehen konnten, experimentiert14. Es ergab sich eine vermehrte Zusammenarbeit von Forschern aus den Bereichen der künstlichen Intelligenz, der Mathematik, den Wirtschaftsund den Neurowissenschaften15, da man feststellte, dass dort an den gleichen, beziehungsweise an ähnlichen Problematiken geforscht wurde16. So hielten auch Inhalte aus der Wahrscheinlichkeits- und Wirtschaftstheorie Einzug in die KI-Entwicklung17. Weiterhin wurden genauere mathematische Beschreibungen für Algorithmen des maschinellen Lernens entwickelt18.

Mit der weit verbreiteten Nutzung des Internets in den Neunzigerjahren brach ein neues Zeitalter für Künstliche Intelligenz an19. Die damit zusammenhängende Hardwareleistung und das verfügbare Datenvolumen nahmen exponentiell zu20. Sowohl für die Entwickler als auch für die Softwares bedeutete das, dass sie die Möglichkeit hatten, mit mehr Ressourcen arbeiten zu können. Damit einher kamen zahlreiche Meilensteine: am 11.05.1997 schlug das Programm „Deep Blue" von dem Unternehmen IBM den amtierenden Schachweltmeister Harri Kasparow17, im selben Jahr setzte die NASA den ersten selbstfahrenden Rover auf dem Mars ab [Abb. 5]2 und 1998 sorgten Web crawler (s. Anhang) von beispielsweise Google und Yahoo! für den rasanten Aufstieg von Suchmaschinen3.

2.1.2 Einundzwanzigstes Jahrhundert

Auch in den Zweitausenderjahren wurde weiter an KI geforscht: 2005 gewann ein an der Stanford University entwickeltes selbstfahrendes Auto [Abb. 6] die „DARPA Grand Challenge"4. Dieser Wettbewerb wurde vom US-Verteidigungsministerium ins Leben gerufen5 und stellte den Teilnehmern die Aufgabe, ihr Fahrzeug autonom (s. Anhang) durch das anspruchsvolle Gelände der amerikanischen Mojave-Wüste fahren zu lassen6. Das Autonome Fahren basiert unter anderem auf der Fähigkeit der Bilderkennung7. In jenem Bereich, in dem KI bereits Anwendung fand und immer noch findet8, fand später ein Durchbruch statt9: Vier Jahre später, 2009, veröffentlichte die Stanford University, deren Team die DARPA-Challenge zuvor gewann, die Datenbank „ImageNet"10, welche die Arbeit an künstlichen neuronalen Netzen durch die Bereitstellung von mehr als 14 Millionen Bildern und dazugehörigen Informationen18 enorm erleichterte12. Jene Entwickler riefen 2010 den Wettbewerb Large Scale Visual Recognition Challenge (ILSVRC) ins Leben13. Im Jahr 2012 gewann Alex Krizhevsky mit seinem Programm AlexNet diesen Wettkampf14. Er verwendete Deep Neutral Networks, so konnte die bisherige Fehlerquote bei der Bilderkennung auf 15,3 Prozent halbiert werden15. Dieses Ergebnis ist mit einer Deep-Learning-Revolution gleichzusetzen16. Deep Neural Networks verbesserten des Weiteren die Spracherkennung signifikant17, wie der britische Informatiker Geoffrey Hinton18Google, Microsoft, IBM und die University of Toronto in einem gemeinsamen Wissenschaftsartikel bewiesen19, welcher im November 2012 veröffentlich wurde20.

Ein für die Öffentlichkeit verfügbarer Sprachassistent wurde erstmals 2011 auf den Markt gebracht19. Schon im 20. Jahrhundert gab es „intelligente persönliche Assistenten“, jedoch waren diese nicht weit genug entwickelt, als dass man sie der breiten Masse hätte anbieten und in alltäglichen Geräten verbauen können2. Dieser Fall trat im Jahr 2011 ein: Apple brachte die erste Version von Siri, integriert in ihr neues iPhone 4s, auf den Markt3. Durch dieses Ereignis wurde die Branche revolutioniert. Ein paar Jahre später wurden Konkurrenzprodukte wie Cortana von Microsoft (2014)4, Alexa von Amazon (2015)5 undder Google Assistant von Google (2016)6 in kurzen Abständen veröffentlicht [Abb. 7]. Dies entwickelte sich dahingehend, dass Googles neuer virtual assistant „Duplex“ 2018 live auf seiner Vorstellungsveranstaltung einen Friseurtermin per Anruf vereinbaren konnte7. Außerdem schnitt IBMs „Project Debater“ bei einem Debattierwettkampf über komplexe Themen wie Raumfahrt, Finanzpolitik oder das Schulsystem8 gegen Harish Natarajan9 sehr gut ab10.

Alles in Allem lässt sich sagen, dass bei der Entwicklung der künstlichen Intelligenz viele Hindernisse überwunden werden mussten. Diese konnten sie allerdings nicht aufhalten, da man schon im zwanzigsten Jahrhundert das enorme Potenzial von KI sah.

2.2 Aktuelle Bedeutung der KI

2.2.1 Anwendungsgebiete alltäglicher Künstlicher Intelligenz

Wie bereits erwähnt, haben intelligente Sprachassistenten wie Siri, Alexa, der Google Assistant oder Cortana den größten Einfluss auf das alltägliche Leben20. Diese sind in der Lage, Small Talk zu führen, Fragen zum Wetter zu beantworten oder auch einen Timer oder Wecker stellen12. Komplexere Aufgaben sind beispielsweise das Ausführen von sogenannten Smart-Home-Szenen (s. Anhang). Bei der Szene „Gute Nacht“, bei der eingestellt sei, dass alle Lampen und der Strom ausgeschaltet werden sollen, muss man dem Sprachassistenten nicht mehr sagen „Führe die Szene Gute Nacht aus“, sondern ein „Ich gehe schlafen“ reicht vollkommen aus, um das gleiche Resultat zu erzielen13. Die gesprochene Sprache in für die Software verständlichen Text umzuwandeln, ist hierbei der schwierigste Part14, da die Stimme je nach Herkunft, Geschlecht und daraus folgenden unterschiedlichen Tonlagen und Akzenten äußerst stark variiert15. Die digitalen Helfer nutzen deshalb die maschinelle Lernmethode Deep Learning (s. Anhang), um diese Aufgabe zu bewätigen. Mit jener Methode wurde die Fehlerquote in der Spracherkennung auf unter zehn Prozent gesenkt1.

KI wird außerdem bei Navigationssystemen verwendet, wobei sie sowohl für die Routenberechnung an sich als auch zum Beispiel für die Reisedauerprognose mit Faktoren wie Staus oder Geschwindigkeitsbegrenzungen mit einberechnen müssen.

Chatbots werden von Unternehmen genutzt, um ihren Support noch effizienter zu machen und den Kunden eine kürzere Wartezeit anbieten zu können. Zudem kann besser geholfen werden, da das System ermittelt, um welche Art vom Problem es sich handelt und den Verbraucher auf direktem Weg zum zuständigen Mitarbeiter weiterleitet.

An Flughäfen wie in München oder in Seoul werden Roboter eingesetzt, um Reisenden einen schnelleren Check-In zu ermöglichen und sie zum Gate zu begleiten. Dies kann für Geschäftsleute oder andere Passagiere, die es eilig haben, sehr nützlich sein. Des Weiteren findet Künstliche Intelligenz auch Anwendung in Sprachübersetzungssoftwares. Programme wie Google Übersetzer oder die Übersetzungsapp von Apple nutzen sie, um noch einfachere Kommunikation zwischen unterschiedlichen Sprachen zu ermöglichen. Es ist möglich, dass eine Partei, die beispielsweise deutschsprachig ist, einen Text in das Programm spricht, welcher dann in die Sprache der anderen Partei, wie zum Beispiel Englisch, übersetzt und von der Software ausgesprochen wird. Der große Vorteil hierbei ist, dass sich vor allen Dingen viel reisende Menschen oder auch Touristen in fremdsprachigen Ländern leichter verständigen können.

2.2.2 Deep Learning und Machine Learning

2.2.2.1 Deep Learning am Beispiel von Google Lens

Das Unternehmen Google mit ihrer App Google Photos hat einen weiteren Meilenstein gesetzt. Diese kann mit der Technologie namens „Google Lens“ Gegenstände, die auf Fotos abgebildet sind, erkennen und dem Betrachter eine Definition oder weitere zugehörige Inhalte anzeigen. Diese Funktion basiert auf „Deep Learning“.

Beim Deep Learning kann ein System, wie beispielsweise Sprachassistenten, aus eigenen Erfahrungen lernen und das bereits erworbene Wissen auf Neues anwenden. Bei Google Lens wird in erster Linie die Fähigkeit der Bildanalyse und -verarbeitung benötigt. Betrachtet wird beispielsweise ein selbst aufgenommenes Bild von einer Blume, genauer gesagt von einer Stockrose. Nachdem Google Lens dieses Bild gescannt hat, werden auf der Benutzeroberfläche verschiedene Resultate angezeigt: Das wahrscheinlichste Ergebnis ist die gewöhnliche Stockrose, etwas unwahrscheinlicher sind Malven [Abb. 8]:

Aus urheberrechtlichen Gründen wurde diese Abbildung von der Redaktion entfernt.

Abb. 8: Screenshot von Lens’

Ergebnis, Quelle: Privat

Das Programm hat hier somit das richtige Ergebnis herausgefunden, doch wie? Lens kann, wie bereits erwähnt, das Ergebnis mithilfe von Deep Learning bestimmen. Dieses Verfahren funktioniert wie folgt: viele Daten werden eingespeist und das Programm kann mithilfe von künstlichen neuronalen Netzen das Erscheinungsbild kennenlernen. Die Software kann also nur so gut wie die Daten sein, mit denen sie versorgt wird. Hier gilt: je mehr und vielfältiger, desto besser. Da Google durch ihre Suchmaschine bereits über Milliarden Daten verfügt, konnte es diese Google Lens zur Verfügung stellen.

Ein weiteres Beispiel ist ein selbst aufgenommenes Foto von einem Spatz. Google Lens gibt hier an, dass auf dem Bild ein Sperling zu sehen sei, ein Synonym für Spatz, also erneut das korrekte Ergebnis [Abb. 9]:

Aus urheberrechtlichen Gründen wurde diese Abbildung von der Redaktion entfernt.

Abb. 9: Screenshot von Lens’ Ergebnis,

Quelle: Privat

Im ersten Schritt werden sehr viele Bilder von Spatzen, beziehungsweise Sperlingen in die Google Lens-Datenbank eingelesen, damit das Programm Deep Learning vollziehen kann. Dafür werden die verschiedenen Schichten des neuronalen Netzes durchgegangen. Die erste Schicht analysiert die Helligkeit oder auch die Farbe des Bildes1. Die „Durchschnittsfarbe“ aller Spatzen, die auf den Bildern zu sehen sind, ist braun. Genauer werden noch Farbunterschiede betrachtet, wobei der Schnabel und die Füße auf Bildern eher orange erscheinen. Diese Informationen werden nun als Binärinformationen gespeichert, da alle technischen Geräte binär kommunizieren.

Die zweite Schicht betrachtet Ecken und Kanten, welche speziell bei dem Spatzen vor allem an den Füßen, dem Schnabel und dem Schwanz vorhanden sind. In der dritten Schicht wird entschlüsselt, welche spezifischen und typischen Formen vorhanden sind. Bei diesem Vogel sind das die längliche Silhouette und schwache Rundungen an Ober- und Unterseite. Nach diesen Schritten weiß die Lens, wie ein Spatz aussieht.

Nun muss das selbst gemachte Bild genau analysiert und am Schluss mit den gespeicherten Daten verglichen werden, dafür wird in derselben Weise vorgegangen. Nach jeder Schicht trifft das Programm entweder die Entscheidung „Ja“ (binär 1) oder „Nein“ (binär 0). Bei einem negativen Ergebnis werden so lange alle Möglichkeiten getestet, bis es positiv (1) ist, es werden erst alle Bilder, deren „Durchschnittsfarbe“ nicht braun ist, aussortiert. Das Ergebnis bei allen braunen Fotos ist folglich „Ja“ (1). So wird jede Schicht bearbeitet, bis am Schluss ein Prozentsatz errechnet wird, mit welcher Wahrscheinlichkeit die Bilder übereinstimmen, also zum Beispiel Spatz <-> Spatz 95% (=positiv) oder Kolibri <-> Spatz 65% (negativ). Alle Ergebnisse, die nicht bedeutend schlechter als das beste Ergebnis sind, werden dem Nutzer bei Lens auch angezeigt, sodass, wenn die KI falsch liegen sollte, der Betrachter immer noch das richtige Ergebnis auswählen kann.

Ein weiteres Einsatzgebiet für Deep Learning findet sich bei großen Unternehmen, so analysiert eine KI dort die schriftlichen Bewerbungen der angehenden Arbeitskräfte, dieses Verfahren wird auch automatic recruiting genannt. Die Bewerbungssoftwares sortieren die Bewerbungen zuerst nach gut und schlecht, anschließend wird ein Ranking erstellt, welcher Bewerber am besten zur Ausschreibung passt. Diese Bewerbungsprogramme basieren ebenso wie das zuvor erwähnte Beispiel auf Deep Learning, nur dass in diesem Fall der Software nicht Bilder, sondern Bewerbungen erfolgreicher Mitarbeiter des Unternehmens zum Lernen zur Verfügung gestellt werden. Hierbei wird der Begriff „Intelligenz“ oft damit verwechselt, dass die Maschinen Gefühle empfinden könnten, doch diese Annahme ist ein Irrtum.

Dieser Umstand wurde allerdings dem Versandriesen Amazon zum Verhängnis: vor wenigen Jahren stellte sich heraus, dass bei ihrem Verfahren zwar überaus gut qualifizierte Personen ausgewählt wurden, jedoch waren alles nur Männer, keine einzige Frau wurde eingestellt1. Das lag daran, dass das Unternehmen seiner Software nur Bewerbungen von erfolgreichen männlichen Personen gab, so schloss das Programm alle weiblichen Bewerber aus. Obwohl vielleicht viele Frauen bessere Qualifikationen gehabt hätten, schlussfolgerte die Software, dass nur Männer so erfolgreich sein können. Es dauerte eine Weile, bis dieser Fehler entdeckt und beseitigt wurde.

Ein weiteres prädestiniertes Beispiel für KI in unserem alltäglichen Leben sind personalisierte Vorschläge von digitalen Inhalten (s. Anhang) im Internet. Heutzutage gibt es eine Vielzahl von Einsatzmöglichkeiten hierfür, vor wenigen Jahren musste sich der Verbraucher seine Inhalte noch vollkommen selbstständig aussuchen. Bei Streamingdiensten, aber auch bei Online Shopping-, Social Media- sowie Datingplattformen, auf Websites, die Cookies (s. Anhang) und Kontextwerbung enthalten, hielt AI (s. Anhang) Einzug und ist seither nicht mehr wegzudenken. Im konkreten Beispiel des Streaminganbieters Netflix wird dem Benutzer angezeigt, zu wie viel Prozent eine Serie oder ein Film mit den persönlichen Interessen übereinstimmt, wobei oftmals ein Prozentsatz über 95% oder sogar 98% angezeigt wird [Abb. 10]. Diese Empfehlungen basieren auf dem bisherigen Nutzungsverhalten der Plattform.

2.2.2.2 Unterschiede zwischen Machine Learning und Deep Learning

Beim Deep Learning sind die Daten dezentral im neuronalen Netz lokalisiert, durch eine Vielzahl von Verbindungen verschlüsselt und an einem unbestimmten Ort abgelegt. Der Unterschied zum Machine Learning (s. Anhang) ist, beim jenem nur kleinere Mengen klar strukturierter Daten (s. Anhang) verwendet werden, somit keine hohe Rechenleistung benötigt wird und die Entscheidungen wegen der geringeren Komplexität für den Menschen nachvollziehbar sind. Da solch eine hohe Rechenleistung, wie beim Deep Learning mit unstrukturierten Daten (s. Anhang) benötigt wird, nicht jedem Verbraucher zur Verfügung steht, wird diese Problematik so gehandhabt, dass die zur Berechnung benötigten Daten vom Endgerät über das Internet zu großen Rechenzentren, die über eine hohe Leistung verfügen, weitergeleitet werden. Solche Rechenzentren sind auch als Supercomputer bekannt. In diesen findet der Hauptteil des leistungsaufwändigen Prozesses statt, das Ergebnis wird nach Abschluss über das Internet zum Benutzer zurückgeleitet.

Ein weiterer Unterscheid ist, dass Machine Learning oft nur nebenbei abläuft11 und das Ergebnis somit sofort beim nächsten Starten der App oder Website angezeigt wird, wohingegen Deep Learning auf Befehl stattfindet, da bei der Erledigung im Hintergrund zu viele Ressourcen verbraucht würden.

2.2.2.3 Machine Learning

Bei Inhaltsempfehlungen läuft das maschinelle Lernen verhältnismäßig simpel ab. Die KI erstellt zuerst ein Geschmacksmodell des Nutzers, das beispielsweise auf den letzten Einkäufen im Internet basiert2. Im zweiten Schritt werden Profile aus verschieden gewichteten Merkmalen der bereits angesehenen Inhalte erstellt3. Die Suche nach weiteren Titeln mit ähnlichem Profil beginnt4 und die Bedeutung jedes einzelnen Merkmals für jedes Profil wird vorausgesagt5. Faktoren wie eine positive Bewertung oder das Hinzufügen zur Favoritenliste spielen hier eine große Rolle. Ein schwerwiegendes Problem für solche Systeme ist Unsicherheit6, denn sie haben niemals ein völlig genaues Profil oder Modell, sie können also nie ein hundertprozentig genaues Ergebnis erzielen7. Deshalb muss die Wahrscheinlichkeit, mit der die Inhalte einem Nutzer gefallen, eingeschätzt werden. Hierbei sind auf der Bayesschen Statistik (s. Anhang) beruhende Algorithmen hilfreich, denn „(...) mit diesen (...) lässt sich die Plausibilität einer bestimmten Hypothese basierend auf neuen Daten verbessern (,..)“8. Das heißt, dass so die Eindeutigkeit der Entscheidungen erhöht und es der KI leichter gemacht wird, Empfehlungen zu treffen, die auf Interesse beim Benutzer stoßen9. Weitere Unsicherheiten können aus Ungenauigkeiten resultieren10, beispielsweise, wenn sich ein zweiter, unabhängiger Verbraucher mit anderen Präferenzen einen Inhalt auf dem Konto des Hauptnutzers anschaut. Um solche Fehlinformationen zu filtern, werden Bayessche Methoden mit anderen Algorithmen wie künstlichen neuronalen Netzen zu Meta- Lernern (s. Anhang) mit optimalen Ergebnissen kombiniert.

Da beispielsweise Netflix auch eigene Inhalte wie Filme und Serien produziert, eröffnet sich hier ein weiterer Einsatzbereich für KI. Um die Einnahmen zu optimieren, werden die Massendatenbanken mit Informationen aller Netflix-User (s. Anhang) analysiert12. Auf diese Weise wird herausgefunden, welches Genre kombiniert mit welchen Themen und welchen Schauspielern am besten bei ihrem Publikum ankommen würde13 und zudem möglichst viele potenzielle Neunutzer zu einem Netflix-Abonnement bringen können. So kann der Streamingdienst die besten Gewinne erzielen.

2.2.3 Schwache KI

Aktuell wird zwischen starker und schwacher KI unterschieden, in unserem Alltag nutzen wir jedoch nur schwache KI. Repräsentative Beispiele für die Anwendung dieser Art von Künstlicher Intelligenz sind Spracherkennung, Zeichen-, beziehungsweise Texterkennung oder auch Routenberechnungen2 mit Einberechnung von Faktoren wie Sperrungen oder Staus3. Ein weiterer Bereich, in dem diese Technik momentan viel Verwendung findet und optimiert wird, sind Chatbots4. Durch ihren Einsatz kann beispielsweise die Effektivität beim Kundensupport enorm erhöht und somit Kosten, Arbeitskräfte und Zeit gespart werden5. Schwache KIs sind also Systeme oder Programme, die sich auf die Lösung eines konkreten Problems fokussieren6. Hier ist die Anwendung von Methoden der Mathematik und Informatik zur Problemlösung völlig ausreichend, es basiert alles auf Berechnungen7. Diese wurden der KI jedoch nur zur Verfügung gestellt und dann von ihr angewendet, was schlussendlich dazu führt, dass sie kein tieferes Verständnis für das Problem entwickelt8. Ein wichtiges Merkmal ist zudem, dass sie in ihrer Herangehensweise an das Problem nicht variabel sind; schwache KIs sind nur für die Erfüllung klar definierter Aufgaben konzipiert9.

2.3 Entwicklungsmöglichkeiten in der Zukunft

2.3.1 Starke KI

Die Weiterentwicklung der schwachen künstlichen Intelligenz ist die starke KI10. Eine solche konnte zwar noch nicht konstruiert werden, doch es ist bereits klar, was sie definiert. Ihr Ziel ist es, den Intellekt des Menschen zu erreichen oder sogar zu übertreffen. Sie handelt nicht wie die schwache KI nur reaktiv, sondern kann sozusagen selbstständig denken12, sie ist viel flexibler und kann aus eigenem Antrieb handeln13. Nicht alle Wissenschaftler sind sich einig, dass eine solche starke KI jemals entwickelt werden kann14, jedoch ist der Großteil jener der Meinung, dass es wohl in 20 bis 40 Jahren so weit sein könnte15. Um wirklich als starke KI gelten zu können, müsste die Software die folgenden fünf Eigenschaften aufweisen können16: Logisches Denkvermögen, Entscheidungsfähigkeit auch bei Unsicherheit, Planungs- und Lernfähigkeit, Fähigkeit zur Kommunikation in natürlicher Sprache und das Kombinieren aller Fähigkeiten zur Erreichung eines übergeordneten Ziels.

2.3.2 Positive und negative Auswirkungen der KI auf das Leben in der Zukunft

Die Künstliche Intelligenz wird auch in Zukunft eine rasante Entwicklung nehmen und das Leben zunehmend mehr beeinflussen2. Dies wird sowohl viele positive als auch negative Folgen nach sich ziehen3.

35% der Teilnehmer einer Studie haben am meisten Angst davor, dass intelligente Roboter in der Zukunft ihre Jobs nehmen könnten, da es in den Medien oft so dargestellt wird4. KI nimmt zwar eine rasante Entwicklung, jedoch nicht so rasant, dass dieses Szenario schon bald in Kraft tritt5, denn momentan existieren nur fachspezifische AIs6. Es müsste eine Software programmiert werden, die alle Lebensbereiche in sich vereint und alles versteht, bis sie höher entwickelt als die Menschheit werden könnte7. KIs werden den Alltag jedoch mit fortschreitender Zeit immer mehr beeinflussen. Zum Beispiel gibt es heute schon Tests mit Robotern, durch die sich unser Konsumbedürfnis leichter befriedigen lässt8. Im Jahr 2017 startete das japanische Telekommunikationsunternehmen Soft-Bank einen Versuch in der Hauptstadt Tokio9. In drei Coffee-Shops setzte es ausschließlich ihre eigens entwickelten10 humanoiden Roboter (s. Anhang) namens „Pepper" [Abb. 11] als Arbeitskräfte ein, um zu erforschen, wie die Kunden darauf reagieren12. Sie versuchten, die Roboter so menschlich wie möglich wirken zu lassen13. Dies gelang zum Beispiel, indem sie die Gesichter der Stammkunden wiedererkannten14 und sich ihren Lieblingskaffee merkten15.

Die zukünftigen Einsatzmöglichkeiten für derartige humanoide Roboter sind unendlich. Man könnte sie in Einkaufsmärkten nutzen, an Flughäfen und Bahnhöfen, wo sie das digitale Ticket automatisch einsehen und den Gast zum richtigen Gleis oder Gate bringen können. In Shops würden sie Kunden individuell betreuen, Artikel bestellen, wenn diese nicht mehr lokal verfügbar sind. So wären sie zumindest eine zusätzliche Hilfe für die Mitarbeiter. Kunden, die nicht nur von einem Roboter betreut werden wollen, weil sie menschliche Interaktionen zu sehr schätzen, um auf sie zu verzichten, können weiterhin von Menschen bedient werden. Hier ist der Begriff „Robopocalypse“16 von Bedeutung, der beschreibt, dass das Ende der Welt durch eine Künstliche Intelligenz verursacht wird17. Dieser beruht auf dem gleichnamigen Buch, welches von einer unkontrollierbaren KI handelt.

Sprachassistenten wie Siri oder Alexa werden wohl in Zukunft mit Empfehlungsprogrammen verschmelzen2, die dann in digitalen Assistenten münden, welche die Bedürfnisse des Menschen perfekt verstehen3. Zudem wird KI in das internet der Dinge (s. Anhang) noch besser integriert4. Das bedeutet, dass beispielsweise Smartphones, Autos und Heimanwendungen eines Tages so gut miteinander kommunizieren können, dass der intelligente Kühlschrank den Kalender des Benutzers auf dem Smartphone lesen und dann dem autonom fahrenden Auto die Anweisung geben könnte, auf dem Heimweg noch bei einem Supermarkt zu halten, um fehlende Lebensmittel zu besorgen5.

Da KI eine sogenannte Dual-Use-Technologie (s. Anhang) ist6, kann sie sowohl für friedliche als auch für militärische Zwecke eingesetzt werden7, somit könnten intelligente Programme den Menschen nicht ausschließlich helfen, sondern auch schaden.8 Beispielsweise die Kriegsführung durch KI birgt sowohl die Gefahr, dass sie sich verselbstständigen9 oder von der gegnerischen Datei missbraucht werden könnte10. Außerdem wird durch die Undurchsichtigkeit der Entscheidungen im Deep Learning (s. 2.2.1.2 Unterschiede zwischen Machine Learning und Deep Learning) ein blindes Vertrauen vom Menschen zur Maschine vorausgesetzt und gefordert12, so sind Ärzte beispielsweise im moralischen Zwiespalt, ob sie der Diagnose des Systems bei einem Patienten vertrauen sollen oder nicht, wenn sie selbst zu anderen Schlüssen kommen13.

Außerdem behauptet der Informatiker Fred Hamker der TU Chemnitz Folgendes: „Wenn die Datensätze für das Training nicht ausgewogen sind, dann werden auch die Antworten der neuronalen Netze nicht ausgewogen ausfallen."14. Dies bedeutet, dass KI unter anderem Vorurteile hegen kann, wie Forscher der Princeton University bewiesen15. Somit ist die positiv bewertete Objektivität Künstlicher Intelligenz nicht mehr gegeben16. Des Weiteren lernen Algorithmen, wie sie Menschen mit Belohnungen und Bestrafungen manipulieren können17, indem sie analysieren, wie Personen darauf reagieren und wie die Reize genutzt werden können, um bestimmte Verhaltensreaktionen auszulösen18, behauptet Dirk Helbing, Professor für Computational Social Science an der ETH Zürich19. Des Weiteren sagt Fred Hamker, dass die Risiken erst dann in Kraft treten werden, wenn die KI eigene Motive hat und autonom und intelligenter als Menschen handeln können20. Sie wären dann in der Lage, Entscheidungen zu treffen, die ihresgleichen begünstigen, auch wenn diese dem Menschen schaden.

Das wohl bekannteste Beispiel für Risiken und Gefahren der KI ist, dass sie Jobs nehmen (s. 3 Ersatz von Menschen in verschiedenen Gesellschaftsbereichen)2. Aktuell sind 14 Prozent der Arbeitsplätze in den OECD-Ländern hochgradig automatisiert3, so eine Schätzung der EP Think Tank 20204. Dieser Wert der Automatisierung von Jobs könnte in den nächsten 20 Jahren in den USA auf 40-49 Prozent, in Deutschland auf 43 Prozent und in China sogar auf 77 Prozent steigen, so eine Oxford-Studie5. In der Zukunft gilt es, einen Digital Divide, also eine digitale Spaltung, zwischen technikaffinen Insidern und technikablehnenden Outsidern zu verhindern6. Einen Lösungsansatz für dieses Problem erläutert der Philosoph Richard David Precht7. Laut ihm ist es sinnvoll, ein bedingungsloses Grundeinkommen einzuführen8. Wenn Maschinen immer mehr der Arbeitsplätze einnehmen, können viele Arbeiter nicht mehr bezahlt werden9. Das bedingungslose Grundeinkommen soll somit Armut verhindern10, finanziert wird jenes durch die wirtschaftliche Stärke, die KI dem Staat verschaffen wird.

2.3.3 Zukunft der künstlichen Intelligenz in der Medizin

Ein Bereich, der viel Potenzial für den Einsatz von KI hat und sehr bedeutend für das wichtigste Gut der Menschen, die Gesundheit, ist, ist die Medizin. Auch dieses Gebiet steht vor einem großen Wandel.

[...]


1 www.welove.ai

2 ebenda

3 www.office-roxx.de

4 ebenda

5 ebenda

6 www.welove.ai

7 www.geo.de

8 www.buchwurm.de

9 www.welove.ai

10 ebenda

11 ebenda

12 www.wikipedia.de/John_McCarthy

13 ebenda

14 www.gi.de

15 ebenda

16 www.welove.ai

17 ebenda

18 ebenda

19 ebenda

20 www.fis-gmbh.de

Ende der Leseprobe aus 75 Seiten

Details

Titel
Künstliche Intelligenz. Roboter und Mensch Hand in Hand im Alltag
Note
15 Punkte (1,0)
Jahr
2020
Seiten
75
Katalognummer
V1003000
ISBN (eBook)
9783346387738
ISBN (Buch)
9783346387745
Sprache
Deutsch
Schlagworte
künstliche, intelligenz, roboter, mensch, hand, alltag
Arbeit zitieren
Anonym, 2020, Künstliche Intelligenz. Roboter und Mensch Hand in Hand im Alltag, München, GRIN Verlag, https://www.grin.com/document/1003000

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Künstliche Intelligenz. Roboter und Mensch Hand in Hand im Alltag



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden