Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt durch die Digitalisierung


Bachelorarbeit, 2019

65 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

1 Einleitung

2 Mensch und Maschine im Kontext der Digitalisierung
2.1 Begriffe
2.1.1 Digitalisierung
2.1.2 Daten und Information
2.1.3 Künstliche Intelligenz, maschinelles Lernen
2.2 Neuroscience - Fähigkeit des menschlichen Gehirns
2.2.1 Informationsverarbeitung und Potenzial des menschlichen Gehirns
2.2.2 Grenzen des menschlichen Gehirns
2.3 Artificial Intelligence - Fähigkeit der Maschine
2.3.1 Informationsverarbeitung und Potenzial der Maschine
2.3.2 Grenzen der maschinellen Verarbeitung

3 Informationsasymmetrien 11
3.1 Begriff Informationsasymmetrie
3.2 Asymmetrische Information nach Akerlof
3.3 Principal-Agent-Theorie
3.3.1 Herleitung und Grundmodell
3.3.2 Definitionen und Grundgedanke der Principal-Agent-Theorie
3.3.3 Annahmen und Ziele der Principal-Agent-Theorie
3.4 Arten der Informationsasymmetrien
3.4.1 Informationsasymmetrie in der Literatur
3.4.2 HiddenAction
3.4.3 Hiddenlnformation
3.4.4 HiddenCharacteristics
3.4.5 Klassische Lösungsansätze zur Vermeidung von Marktversagen

4 Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt
4.1 Konsumentenmarkt
4.2 Analoge Informationsbeschaffung
4.3 Digitale Informationsbeschaffung
4.3.1 BigData
4.3.2 Web-Tracking und Empfehlungssysteme
4.4 Erhöhung der Informationsasymmetrien durch die Digitalisierung
4.4.1 Kostenlose digitale Produkte und Dienstleistungen
4.4.2 Ranking-Algorithmus TI
4.4.3 Web-Tracking und Empfehlungssysteme
4.5 Reduktion der Informationsasymmetrien durch die Digitalisierung
4.5.1 Elektronische Intermediäre als Vermittler zwischen Anbieter und Nachfrager
4.5.2 Web-Tracking und Empfehlungssysteme
4.6 Fallbeispiel Google
4.6.1 DasUnternehmenGoogle
4.6.2 Klick-Tracking als Verfahren der Datensammlung
4.6.3 Hidden Action und Hidden Information
4.6.4 HiddenCharacteristics
4.7 Fallbeispiel Amazon
4.7.1 DasUnternehmenAmazon
4.7.2 HiddenCharacteristics
4.8 Handlungsempfehlungen zur Reduktion asymmetrischer Information

5 Zusammenfassung und Fazit

Literaturverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Ein Vergleich zwischen einem Supercomputer, einem Personal Computer aus dem Jahr 2008 und dem menschlichen Gehirn

Abbildung 2: Klassifikation der Informationsasymmetrie und Risiken

1 Einleitung

Die Menschheit befindet sich mitten in der Digitalisierung. Ende des 18. Jahrhun­derts galt die industrielle Revolution als treibende Kraft des menschlichen und wirt­schaftlichen Fortschritts. Die auslösende Kraft dahinter war die Dampfmaschine, welcher auch die größte und schnellste Transformation der Weltgeschichte zuge­schrieben wird.1 Mehr als 300 Jahre später ließen sich mit allen weltweit verfügba­ren, auf CD-Rom gebrannten Daten fünf Stapel CD‘s bis zum Mond errichten.2 Die anfallenden Daten erreichen insofern eine neue Dimension.3 Auch von Informati­onsrevolution ist die Rede.4 Hilbert (2011) hat in einer umfassenden Studie ver­sucht, die Anzahl aller vorhandenen Informationen zu erfassen. Diese stammen un­ter anderem aus Büchern, E-Mails, Musik und Fernsehsendungen. Laut Hilbert sind im Jahre 2007 über 300 Exabyte5 gespeicherte Daten vorhanden.6 Für das Jahr 2013 liegen Schätzungen bei 1.200 Exabyte7 vorhandener Informationen.8 Die Ge­genwart ist von digitalen Technologien9 sowie steigender Verbreitung des Internets geprägt.10 Laut Schätzungen der International Telecommunication Union (2019) ist die Zahl der weltweiten Internetnutzer innerhalb von zehn Jahren von ca. 1,55 Mrd. (2008) aufca. 3,9 Mrd. (2018) angestiegen.11 So steht der Bevölkerung eine wach­sende Anzahl digitaler Informationen und Wissen zur Verfügung.12 Auch schnellere Kommunikation ist möglich.13 Insbesondere Unternehmen mit digitalen Geschäfts­modellen begrüßen das Aufkommen großer Datenmengen, um diese auszuwerten. So sammelt beispielsweise Google täglich 24 Petabyte an Daten.14

Informationsasymmetrie ist ein zentrales ökonomisches Problem, welches mit Fort­schreiten der Digitalisierung zunehmend an Bedeutung gewinnt.15 Asymmetrische Information wurde erstmals von Akerlof (1970) erörtert und ist zentraler Gegenstand der Principal-Agent-Theorie.16 Der theoretische Ansatz stammt aus der Neuen In­stitutionenökonomik (NIÖ).17 Annahmegemäß geht die NIÖ von eingeschränkter Rationalität der Individuen aus, da Menschen über begrenzt kognitive Fähigkeiten verfügen, so zum Beispiel bei der Informationsverarbeitung.18

Durch die Digitalisierung verändern sich asymmetrische Informationen zwischen Anbieter und Nachfrager.19 Neben der Daten- und Informationsmenge nehmen auch Konsumvielfalt und Konsumniveau zu.20 Inzwischen wird in diesem Kontext der Begriff Konsum 4.0 erwähnt, welcher die zunehmende Konsumveränderung durch die Digitalisierung darlegt. Der technische Fortschritt erleichtert sowohl die Verfügbarkeit und den Konsum von Informationen, als auch von Produkten und Dienstleistungen, die via Internet erworben werden können.21 Die Informationsmög­lichkeiten fürAnbieter und Konsument sind stark gewachsen. Im Vergleich dazu ist die menschliche Fähigkeit, die Informationen zu verarbeiten, unverändert geblie­ben.22 Die vorliegende Arbeit befasst sich mit der Veränderung asymmetrischer In­formation im Kontext der Digitalisierung mit dem Hintergrund veränderten Konsums und neuartiger Informationsbeschaffungsmethoden. Dies wirft folgende Frage auf:

Inwiefern beeinflusst die Digitalisierung die Veränderung der Informationsasymmet­rien auf dem Konsumentenmarkt?

Das Ziel der Arbeit ist, einen Einblick in Erhöhung und Reduktion der asymmetri­schen Information zu gewinnen. Anlässlich des kognitiven Ansatzes der NIÖ, wird kurz auf menschliche und maschinelle informationsverarbeitende Fähigkeiten, Po­tenziale und Grenzen Bezug genommen.

Zu Beginn werden Mensch und Maschine im Kontext der Digitalisierung gegenüber­gestellt. Zunächst werden einschlägige Begriffe definiert. Danach erfolgt ein grober Vergleich der Informationsverarbeitung im menschlichen Gehirn und der Maschine sowie der jeweiligen Potenziale und Grenzen. Das dritte Kapitel widmet sich der theoretischen Grundlage. Diese Arbeit stützt sich auf die Principal-Agent-Theorie und die damit einhergehenden Konsequenzen und Risiken der asymmetrischen In­formation. Die Arten, Folgen und klassischen Lösungsansätze der asymmetrischen Information werden zunächst grundlegend dargestellt. Das vierte Kapitel untersucht die Veränderung der asymmetrischen Information auf dem Konsumentenmarkt in Zeiten der Digitalisierung. Hierfür erfolgt zunächst eine Markteingrenzung. Ferner werden einige Möglichkeiten der Informationsbeschaffung vorder Digitalisierung er­läutert. Anschließend folgt die Gegenüberstellung ausgewählter Methoden digitaler Informationsbeschaffung. Daraufhin werden Reduktion und Erhöhung asymmetri­scher Information dargestellt. Hierfür wird neben den Methoden auch der Interme­diär als elektronischerVermittler zwischen Anbieter und Nachfrager betrachtet. Die praktische Ausführung der Principal-Agent-Theorie erfolgt anhand konkreter Fall­beispiele der Unternehmen Google und Amazon. Das Kapitel schließt mit der Vor­stellung ausgewählter Lösungsansätze. Das Fazit und ein kurzer Zukunftsausblick beschließen die Arbeit.

2 Mensch und Maschine im Kontext der Digitalisierung

2.1 Begriffe

2.1.1 Digitalisierung

Dem Begriff Digitalisierung lassen sich umfängliche und kontextabhängige Definiti­onen zuordnen.23 In der einschlägigen Literaturist keine einheitliche Begriffsbestim­mung vorhanden, daher scheinen folgende Definitionen adäquat für diese Bachelor­Thesis. Zum einen wird die Digitalisierung als Transfer analoger Werte in digitale Formate bezeichnet. Zum anderen findet der Begriff im Kontext der digitalen Revo­lution oder der digitalen Transformation definitorische Verwendung. Brennen und Kreiss (2016) unterscheiden zwischen Digitization und Digitalization. Der Begriff Digitization wird als Umwandlung analoger Informationsströme in digitale Informati­onsströme verstanden. Digitalization definieren die Autoren als Umstrukturierung der Bereiche des sozialen Lebens im Rahmen digitaler Kommunikations- und Me­dieninfrastrukturen.24 Hess (2019) stützt sich ebenfalls auf mehrfache Interpretatio­nen. Einerseits wird eine technische Interpretation verwendet. Hiernach werden Da­ten von analogen Speichermedien in digitale Speichermedien überführt. Anderer­seits versteht der Autor die Überführung der von Menschen ausgeführten Aufgaben in Computer. Im weiteren Sinne wird der Begriff Digitalisierung für die Einführung digitaler Technologien und als Determinante für die digitale Revolution verwendet.25 Wolf und Strohschen (2018) beschreiben eine Verwässerung durch die synonyme Verwendung des Begriffs Digitalisierung. Oftmals werden damit einhergehend Be­griffe wie Internet of Things oder Industrie 4.0 verwendet.26 Die Autoren „sprechen von Digitalisierung, wenn analoge Leistungserbringung durch Leistungserbringung in einem digitalen, computerhandhabbaren Modell ganz oder teilweise ersetzt wird.“27

Um eine grobe Abgrenzung des Zeitraums zwischen vor und nach der Digitalisie­rung vorzunehmen, wird die Jahrtausendwende betrachtet. Ab dem 21. Jahrhundert wird von digitalem Zeitalter gesprochen, da bis zum Ende des 20. Jahrhunderts noch die analoge Datenübertragung vorherrschend war. Es wird behauptet, dass im Jahre 2002 erstmalig mehr digitale Information als analoge Information (Druck­erzeugnisse) gespeichert wurden.28

2.1.2 Datenundlnformation

Daten werden aus Zeichen gebildet. Diese Zeichen befinden sich in einem Zeichen­bestand, welcher sowohl aus numerischen Zeichen (Ziffern), alphabetischen Zei­chen (Buchstaben) als auch alphanumerischen Datentypen (Sonderzeichen, Buch­staben, Ziffern) bestehen kann.29 Zur Anordnung der Zeichen werden definierte Syntaxregeln genutzt. Wenn diesen Daten zusätzlich eine Semantik (Bedeutung) zugeordnet wird, d. h. sie in einen bestimmten Kontext eingeordnet werden, entste­hen Informationen. Um dies anhand eines Beispiels zu verdeutlichen, nennt Krcmar (2015) einen Zeichenbestand, in dem sich eine 0, eine 8 und eine 7 befindet. Diese Zeichen werden dem Zeichenbestand Ziffern zugeordnet und anhand der Syntax 0,87 angeordnet, sodass Daten entstehen. Damit werden die Zeichen zu Daten. Anschließend erfolgt eine semantische Zuordnung der Daten. Durch die kontext­abhängige Einordnung entsteht eine Information. 0,87 ist ein Devisenkurs. Dieser entspricht dem Wert des Dollars in Euro. Eine allgemeinverständliche und um­gangssprachliche Definition des Begriffs Information beschreibt Seiffert (1971) als gegenwärtige Mitteilung über Dinge, die momentan zu wissen wichtig scheinen.30 Folglich widerfährt einem Menschen eine tägliche Konfrontation mit Informationen jeglicher Art.31 Information entsteht demnach durch menschliche Interpretation. Hierfür muss sie in einer Form dargestellt werden, damit sie zwischen Menschen ausgetauscht und von Maschinen verarbeitet werden kann.32 In der heutigen Zeit gilt Information als unabdingbarer Bestandteil wirtschaftlichen Handelns.33

2.1.3 Künstliche Intelligenz, maschinelles Lernen

Künstliche Intelligenz (Kl) ist ein Teilgebiet der Informatik und kann aus unterschied­lichen Perspektiven betrachtet werden.34 Dabei erscheint eine einheitliche Begriffs­abgrenzung schwierig, da einerseits die menschliche Intelligenz unzureichend er­forscht ist und andererseits viele Bereiche35 einbezogen werden.36 Kl wird in starke und schwache Kl differenziert. Schwache Kl fokussiert sich auf die Problemlösung auf Basis mathematischer Methoden (Algorithmen). Starke Kl soll intellektuelle Fä­higkeiten von Menschen nachahmen.37 So ergeben sich folgende Ansichten. Kl lässt sich zum einen anhand der verschiedenen Funktionen der Informatik betrach­ten wie Robotik, Bild-, Text- und Spracherkennung sowie Entwicklung wissensba­sierter Systeme.38 Zum anderen erfolgt ein Vergleich mit der menschlichen Komponente: Bezweckt wird, dass eine Maschine befähigt ist, Aufgaben anhand intelligenter Verarbeitungsfähigkeit zu erledigen. Dafür soll das menschliche Gehirn nachgeahmt werden.39 Dies kann mit Worten Luger’s (2009) zutreffend zu ergänzt werden: “(...) automation of intelligent behavoir”.40 Im Rahmen dieser Thesis liegt der Fokus auf folgender Betrachtung: Kl befasst sich mit der Erforschung mensch­licher Intelligenz mit dem Zweck, kognitive Prozesse des menschlichen Gehirns computerbasiert nachzubilden. Dadurch sollen Aufgaben so gut wie von Menschen oder besser ausgeführt werden.41

Maschinelles Lernen ist ein Teilgebiet der Künstlichen Intelligenz und vereint An­sätze verschiedener Bereiche wie Statistik, Psychologie, Informatik und Optimie­rung.42 Es wird definiert als automatisiertes Verfahren, das Muster aus Daten extra­hiert und wird genutzt, um große Datenmengen verwendbar zu machen.43 Mithilfe von Algorithmen ist es möglich, automatisch Regeln und Muster in Daten zu erken­nen, zusammenzufassen und daraus zu lernen.44 Ferner werden mittels Algorith­men Wahrscheinlichkeiten für bestimmte Ereignisse berechnet und Vorhersagen anhand analysierter Daten getroffen.45

Algorithmen sind festgelegte Rechenschritte, die in einer bestimmten Sequenz ab­laufen. Dabei erfolgt die Eingabe eines Wertes oder einer Menge von Werten, wo­raufhin die Ausgabe eines Wertes oder einer Menge von Werten erzeugt wird.46

2.2 Neuroscience - Fähigkeit des menschlichen Gehirns

2.2.1 Informationsverarbeitung und Potenzial des menschlichen Gehirns

Die kognitive Psychologie beschreibt den Menschen als informationsverarbeitendes System. Der aus der Umwelt wahrgenommene Reiz ist die Basis der Wahrneh­mung. Reize werden über die Sinnesorgane empfangen und zu einer Gesamtheit zusammengesetzt. Die Kognition bezeichnet die Verarbeitung dieser Informatio­nen.47

Mensch und Computer haben unterschiedliche Stärken und Schwächen.48 Men­schen haben Vorteile bei Kreativität, Assoziationsfähigkeit, Phantasie, Gefühl, bild­bezogener Orientierung und bleiben Maschinen darin vorerst überlegen.49 Ein Mensch ist befähigt, sich innerhalb Sekundenbruchteilen in einer für ihn neuen Um­gebung zurecht zu finden und dort zu agieren.50 Zudem wird der Mensch auch als intuitives Wesen beschrieben. Das bedeutet, dass erziel- und absichtsgeleitete Fä­higkeiten besitzt. Intentionalität gilt dazu als wesentliches Unterscheidungsmerkmal von Mensch und Maschine. Als Beispiel dient der Sprung eines Sportlers. Dieser kann nicht exakt so wiederholt werden, wie er einmal stattgefunden hat.51

Weiterhin besitzt der Mensch die Fähigkeit, kausal zu denken. Dies bedeutet, dass er in der Lage ist, Ursache und Wirkung in Beziehung zu setzen.52 Zudem werden menschliche Entscheidungen aufgrund kausaler Informationen getroffen.53 Eine wichtige Eigenschaft der menschlichen Intelligenz ist die Fähigkeit, mentale Abbil­dungen der Realität zu erstellen und „Was-wäre-wenn“-Szenarien zu durchdenken. Ein Beispiel für solch ein Szenario ist die Frage: „Was passiert, wenn ich Aspirin nehme, werden meine Kopfschmerzen dann geheilt?“54

2.2.2 Grenzen des menschlichen Gehirns

Russel und Norvig (2016) haben einen ungefähren Vergleich der Rechenressour­cen zwischen dem Supercomputer IBM Blue Gene55, einem typischen Personal Computer (PC) aus dem Jahre 2008 und dem menschlichen Gehirn in folgender Tabelle anschaulich dargestellt (Abbildung 1).56

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Ein Vergleich zwischen einem Supercomputer, einem Personal Com­puter aus dem Jahr 2008 und dem menschlichen Gehirn.57

Im Gehirn sind ca. zehn bis 100 Mrd. Nervenzellen (Neuronen) angesiedelt.58 Die Leistungsfähigkeit des menschlichen Gehirns steht im Wesentlichen fest. Hingegen sind die des Supercomputer ca. alle fünf Jahre um den Faktor zehn gestiegen. Mit der Ausnahme der Schaltzeit (cycle time) steht der PC an letzter Position. Die Schaltzeit des Supercomputer ist eine Mio. mal schneller als die Verarbeitungszeit des Gehirns. Das Gehirn gleicht dies mit mehr Speicher und Verbindungen (Synap­sen) aus als ein High End PC. Die Kapazität der größten Supercomputer ähnelt der menschlichen Gehirnkapazität. Es ist jedoch zu erwähnen, dass das Gehirn nicht alle Neuronen gleichzeitig nutzt.59

100 Mrd. Neuronen und mehrere 100 Billionen Verbindungen verarbeiten Informa­tionen in Millisekunden. So ist beispielsweise das visuelle System befähigt, Bilder innerhalb 100 ms erfolgreich zu dekodieren. Ebenfalls werden über die Lebens­dauer im Gehirn mehr als 109 Bits an Informationen gespeichert. Trotz der vorhan­denen Kapazitäten ist es kaum möglich, mehr als ein Objekt gleichzeitig zu bear­beiten oder zwei Aufgaben gleichzeitig auszuführen.60 In Ausdauer, Präzision und Weitergabegeschwindigkeit sind die Menschen den Computern deutlich unterle­gen.61

Der Psychologe Georg Miller (1955) zeigte auf, dass der Mensch durchschnittlich sieben Informationen gleichzeitig im Kurzzeitgedächtnis halten kann. Möglich sind auch zwei mehr oder weniger. Diese Fähigkeit soll abhängig von der Genetik eines Menschen sein.62 Parker (2012) hinterfragte diese Ansicht jedoch und geht davon aus, dass das Kurzzeitgedächtnis lediglich vier Informationen gleichzeitig verarbei­ten kann.63 Es ist allerdings davon auszugehen, dass die exakte Anzahl der simul­tan verarbeitbaren Informationen nicht von Bedeutung ist. Maschinen sind befähigt, mehr Informationen gleichzeitig verarbeiten zu können. Dies zeigt auch, dass Men­schen vergessen und Maschinen Informationen sofort abrufen können.64 Dieser Ab­schnitt soll verdeutlichen, dass die menschliche Gehirnkapazität evolutionär bedingt im Wesentlichen begrenzt ist.

2.3 Artificial Intelligence - Fähigkeit der Maschine

2.3.1 Informationsverarbeitung und Potenzial der Maschine

Die Grundlage der maschinellen Informationsverarbeitung ist das Eingabe-Verar­beitung-Ausgabe-Prinzip (EVA-Prinzip). Der Rechner erhält einen Input (Daten), verarbeitet diese anhand eines kodierten Algorithmus (Rechenvorschrift) und pro­duziert eine Ausgabe. Das Prinzip befasst sich demnach mit Eingangs- und Aus­gangsdaten, deren Verarbeitungsregeln Eingangsdaten in Ausgangsdaten (Input in Output) transformieren. Der Algorithmus ist demnach die Grundlage der maschinel­len Informationsverarbeitung.65

Maschinen66 sind befähigt, große, komplexe Datenmengen algorithmisch zu analy­sieren und daraus wichtige Informationen zu filtern sowie Musterzu erkennen. Bei­spielsweise können Daten aus Suchmaschinen, E-Commerce, Medizin oderAstro­nomie untersucht werden.67 Dies ist für den Menschen aufgrund seiner einge­schränkten kognitiven Fähigkeiten, Speicherkapazitäten und der Verarbeitungsge­schwindigkeit nicht möglich.68 So ist der Mensch beispielsweise nicht befähigt, in Datenbanken mit zehntausenden Datenreihen von bestellten T-Shirts Muster zu er­kennen. Die Maschine hingegen kann repetitive und fehleranfällige Auswertungen durchführen.69 Der Maschine steht nahezu unbeschränkte Speicherkapazität und zunehmende Verarbeitungsgeschwindigkeit zur Verfügung.70 Im Jahr 1996 wurde der ASCI Red als schnellster Supercomputer weltweit für rechenintensive Probleme (z. B. Atomtests) entwickelt. Die Entwicklungskosten betrugen ca. 55 Mio. US-Dol­lar. Um eine Rechengeschwindigkeit von mehr als einem Teraflop71 pro Sekunde zu erreichen, wurde 800 Kilowatt Strom pro Stunde benötigt. Bereits 1997 erreichte der Supercomputer eine Geschwindigkeit von 1,8 Teraflop. Im Vergleich dazu wurde neun Jahre später die Sony Playstation 3 ebenfalls mit der Rechengeschwin­digkeit von 1,8 Teraflop entwickelt. Der Preis dafür beträgt lediglich 500 US-Dollar. Der Stromvergleich liegt bei 200 Kilowatt pro Stunde.72 Dies zeigt, dass Maschinen deutliche Vorteile gegenüber Menschen aufgrund wachsender Möglichkeiten durch technischen Fortschritt haben. Ferner liegt die Stärke der Maschine darin, Wahr­scheinlichkeiten aus Datenmengen zu gewinnen.73 Auch können Maschinen Korre­lationen erkennen, wodurch neue Erkenntnisse gewonnen werden.74 So können beispielsweise Daten aus einem Fitnesstracker, die über einen eHealth-Service er­fasst wurden, mit aktuellen E-Mail Inhalten eines Konsumenten korreliert werden.75 Die Maschine kann Mrd. Fakten exakt speichern und diese sofort abrufen.76 Diese Datenmengen würden jeden Menschen überfordern.77

2.3.2 Grenzen der maschinellen Verarbeitung

Pearl (2018) stellt in seiner Arbeit u. a. Hemmnisse dar, welche zeigen, dass Ma­schinenfähigkeiten (noch) nicht als Grundlage für eine Kl dienen können. Der Autor unterteilt diese Hemmnisse in die Folgenden: Anpassungsfähigkeit oder Robustheit, Erklärbarkeit, Ursache-Wirkungs-Zusammenhänge. Anpassungsfähigkeit oder Ro­bustheit bedeutet, dass Kl-Systeme aktuell nicht die Fähigkeit besitzen, neue Umstände zu erkennen oder auf diese zu reagieren, sofern sie nicht speziell darauf programmiert werden. Die Erklärbarkeit ist als Hemmnis einzuordnen, da Maschi­nen nicht beherrschen, Gründe für ihre Vorhersagen zu erklären. Unter Ursache­Wirkungs-Zusammenhänge ist die Fähigkeit der Maschine zu verstehen, die Um­gebung zu inszenieren, diese durch Annahmen zu ändern und damit „Was-wäre- wenn?“-Fragen zu beantworten. Insbesondere Ursache-Wirkungs-Zusammen­hänge scheinen von Bedeutung zu sein, um das menschliche Intelligenzniveau im Bereich maschineller Intelligenz erreichen zu können. Kausales Denken ist eine un­abdingbare Komponente des menschlichen Gehirns.78

Ferner haben Maschinen kein Bewusstsein darüber, welche Daten und aus welchen Gründen sie Daten verarbeiten, in welchem Kontext die Daten verarbeitet werden und welche Bedeutung die Daten haben.79 So können auch Fehlentscheidungen durch Maschinen getroffen werden. Als Beispiel dient im Bereich der Bilderkennung das Bild einer Katze, welches von einem Google Kl-System als Katze identifiziert werden sollte. Allerdings wurde keine Katze erkannt, sondern das Lebensrnittel Gu­acamole.80

Russel und Norvig (2016) legen dar, dass Forscher noch keine hinreichende Kennt­nis im Bereich der Hirnforschung haben, um exakt zu verstehen, wie das menschli­che Gehirn Informationen verarbeitet und speichert. Daher lässt sich festhalten, dass selbst Computer mit unbegrenzter Kapazität, noch keinen Aufschluss darüber geben, wie die Intelligenz des menschlichen Gehirns zu erreichen ist.81

3 Informationsasymmetrien

3.1 Begriff Informationsasymmetrie

Asymmetrische Information bedeutet, dass ein Marktakteur mehr Informationen vor Vertragsabschluss, bei Vertragsabschluss oder während der Vertragserfüllung be­sitzt, als ein anderer Marktakteur. Unterschiedlicher Informationsstand kann sowohl vor als auch nach Vertragsschluss auftreten. Infolgedessen kann der Käufer lediglich erschwert fundierte Transaktionsentscheidungen treffen. Besitzen beide Parteien den gleichen Informationsstand zu einem bestimmten Zeitpunkt, so liegt Informationssymmetrie vor.82 Zunächst ist der Zustand der asymmetrischen Infor­mation dadurch gekennzeichnet, dass unterschiedliche Informationsstände zwi­schen den potenziell kontrahierenden Marktakteuren zu einem exakten Zeitpunkt bestehen.83 Dies muss nicht zwangsläufig problematisch sein. Bestehen allerdings Zielkonflikte zwischen Marktakteuren und wirken sich die Handlungen einer Partei auf das Ergebnis aus, welches aus der Beziehung entsteht, so kann asymmetrische Information problematisch sein.84

3.2 Asymmetrische Information nach Akerlof

Im Jahre 1970 veröffentlichte Georg A. Akerlof das Werk “The Market for Lemons: Quality Uncertainty and the Market Mechanism.”85 Darin beschreibt Akerlof das Marktversagen (Adverse Selektion) als Folge asymmetrischer Informationen zwi­schen Marktakteuren. Dargestellt wird die Problematik anhand eines Beispiels des Gebrauchtwagenmarktes. Auf dem Gebrauchtwagenmarkt sind zwei Fahrzeugka­tegorien vorhanden: qualitativ hochwertige und qualitativ minderwertige Gebraucht­wagen. Üblicherweise werden im US-amerikanischen Markt Gebrauchtwagen mit schlechter Qualität als Lemons bezeichnet. Der potenzielle Käufer hat keine Kennt­nis darüber, ob das Fahrzeug qualitativ hoch- oder minderwertig ist. Lediglich unter prohibitiv hohen Suchkosten86 kann er dies herausfinden. So kennt er die durch­schnittliche Qualität aller Fahrzeuge und wird daher nur bereit sein, den Preis für ein Auto durchschnittlicher Qualität zu zahlen. In einer unsicheren Situation wird er sich für ein günstiges Auto entscheiden. Der Durchschnittspreis ergibt sich aus dem Preis für ein qualitativ minderwertiges Auto und dem Preis für ein qualitativ hoch­wertiges Auto. Daraus ergibt sich, dass qualitativ hochwertige Fahrzeuge am Markt unterbewertet werden und qualitativ minderwertige Fahrzeuge überbewertet wer­den. Am Markt werden vorzugsweise Lemons gehandelt, da für qualitativ hochwertige Fahrzeuge lediglich der Durchschnittspreis erzielbar ist und der Ver­käufer nicht bereit ist, für diesen Preis zu verkaufen. Das hat zur Folge, dass quali­tativ gute Autos von qualitativ schlechten Autos vom Markt verdrängt werden: “The ,bad‘ cars tend to drive out the good.“87

3.3 Principal-Agent-Theorie

3.3.1 Herleitung und Grundmodell

Die Principal-Agent-Theorie88 ist ein theoretisches Modell und neben dem Property- Rights-Ansatz sowie der Transaktionskostentheorie ein wesentlicher Ansatz im Be­reich der Neuen Institutionenökonomik. Die Transaktionskostentheorie beschäftigt sich mit der Organisation wirtschaftlicher Tauschbeziehungen und den damit ein­hergehenden Transaktionskosten. Der Property-Rights-Ansatz regelt Verfügungs­rechte, die bei der Nutzung knapper Ressourcen in einem Wirtschaftssystem über­tragen werden.89 Der Begriff NIÖ wurde von Williamson (1975) eingeführt.90 Als Er­weiterung und Kritik der Neoklassischen Theorie befasst sie sich mit der ökonomi­schen Analyse von Institutionen.91 Institution wird von Richter und Furubotn (2010) als System formaler Regeln (Gesetze, Verfassungen) und informaler Regeln (Sit­ten, Verhaltensnormen) bezeichnet, welches menschliche Verhaltensweisen inner­halb einer Gesellschaft beeinflusst.92

Den folgenden Grundannahmen unterliegt die NIÖ. Die NIÖ unterstellt, dass Infor­mationsbeschaffung Transaktionskosten verursacht.93 Außerdem wird angenom­men, dass die Rationalität der Marktakteure begrenzt ist. Das resultiert u. a. ihren limitierten kognitiven Fähigkeiten.94 Dies bedeutet, dass ein Individuum von vollum­fänglich rationalem Verhalten abweicht und somit dem Leitbild des Homo Oecono- micus widerspricht. Der Homo Oeconomicus wird von Kreps (1990) als vollständig rationales Wesen beschrieben, da er unter vollständiger Information jeden möglichen Umstand kennt.95 So kann er sofort und ohne anfallende Transaktions­kosten aus allen Handlungsalternativen das Optimum auswählen.96 Die NIÖ geht davon aus, dass Marktakteure zu opportunistischen Verhaltensweisen neigen. Op­portunistisch ist der Akteur, da sein Eigeninteresse unter Hinnahme von Unaufrich­tigkeit im Vordergrund steht.97

3.3.2 Definitionen und Grundgedanke der Principal-Agent-Theorie

Jensen (1983) unterscheidet erstmals zwei Forschungsansätze innerhalb der Prin­cipal-Agent-Theorie. Zum einen den normativen Ansatz, welcher mathematisch analytisch ausgerichtet ist, um vertragliche Optimierungen zu analysieren. Zum an­deren den positiven Ansatz, der sich verbaler Methoden bedient und institutionelle Gestaltung von Auftragsbeziehungen beschreibt.98 Die vorliegende Arbeit richtet sich nach der positiven Principal-Agent-Theorie.

Ross widmet sich 1973 der Analyse von Principal-Agent-Beziehungen unter asym­metrischer Informationsverteilung.99 Der Autor definiert wie folgt: „We will say that an agency relationship has arisen between two (or more) parties when one, desig­nated as the agent, acts for, on behalf of, or as representative for the other, desig­nated the principal, in a particular domain of decision problems.”100 Jensen und Meckling (1976) führen dies weiter aus und betrachten die Beziehung zwischen Principal und Agent als Vertragsverhältnis. Zudem werden die Parteien als Nutzen- maximierer dargestellt. Außerdem wird angenommen, dass der Principal nicht im­mer im besten Interesse des Agent handelt.101 Eine Beziehung zwischen Principal und Agent entsteht laut Pratt und Zeckhauser (1985), sofern ein Akteur von der Handlung eines anderen Akteur abhängt. Der ausführende Akteur wird als Agent bezeichnet, der Auftraggeber als Principal.102 Im Wesentlichen lässt sich festhalten, dass verschiedene Ökonomen die Theorie entwickelt und weiterentwickelt haben, woraus sich unterschiedliche Ansätze und Inhalte ergeben haben. Dies äußert sich in teilweise ungenauen Begriffsdefinitionen.103

Der Grundgedanke der Principal-Agent-Theorie ist der Einfluss asymmetrischer In­formation auf die Beziehung von Individuen oder Unternehmen (Wirtschaftssub­jekte). Auf der einen Seite steht der Agent als Beauftragter, auf der anderen Seite der Principal als Auftraggeber.104 Möglich ist ebenso, dass mehrere Agents für ei­nen Principal tätig sind.105 Allerdings stellt Meinhövel (2004) fest, dass eine explizite Definition des Inhalts der Beziehung zwischen Principal und Agent bislang in wis­senschaftlicher Literatur fehlt.106 Principal-Agent-Beziehungen können beispiels­weise zwischen Käufer und Verkäufer, Versicherer und Versichertem, Kapitalgeber und Kapitalnehmer, Aufsichtsrat und Vorstand und Staat und Steuerzahler beste­hen.107

3.3.3 Annahmen und Ziele der Principal-Agent-Theorie

Charakteristisch für Principal-Agent-Beziehungen sind folgende Annahmen: Die Ak­teure unterliegen einer Beziehung bzw. einem Vertragsverhältnis. Laut Pratt und Zeckhauser (1985) kann die Beziehung zwischen Principal und Agent im weiteren Sinne definiert werden. Sie liegt bereits vor, wenn die Wohlfahrt einer Partei von der Handlung einer anderen Partei abhängt.108 Der Begriff Vertrag ist im weiteren Sinne zu interpretieren. Zum einen kann ein Vertrag im Sinne der Rechtswissenschaft vor­liegen. Dabei gilt die Willenserklärung als bedeutsamer Bestandteil des Vertra­ges.109 Zum anderen kann sich ein Vertrag aufeine Beziehung zwischen zwei Par­teien ausprägen. Daraus resultiert, dass eine Partei die andere mit ihren Interessen betraut.110 Hierbei delegiert der Principal eine Aufgabe oder Entscheidungskompe­tenz an den Agent, woraus sich ergibt, dass der Principal eine Leistung des Agent erhält und dieser dafür vergütet wird. Mit der Übertragung einer Aufgabe geht zwangsläufig ein gewisser Entscheidungsspielraum einher.111 Der Principal kann Einsatzbereitschaft des Agent und Qualität der erledigten Aufgabe weder lenken noch observieren.112

In dem Modell wird davon ausgegangen, dass die Interessen von Principal und Agent nicht konsentieren.113 Jensen und Meckling (1976) verdeutlichen dies: „In ad­dition there will be some divergence between the agent’s decisions* and those de­cisions which would maximize the welfare of the principal.”114 Ferner sind die Markt­akteure Nutzenmaximierer.115 Nutzenmaximierendes Handeln bedeutet in diesem Kontext, dass ein Akteur - in dem Fall der Agent - nicht versucht, den Vertrag best­möglich im Sinne des Principal zu erfüllen, sondern das Informationsdefizit des Prin­cipal auszunutzen, um folglich seinen persönlichen Nutzen zu maximieren. Zudem gilt die Grundannahme, dass der Agent den besser informierten Akteur darstellt.116

In einer Principal-Agent-Beziehung fallen Agency Costs (Agenturkosten) an. Sie verstehen sich als Differenz zwischen vollkommener Information und unvollkomme­ner Information. Dabei wird zwischen Steuerungs- und Kontrollkosten, Signalisie­rungskosten und Residualkosten unterschieden. Steuerungs- und Kontrollkosten entstehen, wenn der Principal sein Informationsdefizit abbaut. So kann der Principal nur unter hohen Kosten sicherstellen, dass der Agent aus Sicht oder im Interesse des Principals optimale Entscheidungen trifft. Signalisierungskosten bezeichnen Kosten des Agent, dem Prinicipal zu zeigen, dass er keine opportunistischen Ab­sichten hat. Der verbliebene Verlust, trotz des Versuchs beider Marktakteure, die asymmetrische Information zu verringern, wird als Residualverlust bezeichnet.117

Die Principal-Agent-Theorie verfolgt das Ziel, konkrete Handlungsempfehlungen abzuleiten, um Marktversagen durch asymmetrische Informationen vorzubeugen. Es sollen Strukturen geschaffen werden, um Probleme zu vermeiden, die aus Prin- cipal-Agent-Beziehungen entstehen. So soll der Agent durch Anreize dazu gebracht werden, im Interesse des Principals zu handeln.118

[...]


1 Vgl. Brynjolfsson/McAfee, 2014, S. 21 f.

2 Vgl. Mayer-Schönberger/Cukier, 2013, S. 16

3 Vgl. Mayer-Schönberger/Cukier, 2013, S. 14-16

4 Vgl. Mayer-Schönberger/Cukier, 2013, S. 14

5 Ein Exabyte entspricht einer Mrd. Gigabyte.

6 Vgl. Hilbert/Lopez, 2012, S. 958, 964

7 Davon sind weniger als zwei Prozent analog gespeichert. Vgl. Mayer-Schönberger/Cukier, 2013, S. 16

8 Vgl. Mayer-Schönberger/Cukier, 2013, S. 16

9 Diese basieren im Wesentlichen auf Hardware, Software und Netzwerken. Vgl. Brynjolfs­son/McAfee, 2014, S.26

10 Vgl. Brynjolfsson/McAfee, 2014, S. 26

11 Vgl. International Telecommunication Union, 2019

12 Vgl. Brynjolfsson/McAfee, 2014, S. 173; Picot/Scheuble, 2000, S. 3

13 Vgl. Brynjolfsson/McAfee, 2014, S. 173

14 Vgl. Mayer-Schönberger/Cukier, 2013, S. 15; Davenport/Barth/Bean, 2012

15 Vgl. Thielmann, 2013

16 Vgl. Akerlof, 1970, S. 488-500

17 Vgl. Richter/Furubotn, 2010, S. 40 f.

18 Vgl. Simon, 1957, S. 241 f.

19 Vgl. Backhaus/Paulsen, 2018, S. 113

20 Vgl. Brynjolfsson/McAfee, 2014, S. 27

21 Vgl. Kahlenborn et al., 2018, S. 8

22 Vgl. Thielmann, 2013

23 Vgl. Hess, 2019

24 Vgl. Brennen/Kreiss, 2016, S. 1

25 Vgl. Hess, 2019

26 Vgl. Wolf/Strohschen, 2018, S. 57 f.

27 Wolf/Strohschen, 2018, S. 58

28 Vgl. Brückner, 2015, S. 5

29 Vgl. Mertens et al., 2017, S. 37; Thome/Winkelmann, 2015, S. 45; Bodendorf, 2003, S. 1

30 Vgl. Seiffert, 1974, S. 24

31 Vgl. Krcmar, 2015.S.11 f.

32 Vgl. Jendrian/Weinmann, 2010, S. 108

33 Vgl. Thome/Winkelmann, 2015, S. 45

34 Vgl. Buxmann/Schmidt, 2019, S. 6; Döbel etal., 2018, S. 8; Lämmel/Cleve, 2012, S. 13

35 Grundlegende Bereiche sind u. a.: Mathematik, Philosophie, Wirtschaft, Psychologie, Neurowis­senschaften, Informatik. Vgl. Russel/Norvig, 2016, S. 5-16

36 Vgl. Buxmann/Schmidt, 2019, S. 6; Russel/Norvig, 2016, S. 12

37 Vgl. Buxmann/Schmidt, 2019, S. 6 f.

38 Vgl. Lämmel/Cleve, 2012, S. 13

39 Vgl. Dresler, 2009, S. 38

40 Vgl. Luger, 2009, S. 1

41 Vgl. Ertel, 2013, S. 2

42 Vgl. Pereira/Borysov, 2019, S. 9; Kapitanova/Son, 2013, S. 1

43 Vgl. Morik, 2018, S. 22; Kelleher/Mac Namee/D’Arcy, 2015, S. 39

44 Vgl. Kapitanova/Son, 2013, S. 1

45 Vgl. Kelleher/Mac Namee/D’Arcy, 2015, S. 39

46 Vgl. Thome/Winkelmann, 2015, S. 287; Cormen, 2009, S. 5

47 Vgl. Butz/Krüger, 2017, S. 9

48 Vgl. Butz/Krüger, 2017, S. 9

49 Vgl. Thome/Winkelmann, 2015, S. 286

50 Vgl. Ertel, 2013, S. 3

51 Vgl. Mainzer, 2012, S. 137 f.

52 Vgl. Pearl, 2018, S. 1 f.; Mayer-Schönberger/Cukier, 2013, S. 80

53 Vgl. Mayer-Schönberger/Cukier, 2013, S. 25

54 Vgl. Pearl, 2018, S. 2; Kurzweil, 2005, S. 107

55 Vgl. IBM, Blue Gene

56 Vgl.Russel/Norvig, 2016, S. 12.

57 Russel/Norvig, 2016, S. 12; Die Tabelle kann im Rahmen dieser Arbeit nicht vollständig erläutert werden. Zur weiteren Recherche vgl. Russel/Norvig, 2016, S. 12; Synapsen sind Verbindungs­stellen zwischen Nervenzellen und übertragen Signale. Vgl. Myers, 2014, S. 54; Die Kapazitäten der Laufwerke (Disk) liegen heute im unteren Terabyte-Bereich. Vgl. Thome/Winkelmann, 2015, S. 212

58 Vgl. Ertel, 2013, S. 247

59 Vgl. Russel/Norvig, 2016, S. 11

60 Vgl. Marois/Ivanoff, 2005, S. 296

61 Vgl. Thome/Winkelmann, 2015, S. 286

62 Vgl. Miller, 1956, S. 81-97

63 Vgl. Parker, 2012, 476-478.

64 Vgl. Thome/Winkelmann, 2015, S. 183

65 Vgl.Mertens etal.,2017,S. 11

66 Für den Begriff Maschine wird Kl-System oder System synonym verwendet

67 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3f; Mainzer, 2012, S. 136

68 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3

69 Vgl. Herbrich, 2019, S. 73

70 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3f.; Russel/Norvig, 2016, S. 12

71 Dies sind mehr als eine Mrd. Floating Point Operations (Gleitkommaoperationen) pro Sek. Vgl. Brynjolfsson/McAfee, 2014, S. 94 f.

72 Vgl. Brynjolfsson/McAfee, 2014, S. 94 f.

73 Vgl. Mayer-Schönberger/Cukier, 2013, S. 20

74 Vgl. Mayer-Schönberger/Cukier, 2013, S. 22

75 Vgl. Mühlhoff, 2019, S. 10

76 Vgl. Kurzweil, 2005, S. 107

77 Vgl. Streibich/Zeller, 2019, S. 110

78 Vgl. Pearl, 2018, S. 5. Die Fußnote beziehtsich aufden gesamten Absatz.

79 Vgl.Döbel et al.,2018,S.8

80 Vgl. Buxmann/Schmidt, 2019, S. 15f.; Athalye et al., 2017

81 Vgl. Russel/Norvig, 2016.S.13

82 Vgl. Kiener, 1990, S. 49

83 Vgl. Schenk-Mathes, 1999, S. 38

84 Vgl. Schenk-Mathes, 1999, S. 37

85 Vgl. Akerlof, 1970, S. 488-500

86 Suchkosten fallen bei der Suche nach geeigneten Produkt- und Dienstleistungsalternativen an. Sie werden unterschieden in implizite und explizite Kosten sowie Opportunitätskosten. Vgl. Hinz/Eckert, 2010, S. 66; Suchkosten werden in dieser Arbeit am Rande behandelt, da die The­matik mit der Principal-Agent-Theorie verwandt ist.

87 Akerlof, 1970, S. 489

88 Wird in der Literatur ebenso als „Ökonomische Vertragstheorie“ bezeichnet. Vgl. Richter/Furubotn, 2010, S. 41

89 Vgl. Richter/Furubotn, 2010, S. 40 f.

90 Vgl. Richter/Furubotn, 2010, S. 39

91 Vgl. Richter/Furubotn, 2010, S. 2, S. 50

92 Vgl. Richter/Furubotn, 2010, S. 7

93 Vgl. Clement/Schreiber, 2013, S. 206, 209; Richter/Furubotn, 2010, S. 41

94 Vgl. Simon, 1957, S. 241 f.

95 Vgl. Kreps, 1990, S. 764

96 Vgl. Kreps, 1990, S. 744

97 Vgl. Kreps, 1990, S. 745; Diese Eigenschaft wurde begrifflich von Williamson (1975) geprägt. Vgl. Richter/Furubotn, 2010, S. 5 f.

98 Vgl. Richter/Furubotn, 2010, S. 41 f.; Meinhövel, 2004, S. 471; Arrow, 1986, S. 1184; Jensen, 1983, S. 2

99 "Vgl. Ross, 1973, S. 134

100 Ross, 1973, S. 134

101 Vgl. Jensen/Meckling, 1976, S. 308

102 Vgl. Pratt/Zeckhauser, 1985, S. 2

103 Vgl. Richter/Furubotn, 2010, S. 173

104 Vgl. Richter/Furubotn, 2010, S. 173; Pratt/Zeckhauser, 1985, S. 2

105 Vgl.Arrow, 1986, S.1183

106 Vgl. Meinhövel, 2004, S. 470; Jost, 2001, S. 11

107 Vgl. Kaluza/Dullnig/Malle, 2003, S. 18; Picot, 1989, S. 370

108 Vgl. Pratt/Zeckhauser, 1985, S. 2

109 Vgl. Richter/Furubotn, 2010, S. 166-170

110 Vgl. Richter/Furubotn, 2010, S. 166-170; Kirsch/Picot, 1989, S. 370

111 Vgl. Richter/Furubotn, 2010, S. 32, S. 173; Jost, 2002, S. 11

112 Vgl. Pratt/Zeckhauser, 1985, S. 2 f.

113 Vgl. Jost, 2001, S. 17

114 Jensen/Meckling, 1976, S. 308

115 Vgl. Pratt/Zeckhauser, 1985, S. 3; Jensen/Meckling, 1976, S. 308

116 Vgl. Pratt/Zeckhauser, 1985, S. 4

117 Vgl. Picot, 2001, S. 57; Pratt/Zeckhauser, 1985, S. 3; Jensen/Meckling, 1976, S. 308

118 Vgl. Kaluza/Dullnig/Malle, 2003, S. 19

Ende der Leseprobe aus 65 Seiten

Details

Titel
Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt durch die Digitalisierung
Note
1,7
Autor
Jahr
2019
Seiten
65
Katalognummer
V1172280
ISBN (eBook)
9783346598271
ISBN (Buch)
9783346598288
Sprache
Deutsch
Schlagworte
Informationsasymmetrie, Digitalisierung, Konsumentenmarkt, Market for Lemons, Künstliche Intelligenz, Informationsverarbeitung, Gehirn
Arbeit zitieren
Rebecca Kupka (Autor:in), 2019, Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt durch die Digitalisierung, München, GRIN Verlag, https://www.grin.com/document/1172280

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt durch die Digitalisierung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden