Digitalisierung in der deutschen Private Equity Branche. Auswirkungen auf den Investmentprozess


Bachelorarbeit, 2020

163 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abstract (Deutsch)

Abstract (English)

Abkürzungsverzeichnis

1. Einführung
1.1 Problemstellung
1.2 Forschungstand und Forschungslücke
1.3 Aufbau der Arbeit, Abgrenzung und Zielsetzung

2. Private Equity Grundlagen
2.1 Private Equity im Kontext der Unternehmensfinanzierung
2.2 Geschäftsmodell, Transaktionsablauf und die rechtlichen Strukturen

3. Grundlagen Big Data und Künstliche Intelligenz
3.1 Begriff und Anforderungen
3.2 Überblick über Big Data Technologien
3.3 Big Data Analytics
3.3.1 Data Mining Prozess
3.3.2 Big Data als Treiber für Künstliche Intelligenz (KI)

4. Chancen und Risiken für die Private Equity Branche durch den Einsatz von Big Data (Analytics) und KI
4.1 Methodik/Aufbau der empirischen Studie
4.2 Der traditionelle PE-Investmentprozess
4.2.1 Deal Sourcing
4.2.2 Due Diligence und Kaufabwicklung
4.2.3 Operative Wertschöpfung/Portfolio-Management und Exit
4.3 Digitale Disruption des PE-Investmentprozesses
4.3.2 Deal Sourcing
4.3.3 Due Diligence und Kaufabwicklung
4.3.4 Portfolio-Monitoring/operative Wertschöpfung und Exit
4.4 Darlegung der Forschungsergebnisse
4.4.1 Positionen, Tätigkeitsbereiche und Sweet-Spots (Frage 1)
4.4.2 Fondsgrößen und Mitarbeiteranzahl (Fragen 2 und 3)
4.4.3 Bisherige Berührungspunkte zu BDA und KI (Frage 4)
4.4.4 Akzeptanz und Rogers‘ Adaptionskurve (Fragen 5 und 6)
4.4.5 Vor- und Nachteile (Frage 7)
4.4.6 beeinflusste Phasen und Job-Positionen (Frage 8)
4.4.7 Überblick Investmentprozess (Frage 9)
4.4.8 Gründe für/gegen den bisherigen Einsatz von KI und/oder BDA (Frage 10)
4.4.9 Erkenntnisse bisheriger KI/BDA-Verwendung bzw. Nachdenken über künftige Implementierung (Fragen 11 und 12)
4.5 Interpretation der Forschungsergebnisse

5. Fazit

Literaturverzeichnis

Anhang
Anhang 1 Zusatzinformationen zur Thesis
Anhang 1.1 ausführlich beschriebener PE-Forschungsstand
Anhang 1.2 Due Diligence Formen
Anhang 1.3 Buyout-Formen
Anhang 1.4 Erläuterungen einiger Begrifflichkeiten
Anhang 2 Übersicht Big Data Technologien
Anhang 3 Schaubilder für Thesis
Anhang 4 Fragenbogen für Experteninterviews
Anhang 5 transkribierte Experteninterviews
Anhang 5.1 Interview # 1 – Gedächtnisprotokoll
Anhang 5.2 Interview # 2
Anhang 5.3 Interview # 3
Anhang 5.4 Interview # 5
Anhang 5.5 Interview # 6
Anhang 5.6 Interview # 7
Anhang 6 Modifizierte Paraphrasierung der Interviews

Abstract (Deutsch)

Bis zur Coronavirus-Krise boomte einerseits die Private Equity-Branche, andererseits sieht sie sich mit vielen Herausforderungen konfrontiert, insb. bei der bisher mangelnden Digitalisierung innerhalb der Branche. Big Data ist auch ein Treiber für die Künstliche Intelligenz (KI). Die Unterform Machine Learning ist sehr relevant für die Datenanalyse, auch für die PE-Branche. Das Ziel dieser Thesis ist es herauszufinden, wie sich die Digitalisierung, v. a. Big Data (Analytics) (BDA) und Künstliche Intelligenz (KI), auf den Investmentprozess auswirken kann. Das dahinterstehende Potenzial wird durch eine qualitative Studie und einen eigenen Use Case aufgezeigt. Dabei profitieren vor allem das Deal Sourcing, die Due Diligence, die operative Wertschöpfung und der Exit, wodurch der traditionelle Weg nicht mehr zeitgemäß ist. Zu den zentralen Erkenntnissen der Studie zählen, dass die meisten Praktiker bereits thematische Berührungspunkte hatten, obwohl sich die deutsche PE-Branche gemäß der Innovations-Adaptionskurve von Rogers‘ noch im digitalen Anfangsstadium befindet. Die wichtigsten Effekte sind Kosten- und Zeiteinsparungen, jedoch wird auch die Gefahr gesehen, das „ Handwerk “ zu verlernen oder das die Datenquellen unzuverlässig sind. Bisher werden BDA und KI vor allem als Deal Sourcing -Tool eingesetzt. Diejenigen, wo noch keine Implementierung erfolgte, denken aber für die kommenden Jahre über eine solche nach.

Keywords: Private Equity, Digitalisierung, Investmentprozess, Künstliche Intelligenz, Big Data, Big Data Analytics, Rogers‘ Innovations-Adaptionskurve, Deal Sourcing, Due Diligence, Portfoliomanagement

Abstract (English)

The Private Equity-Industy was booming until the Coronavirus crisis, but it has been facing several Challenges, especially the lack of digitaization within the industry. Big Data is the driver for Artificial Intelligence (AI). Escpecially the sub-category Machine Learning is very relevant for Data-Analysis, even für the PE-Industry. The Thesis‘ objective is to find out, how the digitization, mainly Big Data (Analytics) (BDA) and Artificial Intelligence (AI), have an impact on the investment process. The potential behind those will be shown by a qualitative study and a proprietary use-case. In doing so the most profit can be seen mainly in the phases of deal sourcing, due diligence, portfolio management and the exit, whereby the traditional way is no longer seasonable. One of the key insights of the study is, that most of the practitioner already had boundary points to these technologies, even though the German PE-industry is still in its digital initial stage according to Rogers‘ Innovation Adoption Curve. Cost savings and savings of time are the most important effects beside the peril of forgetting the „ Handwerk “ (handicraft) or unreliable data sources. So far BDA and AI are mainly used for deal sourcing. And the ones, who have not implemented those technologies yet, are thinking about implementing those within the upcoming years.

Keywords: Private Equity, Digitaization, Investment process, Artificial Intelligence, Big Data, Big Data Analytics, Rogers‘ Innovation Adoption Curve, Deal Sourcing, Due Diligence, Portfolio management

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Tabellenverzeichnis

Tabelle 1: Übersicht bisherige PE-Forschungsthemen

Tabelle 2: Darstellung des bisherigen PE-Forschungsstandes

Tabelle 3: Übersicht der wichtigsten Data-Mining-Verfahren

Tabelle 4: zielgruppengerechte Datenerhebung

Tabelle 5: Szenarien für das Deal Sourcing

Tabelle 6: Szenarioanalyse für DD und Kaufabwicklung

Tabelle 7: Use Case Vergleich zw. traditioneller und digitaler PEG

Tabelle 8: Gegenüberstellung Literatur mit Erkenntnissen hiesiger Thesis

Tabelle 9: modifizierte Paraphrasen der Interviews

Abbildungsverzeichnis

Abbildung 1: Struktur von PE-Beteiligungen

Abbildung 2: Big Data Zusammenhänge

Abbildung 3: Visualisierung der "5 V's" von Big Data

Abbildung 4: Big Data Analytics Architektur

Abbildung 5:Fayyad's Knowledge Discovery in Databases (KDD)

Abbildung 6: Standardaufbau Machine Learning Anwendung

Abbildung 7: PE-Investmentprozess

Abbildung 8: Deal Sourcing Strategien

Abbildung 9: Welche Dienstleistungen beim Deal Sourcing miteinbezogen werden sollten

Abbildung 10: Experten-Einordnung PE-Branche in DE und USA in Rogers' Adoptionskurve

Abbildung 11: nicht abschließende Übersicht der Big Data Technologien

Abbildung 12: PE-/VC-Investitionen in Deutschland 2010-2019

Abbildung 13: Deal Funnel

Abbildung 14: Zeitplan Investmentprozess

1. Einführung

Aufgrund der Niedrigzinspolitik der Europäischen Zentralbank (EZB) boomte die Private Equity-Branche in den letzten Jahren, wie Abbildung 12 (S. 83) zeigt. Dennoch sieht sich die Private Equity-Branche verstärkt mit neuen Herausforderungen konfrontiert. Eine dieser Herausforderungen ist das stetig wachsende Dry Powder, also zugesichertes Kapital der Investoren an die Private Equity-Gesellschaften (PEGs) für Investitionen, welches mittlerweile auf $ 2,3 Billionen weltweit ange-stiegen ist.1 Dazu kommt noch die Situation, dass die Konkurrenz zwar immer größer, aber die Anzahl von Investment-Möglichkeiten geringer wird.2 Die PEGs müssen daher neue Lösungen entwickeln bzw. sich neuen Technologien zuwenden, um weiterhin wettbewerbsfähig zu bleiben. Zum einen haben sie nicht nur die Verantwortung für sich selbst als Unternehmen, sondern auch für die Investoren, von denen sie Kapital eingesammelt haben. Des Weiteren haben sie auch eine Verantwortung für die Portfolio-Unternehmen (PUs), in die sie investiert haben. Eine mögliche Lösung könnte die digitale Transformation sein, insb. der Einsatz von Big Data -Technologien, denn Big Data wird als das „ Gold des 21. Jahrhunderts “ bezeichnet.3

1.1 Problemstellung

Die Private Equity-Branche ist noch eine der wenigen Branchen, in der die Digitalisierung noch nicht so fortgeschritten ist, wie in anderen Branchen. Bisher wurden nur von wenigen PEGs Big Data Technologien implementiert.4 Internationale Beispiele dafür sind bspw. Two-Six Capital, Connetic Ventures oder auch Ardian.5 Die Mitarbeiter einer PEG berufen sich auf ihr mühsam aufgebautes Netzwerk, um z. B. bei einer Konferenz neue Investment-Möglichkeiten auf ihren Radar zu bekommen (sog. Deal Sourcing) und genau dieser traditionelle Weg ist nicht mehr zeitgemäß. Der Grund dafür liegt darin, dass durch den Technologiefortschritt effizientere Wege zur Verfügung stehen. Des Weiteren erfolgt das sog. Portfolio Monitoring (vgl. Kap. 4.2.3) immer noch mit fragmentierten Berichten und manuellen Spreadsheet-Programmen, d. h., dass auch hier enormes Verbesserungspotenzial steckt. Generell müssten alle administrativen und Investment-Prozesse innerhalb der PEG auf den Prüfstand gestellt werden. Dies verdeutlicht auch die Tatsache, dass die Mehrzahl an PEGs in Sachen Digitalisierung um Jahre zurückliegen. Demzufolge besteht ein großer Handlungsbedarf.6 Nach einer Studie von Kearny/TU München (2019) wird davon ausgegangen, dass in zehn Jahren (2029) bspw. Technologien wie Machine Learning in der Due Diligence (vgl. Kap. 4.2.2) und im Investmentprozess als Standard angesehen werden könnten.7 Aus diesem Grund müssen die PEGs jetzt tätig werden Somit wird aus der Problemstellung schon die große Relevanz deutlich.

1.2 Forschungstand und Forschungslücke

Die Bedeutung von Private Equity ist in den letzten 25 Jahren enorm gestiegen. Dies hat sich auch in der akademischen Berücksichtigung niedergeschlagen, v. a. im angelsächsischen Raum (USA, UK). Des Weiteren ist dies im deutschsprachigen Raum ebenfalls in den letzten 15 Jahren festzustellen. Der Fokus der Forschung liegt in den letzten zehn Jahren eher bei Themen rund um Venture Capital (VC). Bei den Studien handelt es sich sowohl bei Venture Capital, als auch bei Private Equity (PE) in der Mehrzahl um empirische Studien.8 Generell ist aber zu erkennen, dass v. a. VC und Leveraged Buyouts (LBOs) einen Themenschwerpunkt in der deutschen Forschung darstellen. Ebenso ist generell ein starker Fokus auf die USA zu erkennen und lediglich 20% befasst sich mit Europa.9 Bisher hat die PE-Forschung sich mit folgenden Themenbereichen beschäftigt:

Tabelle 1: Übersicht bisherige PE-Forschungsthemen tur von PE-Beteiligungen

Abbildung 2: Big Data Zusammenhänge

Abbildung 3: Visualisierung der "5 V's" von Big Data

Abbildung 4: Big Data Analytics Architektur

Abbildung 5:Fayyad's Knowledge Discovery in Databases (KDD)

Abbildung 6: Standardaufbau Machine Learning Anwendung

Abbildung 7: PE-Investmentprozess

Abbildung 8: Deal Sourcing Strategien

Abbildung 9: Welche Dienstleistungen beim Deal Sourcing miteinbezogen werden sollten

Abbildung 10: Experten-Einordnung PE-Branche in DE und USA in Rogers' Adoptionskurve

Abbildung 11: nicht abschließende Übersicht der Big Data Technologien

Abbildung 12: PE-/VC-Investitionen in Deutschland 2010-2019

Abbildung 13: Deal Funnel

Abbildung 14: Zeitplan Investmentprozess

Abbildung in dieser Leseprobe nicht enthalten

Quelle 1 : Eigene Darstellung, vgl. Anhang 1.1, S. 69.

Somit kann festgestellt werden, dass sich die PE-Forschung im Grundsatz immer mit den gleichen Hauptthemen beschäftigt, aber nur kleine Nuancen in unterschiedlichen Punkten auf eine andere Art und Weise betrachtet werden.

Das Bundesministerium für Wirtschaft und Energie (BMWi) hat 2015 schon festgestellt, dass ein wesentlicher Treiber hinter Big Data die Digitalisierung in der Gesellschaft, Wirtschaft und in der öffentlicher Verwaltung darstellt.10 Der wirtschaftliche Nutzen von Big Data kann auch in diversen Managementbereichen festgestellt werden.11 Demzufolge kann eine sehr hohe thematische Relevanz angenommen werden.

Unter der Berücksichtigung des obigen Forschungsstandes in der PE-Forschung, ist die Digitalisierung bisher kaum untersucht worden.12 Hinsichtlich der Auswirkungen von Big Data (Analytics) (BDA) und Künstliche Intelligenz (KI) auf Private Equity und v. a. auf dessen Investmentprozess steckt die Forschung jedoch noch in den Kinderschuhen.13 Das gilt auch sowohl für die organisatorischen, als auch für die personalwirtschaftlichen Fragestellungen einer PEG. Die folgende Tabelle zeigt die bisherige PE-Forschung zum Thema KI und BDA:

Tabelle 2 : Darstellung des bisherigen PE-Forschungsstandes

Abbildung in dieser Leseprobe nicht enthalten

Quelle 2: Eigene Darstellung.

Des Weiteren sei darauf hingewiesen, dass es auch akademische Arbeiten und Fachartikel gibt, die sich mit dem Thema KI und/oder Data Analytics in Mergers & Acquisitions -Prozessen (M&A, engl. Unternehmensfusionen und -käufe) beschäftigen, aber in obiger Tabelle 2 nicht mit aufgeführt sind. Aufgrund der sehr hohen konzeptuellen Ähnlichkeit zu PE, werden einige davon in Kapitel 4.3 mitberücksichtigt.14 Überwiegend beschäftigen sich diese Fachartikel dabei mit der KI und auch Data Analytics in der Due Diligence, aber auch generell mit der Digitalisierung von M&A-Prozessen, wie bspw.15 Neumann/Berndt (2020), Haaf (2020), Grellier (2018), Popp/Feix (2018) oder Nikolaidis (2018).

Obwohl die Thematik der Einbeziehung von Big Data (Analytics) und KI in die PE-Branche und v. a. in deren Investmentprozess noch sehr jung ist, sollte doch kritisiert werden, dass diese Thematik in der Forschungsliteratur insgesamt zu stiefmütterlich behandelt wird bzw. bisher eindeutig zu wenig erforscht worden ist.16 Somit kann von einer erheblichen Forschungslücke gesprochen werden. Dies zeigt die Notwendigkeit, dass die Fragen, die sich im Zusammenhang mit diesen Technologien und der Auswirkungen auf die PE-Branche ergeben, auf keinen Fall unerörtert bleiben können. Dazu soll diese Bachelorthesis einen Betrag leisten.17

1.3 Aufbau der Arbeit , Abgrenzung und Zielsetzung

Die vorliegende Thesis ist in fünf Kapiteln mit Unterkapiteln gegliedert. Im ersten Kapitel werden der Forschungsstand und die Forschungslücke detailliert herausgearbeitet, als auch die Hypothesen dargestellt, bevor in den Kapiteln 2 und 3 die praktischen Grundlagen für Private Equity und Big Data geschaffen werden. Anschließend werden in Kapitel 4 der traditionelle Ablauf und die digitale Transformation des Investmentprozesses aufgezeigt.18 Hinsichtlich der digitalen Transformation wird ein eigener Use Case aufgestellt und eine eigene Vorgehensweise für die jeweiligen Investmentphasen vorgeschlagen. Abschließend werden in Kapitel 5 die Experteninterviews als qualitative Forschungsmethode analysiert und ausgewertet. Dabei legt der Verfasser großen Wert auf Verbindung von Theorie und Praxis, wobei die theoretischen Erkenntnisse aus den Kapiteln 2 und 3 als Fundament für das praktische Verständnis dienen.

Aufgrund dessen, dass der Umfang dieser Thesis begrenzt ist, wird eine thematische Abgrenzung erfolgen. Deshalb wird das Hauptaugenmerk auf die Begriffe und Themen zum Private Equity, Big Data und Künstlicher Intelligenz gelegt. Hinsichtlich PE werden auch Venture Capital mit umfasst und die Grundlagen (Begriffsabgrenzungen, Geschäftsmodell und Strukturen) lediglich in groben Zügen dargestellt. Der Schwerpunkt stellt der Investmentprozess dar, welcher anhand der digitalen Möglichkeiten „ modernisiert “ werden soll. Von dieser Thesis nicht erfasst werden Hedge Funds und andere Arten der Unternehmensfinanzierung oder Formen der Beteiligungsfinanzierung (z. B. Business Angels, etc.). In Bezug auf Big Data werden die Grundlagen, also v. a. die Begrifflichkeit und die Technologien als Überblick dargestellt. Der Schwerpunkt wird hier insb. auf die sog.19 Value-Komponente von Big Data gelegt, was bedeutet, dass die Big Data Analytics im Vordergrund stehen. Diese umfassen auch Data Mining und Künstliche Intelligenz. Data Mining wird auch nur in groben Zügen anhand des Knowledge Discovery in Databases (KDD) nach Fayyad (1996 a) dargestellt und bei KI wird sich auf Machine Learning (ML) beschränkt, aufgrund dessen, dass dies für die PE-Branche am relevantesten ist. Andere Tools der Digitalisierung, wie Blockchain (vgl. Anh. 1.4, S. 77), RPAs etc. werden ebenfalls nicht erläutert. Abschließend muss noch erwähnt werden, dass es sich bei Big Data und KI um Themenbereiche aus der (Wirtschafts-) Informatik handelt. Deswegen wird in dieser Thesis komplett auf die technischen Grundlagen und Programmier-Codes etc. verzichtet, da diese Punkte nicht Bestandteil der Forschungsthematik sind.

Ziel dieser Bachelorthesis ist es, die o. g. Forschungslücke zu schließen und dabei soll die Frage geklärt werden, inwieweit die PEGs durch den Einsatz von Big Data (Analytics) und KI generell profitieren können, und ob diese Technologien nicht nur ein Modetrend sind, den es zu verwerfen gilt aus Sicht einer PEG. Die übergeordnete Frage lautet hierbei „ Inwiefern die Digitalisierung die Private Equity-Branche durch den Einsatz von Big Data und Künstlicher Intelligenz verändert? “, um eine klare Antwort auf den notwendigen digitalen Handlungsbedarf zu bekommen. Somit sollen die Potenziale von Big Data (Analytics) und KI im Hinblick auf PE aufgezeigt werden. Dabei soll explizit die Value-Komponente von Big Data im Mittelpunkt stehen. Nach Coekelbergs/v. Nell-Breuning (2019) hat diese Value Komponente Auswirkungen auf die folgenden drei Phasen des Investmentprozesses: Deal Sourcing,20 Due Diligence, und operative Wertschöpfung.21 Wie sich diese Phasen genau verändern, soll im Verlauf detaillierter herausgearbeitet werden. Diese Thesis soll folgende Hypothesen beantworten:

- Hypothese 1: Der gesamte Investmentprozess wird vereinfacht und schnelllebiger, d. h. die PEGs können durch den Einsatz von Big Data (Analytics) und KI einerseits ihre Effizienz und Profitabilität steigern und andererseits bessere Investment- und Exit-Entscheidungen treffen.
- Hypothese 2: PEGs mit sog. „ Sweet Spots “ in Technologie (Big Data, KI, IoT, Blockchain etc.) haben ein größeres Bewusstsein für die Big Data und KI-Implementierung als solche mit anderen „ Sweet Spots “ (bevorzugte Investitionsbranchen).
- Hypothese 3: Die dt. PE-Branche befindet sich momentan in der sog. „ Innovator “ oder „ Early-Adopter “-Phase (gemäß der Adoptionskurve nach Rogers‘, welche die Entwicklung von Innovationen und besonders deren Verbreitung auf dem Markt erklärt) und PEGs in den USA sind ihren deutschen Kollegen in Sachen digitaler Transformation einen Schritt weiter.
- Hypothese 4: Diejenigen, die sich frühzeitig dem digitalen Transformationsprozess zuwenden, werden das Rennen machen und diejenigen, die diesen Prozess verschlafen, werden in existenzielle Schwierigkeiten geraten.

2. Private Equity Grundlagen

Dieses Kapitel soll ein grundlegendes Verständnis für die Private Equity Branche liefern, indem insb. der PE-Begriff und das Geschäftsmodell erörtert werden.

2.1 Private Equity im Kontext der Unternehmensfinanzierung

Was versteht man eigentlich unter Private Equity? Die Beantwortung der Frage ist jedoch nicht so einfach, aufgrund des historischen Ursprungs in den USA. Der Grund dafür ist, dass PE nicht aus der Theorie, sondern vielmehr als ein praktisches Phänomen entstand. Die Theorie folgte der Praxis.22 Der Begriff von PE ist zwar weit verbreitet, jedoch gibt es Unklarheiten über dessen Bedeutung, somit ist auch die generelle uneinheitliche Begriffsverwendung in Theorie und Praxis zu erklären.23 Die wörtliche Übersetzung lautet ‚ privates Eigenkapital ‘ und wird zum sog. public equity abgegrenzt.24 Eine weitverbreitete Definition lautet:

Private Equity ist eine Art der Kapitalbeteiligungsfinanzierung an nicht börsennotierten 25 Unternehmen, wobei die Beteiligung 26 durch eine Kapitalbeteiligungsgesellschaft in Form

von Eigen-, Fremd- oder Mezzanine-Kapital erfolgt, mit dem Ziel, einen Gewinn zu realisieren durch eine Veräußerung und die Unternehmensführung aktiv zu beeinflussen “.27

Durch einen Vergleich der verschiedenen Definitionen in der Literatur, können vier wesentliche Merkmale von Private Equity ausgemacht werden: 1) Eigenkapitalbeteiligung an privaten Targets, 2) rechtlich und steuerlich optimierte Strukturauswahl für eine mittelfristig höhere Rendite beim Exit, 3) typischerweise fremdfinanzierte Übernahme, wobei der Target-Cashflow den Kapitaldienst bedient und 4) gemäß des US-amerikanischen Vorbilds vom sog. Einheitsboard, liegt eine enge Verzahnung zwischen Investoren und dem Unternehmensmanagement vor.28

Zwei weitere Begriffe, die oft im Kontext zu PE auftauchen, sind Venture Capital (VC) und Buyouts. Daher ist es fraglich, in welchem Verhältnis die drei Begriffe überhaupt zueinanderstehen und welche Bedeutung sie haben. Bei VC ist in der Literatur streitig, ob es sich bei VC und PE entweder um zwei unterschiedliche Finanzierungsformen handelt, oder ob PE ein Oberbegriff darstellt, der VC und Buyouts umfasst.29 Oftmals werden VC und PE auch gleichgesetzt.30 Ein Grund dafür können bspw. die Überschneidungen zwischen VC und PE-Aktivitäten sein.31 Somit ist mangels eines einheitlichen Verständnisses eine Abgrenzung vorzunehmen.32 Eine allgemeine Definition lautet:

Unter dem Begriff Venture Capital (VC) ist die Finanzierung junger, innovativer Unternehmen mit einem erkennbaren Wachstums- und Entwicklungspotenzial zu verstehen. Dabei werden von den VC-Gesellschaften haftendes Eigenkapital oder eigenkapitalähnliche Mittel bereitgestellt “.33

Die Unterscheidung zwischen VC und PE ist daher in Bezug auf das „ Lebensalter “ bzw. die Entwicklungsreife des Unternehmens, in dem der Investoreneinstieg erfolgt, zu treffen.34

Buyouts sind vom PE-Oberbegriff ebenfalls umfasst.35 Eine Erläuterung zu den unterschiedlichen Buyout-Formen erfolgt im Anhang 1.3 (S. 76).

Abschließend ist hinsichtlich der Begrifflichkeit noch zu erwähnen, dass PE neben den zwei großen Bereichen VC und Buyouts auch noch sog. spezielle Situationen umfasst. Darunter fallen u. a. die Restrukturierung wegen einer Unternehmenskrise oder aus organisatorischen und rechtlichen Gründen, die Nachfolgeregelung bei Familienunternehmen mangels geeigneten internen familiären Nachfolgers, dem Bereitstellen von Kapital für Neuproduktentwicklungen und Produkterweiterungen, Investitionen in das Working Capital um neue Märkte zu erschließen und Stärkung der Bilanz, denn die PE-Investitionen führen zu einem verbesserten Eigenkapitalverhältnis der Targets. Zwei weitere bedeutsame PE-Investitionen stellen das sog. Going Private (= der Rückzug vom Kapitalmarkt) und die Privatisierung (= Umwandlung von staatlichem Eigentum in privates Eigentum) dar.36

In dieser Thesis wird PE nach dem gerade Erwähnten als Überbegriff verstanden, der auch die Teilgebiete VC, Buyouts und „ Special Situations “ umfasst.

2.2 Geschäftsmodell, Transaktionsablauf und die rechtlichen Strukturen

Den meisten PE-Gesellschaften (PEGs) liegt ein gesellschaftsrechtliches Konstrukt zugrunde, bei dem sich die einlagenleistenden Investoren über haftungsbeschränkte und (weitgehend) stimmrechtlose Partnerschaftsanteile mittelbar an dem jeweiligen Investment beteiligen, während die operative Führung, d. h. die jeweiligen Investmentmanager, unter dem Dach einer Gesellschaft ohne Kapitalanteil handeln.37 Auf internationaler Ebene wird für die PE -Fonds die Limited Partnership verwendet, dabei werden die für die Auflage des Fonds verantwortlichen Manager als General Partners (GP) und die in die Fonds investierenden Kapitalanleger als Limited Partners (LP) bezeichnet.38 Die Limited Partnership kann als Pendant zur deutschen Kommanditgesellschaft (KG) i. S. d. §§ 161 ff. HGB angesehen werden.39 In Deutschland hingegen weisen die Beteiligungsfonds aus steuerlichen Gründen und wegen Haftungsfragen die Rechtsform einer (vermögens-verwaltenden) GmbH & Co. KG auf.40 Die Investoren stellen dabei zwischen 95-99% des Fondskapital zur Verfügung und die PEG-Manager zwischen 1-5% (Ownership).41

Nachdem die rechtliche Struktur und der Transaktionsablauf kurz dargestellt worden sind, muss die Frage geklärt werden, wie sich die PEGs eigentlich finanzieren. Kurz gesagt verdienen sie ihr Geld damit, den Unternehmenswert des erworbenen Targets während der Halteperiode zu steigern und dieses dann zu einem höheren Preis wieder renditemaximiert zu veräußern.42 Aber was bedeutet das im Detail? Generell wird eine PEG für ihren Aufwand auf drei Arten kompensiert:

- Annual Management Fee,
- Carried Interes (auch Carry genannt)
- Und den Deal und Monitoring Fees.43

Die jährliche Management Fee wird von den LPs an die PEG geleistet für deren Investment-Management und schwankt zwischen 1% bis 3%, liegt aber typischerweise bei 2% des eingesammelten Kapitals, um damit überwiegend die Betriebskosten zu decken.44 Die Carried Interest hingegen ist eine variable und von der Performance abhängige Gewinnbeteiligung, die zwischen den Investoren und der Fonds-Manager aufgeteilt wird, und sie beträgt in der Regel 20% für die Fonds-Manager.45 Teilweise werden noch bei Buyout Funds ca. 1-2 % des Deal Values als Deal Transaction Fee und 1-5% des jährlichen EBITDA als Monitoring Fees verlangt.46 Generell folgt ein PE-Fonds aber der sog. „ 2/20/1 – Rule “, d. h. „ 2% Management Fee, 20% Carried Interest und 1% GP-Ownership“.47 Die Abbildung 1 fasst noch einmal das Geschäftsmodell, die rechtliche Struktur und den Transaktionsablauf zusammen:

Abbildung 1 : Struktur von PE-Beteiligungen

Abbildung in dieser Leseprobe nicht enthalten

Quelle 3: Eigene Darstellung in Anlehnung an: Sewing (2008), S. 12 und Eitelwein et al. (2008), S. 6.

3. Grundlagen Big Data und Künstliche Intelligenz

Nachdem die Grundlagen für PE dargestellt worden sind, werden für das weitere Verständnis der Thesis noch die Grundlagen für Big Data und Künstlicher Intelligenz (KI) in diesem Kapitel beschrieben. Dafür werden zunächst der Begriff Big Data, dessen Anforderungen und kurz die relevantesten Big Data Technologien aufgezeigt. Anschließend erfolgt eine Erläuterung von Big Data Analytics, und wie der Data Mining Prozess aussieht. Weiterhin wird ausgeführt, inwiefern Big Data als Treiber für die KI dient, und was KI überhaupt bedeutet. Wie die Zusammenhänge in der nachstehenden Abbildung 2 verdeutlicht werden, sind Big Data als Ausgangspunkt anzusehen und die Analyse (Big Data Analytics) dieser Daten stellt einen zentralen Punkt dar. Big Data Analytics sind wiederrum unterteilt in Data Mining und Machine Learning, welche dann ähnlich einer mathematischen Addition die predictive Analytics ergeben, und Machine Learning kann entweder überwacht oder unüberwacht erfolgen.

Abbildung 2 : Big Data Zusammenhänge

Quelle 4: Brühl (2019), S. 3.

3.1 Begriff und Anforderungen

Big Data gehört zu den Themen, die sich im letzten Jahrzehnt in der IT-Branche hervorgehoben haben. Doch was bedeutet Big Data eigentlich? Bisher gibt es keine einheitliche Definition, allerdings fasst es Brühl (2019) treffend zusammen: „ Big Data ist das Phänomen, dass infolge der Digitalisierung von Wirtschaft und Gesellschaft nicht nur das Volumen der Daten (‚Volume‘), sondern auch die Geschwindigkeit der Generierung, Verarbeitung und Speicherung von Daten (‚Velocity‘) sowie die Heterogenität der Datentypen und -quellen (‚Variety‘) in den letzten Jahren stark zugenommen hat “.48

Es geht dabei um die Verarbeitung und Erzeugung von zunehmenden Datenmengen, v. a. von unstrukturierten Datenmengen. Big Data wird dort eingesetzt, wo anderweitige Technologien mit der Erfassung, Speicherung, Analyse und Darstellung wachsender Datenmengen an ihre Grenzen stoßen, jedoch ist es heute möglich, genau diese Datenmengen zu analysieren und auszuwerten mithilfe von Big Data -Technologien bzw. Tools.49 Oftmals werden für die Definition aber auch je nach Autor die sog. „ 3 oder 5 V’s als Anforderungen in den Vordergrund gestellt:50

- Das erste V steht für Volume : Dabei wächst die Datenmenge exponentiell, d. h. es stehen immer mehr Daten zur Verfügung. Die Datenmengen dafür entstehen im privaten, geschäftlichen, wissenschaftlichen und öffentlichen Bereich. Eine IDC-Studie hat ergeben, dass sich das Volumen von 33 Zettabyte im Jahr 2018 auf 175 Zettabyte, also 175 mit 21 Nullen, im Jahre 2025 erhöhen wird. Gemäß des Moore’schen Gesetz, verdoppelt sich das Datenvolumen in Abhängigkeit zur Rechnerkapazitäten alle 18 Monate.
- Dann kommt Velocity , die im Wechselbezug zu Volumen steht. Manche verstehen hierunter die Geschwindigkeit, mit der neue Daten entstehen, andere hingegen die Verarbeitungs-geschwindigkeit. In diesem Kontext spielen auch Echtzeitanalysen der Daten eine Rolle.
- Das dritte V steht für Variety (Datenbeschaffenheit) und kennzeichnet die Vielfältigkeit der Datenmenge und -formate, wobei die Vielzahl der relevanten Daten unstrukturiert (85 %) ist. Generell muss hierbei zwischen strukturierten und unstrukturierten Daten unterschieden werden. Die Quellen dafür sind z. B. Social-Media Daten, Video-Daten, etc. und hinsichtlich des Finanzsektors, in dem PE verankert ist, können die Datentypen an und für sich in Fundamentaldaten (Buchhalterische Daten), Marktdaten, Analysen und alternative Daten klassifiziert werden.
- Neben diesen drei V’s, die auch als Standardanforderungen gelten, werden häufig noch zusätzliche weitere V’s hinzugefügt. Als viertes ist Veracity (Datenqualität, Wahrhaftigkeit) gesetzt, und dieses Merkmal bezieht sich auf die Richtigkeit, Vollständigkeit, Korrektheit und Verlässlichkeit der Dateninhalte. Obwohl sich in den meisten Fällen nur aus qualitativ hochwertigen Daten wichtige Erkenntnisse ableiten lassen, sind Big Data -Technologien dennoch in der Lage, auch Daten zu verwenden, die qualitativ weniger hochwertig sind.
- Als fünftes kommt dann das Merkmal Value (Mehrwert) hinzu und nach Marr (2015)wäre Big Data […] nutzlos, würde am Ende kein Nutzen aus dem Ergebnis gezogen werden “. Unterstützt wird dies durch Klein/Gräf (2014), wonach die Big Data Analyse zielorientiert sein sollte, um einen Mehrwert zu erlangen. Dazu werden bspw. Analyseverfahren verwendet, die selbständig Muster erkennen oder eigene Empfehlungen abgeben (siehe Kap. 3.3.2).

Somit wurden die „ 5 V’s “ von Big Data dargestellt, aber es gibt auch einige Autoren, die sich noch auf weitere V’s beziehen. Ranjan (2019) bezieht sich bspw. auf zehn V’s und stellt neben den zuvor genannten „ 5 V’s “ noch auf Variability, Visualization, Vulnerability, Validity und Volatility ab, wobei diese auch in unterschiedlichen Zusammensetzungen bei anderen Autoren zu finden sind.51 Eine zusammenfassende Übersicht zeigt Abbildung 3:

Abbildung 3 : Visualisierung der "5 V's" von Big Data

Abbildung in dieser Leseprobe nicht enthalten

Quelle 5: www.informationcatalyst.com.

Demzufolge wird Big Data in dieser Thesis als Oberbegriff für Konzepte, Technologien und Methoden, mit denen die enorme Datenmenge in vielfältiger Art qualitativ analysiert werden kann, um damit auch einen wirtschaftlichen Mehrwert zu erhalten, verstanden.

Hinsichtlich des Finanzsektors kann auf jeden Fall festgehalten werden, dass das Volumen sehr hoch ist, genauso wie die Variety, Velocity und das Value -Potenzial, während die Veracity hingegen eher niedrig ausfällt.52

3.2 Überblick über Big Data Technologien

Die enormen Datenmengen bringen die traditionellen Datenbank-Systeme schnell an ihre Grenzen, denn Big Data stellt keine einzelne Technologie dar, sondern vielmehr handelt es sich dabei um das

Zusammenwirken von mehreren verschiedenen Technologien und Gebieten.53

In BITKOM (2014) wird erwähnt, dass sich „ vier Technologiesegmente unterscheiden lassen. Für Anwendungen mit nicht zu hohen Anforderungen an Zeit und Datenvielfalt eignen sich standardisierte Analytics Appliances. Lösungen mit In-Memory-Technologie kommen zum Einsatz, wenn die Datenauswertung etwa um den Faktor 1000 beschleunigt werden muss. Liegt eine große Vielfalt an Datenformaten vor, empfehlen sich Lösungen auf der Basis von Hadoop. Diese Open-Source-Technologie kann sehr große Mengen unterschiedlich strukturierter Daten speichern und verarbeiten; sie skaliert nahezu unbegrenzt. Streaming und Complex Event Processing bieten sich an, wenn Daten praktisch im Augenblick ihres Anfallens zu erfassen und auszuwerten sind “.54

Eine nicht abschließende Tabelle mit verschiedenen Technologien inkl. deren Stärken und Schwächen befindet sich im Anhang 2 (S. 78).

3.3 Big Data Analytics

Die eigentliche Kernaufgabe von Big Data stellt die analytische Verarbeitung dar, die sog. Big Data Analytics (BDA) . Sie umfasst eine Vielzahl an Verarbeitungs-Technologien, und die wichtigsten sind predictive Analytics, Data Mining (vgl. Kap. 3.3.1) und Maschinelles Lernen (vgl. Kap. 3.3.2).55 Zu beachten ist jedoch, dass eine Abgrenzung zur traditionellen Business Intelligence (BI) erfolgen muss. BI stellt ein Gesamtkonzept dar für das Sammeln, Analysieren und dem Darstellen von Daten, welche aus einem sog. ERP-System (vgl. Anh. 1.4, S. 77) stammen, dann systematisch ausgewertet werden und anschließend eine bessere Entscheidung treffen zu können.56 Bei Big Data (Analytics) geht es hauptsächlich um die „ Gewinnung geschäftsrelevanter Erkenntnisse “.57 Chen et al. (2012) definieren Big Data Analytics als „ analytical techniques in applications that are so large (from terabytes to exabytes) and complex (from sensor to social media data) that they require advanced and unique data storage, management, analysis, and visualization technologies “.58 Des Weiteren haben Chen et al. (2012) auch folgende Daten-Klassifizierung vorgenommen:59

- BI&A 1.0-Transactional Systems: Daten aus Unternehmenssystemen, z. B. CRM-Systemen,
- BI&A 2.0-Web-based services: Daten aus Online Systemen, wie z. B. Social Media oder E-Commerce, und
- BI&A 3.0-Mobile and sensor-based systems: von mobilen Geräten generierte Daten.

Demnach zeigt sich, dass es zwar Parallelen gibt zwischen BDA und BI, jedoch auch einige wesentliche Unterschiede: während BI eher gegenwartsorientiert ist, ein starrer Prozess und mit Daten aus der Vergangenheit arbeitet, sind die BDA dagegen zukunftsorientiert, flexibel und arbeiten u. a. auch mit Echtzeit-Daten.60

Die BDA unterscheiden vier Analysemethoden, die jeweils einer anderen Fragestellung nachgehen, um somit einen unternehmerischen Nutzen zu erhalten:61

- Descriptive Analytics : geht der Frage nach „ Was ist passiert? “ und es geht daher um das Beschreiben von Daten. Insbesondere turnusmäßige Berichte bzw. Kennzahlenberichte, wie sie auch beim Reporting eines PE-Fonds anfallen, können für die Beantwortung der zugrunde liegenden Frage herangezogen werden.
- Diagnostic Analytics : versucht die Gründe, „ warum ein Ereignis geschehen ist “ heraus-zufinden und versucht daher kausale Zusammenhänge innerhalb der Daten herzustellen.
- Predictive Analytics : ist ein Gebiet des Data Mining, um Trends und Verhaltensmuster aus den Datensätzen ableiten und vorhersagen zu können. Hierbei wird nach Fragestellung nachgegangen „ Was könnte passieren? “. Um diese Frage beantworten zu können, werden u. a. Verfahren des Maschinellen Lernens und des Data Minings verwendet. In der wirtschaftlichen Praxis werden hiermit transaktionale Daten analysiert u. a. zur frühzeitigen Erkennung von Geschäftsrisiken und -möglichkeiten. Es handelt sich also um einen fortwährenden Prozess, zur Erstellung von Vorhersagemodellen, der Durchführung von Analysen und der Verbesserung der Modelle anhand der Erkenntnisse, sodass die Vorhersagen stetig besser werden. Zuerst werden Daten gesammelt und die dortigen erkennbaren Muster werden analysiert und bewertet, dann wird im zweiten Schritt ein dazu passendes statistisches Modell entwickelt, damit im dritten Schritt eine Empfehlung ausgearbeitet werden kann.
- Prescriptive Analytics : hingegen geht der Fragestellung nach „ Was soll geschehen? “ und dies wird damit versucht zu beantworten.

Allerdings sieht Buttong (2013) genau in dieser Überführung der Daten aus unterschiedlichen Systemen in ein einheitliches System, um dann aus der Vielzahl an großen Datenmengen einen Nutzen ziehen zu können, eine große Herausforderung.62

Die nachfolgende Abbildung 4 stellt eine BDA architecture dar, bei der Daten aus verschiedenen Quellen gesammelt werden, die dann über einen ETL-Prozess ( vgl. Anh. 1.4, S. 77 ) ins Data Warehouse gelangen. Darauf wird dann von den BI/Analytics-Programmen auf diese Daten zuge-griffen. Bei dem BI-Reiter kommen Data Mining, KI etc zur Anwendung. Durch die Analysen sollen sog. „ actionable Insights “ erhalten werden als Grundlage für operative Entscheidungen. Hierbei gibt es natürlich aufgrund der hohen Skalierbarkeit von Hadoop diverse Möglichkeiten, die Architektur so zu gestalten, wie es für die eigenen Zwecke benötigt wird.

Abbildung 4 : Big Data Analytics Architektur

Abbildung in dieser Leseprobe nicht enthalten

Quelle 6: Chan (2013), S. 9.

Um aus der analytischen Verarbeitung die sog. „ actionable Insights “ zu erhalten, werden diverse Werkzeuge verwendet, welche sich an den Einsatzszenarien orientieren:63

- Web Analytics: betrifft die „ Messung, Erfassung, Analyse und das Reporting von Daten “ zur Optimierung einer Webpräsenz. Häufig wird dabei die sog. „ Conversion Rate “, die Anzahl der Klicks und weitere Kennzahlen analysiert, aber auch hierbei erfolgt verstärkt eine Verknüpfung mit anderen Analysetechniken wie bspw. Predictive Analytics.
- Text- u. Semantische Analyse: umfasst als eine der Schlüsseltechnologien die Auswertung von Daten, die in textueller Form vorliegen. Insbesondere Social Media-Daten werden analysiert hinsichtlich einer Unternehmensanalyse oder um mögliche Trends zu erkennen. Bei der Social Media-Analyse werden die Texte der Nutzer analysiert und strukturiert zur Stimmungsanalyse (Sentiment-Analyse). Dies erfolgt auf der Art, dass die Posts inhaltlich erschlossen und die jeweiligen wichtigen „ Bausteine “ extrahiert werden. Genauso werden Sinnzusammenhänge erkannt und Verlinkungen zu anderen Informationen hergestellt. Allerdings sind die Social Media-Daten in der Regel unstrukturiert und basieren auf einer natürlichen Sprache, weshalb die „ klassischen Verfahren “, wie Data Mining oder BI nicht geeignet sind und es bedarf linguistischer/semantischer Verfahren. Die Dokumenten-verarbeitung wird dabei unterteilt in: 1) die dokumentenspezifische Verarbeitung, 2) die sprachspezifische Verarbeitung und 3) die domänenspezifische Verarbeitung.
- Predictive Analytics (s. o.), Data Mining (vgl. Kap. 3.3.1) und Machine Learning (vgl. Kap. 3.3.2).

3.3.1 Data Mining Prozess

Data Mining wird im Kontext von Big Data dahingehend relevant, dass mithilfe der Data Mining Verfahren neue Informationen aus Big Data gezogen werden können. Der Begriff des Data Mining wird in der Literatur ebenfalls unterschiedlich definiert. BITKOM (2014) beschreibt Data Mining als

ein[en] sehr bildlichen Oberbegriff für eine Vielzahl von verschiedenen Methoden, Verfahren und Techniken, der die Intention zusammenfasst – geradezu im Sinne eines >>Daten-Bergbaus<< - Schätze, also verwertbares Wissen, aus den Daten des Unternehmens zu fördern. […] Data Mining bezeichnet […] das intelligente, größtenteils automatisierte Aufspüren und die Extraktion von […] wirtschaftlich nutzbaren Mustern und Zusammenhängen in großen Datenbeständen “.64

Durch Betrachtung des Knowledge Discovery in Databases (KDD) anhand seiner Phasen ist ersichtlich, dass Data Mining dessen Kernbestandteil darstellt.65 Ganz simpel ausgedrückt geht es beim Data Mining also um die Erkennung von Mustern in den Datensätzen und verbindet dafür Methoden aus verschiedenen Bereichen, wie Statistik, KI, Informatik und Datenbanksysteme.66 Da allerdings die Begriffe KDD und Data Mining (und auch noch weitere Begriffe) oftmals als Synonym verwendet werden, sollte eine Abgrenzung erfolgen, obwohl in Deutschland der Begriff des Data Minings öfter verwendet wird: KDD beschreibt den Prozess zur Durchführung der Mustererkennung in den Datensätzen und Data Mining stellt die Technik dar, um die Muster in den Datensätzen überhaupt zu erkennen.67 Somit wird dann auch das Hauptziel erfüllt, und zwar „ das Wissen aus den Daten zu extrahieren “.68 Die Phasen des KDD nach Fayyad (1996 a) sind:69

1. Ausgangspunkt sind dabei die Datensätze, die auf verschiedene Arten und Weisen gesammelt werden können, die sog. Rohdaten. Es erfolgt sodann eine Selection , wodurch die relevanten Daten aus dem Datensatz identifiziert werden. Bevor man aber diese relevanten Daten identifiziert, muss zuvor festgelegt werden, welches Ziel mit dem Data Mining verfolgt wird und in welchen Daten das Wissen überhaupt zu finden ist. Das letztlich gewonnene Wissen soll ja dem gewünschten Use Case dienen. kann dafür entweder auf bereits bestehende Datenbanken zurückgriffen werden oder kann diese Daten erst selbst erstellen. Und das Ergebnis stellt einen Datenausschnitt dar.
2. Daran anschließend erfolgt die Vorverarbeitung, wodurch fehlerhafte Werte entfernt oder fehlerhafte Werte aufgefüllt werden. Es geht also um die Datenbereinigung. Hierbei müssen auch die aus diversen Quellen stammenden Daten „ vereinheitlicht “ werden. Das Resultat sind dann vorverarbeitete Daten.
3. Im nächsten Schritt kommt es zur Transformation, wo bspw. eine Attribut-Selektion oder eine Diskretisierung von numerischen Werten erfolgt, wobei nicht alle Attribute der Daten relevant sind. Ebenso kommt hier das sog. Clustering zur Anwendung. Daraus resultieren die transformierten Daten.
4. Erst jetzt erfolgt das eigentliche Data Mining . Hierbei werden mithilfe mathematischer Verfahren nach (un-) bekannten Mustern gesucht bzw. es wird versucht solche Muster zu erkennen. Zuerst wird die relevante Data Mining Aufgabe identifiziert und die Aufgaben sind das Entdecken von Ausreißern/Clustern, das Klassifikationstraining und die Generalisierung. Das Resultat sind sog. Datenmuster. Die wichtigsten Data-Mining -Verfahren sind:

Tabelle 3 : Übersicht der wichtigsten Data-Mining-Verfahren

Abbildung in dieser Leseprobe nicht enthalten

Quelle 7 : Eigene Darstellung in Anlehnung an: Hanschke (2018), S. 95, Beekmann/Chamoni (2006), S. 266 ff. und Ajah/Nweke (2019), S. 11.

5. Diese Datenmuster müssen auch interpretiert bzw. evaluiert werden, um somit Wissen zu generieren. Sollte das Resultat noch nicht zufriedenstellend genug sein, kann eine Iteration auf jedem beliebigen vorherigen Punkt erneut durchgeführt werden. Hinsichtlich der Evaluation geht es v. a. um die Vorhersagekraft dieser Daten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5 :Fayyad's Knowledge Discovery in Databases (KDD)

Quelle 8 : Fayyad et al. (1996 b), S. 41.

3.3.2 Big Data als Treiber für Künstliche Intelligenz (KI)

Durch die stetig größer werdenden Datenmengen wurden erhebliche Fortschritte in Sachen Künstlicher Intelligenz (KI) gemacht. Zu beachten ist allerdings, dass sich auch Big Data und Machine Learning (ML) vor allem bei großen Datenmengen gegenseitig bedingen, denn eine Vielzahl der Verfahren entfalten ihr volles Potenzial erst auf großen Datenmengen.70

Aufgrund der Abstraktheit des Begriffes gibt es auch hier (in der Literatur) keine einheitliche Definition, weshalb oftmals eine Definition anhand der Eigenschaften und Teilgebiete erfolgt.71 Die KI (engl. Artificial Intelligence (AI)) ist das Teilgebiet der Informatik, welches sich thematisch mit der Automatisierung von intelligenten Verhalten und dem maschinellen Lernen beschäftigt.72 Im Grundsatz muss bei der KI zwischen einer starken und schwachen KI unterschieden werden. Während sich die starke KI mit der Nachahmung der menschlichen Intelligenz beschäftigt, die selbständig Aufgaben lösen kann, befasst sich die schwache KI hingegen damit, die Anwendungsprobleme des menschlichen Denkens zu überwinden und zu unterstützen, indem dieses Verhalten durch Algorithmen nachgeahmt wird.73 Ebenso haben sich vier Kernfähigkeiten der KI herauskristallisiert, und zwar: 1) Wahrnehmen, 2) Verstehen, 3) Handeln und 4) Lernen.74

Wann KI das erste Mal thematisch aufgekommen ist, kann nicht mit eindeutiger Sicherheit gesagt werden, da in der Literatur auf verschiedene zeitliche Quellen verwiesen wird.75 Selbst in den 1990er Jahren mit dem Technologie-Boom war die KI noch nicht wirklich ausgereift.76 Allerdings ist der technologische Fortschritt zum jetzigen Zeitpunkt beträchtlich vorangekommen, sodass KI eine Vielzahl von Aufgaben wahrnehmen kann, jedoch muss die KI trainiert werden, um überhaupt autonome Handlungen vornehmen zu können.77

Die KI umfasst auch diverse Instrumente bzw. Methoden, wobei nachfolgend nur die Musteranalyse und Mustererkennung erläutert werden, da sie für die PE-Industrie relevant sind bzw. sein können. Mittels Machine Learning (ML) können diverse Muster analysiert und erkannt werden. Begrifflich beschreibt ML eine Vielfalt von Methoden, in denen durch statistische oder logische Analysen der Daten, die Computerprogramme selbständig neues Wissen erwerben.78 Die zentrale Fragestellung „ ist hier meist das ‚Wie‘ im Lösen konkreter Probleme “.79 Alle ML-Anwendungen haben gemeinsam, dass 1) „ eine konkrete Aufgabendefinition vorliegt“, 2) „ Wissen und Erfahrungen aus einer algorithmischen Anwendung gewonnen werden können“ und 3) „ der Erfolg einer Methode direkt oder in Nachbetrachtung messbar ist “.80

Bei ML geht es also um Verfahren, um günstige Problemlösungen automatisch zu erlernen und in der Anwendung weiterzuentwickeln, die „ manuell nicht oder nur unter sehr hohem Kostenaufwand lösbar “ sind. Dazu werden normalerweise die Datensätze statistisch ausgewertet, um neue Erkenntnisse aufzudecken. Hierbei kommt es zu Überschneidungen mit der traditionellen Statistik oder Data Mining.81 Kurz gesagt geht es darum, aus den vorhandenen Daten neue Algorithmen abzuleiten, in dem die Algorithmen82 derart trainiert werden, dass sie aus den zugrunde liegenden Daten lernen, dadurch dann selbständig ein Datenmodel erzeugt, dass für Prognosen oder Entscheidungen eingesetzt werden kann, d. h. die Algorithmen schaffen (Mehr-) Werte aus den Daten.83 ML wird durch diese sechs Schritte trainiert:84

1. Vorhandene Daten unterteilen in Training, Validation und Test Data,
2. Mit den Trainingsdaten wird ein Modell erstellt, dass die für die jeweilige Aufgabe entsprechenden Funktionen aufweist,
3. Anschließend wird das Modell mit den Validierungsdaten auf seine Richtigkeit hin überprüft,
4. Danach werden mithilfe der Testdaten die Performance u. Genauigkeit betrachtet,
5. Verwendung des Modells, um Vorhersagen zu treffen,
6. Genauere Einstellung des Modells, um dessen Algorithmus-Performance zu verbessern.

Es zeigt sich demnach, dass der Algorithmus seine Entscheidungen aufgrund von Erfahrungswerten trifft.85 ML wird bereits in diversen Anwendungsbereichen genutzt und wird unterteilt in die drei Haupttypen überwachtes Lernen, unüberwachtes Lernen und verstärktes Lernen. Beim sog. Supervised Learning (überwachtes Lernen) wird durch vorliegende Trainingsdaten gelernt, von einem Input auf einen Output zu schließen, sodass Zusammenhänge aus den Trainingsdaten auf neue Daten übertragen werden können. Beim Unsupervised Learning (unüberwachtes Lernen) hingegen stehen Daten ohne einen Soll-Output zur Verfügung, d. h. das Ziel des unüberwachten Lernens ist das Aufdecken von versteckten Strukturen und Mustern in den Daten. Der Unterschied zwischen überwachten und unüberwachten Lernen ist also die Form der Eingabe: wenn dem Algorithmus die richtige Lösung auf seinen Trainingsdaten bekannt ist, handelt es sich um überwachtes Lernen, wenn nicht, dann um unüberwachtes Lernen. Beim sog. Reinforcement Learning (verstärktes Lernen) hingegen werden anders als bei den beiden anderen Haupttypen im Voraus keine Datensätze benötigt, sondern diese werden erst durch eine „ Try and Error “-Bewertung des Outputs (Ergebnisses ist entweder erwünscht oder nicht) generiert.86 Die nachstehende Abbildung 6 stellt den Standardaufbau einer ML-Anwendung dar:

Abbildung 6 : Standardaufbau Machine Learning Anwendung

Abbildung in dieser Leseprobe nicht enthalten

Quelle 9: BITKOM (2014), S. 68.

4. Chancen und Risiken für die Private Equity Branche durch den Einsatz von Big Data (Analytics) und KI

Die Digitalisierung zählt weiterhin zu einem der Topthemen in vielen Unternehmen und bietet neue Möglichkeiten in der PE-Branche. Bei der detaillierteren Betrachtung hinsichtlich der PE-Branche wird zuerst erläutert, wie die jeweilige Phase traditionell ausgestaltet ist, bevor dann erarbeitet wird, wie diese Phase innerhalb eines modernen PE-Fonds aussieht, der auf digitale Einsatzmittel setzt. Hierzu wird jedoch als Grundlage ein eigens erstellter Use Case dienen, um die Veränderungen plastisch hervorzuheben.

4.1 Methodik /Aufbau der empirischen Studie

Zunächst erfolgt eine Literaturrecherche in Bibliotheken und im Internet, um den Forschungsstand, die dortige Lücke und die theoretischen Grundlagen zu erarbeiten. Diese Erkenntnisse dienen der Feldforschung in der Form, dass daraufhin ein Leitfaden-Fragebogen für die Experteninterviews erstellt werden soll. Gleichzeitig wird in der Datenbank des Bundesverbandes Deutscher Kapitalbeteiligungsgesellschaften (BVK) online nach Interviewpartnern gesucht. Für eine zielgruppengerechte Datenerhebung wird noch vor der Kontaktaufnahme eine Zielgruppe definiert. Gemäß des BVK sind in der Bundesrepublik Deutschland mehr als 300 Beteiligungsgesellschaften vertreten.87 Dafür wird zunächst eine Liste erstellt mit 175 potenziellen PE- und VC-Firmen, welche Kontaktinformationen beim BVK hinterlegt haben. Danach werden einige ausländische Firmen aus der Liste gestrichen, sodass der Fokus auf der deutschen PE/VC-Branche liegt. Als nächstes werden dann 138 Firmen via E-Mail kontaktiert. Die nachstehende Tabelle 4 gibt an, wie viele Unternehmen sich zurückgemeldet haben, wie viele davon positiv/negativ waren und wie viele noch ausstehend sind. Es werden auch die Gründe für die negativen Rückmeldungen berücksichtigt:

Tabelle 4 : zielgruppengerechte Datenerhebung

Abbildung in dieser Leseprobe nicht enthalten

Quelle 10: Eigene Darstellung.

Nach der Zusage für ein Interview, wurden die Termine vereinbart und es wurden vorab schon die Zustimmungserklärungen per E-Mail an die Teilnehmer versendet. Ungefähr eine Woche vor den Interviews, wurde der Fragebogen an die Interviewpartner zur Vorbereitung via E-Mail versendet und somit wurden die Interviews ca. vier bis sechs Wochen nach der Kontaktaufnahme durchgeführt. Anschließend erfolgten die Transkription und die Auswertung.

Das Ziel der Umfrage ist es Erkenntnisse aus der Literatur mit denen aus der Praxis zu verbinden und diese auch jeweils zu überprüfen, aber auch neue Erkenntnisse zu liefern. Die Datenerhebung erfolgte in Form von sieben Experteninterviews. Diese Expertenbefragungen dienen der „ Teilhabe an exklusiven Expertenwissen “, welches unter normalen Umständen nur schwer zu erhalten ist, vor allem weil die PE-Branche sehr verschwiegen ist (vgl. Tab. 4) bzw. nur ungern Informationen preisgibt.88 Das Experteninterview stellt dabei eine Methode der empirischen Sozialforschung zur qualitativen Datenerhebung dar, bei der Personen mit Fachwissen befragt werden.89 Die Datenerhebung erfolgte im Zeitraum vom 15.06. bis zum 26.06.2020 über Telefon, Skype und Google Meeting. Eingeplant waren dabei pro Interview jeweils 30 bis 45 Minuten, wobei dieser Rahmen auch eingehalten worden ist bei einer durchschnittlichen Dauer von 41 Minuten. Die Interviews wurden mithilfe einer digitalen Aufnahme-App auf dem Smartphone aufgezeichnet und anschließend transkribiert. Die wortgetreuen Transkripte sind in anonymisierter Form im Anhang 5 (S. 89 ff.) beigefügt. Aufgrund der neuen Datenschutz-Verordnung wurde eine Zustimmungs-erklärung der Interviewpartner eingeholt und der jeweilige Interviewpartner wurde auch über die Datenverwendung informiert. Durch den Fragebogen sollte keine lückenlose Informationsgewinnung erfolgen, sondern vielmehr sollte dieser unternehmenspraktische Aspekte liefern.90 Ebenso wiesen die Interviews für eine effizientere Durchführung einen explorativen Charakter auf.91 Nichtsdestotrotz sollte die Kritik an solchen Experteninterviews nicht außer Acht gelassen werden, da sie insb. nach Bogner et al. (2005) sowohl einen „ erhöhten Reflexionsbedarf “ aufweisen, als auch die Ergebnisse nur eine „ sehr begrenzte Reliabilität “ haben.92 Allerdings waren die subjektiven (beruflichen) Erfahrungen der Experten genauso wichtig, wie deren Meinungen und Eindrücken, sodass eine qualitative Methode gerechtfertigt ist. Wegen der geringen Anzahl an Interviews scheidet eine quantitative Methode aus. Somit ist allerdings fraglich, ob das Ergebnis repräsentativ genug ist. Ebenso kann nicht auf die komplette PE-Branche geschlossen werden, sondern nur Andeutungen gemacht werden.

Als Auswertungsmethode wurde die qualitative Inhaltsanalyse nach Meuser/Nagel (1991, 2010) ausgewählt. Die beiden Autoren haben sechs Schritte erarbeitet für die Auswertung von Experteninterviews, die gleichermaßen durchlaufen werden sollten:93

(1) Transkription: es kommt auf die inhaltliche Vollständigkeit an, wobei das jeweilige Interview mithilfe eines Aufnahmegerätes aufgenommen und dann verschriftlicht wird.
(2) Paraphrase: hierbei wird das zuvor transkribierte Interview in eigenen Worten chronologisch zusammengerafft. Zu beachten ist jedoch, dass Bogner et al. (2014) hier die Gefahr sehen, dass Wichtiges ausgelassen wird und nach Ullrich (2006) hingegen kann dieser Schritt weggelassen werden.94 Kombiniert man dies mit den Fragestellungen des Fragebogens, die bestimmen, welche Teile des Interviews paraphrasiert werden, wird dieser Schritt vorliegend derart modifiziert, dass jeweils nur die für die Antworten des Fragebogens und somit für die Hypothesen relevante Antworten paraphrasiert werden. Unterstützt wird dies u. a. dadurch, dass selbst die beiden Autoren Meuser/Nagel ihr Modell „ nur als Vorschlag “ ansehen, dass „ flexibel an die jeweiligen Untersuchungsbedingungen angepasst “ werden kann.95 Demnach ist eine Modifikation durch dieses Wortlaut-Argument gerechtfertigt.
(3) Überschriften/Kodierung: bei diesem Schritt werden die paraphrasierten Passagen mit Überschriften versehen, wobei vorliegend die Überschriften anhand des Fragebogens schon vorformuliert worden sind.
(4) Thematischer Vergleich: es werden diejenigen Passagen aus den verschiedenen Interviews, die sich ähneln oder gleichen, zusammengefasst, sprich die Überschriften werden auch vereinheitlicht. Somit werden Gemeinsamkeiten, Unterschiede oder Abweichungen herausgearbeitet.
(5) Soziologische Konzeptualisierung: auf dieser Stufe wird sich von der Textabfolge gelöst und es wird begrifflich das „ Gemeinsame im Verschiedenen “ gestaltet.
(6) theoretische Generalisierung: an dieser Stelle werden Zusammenhänge zwischen den Kategorien untersucht und Interpretationen formuliert. Das bedeutet, dass die Kategorien „ in ihrem internen Zusammenhang theoretisch aufgeordnet “ werden. Ebenso werden Sinnzusammenhänge zu Theorien verknüpft.

Aufgrund dessen, dass die PE/VC-Branche, wie bereits zuvor erwähnt, ihre Ursprünge in den USA haben, sollte auch bedacht werden, dass im angloamerikanischen Raum ein differenziertes Verfahren verwendet wird, bei dem auf sog. „ Paketlösungen “ gesetzt wird, d. h. die Fallauswahl, die Erhebungs- und Auswertungsmethoden werden in einem Prozess miteinander verknüpft, mit dem Ziel, durch diese Pakete neue Theorien aus empirischen Datenerhebungen zu generieren.96 Vorliegend wird die Auswertungsmethode nach Meuser/Nagel (1991, 2010) solchen „ Paket-lösungen “ vorgezogen, da sich diese Thesis geografisch auf die deutsche PE-Branche fokussiert.

4.2 Der traditionelle PE-Investmentprozess

In der Literatur gibt es unterschiedliche Aufbauten des PE-Investmentprozesses.97 Bei einem Vergleich der verschiedenen Darstellungen werden im Prinzip einige Überschneidungen erkannt. Der für diese Thesis relevante Investmentprozess wird nach Abbildung 7 wie folgt aufgebaut:

Abbildung 7 : PE-Investmentprozess

Abbildung in dieser Leseprobe nicht enthalten

Quelle 11 : Eigene Darstellung in Anlehnung an: Wöhe et al. (2013), S. 189, Baldi (2012), S. 2 und Jesch (2004), S. 59.

4.2.1 Deal Sourcing

Die erste Phase ist das Deal Sourcing. Deal Sourcing bedeutet das Suchen nach Deals und umfasst den Deal Flow sowie das Screening. Dabei werden in quantitativer Hinsicht neue Investmentmöglichkeiten aufgezeigt und in qualitativer Hinsicht wird anhand von Kriterien eine Rationalisierung auf vorselektierte Targets vorgenommen.98

Als Deal Flow wird der Strom von Projektvorschlägen, die die PEG erreichen, bezeichnet.99 Hierzu stehen der PEG eine Vielzahl von Kanälen zu Verfügung, und zwar

- Netzwerk: Banken, M&A-Häuser, VC-Investoren, Business Angels, Berater und WP/RA/StB-Kanzleien,
- Direkte Anfragen: Marketing, annual Reports, Tech-Messen, Gründerplattformen, Internet und Branchenvertretungen,
- Direkte Pitch - Deck Zusendungen: durch Gründer, Geschäftsführer etc.; und der
- aktiven Suche durch die PEG: Tech-Parks, Universitäten, Forschungsinstitute, Investor-Days, aber dennoch werden die meisten Transaktionen (60-80%) durch Dritte vermittelt.100 Genau diese immense „ Einmischung “ von externen Beratern führt auch dazu, dass lieber ein Deal mehr als zu wenig durchgeführt wird, sodass auch viele Fehlentscheidungen getroffen werden. Beim Screening werden hingegen potenzielle Investmentprojekte systematisch und aktiv eruiert.101 Die wichtigsten Kriterien dafür sind das Business Model und die Wettbewerbsposition, dazu kommen noch die Bewertung, die „ Value-Adding “-Fähigkeit und ggf. noch das Management Team.102 Dabei gibt es auch Überschneidungen mit den fünf Entscheidungsfelder von Tyebjee/Bruno (1984) die immer wieder eine große Rolle spielen, und zwar: Marktattraktivität, Produktdifferenzierung, Managementfähigkeiten, Marktumfeld und das Veräußerungspotenzial der Beteiligung.103 Durch das Überangebot an Dry Powder, also dem von den Investoren versprochenen Kapital, der steigenden Konkurrenz und den stetig sinkenden Investmentmöglichkeiten, wird das Deal Sourcing immer bedeutsamer.104 Problematisch ist dabei allerdings, dass die meisten PEGs bzw. die PE-Manager sich immer noch nur auf ihr Netzwerk berufen und dieser traditionelle Weg ist eindeutig nicht mehr zeitgemäß.105 Ebenso benötigt diese Phase viel Arbeitskraft in Form von „ Manpower “ und darüber hinaus ist der sog. Deal Funnel auch frustrierend, da im Median ca. 100 Investmentmöglichkeiten durchleuchtet werden, max. 15 davon werden näher begutachtet, mit weniger als acht wird ein Agreement geschlossen und lediglich sechs bis vier oder weniger („ 7 out of 1000 “) werden pro Jahr ge-„ closed “, abhängig von der Größe der PEG’s und deren Erfahrung.106 Ähnlich sieht es auch bei den VCs aus.107 Vergleiche dazu u. a. die Abbildung 13 (S. 84).

Auch heutzutage wird in dieser Phase immer noch für diese Vorauswahl auf Excel-Spreadsheets gesetzt, wodurch auch die konservative Haltung verdeutlicht wird.108 Dennoch sollte nicht außer Acht gelassen werden, dass schon heute einige Gesellschaften v. a. im VC-Bereich für die aktive Suche nach Targets auf diverse Plattformen wie bspw. Pitchbook, AngelList, CB Insights oder auch auf Crowdfunding-Websites zurückgreifen, allerdings gibt es solche auch für die later stages (PE), wie z. B. Crunchbase oder auch PrivCo.109 Diese Anbieter stellen ihren Kunden eine Fülle an Daten zur Verfügung. In den USA wird vermehrt bei VC auf KI und/oder BDA gesetzt.110

Nach dem Screening werden die potenziell in Frage kommenden Investmentmöglichkeiten in Form eines Proposals vom Investment/Deal Team dem Investment Komitee der PEG vorgelegt. Das Investment Komitee ist die zentrale Entscheidungseinheit der PEG und entscheidet darüber, ob Investments getätigt werden oder nicht, indem es in Abstimmung mit ggf. anderen Gremien der PEG, diese Proposals dann analysiert, diejenigen mit dem größten Wertsteigerungspotenzial auswählt und anschließend wird dem Target ein Angebot unterbreitet und ein Non-Disclosure-Agreement (NDA) unterzeichnet, damit der Deal in die nächste Stufe (Due Diligence) gelangen kann.111

4.2.2 Due Diligence und Kaufabwicklung

Die zweite Phase betrifft die Due Diligence und die anschließende Kaufabwicklung . Unter einer Due Diligence (DD), also einer „ gebotenen Sorgfalt “, wird die technische, wirtschaftliche, rechtliche und steuerliche Bewertung und Prüfung der Zielgesellschaft verstanden, um damit Erkenntnisse über die verborgenen Chancen und Risiken der Zielgesellschaft zu erhalten, als auch die sog. Deal Breaker (für den Käufer nicht akzeptable und nicht zu beseitigende Sachverhalte, die bei Fortbestand die Vertragsverhandlungen zum Abbruch bringen) zu identifizieren.112 Hierzu ist zu beachten, dass mangels gesetzlicher Regelung die Vorgehensweisen standardisiert sind.113 Die Informationsbereitstellung erfolgt dabei in einem Datenraum (Data Room), meistens bei externen Beratern oder über einen virtuellen Datenraum und die große Herausforderung besteht hierbei in der Identifizierung der wesentlichen Dokumente.114 Des Weiteren erfolgt die DD auch nach unterschiedlichen Gesichtspunkten beziehungsweise es gibt verschiedene Arten; die für PE wichtigsten Arten sind: Legal, Financial, Commercial, Tax und Human Resources, IP/IT/Technical und die Exit -DD.115 Die Risikoanalyse durch den PE-Fonds wird dabei auf eine kurze Darstellung der möglichen Szenarien beschränkt.116

Fast parallel zur DD beginnen etwas zeitversetzt auch die Verhandlungen und die Kaufpreisfindung. Allerdings werden die Verhandlungen nur dann aufgenommen, wenn das Investment-Komitee durch die DD zum Entschluss kommt, dass sich das Investment in das Target überhaupt lohnt.117 Eingeleitet wird das Ganze durch den Letter of Intent (LoI) und bei der Kaufpreisfindung werden oftmals vereinfachte Verfahren, wie z. B. Multiples, verwendet.118 Oftmals wird hier bereits ein sog. Term Sheet (Vorvertrag) unterzeichnet, welches eine Verpflichtung zum Abschluss eines Beteiligungsvertrages begründet.119 Erst wenn in den Verhandlungen alles gut verläuft, kann die Kaufabwicklung (Beteiligungsvertrag, Akquisitionsfinanzierung, etc.) erfolgen und danach kann mit der operativen Wertschöpfung begonnen werden.

4.2.3 Operative Wertschöpfung/Portfolio-Management und Exit

Die operative Wertschöpfung ist die dritte Phase, welche nach der Haltedauer in den Exit als vierte Phase übergeht. Die operative Wertschöpfung wird eingeleitet durch strategische Diskussionen zwischen dem PU-Management und den PE-Managern, bei denen die Wertsteigerungspotenziale und die Bestätigung des Business-Plans aufgezeigt werden sollen, gefolgt von einem sog. „ Fitness-Test “ des Unternehmens (= Status quo) und einem anschließenden Soll-Ist-Vergleich, auf dessen Basis ein zeitlicher Masterplan (drei bis fünf Jahre) erstellt wird.120 Den eigentlichen Startpunkt dieser Phase stellt aber das sog. „ 100-Tage-Programm “ (100-day plan) dar, welches verdeutlicht, welche Veränderungen in den ersten drei Monaten nach dem Investment erfolgen müssen, v. a. um auch die sog. „ low hanging fruits“ abzugreifen, d. h. es geht dabei um kurzfristige Ertrags-steigerungen.121 Ungefähr ein Jahr nach der Transaktion wird die Weiterentwicklung der PUs beschleunigt, wodurch die Programme aus dem Masterplan zur vollen Potenzialausschöpfung gestartet werden.122

Hinsichtlich dieser Potenzialausschöpfung innerhalb der operativen Wertschöpfung gibt es zwar keine Universallösung,123 jedoch werden immer öfter dieselben Wertsteigerungshebel ins Visier genommen. Dabei wird zwischen den primären (intrinsischen) und den sekundären (extrinsischen) Hebeln unterschieden. Als primäre Wertsteigerungshebel wird so gut wie immer als erstes auf die Umsatzsteigerung als wichtigste Maßnahme abgezielt, bspw. durch Wachstumsstrategien, höhere Gewinnmargen, Auslastungsoptimierung oder Add-on -Akquisitionen, gefolgt von der Renditeoptimierung, aktive Kostensenkungen und der Verbesserung des Free-Cash-Flows.124 Ebenso zu den primären Hebeln zählt die Kooperation zwischen den PUs untereinander, wo es aber eher um den Wissenstransfer und den sog. Economies of Scale -Effekten geht.125 Als sekundäre Hebel dienen oftmals die Reduzierung von Agency-Kosten, die Verstärkung der Corporate Governance, eine Verbesserung der Unternehmenskontrolle und der Anreizmodelle für das Management.126

Nachdem alle Wertschöpfungsprogramme durchgeführt worden sind, wird versucht ca. ein bis zwei Jahre vor einem geplanten Verkauf eines PU (= Pre-Sale bzw. Pre-Exit) den „ Turbo einzuschalten “, indem Initiativen für zukünftige Umsatzquellen für den Käufer geschaffen werden, welche für diesen kurzfristig umsetzbar sind und auch schon bereits weit ausgearbeitet sind und sich somit auch bei der höheren Preiskalkulation niederschlagen.127

Wenn die befristete Haltedauer beendet wird, erfolgt der Exit, um somit die Renditeforderung zu erzielen.128 Der Exit kann dabei auf mehrere Arten erfolgen.129 Wenn alle PUs veräußert sind und der Fonds aufgelöst wurde, erfolgt die Kapitalrückzahlung an die LPs und die Gewinnaufteilung.

Vergleiche u. a. für den zeitlichen Faktor der einzelnen Phasen, die Abbildung 14 (S. 84).

4.3 Digitale Disruption des PE-Investmentprozesses

In der PE-Branche verändern Big Data (Analytics) und KI die Wertschöpfung auf verschiedenen Ebenen. Deal Sourcing, Due Diligence und operative Wertschöpfung in den Zielunternehmen können als die wichtigsten Aspekte genannt werden.130 Die Frage, die dabei geklärt werden muss ist aber, wie genau die jeweiligen Phasen beeinflusst werden. Allerdings sollte auch geklärt werden, welche Aufgaben oder Prozesse überhaupt digitalisierbar bzw. automatisierbar sind und welches Potenzial dahintersteckt. Um diese Fragen beantworten zu können, wird ein eigener Use Case erstellt, an dem die Disruption in den einzelnen Phasen detaillierter dargestellt wird.

4.3.2 Deal Sourcing

Nach Bader (1996) und Richter et al. (2005) stellt das Ausfindigmachen von potenziellen Targets einen wesentlichen Wettbewerbsvorteil gegenüber der Konkurrenz dar, und schon in diesem frühen Stadium, sollte an eine nachhaltige Cashflow-Generierungsfähigkeit des Targets gedacht werden.131 Eine starke Zunahme des Transaktionsaufkommens sorgt auch für sog. economics of scale, economies of scope und Lern-/Erfahrungseffekten.132 Um ein höheres Transaktionsaufkommen zu erreichen, muss das Universum an neuen Investitionsmöglichkeiten enorm vergrößert und somit auch mehr potenzielle Targets ge-„ sourced “ werden, wodurch das „ missing out “ von Trends geringer ausfällt. Dies bedeutet also eine Abkehr vom traditionellen Deal Sourcings. Ein anderer Sourcing Ansatz ist die proaktive Marktanalyse, die sich in Top-Down und Bottom-Up untergliedert:133

Abbildung 8 : Deal Sourcing Strategien

Quelle 12 : Wolz (2019), S. 393.

Aufgrund dessen, dass auch der Bottom-Up -Ansatz sehr zeitaufwendig ist, um in den herausgefilterten Targets ein Muster zu erkennen, kann eine Abhilfe durch Data-Analytics -Algorithmen geschaffen werden.134 Durchschnittlich verbringen Analysten ca. 20 Stunden (bei VC: 15 Stunden) die Woche mit dem traditionellen Sourcing, was einen großen Arbeitsaufwand darstellt,135 doch dies kann durch BDA und KI effektiver genutzt werden.

Wolz (2019) führt weiterhin an, dass es auf zwei Optimierungsfaktoren ankommt, nämlich: 1) höhere Quantität an potenziellen Targets und 2) eine verbesserte Qualität von potenziellen Targets.136 Bevor das allerdings erfolgen kann, sollte geklärt werden, welche Datenquellen überhaupt in Frage kommen. Dafür kann auf die Kategorisierung nach Chen et al. (2012) zurückgegriffen werden (vgl. dazu Kap. 3.3).

In gewisser Weise wird diese Klassifizierung auch von der Boston Consulting Group (BCG) aufgegriffen, wie die Abbildung 9 zeigt. Danach sollte für ein größeres Volumen beim Deal Sourcing auf eine Kombination von Deal-Plattformen (transaktionsrelevante Daten) und Social Media Analytics (web-based content) gesetzt werden, um somit via BDA und KI zusätzliche Informationen zu erhalten neben den Wachstums- und Liquiditätssignalen. Derselben Ansicht ist auch Wolz (2019).137

[...]


1 Vgl. Preqin (2020).

2 Vgl. KPMG (2019), S. 2; vgl. McKinsey (2020), S.24; vgl. auch Gompers et al. (201 5), S. 27.

3 Hensinger (2018), S.1.

4 Vgl . Kearny/TUM (2019), S. 13; vgl. KPMG (2018), S. 1; vgl. KPMG (2019), S. 4; vgl. McKinsey (2020), S. 33.

5 Vgl. Bajulaiye et al. (2020), S. 32 und 36; vgl. Flynn (2018), S. 17; vgl. auch für weitere „ Data-Driven VCs “, ausführlicher: Trocha (2019).

6 Vgl . Kearny/TUM (2019), S. 13.

7 Vgl. Kearny/TUM (2019), S. 36.

8 Vgl. Tykvová (2018), S. 331 f.

9 Vgl. Tykvová (2018), S. 332.

10 Vgl . BMWi (2015), S. 6 ff.

11 Vgl. BITKOM (2012), S. 34 ff.

12 Vgl. Weibl/Hess (2019), S. 1079-1084.

13 Vgl. Bajulaiye et al. (2020), S. 30-36.

14 Vgl. Kearny/TUM (2019), S. 1-36.

15 Vgl. KPMG (2018), S. 1-9; vgl. KPMG (2019), S. 1-14.

16 Vgl. McKinsey (2020), S. 1-40.

17 Vgl. Intertrust (2019), o. S.

18 Vgl. PWC (2020), S. 81.

19 Vgl. Wolz (2019), S. 392-397.

20 So auch Weibl/Hess (2019), S. 1075: „[…] the data-driven approach, in particular, impacts the deal origination and screening stages of investment“.

21 Coekelbergs/v. Nell-Breuning (2019), S. 6.

22 Vgl. Bader (1996), S. 4 f.

23 Vgl. Groh/Gottschalg (2005), S. 27; vgl. Nathasius (2003), S.175 ff.; vgl. Möller (2003), S. 21 f.; vgl. Fraser-Sampson (2010), S.1.

24 Vgl. Ettinger/Jaques (2017), Kap. E Rn. 5); vgl. Hölters/Weinheimer (2010), Teil XII, Rn. 1.

25 Beachte, dass in der Praxis auch börsennotierte Unternehmen als Targets von PEGs übernommen werden. Ein Beispiel dafür stellt die Deutsche Telekom AG dar, denn 2006 erwarb die US-amerikanische PEG Blackstone ca. 4,5 % an ihr.

26 Der Beteiligungsbegriff ist gesetzlich normiert in § 271 Abs. 1 Sätze 1-3 HGB: „ Beteiligungen sind Anteile an anderen Unternehmen, die bestimmt sind, dem eigenen Geschäftsbetrieb durch Herstellung einer dauernden Verbindung zu jenen Unternehmen zu dienen. Dabei ist es unerheblich, ob die Anteile in Wertpapieren verbrieft sind oder nicht. Als Beteiligung gelten im Zweifel Anteile an einer Kapitalgesellschaft, die insgesamt den fünften Teil des Nennkapitals dieser Gesellschaft überschreiten “.

27 Vgl. Wöhe et al. (2013), S. 175; vgl. Caselli (2010), S. 4 f.; vgl. Grethe (2010), S. 64; vgl. Bader (1996), S. 10 ff.

28 Schalast/Raettig/Wedell (2019), S. 180 f.; vgl. auch Metrick/Yasuda (2010 b), S. 4 f.

29 Vgl. Caselli (2010), S.4; Ettinger/Jaques (2017), Kap. E, Rn. 5: „ PE umfasst VC “; unterschiedliche Finanzierungsformen, vgl. Eilers/Aleth (2009), S. 1 f. und Holzapfel/Pöllath (2008), S. 279 f; anders, also PE = Oberbegriff – vgl. Fenn et al (1995), S. 2 Abb.1 und Kaserer/Wagner (2006), S. 96: „ VC ist Teilsegment des PE “; vgl. Kußmaul/Ollinger (2012), S. 229 f.; vgl. Leopold/ Frommann/Kühr (2003), S. 6 f.; vgl. Jesch (2004), S. 21. Beachte auch, dass in Großbritannien Venture Capital als Überbegriff für die Beteiligungsfinanzierung angesehen wird, vgl. dazu Betsch et al. (2000), S. 320.

30 Vgl. Eilers/Aleth (2009), S. 1; vgl. Leopold/Frommann/Kühr (2003), S. 4 ff.; vgl. Diller (2007), S. 19.

31 Vgl. Graf et al. (2001), S. 24.

32 Vgl. Schween (1996), S. 13 ff.; notwendige Abgrenzung, so auch Schalast/Raettig/Wedell (2019), S. 183.

33 Wöhe et al. (2013), S. 169; Siehe auch Klonowski (2010), S. 2 ff.

34 Vgl. Feldhaus/Veith/Feldhaus (2009), Kap. I Rn. 8.

35 Vgl. Ettinger/Jaques (2017), Kap. E, Rn.5; vgl. Cendrowski (2012), S. 3 f.

36 Vgl. Müller (2010), S. 66 ff.

37 Schalast/Raettig/Wedell (2019), S. 182.

38 Wöhe et al. (2013), S. 176; vgl. Jesch (2004), S. 141.

39 Vgl. Hay (2011), S. 206.

40 Vgl. Jesch (2004), S. 145; vgl. Eitelwein et al. (2008), S. 8; vgl. Koch (2014), S. 434; vgl. Lüdicke/Arndt (2013), AT II 1c.

41 Vgl. Eitelwein et al. (2008), S. 6.

42 Vgl. Diller (2007), S. 14; vgl. Eilers/Aleth (2009), S. 491 f.

43 Vgl. Kaplan/Strömberg (2008), S. 4.

44 Vgl. Eitelwein et al. (2008), S. 7; vgl. Tcherveniachki (2007), S. 27; vgl. Baldi (2012), S. 3; vgl. Metrick/Yasuda (2010 a), S. 2310.

45 Vgl. Metrick/Yasuda (2010 b), S. 33; vgl. Baldi (2012), S. 5; vgl. Grethe (2010), S. 66.

46 Vgl. Baldi (2012), S. 8 f.; vgl. Metrick/Yasuda (2010 a), S. 2319 f.

47 Vgl. Robinson/Sensoy (2012), S. 2.

48 Brühl (2019), S. 2.

49 Vgl. Horvath (2013), S. 13.

50 Vgl. Yong et al. (2019), S. 35; vgl. IDC-Studie (2020), o. S.; vgl. Moore (1965), S. 114 ff.; vgl. Marr (2015), S. 80; vgl. King (2014), S. 35; vgl. Dorschel (2015), S. 8; vgl. Fasel (2014), S. 389; vgl. Lopez de Prado (2018), S. 23 ff.; vgl. Schroeck et al (2012), S. 5; vgl. Klein/Gräf (2014), S. 220 ff.; vgl. Ranjan (2019), S. 333.

51 Vgl. Ranjan (2019), S. 333 ff.; vgl. auch Sivarajah et al. (2017), S. 273: zu den „ 5 V’s “ werden noch „ Visualization “(= charts and graphs to visualize complex data) und „ Variability “ (= meaning of data is constantly changing) hinzugefügt.

52 Vgl. Ranjan (2019), S. 333 ff.

53 Vgl. BITKOM (2014), S. 12 f.

54 BITKOM (2014), S. 13.

55 Vgl. BITKOM (2014), S. 14.

56 Vgl. Ajah/Nweke (2019), S. 8.

57 BITKOM (2014), S. 57.

58 Chen et al. (2012), S. 1166.

59 Vgl. Chen et al. (2012), S. 1169.

60 Siehe dafür Tableau (o. J.), www.tableau.com.

61 Vgl. Ajah/Nweke (2019), S. 7; vgl. BITKOM (2014); S. 61 f.; vgl. Hanschke (2018), S. 95 f.

62 Vgl. Buttong (2013), S. 9.

63 Vgl. BITKOM (2014), S. 57 ff.

64 BITKOM (2014), S. 62.

65 Vgl. Piazza (2010), S. 31.

66 Vgl. Piazza (2010), S. 31; vgl. Müller/Lenz (2013), S. 75.

67 Vgl. Alpar (2000), S. 3; vgl. auch Pietsch/Memmler (2003), S. 59; vgl. auch Düsing (2000), S. 74 f.; vgl. Piatetsky-Shapiro (2007), S. 99 ff.; und vgl. Petersohn (2005), S. 10.

68 Vgl. Runkler (2010), S. 1 f.

69 Vgl. Fayyad et al. (1996 a), S. 83 f.

70 Vgl. BITKOM (2014), S. 68; vgl. Kersting et al. (2019), S. 29.

71 Vgl. Hartmann (2018), S. 231 ff.

72 Vgl. Welsch et al. (2018), S. 370; vgl. Bullinger/Buck (2010), S. 88.

73 Vgl. Brüchert (2017), S. 4 f.; vgl. Frochte (2018), S. 14 f.; vgl. Dörn (2017), S. 14; vgl. Jaekel (2018), S. 21.

74 Vgl. BITKOM (2017), S. 31 f.

75 Vgl. Brynjolfsson/Mcafee (2019), S. 17.

76 Vgl. Brynjolfsson/Mcafee (2019), S. 21.

77 Vgl. Ertel (2013), S. 6 ff.

78 Vgl. Hanschke (2018), S. 97; vgl. auch BITKOM (2014), S. 66.

79 Vgl. BITKOM (2014), S. 66.

80 BITKOM (2014), S. 67.

81 Vgl. BITKOM (2014), S. 67.

82 Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems, bei der eine Eingabe in genau definierten Schritten zu einer Ausgabe umgewandelt wird. Dabei muss der Algorithmus für die Durchführung sehr präzise formuliert und darf nicht mehrdeutig sein, vgl. Kersting et al. (2019), S. 11 ff.

83 Vgl. Hanschke (2018), S. 97; vgl. Gentsch (2019), S. 10 ff.

84 Vgl. Kersting et al. (2019), S. 19; vgl. Scherk/Pöchhacker-Tröscher/ Wagner (2017), S. 14 ff.

85 Vgl. Kersting et al. (2019), S. 22.

86 Vgl. Gentsch (2019), S. 38 f.; vgl. Kreutzer/Sirrenberg, S. 7 f.; vgl. Kersting et al. (2019), S. 209.

87 Vgl. BVK (2020), S. 6.

88 Bogner et al. (2005), S. 37; vgl. Gläser/Laudel (2006), S. 1.

89 Vgl. Bogner et al. (2005), S. 37; vgl. Blanz (2015), S. 80.

90 Vgl. Friebertshäuser et al. (1997), S. 376, zit. nach Mayer (2004), S. 43.

91 Vgl. Bogner et al. (2014), S. 23 f.

92 Vgl. Bogner et al. (2005), S. 16 f.

93 Meuser/Nagel (1991), S. 455 ff.; vgl. Meuser/Nagel (2010), S. 466 ff.; siehe auch Ullrich (2006), S. 103 ff.

94 Vgl. Bogner et al. (2014), S. 80; vgl. Ullrich (2006), S. 105.

95 Vgl. Meuser/Nagel (1991), S. 452; vgl. Strauss (1987), S. 7 ff.

96 Vgl. Gläser/Laudel (2010), S. 47.

97 Vgl. Wöhe et al. (2013), S. 189: Einteilung nach organisatorischen und projektbezogenen Phasen; vgl. Brettel et al. (2008), S. 14 ff.: Einteilung erfolgt in Akquisitionsphase, Beteiligungsphase und Exit, die Akquisitionsphase wiederum ist unterteilt in Akquisition von Kapital und Investmentprojekten, Due Diligence, Verhandlungen und Akquisition; vgl. Weber/Hohaus (2010), S. 62: Einteilung wie folgt: Pre-Investmentphase mit Fundraising, Deal Flow und Screening, dann die Deal-Phase mit Unternehmensbewertung, Due Diligence, Verhandlungen und Vertragsgestaltungen, der Strukturierung und Finanzierung und abschließend die Post-Investmentphase, wo es um Hebel, Wertschöpfungsstrategien und Exit-Möglichkeiten geht; vgl. Baldi (2012), S. 2: Phasen sind in Fundraising, Investment, Active Management und Divestment aufgeteilt.

98 Vgl. Gompers et al. (2017), S. 14.

99 Vgl. Wöhe et al. (2013), S. 189.

100 Vgl. Betsch et al. (2000), S. 119; vgl. Brettel et al. (2008), S. 31 f.; vgl. Grethe (2010), S. 95.

101 Vgl. Wöhe et al. (2013), S. 189.

102 Vgl. Gompers et al. (2016), S. 27.

103 Vgl. Tyebjee/Bruno (1984), S. 1058.

104 Vgl. KPMG (2019), S. 2; vgl. McKinsey Review (2020), S.24; vgl. auch Brettel et al. (2008), S.15; vgl. Mitschke-Collande (2010), S. 138; vgl. Müllner (2012), S. 59.

105 Vgl. Kearny/TUM (2019), S. 13.

106 Vgl. Gompers et al (2016), S. 25 und 55; vgl. Brettel et al. (2008), S. 15; vgl. Kraft (2001), S. 137: Investment nur in 2,5% der Fälle.

107 Vgl. Gompers et al. (2017), S. 15 f.: 100 Investmentmöglichkeiten benötigt für 0,79 (= 1 tatsächliches) Investment und durchschnittlich gibt es 4 Investments pro Jahr.

108 Vgl. Kearny/TUM (2019), S. 13.

109 Vgl. Bajulaiye et al. (2020), S. 31; vgl. Teten (2017), o. S.

110 Vgl. Trocha (2019), o. S.

111 Vgl. Baldi (2012), S. 13 ff.; vgl. auch Sewing (2008), S. 37.

112 Vgl. dazu Hanke/Socher (2010), S. 829 f.; vgl. Gran (2008), S. 1410; vgl. Gömöry (2015), S. 154.

113 Vgl. Gran (2008), S. 1410 f.

114 Vgl. Gran (2008), S. 1411; vgl. Gömöry (2015), S. 154; vgl. Hanke/Socher (2010), S. 830.

115 Vgl. dazu Jesch (2004), S. 64 f.; vgl. auch Gran (2008), S. 1411 ff.

116 Vgl. Jesch (2004), S. 65.

117 Vgl. Sewing (2008), S. 37.

118 Vgl. Achleitner/Nathusius (2004), S. 183.

119 Vgl. Jesch (2004), S. 67.

120 Vgl. Maaß (2015), S. 55 ff.

121 Vgl. Zeisberger et al. (2017), S. 161; vgl. Maaß (2015), S. 57.

122 Vgl. Maaß (2015), S. 57.

123 Vgl. Ciesielski (2015), S. 63.

124 Vgl. Ciesielski (2015), S. 64; vgl. Maaß (2015), S. 58; vgl. Landau (2010), S. 183.

125 Vgl. Homann/Reißig-Thust (2019), S. 316.

126 Vgl. Ciesielski (2015), S. 64. vgl. Homann/Reißig-Thust (2019), S. 314 ff.; vgl. Landau (2010), S. 183.

127 Vgl. Maaß (2015), S. 57.

128 Vgl. Weber/Hohaus (2010), S. 219.

129 Vgl. Baldi (2012), S. 3: IPO (=Börsengang), Trade Sale und Secondary Buyout sind am wichtigsten.

130 Vgl. Coekelbergs/von Nell-Breuning (2019), S. 6.

131 Vgl. Bader (1996), S. 20; vgl. Richter et al. (2005), S. 22; vgl. Sommer (2012), S. 76.

132 Vgl. Barthelmess (2010), S. 98.

133 Vgl. Wolz (2019), S. 394: Bei Top-Down werden zuerst Sektoren und Industrien mit großen Wachstumspotenzial analysiert, sodass man einen Marktüberblick erhält, der dann anschließend in diverse Marktnischen untergliedert wird. Diese Variante erfordert jedoch sehr viel Marktkenntnis und ist auch sehr zeitaufwendig. Demgegenüber werden bei Bottom-Up zuerst interessante Targets evaluiert, um somit interessante Märkte zu identifizieren. Besonders wertschöpfend ist diese Variante, wenn zuvor keine Marktfestlegung durch bestimmte Investmentkriterien erfolgt ist und der Markt auch neu definiert werden soll.

134 Vgl. Wolz (2019), S. 394.

135 Vgl. Wolz (2019), S. 394; vgl. Gompers et al. (2017), S. 31 f.

136 Vgl. Wolz (2019), S. 395.

137 Vgl. Wolz (2019), S. 396.

Ende der Leseprobe aus 163 Seiten

Details

Titel
Digitalisierung in der deutschen Private Equity Branche. Auswirkungen auf den Investmentprozess
Hochschule
Internationale Fachhochschule Bad Honnef - Bonn
Note
1,0
Autor
Jahr
2020
Seiten
163
Katalognummer
V980100
ISBN (eBook)
9783346332509
Sprache
Deutsch
Schlagworte
Digitalisierung, Private Equity, Investmentprozess, Big Data Analytics, Künstliche Intelligenz
Arbeit zitieren
Sascha Dominik Stützner (Autor), 2020, Digitalisierung in der deutschen Private Equity Branche. Auswirkungen auf den Investmentprozess, München, GRIN Verlag, https://www.grin.com/document/980100

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Digitalisierung in der deutschen Private Equity Branche. Auswirkungen auf den Investmentprozess



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden