Die zunehmende Bedeutung von KI für Unternehmen zeigt das Beratungsunternehmen McKinsey & Company auf. Sie prognostiziert für Unternehmen die keine KI-Technologien adaptieren, einen Cash-Flow Rückgang von bis zu 20%, wodurch wiederum ein Leistungsunterschied zu KI-Vorreitern entstehen könnte [Mc18]. U.a. deshalb assoziieren die Menschen mit dem Wort KI die Schlagwörter Effizienz und bessere Arbeitsergebnisse. Jedoch bestehen bei Anwender:innen auch negative Verbindung zu dieser Technologie, wie bspw. ein fehlender Datenschutz [Pr20]. In Konsequenz kann dies zu einer geringeren Akzeptanz in der Anwendung einer KI-Applikation sowie der Freigabe von Daten für die entsprechenden ML-Modelle führen. Sowohl aus Sicht von Privatpersonen bezüglich personenbezogener Daten, als auch aus Sicht sensibler Unternehmensdaten. „Damit Unternehmen das Potenzial neuer KI-Technologien gewinnbringend ausschöpfen können, ist die Verfügbarkeit relevanter Datenmengen in entsprechender Qualität eine wesentliche Herausforderung, die es zu bewältigen gilt.“ [Ab19, S.31].
[...] Somit bietet die branchen- und unternehmensübergreifende Veröffentlichung und Nutzung von Daten große Potenziale für die Güte von ML-Modellen. Jedoch werden besonders diese speziell benötigten Trainingsdaten von Unternehmen ungern veröffentlicht, da sie „dem Ausbau der eigenen Wettbewerbsfähigkeit dienen“ [Dö18, S.158].
Die erste Hälfte der vorliegenden Studie befasst sich mit dem Stand der Forschung zu dem Themengebiet Private AI. Dabei zielt eine Literaturrecherche darauf ab, ein grundlegendes Verständnis über die Idee von Private AI zu erlangen sowie Grundlagen zu den dazugehörigen wissenschaftlichen Grundkonzepte zu erarbeiten. Dieses Ziel wird von der folgenden Forschungsfrage geleitet:
Auf welchen wissenschaftlichen Grundkonzepten basiert die Idee von Private AI? (RQ1)
Hierauf basierend ist ein weiteres Ziel dieser Studie nach wissenschaftlich erforschten Ansätze des Private AI Prinzips zu recherchieren, zu analysieren und gegenüberzustellen. Die hierzu entwickelte Forschungsfrage lautet:
Welche Ansätze zu Private AI sind in der Wissenschaft erforscht? (RQ2)
Das abschließende Ziel beschäftigt sich mit den in der Praxis implementierten Ansätzen zu Private AI. Hierbei ist das Ziel zu analysieren, welche Implementierungen existieren, worauf sie basieren und ob sie öffentlich zugänglich sind:
Welche praktischen Implementierungen existieren zu dem Konzept von Private AI? (RQ3)
Inhaltsübersicht
1. Einleitung
1.1 Motivation
1.2 Zielsetzung
1.3 Aufbau der Studie
2. Grundlegende Modelle zu Private AI
2.1 Die Idee hinter Private AI
2.2 Machine Learning
2.2.1 Supervised Learning
2.2.2 Unsupervised Learning
2.2.3 Ensemble Learning
2.3 Fully Homomorphic Encryption
2.4 Secure Multi Party Computation
3. Private AI Ansätze in der Wissenschaft & praktische Implementierungen
3.1 Wissenschaftliche Ansätze zu Private AI
3.1.1 ML Confidential: Machine Learning on Encrypted Data
3.1.2 CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy
3.1.3 SecureML: A System for Scalable Privacy-Preserving Machine Learning
3.1.4 CryptoDL: Deep Neural Networks over Encrypted Data
3.1.5 XONN: XNOR-based Oblivious Deep Neural Network Inference
3.1.6 CodedPrivateML: A Fast and Privacy-Preserving Framework for Distributed Machine Learning
3.2 Gegenüberstellung der wissenschaftlichen Ansätze
3.3 Praktische Implementierungen des Private AI Ansatzes
3.3.1 Amazon Web Services Labs
3.3.2 TF Encrypted
3.3.3 Zama
3.3.4 CrypTen
3.3.5 TripleBlind
3.3.6 OpenMined
3.4 Gegenüberstellung der praktischen Implementierungen
4. Fazit & Ausblick
Zielsetzung & Themen
Die Arbeit untersucht wissenschaftliche Grundkonzepte und praktische Implementierungen im Bereich "Private AI", um Methoden zum Schutz sensibler Daten bei der Anwendung von Machine-Learning-Modellen zu identifizieren und gegenüberzustellen.
- Grundlagen von Machine Learning (Supervised, Unsupervised, Ensemble Learning)
- Kryptografische Techniken: Fully Homomorphic Encryption und Secure Multi Party Computation
- Analyse wissenschaftlicher Protokolle und Frameworks für privatsphärenwahrendes Machine Learning
- Evaluierung praktischer Implementierungen von Unternehmen wie AWS, Meta, Zama und OpenMined
- Vergleich von Performance, Latenz und Genauigkeit (Accuracy) bei der Verarbeitung verschlüsselter Daten
Auszug aus dem Buch
2.3 Fully Homomorphic Encryption
Die Technik der homomorphen Verschlüsselung ist dem wissenschaftlichen Forschungsgebiet der Kryptographie untergeordnet, welche sich mit der Aufrechterhaltung und Analyse der Sicherheit von schutzbedürftigen Informationen befasst [CA19, S.1]. Die homomorphe Verschlüsselung stellt eine Form der Verschlüsselungen dar, die Operationen mit Chiffretexten ermöglicht (s. Abb. 6).
Grundsätzlich lässt sich die homomorphe Verschlüsselung in drei Typen unterteilen: (a) Homomorphic Encryption (HE), (b) Partially Homomorphic Encryption (PHE), (c) Somewhat Homomorphic (SWHE), und (d) Fully Homomorphic Encryption (FHE). Sie unterscheiden sich in der Art und Menge von Operationen, die mit Chiffretexten durchgeführt werden können. HE erlaubt das Suchen nach verschlüsselten Informationen, ohne sie zuvor entschlüsseln zu müssen. PHE ermöglicht Berechnung mit Chiffretexten (Addition oder Multiplikation), jedoch nur jeweils eine dieser Operationen auf einmal. Demnach gleicht das Ergebnis der Berechnungen mit Chiffretexten dem Ergebnis derselben Berechnung mit deren entschlüsselten Inhalten [GS21, S.634f.]. Bei einem SWHE Schemata können zwar sowohl Additionen als auch Multiplikationen durchgeführt werden, jedoch limitiert sich dieser Typ in der Anzahl an durchführbaren Multiplikationen.
Zusammenfassung der Kapitel
1. Einleitung: Die Arbeit motiviert die Notwendigkeit von "Private AI", um Datenschutzbedenken bei KI-Anwendungen in Unternehmen zu begegnen, und definiert die Forschungsfragen zu theoretischen Grundlagen und praktischen Ansätzen.
2. Grundlegende Modelle zu Private AI: Dieses Kapitel erläutert die technologischen Säulen der Arbeit: Machine Learning als Anwendungsdomäne sowie die kryptografischen Verfahren Fully Homomorphic Encryption und Secure Multi Party Computation als Sicherungstechnologien.
3. Private AI Ansätze in der Wissenschaft & praktische Implementierungen: Hier werden bekannte wissenschaftliche Ansätze (z.B. CryptoNets, SecureML) und kommerzielle Frameworks (z.B. AWS Labs, OpenMined) detailliert analysiert und hinsichtlich ihrer Performance und Praxistauglichkeit verglichen.
4. Fazit & Ausblick: Das Kapitel fasst die Ergebnisse zusammen, betont die wachsende Bedeutung von MPC und FHE und schlägt für weiterführende Forschung eine praktische Implementierung der untersuchten Lösungen in einem prototypischen Modell vor.
Schlüsselwörter
Private AI, Machine Learning, Fully Homomorphic Encryption, Secure Multi Party Computation, Datenschutz, Kryptografie, Neural Networks, Supervised Learning, Deep Learning, Cloud Computing, ML Confidential, CryptoNets, SecureML, OpenMined, Privatsphäre
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt den technologischen Bereich "Private AI", welcher darauf abzielt, Machine-Learning-Prozesse so zu gestalten, dass mit sensiblen Daten gearbeitet werden kann, ohne deren Vertraulichkeit zu gefährden.
Was sind die zentralen Themenfelder der Studie?
Die zentralen Felder sind maschinelles Lernen, kryptografische Verfahren wie Homomorphic Encryption und Multi Party Computation sowie deren praktische Anwendung in Frameworks.
Welches primäre Ziel verfolgt die Arbeit?
Das Ziel ist, ein grundlegendes Verständnis für Private AI zu schaffen, wissenschaftliche Forschungsansätze dazu zu analysieren und praktische Implementierungen zu bewerten.
Welche wissenschaftlichen Methoden werden verwendet?
Es wurde eine systematische Literaturrecherche durchgeführt, ergänzt durch eine hybride Suchstrategie, um wissenschaftliche Publikationen und praktische Frameworks zu identifizieren.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in theoretische Grundlagen (ML und Kryptografie) sowie die Analyse wissenschaftlicher Protokolle und praktischer Software-Frameworks inklusive deren Leistungsvergleich.
Welche Schlüsselwörter charakterisieren die Arbeit am besten?
Die Arbeit lässt sich durch Begriffe wie Private AI, Homomorphic Encryption, Secure Multi Party Computation, Machine Learning und Datenschutz beschreiben.
Warum ist das Thema Private AI für Unternehmen wichtig?
Unternehmen generieren große Datenmengen, deren Analyse ökonomische Vorteile bringt. Datenschutzbedenken hindern sie jedoch oft an der Nutzung; Private AI bietet hier eine Lösung, um das Potenzial zu erschließen, ohne Compliance-Regeln zu verletzen.
Welches wissenschaftliche Protokoll wird besonders hervorgehoben?
Die Arbeit beleuchtet unter anderem CryptoNets, SecureML und XONN, da diese wegweisend für die Anwendung von neuronalen Netzwerken auf verschlüsselten Daten sind.
Welche Herausforderung besteht oft bei der Implementierung von Private AI?
Die hohe Rechenkomplexität kryptografischer Verfahren führt oft zu einer reduzierten Performance im Vergleich zu unverschlüsselten Ansätzen, weshalb Optimierungen wie das "Bootstrapping" oder spezielle Framework-Architekturen notwendig sind.
Welche Rolle spielt OpenMined in der untersuchten Landschaft?
OpenMined wird als Schlüsselorganisation identifiziert, da sie nicht nur Frameworks wie PySyft bereitstellt, sondern auch durch kostenfreie Kurse aktiv die Hürden für Entwickler im Bereich Private AI senkt.
- Quote paper
- Felix Entrup (Author), 2022, Private AI. Ein Ansatz zur Verarbeitung sensibler Daten für Machine-Learning-Modelle, Munich, GRIN Verlag, https://www.grin.com/document/1224769