Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Computer Sciences - Artificial Intelligence

Im Spannungsfeld der Künstlichen Intelligenz. Chancen und Risiken großer KI-Sprachmodelle für die IT-Sicherheit in Unternehmen

Title: Im Spannungsfeld der Künstlichen Intelligenz. Chancen und Risiken großer KI-Sprachmodelle für die IT-Sicherheit in Unternehmen

Bachelor Thesis , 2024 , 73 Pages , Grade: 1.0

Autor:in: Anonym (Author)

Computer Sciences - Artificial Intelligence
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

In dieser Arbeit wird das Potenzial großer KI-Sprachmodelle (Large Language Models, LLM) im Kontext der IT-Sicherheit in Unternehmen untersucht. Die zentrale Fragestellung bezieht sich auf die Chancen, Risiken und Herausforderungen, die sich aus der Integration von LLM in Unternehmensprozesse ergeben. Im Zuge der zunehmenden Digitalisierung und der steigenden Bedrohung durch Cyberangriffe wird der Einsatz solcher Modelle immer relevanter. LLM wie CyBERT und SecBERT bieten beispielsweise Möglichkeiten zur Analyse großer Datenmengen und zur Erkennung komplexer Muster, was insbesondere im Bereich der Threat Intelligence von Bedeutung ist. Die Modelle können durch die Identifikation von Anomalien und Bedrohungen einen erheblichen Beitrag zur Sicherheitsstrategie eines Unternehmens leisten. Durch die Überprüfung von Domainnamen, IP-Adressen und anderen relevanten Datenpunkten ermöglichen diese Systeme präventive Maßnahmen gegen potenzielle Cyberangriffe.

Dennoch bringt die Einführung solcher Modelle auch Risiken und Herausforderungen mit sich. Insbesondere Datenschutzbedenken und ethische Überlegungen sind wesentliche Faktoren, die bei der Integration in die bestehende Infrastruktur berücksichtigt werden müssen. Da LLM auf umfangreiche Datensätze zugreifen und in vielen Fällen persönliche oder vertrauliche Informationen verarbeiten, besteht das Risiko von Datenschutzverletzungen und unbefugtem Zugriff auf sensible Daten. Zusätzlich bestehen technische Herausforderungen hinsichtlich der Erklärbarkeit und Transparenz der Modelle. Diese Problematik wird durch die Einführung von Ansätzen wie der "Explainable Artificial Intelligence" (XAI) angegangen, die darauf abzielt, Entscheidungen und Prozesse in KI-Modellen für Anwender verständlich und nachvollziehbar zu gestalten.

Abschließend zeigt die Arbeit, dass eine sorgfältige und verantwortungsvolle Implementierung von LLM im Bereich der IT-Sicherheit in Unternehmen entscheidend ist, um das Potenzial dieser Technologien auszuschöpfen, ohne dabei die damit verbundenen Risiken zu vernachlässigen. Die Empfehlung an Unternehmen lautet, auf eine umfassende Risikoanalyse zu setzen, ethische Richtlinien zu befolgen und ihre Mitarbeiter für den Umgang mit diesen Technologien zu schulen. [...]

Excerpt


Inhaltsverzeichnis

1 Einleitung

1.1 Motivation und Problemstellung

1.2 Relevanz und aktueller Stand der Forschung

1.3 Zielsetzung und thematische Abgrenzung

1.4 Vorgehensweise und Aufbau der Arbeit

1.5 Gendererklärung

2 Theoretische Grundlagen

2.1 IT-Sicherheit in Unternehmen: Bedeutung und Grundprinzipien

2.2 Künstliche Intelligenz (KI)

2.2.1 Definition und Kernbereiche

2.2.2 Entwicklung

2.3 Große KI-Sprachmodelle

2.3.1 Funktionsweise und Klassifizierung

2.3.2 Betriebsmodelle und bekannte Technologien

3 Forschungsdesign

3.1 Systematische Literaturrecherche

3.1.1 Suchstrategie und Datenquellen

3.1.2 Literaturauswahl und Eligibilitätskriterien

3.1.3 Datenauswertung und Datenanalyse

4 Ergebnisse

4.1 Chancen für die IT-Sicherheit in Unternehmen durch KI-Sprachmodelle

4.1.1 Threat Intelligence: Erkennung und Vorhersage von Anomalien und Schadsoftware

4.1.2 Netzwerksicherheit und KI-Sprachmodelle

4.1.3 Verbesserung der Softwarecode-Sicherheit und Softwareentwicklung

4.1.4 Erkennung von Phishing und Spam

4.2 Risiken für die IT-Sicherheit in Unternehmen durch KI-Sprachmodelle

4.2.1 Angriffsvektoren gegenüber großen KI-Sprachmodellen: Methoden und Gegenmaßnahmen

4.2.2 Limitationen von großen KI-Sprachmodellen

4.2.3 KI-gestützte Entwicklung von Cyberangriffen

4.3 Herausforderungen für den Einsatz von KI-Sprachmodellen in Unternehmen

4.3.1 Datenschutz als primäres Schutzziel

4.3.2 Ethische Aspekte

5 Diskussion

5.1 Zusammenfassung der Ergebnisse

5.2 Interpretation der Ergebnisse

5.2.1 Spannungsfeld zwischen Mensch und Maschine: eine nicht zu überbrückende Herausforderung im Bereich der KI?

5.2.2 Große KI-Sprachmodelle sinnvoll einsetzen: Verantwortlichkeiten und Empfehlungen

5.3 Limitationen der eigenen Arbeit

5.4 Empfehlungen für die weiterführende Forschung

6 Fazit

6.1 Zusammenfassung

6.2 Beantwortung der Forschungsfragen

Zielsetzung & Themen

Die Arbeit analysiert umfassend die Auswirkungen großer KI-Sprachmodelle (LLM) auf die IT-Sicherheit in Unternehmen. Ziel ist es, sowohl die Chancen zur Effizienzsteigerung und Cyberabwehr als auch die damit einhergehenden Risiken und Herausforderungen kritisch zu bewerten, um Unternehmen bei einer sicheren Implementierung dieser Technologien zu unterstützen.

  • Potenziale von LLM in der Threat Intelligence und Netzwerksicherheit
  • Automatisierte Erkennung von Sicherheitslücken in Quellcode und E-Mail-Kommunikation
  • Technische und ethische Risiken sowie Angriffsvektoren gegenüber KI-Modellen
  • Datenschutzherausforderungen und regulatorische Rahmenbedingungen
  • Strategien für ein verantwortungsvolles Risikomanagement und menschliche Überwachung

Auszug aus dem Buch

4.1.3 Verbesserung der Softwarecode-Sicherheit und Softwareentwicklung

Die Gewährleistung der Sicherheit von Softwarecodes ist eine stetige Herausforderung in der Entwicklung von Informationssystemen. Schwachstellen in Form von Fehlern oder Auslassungen, die aus einem mangelhaften Design oder einer fehlerhaften Implementierung resultieren, bilden eine primäre Ursache für Sicherheitsrisiken. Diese Schwachstellen bieten Angriffspunkte, die von Cyberkriminellen ausgenutzt werden können.

Grundsätzlich bieten kommerzielle LLM wie ChatGPT von OpenAI hier einen vielversprechenden Ansatz. Doch auch lokal trainierte Modelle, wie BERT zeigen sowohl praktische als auch wissenschaftliche Vorteile in der Erkennung und Behebung von unsicherem Programmcode. Hierbei stehen die Möglichkeit einer unbegrenzten Nutzung und die große Anpassbarkeit – im Gegensatz zu den kommerziellen Modellen – im Vordergrund. Somit konzentriert sich die Forschung darauf, wie LLM für die Generierung von sicherem Ersatzcode genutzt werden können, um potenzielle Sicherheitslücken zu schließen. Dies bildet die Grundlage für einen möglichen Prozess, der von Pearce, H. et al., 2023 beschrieben wird.

Dabei beginnt das in Abbildung 9 dargestellte Framework mit einem Programm, das potenzielle Schwachstellen oder Fehler aufweist. Durch Sicherheitstests werden diese Bugs lokalisiert und in der ersten Phase, der Fehlererkennung, identifiziert. Anschließend erfolgt die Erstellung von Anfragen (Prompts), die Informationen aus dem ursprünglichen Programm und dem Fehlerbericht enthalten, die an das LLM weitergegeben werden. Daraufhin erzeugt das LLM, basierend auf der hohen Datenmenge, einen Vorschlag zur Verbesserung des Programmcodes. Im nächsten Schritt erfolgt die Verknüpfung des Ursprungscodes mit den generierten Anpassungen, wodurch Fehler und Schwachstellen behoben werden. Zum Schluss wird der Programmcode durch externe Sicherheits- und Funktionstest validiert und in das entsprechende Programm eingegliedert. In diesem Kontext bieten vorrangig kommerzielle LLM wie ChatGPT von OpenAI einen vielversprechenden Ansatz. Doch auch lokal trainierte Modelle wie BERT zeigen sowohl praktische als auch wissenschaftliche Vorteile in der Erkennung und Behebung von unsicherem Programmcode.

Zusammenfassung der Kapitel

1 Einleitung: Beschreibt die Motivation, Problemstellung und Relevanz der Arbeit im Kontext der zunehmenden Cyberkriminalität und der Rolle von KI sowie die Forschungsfragen und den Aufbau der Arbeit.

2 Theoretische Grundlagen: Vermittelt das notwendige Wissen über IT-Sicherheit, Künstliche Intelligenz und die Funktionsweise sowie Betriebsmodelle großer KI-Sprachmodelle.

3 Forschungsdesign: Erläutert das methodische Vorgehen der systematischen Literaturrecherche nach der PRISMA-Methode sowie die Suchstrategie und Auswahlkriterien der Studien.

4 Ergebnisse: Präsentiert und analysiert die Chancen, Risiken und Herausforderungen von LLM für die IT-Sicherheit, unterteilt in Anwendungsbereiche wie Threat Intelligence, Netzwerksicherheit und Softwarecode-Sicherheit.

5 Diskussion: Reflektiert die gewonnenen Ergebnisse kritisch im Hinblick auf das Spannungsfeld zwischen Mensch und Maschine, benennt Limitationen der Arbeit und leitet Empfehlungen für die Zukunft ab.

6 Fazit: Führt die zentralen Erkenntnisse zusammen und beantwortet abschließend die definierten Forschungsfragen.

Schlüsselwörter

IT-Sicherheit, Künstliche Intelligenz, KI, Große KI-Sprachmodelle, LLM, Cyberabwehr, Threat Intelligence, Netzwerksicherheit, Softwarecode-Sicherheit, Phishing, Datenschutz, Ethische Aspekte, Risikomanagement, Adversarial Attacks, Machine Learning

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit untersucht, wie große KI-Sprachmodelle (LLM) genutzt werden können, um die IT-Sicherheit in Unternehmen zu stärken, und welche Risiken sowie Herausforderungen dabei berücksichtigt werden müssen.

Was sind die zentralen Themenfelder der Publikation?

Zu den zentralen Themen gehören die Anwendung von LLM in der Cyberabwehr (Threat Intelligence, Netzwerkschutz, Code-Sicherheit, E-Mail-Filterung) sowie die technische und organisatorische Bewältigung von Risiken wie Datenmanipulation und ethischen Problemen.

Was ist das primäre Ziel oder die Forschungsfrage?

Das Ziel ist eine umfassende Analyse der Chancen und Risiken durch LLM für die IT-Sicherheit. Die Forschungsfragen untersuchen, welche konkreten Auswirkungen sich ergeben und mit welchen primären Herausforderungen Unternehmen bei der Implementierung konfrontiert sind.

Welche wissenschaftliche Methode wurde verwendet?

Zur methodischen Absicherung wurde eine systematische Literaturrecherche gemäß der PRISMA-Methode (Preferred Reporting Items for Systematic reviews and Meta-Analyses) durchgeführt, um eine fundierte Basis für die Analyse zu gewährleisten.

Was wird im Hauptteil der Arbeit behandelt?

Im Hauptteil werden zunächst die theoretischen Grundlagen (KI, LLM, IT-Sicherheit) dargelegt. Anschließend folgen detaillierte Anwendungsbeispiele für LLM im Bereich der Sicherheit sowie eine kritische Auseinandersetzung mit Angriffsvektoren, Datenschutz und regulatorischen bzw. ethischen Aspekten.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die Arbeit lässt sich durch Begriffe wie IT-Sicherheit, Large Language Models (LLM), Threat Intelligence, Cyberabwehr, Datenschutz und ethische KI-Governance charakterisieren.

Welche Rolle spielt das Modell „CodeBERT“ in dieser Untersuchung?

CodeBERT wird als spezialisierte Variante des BERT-Modells vorgestellt, welche sich als besonders effektiv und präzise bei der Identifikation und Behebung von Schwachstellen in Programmiercodes erwiesen hat.

Wie bewerten die Autoren das Spannungsfeld zwischen Mensch und KI?

Die Autoren betonen, dass KI zwar Aufgaben effizient automatisieren kann, ihr jedoch das tiefergehende menschliche Verständnis fehlt. Daher wird ein „Human-in-the-loop“-Ansatz empfohlen, bei dem KI als Unterstützung dient, während kritische Entscheidungen weiterhin menschlicher Aufsicht unterliegen.

Excerpt out of 73 pages  - scroll top

Details

Title
Im Spannungsfeld der Künstlichen Intelligenz. Chancen und Risiken großer KI-Sprachmodelle für die IT-Sicherheit in Unternehmen
Grade
1.0
Author
Anonym (Author)
Publication Year
2024
Pages
73
Catalog Number
V1516245
ISBN (PDF)
9783389085349
ISBN (Book)
9783389085356
Language
German
Tags
AI KI Künstliche Intelligenz IT-Sicherheit IT-Security IT Governance Sprachmodelle BERT GPT ChatGPT Schadsoftware Softwarecode-Sicherheit Softwareentwicklung Phishing Spam Angriffsvektoren Cyberangriffe Datenschutz Large Language Models llm
Product Safety
GRIN Publishing GmbH
Quote paper
Anonym (Author), 2024, Im Spannungsfeld der Künstlichen Intelligenz. Chancen und Risiken großer KI-Sprachmodelle für die IT-Sicherheit in Unternehmen, Munich, GRIN Verlag, https://www.grin.com/document/1516245
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  73  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint