Grin logo
en de es fr
Shop
GRIN Website
Publier des textes, profitez du service complet
Go to shop › Informatique - Divers

Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse

Titre: Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse

Travail d'étude , 2020 , 46 Pages , Note: 1,1

Autor:in: Maximilian Linner (Auteur), Timo Mueller (Auteur), Matin Emrich (Auteur)

Informatique - Divers
Extrait & Résumé des informations   Lire l'ebook
Résumé Extrait Résumé des informations

Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern.

Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschließen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt.

Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschließend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte.

Extrait


Inhaltsverzeichnis

  • 1 Einleitung
  • 2 Grundlagen Transfer Learning
    • 2.1 Wann wird Transfer Learning eingesetzt?
    • 2.2 Vorteile von Transfer Learning.
    • 2.3 Einsatzgebiete von Transfer Learning
    • 2.4 Herausforderungen und Chancen im NLP-Bereich
    • 2.5 Künstliche Neuronale Netzwerke (KNN)
    • 2.6 Transfer Learning Strategien
      • 2.6.1 Fine Tuning
      • 2.6.2 Fine Tuning oder neu trainieren
      • 2.6.3 Einfrieren der ersten Layer.
      • 2.6.4 Verwerfen der hinteren Layer
  • 3 Google BERT
    • 3.1 Grundlagen Google BERT
    • 3.2 Entwicklung des Google-Search Algorithmus
    • 3.3 Funktionsweise
  • 4 Darstellung von differenzierten Textanalyse-Modellen
    • 4.1 Doc2Vec.
      • 4.1.1 Prinzip.
      • 4.1.2 Funktionsweise
    • 4.2 Glove
      • 4.2.1 Prinzip.
      • 4.2.2 Funktionsweise
  • 5 Benchmark Methoden zur Textanalyse
    • 5.1 GLUE
    • 5.2 SQUAD
    • 5.3 SWAG
  • 6 Zusammenfassung und Ausblick
    • 6.1 Zusammenfassung der Literaturrecherche

Zielsetzung und Themenschwerpunkte

Diese Forschungsarbeit zielt darauf ab, den aktuellen Stand der Wissenschaft im Bereich des Transfer Learning für die Textanalyse zu beleuchten. Das Hauptaugenmerk liegt dabei auf der detaillierten Erläuterung von BERT (Bidirectional Encoder Representations from Transformers) als ein innovativer Ansatz zur Textverarbeitung. Darüber hinaus wird die Funktionsweise und Einordnung von alternativen Modellen, wie Doc2Vec und GloVe, im Kontext von Transfer Learning betrachtet.

  • Transfer Learning Strategien und ihre Anwendung in der Textanalyse
  • Die Funktionsweise und Bedeutung von BERT im Bereich der Textverarbeitung
  • Vergleich verschiedener Textanalyse-Modelle, inklusive Benchmark-Methoden
  • Der Einsatz von Transfer Learning für Natural Language Processing (NLP)
  • Ein Ausblick auf zukünftige Entwicklungen und Trends im Bereich des Transfer Learning

Zusammenfassung der Kapitel

Das erste Kapitel bietet eine Einführung in das Thema Transfer Learning und seine Anwendung in der Textanalyse. Kapitel zwei behandelt die grundlegenden Prinzipien von Transfer Learning, einschließlich seiner Vorteile, Einsatzgebiete und Herausforderungen. In Kapitel drei wird das Google-Modell BERT im Detail vorgestellt, wobei die Entwicklung, Funktionsweise und Bedeutung für die Textverarbeitung beleuchtet werden. Kapitel vier betrachtet alternative Textanalyse-Modelle, wie Doc2Vec und GloVe, und stellt deren Prinzipien und Funktionsweise vor. Kapitel fünf widmet sich den Benchmark-Methoden zur Evaluierung von Textanalyse-Modellen, darunter GLUE, SQUAD und SWAG. Das letzte Kapitel fasst die Erkenntnisse der Literaturrecherche zusammen und gibt einen Ausblick auf zukünftige Entwicklungen im Bereich des Transfer Learning.

Schlüsselwörter

Transfer Learning, Textanalyse, BERT, Doc2Vec, GloVe, Benchmark Methoden, GLUE, SQUAD, SWAG, Künstliche Neuronale Netzwerke, Natural Language Processing (NLP).

Fin de l'extrait de 46 pages  - haut de page

Résumé des informations

Titre
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse
Université
Munich University of Applied Sciences
Cours
Datenbanken
Note
1,1
Auteurs
Maximilian Linner (Auteur), Timo Mueller (Auteur), Matin Emrich (Auteur)
Année de publication
2020
Pages
46
N° de catalogue
V942655
ISBN (ebook)
9783346276889
ISBN (Livre)
9783346276896
Langue
allemand
mots-clé
Transfer-Learning neuronale Netze BERT SQuAD SWAG Machine Learning AI Google
Sécurité des produits
GRIN Publishing GmbH
Citation du texte
Maximilian Linner (Auteur), Timo Mueller (Auteur), Matin Emrich (Auteur), 2020, Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse, Munich, GRIN Verlag, https://www.grin.com/document/942655
Lire l'ebook
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
  • Si vous voyez ce message, l'image n'a pas pu être chargée et affichée.
Extrait de  46  pages
Grin logo
  • Grin.com
  • Page::Footer::PaymentAndShipping
  • Contact
  • Prot. des données
  • CGV
  • Imprint