Einführung in die Verarbeitung natürlicher Sprache mit TensorFlow
In diesem Modul untersuchen Sie verschiedene Architekturen für neuronale Netze zur Verarbeitung natürlichsprachiger Texte. Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) hat ein schnelles Wachstum und eine rasche Weiterentwicklung erfahren. Das ist hauptsächlich darauf zurückzuführen, dass die Leistung der Sprachmodelle von der allgemeinen Fähigkeit zum „Verstehen“ von Text abhängt. Außerdem müssen die Modelle mit einer nicht überwachten Technik anhand großer Textkorpora trainiert werden können. Darüber hinaus haben vortrainierte Textmodelle (z. B. BERT) viele NLP-Aufgaben vereinfacht und die Leistung erheblich verbessert. In diesem Lernmodul erfahren Sie mehr über diese Techniken und die Grundlagen von NLP.
Lernziele
Dieses Modul umfasst Folgendes:
- Verstehen, wie Text für Verarbeitungsaufgaben von natürlicher Sprache verarbeitet wird
- Einführung in wiederkehrende neurale Netzwerke (RNNs) und generative neurale Netzwerke (GNNs)
- Weitere Informationen über Aufmerksamkeitsmechanismen
- Weitere Informationen zum Erstellen von Textklassifizierungsmodellen
Voraussetzungen
- Grundlegendes zu Python
- Grundlegende Kenntnisse des maschinellen Lernens