Introduzione all'elaborazione del linguaggio naturale con TensorFlow
In questo modulo verranno esaminate diverse architetture di rete neurale per elaborare i testi in linguaggio naturale. Il campo dell'elaborazione del linguaggio naturale (NLP) ha vissuto una rapida crescita e un rapido progresso, principalmente perché le prestazioni dei modelli linguistici dipendono dalla loro capacità complessiva di "comprendere" il testo e il training può essere eseguito senza supervisione in grandi corpus di testo. Inoltre, i modelli di testo con training preliminare (ad esempio, BERT) hanno semplificato molte attività NLP e migliorato notevolmente le prestazioni. In questo modulo di apprendimento verranno fornite altre informazioni su queste tecniche e sulle basi del processo NLP.
Obiettivi di apprendimento
Contenuto del modulo:
- Informazioni sull'elaborazione del testo per le attività di elaborazione del linguaggio naturale
- Introduzione alle reti neurali ricorrenti (RNN) e alle reti neurali generative
- Informazioni sui meccanismi di attenzione
- Informazioni su come creare modelli di classificazione del testo
Prerequisiti
- Conoscenze base di Python
- Conoscenza di base di Machine Learning