Introduzione all'elaborazione del linguaggio naturale con TensorFlow
In questo modulo vengono esaminate diverse architetture di rete neurale per l'elaborazione di testi in linguaggio naturale. Il campo dell'elaborazione del linguaggio naturale (NLP) ha vissuto una rapida crescita e un rapido progresso, principalmente perché le prestazioni dei modelli linguistici dipendono dalla loro capacità complessiva di "comprendere" il testo e il training può essere eseguito senza supervisione in grandi corpus di testo. Inoltre, i modelli di testo con training preliminare (ad esempio BERT) hanno semplificato molte attività NLP e hanno notevolmente migliorato le prestazioni. Altre informazioni su queste tecniche e sulle nozioni di base di NLP sono disponibili in questo modulo di apprendimento.
Obiettivi di apprendimento
Contenuto del modulo:
- Informazioni sull'elaborazione del testo per le attività di elaborazione del linguaggio naturale
- Introduzione alle reti neurali ricorrenti (RNN) e alle reti neurali generative
- Informazioni sui meccanismi di attenzione
- Informazioni su come creare modelli di classificazione del testo
Prerequisiti
- Conoscenze base di Python
- Conoscenza di base di Machine Learning