Questo browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
Controllare le conoscenze rispondendo alle domande seguenti.
Qual è lo scopo di un modello linguistico Large (LLM)?
Per elaborare e produrre testo in linguaggio naturale imparando da una grande quantità di dati di testo per individuare modelli e regole del linguaggio.
Per mostrare l'antropomorfismo e comprendere le emozioni.
Per comprendere il linguaggio e i fatti.
Qual è la differenza tra i modelli tradizionali di elaborazione del linguaggio naturale (NLP) e i modelli di linguaggio Large?
La prevenzione della perdita di dati tradizionali usa molti terabyte di dati non etichettati nel modello di base, mentre le macchine virtuali forniscono un set di dati etichettati per eseguire il training del modello di Machine Learning.
La prevenzione della perdita di rete tradizionale è altamente ottimizzata per casi d'uso specifici, mentre i moduli APM descrivono in linguaggio naturale le operazioni che il modello deve eseguire.
La prevenzione della perdita di rete tradizionale richiede un modello per ogni funzionalità, mentre le macchine virtuali usano un singolo modello per molti casi d'uso del linguaggio naturale.
Qual è lo scopo della tokenizzazione nei modelli in linguaggio naturale?
Per rappresentare il testo in modo significativo per i computer senza perderne il contesto, in modo che gli algoritmi possano identificare più facilmente i modelli.
Per generare testo in base a una lettera per lettera.
Per rappresentare parole comuni con un singolo token.
Devi rispondere a tutte le domande prima di controllare il lavoro svolto.
Questa pagina è stata utile?
Serve aiuto con questo argomento?
Provare a usare Ask Learn per chiarire o guidare l'utente in questo argomento?