Episodio
Reti neurali ricorrenti e altri computer che imparano la sessione 1 del simposio degli algoritmi
Poco dopo la nascita di informatica moderna negli anni '30, si sono sorte due domande fondamentali: 1. In che modo i computer possono imparare programmi utili dall'esperienza, invece di essere programmati dai programmatori umani? 2. Come programmare computer multiprocessore paralleli, anziché le architetture seriali tradizionali? Entrambe le domande hanno trovato risposte naturali nel campo delle reti neurali ricorrenti (RNN), che sono computer generici ispirati al cervello che possono apprendere programmi sequenziali paralleli o algoritmi codificati come matrici di peso.
Il primo workshop NIPS RNNaissance risale al 2003: http://people.idsia.ch/\~juergen/rnnaissance.html . Da allora, è successo molto. Alcune delle applicazioni più efficaci nell'apprendimento automatico (incluso il Deep Learning) sono ora guidate da reti APN come la memoria a breve termine, ad esempio il riconoscimento vocale, il riconoscimento video, l'elaborazione del linguaggio naturale, la didascalia delle immagini, la stima delle serie temporali e così via. Attraverso le aziende pubbliche più preziose del mondo, miliardi di persone hanno ora accesso a questa tecnologia attraverso i loro smartphone e altri dispositivi, ad esempio, sotto forma di Google Voice o su iOS di Apple. L'apprendimento per rinforzo e la RNN evolutiva risolvono attività di controllo complesse dall'input video non elaborato. Molti metodi basati su RNN imparano strategie di attenzione sequenziale.
Qui esamineremo gli ultimi sviluppi in tutti questi campi e ci concentreremo non solo sulle reti RNN, ma anche sui computer di apprendimento in cui le reti neurali neurali interagiscono con la memoria esterna, ad esempio macchine neurali Turing, reti di memoria e architetture di memoria correlate, ad esempio reti a peso veloce e macchine dello stack neurale. In questo contesto parleremo anche di metodi di ricerca di programmi asimptotici ottimali e la loro rilevanza pratica.
Il pubblico di destinazione ha sentito parlare di reti neurali ricorrenti, ma sarà felice di ascoltare di nuovo un riepilogo delle nozioni di base, e poi approfondire le ultime cose avanzate, per vedere e capire cosa è diventato recentemente possibile. Speriamo che migliaia di partecipanti.
Tutti i colloqui (per lo più di esperti famosi sul campo che hanno già accettato di parlare) saranno seguiti da discussioni aperte. Avremo anche una richiesta di poster. I poster selezionati adorneranno l'ambiente della sala conferenze. Avremo anche un pannello di discussione sul futuro luminoso delle reti RNN, e i loro vantaggi e svantaggi.
Poco dopo la nascita di informatica moderna negli anni '30, si sono sorte due domande fondamentali: 1. In che modo i computer possono imparare programmi utili dall'esperienza, invece di essere programmati dai programmatori umani? 2. Come programmare computer multiprocessore paralleli, anziché le architetture seriali tradizionali? Entrambe le domande hanno trovato risposte naturali nel campo delle reti neurali ricorrenti (RNN), che sono computer generici ispirati al cervello che possono apprendere programmi sequenziali paralleli o algoritmi codificati come matrici di peso.
Il primo workshop NIPS RNNaissance risale al 2003: http://people.idsia.ch/\~juergen/rnnaissance.html . Da allora, è successo molto. Alcune delle applicazioni più efficaci nell'apprendimento automatico (incluso il Deep Learning) sono ora guidate da reti APN come la memoria a breve termine, ad esempio il riconoscimento vocale, il riconoscimento video, l'elaborazione del linguaggio naturale, la didascalia delle immagini, la stima delle serie temporali e così via. Attraverso le aziende pubbliche più preziose del mondo, miliardi di persone hanno ora accesso a questa tecnologia attraverso i loro smartphone e altri dispositivi, ad esempio, sotto forma di Google Voice o su iOS di Apple. L'apprendimento per rinforzo e la RNN evolutiva risolvono attività di controllo complesse dall'input video non elaborato. Molti metodi basati su RNN imparano strategie di attenzione sequenziale.
Qui esamineremo gli ultimi sviluppi in tutti questi campi e ci concentreremo non solo sulle reti RNN, ma anche sui computer di apprendimento in cui le reti neurali neurali interagiscono con la memoria esterna, ad esempio macchine neurali Turing, reti di memoria e architetture di memoria correlate, ad esempio reti a peso veloce e macchine dello stack neurale. In questo contesto parleremo anche di metodi di ricerca di programmi asimptotici ottimali e la loro rilevanza pratica.
Il pubblico di destinazione ha sentito parlare di reti neurali ricorrenti, ma sarà felice di ascoltare di nuovo un riepilogo delle nozioni di base, e poi approfondire le ultime cose avanzate, per vedere e capire cosa è diventato recentemente possibile. Speriamo che migliaia di partecipanti.
Tutti i colloqui (per lo più di esperti famosi sul campo che hanno già accettato di parlare) saranno seguiti da discussioni aperte. Avremo anche una richiesta di poster. I poster selezionati adorneranno l'ambiente della sala conferenze. Avremo anche un pannello di discussione sul futuro luminoso delle reti RNN, e i loro vantaggi e svantaggi.
Per inviare suggerimenti, Invia un problema qui.