Den här webbläsaren stöds inte längre.
Uppgradera till Microsoft Edge för att dra nytta av de senaste funktionerna, säkerhetsuppdateringarna och teknisk support.
Anta att din text corpus innehåller 80 000 olika ord. Vilket av nedanstående skulle du slutföra genom att minska indatavektorns dimensionalitet till neural klassificerare?
Välj 10 % av orden slumpmässigt och ignorera resten.
Använd ett konvolutionellt lager före ett fullt anslutet klassificeringslager
Använd inbäddningslager före fullt anslutet klassificeringslager
Välj 10 % av de vanligaste orden och ignorera resten
Vi vill träna ett neuralt nätverk för att generera nya roliga ord för en barnbok. Vilken arkitektur kan vi använda?
LSTM på Word-nivå
LSTM på teckennivå
RNN på Word-nivå
Perceptron på teckennivå
Återkommande neurala nätverk kallas återkommande eftersom:
Ett nätverk används för varje indataelement och utdata från föregående program skickas till nästa
Den tränas av en återkommande process
Den består av lager som innehåller andra undernät
Vad är huvudidén bakom LSTM-nätverksarkitekturen?
Fast antal LSTM-block för hela datamängden
Den innehåller många lager av återkommande neurala nätverk
Explicit tillståndshantering med glömska och tillståndsutlösande
Vad är huvudtanken med uppmärksamhet?
Uppmärksamhet tilldelar en viktkoefficient till varje ord i vokabulären för att visa hur viktigt det är
Uppmärksamhet är ett nätverkslager som använder uppmärksamhetsmatris för att se hur mycket indatatillstånd från varje steg som påverkar slutresultatet.
Uppmärksamhet bygger global korrelationsmatris mellan alla ord i vokabulären och visar deras samtidighet
Du måste svara på alla frågor innan du kontrollerar ditt arbete.
Var den här sidan till hjälp?
Behöver du hjälp med det här avsnittet?
Vill du prova att använda Ask Learn för att förtydliga eller vägleda dig genom det här ämnet?