Não há mais suporte para esse navegador.
Atualize o Microsoft Edge para aproveitar os recursos, o suporte técnico e as atualizações de segurança mais recentes.
Suponha que o corpus de texto contenha 80.000 palavras diferentes. Qual das informações abaixo você concluiria para reduzir a dimensionalidade do vetor de entrada para o classificador neural?
Selecionar aleatoriamente 10% das palavras e ignorar o restante.
Usar camada convolucional antes da camada de classificador totalmente conectada
Usar camada de incorporação antes da camada de classificador totalmente conectada
Selecionar 10% das palavras mais usadas e ignorar o restante
Queremos treinar uma rede neural para gerar novas palavras engraçadas para um livro infantil. Qual arquitetura podemos usar?
LSTM em nível de palavra
LSTM em nível de caractere
RNN em nível de palavra
Perceptron em nível de caractere
A rede neural recorrente é chamada de recorrente porque:
Uma rede é aplicada para cada elemento de entrada, e a saída do aplicativo anterior é passada para a próxima
O treinamento é feito por um processo recorrente
Ela consiste em camadas que incluem outras sub-redes
Qual é a ideia principal por trás da arquitetura de rede LSTM?
Número fixo de blocos LSTM para todo o conjunto de dados
Ele contém muitas camadas de redes neurais recorrentes
Gerenciamento de estado explícito com esquecimento e acionamento de estado
Qual é a ideia principal de atenção?
A atenção atribui um coeficiente de peso a cada palavra no vocabulário para mostrar o quanto ela é importante
A atenção é uma camada de rede que usa a matriz de atenção para ver quanto os estados de entrada de cada etapa afetam o resultado final.
A atenção constrói uma matriz de correlação global entre todas as palavras do vocabulário, mostrando sua co-ocorrência
É necessário responder a todas as perguntas antes de verificar o trabalho.
Esta página foi útil?