Este browser já não é suportado.
Atualize para o Microsoft Edge para tirar partido das mais recentes funcionalidades, atualizações de segurança e de suporte técnico.
Suponha que o seu corpus de texto contenha 80.000 palavras diferentes. Qual dos itens abaixo você completaria reduzindo a dimensionalidade do vetor de entrada para classificador neural?
Selecione aleatoriamente 10% das palavras e ignore o restante.
Use a camada convolucional antes da camada classificadora totalmente conectada
Use a camada de incorporação antes da camada do classificador totalmente conectada
Selecione 10% das palavras usadas com mais frequência e ignore o restante
Queremos treinar uma rede neural para gerar novas palavras engraçadas para um livro infantil. Que arquitetura podemos usar?
LSTM de nível de palavra
LSTM de nível de personagem
RNN de nível de palavra
Perceptron no nível do personagem
A rede neural recorrente é chamada de recorrente, porque:
Uma rede é aplicada para cada elemento de entrada e a saída do aplicativo anterior é passada para o próximo
É treinado por um processo recorrente
Consiste em camadas que incluem outras sub-redes
Qual é a ideia principal por trás da arquitetura de rede LSTM?
Número fixo de blocos LSTM para todo o conjunto de dados
Ele contém muitas camadas de redes neurais recorrentes
Gerenciamento de estado explícito com esquecimento e acionamento de estado
Qual é a ideia principal de atenção?
A atenção atribui um coeficiente de peso a cada palavra do vocabulário para mostrar o quão importante é
Atenção é uma camada de rede que usa a matriz de atenção para ver quanto estados de entrada de cada etapa afetam o resultado final.
A atenção constrói uma matriz de correlação global entre todas as palavras do vocabulário, mostrando a sua coocorrência
Tem de responder a todas as questões antes de verificar o seu trabalho.
Esta página foi útil?
Precisa de ajuda com este tópico?
Quer tentar utilizar o perguntar e Aprender para obter esclarecimentos ou orientações ao longo deste tópico?