Этот браузер больше не поддерживается.
Выполните обновление до Microsoft Edge, чтобы воспользоваться новейшими функциями, обновлениями для системы безопасности и технической поддержкой.
Предположим, что совокупность текста содержит 80 000 различных слов. Какое из следующих вариантов позволит уменьшить размерность входного вектора в нейронном классификаторе?
Случайно выбрать 10 % слов и игнорировать остальные.
Использовать сверточный слой перед слоем полностью соединенного классификатора
Использовать внедряемый слой перед слоем полностью соединенного классификатора
Выбрать 10 % наиболее часто используемых слов и проигнорировать остальные
Мы хотим обучить нейронную сеть для создания новых забавных слов для детской книги. Какую архитектуру можно использовать?
LSTM на уровне слов
LSTM на уровне символов
RNN на уровне слов
Перцептрон на уровне символов
Рекуррентная нейронная сеть называется рекуррентной по следующей причине:
Сеть применяется для каждого входного элемента, а выходные данные предыдущего приложения передаются следующему
Для обучения используется рекуррентный процесс
Она состоит из слоев, которые включают другие подсети
Какова основная идея лежит в основе архитектуры сети LSTM?
Фиксированное число блоков LSTM для всего набора данных
Она состоит из множества уровней рекуррентных нейронных сетей
Явное управление состоянием со сбросом и активацией по состоянию
В чем суть внимания?
Внимание назначает весовой коэффициент каждому слову в словаре, чтобы продемонстрировать, насколько оно важно
Внимание — это сетевой уровень, который использует матрицу внимания для определения степени влияния входных состояний для каждого шага на окончательный результат.
Внимание создает глобальную матрицу корреляции между всеми словами в словаре, отображающую их совместное вхождение
Вы должны ответить на все вопросы перед проверкой.
Были ли сведения на этой странице полезными?