Ta przeglądarka nie jest już obsługiwana.
Zaktualizuj do Microsoft Edge, aby skorzystać z najnowszych funkcji, aktualizacji bezpieczeństwa i wsparcia technicznego.
Załóżmy, że korpus tekstu zawiera 80 000 różnych wyrazów. Które z poniższych kroków wykonałbyś w celu zmniejszenia wymiarowości wektora wejściowego do klasyfikatora neuronowego?
Losowo zaznacz 10% wyrazów i zignoruj resztę.
Użyj warstwy konwolucyjnej przed w pełni połączoną warstwą klasyfikatora
Użyj warstwy osadzania przed w pełni połączoną warstwą klasyfikatora
Wybierz 10% najczęściej używanych słów i ignoruj resztę
Chcemy wytrenować sieć neuronową, aby wygenerować nowe zabawne słowa dla książki dziecięcej. Której architektury możemy użyć?
LSTM na poziomie programu Word
LSTM na poziomie znaku
Nazwa sieci RNN na poziomie programu Word
Perceptron na poziomie znaku
Rekurrent neuronowa sieć jest nazywana rekurrentem, ponieważ:
Sieć jest stosowana dla każdego elementu wejściowego i dane wyjściowe z poprzedniej aplikacji są przekazywane do następnego
Jest on trenowany przez proces cykliczny
Składa się z warstw, które obejmują inne podsieci
Jaka jest główna idea architektury sieci LSTM?
Stała liczba bloków LSTM dla całego zestawu danych
Zawiera wiele warstw cyklicznych sieci neuronowych
Jawne zarządzanie stanem z wyzwalaniem zapomnienia i stanem
Jaka jest główna idea uwagi?
Uwaga przypisuje współczynnik wagi każdemu słowu w słownictwie, aby pokazać, jak ważne jest
Uwaga to warstwa sieci, która używa macierzy uwagi, aby zobaczyć, ile stanów wejściowych z każdego kroku wpływa na końcowy wynik.
Uwaga tworzy globalną macierz korelacji między wszystkimi słowami w słownictwie, pokazując ich współbieżność
Przed sprawdzeniem pracy musisz odpowiedzieć na wszystkie pytania.
Czy ta strona była pomocna?
Potrzebujesz pomocy w tym temacie?
Chcesz spróbować użyć Ask Learn, aby wyjaśnić lub poprowadzić się przez ten temat?