Dieser Browser wird nicht mehr unterstützt.
Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.
Wir möchten ein neuronales Netz trainieren, um neue lustige Wörter für Kinderbücher zu generieren. Welche Architektur können wir verwenden?
LSTM auf Wortebene
LSTM auf Zeichenebene
RNN auf Wortebene
Perzeptron auf Zeichenebene
Darum wird ein wiederkehrendes neuronales Netz als wiederkehrend bezeichnet:
Für jedes Eingabeelement wird ein Netzwerk angewendet, und die Ausgabe der vorherigen Anwendung wird an die nächste übergeben.
Das Training erfolgt durch einen wiederkehrenden Prozess.
Sie bestehen aus Ebenen, die weitere Subnetzwerke enthalten.
Was ist der zugrunde liegende Kerngedanke bei der LSTM-Netzwerkarchitektur?
Feste Anzahl von LSTM-Blöcken für das gesamte Dataset
Es enthält viele Ebenen von wiederkehrenden neuronalen Netzen.
Explizite Zustandsverwaltung mit Vergessen und Zustandsauslöser
Sie müssen alle Fragen beantworten, bevor Sie Ihre Arbeit überprüfen können.
Weiter
War diese Seite hilfreich?