Dieser Browser wird nicht mehr unterstützt.
Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.
Angenommen, Ihr Textkorpus enthält 80.000 verschiedene Wörter. Welche der folgenden Elemente würde dazu beitragen, die Dimensionalität des Eingabevektors auf einen neuralen Klassifizierer zu reduzieren?
Nach dem Zufallsprinzip 10 % der Wörter auswählen und den Rest ignorieren.
Verwenden Sie die konvolutionale Ebene vor vollständig verbundener Klassifiziererebene.
Verwenden der Einbettungsebene vor vollständig verbundener Klassifiziererebene
10 % der am häufigsten verwendeten Wörter auswählen und den Rest ignorieren.
Wir möchten ein neuronales Netz trainieren, um neue lustige Wörter für Kinderbücher zu generieren. Welche Architektur können wir verwenden?
LSTM auf Wortebene
LSTM auf Zeichenebene
RNN auf Wortebene
Perzeptron auf Zeichenebene
Darum wird ein wiederkehrendes neuronales Netz als wiederkehrend bezeichnet:
Für jedes Eingabeelement wird ein Netzwerk angewendet, und die Ausgabe der vorherigen Anwendung wird an die nächste übergeben.
Es wird von einem wiederkehrenden Prozess trainiert
Es besteht aus Ebenen, die andere Subnetze enthalten
Das Netzwerk verarbeitet die gesamte Eingabe mehrmals bei wiederholten Durchläufen.
Was ist der zugrunde liegende Kerngedanke bei der LSTM-Netzwerkarchitektur?
Feste Anzahl von LSTM-Blöcken für das gesamte Dataset
Es enthält viele Ebenen von wiederkehrenden neuronalen Netzen.
LSTMs verwenden Gating-Mechanismen („forget“, ‚input‘ und „output gates“), die explizit steuern, welche Informationen über Zeitschritte hinweg beibehalten oder verworfen werden
LSTMs verwenden einen größeren ausgeblendeten Zustandsvektor als einfache RNNs
Was ist der Hauptvorteil der TF-IDF-Darstellung gegenüber einer einfachen bag-of-words-Darstellung?
TF-IDF erfasst die Reihenfolge von Wörtern in einem Satz.
TF-IDF verleiht Wörtern eine höhere Gewichtung, die für die Unterscheidung von Dokumenten wichtiger sind, indem häufig vorkommende Wörter nach unten gewichten werden.
TF-IDF verwendet neurale Netzwerke, um die Bedeutung von Wörtern zu erlernen
TF-IDF erzeugt weniger dimensionale Vektoren als Bag-of-Words
Sie müssen alle Fragen beantworten, bevor Sie Ihre Arbeit überprüfen können.
War diese Seite hilfreich?
Benötigen Sie Hilfe zu diesem Thema?
Möchten Sie versuchen, Ask Learn zu verwenden, um Sie durch dieses Thema zu klären oder zu leiten?