Bu tarayıcı artık desteklenmiyor.
En son özelliklerden, güvenlik güncelleştirmelerinden ve teknik destekten faydalanmak için Microsoft Edge’e yükseltin.
Metin corpus'unuzun 80.000 farklı sözcük içerdiğini varsayalım. Aşağıdakilerden hangisi giriş vektörünün boyutsallığını nöral sınıflandırıcıya düşürmeyi tamamlarsınız?
Sözcüklerin %10'unu rastgele seçin ve kalanları yoksayın.
Tam olarak bağlı sınıflandırıcı katmanından önce kıvrımlı katman kullanma
Tam olarak bağlı sınıflandırıcı katmanından önce ekleme katmanını kullanma
En sık kullanılan sözcüklerin %10'unu seçin ve gerisini yoksayın
Bir çocuk kitabı için yeni komik sözcükler üretmek için bir sinir ağı eğitmek istiyoruz. Hangi mimariyi kullanabiliriz?
Sözcük düzeyinde LSTM
Karakter düzeyi LSTM
Sözcük düzeyinde RNN
Karakter düzeyinde algı
Yinelenen sinir ağı yinelenmek üzere adlandırılır, çünkü:
Her giriş öğesi için bir ağ uygulanır ve önceki uygulamadan alınan çıkış bir sonrakine geçirilir
Yinelenen bir işlem tarafından eğitilir
Diğer alt ağları içeren katmanlardan oluşur
LSTM ağ mimarisinin arkasındaki ana fikir nedir?
Veri kümesinin tamamı için sabit sayıda LSTM bloğu
Yinelenen sinir ağlarının birçok katmanını içerir
Unutma ve durum tetikleme ile açık durum yönetimi
Ana dikkat fikri nedir?
Dikkat, kelime dağarcığındaki her sözcümeye bir ağırlık katsayısı atayarak ne kadar önemli olduğunu gösterir
Dikkat, her adımdaki giriş durumlarının nihai sonucu ne kadar etkilediğini görmek için dikkat matrisi kullanan bir ağ katmanıdır.
Dikkat, sözcük dağarcığındaki tüm sözcükler arasında eşgüdümlülüklerini gösteren genel bağıntı matrisi oluşturur
Çalışmanızı denetlemeden önce tüm soruları yanıtlamalısınız.
Bu sayfayı yararlı buldunuz mu?
Bu konu hakkında yardıma mı ihtiyacınız var?
Bu konuyu açıklığa kavuşturmak veya bu konuda size yol göstermek için Ask Learn'ü kullanmayı denemek ister misiniz?