derin öğrenme 101 iki ya da daha çok katmanlı derin sinir ağları

Sinir ağının Gizli Katmanlarında Aktivasyon Fonksiyonu kullanılmazsa ne olur ? (Ders-6)

2 gizli katmanı olan yukarıdaki gibi bir sinir ağımız olduğunu düşünelim.

Burada giriş verileri ve parametre değerlerini matrislerle gösteririz. Devamındaki matematik ifadesinde, X giriş verisini yansıtır. W1,W2 ve W3  ağırlık matrisleri ve b1,b2 ve b3 bias vektörleridir.

Herhangi bir aktivasyon fonksiyonu kullanmadan hesaplama yapalım.

Gizli katman 1 : giriş X’tir.

=X*W1+b1

Gizli Katman 2 : Giriş bu sefer X*W1+b1’dir.

=(X*W1+b1)*W2+b2

Çıkış Katmanı : Giriş artık (X*W1+b1)*W2+b2 .

=((X*W1+b1)*W2+b2)*W3+b3

Eğer bir sinir ağında herhangi bir aktivasyon fonksiyonu kullanılmazsa, DEVASA bir lineer regresyon modeline döner.

Dahası, gizli katmanlar gereksiz olacaktır ve model, veriden non-lineer ilişkileri öğrenemeyecektir.

Model yalnızca gerçek dünya verisinde zor olan, lineer ilişkiyi öğrenecektir.

Bu yüzden, sinir ağı modelimizin gerçek dünya verilerinden kompleks non-lineer ilişkileri öğrenebilmesi için gizli katmanlarda non-lineer aktivasyon fonksiyonları ve çıkış katmanlarından yine uygun aktivasyon fonksiyonlarını kullanmalıyız.

Author: yapayze2

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir