Deep Learning Temelleri Detaylı ve Basitleştirilmiş Anlatım
HTML-код
- Опубликовано: 7 фев 2025
- Merhaba, deep learning'e öğrenci gözünden basitleştirilmiş bir anlatımla giriş yapıyoruz. Neural Network temel yapısı, loss funtion ve gradient descent ,back propagation konularını işliyoruz Özellikle yeni başlayanlar için anlamayı kolaylaştıracağını düşünüyorum. Yanlış bilgi verme veya yanlış terim kullanma olasılığımı göz önünde bulundurunuz. Kolay gelsin !
17:01 burada veride gereksiz tekrarlar varsa stochastic gradient descent faydalı olabilir demeliydim
17:12 burada ise mini batch için söylediklerim hatalı olabilir. Yapay zekaya sordum mini batchlerin seçilmesinde farklı yöntemler olduğunu söylüyor. Her epochta karıştırma, sınıf dağılımını koruyarak örnekleme yapma vs. yöntemler söylüyor.
Yani gradient descent(batch gradient descent) tüm verileri aynı anda alıyor, stochastic gradient descent verisetinden rastgele 1 örnek alıyor, mini batch ise her seferinde belli bi sayıda örnek alıyor ki genelde kullanılan budur.
Ayrıca videoda bahsettiğim momentum gradient descent gibi bir optimizer. Momentumun da bir optimizer olduğunu ve başka optimizerlar da olduğu videoda tam anlaşılır olmayabilir, buraya yazmış olayım. Ayrıca momentum, gradient descentin modifiye edilmiş hali gibi düşünebilir, ama yine de global minimumu bulması garanti diyemeyiz. Farklı optimezerlar farklı verisetlerinde başarılı olabilir çünkü loss curve(hata eğrisi) herbirinde farklı. Deneyerek hangisi iyi çalışıyor bakılabilir. Adagrad, Adam vs. çok sayıda optimizer var.
Harika video umarım daha çok kişinin önüne çıkar . Vaktin var ise Kaggle üzerinden videolar gelirse çok daha harika olur mesela polars gibi farklı kütüphaneler kullanarak.