Dropout katmanlarının, genelleştirme, sağlamlık ve model performansını artırarak sinir ağlarında aşırı öğrenmeyi nasıl önlediğini keşfedin.
Dropout katmanı, aşırı öğrenmeyle mücadele etmek için sinir ağlarında (NN) kullanılan güçlü ancak basit bir düzenlileştirme tekniğidir. Aşırı öğrenme, bir modelin eğitim verilerini, gürültüsü ve kendine özgü özellikleriyle birlikte çok iyi öğrendiği ve bunun da yeni, görülmemiş verilere genelleme yeteneğine zarar verdiği zaman meydana gelir. Geoffrey Hinton ve meslektaşları tarafından çığır açan 2014 tarihli bir makalede tanıtılan dropout'un temel fikri, her eğitim adımında nöronları ve bağlantılarını rastgele "bırakmak" veya geçici olarak kaldırmaktır. Bu, nöronların birbirine aşırı derecede bağımlı hale gelmesini önler ve ağı daha sağlam ve yedekli temsiller öğrenmeye zorlar.
Model eğitimi sürecinde, bir dropout katmanı, önceki katmandaki nöronların bir kısmının aktivasyonlarını rastgele sıfıra ayarlar. "Dropout oranı", bir nöronun bırakılma olasılığını tanımlayan bir hiperparametredir. Örneğin, 0,5'lik bir dropout oranı, her nöronun belirli bir eğitim yinelemesi sırasında yok sayılma olasılığının %50 olduğu anlamına gelir. Bu süreç, ağırlıkları paylaşan çok sayıda inceltilmiş ağın eğitilmesi olarak düşünülebilir.
Ağın mimarisini sürekli değiştirerek, dropout karmaşık birlikte uyumları önler; burada bir nöronun çıktısı, birkaç belirli diğer nöronun varlığına büyük ölçüde bağlıdır. Bunun yerine, her nöronun daha bağımsız olarak kullanışlı bir özellik dedektörü olması teşvik edilir. Test veya çıkarım aşamasında, dropout katmanı kapatılır ve tüm nöronlar kullanılır. Eğitim sırasında olduğundan daha fazla nöronun aktif olmasını telafi etmek için, katmanın çıktıları dropout oranıyla ölçeklendirilir. Bu, her nörondan beklenen çıktının eğitim ve test arasında tutarlı kalmasını sağlar. PyTorch ve TensorFlow gibi çerçeveler, bu ölçeklendirmeyi dropout katmanı uygulamalarında otomatik olarak ele alır.
Dropout, yapay zeka (AI) ve makine öğrenimi (ML)'nin çeşitli alanlarında yaygın olarak kullanılmaktadır:
Dropout, derin öğrenmede düzenlileştirme için kullanılan çeşitli tekniklerden biridir. Diğerleri şunlardır:
Özetle, Dropout Katmanı, gelişmiş bilgisayarlı görüden DDİ'ye kadar çeşitli uygulamalarda sağlam derin öğrenme modelleri eğitmek için gerekli olan basit ama güçlü bir düzenlileştirme tekniğidir.