Bırakma katmanlarının genelleme, sağlamlık ve model performansını iyileştirerek sinir ağlarında aşırı uyumu nasıl önlediğini keşfedin.
Bırakma katmanı, sinir ağlarında (NN ) aşırı uyumla mücadele etmek için kullanılan güçlü ancak basit bir düzenleme tekniğidir. Aşırı uyum, bir model eğitim verilerini gürültü ve kendine has özellikleri de dahil olmak üzere çok iyi öğrendiğinde ortaya çıkar ve bu da yeni, görülmemiş verilere genelleme yeteneğine zarar verir. Geoffrey Hinton ve meslektaşları tarafından 2014 yılında çığır açan bir makalede tanıtılan dropout'un arkasındaki temel fikir, her eğitim adımı sırasında nöronları ve bağlantılarını rastgele "bırakmak" veya geçici olarak kaldırmaktır. Bu, nöronların birbirlerine aşırı bağımlı hale gelmesini önleyerek ağı daha sağlam ve gereksiz temsiller öğrenmeye zorlar.
Model eğitim süreci sırasında, bir bırakma katmanı bir önceki katmandaki nöronların bir kısmının aktivasyonlarını rastgele sıfıra ayarlar. "Bırakma oranı" bir nöronun bırakılma olasılığını tanımlayan bir hiperparametredir. Örneğin, 0,5'lik bir bırakma oranı, her nöronun belirli bir eğitim yinelemesi sırasında göz ardı edilme şansının %50 olduğu anlamına gelir. Bu süreç, ağırlıkları paylaşan çok sayıda inceltilmiş ağın eğitilmesi olarak düşünülebilir.
Ağın mimarisini sürekli değiştirerek, bırakma, bir nöronun çıktısının birkaç spesifik diğer nöronun varlığına büyük ölçüde bağlı olduğu karmaşık ortak adaptasyonları önler. Bunun yerine, her nöron bağımsız olarak daha faydalı bir özellik detektörü olmaya teşvik edilir. Test veya çıkarım aşaması sırasında, bırakma katmanı kapatılır ve tüm nöronlar kullanılır. Eğitim sırasında olduğundan daha fazla nöronun aktif olduğu gerçeğini telafi etmek için, katmanın çıktıları bırakma oranı ile ölçeklendirilir. Bu, her nörondan beklenen çıktının eğitim ve test arasında tutarlı kalmasını sağlar. PyTorch ve TensorFlow gibi çerçeveler, bırakma katmanı uygulamalarında bu ölçeklendirmeyi otomatik olarak gerçekleştirir.
Dropout, yapay zeka (AI) ve makine öğreniminin (ML) çeşitli alanlarında yaygın olarak kullanılmaktadır:
Dropout, derin öğrenmede düzenlileştirme için kullanılan çeşitli tekniklerden biridir. Diğerleri şunları içerir:
Özetle, Dropout Katmanı, gelişmiş bilgisayarla görmeden NLP'ye kadar çeşitli uygulamalarda sağlam derin öğrenme modellerini eğitmek için gerekli olan basit ama güçlü bir düzenleme tekniğidir.