Learn how to use a [dropout layer](https://www.ultralytics.com/glossary/dropout-layer) to prevent overfitting. Discover how to train [YOLO26](https://docs.ultralytics.com/models/yolo26/) for more robust AI models.
Dropout katmanı, yaygın aşırı uyum sorunuyla mücadele etmek için sinir ağlarında (NN) kullanılan temel bir düzenleme tekniğidir. Bir model, sınırlı sayıda örnek üzerinde eğitildiğinde, genellikle temel genel kalıpları ayırt etmek yerine, eğitim verilerinin gürültüsünü ve belirli ayrıntılarını ezberlemeyi öğrenir. Bu ezberleme, geliştirme sırasında yüksek doğruluk sağlar, ancak yeni, görülmemiş girdilerde düşük performansla sonuçlanır. Dropout, eğitim sürecinin her adımında bir katmandaki nöronların bir kısmını rastgele devre dışı bırakarak veya "düşürerek" bu sorunu çözer. Srivastava ve diğerleri tarafından yayınlanan çığır açıcı bir araştırma makalesinde tanıtılan bu basit ama etkili strateji, derin öğrenme (DL) mimarilerinin kararlılığını ve performansını önemli ölçüde geliştirmiştir . .
The mechanism behind a dropout layer is intuitively similar to removing players from a sports team during practice to force the remaining players to work harder and not rely on a single star athlete. During the model training phase, the layer generates a probabilistic mask of zeros and ones. If the dropout rate is set to 0.5, approximately 50% of the neurons are temporarily ignored during that specific forward and backward pass. This process forces the remaining active neurons to learn robust features independently, preventing the network from relying too heavily on any single neuron—a phenomenon known in machine learning (ML) as feature co-adaptation.
Gerçek zamanlı çıkarım veya test aşamasında, dropout katmanı genellikle devre dışı bırakılır. Tüm nöronlar, eğitilmiş modelin tam tahmin kapasitesini kullanmak için aktif kalır . Toplam aktivasyon değerlerinin eğitim aşamasıyla tutarlı kalmasını sağlamak için, ağırlıklar genellikle çerçeve tarafından otomatik olarak ölçeklendirilir. PyTorch gibi modern kütüphaneler PyTorch gibi modern kütüphaneler bu matematiksel ölçeklendirme işlemlerini sorunsuz bir şekilde gerçekleştirir ve geliştiricilerin aritmetik yerine mimariye odaklanmalarını sağlar.
Kullanıcılar için ultralytics paket, en son teknolojiye sahip bir modele dropout uygulayarak
YOLO26 is as simple as adjusting a training argument. This
is particularly useful when working with smaller datasets where the risk of overfitting is higher. By introducing
randomness, you can encourage the model to generalize better across diverse environments.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model with a custom dropout rate of 0.1 (10%)
# This encourages the model to learn more generalized features
results = model.train(data="coco8.yaml", epochs=50, dropout=0.1)
Dropout, modellerin mevcut verilere göre çok sayıda parametreyi kullandığı yapay zeka (AI) alanlarının çeşitli alanlarında vazgeçilmezdir. Bu makalede, dropout'un yapay sinir ağlarında öğrenme hızını ve verimliliği artırmak için kullanılan bir teknik olduğunu açıklıyoruz.
While dropout is highly effective, it is often used alongside other techniques. It is distinct from data augmentation, which modifies the input images (e.g., flipping or rotating) rather than the network architecture itself. Similarly, it differs from batch normalization, which normalizes layer inputs to stabilize learning but does not explicitly deactivate neurons.
For complex projects, managing these hyperparameters can be challenging. The Ultralytics Platform simplifies this by providing tools to visualize training metrics, helping users determine if their dropout rates are effectively reducing validation loss. Whether you are building a custom image classification system or a sophisticated segmentation pipeline, understanding dropout is key to building resilient AI systems.
