Sözlük

Aşırı Uyum

Makine öğreniminde aşırı uyumun nasıl belirleneceğini, önleneceğini ve ele alınacağını öğrenin. Model genellemesini ve gerçek dünya performansını iyileştirmeye yönelik teknikleri keşfedin.

Aşırı uyum, makine öğreniminde (ML) temel bir kavramdır ve bir modelin eğitim verilerindeki ayrıntıları ve gürültüyü, modelin yeni, görülmemiş veriler üzerindeki performansını olumsuz yönde etkileyecek ölçüde öğrenmesi durumunda ortaya çıkar. Özünde, model altta yatan kalıpları öğrenmek yerine eğitim setini ezberler. Bu da eğitildiği veriler üzerinde yüksek doğruluk elde eden ancak gerçek dünya verilerine genelleme yapamayan bir modelle sonuçlanır ve pratik uygulamalar için güvenilmez hale gelir. İyi bir genelleme elde etmek, yapay zeka geliştirmede birincil hedeftir.

Aşırı Uyum Nasıl Belirlenir?

Aşırı uyum genellikle eğitim süreci sırasında modelin hem eğitim veri kümesi hem de ayrı bir doğrulama veri küm esi üzerindeki performansı izlenerek tespit edilir. Eğitim kümesi için kayıp fonksiyonu değeri azalmaya devam ederken doğrulama kümesi için kaybın artmaya başlaması aşırı uyumun yaygın bir işaretidir. Benzer şekilde, eğitim doğruluğu artmaya devam ediyor ancak doğrulama doğruluğu sonraki epoklarda düşüyor veya kötüleşiyorsa, model muhtemelen aşırı uyum sağlıyor demektir. TensorBoard gibi araçlar bu ölçümleri görselleştirmek ve bu tür sorunları erken teşhis etmek için mükemmeldir. Ultralytics HUB gibi platformlar da deneyleri izlemeye ve aşırı uyumu tespit etmek için modelleri değerlendirmeye yardımcı olabilir.

Aşırı Uyum ve Yetersiz Uyum

Aşırı uyum ve yetersiz uyum, makine öğreniminde bir modelin genelleme yapamamasını temsil eden iki yaygın sorundur. Bunlar esasen birbirine zıt sorunlardır.

  • Aşırı uyum: Model veriler için çok karmaşıktır (yüksek varyans). Eğitim verilerindeki gürültüyü ve rastgele dalgalanmaları yakalayarak eğitim sırasında mükemmel performansa, ancak test verilerinde düşük performansa yol açar.
  • Yetersiz uyum: Model, verilerin altında yatan yapıyı yakalamak için çok basittir (yüksek yanlılık). İlgili kalıpları öğrenemediği için hem eğitim hem de test verilerinde düşük performans gösterir.

Derin öğrenmedeki zorluk, genellikle önyargı-varyans ödünleşimi ile tanımlanan bir kavram olan doğru dengeyi bulmaktır.

Gerçek Dünyadan Aşırı Uyum Örnekleri

  1. Otonom Araç Nesne Algılama: Otonom bir araç için Ultralytics YOLO modelini yalnızca güneşli, gündüz koşullarından görüntüler içeren bir veri kümesi kullanarak eğittiğinizi düşünün. Model, parlak ışıkta yayaları ve arabaları tespit etmede oldukça uzmanlaşabilir, ancak geceleri veya yağmurlu veya sisli havalarda dramatik bir şekilde başarısız olabilir. Eğitim verilerinin belirli aydınlatma ve hava koşullarına aşırı uyum sağlamıştır. Argoverse gibi farklı veri kümeleri kullanmak bunu önlemeye yardımcı olabilir.
  2. Tıbbi Görüntü Analizi: Bir CNN modeli, tek bir hastaneden alınan MRI taramalarından tümörleri tespit etmek üzere eğitilir. Model, yanlışlıkla o hastanenin belirli MRI makinesinden kaynaklanan belirli artefaktları veya gürültü modellerini bir tümörün varlığıyla ilişkilendirmeyi öğrenebilir. Farklı bir hastaneden farklı bir makineyle alınan taramalar üzerinde test edildiğinde, tümörlerin gerçek biyolojik belirteçlerine değil, orijinal eğitim setinin gürültüsüne aşırı uyum sağladığı için performansı önemli ölçüde düşebilir. Bu, sağlık hizmetlerinde yapay zeka gibi alanlarda kritik bir konudur.

Aşırı Uyum Nasıl Önlenir

Aşırı uyumla mücadele etmek ve daha sağlam modeller oluşturmak için çeşitli teknikler kullanılabilir.

  • Daha Fazla Veri Elde Edin: Eğitim veri setinin boyutunu ve çeşitliliğini artırmak, aşırı uyumu önlemenin en etkili yollarından biridir. Daha fazla veri, modelin gürültü yerine gerçek altta yatan kalıpları öğrenmesine yardımcı olur. Projelerinizi geliştirmek için çeşitli Ultralytics veri kümelerini keşfedebilirsiniz.
  • Veri Büyütme: Bu, mevcut verilerin değiştirilmiş kopyalarını oluşturarak eğitim veri kümesini yapay olarak genişletmeyi içerir. Rastgele döndürmeler, ölçeklendirme, kırpma ve renk kaydırmaları gibi teknikler uygulanır. Ultralytics YOLO veri artırma teknikleri, model sağlamlığını artırmak için yerleşiktir.
  • Model Mimarisini Basitleştirin: Bazen bir model, verilen veri kümesi için çok karmaşık olabilir. Daha az parametreye sahip daha basit bir mimari kullanmak, verilerin ezberlenmesini önleyebilir. Örneğin, YOLOv8n ve YOLOv8x gibi daha küçük bir model varyantı seçmek daha küçük veri kümeleri için faydalı olabilir.
  • Düzenli hale getirme: Bu teknik, modelin karmaşıklığına bağlı olarak kayıp fonksiyonuna bir ceza ekler ve büyük model ağırlıklarını caydırır. Yaygın yöntemler, hakkında daha fazla bilgi edinebileceğiniz L1 ve L2 düzenlileştirmedir.
  • Okulu Bırakma: Her eğitim adımı sırasında nöronların rastgele bir kısmının göz ardı edildiği özel bir düzenleme biçimi. Bu, ağı gereksiz temsilleri öğrenmeye zorlar ve herhangi bir nöronun çok etkili olmasını önler. Dropout kavramı burada ayrıntılı olarak açıklanmaktadır.
  • Erken Durdurma: Bu, modelin bir doğrulama kümesi üzerindeki performansının izlenmesini ve eğitim performansı hala iyileşiyor olsa bile doğrulama performansı düşmeye başlar başlamaz eğitim sürecinin durdurulmasını içerir. Daha fazla ayrıntı için Keras'ta erken durdurmanın açıklamasını görebilirsiniz.
  • Çapraz Doğrulama: K-Kat çapraz doğrulama gibi teknikler kullanılarak veriler birden fazla kata bölünür ve model farklı alt kümeler üzerinde eğitilir ve doğrulanır. Bu, modelin genelleme yeteneğine ilişkin daha sağlam bir tahmin sağlar.
  • Model Budama: Bu, eğitilmiş bir ağdan performansı üzerinde çok az etkisi olan parametrelerin veya bağlantıların çıkarılmasını ve böylece karmaşıklığın azaltılmasını içerir. Neural Magic gibi şirketler, verimli dağıtım için budama modelleri konusunda uzmanlaşmış araçlar sunmaktadır.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve büyüyün

Şimdi katılın
Panoya kopyalanan bağlantı