YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024

Bilgisayarlı görüde aşırı öğrenme (overfitting) nedir ve nasıl önlenir?

Abdelrahman Elgendy

6 dakika okuma süresi

13 Mart 2025

Bilgisayarlı görüde aşırı uyumun ne olduğunu ve veri artırma, düzenlileştirme ve önceden eğitilmiş modeller kullanarak bunu nasıl önleyeceğinizi öğrenin.

Bilgisayarlı görü modelleri, örüntüleri tanımak, nesneleri tespit etmek ve görüntüleri analiz etmek için tasarlanmıştır. Ancak, performansları, görünmeyen verilere ne kadar iyi genelleyebildiklerine bağlıdır. Genelleme, modelin yalnızca eğitildiği görüntülerde değil, yeni görüntülerde de iyi çalışma yeteneğidir. Bu modelleri eğitirken karşılaşılan yaygın bir sorun, bir modelin anlamlı örüntüleri belirlemek yerine, gereksiz gürültü de dahil olmak üzere eğitim verilerinden çok fazla şey öğrendiği aşırı uyumdur.

Bu olduğunda, model eğitim verilerinde iyi performans gösterir, ancak yeni görüntülerle mücadele eder. Örneğin, yalnızca yüksek çözünürlüklü, iyi aydınlatılmış görüntüler üzerinde eğitilmiş bir nesne tespiti modeli, gerçek dünya koşullarında bulanık veya gölgeli görüntülerle karşılaştığında başarısız olabilir. Aşırı uyum, bir modelin uyarlanabilirliğini sınırlayarak, otonom sürüş, tıbbi görüntüleme ve güvenlik sistemleri gibi gerçek dünya uygulamalarındaki kullanımını sınırlar.

Bu makalede, aşırı uyumun ne olduğunu, neden olduğunu ve nasıl önleneceğini keşfedeceğiz. Ayrıca, Ultralytics YOLO11 gibi bilgisayarlı görü modellerinin aşırı uyumu azaltmaya ve genellemeyi iyileştirmeye nasıl yardımcı olduğunu da inceleyeceğiz.

Aşırı uyum nedir?

Aşırı uyum, bir modelin yeni girdilere geniş bir şekilde uygulanan örüntüleri öğrenmek yerine eğitim verilerini ezberlediğinde meydana gelir. Model, eğitim verilerine çok fazla odaklanır, bu nedenle daha önce görmediği yeni görüntüler veya durumlarla mücadele eder.

Bilgisayarlı görüde, aşırı uyum farklı görevleri etkileyebilir. Yalnızca parlak, net görüntüler üzerinde eğitilmiş bir sınıflandırma modeli, düşük ışık koşullarında zorlanabilir. Mükemmel görüntülerden öğrenen bir nesne tespiti modeli, kalabalık veya karmaşık sahnelerde başarısız olabilir. Benzer şekilde, bir örnek segmentasyon modeli kontrollü ortamlarda iyi çalışabilir, ancak gölgeler veya örtüşen nesnelerle sorun yaşayabilir.

Bu durum, modellerin kontrollü eğitim koşullarının ötesinde genelleme yapabilmesi gereken gerçek dünya yapay zeka uygulamalarında bir sorun haline gelir. Örneğin, sürücüsüz arabaların farklı aydınlatma koşullarında, hava durumlarında ve ortamlarda yayaları tespit edebilmesi gerekir. Eğitim kümesini aşırı öğrenen bir model, bu tür öngörülemeyen senaryolarda güvenilir bir şekilde performans göstermez.

Aşırı öğrenme ne zaman ve neden olur?

Aşırı öğrenme genellikle dengesiz veri kümeleri, aşırı model karmaşıklığı ve aşırı eğitim nedeniyle meydana gelir. İşte başlıca nedenleri:

  • Sınırlı eğitim verisi: Küçük veri kümeleri, modellerin kalıpları genellemek yerine ezberlemesine neden olur. Yalnızca 50 kuş resmiyle eğitilmiş bir model, bu veri kümesinin dışındaki kuş türlerini tespit etmekte zorlanabilir.

  • Çok fazla parametreye sahip karmaşık modeller: Aşırı katmanlara ve nöronlara sahip derin ağlar, temel özelliklere odaklanmak yerine ince ayrıntıları ezberleme eğilimindedir.

  • Veri artırımının eksikliği: Kırpma, çevirme veya döndürme gibi dönüşümler olmadan, bir model yalnızca tam eğitim görüntülerinden öğrenebilir.

  • Uzun süreli eğitim: Bir model, epoklar olarak bilinen eğitim verilerinden çok fazla kez geçerse, genel kalıpları öğrenmek yerine ayrıntıları ezberler ve bu da uyum yeteneğini azaltır.

  • Tutarsız veya gürültülü etiketler: Yanlış etiketlenmiş veriler, bir modelin yanlış kalıpları öğrenmesine neden olur. Bu, manuel olarak etiketlenmiş veri kümelerinde yaygındır.

Model karmaşıklığına, veri kümesi kalitesine ve eğitim tekniklerine dengeli bir yaklaşım, daha iyi genelleme sağlar.

Aşırı öğrenme (Overfitting) - Yetersiz öğrenme (Underfitting) karşılaştırması

Aşırı öğrenme ve yetersiz öğrenme, derin öğrenmedeki iki tamamen zıt sorundur.

__wf_reserved_inherit
Şekil 1. Bilgisayar görüşü modellerinde yetersiz öğrenme, optimal öğrenme ve aşırı öğrenmenin karşılaştırılması.

Aşırı öğrenme, bir model çok karmaşık olduğunda meydana gelir ve bu da modelin eğitim verilerine aşırı odaklanmasına neden olur. Genel kalıpları öğrenmek yerine, arka plan gürültüsü gibi küçük, hatta alakasız ayrıntıları ezberler. Bu, modelin eğitim verilerinde iyi performans göstermesine, ancak yeni görüntülerle mücadele etmesine neden olur, yani farklı durumlarda geçerli olan kalıpları nasıl tanıyacağını gerçekten öğrenmemiştir.

Yetersiz öğrenme, bir model çok basit olduğunda meydana gelir, bu nedenle verilerdeki önemli kalıpları kaçırır. Bu, modelin çok az katmana sahip olması, yeterli eğitim süresinin olmaması veya verilerin sınırlı olması durumunda ortaya çıkabilir. Sonuç olarak, önemli kalıpları tanıyamaz ve yanlış tahminlerde bulunur. Bu, hem eğitim hem de test verilerinde yetersiz performansa yol açar, çünkü model görevi doğru bir şekilde anlamak için yeterince öğrenmemiştir. 

İyi eğitilmiş bir model, karmaşıklık ve genelleme arasında bir denge kurar. İlgili kalıpları öğrenecek kadar karmaşık olmalı, ancak verileri ezberlemek yerine altta yatan ilişkileri tanıyacak kadar karmaşık olmamalıdır.

Aşırı öğrenme nasıl tespit edilir

Bir modelin aşırı öğrendiğini gösteren bazı işaretler şunlardır:

  • Eğitim doğruluğu, doğrulama doğruluğundan önemli ölçüde yüksekse, model muhtemelen aşırı öğreniyordur.
  • Eğitim kaybı ve doğrulama kaybı arasındaki açığın genişlemesi, bir diğer güçlü göstergedir.
  • Model, yanlış cevaplar konusunda çok kendinden emin, bu da kalıpları anlamak yerine ayrıntıları ezberlediğini gösteriyor.

Bir modelin iyi genelleme yapmasını sağlamak için, gerçek dünya koşullarını yansıtan çeşitli veri kümelerinde test edilmesi gerekir.

Bilgisayar görüşünde aşırı öğrenme nasıl önlenir

Aşırı öğrenme kaçınılmaz değildir ve önlenebilir. Doğru tekniklerle, bilgisayar görüşü modelleri eğitim verilerini ezberlemek yerine genel kalıpları öğrenebilir ve bu da onları gerçek dünya uygulamalarında daha güvenilir hale getirir. 

Bilgisayar görüşünde aşırı öğrenmeyi önlemek için beş temel strateji şunlardır:

Veri artırma ve sentetik verilerle veri çeşitliliğini artırın

Bir modelin yeni veriler üzerinde iyi çalışmasına yardımcı olmanın en iyi yolu, veri artırma ve sentetik veri kullanarak veri kümesini genişletmektir. Sentetik veri, gerçek dünya görüntülerinden toplanmak yerine bilgisayar tarafından oluşturulur. Yeterli gerçek veri olmadığında boşlukları doldurmaya yardımcı olur.

__wf_reserved_inherit
Şekil 2. Gerçek dünya ve sentetik verileri birleştirmek, aşırı öğrenmeyi azaltır ve nesne algılama doğruluğunu artırır.

Veri artırma, mevcut görüntüleri çevirerek, döndürerek, kırparak veya parlaklığı ayarlayarak biraz değiştirir, böylece model yalnızca ayrıntıları ezberlemek yerine farklı durumlarda nesneleri tanımayı öğrenir.

Sentetik veri, gerçek görüntüleri elde etmek zor olduğunda kullanışlıdır. Örneğin, otonom sürüş araba modelleri, farklı hava ve aydınlatma koşullarında nesneleri nasıl algılayacağını öğrenmek için bilgisayar tarafından oluşturulan yol sahnelerinde eğitilebilir. Bu, modelin binlerce gerçek dünya görüntüsüne ihtiyaç duymadan daha esnek ve güvenilir olmasını sağlar.

Model karmaşıklığını ve mimarisini optimize edin

Derin bir sinir ağı, yani verileri tek bir katman yerine birçok katmanda işleyen bir tür makine öğrenimi modeli, her zaman daha iyi değildir. Bir model çok fazla katmana veya parametreye sahip olduğunda, daha geniş kalıpları tanımak yerine eğitim verilerini ezberler. Gereksiz karmaşıklığı azaltmak, aşırı öğrenmeyi önlemeye yardımcı olabilir.

Bunu başarmak için bir yaklaşım, gereksiz nöronları ve bağlantıları kaldıran ve modeli daha yalın ve verimli hale getiren budama işlemidir. 

Bir diğeri ise katman veya nöron sayısını azaltarak mimariyi basitleştirmektir. YOLO11 gibi önceden eğitilmiş modeller, daha az parametreyle görevler arasında iyi genelleme yapmak üzere tasarlanmıştır ve bu da onları sıfırdan derin bir model eğitmeye göre aşırı öğrenmeye karşı daha dirençli hale getirir.

Model derinliği ve verimliliği arasında doğru dengeyi bulmak, eğitim verilerini ezberlemek yerine faydalı kalıpları öğrenmesine yardımcı olur.

Düzenlileştirme tekniklerini uygulayın

Düzenlileştirme teknikleri, modellerin eğitim verilerindeki belirli özelliklere çok fazla bağımlı olmasını önler. İşte yaygın olarak kullanılan birkaç teknik:

  • Dropout, eğitim sırasında modelin rastgele bölümlerini kapatır, böylece birkaç özelliğe çok fazla güvenmek yerine farklı kalıpları tanımayı öğrenir.

  • Ağırlık azalması (L2 düzenlileştirme), aşırı ağırlık değerlerini caydırır ve modelin karmaşıklığını kontrol altında tutar.

  • Batch normalization (Yığın normalizasyonu), modelin veri kümesindeki değişikliklere karşı daha az duyarlı olmasını sağlayarak eğitimi dengelemeye yardımcı olur.

Bu teknikler, bir modelin esnekliğini ve uyarlanabilirliğini korumaya yardımcı olur, doğruluktan ödün vermeden aşırı öğrenme riskini azaltır.

Doğrulama ve erken durdurma ile eğitimi izleyin

Aşırı öğrenmeyi önlemek için, modelin nasıl öğrendiğini izlemek ve yeni verilere iyi genelleştiğinden emin olmak önemlidir. İşte bu konuda yardımcı olacak birkaç teknik:

  • Erken durdurma: Model iyileşmeyi durdurduğunda eğitimi otomatik olarak sonlandırır, böylece gereksiz ayrıntıları öğrenmeye devam etmez.

  • Çapraz doğrulama: Verileri parçalara ayırır ve modeli her birinde eğitir. Bu, belirli görüntüleri ezberlemek yerine kalıpları öğrenmesine yardımcı olur.

Bu teknikler, modelin dengede kalmasına yardımcı olur, böylece yalnızca eğitim verilerine çok fazla odaklanmadan doğru olmak için yeterince öğrenir.

Önceden eğitilmiş modelleri kullanın ve veri kümesi etiketlemesini iyileştirin

Sıfırdan eğitmek yerine, YOLO11 gibi önceden eğitilmiş modelleri kullanmak aşırı öğrenmeyi azaltabilir. YOLO11, farklı koşullar arasında iyi genelleme yapmasını sağlayan büyük ölçekli veri kümelerinde eğitilmiştir.

__wf_reserved_inherit
Şekil 3. Önceden eğitilmiş bilgisayarlı görü modelleri doğruluğu artırır ve aşırı öğrenmeyi önler.

Önceden eğitilmiş bir modele ince ayar yapmak, yeni görevleri öğrenirken zaten bildiklerini korumasına yardımcı olur, böylece yalnızca eğitim verilerini ezberlemez.

Ek olarak, yüksek kaliteli veri kümesi etiketlemesi sağlamak çok önemlidir. Yanlış etiketlenmiş veya dengesiz veriler, modelleri yanlış kalıpları öğrenmeye yönlendirebilir. Veri kümelerini temizlemek, yanlış etiketlenmiş görüntüleri düzeltmek ve sınıfları dengelemek doğruluğu artırır ve aşırı öğrenme riskini azaltır. Bir diğer etkili yaklaşım ise, modelin sınırlarını test etmek için tasarlanmış, biraz değiştirilmiş veya daha zorlu örneklere maruz bırakıldığı adversarial training (düşmanca eğitim) yöntemidir.

Önemli çıkarımlar

Aşırı öğrenme (Overfitting), bilgisayarlı görüde sık karşılaşılan bir sorundur. Bir model, eğitim verileri üzerinde iyi çalışabilir ancak gerçek dünya görüntülerinde zorlanabilir. Bunu önlemek için veri artırma, düzenlileştirme ve YOLO11 gibi önceden eğitilmiş modelleri kullanma gibi teknikler, doğruluğu ve uyarlanabilirliği artırmaya yardımcı olur.

Bu yöntemler uygulandığında, yapay zeka modelleri güvenilir kalabilir ve farklı ortamlarda iyi performans gösterebilir. Derin öğrenme geliştikçe, modellerin düzgün bir şekilde genelleştirilmesini sağlamak, gerçek dünyadaki yapay zeka başarısı için anahtar olacaktır.

Büyüyen topluluğumuza katılın! Yapay zeka hakkında daha fazla bilgi edinmek için GitHub depomuzu keşfedin. Kendi bilgisayarlı görü projelerinize başlamaya hazır mısınız? Lisanslama seçeneklerimize göz atın. Çözüm sayfalarımızı ziyaret ederek Otonom sürüşte Görü Yapay Zekası ve Sağlık hizmetlerinde Yapay Zeka'yı keşfedin!

Gelin, yapay zekanın geleceğini
birlikte inşa edelim!

Makine öğreniminin geleceği ile yolculuğunuza başlayın

Ücretsiz başlayın
Bağlantı panoya kopyalandı