YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Normalleştirme

Makine öğrenmesinde normalizasyonun gücünü keşfedin! Model eğitimini nasıl geliştirdiğini, performansı nasıl artırdığını ve sağlam yapay zeka çözümleri sağladığını öğrenin.

Makine öğrenimi (ML) ve yapay zeka (AI)'da normalizasyon, çok önemli bir veri ön işleme tekniğidir. Bir veri kümesinin sayısal özelliklerini, aralıklarındaki farklılıkları bozmadan ortak bir ölçeğe dönüştürmeyi içerir. Bu ölçeklendirme işlemi, özellikle sinir ağlarını (NN) eğitmede kullanılan gradyan tabanlı optimizasyon yöntemleri gibi girdi değerlerinin büyüklüğüne duyarlı olan birçok algoritmanın performansı ve kararlılığı için hayati öneme sahiptir. Tüm özelliklerin modelin öğrenme sürecine orantılı olarak katkıda bulunmasını sağlayarak, normalizasyon eğitimi hızlandırmaya ve genel model doğruluğunu iyileştirmeye yardımcı olur.

Normalizasyon Neden Önemli?

Normalleştirme olmadan, daha büyük ölçeklere sahip özellikler bir modelin öğrenme sürecine hakim olabilir. Örneğin, ev fiyatlarını tahmin etmek için kullanılan bir veri kümesinde, "metrekare" (örneğin, 1000-3000) gibi bir özellik, "yatak odası sayısı" (örneğin, 2-5) özelliğinden çok daha büyük bir aralığa sahip olacaktır. Bu tutarsızlık, gradyan inişi gibi algoritmaların daha uzun süre yakınsamasına veya yerel optimumlarda takılıp kalmasına neden olabilir. Normalleştirme, tüm özellikleri eşit bir zemine oturtarak bunu azaltır ve bu da şunlara yol açar:

  • Daha Hızlı Yakınsama: Optimizasyon algoritması kayıp yüzeyinde daha verimli bir şekilde gezinebildiği için modeller daha hızlı eğitilir.
  • Gelişmiş Performans: k-En Yakın Komşu (k-NN) gibi mesafe ölçülerini kullanan algoritmalar veya Evrişimsel Sinir Ağları (CNN'ler) gibi gradyan güncellemelerine dayanan algoritmalar için önemlidir.
  • Azaltılmış Sayısal Kararsızlık Riski: Geriye yayılım süreci sırasında patlayan gradyanlar gibi sorunları önlemeye yardımcı olur.
  • Tutarlı Özellik Katkısı: Hiçbir özelliğin yalnızca ölçeği nedeniyle modeli orantısız bir şekilde etkilememesini sağlar. Bu, uygun özellik mühendisliğinin önemli bir yönüdür.

Normalleştirme - Standardizasyon - Toplu Normalleştirme Karşılaştırması

Çoğu zaman birbirinin yerine kullanılsa da, normalleştirme ve standardizasyon farklı tekniklerdir. Veri normalleştirmesini Yığın Normalleştirmeden ayırmak da önemlidir.

  • Normalleştirme (Min-Max Ölçekleme): Bu teknik, verileri tipik olarak sabit bir aralığa ölçeklendirir. Verilerin dağılımı Gauss dağılımı olmadığında veya algoritma belirli bir dağılım varsaymadığında kullanışlıdır. Veri ön işlemede yaygın bir adımdır.
  • Standardizasyon (Z-skoru Normalizasyonu): Bu teknik, verileri 0 ortalamaya ve 1 standart sapmaya sahip olacak şekilde yeniden ölçeklendirir. Min-maks ölçeklemenin aksine, sınırlayıcı bir aralığı yoktur. Standardizasyon genellikle veriler Gaussian dağılımı izlediğinde tercih edilir ve aykırı değerlerden daha az etkilenir.
  • Yığın Normalleştirme (Batch Normalization): Bu bir veri ön işleme adımı değil, bir derin öğrenme (deep learning) modeli içinde kullanılan bir katmandır. Eğitim sırasında her mini yığın için bir katmanın girdilerini normalleştirir. Bu, iç kovaryans kaymasıyla mücadeleye yardımcı olur, derin ağların eğitimini dengeler ve hızlandırır. Ultralytics YOLO modelleri de dahil olmak üzere birçok modern mimaride standart bir bileşendir ve PyTorch ve TensorFlow gibi çerçevelerde uygulanır.

Normalleştirme Uygulamaları

Normalizasyon, özellikle bilgisayar görüşü (CV) olmak üzere çeşitli alanlarda standart bir uygulamadır. Ultralytics HUB gibi platformlar, bu tür ön işlemenin yüksek performanslı modelleri eğitmek için gerekli olduğu iş akışlarını kolaylaştırır.

  • Görüntü Veri Ön İşleme: Bilgisayarlı görüde, görüntüler tipik olarak 0 ile 255 arasında değişen piksel değerlerinden oluşur. Bir görüntüyü görüntü sınıflandırması veya nesne tespiti gibi görevler için bir modele beslemeden önce, bu piksel değerleri neredeyse her zaman normalleştirilir. Bunları bir veya [-1, 1] aralığına ölçeklemek, bir veri kümesindeki tüm görüntülerde tutarlılık sağlar; bu, YOLO11 gibi modellerin özellikleri etkili bir şekilde öğrenmesi için kritik öneme sahiptir.
  • Tıbbi Görüntü Analizi: Sağlık hizmetlerinde yapay zeka gibi alanlarda, MRI'lar veya BT'ler gibi tıbbi taramalar genellikle farklı ayarlara sahip farklı makinelerden gelir ve bu da farklı yoğunluk ölçeklerine neden olur. Tümör tespiti için yapay zeka kullanırken, bu taramaların normalleştirilmesi kritik bir adımdır. Modelin analizinin farklı hastalar ve ekipmanlar arasında karşılaştırılabilir olmasını sağlayarak daha güvenilir ve doğru tanı tahminlerine yol açar. Bu, tıbbi görüntü analizinde temel bir kavramdır.
  • Finansta Tahmine Dayalı Modelleme: Hisse senedi fiyatlarını tahmin etmek veya kredi riskini değerlendirmek için modeller oluştururken, veri kümeleri genellikle işlem hacmi (milyonlarca) ve fiyat-kazanç oranı (örneğin, 10-50) gibi çok farklı ölçeklere sahip özellikler içerir. Bu özelliklerin normalleştirilmesi, mesafeye dayalı algoritmalar için gereklidir ve gradyan tabanlı öğrenmenin, finansta bilgisayarlı görüde yaygın bir uygulama olan daha büyük büyüklüklere sahip özellikler tarafından çarpıtılmamasını sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı