YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Leaky ReLU

Yapay zeka ve makine öğrenimi için Leaky ReLU aktivasyonunun gücünü keşfedin. Ölen ReLU sorununu çözün ve CV, NLP, GAN ve daha fazlasında model performansını artırın!

Sızıntılı Doğrusal Düzeltilmiş Birim veya Leaky ReLU, sinir ağlarında (NN) kullanılan bir aktivasyon fonksiyonudur ve standart Doğrusal Düzeltilmiş Birim (ReLU) fonksiyonunun doğrudan bir gelişmesidir. Nöronların inaktif hale geldiği ve eğitim sırasında öğrenmeyi durdurduğu "ölen ReLU" sorununu çözmek için tasarlanmıştır. Negatif girdi değerleri için küçük, sıfır olmayan bir eğim uygulayarak, Leaky ReLU, nöronların her zaman bir gradyana sahip olmasını sağlar ve bu da derin öğrenme (DL) modellerinde daha kararlı ve tutarlı bir eğitime olanak tanır. Bu basit değişiklik, model performansını ve eğitim dinamiklerini iyileştirmeye yardımcı olarak çeşitli mimarilerde etkili olduğunu kanıtlamıştır.

Leaky ReLU, Ölen Nöron Problemini Nasıl Çözer

Leaky ReLU'nun arkasındaki temel motivasyon, ölen nöron sorununu çözmektir. Standart bir ReLU fonksiyonunda, bir nörona gelen herhangi bir negatif girdi sıfır çıktısıyla sonuçlanır. Bir nöron sürekli olarak negatif girdi alırsa, her zaman sıfır çıktısı verecektir. Sonuç olarak, geri yayılım sırasında bu nörondan akan gradyan da sıfır olacaktır. Bu, nöronun ağırlıklarının artık güncellenmediği ve öğrenme sürecine etkin bir şekilde katılmayı bıraktığı anlamına gelir - "ölür".

Leaky ReLU, birim aktif olmadığında küçük, pozitif bir gradyana izin vererek bu sorunu çözer. Negatif girdiler için sıfır çıktı vermek yerine, küçük bir sabitle ("sızıntı") çarpılan bir değer verir. Bu, nöronun asla sıfır gradyana sahip olmamasını sağlayarak iyileşmesine ve öğrenmeye devam etmesine olanak tanır. Bu yaklaşım ilk olarak Evrişimsel Ağda Düzeltilmiş Aktivasyonların Ampirik Değerlendirmesi makalesinde ayrıntılı olarak açıklanmıştır.

Gerçek Dünya Uygulamaları

Leaky ReLU'nun daha kararlı eğitimi teşvik etme yeteneği, onu yapay zeka (AI)'nın çeşitli alanlarında değerli kılmıştır.

  • Üretken Çekişmeli Ağlar (GAN'lar): Leaky ReLU, Üretken Çekişmeli Ağlar'ın (GAN'lar) ayrımcı ağlarında sıklıkla kullanılır. GAN'lar, bir üretici ve bir ayrımcı arasında hassas bir denge içerir ve standart ReLU'dan gelen kaybolan gradyanlar bu eğitimi istikrarsızlaştırabilir. Google'ın GAN'lar hakkındaki Geliştirici blogu gibi kaynaklarda açıklandığı gibi, Leaky ReLU'nun tutarlı, sıfır olmayan gradyanları, her iki ağın da daha etkili bir şekilde öğrenmesine yardımcı olarak daha yüksek kaliteli sentetik verilerin oluşturulmasına yol açar.
  • Nesne Algılama Modelleri: YOLO'nun bazı versiyonları da dahil olmak üzere, erken dönem ancak etkili nesne algılama modelleri Leaky ReLU kullanmıştır. Derin evrişimli sinir ağlarında (CNN'ler), ölen nöronlar modelin önemli özellikleri öğrenmesini engelleyebilir. Leaky ReLU, tüm nöronların aktif kalmasını sağlayarak modelin COCO gibi çeşitli veri kümelerindeki nesneleri algılama yeteneğini geliştirmeye yardımcı olur. Ultralytics YOLO11 gibi birçok modern mimari artık daha gelişmiş fonksiyonlar kullanırken, Leaky ReLU temellerini oluşturmada önemli bir bileşendi.

Leaky ReLU ve Diğer Aktivasyon Fonksiyonları

Leaky ReLU, orijinal ReLU'yu geliştirmek için tasarlanmış çeşitli aktivasyon fonksiyonlarından biridir. Diğerleriyle ilişkisini anlamak, belirli bir görev için doğru fonksiyonu seçmeye yardımcı olur.

  • ReLU: Temel fark, ReLU'nun negatif girdiler için tamamen etkin olmaması, Leaky ReLU'nun ise küçük, sabit bir gradyanı korumasıdır.
  • SiLU ve GELU: SiLU (Sigmoid Doğrusal Birim) ve GELU (Gauss Hata Doğrusal Birim) gibi daha yeni aktivasyon fonksiyonları, bazen daha iyi doğruluğa yol açabilen pürüzsüz, monoton olmayan eğriler sağlar. Bunlar genellikle Transformatörler gibi gelişmiş modellerde bulunur. Ancak, Leaky ReLU'nun basit doğrusal işleminden daha karmaşıktırlar. Ayrıntılı bir aktivasyon fonksiyonlarına genel bakış daha fazla karşılaştırma sağlayabilir.
  • Parametrik ReLU (PReLU): PReLU, sızıntı katsayısının eğitim sırasında öğrenildiği ve onu sabit bir hiperparametre yerine modelin bir parametresi yaptığı bir varyanttır.

Aktivasyon fonksiyonunun en uygun seçimi genellikle belirli mimariye, veri kümesine (Ultralytics Veri Kümelerinde bulunanlar gibi) ve hiperparametre ayarlamasından elde edilen sonuçlara bağlıdır. Leaky ReLU, basitliği, düşük hesaplama yükü ve nöron ölümünü önlemedeki etkinliği nedeniyle güçlü bir seçim olmaya devam etmektedir.

Derin öğrenme alanındaki PyTorch ve TensorFlow gibi büyük framework'ler, PyTorch'un LeakyReLU'su ve TensorFlow'un LeakyReLU'su için resmi belgelerinde görüleceği üzere basit uygulamalar sunar. Bu erişilebilirlik, geliştiricilerin Ultralytics HUB gibi platformları kullanarak modellerine kolayca deney yapmalarını ve entegre etmelerini sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı