YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

SiLU (Sigmoid Doğrusal Birim)

SiLU (Swish) aktivasyon fonksiyonunun, nesne tespiti ve NLP gibi yapay zeka görevlerinde derin öğrenme performansını nasıl artırdığını keşfedin.

Yaygın olarak SiLU olarak bilinen Sigmoid Doğrusal Birimi, verimliliği ve performansı nedeniyle popülerlik kazanmış sinir ağlarında kullanılan bir aktivasyon fonksiyonudur. Sigmoid ve Düzeltilmiş Doğrusal Birim (ReLU) fonksiyonlarının özelliklerini zarif bir şekilde birleştiren, kendinden kapılı bir fonksiyondur. SiLU, orijinal olarak Swish olarak adlandırıldığı "Aktivasyon Fonksiyonları Arayışı" adlı makalede tanıtıldı. Düzgünlük ve monoton olmama gibi benzersiz özellikleri, derin modellerde genellikle ReLU gibi geleneksel aktivasyon fonksiyonlarından daha iyi performans göstermesini sağlayarak, doğruluğun artmasına ve model eğitimi sırasında daha hızlı yakınsamaya yol açar.

SiLU Nasıl Çalışır

SiLU, bir girdi değerinin sigmoid değeriyle çarpılmasıyla tanımlanır. Bu otomatik geçiş mekanizması, fonksiyonun pozitif girdiler için doğrusal olmaktan büyük negatif girdiler için sıfıra yakın olmaya sorunsuz bir şekilde geçiş yapmasını sağlar, bu da ağdaki bilgi akışını düzenlemeye yardımcı olur. SiLU'nun temel bir özelliği, monoton olmamasıdır; sıfıra doğru yükselmeden önce küçük negatif girdiler için sıfırın biraz altına düşebilir. Bu özelliğin, daha zengin bir gradyan ortamı yaratarak ve derin mimarilerde öğrenme sürecini yavaşlatabilen veya durdurabilen kaybolan gradyan sorununu önleyerek sinir ağının ifade gücünü geliştirdiğine inanılmaktadır. SiLU eğrisinin düzgünlüğü de önemli bir avantajdır, çünkü gradyan inişi gibi optimizasyon algoritmaları için düzgün bir gradyan sağlar.

SiLU'nun Diğer Aktivasyon Fonksiyonları ile Karşılaştırılması

SiLU, yaygın olarak kullanılan diğer aktivasyon fonksiyonlarına göre çeşitli avantajlar sunar ve bu da onu modern derin öğrenme (DL) mimarileri için zorlayıcı bir seçim haline getirir.

  • ReLU (Düzeltilmiş Doğrusal Birim): Sıfırda ani bir değişikliğe ve tüm negatif girdiler için sabit bir sıfır gradyana sahip olan ReLU'nun aksine, SiLU pürüzsüz, sürekli bir fonksiyondur. Bu pürüzsüzlük, geri yayılım sürecinde yardımcı olur. Ayrıca, SiLU, nöronların sürekli olarak negatif girdiler alması durumunda kalıcı olarak aktif hale geldiği "ölen ReLU" sorununu önler.
  • Leaky ReLU: Leaky ReLU da negatif girdiler için küçük, sıfır olmayan bir gradyan sağlayarak ölen nöron sorununu çözse de, SiLU'nun pürüzsüz, monoton olmayan eğrisi bazen çok derin ağlarda daha iyi genelleme ve optimizasyona yol açabilir.
  • Sigmoid: Sigmoid fonksiyonu, SiLU'nun temel bir bileşenidir, ancak uygulamaları önemli ölçüde farklılık gösterir. Sigmoid tipik olarak ikili sınıflandırma görevleri için çıktı katmanında veya RNN'lerde bir geçit mekanizması olarak kullanılır. Buna karşılık, SiLU gizli katmanlar için tasarlanmıştır ve evrişimli sinir ağlarında (CNN'ler) performansı artırdığı gösterilmiştir.
  • GELU (Gaussian Error Linear Unit): SiLU genellikle, özellikle Transformer modellerinde mükemmel performans gösteren başka bir düzgün aktivasyon fonksiyonu olan GELU ile karşılaştırılır. Her iki fonksiyon da benzer şekil ve performans özelliklerine sahiptir ve aralarındaki seçim genellikle hiperparametre ayarlamasından elde edilen ampirik sonuçlara bağlıdır.

Yapay Zeka ve Makine Öğrenmesindeki Uygulamalar

Verimlilik ve performans dengesi, SiLU'yu çeşitli son teknoloji modellerde popüler bir seçim haline getirmiştir.

  • Nesne Tespiti: Ultralytics YOLO sürümleri de dahil olmak üzere gelişmiş nesne tespiti modelleri, gizli katmanlarında SiLU kullanır. Örneğin, gerçek zamanlı algılamaya dayanan otonom araçlar gibi uygulamalarda SiLU, modelin sensör verilerinden karmaşık özellikleri daha etkili bir şekilde öğrenmesine yardımcı olarak yayaların, trafik işaretlerinin ve diğer araçların doğruluğunu artırır. Bu gelişmiş özellik öğrenimi, özellikle COCO gibi büyük ölçekli veri kümelerinde eğitim alırken güvenlik ve güvenilirlik için kritik öneme sahiptir.
  • Görüntü Sınıflandırma: SiLU, EfficientNet model ailesi gibi verimli ve güçlü sınıflandırma modellerinde önemli bir bileşendir. Tıbbi görüntü analizi gibi alanlarda, SiLU'nun gradyan akışını koruma yeteneği, modellerin ince dokuları ve desenleri öğrenmesine yardımcı olur. Bu, MRI taramalarından tümörleri sınıflandırmak veya göğüs röntgenlerinden hastalıkları tanımlamak gibi yüksek hassasiyetin çok önemli olduğu görevler için faydalıdır.

Uygulama

SiLU, başlıca derin öğrenme çerçevelerinde kolayca bulunur ve bu da onu yeni veya mevcut modellere dahil etmeyi kolaylaştırır.

Ultralytics HUB gibi platformlar, SiLU gibi gelişmiş bileşenleri kullanan modeller için model eğitimini ve çeşitli dağıtım seçeneklerini keşfetmeyi destekler. DeepLearning.AI gibi kuruluşlardan elde edilen sürekli araştırma ve kaynaklar, uygulayıcıların bu tür fonksiyonlardan etkili bir şekilde yararlanmasına yardımcı olur. Bir aktivasyon fonksiyonunun seçimi, etkili sinir ağı mimarileri tasarlamanın kritik bir parçası olmaya devam ediyor ve SiLU bu alanda önemli bir adımı temsil ediyor.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı