YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Aktivasyon Fonksiyonu

Sinir ağlarında aktivasyon fonksiyonlarının rolünü, türlerini ve yapay zeka ve makine öğrenimindeki gerçek dünya uygulamalarını keşfedin.

Bir aktivasyon fonksiyonu, bir sinir ağındaki (NN) bir nörona veya bir düğüme uygulanan matematiksel bir fonksiyondur. Birincil rolü, ağırlıklı girdilerine göre o nöronun çıktısını belirlemektir. Basit bir ifadeyle, bir nöronun "aktive" olup olmayacağına veya "ateşlenip ateşlenmeyeceğine" ve eğer öyleyse, sinyalinin bir sonraki katmana geçerken gücünün ne olması gerektiğine karar verir. Bu mekanizma, ağa doğrusal olmayanlık kazandırmak, verilerden karmaşık desenleri ve ilişkileri öğrenmesini sağlamak için çok önemlidir. Aktivasyon fonksiyonları olmadan, bir sinir ağı, kaç katmana sahip olursa olsun, basit bir doğrusal regresyon modeli gibi davranır ve karmaşık gerçek dünya problemlerini çözme yeteneğini ciddi şekilde sınırlar.

Aktivasyon Fonksiyonlarının Türleri

Her biri benzersiz özelliklere sahip birçok aktivasyon fonksiyonu türü vardır. Fonksiyon seçimi, bir modelin performansını ve eğitim verimliliğini önemli ölçüde etkileyebilir.

  • Sigmoid: Bu fonksiyon, herhangi bir giriş değerini 0 ile 1 arasındaki bir aralığa eşler. Tarihsel olarak popülerdi, ancak kaybolan gradyan sorunu nedeniyle derin öğrenme modellerinin gizli katmanlarında artık daha az yaygındır, bu da eğitimi yavaşlatabilir. İkili sınıflandırma görevleri için hala çıktı katmanında kullanılmaktadır.
  • Tanh (Hiperbolik Tanjant): Sigmoid'e benzer, ancak girişleri -1 ile 1 arasındaki bir aralığa eşler. Çıktısı sıfır merkezli olduğundan, genellikle modellerin Sigmoid'den daha hızlı yakınsamasına yardımcı olur. Tekrarlayan Sinir Ağları'nda (RNN'ler) sıklıkla kullanılıyordu. Uygulamasını PyTorch ve TensorFlow gibi çerçevelerde bulabilirsiniz.
  • ReLU (Düzeltilmiş Doğrusal Birim): Bu, özellikle Evrişimsel Sinir Ağları'nda (CNN'ler) modern sinir ağlarında en yaygın kullanılan aktivasyon fonksiyonudur. Giriş pozitifse doğrudan çıktısını verir, aksi takdirde sıfır verir. Basitliği ve verimliliği, kaybolan gradyan sorununu hafifletmeye yardımcı olarak daha hızlı eğitime yol açar.
  • Sızıntılı ReLU (Leaky ReLU): Giriş negatif olduğunda küçük, sıfır olmayan bir gradyana izin veren bir ReLU varyantıdır. Bu, nöronların aktif olmayan hale geldiği ve öğrenmeyi durdurduğu "ölen ReLU" sorununu çözmek için tasarlanmıştır.
  • SiLU (Sigmoid Doğrusal Birim): Ultralytics YOLO gibi son teknoloji modellerde popülerlik kazanmış düzgün, monoton olmayan bir fonksiyon. Doğrusallık ve doğrusal olmama özelliklerini birleştirerek derin modellerde genellikle ReLU'dan daha iyi performans gösterir.
  • Softmax: Çok sınıflı görüntü sınıflandırma görevleri için yalnızca bir sinir ağının çıktı katmanında kullanılır. Ham puanlardan (logitler) oluşan bir vektörü, her değerin girdinin belirli bir sınıfa ait olma olasılığını temsil ettiği bir olasılık dağılımına dönüştürür.

Yapay Zeka ve Makine Öğrenmesinde Uygulamalar

Aktivasyon fonksiyonları, sinir ağlarına dayanan neredeyse her yapay zeka uygulaması için temeldir.

  • Bilgisayarlı Görü: Nesne tespiti gibi görevlerde, CNN'ler görsel bilgileri işlemek için gizli katmanlarında ReLU ve SiLU gibi fonksiyonlar kullanır. Örneğin, bir otonom aracın algılama sistemi, kamera verilerinden yayaları, diğer arabaları ve trafik işaretlerini gerçek zamanlı olarak tanımlamak için bu fonksiyonları kullanır.
  • Doğal Dil İşleme (DDİ): Makine çevirisinde, LSTM'ler, ağdaki bilgi akışını kontrol etmek için kapı mekanizmalarında Sigmoid ve Tanh fonksiyonlarını kullanarak bir cümlenin önceki bölümlerinden bağlamı hatırlamaya yardımcı olur. Kapsamlı bir genel bakışa Christopher Olah'ın "LSTM'leri Anlamak" adlı eserinden ulaşılabilir.

İlgili Terimlerle Karşılaştırma

Aktivasyon fonksiyonlarını (activation functions) sinir ağlarındaki diğer temel kavramlardan ayırmak önemlidir:

  • Kayıp Fonksiyonları: Bir kayıp fonksiyonu, modelin tahminleri ile gerçek hedef değerler arasındaki farkı (yani "hatayı") ölçer. Amacı, modelin ne kadar iyi performans gösterdiğine dair bir ölçü sağlayarak eğitim sürecine rehberlik etmektir. Aktivasyon fonksiyonları ileri geçiş sırasında bir nöronun çıktısını belirlerken, kayıp fonksiyonları geri yayılım sırasında ağırlıkları güncellemek için kullanılan hatayı hesaplamak üzere geçişin sonunda genel model çıktısını değerlendirir.
  • Optimizasyon Algoritmaları: Bu algoritmalar (örn. Adam Optimizasyon Algoritması, Stokastik Gradyan İnişi (SGD)), modelin ağırlıklarının hesaplanan kayba bağlı olarak nasıl güncellendiğini tanımlar. Parametreleri ayarlamak ve hatayı en aza indirmek için kayıp fonksiyonundan elde edilen gradyanları kullanırlar. Aktivasyon fonksiyonları bu gradyanların hesaplanmasını etkiler ancak optimizasyon yönteminin kendisi değildir. Google Developers'ın optimizasyon algoritmalarına genel bakışına bakın.
  • Normalleştirme Teknikleri: Yığın Normalleştirme gibi yöntemler, bir katmana gelen girdileri normalleştirerek eğitim sürecini stabilize etmeyi ve hızlandırmayı amaçlar. Normalleştirme, aktivasyon fonksiyonu uygulanmadan önce gerçekleşir ve ağ boyunca tutarlı bir veri dağılımı sağlamaya yardımcı olur. Orijinal Yığın Normalleştirme makalesinde daha fazla bilgi edinebilirsiniz.

Aktivasyon fonksiyonlarını anlamak, etkili Makine Öğrenimi (ML) modelleri tasarlamak, eğitmek ve optimize etmek için çok önemlidir. Doğru seçim, model performansını ve eğitim dinamiklerini önemli ölçüde etkileyebilir. Ultralytics HUB gibi araçları kullanarak farklı modelleri ve bileşenlerini keşfedebilir, yapay zeka modelleri oluşturmayı ve dağıtmayı kolaylaştırabilirsiniz.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı