Sözlük

Softmax

Softmax'in yapay zekada sınıflandırma görevleri için puanları olasılıklara nasıl dönüştürdüğünü, görüntü tanıma ve NLP başarısını nasıl desteklediğini keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Softmax, özellikle çok sınıflı sınıflandırma problemleri için sinir ağlarının (NN'ler) çıkış katmanında yaygın olarak kullanılan önemli bir aktivasyon fonksiyonudur. Birincil rolü, bir önceki katman tarafından üretilen ham puanlar vektörünü (genellikle logit olarak adlandırılır) birden fazla potansiyel sınıf üzerinde bir olasılık dağılımına dönüştürmektir. Her bir çıktı değeri, girdinin belirli bir sınıfa ait olma olasılığını temsil eder ve daha da önemlisi, bu olasılıkların toplamı 1'dir, bu da çıktıyı birbirini dışlayan sonuçlar için güven seviyeleri olarak kolayca yorumlanabilir hale getirir.

Softmax Nasıl Çalışır?

Kavramsal olarak, Softmax işlevi bir sinir ağı katmanından ham çıktı puanlarını alır ve bunları dönüştürür. Bunu ilk olarak her skoru üslendirerek yapar, bu da tüm değerleri pozitif yapar ve daha büyük skorları daha belirgin bir şekilde vurgular. Ardından, her birini tüm üslendirilmiş puanların toplamına bölerek bu üslendirilmiş puanları normalleştirir. Bu normalleştirme adımı, elde edilen değerlerin 0 ile 1 arasında olmasını ve topluca 1'e eşit olmasını sağlayarak farklı sınıflar arasında etkili bir olasılık dağılımı oluşturur. En yüksek olasılık değerine karşılık gelen sınıf tipik olarak modelin nihai tahmini olarak seçilir. Bu süreç, sınıflandırma görevleriyle ilgilenen derin öğrenme (DL) modellerinde temeldir.

Temel Özellikler

  • Olasılık Dağılımı: Çıktılar her sınıf için olasılıkları temsil eder ve her zaman 1 ile toplanır.
  • Çoklu Sınıf Odağı: Bir girdinin yalnızca birkaç olası sınıftan birine ait olabileceği senaryolar için özel olarak tasarlanmıştır (birbirini dışlayan).
  • Çıktı Yorumlama: Modelin çıktısını sezgisel hale getirir ve her sınıf için güven düzeyini temsil eder.
  • Farklılaştırılabilirlik: Pürüzsüz ve türevlenebilir olması, model eğitimi sırasında gradyan inişi gibi gradyan tabanlı optimizasyon algoritmalarıyla etkili bir şekilde kullanılmasına olanak tanır.

Softmax ve İlgili Aktivasyon Fonksiyonları

Softmax'ı diğer aktivasyon fonksiyonlarından ayırmak önemlidir:

  • Sigmoid: Sigmoid de 0 ile 1 arasında değerler verirken, tipik olarak ikili sınıflandırma (bir çıkış nöronu) veya çok etiketli sınıflandırma (her çıkışın bağımsız bir olasılığı temsil ettiği ve toplamın 1'e eşit olması gerekmeyen çoklu çıkış nöronları) için kullanılır. Softmax, sınıflar birbirini dışladığında kullanılır. Daha fazla ayrıntı Stanford CS231n notları gibi kaynaklarda bulunabilir.
  • ReLU (Doğrultulmuş Doğrusal Birim): ReLU ve Sızdıran Re LU veya SiLU gibi varyantları, doğrusal olmayanlığı tanıtmak için öncelikle sinir ağlarının gizli katmanlarında kullanılır. Son sınıflandırma katmanı için uygun olasılık benzeri çıktılar üretmezler. DeepLearning.AI, sinir ağlarındaki aktivasyon fonksiyonlarını açıklayan kurslar sunmaktadır.

Yapay Zeka ve Makine Öğrenimi Uygulamaları

Softmax, çeşitli Yapay Zeka ve Makine Öğrenimi (ML) alanlarında yaygın olarak kullanılmaktadır:

Dikkate Alınması Gerekenler

Güçlü olmasına rağmen Softmax çok büyük girdi puanlarına karşı hassas olabilir ve potansiyel olarak sayısal kararsızlığa (taşma veya düşük taşma) yol açabilir. Gibi modern derin öğrenme çerçeveleri PyTorch ve TensorFlow Bu sorunları hafifletmek için Softmax'ın sayısal olarak kararlı sürümlerini uygulayın. Davranışını anlamak, genellikle deneyleri ve dağıtımları yönetmek için Ultralytics HUB gibi platformlar tarafından kolaylaştırılan etkili model eğitimi ve yorumlaması için çok önemlidir.

Tümünü okuyun