Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Gradyan İnişi

Gradient Descent'in Ultralytics YOLO gibi yapay zeka modellerini nasıl optimize ettiğini ve sağlık hizmetlerinden sürücüsüz arabalara kadar çeşitli görevlerde doğru tahminler yapılmasını sağladığını keşfedin.

Gradyan İnişi, bir fonksiyonu en küçüklemek için kullanılan temel bir iteratif algoritmadır. en dik iniş. Bu bağlamda makine öğrenimi (ML) ve derin öğrenme (DL), yol gösterici olarak hareket eder modelleri doğru tahminler yapmaları için eğiten bir mekanizmadır. Öncelikli amaç, en uygun kümeyi bulmaktır. minimize eden model ağırlıkları farkı temsil eden kayıp fonksiyonu Modelin tahminleri ile gerçek hedef değerler arasındaki fark. Bu süreci bir doğa yürüyüşçüsünün Yoğun siste bir vadinin dibini bulmak; aşağıya doğru en dik eğim yönünde tekrar tekrar adımlar atarak, yürüyüşçü sonunda en alçak noktaya ulaşır. Bu temel konsept daha sonra Google Machine Learning Crash Course.

Gradyan İnişi (Gradient Descent) Nasıl Çalışır?

Gradyan İnişinin temel mekaniği, kaybın kısmi türevlerinin bir vektörü olan gradyanın hesaplanmasını içerir fonksiyonunu her bir parametreye göre hesaplar. Bu hesaplama verimli bir şekilde geri yayılım algoritması. Gradyan bir kez belirlendiğinde, model gradyanın ters yönünde bir adım atarak parametrelerini günceller. Boyutları olarak bilinen çok önemli bir parametre tarafından kontrol edilir. öğrenme oranı. Öğrenme oranı çok yüksekse algoritması minimum değeri aşabilir; çok düşükse, eğitim aşırı uzun sürebilir. Bu döngü veri kümesi boyunca epok adı verilen birçok geçişte tekrar eder, kayıp dengelenene kadar. Matematiksel bir bakış açısı için, Khan Academy gradyan inişi hakkında bir ders sunuyor Bu da işin içindeki hesapları bozuyor.

Degrade İniş Varyantları

Hesaplama verimliliği ve yakınsama hızını dengelemek için algoritmanın farklı varyasyonları mevcuttur:

  • Toplu Gradyan İnişi: Tüm gradyanı kullanarak gradyanı hesaplar her güncelleme için eğitim verileri. İstikrarlı sunar ancak büyük veri kümeleri için son derece yavaş ve bellek yoğun olabilir.
  • Stokastik Gradyan İnişiSGD): Ağırlıkları her seferinde tek bir rastgele örnek kullanarak günceller. Bu, yerel minimumlardan kaçmaya yardımcı olabilecek gürültüyü ortaya çıkarır ancak dalgalı bir kayıp eğrisine neden olur. Bu SGD ile ilgili Scikit-Learn belgeleri teknik bilgiler sağlar bu yaklaşımla ilgili ayrıntılar.
  • Mini-Yığın Gradyan İnişi: Küçük veri alt kümelerini işler veya partiler arasında bir denge sağlayarak toplu gradyan inişi ve SGD'nin hızı. Bu, aşağıdaki gibi modern çerçevelerdeki standart yaklaşımdır PyTorch ve TensorFlow.

İşte bir optimize edicinin eğitim için nasıl yapılandırılacağına dair kısa bir örnek Ultralytics YOLO11 Model:

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model using the SGD optimizer with a specific learning rate
# The 'optimizer' argument allows you to select the gradient descent variant
results = model.train(data="coco8.yaml", epochs=50, optimizer="SGD", lr0=0.01)

Gerçek Dünya Uygulamaları

Gradient Descent, birçok dönüştürücü teknolojinin arkasındaki motordur. Sağlık ve endüstriyel uygulamalarda yapay zeka.

  • Tıbbi Görüntü Analizi: Gibi görevlerde tümör tespiti, Gradyan İnişi, hatayı en aza indirmek için bir Evrişimsel Sinir Ağının (CNN) ağırlıklarını yinelemeli olarak ayarlar Tahmin edilen segmentasyon maskeleri ile radyoloğun temel gerçeği arasında. Bu, yüksek hassasiyet sağlar tıbbi görüntü analizi.
  • Otonom Sürüş: Kendi kendine giden arabalar yayaları tanımlamak için nesne algılama modelleri, araçlar ve trafik sinyalleri. Eğitim sırasında optimize edici, aşağıdakiler için regresyon kaybını en aza indirir sınırlayıcı kutu koordinatları, aracın nesneleri santimetre düzeyinde doğrulukla konumlandırır. Waymo gibi sektör liderleri yolcu güvenliğini sağlamak için bu gelişmiş optimizasyon tekniklerini kullanmaktadır.

Gradyan İnişi ve İlgili Kavramlar

Gradient Descent'i tam olarak anlamak için ilgili terimlerden ayırt edilmesi gerekir. Bir yandan Geri yayılım gradyanları hesaplar ("yönü" belirler), Gradyan İnişi ise ve optimizasyon algoritması o aslında parametreleri günceller ("adım" atarak). Ek olarak, standart Gradyan İnişi tipik olarak gibi uyarlanabilir algoritmalar sabit bir öğrenme oranı kullanır. Adam iyileştirici öğrenmeyi ayarlayın oranını her parametre için dinamik olarak ayarlayarak, genellikle orijinalinde açıklandığı gibi daha hızlı yakınsamaya yol açar. Adam araştırma makalesi. Bu gibi zorluklar kaybolan gradyan problemi standart Çok derin ağlarda Gradient Descent, aşağıdaki gibi mimari çözümler gerektirir Toplu Normalizasyon veya artık bağlantılar. Bu optimizasyon zorluklarına ilişkin kapsamlı genel bakışlar şu adreste bulunabilir Sebastian Ruder'in blogu.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın