Sözlük

Transfer Öğrenimi

Zaman kazanmak, yapay zeka performansını artırmak ve önceden eğitilmiş modelleri kullanarak sınırlı veriyle yeni görevlerin üstesinden gelmek için aktarmalı öğrenmenin gücünü ortaya çıkarın.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Transfer öğrenimi, belirli bir görev için geliştirilen bir modelin ikinci, ilgili bir görevdeki bir model için başlangıç noktası olarak yeniden kullanıldığı bir makine öğrenimi (ML) tekniğidir. Önemli miktarda veri ve hesaplama kaynağı gerektiren sıfırdan bir model oluşturmak yerine transfer öğrenimi, hedef görevdeki öğrenmeyi iyileştirmek için kaynak görevden öğrenilen bilgiden (özellikler, kalıplar ve ağırlıklar) yararlanır. Bu yaklaşım, özellikle hedef görevin sınırlı etiketli veriye sahip olduğu durumlarda faydalıdır, eğitim sürecini önemli ölçüde hızlandırır ve genellikle yalnızca hedef veri kümesi üzerinde eğitime kıyasla daha iyi performans sağlar.

Transfer Öğrenimi Nasıl Çalışır?

Transfer öğrenmenin arkasındaki temel fikir, görüntü görevleri için ImageNet veya Doğal Dil İşleme (NLP) için devasa bir metin külliyatı gibi büyük ve genel bir veri kümesi üzerinde eğitilen bir modelin, diğer birçok ilgili görev için yararlı olan genel özellikleri öğrenmesidir. Örneğin, bilgisayarla görmede (CV), bir Evrişimsel Sinir Ağının (CNN) ilk katmanları, çeşitli görüntü tanıma problemlerinde uygulanabilen temel görsel unsurlar olan kenarları, dokuları ve basit şekilleri tespit etmeyi öğrenebilir.

Transfer öğrenimini uygularken genellikle önceden eğitilmiş bir modelle başlarsınız. Kaynak ve hedef görevler arasındaki benzerliğe ve hedef veri kümesinin boyutuna bağlı olarak, şunları yapabilirsiniz:

  1. Önceden Eğitilmiş Modeli Özellik Çıkarıcı olarak kullanın: İlk katmanların (o murga) ağırlıklarını dondurun ve yalnızca son sınıflandırma veya algılama katmanlarını yeni veri kümesi üzerinde eğitin. Bu, hedef veri kümesi küçük olduğunda yaygındır. YOLOv5 'in katmanları dondurarak kullanılması buna bir örnektir.
  2. Önceden Eğitilmiş Modelde İnce Ayar Yapın: Önceden eğitilmiş katmanların bir kısmını veya tamamını çözün ve tipik olarak daha düşük bir öğrenme oranıyla yeni veri kümesi üzerinde eğitmeye devam edin. Bu, modelin öğrenilen özellikleri hedef görevin nüanslarına daha spesifik olarak uyarlamasını sağlar. Hedef veri kümesi daha büyük olduğunda bu yaygın bir stratejidir. İnce ayar genellikle belirli bir transfer öğrenme türü olarak kabul edilir.

Transfer Öğrenimi ve İlgili Kavramlar

  • İnce ayar: Birbiriyle yakından ilişkili olsa ve bazı bağlamlarda sıklıkla birbirinin yerine kullanılsa da, ince ayar özellikle yeni bir görev üzerinde önceden eğitilmiş bir modelin ağırlıklarının dondurulmaması ve daha fazla eğitilmesi sürecini ifade eder. Bu, daha geniş bir strateji olan transfer öğrenme kapsamında kullanılan yaygın bir yöntemdir.
  • Sıfırdan Eğitim: Bu, model ağırlıklarının rastgele başlatılmasını ve tüm modelin yalnızca hedef veri kümesi üzerinde eğitilmesini içerir. Transfer öğrenmenin azaltmayı amaçladığı büyük miktarda veri ve hesaplama gücü gerektirir.
  • Sıfır Atışlı Öğrenme ve Birkaç Atışlı Öğrenme: Bu teknikler, modellerin hedef sınıflardan çok az örnekle veya hiç örnek olmadan görevleri yerine getirmesini sağlamayı amaçlar ve genellikle ön eğitim sırasında öğrenilen bilgileri standart aktarımlı öğrenme veya ince ayardan daha karmaşık şekillerde kullanır. CLIP gibi modeller bu tür senaryolarda kullanılan örneklerdir.

Gerçek Dünya Uygulamaları

Transfer öğrenimi çeşitli alanlarda yaygın olarak uygulanmaktadır:

  • Bilgisayarla Görme:
  • Doğal Dil İşleme (NLP):
    • Duygu Analizi: Belirli metin türlerinin (ör. ürün incelemeleri, sosyal medya gönderileri) duygularını sınıflandırmak için çok miktarda metin verisi üzerinde önceden eğitilmiş BERT veya GPT gibi büyük dil modellerine ince ayar yapılması. Hugging Face Transformers, bu tür önceden eğitilmiş birçok model sağlar.
    • Adlandırılmış Varlık Tanıma (NER): Alana özgü metinlerdeki (örneğin, yasal belgeler, tıbbi kayıtlar) belirli varlıkları (isimler, konumlar, kuruluşlar gibi) tanımlamak için önceden eğitilmiş dil modellerinin uyarlanması.
    • Sohbet robotları: Belirli alanlardaki kullanıcı sorgularını anlayabilen ve yanıtlayabilen konuşma aracıları oluşturmak için önceden eğitilmiş dil modellerini temel olarak kullanmak.

Araçlar ve Çerçeveler

Ultralytics HUB gibi platformlar, önceden eğitilmiş modeller sağlayarak transfer öğrenimini uygulama sürecini basitleştirir (örneğin Ultralytics YOLOv8 ve YOLO11) ve kullanıcıya özel veri kümeleri üzerinde kolay özel eğitim için araçlar. Gibi çerçeveler PyTorch ve TensorFlow ayrıca transfer öğrenimi iş akışlarını uygulamak için kapsamlı destek ve eğitimler sunar. Daha derin bir teorik anlayış için, Stanford CS231n transfer öğrenmeye genel bakış gibi kaynaklar veya"A Survey on Deep Transfer Learning" gibi akademik anketler değerli bilgiler sağlar.

Tümünü okuyun