YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Prompt Ayarlama

Prompt Tuning ile büyük dil modellerini verimli bir şekilde optimize edin; maliyetleri düşürün, kaynaklardan tasarruf edin ve göreve özel uyarlanabilirliği zahmetsizce elde edin.

Prompt Tuning, Büyük Dil Modelleri (LLM'ler) gibi büyük, önceden eğitilmiş modelleri, orijinal modelin ağırlıklarını değiştirmeden yeni görevlere uyarlamak için güçlü ve verimli bir tekniktir. Bu, temel modeldeki milyarlarca parametreyi donduran ve bunun yerine göreve özgü küçük bir "soft prompt" kümesini öğrenen bir Parametre Verimli İnce Ayar (PEFT) biçimidir. Bu soft prompt'lar, insan tarafından okunabilir metinler değildir, ancak dondurulmuş modeli belirli bir alt görev için istenen çıktıyı üretmeye yönlendiren, girişe eklenen öğrenilebilir gömme (embedding)lerdir. Bu yaklaşım, orijinal Google AI araştırma makalesinde belgelendiği gibi, göreve özgü uyarlama için gereken hesaplama maliyetini ve depolama alanını önemli ölçüde azaltır.

Temel fikir, milyarlarca parametreye sahip olabilecek tüm modeli yeniden eğitmek veya ince ayar yapmak yerine, görev başına yalnızca birkaç bin veya milyon ekstra parametreyi (yumuşak istem) eğitmektir. Bu, tam model kopyaları oluşturmadan, her biri farklı bir göreve göre uyarlanmış, tek bir önceden eğitilmiş model için birçok özel "istem modülü" oluşturmayı mümkün kılar. Bu yöntem aynı zamanda, bir modelin yeni bir görev üzerinde eğitildiğinde önceden öğrenilmiş bilgileri unuttuğu felaket unutmasını azaltmaya yardımcı olur.

Gerçek Dünya Uygulamaları

Prompt Tuning, güçlü temel modellerin çok çeşitli özel uygulamalar için özelleştirilmesini sağlar.

  • Özelleştirilmiş Duygu Analizi: Bir şirket, belirli ürünleri için müşteri geri bildirimlerini analiz etmek istiyor. Genel amaçlı bir duygu analizi modeli, sektöre özgü jargonu anlamayabilir. Şirket, istem ayarlama (prompt tuning) kullanarak, kendi etiketlenmiş müşteri incelemeleri üzerinde küçük bir dizi soft prompt'u eğiterek BERT gibi büyük bir modeli uyarlayabilir. Ortaya çıkan model, tam model eğitimi gerektirmeden geri bildirimleri doğru bir şekilde sınıflandırabilir ve daha incelikli içgörüler sağlayabilir.
  • Uzmanlaşmış Tıbbi Sohbet Robotları: Bir sağlık kuruluşu, hastaların belirli tıbbi durumlarla ilgili sorularını yanıtlayan bir sohbet robotu oluşturmayı hedefliyor. Büyük bir tıbbi LLM'yi tam olarak eğitmek, kaynak yoğun bir işlemdir. Bunun yerine, GPT-4 gibi önceden eğitilmiş bir model üzerinde istem ayarlaması kullanabilirler. Özel olarak hazırlanmış bir tıbbi veri kümesi üzerinde göreve özgü bir istemi eğiterek, sohbet robotu bu alan için doğru, bağlam duyarlı yanıtlar sağlamayı öğrenir ve bu da sağlık hizmetlerinde güçlü yapay zekayı daha erişilebilir hale getirir.

Prompt Ayarlama ve İlgili Kavramlar

İstem Ayarlamayı (Prompt Tuning) benzer tekniklerden ayırmak önemlidir:

İstem Ayarlama (Prompt Tuning) ağırlıklı olarak Doğal Dil İşleme (DDİ)'de LLM'lere uygulanırken, verimli uyarlama temel ilkesi Yapay Zeka (YZ)'nın tamamında geçerlidir. Bilgisayarlı Görü (BG)'de, Ultralytics YOLO gibi modellerin özel veri kümelerinde tam ince ayarı nesne tespiti gibi görevler için yaygın olsa da, PEFT yöntemleri, özellikle büyük çok modlu modeller için giderek daha fazla ilgi görmektedir. Ultralytics HUB gibi platformlar, çeşitli yapay zeka modellerini eğitme ve dağıtma sürecini kolaylaştırır ve gelecekte bu tür verimli teknikleri potansiyel olarak içerir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı