Prompt Tuning ile büyük dil modellerini verimli bir şekilde optimize edin; maliyetleri düşürün, kaynaklardan tasarruf edin ve göreve özel uyarlanabilirliği zahmetsizce elde edin.
Prompt Tuning, Büyük Dil Modelleri (LLM'ler) gibi büyük, önceden eğitilmiş modelleri, orijinal modelin ağırlıklarını değiştirmeden yeni görevlere uyarlamak için güçlü ve verimli bir tekniktir. Bu, temel modeldeki milyarlarca parametreyi donduran ve bunun yerine göreve özgü küçük bir "soft prompt" kümesini öğrenen bir Parametre Verimli İnce Ayar (PEFT) biçimidir. Bu soft prompt'lar, insan tarafından okunabilir metinler değildir, ancak dondurulmuş modeli belirli bir alt görev için istenen çıktıyı üretmeye yönlendiren, girişe eklenen öğrenilebilir gömme (embedding)lerdir. Bu yaklaşım, orijinal Google AI araştırma makalesinde belgelendiği gibi, göreve özgü uyarlama için gereken hesaplama maliyetini ve depolama alanını önemli ölçüde azaltır.
Temel fikir, milyarlarca parametreye sahip olabilecek tüm modeli yeniden eğitmek veya ince ayar yapmak yerine, görev başına yalnızca birkaç bin veya milyon ekstra parametreyi (yumuşak istem) eğitmektir. Bu, tam model kopyaları oluşturmadan, her biri farklı bir göreve göre uyarlanmış, tek bir önceden eğitilmiş model için birçok özel "istem modülü" oluşturmayı mümkün kılar. Bu yöntem aynı zamanda, bir modelin yeni bir görev üzerinde eğitildiğinde önceden öğrenilmiş bilgileri unuttuğu felaket unutmasını azaltmaya yardımcı olur.
Prompt Tuning, güçlü temel modellerin çok çeşitli özel uygulamalar için özelleştirilmesini sağlar.
İstem Ayarlamayı (Prompt Tuning) benzer tekniklerden ayırmak önemlidir:
İstem Ayarlama (Prompt Tuning) ağırlıklı olarak Doğal Dil İşleme (DDİ)'de LLM'lere uygulanırken, verimli uyarlama temel ilkesi Yapay Zeka (YZ)'nın tamamında geçerlidir. Bilgisayarlı Görü (BG)'de, Ultralytics YOLO gibi modellerin özel veri kümelerinde tam ince ayarı nesne tespiti gibi görevler için yaygın olsa da, PEFT yöntemleri, özellikle büyük çok modlu modeller için giderek daha fazla ilgi görmektedir. Ultralytics HUB gibi platformlar, çeşitli yapay zeka modellerini eğitme ve dağıtma sürecini kolaylaştırır ve gelecekte bu tür verimli teknikleri potansiyel olarak içerir.