YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF)

İnsan Geri Bildiriminden Pekiştirmeli Öğrenme'nin (RLHF), modelleri daha güvenli, daha akıllı yapay zeka için insan değerleriyle uyumlu hale getirerek yapay zeka performansını nasıl iyileştirdiğini keşfedin.

İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF), yapay zeka (AI) modellerini karmaşık, öznel insan değerleriyle uyumlu hale getirmek için tasarlanmış gelişmiş bir makine öğrenimi tekniğidir. RLHF, önceden tanımlanmış bir ödül fonksiyonuna güvenmek yerine, yapay zekanın öğrenme sürecine rehberlik eden bir "ödül modeli" eğitmek için insan tercihlerini kullanır. Bu yaklaşım, "iyi" performansın tanımının nüanslı, öznel veya basit bir metrikle belirtilmesi zor olduğu görevler için özellikle etkilidir; örneğin, güvenli, yardımcı ve tutarlı diyalog oluşturma gibi.

RLHF Nasıl Çalışır?

RLHF süreci tipik olarak üç temel adım içerir:

  1. Bir Dil Modelini Önceden Eğitme: Geniş bir metin veri kümesi üzerinde önceden eğitilmiş temel bir büyük dil modeli (LLM) ile başlar. Bir temel model'e benzer olan bu başlangıç modeli, dil hakkında geniş bir anlayışa sahiptir, ancak henüz belirli bir stil veya görev için uzmanlaşmamıştır. Bu adım, isteğe bağlı olarak yüksek kaliteli bir veri kümesi üzerinde denetimli ince ayar ile takip edilebilir.
  2. Ödül Modeli Eğitimi: Bu, RLHF'nin özüdür. İnsan etiketleyicilere, önceden eğitilmiş model tarafından bir isteme yanıt olarak oluşturulan çeşitli çıktılar sunulur. Bu çıktıları, yardımseverlik, doğruluk ve güvenlik gibi kriterlere göre en iyiden en kötüye doğru sıralarlar. Bu tercih verileri daha sonra ayrı bir ödül modelini eğitmek için kullanılır. Ödül modeli, bir insanın hangi çıktıları tercih edeceğini tahmin etmeyi öğrenir ve insan yargısını etkili bir şekilde yakalar.
  3. Pekiştirmeli Öğrenme ile İnce Ayar: Önceden eğitilmiş model, pekiştirmeli öğrenme (RL) kullanılarak daha da ince ayarlanır. Bu aşamada, model (ajan olarak hareket ederek) çıktılar üretir ve ödül modeli her çıktı için bir "ödül" puanı sağlar. Genellikle Proximal Policy Optimization (PPO) gibi algoritmalarla yönetilen bu süreç, yapay zeka modelini, davranışını öğrenilmiş insan tercihleriyle uyumlu hale getirerek, ödülü en üst düzeye çıkaran yanıtlar oluşturmak için parametrelerini ayarlamaya teşvik eder. OpenAI ve DeepMind gibi kuruluşların öncü çalışmaları, etkinliğini göstermiştir.

Gerçek Dünya Uygulamaları

RLHF, modern yapay zeka sistemlerinin geliştirilmesinde etkili olmuştur.

  • Gelişmiş Sohbet Robotları: OpenAI'nin ChatGPT'si ve Anthropic'in Claude'u gibi önde gelen yapay zeka sohbet robotları, yanıtlarının yalnızca doğru değil, aynı zamanda zararsız, etik ve kullanıcı niyetiyle uyumlu olmasını sağlamak için RLHF kullanır. Bu, büyük ölçekli üretken yapay zekada yaygın bir sorun olan önyargılı veya zehirli içerik oluşturma gibi sorunları azaltmaya yardımcı olur.
  • Otonom Sürüş Tercihleri: Kendi kendine giden arabalar için yapay zeka geliştirirken, RLHF, şerit değişiklikleri sırasındaki konfor veya belirsiz durumlarda karar verme gibi simüle edilmiş davranışlar hakkında sürücülerden gelen geri bildirimleri dahil edebilir. Bu, yapay zekanın, bilgisayarlı görü gibi geleneksel görevleri tamamlayarak, insanların sezgisel ve güvenilir bulduğu sürüş stillerini öğrenmesine yardımcı olur. Bu görevler, Ultralytics YOLO gibi modeller tarafından gerçekleştirilen nesne algılama görevlerini içerir.

RLHF ve İlgili Kavramlar

RLHF'yi diğer yapay zeka öğrenme tekniklerinden ayırmak önemlidir.

  • Pekiştirmeli Öğrenme: Standart RL, geliştiricilerin istenen davranışı tanımlamak için manuel olarak bir ödül fonksiyonu tasarlamasını gerektirir. Bu, net puanları olan oyunlar için basittir, ancak karmaşık, gerçek dünya görevleri için zordur. RLHF, insan geri bildiriminden ödül fonksiyonunu öğrenerek bunu çözer ve bu da onu başarı için belirgin bir ölçütü olmayan problemler için uygun hale getirir.
  • Denetimli Öğrenme: Denetimli öğrenme, modelleri tek bir "doğru" cevabı olan veri kümeleri üzerinde eğitir. Bu yaklaşım, birden çok iyi cevabın olduğu yaratıcı veya öznel görevler için daha az etkilidir. RLHF'nin tercih sıralamalarını (örneğin, "A, B'den daha iyidir") kullanması, belirsizliği gidermesine ve incelikli davranışları öğrenmesine olanak tanır.

Zorluklar ve Gelecek Yönelimler

Gücüne rağmen, RLHF zorluklarla karşı karşıyadır. Yüksek kaliteli insan geri bildirimi toplamak pahalıdır ve etiketleyiciler çeşitli değilse veri kümesi önyargısı oluşturabilir. Ek olarak, AI, ödül modelini "oynamanın" yollarını keşfedebilir; bu, ödül korsanlığı olarak bilinen bir olgudur.

Gelecekteki araştırmalar, daha verimli geri bildirim yöntemlerini ve modeli yönlendirmek için yapay zeka tarafından oluşturulan ilkeleri kullanan Anayasal Yapay Zeka gibi alternatifleri araştırmaktadır. RLHF'yi uygulamak, birden fazla makine öğrenimi alanında uzmanlık gerektirir, ancak Hugging Face'in TRL kütüphanesi gibi araçlar bunu daha erişilebilir hale getirmektedir. Ultralytics HUB gibi platformlar, gelişmiş uyum görevleri ve sağlam Makine Öğrenimi Operasyonları (MLOps) için temel olan veri kümelerini yönetmek ve modelleri eğitmek için altyapı sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı