Sözlük

Anayasal Yapay Zeka

Anayasal YZ'nin, modelleri önceden tanımlanmış ilkeler ve insani değerlerle uyumlu hale getirerek etik, güvenli ve tarafsız YZ çıktılarını nasıl sağladığını keşfedin.

Anayasal Yapay Zeka (CAI), Anthropic tarafından yapay zeka modellerini, özellikle de Büyük Dil Modellerini (LLM'ler) "anayasa" olarak bilinen belirli bir dizi kural veya ilkeye uyacak şekilde eğitmek için geliştirilen bir yöntemdir. CAI'nin birincil amacı, YZ sistemlerini kapsamlı insan geri bildirimi gerektirmeden yararlı, zararsız ve daha kontrol edilebilir hale getirmektir. İnsanların sürekli olarak zararlı çıktıları etiketlemesi yerine, YZ kendi anayasasındaki yol gösterici ilkelere dayanarak kendi tepkilerini eleştirmeyi ve gözden geçirmeyi öğrenir. Bu yaklaşım, toksik içerik üretimini önlemek ve algoritmik önyargıyı azaltmak gibi YZ etiğindeki temel zorlukların ele alınmasına yardımcı olur.

Anayasal Yapay Zeka Nasıl Çalışır?

CAI eğitim süreci tipik olarak iki ana aşamadan oluşur:

  1. Denetimli Öğrenme Aşaması: Başlangıçta, bir temel modelden yanıtlar üretmesi istenir. Daha sonra aynı modelden kendi yanıtlarını anayasaya göre eleştirmesi ve ilkeleriyle daha uyumlu olacak şekilde yeniden yazması istenir. Böylece anayasayla uyumlu, geliştirilmiş örneklerden oluşan yeni bir veri kümesi oluşturulur. Bu öz eleştiri mekanizması, basit bir kurallar listesi olabilen veya BM İnsan Hakları Beyannamesi gibi karmaşık kaynaklardan yararlanabilen bir anayasa tarafından yönlendirilir.
  2. Takviyeli Öğrenme Aşaması: Model daha sonra Takviyeli Öğrenme (RL) kullanılarak hassas bir şekilde ayarlanır. Bu aşamada, YZ yanıt çiftleri üretir ve bir tercih modeli (ilk aşamadaki özeleştirilmiş veriler üzerinde eğitilmiş) anayasaya en uygun olanı seçer. Bu süreç, YZ'ye temel ilkeleriyle tutarlı çıktıları içsel olarak tercih etmeyi öğretir.

CAI'nin gerçek dünyadaki önemli bir örneği, Anthropic'in yapay zeka asistanı Claude'da uygulanmasıdır. Claude'un yapısı, zararlı talimatlar üretmekten kaçınması, yasadışı faaliyetlerde bulunmayı reddetmesi ve yardımcı olmaya devam ederken toksik olmayan bir şekilde iletişim kurması için ona rehberlik ediyor. Bir başka uygulama da, önceden tanımlanmış bir dizi etik yönergeye göre çevrimiçi nefret söylemini veya yanlış bilgiyi belirlemek ve işaretlemek için CAI güdümlü bir modelin kullanılabileceği otomatik içerik moderasyonudur.

Anayasal Yapay Zeka ve İlgili Kavramlar

CAI'yi benzer terimlerden ayırt etmek önemlidir:

  • İnsan Geri Bildiriminden Takviye Öğrenimi (RLHF): RLHF, geri bildirim sağlamak ve yapay zeka tarafından üretilen yanıtları sıralamak için insanlara güvenir, bu da zaman alıcıdır ve ölçeklendirilmesi zordur. CAI, insan geri bildirim döngüsünü, modelin yapısının geri bildirime rehberlik ettiği yapay zeka güdümlü bir döngü ile değiştirir. Bu, hizalama sürecini daha ölçeklenebilir ve tutarlı hale getirir.
  • YZ Etiği: Bu, sorumlu YZ yaratmanın ahlaki ilkeleri ve teknik sorunlarıyla ilgilenen geniş bir alandır. Anayasal YZ, açık etik kuralları doğrudan modelin eğitim sürecine yerleştirerek YZ etiğini uygulamak için pratik bir çerçeve olarak görülebilir.

Uygulamalar ve Gelecek Potansiyeli

Şu anda, Anayasal YZ, diyalog oluşturma ve metin özetleme gibi görevler için öncelikle LLM'lere uygulanmaktadır. Bununla birlikte, temel ilkeler potansiyel olarak Bilgisayarla Görme (CV) dahil olmak üzere diğer YZ alanlarına da genişletilebilir. Örneğin:

Etkili anayasaların geliştirilmesi ve iyileştirilmesinin yanı sıra YZ'nin çeşitli bağlamlarda bunlara sadakatle bağlı kalmasını sağlamak, Google AI ve AI Safety Institute gibi kuruluşlarda aktif araştırma alanları olmaya devam etmektedir. Ultralytics HUB gibi araçlar, çeşitli YZ modellerinin eğitimini ve dağıtımını kolaylaştırmaktadır ve Anayasal YZ'ye benzer ilkelerin dahil edilmesi, sorumlu model dağıtımını sağlamak için giderek daha önemli hale gelecektir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve büyüyün

Şimdi katılın
Panoya kopyalanan bağlantı