Sözlük

BERT (Transformatörlerden Çift Yönlü Kodlayıcı Temsilleri)

Google'un devrim niteliğindeki NLP modeli BERT'i keşfedin. Çift yönlü bağlam anlayışının arama ve sohbet robotları gibi yapay zeka görevlerini nasıl dönüştürdüğünü öğrenin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Transformatörlerden Çift Yönlü Kodlayıcı Temsilleri anlamına gelen BERT, Google AI Language'deki araştırmacılar tarafından geliştirilen Doğal Dil İşleme (NLP) ön eğitimi için dönüm noktası niteliğinde bir tekniktir. 2018 yılında"BERT: Dil Anlama için Derin Çift Yönlü Dönüştürücülerin Ön Eğitimi" adlı etkili makale ile tanıtılan BERT, makinelerin insan dilini anlama biçiminde devrim yarattı. Wikipedia gibi sadece düz bir metin külliyatı kullanılarak önceden eğitilmiş ilk derin çift yönlü, denetimsiz dil temsillerinden biriydi. BERT, güçlü Transformer mimarisinden, özellikle de kodlayıcı kısmından yararlanarak kelimeleri sıralı olarak değil, cümledeki diğer tüm kelimelerle ilişkili olarak aynı anda işler. Bu, önceki tek yönlü modellere kıyasla bağlamın daha derin bir şekilde anlaşılmasını sağlar.

Bert Nasıl Çalışır?

Metni tek bir yönde (soldan sağa veya sağdan sola) işleyen önceki modellerin aksine BERT, Transformer kodlayıcısını ve kendi kendine dikkat mekanizmasını kullanarak tüm kelime dizisini aynı anda işler. Bu çift yönlü yaklaşım, bir kelimenin bağlamını, hem kendisinden önce gelen hem de kendisinden sonra gelen çevresindeki kelimelere dayanarak kavramasını sağlar. Örneğin, BERT "Para çekmek için bankaya gitmem gerekiyor" cümlesindeki "banka" ile "Nehir kıyısı çamurluydu" cümlesindeki "banka" kelimesinin anlamını tüm cümle bağlamını göz önünde bulundurarak ayırt edebilir.

BERT, bu karmaşık dil ilişkilerini büyük miktarda metin verisi üzerinde bir ön eğitim aşaması sırasında öğrenir. Bu, iki ana denetimsiz görevi içerir:

  1. Maskelenmiş Dil Modeli (MLM): Giriş belirteçlerinin (kelimeler veya alt kelimeler) belirli bir yüzdesi rastgele maskelenir (gizlenir) ve model bu maskelenmiş belirteçleri bağlamlarına göre tahmin etmeyi öğrenir.
  2. Sonraki Cümle Tahmini (NSP): Model cümle çiftlerini alır ve ikinci cümlenin orijinal metindeki ilk cümleyi takip eden gerçek bir sonraki cümle mi yoksa rastgele bir cümle mi olduğunu tahmin etmeyi öğrenir.

Bu ön eğitimin sonucu, sözdizimi ve anlambilimi yakalayan zengin dil katıştırmalarına sahip bir modeldir. Bu önceden eğitilmiş BERT modeli daha sonra daha küçük, göreve özel veri kümeleri kullanılarak çeşitli spesifik aşağı akış NLP görevleri için hızlı bir şekilde uyarlanabilir veya'ince ayar' yapılabilir. Bu önceden eğitilmiş bilgiden yararlanma süreci bir transfer öğrenme biçimidir.

Temel Özellikler ve Avantajlar

  • Derin Çift Yönlü Bağlam: BERT'in birincil yeniliği, bir kelimenin bağlamını ondan önce ve sonra gelen kelimelere aynı anda bakarak anlama yeteneğidir. Bu, GPT'nin ilk sürümleri gibi tek yönlü modellere kıyasla dil nüanslarının çok daha zengin ve doğru bir şekilde anlaşılmasını sağlar.
  • Son Teknoloji Performans: Piyasaya sürülmesinin ardından BERT, soru yanıtlama ( SQuAD veri kümesi gibi) ve Doğal Dil Anlama (NLU) görevleri de dahil olmak üzere çok çeşitli NLP ölçütlerinde en gelişmiş sonuçları elde etti.
  • Transfer Öğrenme Güç Merkezi: BERT'in önceden eğitilmiş modelleri güçlü bir temel görevi görür. Geliştiriciler, BERT' i duygu analizi veya Adlandırılmış Varlık Tanıma (NER) gibi belirli görevler üzerinde ince ayar yaparak, sıfırdan bir model eğitmeye kıyasla önemli ölçüde daha az göreve özgü veri ve eğitim süresiyle yüksek performans elde edebilirler.
  • Geniş Erişilebilirlik: Önceden eğitilmiş BERT modellerine aşağıdaki gibi platformlar aracılığıyla kolayca erişilebilir Hugging Face gibi popüler Derin Öğrenme (DL) çerçeveleri ile kullanılabilir. PyTorch ve TensorFlow.

Gerçek Dünya Uygulamaları

BERT'in dil nüanslarını anlama yeteneği, çeşitli gerçek dünya Yapay Zeka (AI) uygulamalarında önemli gelişmelere yol açmıştır:

  • Arama Motorları: Google Arama, kullanıcı sorgularını, özellikle de konuşmaya dayalı veya karmaşık olanları daha iyi anlamak ve daha alakalı arama sonuçları elde etmek için BERT'i kullanmıştır. Bir Google AI Blog gönderisinde açıklandığı gibi, BERT "için" ve "için" gibi edatların önemini anlayarak "eczane için ilaç alabilir misiniz" gibi aramaların arkasındaki amacı kavramaya yardımcı olur.
  • Sohbet Robotları ve Sanal Asistanlar: BERT, sohbet robotlarının ve sanal asistanların kullanıcı isteklerini daha doğru anlama, konuşmalarda bağlamı koruma ve müşteri hizmetleri, rezervasyon sistemleri ve bilgi erişiminde daha yararlı yanıtlar verme becerisini geliştirir.
  • Duygu Analizi: İşletmeler, kamuoyu görüşünü ve ürün geri bildirimlerini daha yüksek doğrulukla ölçmek için müşteri yorumlarını, sosyal medya yorumlarını ve anket yanıtlarını analiz etmek için BERT tabanlı modelleri kullanır.
  • Metin Özetleme ve Soru Cevaplama: BERT, uzun belgeleri otomatik olarak özetleyen(metin özetleme) veya belirli bir metin pasajına dayalı soruları yanıtlayan sistemler oluşturmak için ince ayar yapılabilir.

BERT öncelikle NLP'de kullanılsa da, popüler hale getirdiği Transformer mimarisi, aşağıdaki gibi modellerde kullanılan Vision Transformers (ViT ) gibi Bilgisayarlı Görme (CV) alanındaki gelişmelere de ilham kaynağı olmuştur RT-DETR. Ultralytics HUB gibi platformlar, Transformer ilkeleri üzerine inşa edilenler de dahil olmak üzere çeşitli yapay zeka modellerinin eğitimini ve dağıtımını kolaylaştırır.

Tümünü okuyun