Sözlük

Transformatör

Transformer mimarilerinin yapay zekada nasıl devrim yaratarak NLP, bilgisayarla görme ve gelişmiş makine öğrenimi görevlerinde çığır açtığını keşfedin.

Transformer, özellikle Doğal Dil İşleme (NLP) ve son zamanlarda Bilgisayarla Görme (CV) alanlarında modern Yapay Zekanın (AI) temel taşı haline gelen devrim niteliğinde bir sinir ağı mimarisidir. Google araştırmacıları tarafından 2017 yılında yayınlanan "Attention Is All You Need" adlı makalede tanıtılan bu yapının temel yeniliği, modelin bir girdi dizisinin farklı kelimelerinin veya bölümlerinin önemini tartmasına olanak tanıyan kendi kendine dikkat mekanizmasıdır. Bu, uzun menzilli bağımlılıkları ve bağlamsal ilişkileri önceki mimarilere göre daha etkili bir şekilde yakalamasını sağlar. Tasarım aynı zamanda devasa veri kümeleri üzerinde çok daha büyük modellerin eğitilmesini mümkün kılarak Büyük Dil Modellerinin (LLM'ler) yükselişine yol açan devasa paralelleştirmeye de izin verir.

Transformatörler Nasıl Çalışır?

Tekrarlayan Sinir Ağları (RNN'ler) gibi sıralı modellerin aksine, Transformatörler tüm veri dizilerini bir kerede işler. Temel fikir, tüm öğeleri paralel olarak ele almaktır; bu da GPU'lar gibi modern donanımlarda eğitimi önemli ölçüde hızlandırır.

Yineleme olmaksızın dizilim sırasını anlamak için Transformers, her bir öğenin (örneğin, cümledeki bir kelime) konumu hakkındaki bilgileri gömülmesine ekleyen konumsal kodlama adı verilen bir teknik kullanır. Öz dikkat katmanları daha sonra bu katıştırmaları işleyerek her öğenin dizideki diğer tüm öğelere "bakmasına" ve anlamını anlamak için hangilerinin en alakalı olduğunu belirlemesine olanak tanır. Bu küresel bağlam farkındalığı, karmaşık görevler için büyük bir avantajdır. PyTorch ve TensorFlow gibi çerçeveler Transformer tabanlı modeller oluşturmak için kapsamlı destek sağlar.

Transformatör Uygulamaları

Transformers'ın etkisi çok sayıda alanı kapsıyor ve hem dil hem de görme görevlerinde ilerleme sağlıyor.

  1. Dil Çevirisi ve Üretimi: Google Translate gibi hizmetler, yüksek kaliteli makine çevirisi için Transformer tabanlı modeller kullanır. Model, daha akıcı ve doğru bir çeviri üretmek için kaynak cümlenin tamamını göz önünde bulundurabilir. Benzer şekilde, GPT-4 gibi modeller, tutarlı paragraflar oluşturmak, makaleler yazmak veya gelişmiş sohbet robotlarını güçlendirmek için bağlamı anlayarak metin oluşturmada mükemmeldir.
  2. Bilgisayarla Görme: Vision Transformer (ViT) mimariyi görüntü tabanlı görevler için uyarlar. Bir görüntüyü bir dizi yama olarak ele alır ve aralarındaki ilişkileri modellemek için öz dikkati kullanır. Bu yaklaşım, bir sahnenin küresel bağlamını anlamanın, özellikle karmaşık ortamlarda nesneleri daha doğru bir şekilde tanımlamaya yardımcı olabileceği nesne algılama için RT-DETR gibi modellerde kullanılır. Mimari farklılıklarını anlamak için RT-DETR ve YOLOv8 'in bir karşılaştırmasını görebilirsiniz.

Transformatör ve Diğer Mimariler

Transformatörleri diğer yaygın sinir ağı mimarilerinden ayırmak faydalı olacaktır:

  • Dönüştürücüler vs. RNN'ler: RNN'ler verileri sıralı olarak işler, bu da onları doğal olarak yavaş ve kaybolan gradyan sorununa duyarlı hale getirir, bu da uzun dizilerde önceki bilgileri unutmalarına neden olur. Dönüştürücüler paralel işleme ve kendi kendine dikkat ile bunun üstesinden gelir ve uzun menzilli bağımlılıkları çok daha etkili bir şekilde yakalar.
  • Dönüştürücüler ve CNN'ler: Konvolüsyonel Sinir Ağları (CNN'ler), pikseller gibi ızgara benzeri verilerdeki yerel desenleri tanımlamak için konvolüsyonel filtreler kullanarak görme görevleri için oldukça verimlidir. Ultralytics YOLO ailesi gibi modellerin temelini oluştururlar. Buna karşılık dönüştürücüler küresel ilişkileri yakalar ancak genellikle daha fazla veri ve hesaplama kaynağı gerektirir. Bir CNN omurgasını Transformer katmanlarıyla birleştiren hibrit modeller, her iki dünyanın da en iyisini elde etmeyi amaçlar.

Verimli Transformatör Varyantları

Orijinal Transformer'ın tam öz dikkatinin hesaplama maliyeti, dizi uzunluğu ile kuadratik olarak büyür ve çok uzun diziler için zorlayıcı hale gelir. Bu, daha verimli varyantların geliştirilmesine yol açmıştır.

  • Longformer: Hesaplama karmaşıklığını azaltmak için belirli belirteçler üzerinde küresel dikkat ile birlikte bir kayan pencere dikkat mekanizması kullanır.
  • Reformcu: Tam dikkati yaklaştırmak için yerelliğe duyarlı karma gibi teknikler kullanır ve bu da onu daha bellek verimli hale getirir.
  • Transformer-XL: Modelin sabit bir uzunluğun ötesindeki bağımlılıkları öğrenmesine olanak tanıyan ve özellikle otomatik regresif dil modellemesi için yararlı olan bir yineleme mekanizması sunar.

Bu gelişmeler Transformers'ın uygulanabilirliğini yeni sorunlara doğru genişletmeye devam ediyor. Hugging Face ve Ultralytics HUB gibi araçlar ve platformlar, geliştiricilerin bu güçlü modellere erişmesini ve bunları kullanmasını kolaylaştırıyor.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve büyüyün

Şimdi katılın
Panoya kopyalanan bağlantı