YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Dikkat Mekanizması

Dikkat mekanizmalarının çeviri, nesne tespiti ve daha fazlası gibi NLP ve bilgisayarlı görü görevlerini geliştirerek yapay zekada nasıl devrim yarattığını keşfedin!

Bir dikkat mekanizması, insan bilişsel dikkatini taklit eden sinir ağlarında kullanılan bir tekniktir. Bir modelin, bir çıktı üretirken girdi verilerinin en alakalı kısımlarına dinamik olarak odaklanmasını sağlar. Girdinin tüm kısımlarını eşit olarak ele almak yerine, model her bir kısma farklı "dikkat" puanları atamayı, önemli bilgilerin etkisini artırmayı ve alakasız verilerin etkisini azaltmayı öğrenir. Bu yetenek, Doğal Dil İşleme (NLP)'den Bilgisayarlı Görü (CV)'ye kadar çeşitli alanlarda modellerin performansını artırmada etkili olmuştur.

Dikkat Mekanizması Nasıl Çalışır?

Temelinde, bir dikkat mekanizması girdi için bir dizi dikkat ağırlığı hesaplar. Bu ağırlıklar, modelin girdi dizisinin veya görüntüsünün her bir öğesine ne kadar odaklanması gerektiğini belirler. Örneğin, uzun bir cümleyi çevirirken, modelin çevirideki doğru sonraki kelimeyi oluşturmak için belirli kaynak kelimelere odaklanması gerekir. Dikkat mekanizmalarından önce, geleneksel Tekrarlayan Sinir Ağları (RNN'ler) gibi modeller uzun dizilerle mücadele ediyor ve genellikle girdinin önceki bölümlerini "unutuyordu" - bu kaybolan gradyan sorunu olarak biliniyor. Dikkat, girdinin tüm bölümlerine doğrudan bir bağlantı sağlayarak bunun üstesinden gelir ve modelin uzunluğundan bağımsız olarak, gerektiğinde dizinin herhangi bir bölümüne geri bakmasına olanak tanır. Uzun menzilli bağımlılıkları ele alma yeteneği, "Attention Is All You Need." makalesinde ayrıntılı olarak anlatılan önemli bir atılımdı.

Dikkat Mekanizması (Attention) ve Öz-Dikkat Mekanizması (Self-Attention) Karşılaştırması

Çoğu zaman birbirinin yerine kullanılsa da, genel bir dikkat mekanizması ile öz-dikkat arasında ayrım yapmak önemlidir.

  • Dikkat (Attention) genellikle iki farklı diziyi içerir. Örneğin, makine çevirisinde dikkat, bir kaynak cümle ile bir hedef cümle arasındaki ilişkiyi eşler.
  • Self-Attention (Öz-İlgi), tek bir dizi üzerinde çalışarak modelin aynı dizi içindeki farklı kelimelerin veya öğelerin önemini tartmasına olanak tanır. Bu, modelin bağlamı, sözdizimini ve ilişkileri anlamasına yardımcı olur; örneğin, bir cümledeki "o" kelimesinin daha önce bahsedilen belirli bir ismi ifade ettiğini belirlemesine yardımcı olur. Self-attention, Transformer mimarisinin temel yapı taşıdır.

Gerçek Dünya Uygulamaları

Dikkat mekanizmaları, çok sayıda modern AI uygulamasının ayrılmaz bir parçasıdır:

  • Makine Çevirisi: Google Çeviri gibi hizmetlerde, dikkat mekanizması modelin hedef dildeki her kelimeyi oluştururken ilgili kaynak kelimelere odaklanmasına yardımcı olur. Bu, çeviri kalitesini ve akıcılığını büyük ölçüde artırarak daha önce kaybolan nüansları yakalar.
  • Nesne Algılama ve Bilgisayarlı Görü: Ultralytics YOLO11 gibi modeller, hesaplama kaynaklarını bir görüntüdeki önemli bölgelere odaklamak için dikkat mekanizmalarını kullanabilir. Bu, doğruluğu artırırken, gerçek zamanlı çıkarım için gereken verimliliği korur. Bu, otonom araçlar ve robotik uygulamaları için çok önemlidir.
  • Metin Özetleme: Dikkat, uzun bir belgedeki önemli cümleleri veya ifadeleri belirlemeye yardımcı olarak SummarizeBot gibi araçlar tarafından kullanılan kısa özetler oluşturur.
  • Görüntü Alt Yazısı (Image Captioning): Stanford Üniversitesi'nden yapılan araştırmada açıklandığı gibi, modeller açıklayıcı metin başlıkları oluştururken bir görüntüdeki belirgin nesnelere veya bölgelere odaklanmayı öğrenir.
  • Tıbbi Görüntü Analizi: Dikkat mekanizmaları, radyologlara yardımcı olmak amacıyla tıbbi taramalardaki (MR'lardaki tümörler gibi) kritik alanları tanı veya analiz için vurgulayabilir. Halka açık tıbbi görüntüleme veri kümelerinde örnekleri inceleyebilirsiniz.

Ultralytics HUB gibi platformlar, kullanıcıların dikkat mekanizmalarını içerenler de dahil olmak üzere gelişmiş modelleri eğitmesine, doğrulamasına ve dağıtmasına olanak tanır. Bu tür modeller genellikle Hugging Face gibi platformlarda bulunan önceden eğitilmiş model ağırlıklarından yararlanır ve PyTorch ve TensorFlow gibi güçlü çerçevelerle oluşturulur. Dikkatin geliştirilmesi, makine öğrenimi alanında mümkün olanın sınırlarını zorlamış ve DeepMind gibi kurumlarda modern yapay zeka araştırma ve geliştirme çalışmalarının temel taşı haline gelmiştir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı