استكشف أساسيات الانتباه الذاتي في التعلم العميق. تعرف على كيفية قيام متجهات الاستعلام والمفتاح والقيمة بتشغيل Transformers و Ultralytics للحصول على ذكاء اصطناعي فائق.
الانتباه الذاتي هو آلية أساسية في التعلم العميق تمكن النماذج من تقييم أهمية العناصر المختلفة ضمن تسلسل المدخلات بالنسبة لبعضها البعض. على عكس البنى التقليدية التي تعالج البيانات بشكل تسلسلي أو تركز فقط على المناطق المجاورة المحلية، يتيح الانتباه الذاتي للشبكة العصبية فحص السياق بأكمله في وقت واحد. تساعد هذه القدرة الأنظمة على تحديد العلاقات المعقدة بين أجزاء بعيدة من البيانات، مثل الكلمات في جملة أو مناطق متميزة في صورة. وهي بمثابة اللبنة الأساسية لبناء بنية Transformer، التي أدت إلى تقدم هائل في مجال الذكاء الاصطناعي التوليدي وأنظمة الإدراك الحديثة .
تحاكي الآلية التركيز المعرفي من خلال تعيين وزن، يُسمى غالبًا "درجة الانتباه"، لكل ميزة إدخال . لحساب هذه الدرجات، يحول النموذج بيانات الإدخال — التي يتم تمثيلها عادةً على شكل تضمينات— إلى ثلاثة متجهات متميزة: الاستعلام والمفتاح والقيمة.
يقارن النموذج استعلام عنصر واحد بمفاتيح جميع العناصر الأخرى لتحديد التوافق. يتم توحيد درجات التوافق هذه باستخدام دالة softmax لإنشاء أوزان شبيهة بالاحتمالات. ثم يتم تطبيق هذه الأوزان على القيم، مما ينتج عنه تمثيل غني بالسياق. تتيح هذه العملية لنماذج اللغة الكبيرة (LLMs) وأنظمة الرؤية إعطاء الأولوية للمعلومات المهمة مع تصفية الضوضاء.
أدى تنوع استخدامات الانتباه الذاتي إلى انتشاره على نطاق واسع في مختلف مجالات الذكاء الاصطناعي (AI).
على الرغم من أن هذه المصطلحات غالبًا ما تُناقش جنبًا إلى جنب مع مفاهيم مشابهة، إلا أن لها تعريفات تقنية متميزة:
يوضح Python التالي Python كيفية استخدام RTDETR، وهو كاشف كائنات قائم على محول مضمن
في ultralytics الحزمة. على عكس الشبكات التلافيفية القياسية، يعتمد هذا النموذج بشكل كبير على
الانتباه الذاتي لمعالجة السمات البصرية.
from ultralytics import RTDETR
# Load the RT-DETR model which utilizes self-attention for detection
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image to detect objects with global context
# Self-attention helps the model understand relationships between distant objects
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of objects detected
print(f"Detected {len(results[0].boxes)} objects using Transformer attention.")
حلت ميزة الانتباه الذاتي بشكل فعال مشكلة التدرج المتلاشي التي كانت تعيق الشبكات العصبية المتكررة (RNNs) في السابق، مما مكن من تدريب نماذج أساسية ضخمة. على الرغم من فعاليتها العالية، فإن التكلفة الحسابية للانتباه الذاتي القياسي تزداد بشكل تربيعي مع طول التسلسل. لمعالجة هذه المشكلة، تركز الأبحاث الحالية على آليات الانتباه الخطي الفعالة.
Ultralytics هذه التطورات في نماذج متطورة مثل YOLO26، التي تجمع بين سرعة شبكات CNNs وقوة الانتباه السياقي للحصول على استنتاجات فائقة في الوقت الفعلي. يمكن تدريب هذه النماذج المُحسّنة ونشرها بسهولة عبر Ultralytics مما يؤدي إلى تبسيط سير العمل للمطورين الذين يعملون على بناء الجيل التالي من التطبيقات الذكية.