اكتشف كيف تُحدث آليات الانتباه ثورة في الذكاء الاصطناعي من خلال تعزيز معالجة اللغة الطبيعية ومهام الرؤية الحاسوبية مثل الترجمة واكتشاف الكائنات والمزيد!
آلية الانتباه هي تقنية في الذكاء الاصطناعي (AI) تسمح للشبكات العصبية بالتركيز على أجزاء محددة من البيانات المدخلة أثناء معالجتها، تمامًا مثلما يركز البشر بصريًا على كائن معين في مشهد معقد. بدلاً من التعامل مع جميع البيانات المدخلة بنفس الأهمية، تقوم آلية الانتباه بتعيين أوزان مختلفة لأجزاء مختلفة من البيانات، مما يسمح للنموذج "بالاهتمام" بالمعلومات الأكثر صلة. أصبح هذا المفهوم حجر الزاوية في التعلم العميق (DL)، مما أدى إلى تحقيق اختراقات مهمة في مجالات مثل معالجة اللغة الطبيعية (NLP) والرؤية الحاسوبية المتقدمة الرؤية الحاسوبية (CV).
في البنى التقليدية مثل الشبكات العصبية المتكررة (RNNs)، غالبًا ما كانت النماذج تواجه صعوبة في الاحتفاظ بالمعلومات من بداية التسلسلات الطويلة بحلول الوقت الذي تصل فيه إلى النهاية — وهو تحدٍ يُعرف باسم تلاشي التدرج . يحل الانتباه هذه المشكلة عن طريق إنشاء اتصالات مباشرة بين جميع أجزاء المدخلات والمخرجات، بغض النظر عن مسافتها في التسلسل.
تعمل الآلية عن طريق حساب مجموعة من "درجات الانتباه" أو الأوزان. عندما يحاول النموذج توقع الكلمة التالية في جملة أو تحديد كائن في صورة، فإنه يستخدم هذه الدرجات لتحديد أجزاء المدخلات الأكثر صلة في تلك اللحظة المحددة.
وقد اشتهر هذا النهج بفضل الورقة البحثية الرائدة "الانتباه هو كل ما تحتاجه"، التي قدمت Transformer .
في حين أن المفهوم الأساسي يظل كما هو، فإن الاختلافات المختلفة في الانتباه تخدم أغراضًا محددة في نماذج التعلم الآلي (ML) .
آليات الانتباه هي المحرك وراء العديد من أقوى تطبيقات الذكاء الاصطناعي اليوم.
الأطر الحديثة مثل PyTorch توفر اللبنات الأساسية
للانتباه، والمكتبات عالية المستوى تجعل استخدامها سهلاً. يوضح المثال التالي كيفية تحميل
نموذج قائم على الانتباه مثل RT-DETR محول الكشف في الوقت الحقيقي) باستخدام ultralytics حزمة
لإجراء الاستدلال.
from ultralytics import RTDETR
# Load a pre-trained RT-DETR model which uses attention mechanisms
# This model is excellent for capturing global context in images
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of detections found
print(f"Detected {len(results[0].boxes)} objects using transformer attention.")
من المفيد التمييز بين الانتباه و الشبكات العصبية التلافيفية (CNNs).
التطورات الحديثة تعمل على سد هذه الفجوة. على سبيل المثال، يضم YOLO26 تصميمات معمارية متقدمة توفر الوعي السياقي الذي يرتبط غالبًا بالانتباه مع الحفاظ على السرعة الفائقة اللازمة الاستدلال في الوقت الحقيقي على Ultralytics .