Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

Longformer

اكتشف Longformer، نموذج المحولات (transformer model) الأمثل للتسلسلات الطويلة، مما يوفر كفاءة قابلة للتطوير لمعالجة اللغات الطبيعية (NLP) وعلم الجينوم وتحليل الفيديو.

Longformer هي بنية Transformer معدلة مصممة خصيصًا لمعالجة سلاسل البيانات الطويلة بكفاءة، متغلبًا على قيود طول الإدخال في النماذج التقليدية مثل BERT. على الرغم من قوة Transformers القياسية، إلا أن استخدامها للذاكرة يتناسب مع طول التسلسل، مما يجعلها مكلفة حسابيًا للمستندات التي يزيد طولها عن بضع مئات من الكلمات. يعالج Longformer هذه المشكلة من خلال استخدام آلية انتباه متفرقة تتناسب خطيًا، مما يمكّنه من التعامل مع المستندات التي تتكون من آلاف الرموز. هذه القدرة تجعله تقنية أساسية للمهام الحديثة لمعالجة اللغة الطبيعية (NLP) التي تتضمن نصوصًا واسعة النطاق، مثل تحليل العقود القانونية أو تلخيص الكتب أو معالجة البيانات الجينومية.

الهندسة المعمارية: انتباه متناثر

إن الابتكار الرئيسي وراء Longformer هو ابتعاده عن الانتباه الذاتي الكامل المستخدم في نماذج التعلم العميق (DL) القياسية. في الإعداد التقليدي يحضر كل رمز إلى كل رمز آخر، مما يخلق شبكة كثيفة من الاتصالات التي تستنفد الذاكرة بسرعة. يستبدل "لونجفورمر يستبدل هذا بنهج أكثر كفاءة وتناثرًا يحافظ على الأداء العالي مع تقليل التعقيد الحسابي.

  • نافذة انزلاق الانتباه: مستوحاة من الاتصال المحلي ل الشبكة العصبية التلافيفية (CNN)، يستخدم Longformer نافذة منزلقة حيث لا ينتبه كل رمز مميز إلا لجيرانه المباشرين. وهذا يلتقط السياق المحلي الضروري لفهم تركيب الجملة وبنية الجملة.
  • الاهتمام العالمي: لفهم السياق الأوسع للمستند، يتم تخصيص رموز محددة لحضور التسلسل بأكمله. يسمح ذلك للنموذج بأداء مهام مثل الإجابة عن الأسئلة أو التصنيف عن طريق تجميع المعلومات من جميع المدخلات بأكملها، وسد الفجوة بين التفاصيل المحلية و والفهم الشامل.

تسمح هذه الآلية الهجينة للباحثين بمعالجة تسلسلات تصل إلى 4,096 رمزًا أو أكثر على الأجهزة القياسية, مما يوسع بشكل كبير نافذة السياق المتاحة للتحليل.

تطبيقات واقعية

لقد فتحت القدرة على تحليل التسلسلات الطويلة دون اقتطاع إمكانيات جديدة في مختلف المجالات التي تكون فيها البيانات استمرارية البيانات أمرًا بالغ الأهمية.

  • التلخيص القانوني والمالي: يحتاج المحترفون في كثير من الأحيان إلى استخلاص الأفكار من طويلة أو التقارير السنوية. يعمل برنامج Longformer على تشغيل أدوات تلخيص النصوص المتقدمة التي يمكنها استيعاب المستند بأكمله بتمريرة واحدة، مما يضمن النظر في البنود المهمة القريبة من نهاية العقد إلى جانب المقدمة.
  • الأبحاث الجينومية: في مجال المعلوماتية الحيوية، يقوم العلماء بتحليل تسلسلات الحمض النووي التي تعمل كـ سلاسل طويلة للغاية من النصوص البيولوجية. ويساعد برنامج Longformer في تحديد وظائف الجينات والتنبؤ بتراكيب البروتين من خلال نمذجة التبعيات بعيدة المدى المتأصلة في الشفرات الجينية، وهي مهمة كانت صعبة في السابق على نماذج اللغة الكبيرة القياسية (LLMs).

التفريق بين طويل الأمد والمفاهيم ذات الصلة

من المفيد مقارنة لونجفورمر مع البنى الأخرى لاختيار الأداة المناسبة لمشاريع محددة مشاريع الذكاء الاصطناعي المحددة.

  • Transformer: توفر البنية الأصلية اتصالاً كاملاً وهي مثالية للجمل القصيرة، ولكنها تصبح محدودة من حيث الذاكرة بالنسبة للمدخلات الطويلة . يقترب Longformer من ذلك مع تعقيد خطي.
  • المصلح: مثل لونجفورمر، يستهدف المُصلح يستهدف الكفاءة ولكنه يحققها باستخدام التجزئة الحساسة للموقع (LSH) لتجميع الرموز المتشابهة والطبقات المتبقية القابلة للعكس. غالبًا ما يُفضَّل استخدام Longformer للمهام التي تتطلب تحديدًا صارمًا سياقات محلية محددة بدقة (كلمات متجاورة)، في حين أن المُصلح يكون مفيدًا عندما تكون الذاكرة هي عنق الزجاجة المطلق.
  • محول-XL: هذا النموذج يعالج الطول عبر التكرار، محتفظًا بذاكرة المقاطع السابقة. يعالج المحول الطويل التسلسل الطويل بأكمله في وقت واحد، وهو ما يمكن أن يكون مفيدًا للمهام غير الانحدارية مثل تصنيف المستندات.

مثال على الاستدلال الفعال

تمامًا كما يعمل Longformer على تحسين معالجة النصوص من حيث السرعة والذاكرة، تعمل نماذج الرؤية الحديثة على تحسين معالجة الصور لمعالجة المدخلات المعقدة بكفاءة. يستخدم المثال التالي Ultralytics لإظهار الاستدلال الفعال. وهذا يوازي مفهوم استخدام البنى المُحسّنة لمعالجة البيانات دون تحميل موارد الأجهزة بشكل زائد.

from ultralytics import YOLO

# Load a YOLO26 model, optimized for speed and efficiency similar to Longformer's design goals
model = YOLO("yolo26n.pt")

# Perform inference on an image URL
# The model processes the input effectively in a single pass
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Output the detection summary
for result in results:
    print(f"Detected {len(result.boxes)} objects.")

من خلال تقليل مساحة الذاكرة المطلوبة لمعالجة المدخلات الكبيرة، تتيح البنى مثل Longformer للمطورين بناء وكلاء ذكاء اصطناعي وأدوات تحليلية أكثر تطوراً. هذا التحول نحو قابلية التوسع الخطي ضروري لمستقبل نشر النماذج، مما يضمن أن يظل الذكاء الاصطناعي القوي متاحاً وفعالاً.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن