تعرّف على نماذج الحركات الكبيرة (LAM) وكيفية استخدامها في تشغيل العوامل الذكية المستقلة. تعلم كيفية دمج Ultralytics في سير العمل الذي يربط بين الرؤية والتصرف، وأتمتة المهام.
تُعد نماذج الإجراءات الكبيرة (LAM) فئة متقدمة من الذكاء الاصطناعي التوليدي، وهي مصممة لتتجاوز مجرد توليد النصوص من خلال تنفيذ المهام بشكل مستقل والتفاعل مع البيئات الرقمية. على عكس النماذج التقليدية التي تقوم بمعالجة النصوص وإنتاجها بشكل صارم، تعمل نماذج LAM كمحرك معرفي أساسي لوكلاء الذكاء الاصطناعي، حيث تترجم النوايا البشرية إلى إجراءات ملموسة متعددة الخطوات. ومن خلال سد الفجوة بين فهم اللغة الطبيعية والتنفيذ في العالم الواقعي، تمثل هذه النماذج قفزة كبيرة نحو الذكاء الاصطناعي العام (AGI) والأنظمة عالية الاستقلالية.
تستند نماذج LAM إلى البنية الأساسية للنماذج التأسيسية التقليدية، ولكنها مدربة خصيصًا على التفاعل مع البرامج وواجهات برمجة التطبيقات (API) وبيئات الويب. وباستخدام تقنيات مثل التعلم المعزز واستدعاء الوظائف، يمكن لنموذج LAM تقسيم طلب مستخدم معقد إلى خطوات منطقية، والتنقل عبر واجهات المستخدم الرسومية، وتنفيذ نقاط نهاية واجهة برمجة التطبيقات (API). على سبيل المثال، توضح التطورات الحديثة في استخدام الكمبيوتر Claude 3.5Anthropic وعائلة xLAM من Salesforce كيف يمكن لهذه الأنظمة النقر على الأزرار وملء النماذج وإدارة سير العمل بشكل مستقل تمامًا كما يفعل المشغل البشري.
وعند دمجها مع أنظمة الرؤية الحاسوبية، تصبح نماذج LAM أكثر قوةً. يمكن معالجة المدخلات البصرية بواسطة نماذج عالية الكفاءة مثل Ultralytics مما يتيح لنموذج LAM "رؤية" بيئته، وتفسير السياق البصري، وتشغيل إجراءات برمجية محددة بناءً على ما يكتشفه.
تُحدث أنظمة التعلم الآلي (LAMs) تحولاً جذرياً في الطريقة التي تتعامل بها الصناعات مع أتمتة المهام، حيث تنتقل من المساعدة السلبية إلى التنفيذ الفعلي.
غالبًا ما يتم دمج نماذج التعلم الآلي اللغوي (LAM) مع نماذج الرؤية الآلية لأتمتة عمليات الفحص البصري. ويوضح Python التالي المكتوب Python
كيف يمكن لسير عمل افتراضي لنموذج التعلم الآلي اللغوي (LAM) أن يستفيد من ultralytics لمسح صورة ضوئيًا وتشغيل
إجراء جرد آلي بناءً على
اكتشاف الأجسام النتائج.
from ultralytics import YOLO
# Load the recommended Ultralytics YOLO26 model for an agentic vision task
model = YOLO("yolo26n.pt")
# The LAM commands the model to scan a warehouse shelf image
results = model.predict("inventory_shelf.jpg")
# The LAM extracts actionable data to autonomously trigger a supply reorder
for result in results:
detected_items = len(result.boxes)
if detected_items < 10:
print(f"Low inventory ({detected_items} items). Action triggered: Reordering supplies via API.")
يمكن للمستخدمين نشر ومراقبة هذه الأنواع من سير العمل المتكامل بين العناصر المرئية والحركية بسلاسة باستخدام Ultralytics التي توفر بنية تحتية سحابية قوية لحلول الذكاء الاصطناعي الحديثة.
لفهم المشهد الحالي للذكاء الاصطناعي بشكل كامل، من المفيد التمييز بين نماذج LAM والمصطلحات الأخرى ذات الصلة الوثيقة بها:
ابدأ رحلتك مع مستقبل تعلم الآلة