استكشف الذكاء الاصطناعي المتجسد وتعرف على كيفية تفاعل الأنظمة الذكية مع العالم المادي. اكتشف كيفية تعزيز الإدراك الروبوتي باستخدام Ultralytics .
يمثل الذكاء الاصطناعي المتجسد تحولًا كبيرًا من الخوارزميات السلبية إلى الأنظمة الذكية التي يمكنها الإدراك والتفكير والتفاعل في بيئة مادية أو محاكاة ثلاثية الأبعاد. على عكس نماذج التعلم الآلي التقليدية التي تعمل فقط على مجموعات بيانات ثابتة، تمتلك هذه الأنظمة "جسمًا" —سواء كان هيكلًا روبوتيًا ماديًا أو أفاتارًا افتراضيًا—يتيح لها تنفيذ الإجراءات والتعلم من التغذية الراجعة المستمرة للبيئة. من خلال الجمع بين مدخلات المستشعرات واتخاذ القرارات الذكية، تعمل العوامل المجسدة على سد الفجوة بين الحوسبة الرقمية والتنفيذ في العالم الحقيقي .
في صميم هذه الأنظمة الديناميكية توجد رؤية حاسوبية متقدمة، والتي تمكن الوكيل من فهم محيطه مكانيًا. للتنقل بأمان وفعالية، يعتمد الوكلاء المجسدون بشكل كبير على الكشف عن الأشياء في الوقت الفعلي والتقدير المستمر للوضع. عندما يبني المطورون المسارات العصبية لهؤلاء الوكلاء، غالبًا ما يدمجون أطر التعلم العميق من PyTorch أو أدواتTensorFlow للتعامل مع البيانات المكانية المعقدة.
لتحقيق الاستقلالية الحقيقية، تستخدم هذه الأنظمة بشكل متزايد نماذج لغة الرؤية جنبًا إلى جنب مع محركات استدلال قوية في الوقت الفعلي. وهذا يسمح للذكاء الاصطناعي ليس فقط بالتعرف على الكوب، بل وفهم التعليمات المعقدة مثل "التقط الكوب الأحمر بالقرب من حافة الطاولة". وتواصل أبحاث مؤسسات مثل معهد ستانفورد للذكاء الاصطناعي المتمركز حول الإنسان (HAI) تواصل توسيع حدود كيفية دمج هذه العوامل للبيانات متعددة الحواس.
لفهم هذا المجال، لا بد من تمييزه عن المفاهيم الوثيقة الصلة به:
أدى دمج التفكير المعرفي مع العمل البدني إلى تطبيقات تحويلية عبر العديد من الصناعات، والتي تم توثيقها بشكل مكثف في مكتبة ACM الرقمية لأبحاث الذكاء الاصطناعي.
غالبًا ما يستفيد المطورون الذين يبنون هذه الأنظمة المادية من Ultralytics لتعليق بيانات التدريب الديناميكية ونشر نماذج الذكاء الاصطناعي الخفيفة الوزن بسلاسة مباشرة على الأجهزة منخفضة الطاقة.
فيما يلي Python يوضح كيف يمكن لوكيل آلي استخدام نموذج رؤية detect الكائنات detect في بيئته بشكل مستمر.
from ultralytics import YOLO
# Load the lightweight YOLO26 model designed for real-time edge hardware
model = YOLO("yolo26n.pt")
# Perform continuous object detection on a robotic camera feed
results = model.predict(source="camera_feed.mp4", stream=True)
# Process the spatial bounding boxes to guide robotic interaction
for r in results:
print(f"Detected {len(r.boxes)} objects ready for physical interaction.")
مع نضوج مجالات تصميم الأجهزة والنمذجة المعرفية — بفضل جهود التنسيق مثل أبحاثAnthropic حول سلامة الذكاء الاصطناعي وأحدث نماذج الاستدلال من OpenAI— ستستمر الأنظمة المدمجة في الانتقال من مختبرات الأبحاث إلى البيئات اليومية، كما يسلط الضوء عليها بشكل متكرر في تغطية IEEE Spectrum للروبوتات.