استكشف قابلية التفسير الآلي في الذكاء الاصطناعي مع Ultralytics. تعلم كيفية إجراء الهندسة العكسية للشبكات العصبية وتتبع الدوائر الخوارزمية في Ultralytics .
التفسير الآلي هو مجال بحثي متقدم في التعلم الآلي يركز على الهندسة العكسية للعمليات الداخلية للشبكات العصبية المدربة. بدلاً من التعامل مع النموذج كصندوق أسود، يسعى هذا النهج إلى فهم الدوائر الرياضية الدقيقة والخلايا العصبية المحددة والمسارات المتصلة التي تجعل النموذج ينتج ناتجًا معينًا. من خلال تحويل هذه الهياكل الداخلية إلى مفاهيم يمكن للبشر فهمها، يمكن للمطورين فك شفرة كيفية معالجة أنظمة الذكاء الاصطناعي للمعلومات طبقة تلو الأخرى.
من الشائع الخلط بين التفسيرية الآلية والذكاء الاصطناعي القابل للتفسير بشكل عام (XAI). في حين أن XAI هو مصطلح أوسع يشمل أدوات مثل خرائط الحرارة أو خرائط البروز التي تسلط الضوء على المكان الذي ينظر إليه النموذج، فإن التفسيرية الآلية تهدف إلى الإجابة عن كيفية وحسبما يحسب النموذج استجابته. على سبيل المثال، في حين أن الذكاء الاصطناعي القابل للتفسير قد يظهر أن نموذج اكتشاف الكائنات يركز على نسيج فروي لتحديد الكلب، فإن التفسيرية الميكانيكية تهدف إلى تحديد موقع الخلايا العصبية المحددة "التي تكتشف الفرو" وتتبع ارتباطاتها الخوارزمية بالتنبؤ النهائي.
إن فهم المنطق الداخلي الدقيق للشبكات العصبية أمر بالغ الأهمية لنشر الذكاء الاصطناعي عالي المخاطر. وفيما يلي تطبيقان ملموسان: 1. تحليل البيانات: يمكن استخدام الشبكات العصبية لتعلم أنماط معينة في البيانات، مثل تحليل النصوص أو تحليل الصور.
عند العمل مع بنى الرؤية الحاسوبية، تتمثل الخطوة الأولى الشائعة في التفسير الآلي في استخراج التنشيطات الوسيطة. باستخدام أدوات مثل PyTorch hooks، يمكن للمطورين إلقاء نظرة خاطفة داخل الشبكة أثناء التمرير الأمامي.
يوضح المقتطف التالي كيفية إرفاق خطاف بالطبقة التلافيفية الأولى من نموذج Ultralytics لفحص أبعاد خرائط الميزات الداخلية التي تم إنشاؤها أثناء الاستدلال.
from ultralytics import YOLO
# Load the Ultralytics YOLO26 nano model
model = YOLO("yolo26n.pt")
# Define a hook function to capture and inspect intermediate layer activations
def hook_fn(module, input, output):
print(f"Analyzed Layer: {module.__class__.__name__} | Activation Shape: {output.shape}")
# Attach the hook to the first layer of the model architecture
handle = model.model.model[0].register_forward_hook(hook_fn)
# Run a quick inference to trigger the hook and print the mechanistic features
results = model("https://ultralytics.com/images/bus.jpg")
handle.remove()
من خلال تحليل هذه التنشيطات، يمكن لمهندسي التعلم الآلي إجراء تصور للميزات والبدء في رسم خريطة لسلوك الشبكة . لإدارة مجموعات البيانات الضخمة اللازمة لتدريب هذه الأنظمة القابلة للتفسير، توفر أدوات مثل Ultralytics خطوط إنتاج قوية وشاملة تبسط تدريب النماذج وتسجيلها ومراقبتها المستمرة. مع تسارع الدفع نحو الشفافية في مجال الذكاء الاصطناعي، ستظل القابلية للتفسير الآلي تخصصًا أساسيًا لبناء نماذج موثوقة ويمكن الاعتماد عليها.