Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الذكاء الاصطناعي القابل للتفسير (XAI)

اكتشف الذكاء الاصطناعي القابل للتفسير (XAI): ابنِ الثقة، واضمن المساءلة، واستوفِ اللوائح من خلال رؤى قابلة للتفسير لاتخاذ قرارات ذكاء اصطناعي أكثر ذكاءً.

يشير الذكاء الاصطناعي القابل للتفسير (XAI) إلى مجموعة من العمليات والأدوات والأساليب التي تسمح للمستخدمين البشر بفهم النتائج والمخرجات التي يتم إنشاؤها بالنتائج والمخرجات التي تم إنشاؤها بواسطة خوارزميات التعلم الآلي (ML). كما أنظمة الذكاء الاصطناعي (AI) أصبحت أكثر تقدمًا، لا سيما في مجال التعلّم العميق (DL)، فإنها غالبًا ما تعمل ك "صناديق سوداء". هذا يعني أنه في حين أن النظام قد ينتج تنبؤًا دقيقًا، فإن المنطق الداخلي المستخدم للوصول إلى هذا القرار مبهم أو مخفي عن المستخدم. يهدف XAI إلى إلقاء الضوء على هذه العملية، وسد الفجوة بين الشبكات العصبية المعقدة والفهم البشري والفهم البشري.

لماذا تعتبر قابلية الشرح مهمة

يتمثل الهدف الأساسي للذكاء الاصطناعي XAI في ضمان شفافية أنظمة الذكاء الاصطناعي وقابليتها للتفسير والمساءلة. هذا أمر بالغ الأهمية لتصحيح الأخطاء وتحسين أداء النموذج، ولكنه مهم بنفس القدر لبناء الثقة مع أصحاب المصلحة. في المجالات الحرجة المتعلقة بالسلامة، يجب على المستخدمين التحقق من أن قرارات النموذج تستند إلى منطق سليم وليس إلى ارتباطات زائفة. على سبيل المثال، يؤكد يؤكد إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي على على قابلية التفسير كخاصية رئيسية للأنظمة الجديرة بالثقة. علاوة على ذلك، فإن اللوائح الناشئة مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي يضع معايير قانونية تتطلب أنظمة الذكاء الاصطناعي عالية المخاطر لتقديم تفسيرات مفهومة لقراراتها الآلية.

يلعب تطبيق XAI أيضًا دورًا حيويًا في الحفاظ على أخلاقيات الذكاء الاصطناعي. من خلال تصور كيفية وزن النموذج لمختلف المختلفة، يمكن للمطورين detect وتخفيف التحيز الخوارزمي، مما يضمن المزيد من عدالة أكبر في عمليات نشر الذكاء الاصطناعي. مبادرات مثل برنامج DARPA للذكاء الاصطناعي القابل للتوضيح على إجراء أبحاث مهمة في التقنيات التي تجعل هذه الأدوات القوية في متناول غير الخبراء.

تقنيات XAI الشائعة

هناك العديد من الأساليب لتحقيق قابلية التفسير، وغالبًا ما يتم تصنيفها حسب ما إذا كانت لا تعتمد على النموذج أو أو خاصة بالنموذج.

  • SHAP (تخطيطات شابلي المضافة السابقة): يقوم هذا النهج النظري للعبة بتعيين قيمة مساهمة ل لكل ميزة لتنبؤ محدد. توفر قيم SHAP مقياسًا موحدًا لأهمية الميزة, مما يساعد المستخدمين على معرفة المدخلات التي غيرت مخرجات النموذج بالضبط.
  • LIME (التفسيرات المحلية القابلة للتفسير التفسيري للنموذج المحلي): تقارب هذه التقنية نموذجاً معقداً بنموذج أبسط محلياً حول تنبؤ معين. تساعد LIME في تفسير التنبؤات الفردية عن طريق تعديل المدخلات و ومراقبة كيفية تغير المخرجات، مما يجعلها فعالة للغاية في نماذج الصندوق الأسود.
  • خرائط الصلاحية: تُستخدم على نطاق واسع في في الرؤية الحاسوبية، تبرز خرائط البروز البكسلات في الصورة التي كانت الأكثر تأثيراً في قرار النموذج. تقنيات مثل Grad-CAM (خرائط التنشيط الطبقي الموزونة بالتدرج) تولد خرائط حرارية متراكبة فوق الصورة الأصلية، تُظهر مكان الشبكة العصبية التلافيفية "بحثت" لتحديد كائن ما.

تطبيقات واقعية

يُحدث الذكاء الاصطناعي القابل للتفسير تحولاً في الصناعات التي لا يقل فيها تبرير القرارات أهمية عن القرار نفسه.

  1. الرعاية الصحية والتشخيص: في تحليل الصور الطبية، تساعد نماذج الذكاء الاصطناعي أخصائيي الأشعة من خلال اكتشاف الحالات الشاذة مثل الأورام. لا يكتفي النظام المدعوم بالذكاء الاصطناعي بإخراج احتمالية؛ بل يسلط الضوء على بل يسلط الضوء على المنطقة المحددة في الأشعة السينية أو التصوير بالرنين المغناطيسي التي أدت إلى إطلاق التنبيه. يتيح ذلك للمهنيين الطبيين التحقق من صحة النتائج التي توصل إليها الذكاء الاصطناعي مقارنةً بخبراتهم، مما يعزز من أمان الذكاء الاصطناعي في مجال الرعاية الصحية.
  2. الخدمات المالية: عندما تستخدم البنوك الذكاء الاصطناعي لتقييم الائتمان، فإن رفض طلب القرض يتطلب سببًا واضحًا للامتثال للوائح مثل قانون تكافؤ الفرص الائتمانية. يمكن لأدوات الذكاء الاصطناعي للذكاء الاصطناعي تقسيم الرفض إلى عوامل مفهومة - مثل "ارتفاع نسبة الدين إلى الدخل" أو "عدم كفاية السجل الائتماني" - مما يوفر الشفافية اللازمة للعملاء والمدققين.

التفريق بين المصطلحات ذات الصلة

من المفيد التمييز بين XAI والمفاهيم ذات الصلة في مسرد مصطلحات الذكاء الاصطناعي:

  • XAI مقابل الشفافية في الذكاء الاصطناعي: الشفافية هي مفهوم أوسع يشير إلى انفتاح النظام بأكمله، بما في ذلك مصادر البيانات والنموذج وبنية النموذج وعمليات التطوير. تركز XAI على وجه التحديد على طرق جعل مخرجات و ومنطقية النموذج مفهومة. قد تعني الشفافية مشاركة توزيع بيانات التدريب، بينما يشرح XAI سبب حصول مدخلات معينة على نتيجة محددة.
  • XAI مقابل قابلية التفسير: على الرغم من استخدامهما بالتبادل في كثير من الأحيان، إلا أن قابلية التفسير تشير عادةً إلى مدى إلى مدى قابلية فهم بنية النموذج بطبيعتها (مثل شجرة القرار شجرة القرار)، في حين أن قابلية التفسير غالباً ما تنطوي على أساليب ما بعد التطبيق على النماذج المعقدة غير القابلة للتفسير مثل الشبكات العصبية العميقة.

مثال على الشيفرة البرمجية: تفسير نتائج الاستدلال

عند استخدام نماذج مثل YOLO11 لـ اكتشاف الأجسامفإن فهم المخرجات هو الخطوة الأولى نحو قابلية التفسير. إن ultralytics توفر الحزمة وصولاً سهلاً إلى بيانات الكشف، والتي تعمل كأساس لمزيد من التحليل أو التصور في XAI.

from ultralytics import YOLO

# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")

# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")

# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()

من خلال تصور المربعات المحدودة وتسميات الفصول، يمكن للمستخدمين إجراء "اختبار العين" الأساسي للتحقق - وهو جانب أساسي من تقييم النموذج ومراقبته. لمزيد من احتياجات أكثر تقدمًا، غالبًا ما يدمج الباحثون هذه المخرجات مع مكتبات مصممة خصيصًا لإسناد الميزات التفصيلية.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن