اكتشف الذكاء الاصطناعي القابل للتفسير (XAI): بناء الثقة، وضمان المساءلة، والوفاء باللوائح من خلال رؤى قابلة للتفسير لاتخاذ قرارات أكثر ذكاءً في مجال الذكاء الاصطناعي.
الذكاء الاصطناعي القابل للتفسير (XAI) هو مجموعة من العمليات والأساليب التي تُمكِّن المستخدمين من البشر من فهم القرارات التي تتخذها نماذج التعلم الآلي والثقة بها. مع ازدياد تقدم الذكاء الاصطناعي (AI) ، تعمل العديد من النماذج كـ "صناديق سوداء"، مما يجعل من الصعب فهم منطقها الداخلي. تهدف XAI إلى فتح هذا الصندوق الأسود، وتقديم تفسيرات واضحة لمخرجات النماذج وتعزيز الشفافية والمساءلة. وقد تعزز تطوير الذكاء الاصطناعي المبني على الذكاء الاصطناعي المبني على الذكاء الاصطناعي بشكل كبير من خلال مبادرات مثل برنامج الذكاء الاصطناعي القابل للتفسير التابع لوكالة مشاريع البحوث الدفاع الدفاعية المتقدمة (DARPA)، والذي سعى إلى إنشاء أنظمة ذكاء اصطناعي يمكن فهم نماذجها وقراراتها المكتسبة والثقة بها من قبل المستخدمين النهائيين.
تمتد الحاجة إلى الذكاء الاصطناعي المجهري عبر مجالات مختلفة، مدفوعة باعتبارات عملية وأخلاقية. إن بناء الثقة أمر أساسي؛ فمن المرجح أن يتبنى المستخدمون وأصحاب المصلحة أنظمة الذكاء الاصطناعي ويعتمدوا عليها إذا تمكنوا من فهم كيفية توصلها إلى استنتاجاتها. وهذا أمر بالغ الأهمية بشكل خاص في المجالات عالية المخاطر مثل الذكاء الاصطناعي في مجال الرعاية الصحية والمركبات ذاتية القيادة. كما أن قابلية الشرح ضرورية أيضًا لتصحيح النماذج وتنقيحها، حيث إنها تساعد المطورين على تحديد العيوب والسلوك غير المتوقع. علاوةً على ذلك، تُعد XAI حجر الزاوية في تطوير الذكاء الاصطناعي المسؤول، حيث تساعد في الكشف عن التحيز الخوارزمي والتخفيف من حدته وضمان العدالة في الذكاء الاصطناعي. مع زيادة اللوائح التنظيمية، مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي، أصبح تقديم تفسيرات للقرارات التي تعتمد على الذكاء الاصطناعي مطلبًا قانونيًا.
قد يكون تحقيق قابلية التفسير الهادف أمراً معقداً. فغالباً ما تكون هناك مفاضلة بين أداء النموذج وقابلية التفسير؛ قد تكون نماذج التعلّم العميق شديدة التعقيد أكثر دقة ولكن يصعب تفسيرها، وهو تحدٍ تم تفصيله في"تاريخ نماذج الرؤية". بالإضافة إلى ذلك، قد يؤدي الكشف عن منطق النموذج المفصل إلى إثارة مخاوف بشأن الملكية الفكرية أو خلق نقاط ضعف للهجمات المعادية. تعمل منظمات مثل الشراكة في مجال الذكاء الاصطناعي والمؤتمرات الأكاديمية مثل ACM FAccT على تجاوز هذه التحديات الأخلاقية والعملية.
في Ultralytics، ندعم فهم النموذج من خلال أدوات وموارد متنوعة. تساعد إمكانيات التصور داخل Ultralytics HUB والأدلة التفصيلية في مستندات Ultralytics، مثل شرح مقاييس أداء YOLO، المستخدمين على تقييم وتفسير سلوك النماذج مثل Ultralytics YOLOv8. وهذا يُمكّن المطورين من بناء تطبيقات أكثر موثوقية وجدارة بالثقة في مجالات تتراوح من التصنيع إلى الزراعة.