Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

السلامة في الذكاء الاصطناعي

تعرّف على السلامة في الذكاء الاصطناعي، وهو مجال حيوي لمنع الأضرار غير المقصودة من أنظمة الذكاء الاصطناعي. اكتشف أركانه الأساسية، وتطبيقاته الواقعية، ودوره في الذكاء الاصطناعي المسؤول.

سلامة الذكاء الاصطناعي هو مجال مخصص ضمن الذكاء الاصطناعي الذي يركز على ضمان عمل أنظمة الذكاء الاصطناعي بشكل موثوق ومتوقع ودون التسبب في ضرر غير مقصود. وبما أن أصبحت نماذج التعلّم العميق (DL) أكثر استقلالية ودمجها في البنية التحتية الحيوية، تزداد العواقب المحتملة لفشل النظام بشكل كبير. إن يتمثل الهدف الأساسي لسلامة الذكاء الاصطناعي في تحديد وتحليل وتخفيف المخاطر الناجمة عن مواطن الخلل التقني أو أو السلوكيات غير المتوقعة، أو عدم التوافق بين أهداف الذكاء الاصطناعي والقيم الإنسانية. يشمل هذا التخصص مجموعة واسعة من الممارسات، من اختبار النموذج الصارم إلى تطوير ضمانات رياضية لسلوك النظام.

الركائز الأساسية لسلامة الذكاء الاصطناعي

لبناء أنظمة جديرة بالثقة، يركز الباحثون والمهندسون على عدة ركائز أساسية تضمن أن تعمل نماذج التعلم الآلي (ML) بشكل صحيح في ظل ظروف مختلفة.

  • المتانة: يجب أن يحافظ النظام القوي على الأداء حتى عند مواجهة بيانات غير متوقعة أو أو ظروف معادية غير متوقعة. يتضمن ذلك الدفاع ضد الهجمات العدائية، حيث تُصمم المدخلات الخبيثة الخبيثة لخداع النموذج. على سبيل المثال يجب ألا يخطئ نظام الرؤية الحاسوبية يخطئ في تصنيف علامة توقف لمجرد وجود ملصق أو إضاءة سيئة.
  • المواءمة: يشير هذا إلى التحدي المتمثل في تصميم أنظمة الذكاء الاصطناعي التي تعكس أهدافها بدقة النوايا البشرية بدقة. يمكن أن يحدث عدم التوافق إذا وجد النموذج "طريقاً مختصراً" لتحقيق درجة عالية في دالة الخسارة بينما ينتهك قيود السلامة، وهو مفهوم مفهوم درسه مركز الذكاء الاصطناعي المتوافق مع الإنسان على نطاق واسع.
  • قابلية التفسير: يُعرف أيضًا باسم الذكاء الاصطناعي القابل للتفسير (XAI)، هذا المبدأ على إنشاء نماذج يمكن للبشر فهمها. إذا فشل نظام اتخاذ القرار، يجب أن يكون المهندسون قادرين على فحص أوزان النموذج الداخلي أو خرائط التنشيط الداخلية لتشخيص الخطأ ومنع تكراره.
  • المراقبة: المراقبة المستمرة مراقبة النموذج ضرورية detect انحراف البيانات، حيث تختلف البيانات التي يواجهها النموذج في العالم الحقيقي عن بيانات التدريب الخاصة به, مما قد يؤدي إلى تنبؤات غير آمنة.

تطبيقات واقعية

إن سلامة الذكاء الاصطناعي ليست مجرد مسألة نظرية، بل هي مطلب أساسي لنشر الذكاء الاصطناعي في قطاعي السيارات والرعاية الصحية.

  1. القيادة الذاتية: تعتمد المركبات ذاتية القيادة على نماذج اكتشاف الأجسام للتعرف على المشاة والمركبات الأخرى والعوائق. تتضمن بروتوكولات السلامة هنا التكرار - باستخدام الليدار والرادار إلى جانب الكاميرات - و "تقدير عدم اليقين"، حيث تبطئ السيارة أو تطلب تدخلاً بشرياً إذا كان الذكاء الاصطناعي غير متأكد بشأن جسم ما. تنشر منظمات مثل Waymo منهجيات مفصلة عن السلامة للتحقق من صحة أنظمة الإدراك هذه.
  2. التشخيص الطبي: في تحليل الصور الطبية، يجب على الذكاء الاصطناعي الذي يساعد أطباء الأشعة على زيادة الدقة إلى أقصى حد مع تقليل السلبيات الخاطئة. وغالباً ما تتضمن آليات السلامة سير عمل "الإنسان في الحلقة"، حيث يقوم الذكاء الاصطناعي بالإشارة إلى المشكلات المحتملة لمراجعتها من قبل الطبيب بدلاً من إجراء التشخيص النهائي بشكل مستقل، مما يضمن سلامة المريض كما هو موضح في الذكاء الاصطناعي في حلول الرعاية الصحية.

تطبيق عتبات السلامة في التعليمات البرمجية

تتمثل إحدى الطرق الأساسية لتعزيز السلامة في النشر في تطبيق عتبات ثقة صارمة. من خلال تجاهل التنبؤات منخفضة الثقة، يمكن للمطورين منع وكيل الذكاء الاصطناعي من العمل على بيانات ضعيفة أو ضبابية.

يوضح المثال التالي كيفية تصفية التنبؤات باستخدام Ultralytics YOLO11 لضمان معالجة التنبؤات عالية اليقين فقط العالية اليقين فقط.

from ultralytics import YOLO

# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")

# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)

# Process only the safe, high-confidence detections
for result in results:
    print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")

السلامة في الذكاء الاصطناعي مقابل أخلاقيات الذكاء الاصطناعي

على الرغم من أن هذه المصطلحات غالبًا ما تستخدم بالتبادل، إلا أنها تتناول جوانب مختلفة من التطوير المسؤول للذكاء الاصطناعي.

  • سلامة الذكاء الاصطناعي تقنية في المقام الأول. فهي تطرح السؤال التالي: "هل سيعمل هذا النظام كما هو مصمم بدون دون أن يتعطل أو يتسبب في حوادث مادية؟ وهي تتعامل مع الموثوقية والتحكم والوقاية من الأخطاء، على غرار هندسة السلامة في الطيران المدني.
  • أخلاقيات الذكاء الاصطناعي هي أخلاقيات مجتمعية وأخلاقية. فهي تسأل "هل هذا النظام عادل، وهل يجب أن نبنيه؟ وهو يركز على قضايا مثل التحيز الخوارزمي, خصوصية البيانات، والأثر الاجتماعي والاقتصادي للأتمتة. الأتمتة. للحصول على رؤى أعمق، استكشف مدخل المسرد الخاص بنا عن أخلاقيات الذكاء الاصطناعي.

توفر أطر العمل مثل إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي إرشادات للمؤسسات لمعالجة كل من مخاطر السلامة والمخاطر الأخلاقية. مع تطور النماذج نحو الذكاء الاصطناعي العام (AGI)، يصبح التعاون بين الباحثين في مجال السلامة في معاهد مثل معهد مستقبل الحياة ومطوري الصناعة يصبح أمرًا حيويًا بشكل متزايد من أجل ضمان بقاء التكنولوجيا مفيدة للبشرية.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن