Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

التحيز في الذكاء الاصطناعي

اكتشف كيفية تحديد التحيز في أنظمة الذكاء الاصطناعي وتخفيفه ومنعه باستخدام الاستراتيجيات والأدوات والأمثلة الواقعية لتطوير الذكاء الاصطناعي الأخلاقي.

يشير التحيز في الذكاء الاصطناعي إلى الأخطاء المنهجية أو التحيزات المضمنة في نظام الذكاء الاصطناعي التي تؤدي إلى نتائج غير عادلة أو غير منصفة أو تمييزية. على عكس الأخطاء العشوائية، تكون هذه التحيزات متسقة ومتكررة وقابلة للتكرار، وغالباً ما تفضّل مجموعة تعسفية من المستخدمين أو مدخلات البيانات على غيرها. نظرًا لأن المؤسسات تقوم بشكل متزايد دمج التعلم الآلي (ML) في عمليات في عمليات صنع القرار الحرجة، أصبح التعرف على التحيز ومعالجته ركيزة أساسية في أخلاقيات الذكاء الاصطناعي. يمكن أن يؤدي الفشل في التخفيف من هذه المشكلات إلى نتائج منحرفة في تطبيقات تتراوح بين الذكاء الاصطناعي في تشخيص الرعاية الصحية إلى الإقراض المالي الآلي.

مصادر التحيز في أنظمة الذكاء الاصطناعي

يمكن أن يتسلل التحيز إلى أنظمة الذكاء الاصطناعي في مراحل متعددة من دورة حياة التطوير. إن فهم هذه الأصول ضروري لإنشاء نماذج قوية ومنصفة.

  • تحيز مجموعة البيانات: هذا هو المصدر الأكثر انتشارًا المصدر الأكثر انتشارًا، ويحدث عندما لا تكون بيانات التدريب المستخدمة لتعليم النموذج تمثل مجتمع العالم الحقيقي بدقة. على سبيل المثال، إذا تم تدريب نموذج تم تدريب نموذج تصنيف الصور في المقام الأول على صور من دول غربية، فقد يواجه صعوبة في التعرف على الأجسام أو المشاهد من مناطق أخرى، وهي ظاهرة وهي ظاهرة غالباً ما ترتبط بالتحيز في الاختيار.
  • التحيز الخوارزمي: في بعض الأحيان, يمكن أن يؤدي التصميم الرياضي للخوارزمية نفسها إلى تضخيم التباينات الموجودة. بعض خوارزميات التحسين قد تعطي الأولوية الدقة الإجمالية على حساب المجموعات الفرعية ناقصة التمثيل الممثلة تمثيلاً ناقصًا، متجاهلةً بذلك "القيم المتطرفة" التي تمثل الأقليات السليمة.
  • التحيّز المعرفي والبشري: الخيارات الذاتية التي يقوم بها المهندسون أثناء وضع العلامات على البيانات أو اختيار الميزات عن غير قصد ترميز التحيزات البشرية في النظام.

تطبيقات وانعكاسات العالم الحقيقي

يمكن ملاحظة عواقب تحيز الذكاء الاصطناعي في مختلف التقنيات المنتشرة.

  1. تفاوتات التعرف على الوجه: أنظمة التعرف على الوجه التجارية أنظمة التعرف على الوجه التجارية معدلات خطأ أعلى عند التعرف على النساء والأشخاص الملونين. وقد أبرزت مشاريع بحثية مثل "ظلال الجنسين " أبرزت كيف أن كيف تؤدي مجموعات البيانات غير التمثيلية إلى ضعف الأداء بالنسبة لفئات سكانية محددة، مما أدى إلى دعوات لتحسين خصوصية البيانات ومعايير الشمولية.
  2. العمل الشرطي التنبؤي والعود إلى الإجرام: تم انتقاد الخوارزميات المستخدمة للتنبؤ بعودة المجرمين إلى الإجرام انتُقدت لإظهارها التحيز العنصري. تحقيقات مثل تحليل بروبابليكا لبرنامج كومباس كشفت أن بعض النماذج كانت أكثر عرضة للإبلاغ عن المتهمين من الأقليات على أنهم من ذوي الخطورة العالية بشكل خاطئ، مما يوضح مخاطر الاعتماد على بيانات الاعتقال التاريخية التي تعكس عدم المساواة المجتمعية.

استراتيجيات وأدوات التخفيف من المخاطر

تتطلب معالجة التحيز اتباع نهج استباقي يُعرف باسم الإنصاف في الذكاء الاصطناعي. يمكن للمطورين استخدام العديد من تقنيات detect التحيز والحد منه.

  • تعزيز البيانات: إحدى الطرق الفعالة لتحسين تعميم النموذج هي زيادة البيانات. من خلال توليد اختلافات في نقاط البيانات الموجودة - مثل قلب أو تدوير أو تعديل توازن الألوان في الصور - يمكن للمطورين أن يعرضوا نماذج مثل Ultralytics YOLO11 لنطاق أوسع أوسع من المدخلات.
  • التدقيق الخوارزمي: اختبار النماذج بانتظام مقابل معايير متنوعة أمر بالغ الأهمية. أدوات مثل IBM's AI Fairness 360 و Microsoft's Fairlearn مقاييس لتقييم أداء النموذج عبر مجموعات فرعية مختلفة.
  • الشفافية: اعتماد ممارسات الذكاء الاصطناعي القابل للتفسير (XAI) يساعد أصحاب المصلحة على فهم سبب قيام النموذج بعمل تنبؤات محددة، مما يسهل اكتشاف المنطق التمييزي.

مثال على التعليمات البرمجية: تحسين التعميم مع التعزيز

يوضّح مقتطف Python التالي كيفية تطبيق زيادة البيانات أثناء التدريب باستخدام ultralytics الحزمة. هذا يساعد النموذج على أن يصبح ثابتاً في مواجهة تغييرات معينة، مما يقلل من الإفراط في ملاءمة خصائص بصرية معينة.

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

التمييز بين المصطلحات ذات الصلة

من المفيد التفريق بين مصطلح "التحيز في الذكاء الاصطناعي" والمصطلحات ذات الصلة الوثيقة في المسرد:

  • التحيز في الذكاء الاصطناعي مقابل التحيز الخوارزمي: "التحيز في الذكاء الاصطناعي" هو المصطلح الشامل الذي يشمل جميع مصادر عدم الإنصاف (البيانات والبشرية والنظامية). يشير مصطلح "التحيز الخوارزمي" على وجه التحديد إلى التحيز الذي تُدخله الإجراءات الحسابية للنموذج أو أو الوظائف الموضوعية.
  • التحيز في الذكاء الاصطناعي مقابل تحيز مجموعة البيانات: "تحيز مجموعة البيانات" هو سبب محدد لتحيز الذكاء الاصطناعي المتجذر في جمع وتنظيم المواد التدريبية. لا يزال بإمكان خوارزمية عادلة تمامًا أن تظهر "التحيز في الذكاء الاصطناعي" إذا تعلمت من مجموعة بيانات متحيزة.

من خلال الالتزام بأطر عمل مثل إطار عمل إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي، يمكن للمطورين العمل على بناء ذكاء اصطناعي مسؤول المسؤول الذي يخدم الجميع بشكل منصف.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن