Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

خصوصية البيانات

اكتشف التقنيات الأساسية لخصوصية البيانات في الذكاء الاصطناعي/تعلم الآلة، من إخفاء الهوية إلى التعلم الموحد، مما يضمن الثقة والامتثال والممارسات الأخلاقية للذكاء الاصطناعي.

تشمل خصوصية البيانات الإرشادات والممارسات والتدابير التقنية المستخدمة لحماية المعلومات الشخصية للأفراد أثناء جمعها ومعالجتها وتخزينها. في سياق الذكاء الاصطناعي (AI) و التعلم الآلي (ML)، يعتبر هذا المفهوم بالغ الأهمية لأن الخوارزميات الحديثة غالبًا ما تتطلب كميات هائلة من بيانات التدريب لتحقيق دقة عالية. يعد ضمان عدم تعرض هذه البيانات لخطر انتهاك سرية المستخدم أو حقوقه متطلبًا أساسيًا للتطوير الأخلاقي . يجب على المؤسسات التعامل مع مجموعة معقدة من اللوائح، مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا و قانون خصوصية المستهلك في كاليفورنيا (CCPA) في الولايات المتحدة، لضمان امتثال أنظمة الذكاء الاصطناعي لديها وموثوقيتها.

المبادئ الأساسية في تطوير الذكاء الاصطناعي

غالبًا ما يُشار إلى دمج الخصوصية في دورة حياة الذكاء الاصطناعي باسم "الخصوصية حسب التصميم". ويؤثر هذا النهج على كيفية تعامل المهندسين مع المعالجة المسبقة للبيانات وبنية النموذج.

  • تقليل البيانات: يجب أن تجمع الأنظمة فقط النقاط المحددة من البيانات اللازمة للمهمة المحددة ، مما يقلل من المخاطر المرتبطة بتخزين المعلومات الشخصية (PII) الزائدة.
  • تحديد الغرض: لا يجوز إعادة استخدام البيانات التي تم جمعها لتطبيق معين، مثل تحسين كفاءة التصنيع، في تحليلات غير ذات صلة دون موافقة صريحة من المستخدم.
  • إخفاء الهوية: تتضمن هذه التقنية إزالة المعرفات المباشرة من مجموعات البيانات. تسمح الطرق المتقدمة للباحثين بإجراء تحليلات للبيانات على الاتجاهات المجمعة دون تتبع المعلومات إلى أفراد معينين.
  • الشفافية: تعتبر الشفافية ركيزة أساسية لأخلاقيات الذكاء الاصطناعي، وتقتضي من المؤسسات التواصل بوضوح حول كيفية استخدام بيانات المستخدمين، مما يعزز اتخاذ قرارات مستنيرة.

تطبيقات واقعية

يعد الحفاظ على الخصوصية أمرًا ضروريًا في القطاعات التي تتفاعل فيها البيانات الشخصية الحساسة مع الأتمتة المتقدمة والرؤية الحاسوبية (CV).

تشخيص الرعاية الصحية

في مجال تحليل الصور الطبية، تستخدم المستشفيات الذكاء الاصطناعي لمساعدة أطباء الأشعة في تشخيص الحالات من خلال الأشعة السينية والتصوير بالرنين المغناطيسي. ومع ذلك، فإن هذه الصور محمية بقوانين صارمة مثل قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA). قبل تدريب نموذج على مهام مثل الكشف عن الأورام، يتم حذف بيانات المرضى من ملفات DICOM، مما يسمح للباحثين بالاستفادة من الذكاء الاصطناعي في الرعاية الصحية دون الكشف عن هويات المرضى.

المدن الذكية والمراقبة

تعتمد مبادرات التخطيط الحضري بشكل متزايد على اكتشاف الأجسام من أجل إدارة حركة المرور والسلامة العامة. لتحقيق التوازن بين الأمن وإخفاء الهوية الفردية، يمكن للأنظمة تحديد المشاة والمركبات في الوقت الفعلي وتطبيق مرشحات التعتيم على الوجوه ولوحات الترخيص على الفور. وهذا يضمن أن مبادرات المدن الذكية تحترم خصوصية المواطنين في الأماكن العامة مع الاستمرار في تجميع بيانات مفيدة عن تدفق حركة المرور.

التنفيذ التقني: إخفاء الهوية في الوقت الفعلي

أحد التطبيقات التقنية الشائعة للخصوصية في الرؤية الحاسوبية هو حجب العناصر الحساسة أثناء الاستدلال. يوضح Python التالي Python كيفية استخدام نموذج Ultralytics detect في الصورة و تطبيق ضبابية غاوسية على المناطق المكتشفة.

import cv2
from ultralytics import YOLO

# Load the YOLO26 model (latest generation for efficiency)
model = YOLO("yolo26n.pt")
img = cv2.imread("street.jpg")

# Perform detection
results = model(img)

# Blur detected persons (class ID 0)
for box in results[0].boxes.data:
    if int(box[5]) == 0:  # Class 0 is 'person'
        x1, y1, x2, y2 = map(int, box[:4])
        # Apply Gaussian blur to the region of interest (ROI)
        img[y1:y2, x1:x2] = cv2.GaussianBlur(img[y1:y2, x1:x2], (51, 51), 0)

التمييز بين خصوصية البيانات والمصطلحات ذات الصلة

على الرغم من أنه غالبًا ما يتم مناقشتهما معًا، من المهم التمييز بين خصوصية البيانات والمفاهيم المماثلة في مجال عمليات التعلم الآلي (MLOps) .

  • خصوصية البيانات مقابل أمن البيانات: تشير الخصوصية إلى الحقوق والسياسات التي تحكم من يحق له الوصول إلى البيانات ولأي غرض. يشير الأمن إلى الآليات التقنية (مثل التشفير وجدران الحماية) المستخدمة لحماية تلك البيانات من الوصول غير المصرح به أو الهجمات العدائية. الأمن هو أداة لتحقيق الخصوصية.
  • خصوصية البيانات مقابل الخصوصية التفاضلية: خصوصية البيانات هي الهدف العام. الخصوصية التفاضلية هي تعريف وتقنية رياضية محددة تضيف ضوضاء إحصائية إلى مجموعة البيانات. وهذا يضمن أن ناتج الخوارزمية لا يمكن أن يكشف ما إذا كانت بيانات أي فرد معين قد أُدرجت في المدخلات، وهي تقنية غالبًا ما يستكشفها الباحثون في المعهد الوطني للمعايير والتكنولوجيا (NIST).

التكنولوجيات الناشئة

لتلبية المتطلبات المتزايدة في مجال الخصوصية، تعمل منهجيات جديدة على إعادة تشكيل طريقة تعلم النماذج.

  • التعلم الفيدرالي: هذا النهج اللامركزي يسمح للنماذج بالتدريب على الأجهزة المحلية (مثل الهواتف الذكية) وإرسال أوزان النموذج المكتسبة فقط إلى خادم مركزي، بدلاً من البيانات الأولية نفسها.
  • البيانات الاصطناعية: من خلال إنشاء مجموعات بيانات اصطناعية تحاكي الخصائص الإحصائية للبيانات الواقعية، يمكن للمهندسين تدريب نماذج قوية دون الكشف عن معلومات المستخدمين الحقيقية. وهذا يساعد على التخفيف من تحيز مجموعات البيانات وحماية هوية المستخدمين.

بالنسبة للفرق التي تسعى إلى إدارة مجموعات البيانات الخاصة بها بشكل آمن، توفر Ultralytics أدوات لتعليق النماذج وتدريبها ونشرها مع الالتزام بمعايير حوكمة البيانات الحديثة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن