Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

خصوصية البيانات

اكتشف التقنيات الأساسية لخصوصية البيانات في الذكاء الاصطناعي/تعلم الآلة، من إخفاء الهوية إلى التعلم الموحد، مما يضمن الثقة والامتثال والممارسات الأخلاقية للذكاء الاصطناعي.

تشير خصوصية البيانات إلى الحوكمة والممارسات والمعايير الأخلاقية المتعلقة بكيفية ومعالجتها وتخزينها ومشاركتها ضمن الذكاء الاصطناعي (AI) و أنظمة التعلم الآلي (ML). نظرًا لأن الحديثة، لا سيما نماذج التعلم العميق (DL) ، تتطلب كميات هائلة من بيانات التدريب لتحقيق أداء عالٍ، أصبح ضمان أصبح ضمان سرية وحقوق الأفراد تحديًا بالغ الأهمية. تعمل تدابير خصوصية البيانات الفعالة على بناء ثقة المستخدم وضمان الامتثال للأطر القانونية مثل اللائحة الأوروبية العامة لحماية البيانات (GDPR) و قانون خصوصية المستهلك في كاليفورنيا (CCPA).

المبادئ الأساسية لخصوصية البيانات

في سياق عمليات التعلم الآلي (MLOps)، فإن خصوصية البيانات لا تتعلق بالسرية فحسب، بل تتعلق بالتحكم والموافقة. تشمل المبادئ الرئيسية ما يلي:

  • تقليل البيانات: يجب أن تجمع الأنظمة فقط البيانات المحددة اللازمة للمهمة المحددة, وتجنب تكديس المعلومات الحساسة.
  • تحديد الغرض: البيانات التي يتم جمعها لغرض واحد، مثل تحسين التصنيع باستخدام الرؤية الحاسوبية، لا ينبغي استخدامها في مهام غير ذات صلة دون موافقة صريحة.
  • الشفافية: يجب أن تكون المؤسسات واضحة بشأن البيانات التي يتم استخدامها. هذا هو حجر الزاوية في أخلاقيات الذكاء الاصطناعي ويساعد على منع التحيز الخوارزمي.
  • إخفاء الهوية: يجب إزالة المعرّفات الشخصية أو حجبها. تقنيات مثل مثل تقنية إخفاء الهوية الكاذبة التي تستبدل المعرّفات الخاصة بمعرفات مزيفة، مما يسمح بتحليل البيانات مع حماية الهويات الفردية.

خصوصية البيانات مقابل أمن البيانات

على الرغم من أن هذه المصطلحات غالبًا ما تستخدم بالتبادل، إلا أنها تمثل مفاهيم مختلفة في دورة حياة الذكاء الاصطناعي.

  • تتعلق خصوصية البيانات بحقوق الأفراد وقانونية استخدام البيانات. ويتناول مسائل الموافقة والتعامل الأخلاقي.
  • أمن البيانات يتضمن الآليات التقنية المستخدمة لحماية البيانات من الوصول غير المصرح به أو السرقة أو الهجمات المعادية.

الأمان هو الأداة التي تفرض الخصوصية. على سبيل المثال، التشفير هو إجراء أمني يساعد على تلبية متطلبات الخصوصية متطلبات الخصوصية. توفر وكالات مثل المعهد الوطني للمعايير والتكنولوجيا (NIST) توفر أطر عمل لدمج كليهما بفعالية.

تطبيقات العالم الحقيقي في الذكاء الاصطناعي

خصوصية البيانات أمر بالغ الأهمية في القطاعات التي تتم فيها معالجة المعلومات الشخصية الحساسة تلقائيًا.

تقنيات الحفاظ على الخصوصية

يستخدم المطورون العديد من تقنيات تعزيز الخصوصية (PETs) لتأمين سير عمل تعلّم الآلة:

  • الخصوصية التفاضلية: تضيف هذه الطريقة تضيف هذه الطريقة تشويشًا إحصائيًا إلى مجموعات البيانات، مما يضمن أن مخرجات الخوارزمية لا تكشف ما إذا كان أي ما إذا كانت معلومات أي شخص محدد قد تم تضمينها في المدخلات. منظمات مثل OpenMined تدافع عن أدوات الخصوصية مفتوحة المصدر هذه.
  • التعلّم الاتحادي: بدلاً من من مركزية البيانات، يتم إرسال النموذج إلى الجهاز (حوسبة الحافة). يتعلم النموذج محليًا ويرسل فقط التحديثات فقط، مع الاحتفاظ بالبيانات الأولية على جهاز المستخدم. هذا مناسب بشكل متزايد لـ المركبات ذاتية القيادة والأجهزة المحمولة.
  • البيانات التركيبية: توليد البيانات الاصطناعية التي تحاكي الخصائص الإحصائية في العالم الحقيقي تسمح للمهندسين بتدريب النماذج دون تعريض بيانات المستخدم الحقيقية.

مثال: إخفاء هوية الصور باستخدام Python

إحدى مهام الخصوصية الأكثر شيوعًا هي طمس الوجوه أو المناطق الحساسة في البيانات المرئية. المثال التالي يوضح كيفية استخدام YOLO11detect كائن (مثل شخص) وتطبيق تمويه لحماية هويته.

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Read an image
img = cv2.imread("bus.jpg")

# Run object detection
results = model(img)

# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
    x1, y1, x2, y2 = map(int, box)
    # Extract the region of interest (ROI)
    roi = img[y1:y2, x1:x2]
    # Apply a Gaussian blur to the ROI to anonymize it
    img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)

# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن