Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Конфиденциальность данных

Узнайте об основных методах обеспечения конфиденциальности данных для AI/ML, от анонимизации до федеративного обучения, обеспечивающих доверие, соответствие требованиям и этические методы ИИ.

Конфиденциальность данных - это управление, практика и этические стандарты, касающиеся того, как личная информация сбора, обработки, хранения и распространения личной информации в рамках искусственного интеллекта (ИИ) и системах машинного обучения (ML). Поскольку современные алгоритмы, особенно модели глубокого обучения (DL), требуют огромных объемов обучающих данных для достижения высокой производительности, обеспечение конфиденциальность и соблюдение прав отдельных лиц стало критически важной задачей. Эффективные меры по обеспечению конфиденциальности данных укрепляют доверие пользователей и обеспечивают соответствие законодательным нормам, таким как Европейское общее положение о защите данных (GDPR) и Калифорнийский закон о защите персональных данных потребителей (CCPA).

Основные принципы конфиденциальности данных

В контексте операций машинного обучения (MLOps) конфиденциальность данных - это не только секретность, но и контроль и согласие. Ключевые принципы включают:

  • Минимизация данных: Системы должны собирать только те данные, которые необходимы для выполнения конкретной задачи, не допуская накопления конфиденциальной информации.
  • Ограничение цели: Данные, собранные для одной цели, например улучшение производства с помощью компьютерного зрения, не должны использоваться для решения несвязанных задач без явного согласия.
  • Прозрачность: Организации должны четко представлять, какие данные используются. Это краеугольный камень этики ИИ и помогает предотвратить предвзятости алгоритмов.
  • Анонимизация: Личные идентификаторы должны быть удалены или скрыты. Такие методы, как псевдонимизация - замена личных идентификаторов поддельными идентификаторами, что позволяет анализировать данные, защищая личность человека.

Конфиденциальность данных и безопасность данных

Хотя эти термины часто используются как взаимозаменяемые, они представляют собой разные понятия в жизненном цикле ИИ.

  • Конфиденциальность данных касается прав отдельных лиц и законности использования данных. Она затрагивает вопросы согласия и этики использования данных.
  • Безопасность данных включает в себя Технические механизмы, используемые для защиты данных от несанкционированного доступа, кражи или атак противника.

Безопасность - это инструмент, обеспечивающий конфиденциальность. Например, шифрование - это мера безопасности, которая помогает удовлетворить требования конфиденциальности требованиям конфиденциальности. Такие агентства, как Национальный институт стандартов и технологий (NIST), предоставляют рамочные программы, позволяющие эффективно интегрировать оба этих направления.

Приложения реального мира в искусственном интеллекте

Конфиденциальность данных имеет первостепенное значение в тех отраслях, где конфиденциальная личная информация обрабатывается автоматически.

Методы сохранения конфиденциальности

Разработчики используют различные технологии повышения конфиденциальности (PET) для защиты рабочих процессов ML:

  • Дифференциальная конфиденциальность: Этот Этот метод добавляет статистический шум в наборы данных, гарантируя, что на выходе алгоритма не будет видно, была ли какая-либо информация конкретного человека была включена в исходные данные. Такие организации, как OpenMined, выступают в поддержку этих инструментов конфиденциальности с открытым исходным кодом.
  • Федеративное обучение: Вместо Вместо централизованного хранения данных модель отправляется на устройство (граничные вычисления). Модель обучается локально и отправляет только обновления, сохраняя исходные данные на устройстве пользователя. Это становится все более актуальным для автономных транспортных средств и мобильных устройств.
  • Синтетические данные: Генерация Искусственные данные, имитирующие статистические свойства реального мира, позволяют инженерам обучать модели, не подвергая реальных пользовательских данных.

Пример: Анонимизация изображений с помощью Python

Одной из наиболее распространенных задач по обеспечению конфиденциальности является размытие лиц или чувствительных областей в визуальных данных. Следующий пример демонстрирует, как использовать YOLO11 для detect объекта (например человека) и применить размытие для защиты его личности.

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Read an image
img = cv2.imread("bus.jpg")

# Run object detection
results = model(img)

# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
    x1, y1, x2, y2 = map(int, box)
    # Extract the region of interest (ROI)
    roi = img[y1:y2, x1:x2]
    # Apply a Gaussian blur to the ROI to anonymize it
    img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)

# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас