Узнайте, как надежные методы обеспечения безопасности данных защищают системы AI и ML, обеспечивая целостность данных, доверие и соответствие требованиям.
Безопасность данных включает в себя защитные меры, стратегии и технологии, используемые для защиты цифровой информации от несанкционированного доступа, повреждения, кражи или нарушения на протяжении всего ее жизненного цикла. В контексте машинного обучения (ML) и искусственного интеллекта (ИИ) эта дисциплина имеет первостепенное значение для обеспечения надежности прогнозирующих систем и поддержания доверия пользователей. Она включает в себя обеспечение безопасности обширных наборов данных, необходимых для обучения, защиту проприетарных алгоритмов, определяющих поведение модели, и укрепление инфраструктуры, в которой работают эти модели. Комплексная стратегия безопасности учитывает «триаду CIA» — обеспечение конфиденциальности, целостности и доступности данных.
По мере того как организации все чаще интегрируют компьютерное зрение (CV) и другие технологии искусственного интеллекта в критически важные рабочие процессы, расширяется поверхность атаки для потенциальных нарушений. Обеспечение безопасности конвейера искусственного интеллекта отличается от традиционной ИТ-безопасности, поскольку сами модели могут стать целью атак или манипуляций.
Безопасность данных является основополагающим требованием для внедрения надежных систем искусственного интеллекта в чувствительных отраслях.
В сфере искусственного интеллекта в здравоохранении обработка данных пациентов требует строгого соблюдения таких нормативных актов, как HIPAA. Когда больницы используют анализ медицинских изображений для detect или переломов, поток данных должен быть зашифрован как в состоянии покоя, так и при передаче. Кроме того, системы часто удаляют метаданные DICOM или используют Edge AI для обработки изображений локально на устройстве, гарантируя, что конфиденциальная личная информация (PII) никогда не покидает безопасную сеть учреждения.
Современные «умные» города полагаются на обнаружение объектов для управления транспортными потоками и повышения общественной безопасности. В соответствии со стандартами конфиденциальности, такими как GDPR, камеры безопасности часто используют функцию редактирования в режиме реального времени. Это гарантирует, что система может считать транспортные средства или detect , но при этом автоматически скрывает номерные знаки и лица для защиты личности граждан.
Одним из распространенных методов обеспечения безопасности данных в компьютерном зрении является автоматическое размывание конфиденциальных объектов во время вывода.
Следующий Python демонстрирует, как использовать ultralytics с
YOLO26 модель для detect на изображении и применения
гауссового размытия к их ограничительным рамкам, что позволяет эффективно анонимизировать людей перед хранением или
передачей данных.
import cv2
from ultralytics import YOLO
# Load the YOLO26 model (optimized for real-time inference)
model = YOLO("yolo26n.pt")
image = cv2.imread("street_scene.jpg")
# Perform object detection to find persons (class index 0)
results = model(image, classes=[0])
# Blur the detected regions to protect identity
for result in results:
for box in result.boxes.xyxy:
x1, y1, x2, y2 = map(int, box)
# Apply Gaussian blur to the Region of Interest (ROI)
image[y1:y2, x1:x2] = cv2.GaussianBlur(image[y1:y2, x1:x2], (51, 51), 0)
Хотя эти термины часто используются как синонимы, очень важно проводить различие между безопасностью данных и конфиденциальностью данных.
Безопасность является техническим средством обеспечения конфиденциальности; без надежных мер безопасности политика конфиденциальности не может быть эффективно осуществлена. Для команд, управляющих всем жизненным циклом машинного обучения, Ultralytics предлагает централизованную среду для аннотирования, обучения и развертывания моделей при соблюдении строгих стандартов безопасности для управления наборами данных.