Глоссарий

Безопасность данных

Узнайте, как надежные методы обеспечения безопасности данных защищают системы искусственного интеллекта и ML, обеспечивая целостность данных, доверие и соответствие нормативным требованиям.

Безопасность данных - это практика защиты цифровой информации от несанкционированного доступа, повреждения или кражи на протяжении всего ее жизненного цикла. В контексте искусственного интеллекта (ИИ) и машинного обучения (МЛ) безопасность данных включает в себя защиту наборов данных, используемых для обучения и проверки моделей, самих моделей и инфраструктуры, на которой они работают. Реализация надежных мер по обеспечению безопасности данных имеет решающее значение для создания надежных систем ИИ, защиты конфиденциальной информации и обеспечения целостности результатов, получаемых с помощью ИИ. Без этого модели уязвимы перед угрозами, которые могут снизить их производительность и привести к серьезным последствиям в реальном мире.

Важность безопасности данных в искусственном интеллекте

Данные - это жизненная сила моделей ИИ. Поэтому защита данных на протяжении всего жизненного цикла разработки ИИ является обязательным условием. Надежная защита данных защищает от целого ряда угроз и обеспечивает операционную целостность.

  • Защита конфиденциальной информации: Системы искусственного интеллекта часто обрабатывают огромные объемы конфиденциальных данных, включая персональную информацию (PII), финансовые документы и медицинские данные. Нарушения могут привести к значительным финансовым потерям, ухудшению репутации и юридическим санкциям в соответствии с такими нормами, как GDPR.
  • Предотвращение вредоносных атак: Небезопасные данные и модели подвержены атакам противника, когда злоумышленники могут манипулировать входными данными, чтобы заставить модель делать неверные прогнозы. Они также могут попытаться "отравить модель", загрязнив обучающие данные, чтобы снизить производительность или создать бэкдоры.
  • Обеспечение целостности модели: Надежность модели искусственного интеллекта полностью зависит от качества и целостности ее обучающих данных. Безопасность данных гарантирует, что данные, используемые для обучения, точны и не были подделаны, что приводит к созданию более надежных и достоверных моделей.
  • Поддержание соответствия и доверия: Соблюдение установленных рамок безопасности, таких как NIST Cybersecurity Framework, и стандартов, таких как ISO/IEC 27001, необходимо для обеспечения соответствия нормативным требованиям. Для создания и поддержания доверия пользователей эти практики часто управляются с помощью комплексных операций машинного обучения (MLOps).

Основные методы обеспечения безопасности данных

Эффективная защита данных в искусственном интеллекте предполагает многоуровневый подход, включающий ряд технических и организационных мер.

  • Шифрование: Данные должны быть зашифрованы как в состоянии покоя (при хранении), так и в процессе передачи (при перемещении по сети). Шифрование преобразует данные в безопасный код, чтобы неавторизованные пользователи не смогли их прочитать.
  • Контроль доступа: Реализация строгих политик управления доступом, таких как Role-Based Access Control (RBAC), гарантирует, что только авторизованный персонал может получить доступ к конфиденциальным данным и компонентам модели.
  • Анонимизация данных: Такие методы, как маскировка и токенизация данных, используются для удаления или маскировки конфиденциальной информации из наборов данных перед их использованием для обучения, что является ключевым компонентом защиты конфиденциальности данных.
  • Безопасная инфраструктура: Использование безопасной инфраструктуры для хранения, обработки данных и развертывания моделей очень важно. Это включает в себя использование безопасных облачных сервисов и платформ, таких как Ultralytics HUB, которые включают безопасность в рабочий процесс разработки.
  • Регулярный аудит и мониторинг: Постоянный мониторинг систем и регулярные аудиты безопасности помогают обнаружить и устранить уязвимости до того, как они могут быть использованы.

Приложения реального мира в искусственном интеллекте и ML

Безопасность данных играет важную роль в многочисленных приложениях, основанных на искусственном интеллекте:

  • Здравоохранение: При использовании ИИ в здравоохранении, в частности при анализе медицинских изображений для диагностики заболеваний, строгие меры безопасности данных требуются в соответствии с HIPAA для защиты конфиденциальной информации о здоровье пациентов. Это включает в себя шифрование записей пациентов, контроль доступа к данным визуализации и анонимизацию данных, используемых для исследований.
  • Автономные транспортные средства: Автономные транспортные средства генерируют огромное количество данных от датчиков для навигации и обнаружения объектов. Защита этих данных имеет решающее значение для предотвращения вмешательства злоумышленников в работу автомобиля, как это было отмечено такими компаниями, как Waymo. Безопасность данных обеспечивает безопасность и надежность ИИ в автомобильных системах.

Безопасность данных и конфиденциальность данных

Безопасность данных и конфиденциальность данных - это разные, но связанные между собой понятия, хотя их часто используют как взаимозаменяемые.

  • Безопасность данных - это технические и организационные меры, применяемые для защиты данных от угроз. Она направлена на предотвращение несанкционированного доступа, изменения или уничтожения данных. Примерами могут служить брандмауэры, шифрование и наши собственные политики безопасности Ultralytics.
  • Конфиденциальность данных - это правила, политика и права личности, касающиеся сбора, использования и распространения персональных данных. Она затрагивает вопросы согласия, ограничения целей и прозрачности.

Одним словом, безопасность данных является необходимым условием для обеспечения конфиденциальности данных. Политики конфиденциальности теряют смысл, если данные, которые они регулируют, не защищены должным образом от утечек. Оба эти фактора важны для создания надежных систем компьютерного зрения и находятся в центре внимания таких групп защиты, как Electronic Privacy Information Center (EPIC), и таких организаций по стандартизации, как создатели NIST Privacy Framework.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена