Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Федеративное обучение

Откройте для себя федеративное обучение: ориентированный на конфиденциальность подход к ИИ, позволяющий децентрализованно обучать модели на разных устройствах без обмена необработанными данными.

Федеративное обучение (Federated Learning, FL) — это метод машинного обучения (ML), который позволяет обучать модели на множестве децентрализованных устройств или серверов, содержащих локальные образцы данных, без обмена самими данными. Такой подход решает важные проблемы конфиденциальности данных и безопасности, поскольку необработанные данные остаются на устройстве пользователя. Вместо объединения данных на центральном сервере для обучения модели, FL работает путем отправки глобальной модели на локальные устройства. Каждое устройство обучает модель на своих собственных данных, и только полученные обновления модели — небольшие, целенаправленные улучшения — отправляются обратно на центральный сервер для агрегирования. Этот процесс совместной работы улучшает общую глобальную модель без ущерба для информации о пользователях.

Как работает федеративное обучение (Federated Learning)?

Процесс федеративного обучения обычно включает в себя повторяющийся цикл шагов, организованных центральным координирующим сервером:

  1. Распространение модели: Центральный сервер инициализирует глобальную модель ИИ, такую как нейронная сеть, и распространяет ее на выбранные клиентские устройства (например, мобильные телефоны или компьютеры в больницах).
  2. Локальное обучение: Каждое клиентское устройство обучает модель на своем локальном наборе данных. Поскольку эти данные никогда не покидают устройство, они остаются конфиденциальными. Это локальное обучение является ключевым компонентом встроенного интеллекта, часто связанного с Edge AI.
  3. Отправка обновления: После обучения в течение нескольких итераций каждый клиент отправляет свои вычисленные обновления модели (такие как градиенты или веса модели) обратно на центральный сервер. Это гораздо меньшая и более безопасная полезная нагрузка, чем сами необработанные данные.
  4. Безопасная агрегация: Центральный сервер агрегирует обновления от всех клиентов, например, усредняя их, чтобы улучшить глобальную модель. Такие методы, как безопасные многосторонние вычисления, могут использоваться для обеспечения того, чтобы сервер не мог реконструировать отдельные обновления.
  5. Улучшение модели: Улучшенная глобальная модель затем отправляется обратно клиентам для следующего раунда обучения. Этот итеративный процесс продолжается до тех пор, пока производительность модели не достигнет желаемого уровня точности.

Применение в реальном мире

Федеративное обучение — это не просто теоретическая концепция; оно лежит в основе нескольких распространенных приложений и преобразует отрасли, где конфиденциальность данных имеет первостепенное значение.

  • Прогнозы умной клавиатуры: Такие компании, как Google, используют FL для улучшения предиктивного текста на мобильных клавиатурах. Ваш телефон учится на истории вашего набора текста, чтобы предлагать следующее слово, и эти знания передаются в виде анонимных обновлений модели для улучшения механизма прогнозирования для всех пользователей, при этом ваши фактические сообщения никогда не покидают ваше устройство.
  • Совместные медицинские исследования: FL позволяет больницам и научно-исследовательским институтам сотрудничать в создании мощных диагностических моделей для таких задач, как анализ медицинских изображений для обнаружения опухолей. Каждая больница может обучать общую модель на данных своих пациентов, которые защищены законами о конфиденциальности, такими как HIPAA, без раскрытия конфиденциальных записей пациентов другим учреждениям или центральному хранилищу. Это позволяет создавать более надежные модели, обученные на разнообразных наборах данных.

Федеративное обучение в сравнении со смежными концепциями

Важно отличать FL от других парадигм обучения:

  • Централизованное обучение: Традиционный подход, при котором все данные собираются в одном месте для обучения. FL — прямая противоположность, разработанная специально для предотвращения централизации данных.
  • Распределенное обучение: Этот метод также использует несколько машин для ускорения обучения, но предполагает, что обучающие данные хранятся в центральном месте и могут свободно распространяться между узлами обучения. FL, напротив, работает с данными, которые по своей сути децентрализованы и не могут быть перемещены.
  • Активное обучение: Этот метод фокусируется на эффективном выборе наиболее информативных точек данных для маркировки, чтобы снизить затраты на аннотацию. В то время как FL имеет дело с тем, где происходит обучение, активное обучение имеет дело с тем, какие данные используются. Эти два метода можно объединить для дальнейшего повышения конфиденциальности и эффективности, как обсуждается в этом блоге об активном обучении.

Проблемы и фреймворки

Несмотря на свои преимущества, FL сталкивается с такими проблемами, как высокие затраты на связь, управление устройствами с различной вычислительной мощностью (CPU/GPU) и обработка не-IID (не идентично и независимо распределенных) данных, которые могут сместить модель. Система также может быть уязвима для атак, основанных на состязательности, которые нацелены на обновления модели. Для решения этих сложностей были разработаны такие фреймворки, как TensorFlow Federated и PySyft от таких организаций, как OpenMined. По мере развития технологии управление всем развертыванием модели и жизненным циклом мониторинга становится критически важным, и этот процесс упрощается с помощью таких платформ, как Ultralytics HUB.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас
Ссылка скопирована в буфер обмена