Глоссарий

Федеративное обучение

Откройте для себя федеративное обучение: подход к ИИ, ориентированный на конфиденциальность, позволяющий децентрализованно обучать модели на разных устройствах без обмена исходными данными.

Федеративное обучение (FL) - это метод машинного обучения (ML), который позволяет обучать модели на нескольких децентрализованных устройствах или серверах, хранящих локальные образцы данных, не обмениваясь самими данными. Этот подход позволяет решить важнейшие проблемы конфиденциальности и безопасности данных, сохраняя исходные данные на устройстве пользователя. Вместо того чтобы объединять данные на центральном сервере для обучения модели, FL работает путем отправки глобальной модели на локальные устройства. Каждое устройство обучает модель на своих собственных данных, и только полученные в результате обновления модели - небольшие, целенаправленные улучшения - отправляются обратно на центральный сервер для агрегирования. Этот совместный процесс улучшает общую глобальную модель без ущерба для пользовательской информации.

Как работает федеративное обучение

Федеративный процесс обучения обычно включает в себя повторяющийся цикл шагов, которые организует центральный координирующий сервер:

  1. Распространение модели: Центральный сервер инициализирует глобальную модель ИИ, например нейронную сеть, и рассылает ее на несколько клиентских устройств (например, мобильных телефонов или больничных компьютеров).
  2. Локальное обучение: Каждое клиентское устройство обучает модель на своем локальном наборе данных. Поскольку эти данные никогда не покидают устройство, они остаются конфиденциальными. Локальное обучение - ключевой компонент интеллектуальной системы на устройстве, часто ассоциируемой с Edge AI.
  3. Отправка обновлений: После обучения в течение нескольких итераций каждый клиент отправляет свои вычисленные обновления модели (например, градиенты или веса модели) обратно на центральный сервер. Это гораздо меньшая и более безопасная полезная нагрузка, чем сами исходные данные.
  4. Безопасное агрегирование: Центральный сервер агрегирует обновления от всех клиентов, например, усредняя их, чтобы улучшить глобальную модель. Для того чтобы сервер не мог перепрограммировать отдельные обновления, можно использовать такие техники, как безопасные многосторонние вычисления.
  5. Совершенствование модели: Уточненная глобальная модель возвращается клиентам для следующего раунда обучения. Этот итерационный процесс продолжается до тех пор, пока производительность модели не достигнет желаемого уровня точности.

Применение в реальном мире

Федеративное обучение - это не просто теоретическая концепция; оно используется в нескольких основных приложениях и преобразует отрасли, где конфиденциальность данных имеет первостепенное значение.

  • Предсказания умных клавиатур: Такие компании, как Google, используют FL для улучшения предиктивного текста на мобильных клавиатурах. Ваш телефон изучает историю набора текста, чтобы предложить следующее слово, и эти данные передаются в виде анонимизированных обновлений модели, чтобы улучшить систему прогнозирования для всех пользователей, при этом ваши сообщения никогда не покидают ваше устройство.
  • Совместные медицинские исследования: FL позволяет больницам и исследовательским учреждениям совместно создавать мощные диагностические модели для таких задач, как анализ медицинских изображений для обнаружения опухолей. Каждая больница может обучать общую модель на данных своих пациентов, которые защищены законами о конфиденциальности, такими как HIPAA, не передавая конфиденциальные записи пациентов другим учреждениям или центральному хранилищу. Это позволяет создавать более надежные модели, обученные на различных наборах данных.

Федеративное обучение в сравнении со смежными концепциями

Важно отличать FL от других парадигм обучения:

  • Централизованное обучение: Традиционный подход, при котором все данные для обучения собираются в одном месте. FL - прямая противоположность, разработанная специально для того, чтобы избежать централизации данных.
  • Распределенное обучение: Этот метод также использует несколько машин для ускорения обучения, но предполагает, что данные для обучения хранятся в центральном месте и могут быть свободно распределены между обучающими узлами. FL, напротив, работает с данными, которые по своей природе децентрализованы и не могут быть перемещены.
  • Активное обучение: Этот метод направлен на эффективный отбор наиболее информативных точек данных для маркировки с целью снижения затрат на аннотирование. В то время как FL имеет дело с тем , где происходит обучение, активное обучение имеет дело с тем , какие данные используются. Эти два метода можно комбинировать для дальнейшего повышения конфиденциальности и эффективности, о чем говорится в этом блоге, посвященном активному обучению.

Проблемы и рамки

Несмотря на свои преимущества, FL сталкивается с такими проблемами, как высокая стоимость связи, управление устройствами с разной вычислительной мощностью(CPU/GPU) и работа с неидентичными и независимо распределенными данными, которые могут исказить модель. Система также может быть уязвима для атак противника, направленных на обновление модели. Для решения этих сложностей были разработаны такие фреймворки, как TensorFlow Federated и PySyft от таких организаций, как OpenMined. По мере развития технологии управление всем жизненным циклом развертывания и мониторинга моделей становится крайне важным, и этот процесс упрощается благодаря таким платформам, как Ultralytics HUB.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена