Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас

Ответственный подход к ИИ с Ultralytics YOLOv8

Абирами Вина

4 мин чтения

5 сентября 2024 г.

Научитесь разрабатывать ответственные решения ИИ с помощью Ultralytics YOLOv8, следуя лучшим практикам этики и безопасности и уделяя приоритетное внимание справедливым и совместимым инновациям в области ИИ.

Будущее ИИ находится в руках разработчиков, технических энтузиастов, бизнес-лидеров и других заинтересованных сторон, которые используют инструменты и модели, такие как Ultralytics YOLOv8, для стимулирования инноваций. Однако создание эффективных решений в области ИИ — это не просто использование передовых технологий. Это также ответственное отношение к делу. 

Ответственный ИИ в последнее время стал популярной темой для разговоров в сообществе ИИ, все больше и больше людей говорят о его важности и делятся своими мыслями. От онлайн-дискуссий до отраслевых мероприятий растет внимание к тому, как мы можем сделать ИИ не только мощным, но и этичным. Общей темой в этих разговорах является акцент на том, чтобы каждый, кто вносит вклад в проект ИИ, сохранял образ мышления, ориентированный на ответственный ИИ на каждом этапе. 

В этой статье мы начнем с изучения недавних событий и дискуссий, связанных с ответственным ИИ. Затем мы более подробно рассмотрим уникальные этические проблемы и проблемы безопасности, связанные с разработкой проектов компьютерного зрения, и то, как убедиться, что ваша работа является одновременно инновационной и этичной. Придерживаясь принципов ответственного ИИ, мы можем создать ИИ, который действительно приносит пользу каждому!

Ответственный ИИ в 2024 году

В последние годы наблюдается заметное стремление к повышению этичности ИИ. В 2019 году только 5% организаций разработали этические принципы для ИИ, но к 2020 году это число подскочило до 45%. Как следствие, мы начинаем видеть больше новостей, связанных с проблемами и успехами этого этического сдвига. В частности, много шума было вокруг генеративного ИИ и того, как использовать его ответственно.

В первом квартале 2024 года широко обсуждался чат-бот Google на основе ИИ Gemini, который может генерировать изображения на основе текстовых запросов. В частности, Gemini использовался для создания изображений, на которых различные исторические фигуры, такие как немецкие солдаты времен Второй мировой войны, изображались как цветные люди. Чат-бот с искусственным интеллектом был разработан для диверсификации изображения людей в сгенерированных им изображениях, чтобы быть намеренно инклюзивным. Однако в некоторых случаях система неверно интерпретировала определенные контексты, в результате чего изображения считались неточными и неуместными.

__wf_reserved_inherit
Рис. 1 Изображение, сгенерированное Gemini.

Руководитель поиска Google, Прабхакар Рагхаван, объяснил в сообщении в блоге, что ИИ стал чрезмерно осторожным и даже отказывался генерировать изображения в ответ на нейтральные запросы. Хотя функция генерации изображений Gemini была разработана для содействия разнообразию и инклюзивности в визуальном контенте, это вызывает опасения по поводу точности исторических представлений и более широких последствий для предвзятости и ответственной разработки ИИ. Продолжаются дебаты о том, как сбалансировать цель содействия разнообразным представлениям в контенте, сгенерированном ИИ, с необходимостью обеспечения точности и защиты от искажения.

Истории, подобные этой, ясно показывают, что по мере того, как ИИ продолжает развиваться и все больше интегрироваться в нашу повседневную жизнь, решения, принимаемые разработчиками и компаниями, могут существенно влиять на общество. В следующем разделе мы углубимся в советы и лучшие практики для ответственной разработки и управления системами ИИ в 2024 году. Независимо от того, начинаете ли вы только или хотите усовершенствовать свой подход, эти рекомендации помогут вам внести свой вклад в более ответственное будущее ИИ.

Этические соображения в проектах YOLOv8

При создании решений компьютерного зрения с помощью YOLOv8 важно помнить о нескольких ключевых этических соображениях, таких как предвзятость, справедливость, конфиденциальность, доступность и инклюзивность. Рассмотрим эти факторы на практическом примере.

__wf_reserved_inherit
Рис. 2 Этические и юридические аспекты в ИИ.

Предположим, вы разрабатываете систему наблюдения для больницы, которая отслеживает коридоры на предмет подозрительного поведения. Система может использовать YOLOv8 для обнаружения таких вещей, как люди, задерживающиеся в запрещенных зонах, несанкционированный доступ или даже обнаружение пациентов, которым может потребоваться помощь, например, тех, кто забрел в опасные зоны. Она будет анализировать прямые видеотрансляции с камер видеонаблюдения по всей больнице и отправлять оповещения в режиме реального времени сотрудникам службы безопасности, когда происходит что-то необычное.

Если ваша модель YOLOv8 обучена на предвзятых данных, она может в конечном итоге несправедливо нацеливаться на определенные группы людей на основе таких факторов, как раса или пол, что приведет к ложным срабатываниям или даже дискриминации. Чтобы избежать этого, важно сбалансировать свой набор данных и использовать методы для обнаружения и исправления любых предубеждений, такие как:

  • Аугментация данных: Расширение набора данных разнообразными примерами обеспечивает сбалансированное представление по всем группам.
  • Передискретизация: корректировка частоты недостаточно представленных классов в обучающих данных для балансировки набора данных.
  • Алгоритмы, учитывающие справедливость: внедрение алгоритмов, специально разработанных для снижения предвзятости в прогнозах.
  • Инструменты обнаружения предвзятости: Использование инструментов, анализирующих прогнозы модели для выявления и исправления предвзятостей.

Конфиденциальность — еще одна важная проблема, особенно в таких местах, как больницы, где задействована конфиденциальная информация. YOLOv8 может собирать личные данные пациентов и персонала, такие как их лица или действия. Чтобы защитить их конфиденциальность, вы можете предпринять такие шаги, как анонимизация данных для удаления любой идентифицирующей информации, получение надлежащего согласия от людей перед использованием их данных или размытие лиц в видеопотоке. Также рекомендуется зашифровать данные и убедиться, что они надежно хранятся и передаются для предотвращения несанкционированного доступа.

Также важно спроектировать вашу систему так, чтобы она была доступной и инклюзивной. Вы должны убедиться, что она работает для всех, независимо от их способностей. В больнице это означает, что система должна быть простой в использовании для всего персонала, пациентов и посетителей, включая людей с ограниченными возможностями или другими потребностями в доступности. Наличие разнообразной команды может иметь большое значение. Члены команды из разных слоев общества могут предложить новые идеи и помочь выявить потенциальные проблемы, которые могли бы быть упущены. Привлекая различные точки зрения, вы с большей вероятностью построите систему, которая будет удобной и доступной для широкого круга людей.

Рекомендации по обеспечению безопасности для YOLOv8

При развертывании YOLOv8 в реальных приложениях важно уделять первоочередное внимание безопасности для защиты как модели, так и данных, которые она использует. Возьмем, к примеру, систему управления очередью в аэропорту, которая использует компьютерное зрение с YOLOv8 для мониторинга пассажиропотока. YOLOv8 можно использовать для отслеживания перемещения пассажиров через пункты досмотра, выходы на посадку и другие зоны, чтобы выявлять точки скопления людей и оптимизировать поток людей для сокращения времени ожидания. Система может использовать камеры, стратегически размещенные по всему аэропорту, для захвата видеопотоков в реальном времени, при этом YOLOv8 обнаруживает и подсчитывает пассажиров в режиме реального времени. Информация, полученная от этой системы, может быть использована для оповещения персонала, когда очереди становятся слишком длинными, автоматического открытия новых пунктов досмотра или корректировки численности персонала для оптимизации работы.

__wf_reserved_inherit
Рис. 3 Управление очередью у билетной кассы в аэропорту с использованием Ultralytics YOLOv8.

В этой ситуации защита модели YOLOv8 от атак и несанкционированного доступа имеет решающее значение. Это можно сделать путем шифрования файлов модели, чтобы неавторизованные пользователи не могли легко получить доступ к ним или изменить их. Вы можете развернуть модель на защищенных серверах и настроить контроль доступа для предотвращения несанкционированного доступа. Регулярные проверки безопасности и аудиты могут помочь выявить любые уязвимости и обеспечить безопасность системы. Аналогичные методы можно использовать для защиты конфиденциальных данных, таких как видеопотоки пассажиров.

Для дальнейшего усиления безопасности в процесс разработки можно интегрировать такие инструменты, как Snyk, GitHub CodeQL и Dependabot. Snyk помогает выявлять и устранять уязвимости в коде и зависимостях, GitHub CodeQL сканирует код на наличие проблем безопасности, а Dependabot поддерживает зависимости в актуальном состоянии с помощью последних патчей безопасности. В Ultralytics эти инструменты были внедрены для обнаружения и предотвращения уязвимостей безопасности.

Типичные ошибки и способы их избежать

Несмотря на добрые намерения и следование передовым практикам, все равно могут возникать упущения, оставляющие пробелы в ваших AI-решениях, особенно когда речь идет об этике и безопасности. Осведомленность об этих распространенных проблемах может помочь вам активно решать их и создавать более надежные модели YOLOv8. Вот некоторые ловушки, которых следует остерегаться, и советы о том, как их избежать:

  • Пренебрежение соблюдением нормативных требований: Несоблюдение нормативных требований в области ИИ может привести к юридическим затруднениям и нанести ущерб вашей репутации. Будьте в курсе соответствующих законов, таких как GDPR для защиты данных, и убедитесь, что ваши модели соответствуют требованиям, проводя регулярные проверки соответствия.
  • Неадекватное тестирование в реальных условиях: Модели, которые не тестируются в реальных условиях, могут выйти из строя при развертывании. Смоделируйте реальные крайние случаи во время тестирования, чтобы выявить потенциальные проблемы на раннем этапе и настроить свои модели, чтобы они были более доступными для всех.
  • Отсутствие мер подотчетности: Если неясно, кто отвечает за различные части системы ИИ, может быть трудно справиться с ошибками, предвзятостями или злоупотреблениями, что может привести к более серьезным проблемам. Установите четкую подотчетность за результаты ИИ, определив роли и обязанности в своей команде и настроив процессы для решения проблем, когда они возникают.
  • Игнорирование воздействия на окружающую среду: Модели ИИ могут оказывать серьезное воздействие на окружающую среду. Например, крупномасштабные развертывания могут потребовать поддержки центров обработки данных, которые потребляют большое количество энергии для обработки интенсивных вычислений. Вы можете оптимизировать свои модели для повышения энергоэффективности и учитывать экологический след ваших процессов обучения и развертывания.
  • Игнорирование культурной чувствительности: Модели, обученные без учета культурных различий, могут быть неуместными или оскорбительными в определенных контекстах. Убедитесь, что ваше AI-решение уважает культурные нормы и ценности, включая разнообразные культурные перспективы в ваши данные и процесс разработки.
__wf_reserved_inherit
Рис. 4 Этические принципы и требования.

Создание этичных и безопасных решений с помощью YOLOv8 

Создание AI-решений с помощью YOLOv8 предлагает множество интересных возможностей, но крайне важно помнить об этике и безопасности. Сосредоточившись на справедливости, конфиденциальности, прозрачности и следуя правильным рекомендациям, мы можем создавать модели, которые хорошо работают и уважают права людей. Легко упустить из виду такие вещи, как предвзятость данных, защиту конфиденциальности или обеспечение того, чтобы каждый мог использовать систему, но если уделить время решению этих проблем, это может изменить правила игры. Поскольку мы продолжаем расширять границы того, что ИИ может делать с помощью таких инструментов, как YOLOv8, давайте помнить о человеческой стороне технологий. Будучи вдумчивыми и инициативными, мы можем создавать инновации в области ИИ, которые будут ответственными и передовыми!

Обязательно присоединяйтесь к нашему сообществу, чтобы быть в курсе последних новостей в области ИИ! Кроме того, вы можете узнать больше об ИИ, посетив наш репозиторий на GitHub и изучив наши решения в различных областях, таких как производство и автономное вождение.

Давайте строить будущее
ИИ вместе!

Начните свой путь в будущее машинного обучения

Начать бесплатно
Ссылка скопирована в буфер обмена