Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас

Подход к ответственному ИИ с помощью Ultralytics YOLOv8

Научитесь разрабатывать ответственные ИИ-решения с помощью Ultralytics YOLOv8 , следуя лучшим практикам этики и безопасности и отдавая предпочтение честным и соответствующим требованиям ИИ-инновациям.

Будущее ИИ находится в руках разработчиков, технических энтузиастов, бизнес-лидеров и других заинтересованных сторон, которые используют такие инструменты и модели, как Ultralytics YOLOv8 для стимулирования инноваций. Однако создание эффективных решений на основе ИИ - это не только использование передовых технологий. Это еще и ответственное отношение к делу. 

Ответственный ИИ в последнее время стал популярной темой для разговоров в сообществе ИИ, все больше и больше людей говорят о его важности и делятся своими мыслями. От онлайн-дискуссий до отраслевых мероприятий растет внимание к тому, как мы можем сделать ИИ не только мощным, но и этичным. Общей темой в этих разговорах является акцент на том, чтобы каждый, кто вносит вклад в проект ИИ, сохранял образ мышления, ориентированный на ответственный ИИ на каждом этапе. 

В этой статье мы начнем с изучения недавних событий и дискуссий, связанных с ответственным ИИ. Затем мы более подробно рассмотрим уникальные этические проблемы и проблемы безопасности, связанные с разработкой проектов компьютерного зрения, и то, как убедиться, что ваша работа является одновременно инновационной и этичной. Придерживаясь принципов ответственного ИИ, мы можем создать ИИ, который действительно приносит пользу каждому!

Ответственный ИИ в 2024 году

В последние годы наблюдается заметное стремление к повышению этичности ИИ. В 2019 году только 5% организаций разработали этические принципы для ИИ, но к 2020 году это число подскочило до 45%. Как следствие, мы начинаем видеть больше новостей, связанных с проблемами и успехами этого этического сдвига. В частности, много шума было вокруг генеративного ИИ и того, как использовать его ответственно.

В первом квартале 2024 года широко обсуждался ИИ-чатбот Gemini компании Google, который может генерировать изображения на основе текстовых подсказок. В частности, Gemini использовался для создания изображений, на которых различные исторические фигуры, например немецкие солдаты Второй мировой войны, изображались как люди с цветом кожи. ИИ-чатбот был спроектирован таким образом, чтобы разнообразить изображение людей на создаваемых им изображениях, чтобы быть намеренно инклюзивным. Однако в некоторых случаях система неверно интерпретировала определенные контексты, в результате чего изображения считались неточными и неуместными.

__wf_reserved_inherit
Рис. 1 Изображение, сгенерированное Gemini.

Глава поискового отдела GoogleПрабхакар Рагхаван объяснил в своем блоге, что ИИ стал слишком осторожным и даже отказывался генерировать изображения в ответ на нейтральные подсказки. Хотя функция генерации изображений Gemini была призвана способствовать разнообразию и инклюзивности визуального контента, это вызвало обеспокоенность по поводу точности исторических представлений и более широких последствий для предвзятости и ответственной разработки ИИ. В настоящее время ведутся споры о том, как сбалансировать цель поощрения разнообразных представлений в контенте, генерируемом ИИ, с необходимостью обеспечения точности и защиты от искажений.

Истории, подобные этой, ясно показывают, что по мере того, как ИИ продолжает развиваться и все больше интегрироваться в нашу повседневную жизнь, решения, принимаемые разработчиками и компаниями, могут существенно влиять на общество. В следующем разделе мы углубимся в советы и лучшие практики для ответственной разработки и управления системами ИИ в 2024 году. Независимо от того, начинаете ли вы только или хотите усовершенствовать свой подход, эти рекомендации помогут вам внести свой вклад в более ответственное будущее ИИ.

Этические соображения в проектах YOLOv8

При создании решений для компьютерного зрения с помощью YOLOv8важно помнить о нескольких ключевых этических соображениях, таких как предвзятость, справедливость, конфиденциальность, доступность и инклюзивность. Давайте рассмотрим эти факторы на практическом примере.

__wf_reserved_inherit
Рис. 2 Этические и юридические аспекты в ИИ.

Допустим, вы разрабатываете систему видеонаблюдения для больницы, которая следит за коридорами на предмет подозрительного поведения. Система может использовать YOLOv8 для detect людей, задерживающихся в запретных зонах, несанкционированного доступа или даже выявления пациентов, которым может понадобиться помощь, например, забредших в небезопасные зоны. Система будет анализировать видеозаписи с камер наблюдения по всей больнице и в режиме реального времени отправлять предупреждения сотрудникам службы безопасности, если произойдет что-то необычное.

Если ваша модель YOLOv8 обучена на предвзятых данных, она может несправедливо ориентироваться на определенные группы людей по таким факторам, как раса или пол, что приведет к ложным предупреждениям или даже дискриминации. Чтобы избежать этого, необходимо сбалансировать набор данных и использовать методы для detect и исправления любых предубеждений, например:

  • Аугментация данных: Расширение набора данных разнообразными примерами обеспечивает сбалансированное представление по всем группам.
  • Передискретизация: корректировка частоты недостаточно представленных классов в обучающих данных для балансировки набора данных.
  • Алгоритмы, учитывающие справедливость: внедрение алгоритмов, специально разработанных для снижения предвзятости в прогнозах.
  • Инструменты обнаружения предвзятости: Использование инструментов, анализирующих прогнозы модели для выявления и исправления предвзятостей.

Конфиденциальность - еще одна важная проблема, особенно в таких учреждениях, как больницы, где используется конфиденциальная информация. YOLOv8 может фиксировать личные данные пациентов и персонала, например их лица или действия. Чтобы защитить их конфиденциальность, можно предпринять такие шаги, как анонимизация данных для удаления любой идентифицируемой информации, получение надлежащего согласия от людей перед использованием их данных или размытие лиц в видеозаписи. Также нелишним будет зашифровать данные и обеспечить их надежное хранение и передачу во избежание несанкционированного доступа.

Также важно спроектировать вашу систему так, чтобы она была доступной и инклюзивной. Вы должны убедиться, что она работает для всех, независимо от их способностей. В больнице это означает, что система должна быть простой в использовании для всего персонала, пациентов и посетителей, включая людей с ограниченными возможностями или другими потребностями в доступности. Наличие разнообразной команды может иметь большое значение. Члены команды из разных слоев общества могут предложить новые идеи и помочь выявить потенциальные проблемы, которые могли бы быть упущены. Привлекая различные точки зрения, вы с большей вероятностью построите систему, которая будет удобной и доступной для широкого круга людей.

Лучшие методы обеспечения безопасности для YOLOv8

При внедрении YOLOv8 в реальные приложения важно уделять первостепенное внимание безопасности, чтобы защитить как саму модель, так и данные, которые она использует. Возьмем, к примеру, систему управления очередями в аэропорту, которая использует компьютерное зрение с YOLOv8 для мониторинга пассажиропотока. YOLOv8 можно использовать для track перемещения пассажиров через пункты контроля безопасности, выходы на посадку и другие зоны, чтобы выявить места скопления людей и оптимизировать поток, сократив время ожидания. Система может использовать камеры, расположенные в стратегически важных местах аэропорта, для захвата видео в реальном времени, при этом YOLOv8 будет обнаруживать и подсчитывать пассажиров в режиме реального времени. Полученные с помощью этой системы данные можно использовать для предупреждения персонала о слишком длинных очередях, автоматического открытия новых контрольно-пропускных пунктов или корректировки численности персонала, чтобы сделать работу более плавной.

__wf_reserved_inherit
Рис. 3 Управление очередью в билетной кассе аэропорта с помощью Ultralytics YOLOv8.

В таких условиях очень важно защитить модель YOLOv8 от атак и несанкционированного доступа. Это можно сделать с помощью шифрования файлов модели, чтобы неавторизованные пользователи не могли легко получить к ним доступ или изменить их. Вы можете развернуть модель на защищенных серверах и настроить контроль доступа для предотвращения несанкционированного доступа. Регулярные проверки и аудит безопасности помогут выявить любые уязвимости и обеспечить безопасность системы. Аналогичные методы можно использовать для защиты конфиденциальных данных, например видеозаписей пассажиров.

Чтобы еще больше укрепить безопасность, в процесс разработки можно интегрировать такие инструменты, как Snyk, GitHub CodeQL и Dependabot. Snyk помогает выявить и устранить уязвимости в коде и зависимостях, GitHub CodeQL проверяет код на наличие проблем с безопасностью, а Dependabot поддерживает зависимости в актуальном состоянии с помощью последних патчей безопасности. В Ultralytics эти инструменты были внедрены для detect и предотвращения уязвимостей в системе безопасности.

Типичные ошибки и способы их избежать

Несмотря на благие намерения и следование передовым практикам, все равно могут возникнуть ошибки, оставляющие пробелы в ваших ИИ-решениях, особенно когда речь идет об этике и безопасности. Знание этих распространенных проблем поможет вам заблаговременно решить их и создать более надежные модели YOLOv8 . Вот некоторые подводные камни, которых следует остерегаться, и советы, как их избежать:

  • Пренебрежение соблюдением нормативных требований: Несоблюдение нормативных требований в области ИИ может привести к юридическим затруднениям и нанести ущерб вашей репутации. Будьте в курсе соответствующих законов, таких как GDPR для защиты данных, и убедитесь, что ваши модели соответствуют требованиям, проводя регулярные проверки соответствия.
  • Неадекватное тестирование в реальных условиях: Модели, которые не тестируются в реальных условиях, могут выйти из строя при развертывании. Смоделируйте реальные крайние случаи во время тестирования, чтобы выявить потенциальные проблемы на раннем этапе и настроить свои модели, чтобы они были более доступными для всех.
  • Отсутствие мер подотчетности: Если неясно, кто отвечает за различные части системы ИИ, может быть трудно справиться с ошибками, предвзятостями или злоупотреблениями, что может привести к более серьезным проблемам. Установите четкую подотчетность за результаты ИИ, определив роли и обязанности в своей команде и настроив процессы для решения проблем, когда они возникают.
  • Игнорирование воздействия на окружающую среду: Модели ИИ могут оказывать серьезное воздействие на окружающую среду. Например, крупномасштабные развертывания могут потребовать поддержки центров обработки данных, которые потребляют большое количество энергии для обработки интенсивных вычислений. Вы можете оптимизировать свои модели для повышения энергоэффективности и учитывать экологический след ваших процессов обучения и развертывания.
  • Игнорирование культурной чувствительности: Модели, обученные без учета культурных различий, могут быть неуместными или оскорбительными в определенных контекстах. Убедитесь, что ваше AI-решение уважает культурные нормы и ценности, включая разнообразные культурные перспективы в ваши данные и процесс разработки.
__wf_reserved_inherit
Рис. 4 Этические принципы и требования.

Создание этичных и безопасных решений с помощью YOLOv8 

Создание ИИ-решений с помощью YOLOv8 открывает множество интересных возможностей, но при этом крайне важно помнить об этике и безопасности. Сосредоточившись на справедливости, конфиденциальности, прозрачности и соблюдении правильных правил, мы сможем создать модели, которые будут хорошо работать и уважать права людей. Легко упустить из виду такие вещи, как необъективность данных, защита конфиденциальности или уверенность в том, что все могут пользоваться системой, но если уделить время решению этих вопросов, то можно изменить ход игры. Продолжая расширять границы возможностей ИИ с помощью таких инструментов, как YOLOv8, давайте помнить о человеческой стороне технологий. Вдумчивый и активный подход позволит нам создавать ответственные и передовые инновации в области ИИ!

Обязательно присоединяйтесь к нашему сообществу, чтобы быть в курсе последних новостей в области ИИ! Кроме того, вы можете узнать больше об ИИ, посетив наш репозиторий на GitHub и изучив наши решения в различных областях, таких как производство и автономное вождение.

Давайте строить будущее
ИИ вместе!

Начните свой путь в будущее машинного обучения

Начать бесплатно