Глоссарий

Справедливость в искусственном интеллекте

Обеспечьте справедливость в ИИ с помощью этичных и беспристрастных моделей. Изучите инструменты, стратегии и Ultralytics YOLO для справедливых решений в области ИИ.

Справедливость в искусственном интеллекте - это междисциплинарная область, призванная обеспечить, чтобы системы искусственного интеллекта не создавали и не закрепляли несправедливые результаты для различных людей или групп. Она включает в себя разработку и внедрение моделей, которые справедливо относятся ко всем пользователям, независимо от их демографических особенностей, таких как раса, пол, возраст или другие защищенные характеристики. Достижение справедливости - важнейший компонент создания надежных и ответственных систем ИИ, которые приносят пользу всему обществу. Стремление к справедливости выходит за рамки точности модели, фокусируясь на влиянии на общество и этических последствиях решений, принимаемых с помощью ИИ.

Чем справедливость отличается от смежных понятий

Несмотря на то, что термины "справедливость" и "справедливость" часто используются как взаимозаменяемые, они имеют разные значения:

  • Этика искусственного интеллекта: Это широкая область, которая охватывает все этические аспекты, связанные с искусственным интеллектом, включая конфиденциальность данных, подотчетность и прозрачность ИИ. Справедливость является основным принципом в рамках более широкой этики ИИ.
  • Предвзятость в ИИ: под предвзятостью понимаются систематические ошибки или предубеждения в результатах работы системы ИИ, которые часто являются следствием искажения обучающих данных или несовершенства алгоритмов. Справедливость - это проактивная цель выявления и смягчения предвзятости для предотвращения дискриминационных результатов.
  • Алгоритмическая предвзятость: это особый тип предвзятости, который исходит от самого алгоритма, где его логика может быть изначально благоприятной для определенных групп. Инициативы по обеспечению справедливости направлены на устранение алгоритмической предвзятости с помощью специальных методов, применяемых в процессе разработки и оценки.

Применение справедливости ИИ в реальном мире

Обеспечение справедливости крайне важно в приложениях с высокими ставками, где решения ИИ могут существенно повлиять на жизнь людей. Два ярких примера включают:

  1. Equitable Financial Services: Модели искусственного интеллекта широко используются для оценки кредитоспособности при выдаче займов. Несправедливая модель может отказывать в кредите квалифицированным заявителям из групп меньшинств чаще, чем остальным, из-за исторической предвзятости данных о кредитовании. Справедливая система искусственного интеллекта разрабатывается и тестируется таким образом, чтобы ее рекомендации по кредитованию не коррелировали с защищенными характеристиками, что способствует равному доступу к финансовым возможностям, за который выступают такие организации, как Всемирный экономический форум.
  2. Непредвзятые инструменты найма: Компании все чаще используют искусственный интеллект для проверки резюме и выявления перспективных кандидатов. Однако если модель обучена на исторических данных о найме, отражающих предубеждения на рабочем месте в прошлом, она может несправедливо наказывать кандидатов-женщин или соискателей с нетрадиционными именами. Чтобы противостоять этому, разработчики внедряют ограничения справедливости и проводят аудит, чтобы убедиться, что инструмент оценивает всех кандидатов только на основе навыков и квалификации, как это исследуют такие организации, как Общество управления человеческими ресурсами (SHRM).

Достижение справедливости в системах искусственного интеллекта

Достижение справедливости - это постоянный процесс, требующий целостного подхода на протяжении всего жизненного цикла ИИ. Ключевые стратегии включают:

  • Тщательная обработка данных: Строгая практика сбора и аннотирования данных является основой для создания разнообразных и репрезентативных наборов данных. Такие методы, как увеличение объема данных, могут помочь сбалансировать недопредставленные группы, а такие механизмы, как "Таблицы данных для наборов данных", способствуют прозрачности.
  • Алгоритмы, учитывающие справедливость: Разработка или адаптация алгоритмов машинного обучения (ML) для явного учета ограничений справедливости в процессе обучения модели. Это позволяет оптимизировать модель как с точки зрения производительности, так и с точки зрения справедливости.
  • Тщательная оценка: Проведение тщательной оценки моделей с использованием конкретных показателей справедливости имеет решающее значение для определения различий в производительности различных подгрупп. Такие инструменты, как What-If Tool от Google и AI Fairness 360 от IBM, позволяют выявлять и устранять предвзятость.
  • Постоянный мониторинг: Постоянный мониторинг производительности и справедливости модели после развертывания необходим для обнаружения и устранения любых возникающих проблем или дрейфа данных, который может привести к появлению новых погрешностей с течением времени.

Платформы, подобные Ultralytics HUB, предоставляют инструменты для обучения и управления пользовательскими моделями, позволяя разработчикам тщательно подбирать наборы данных и оценивать такие модели, как Ultralytics YOLO11, на предмет эффективности в различных группах. Это способствует разработке более справедливых решений в области компьютерного зрения (КЗ). Соблюдение этических норм, разработанных такими организациями, как Partnership on AI, и следование правительственным рамочным программам, таким как NIST AI Risk Management Framework, также являются жизненно важными шагами. Исследовательское сообщество продолжает развивать эти темы на таких мероприятиях, как Конференция ACM по справедливости, подотчетности и прозрачности (FAccT).

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена