Глоссарий

Объяснимый искусственный интеллект (XAI)

Откройте для себя объяснимый ИИ (XAI): Укрепление доверия, обеспечение подотчетности и соблюдение нормативных требований благодаря интерпретируемым сведениям для принятия более разумных решений на основе ИИ.

Объяснимый ИИ (XAI) - это набор процессов и методов, позволяющих пользователям понимать решения, принимаемые моделями машинного обучения, и доверять им. По мере того как искусственный интеллект (ИИ) становится все более совершенным, многие модели работают как "черные ящики", что затрудняет понимание их внутренней логики. Цель XAI - открыть этот "черный ящик", предоставить четкие объяснения результатов работы моделей и способствовать повышению прозрачности и подотчетности. Разработка XAI получила значительный импульс благодаря таким инициативам, как программа DARPA "Объяснимый ИИ", целью которой было создание систем ИИ, чьи выученные модели и решения могли бы быть понятны конечным пользователям и вызывать у них доверие.

Почему важен объясняемый ИИ?

Потребность в XAI существует в различных областях, что обусловлено практическими и этическими соображениями. Укрепление доверия имеет фундаментальное значение; пользователи и заинтересованные стороны с большей вероятностью примут системы ИИ и будут полагаться на них, если им будет понятно, как они приходят к своим выводам. Это особенно важно в таких ответственных областях, как ИИ в здравоохранении и автономные транспортные средства. Объясняемость также важна для отладки и совершенствования моделей, поскольку она помогает разработчикам выявить недостатки и неожиданное поведение. Кроме того, XAI является краеугольным камнем ответственной разработки ИИ, помогая выявлять и смягчать предвзятость алгоритмов и обеспечивать справедливость в ИИ. С ростом регулирования, например, в соответствии с Законом Европейского союза об искусственном интеллекте, предоставление объяснений решений, принимаемых ИИ, становится обязательным требованием закона.

Применение XAI в реальном мире

  1. Анализ медицинских изображений: Когда модель искусственного интеллекта, например конволюционная нейронная сеть (CNN), анализирует медицинские снимки для выявления заболеваний, методы XAI позволяют создать тепловую карту. Эта визуализация данных выделяет определенные области изображения, которые модель сочла наиболее показательными для того или иного заболевания, например опухоль на наборе данных сканирования мозга. Это позволяет радиологам проверить результаты модели на соответствие их собственному опыту, как это предусмотрено такими организациями, как Радиологическое общество Северной Америки (RSNA).
  2. Финансовые услуги и кредитный скоринг: В финансовой сфере модели искусственного интеллекта используются для одобрения или отклонения заявок на получение кредита. Если заявка отклоняется, нормативные акты часто требуют четкого объяснения причин. Методы XAI, такие как SHAP (SHapley Additive exPlanations) или LIME (Local Interpretable Model-agnostic Explanations), позволяют определить ключевые факторы, которые привели к принятию решения (например, низкий кредитный рейтинг, высокое соотношение долга к доходу). Это не только обеспечивает соблюдение нормативных требований, но и обеспечивает прозрачность для клиента, о чем говорят такие организации, как Всемирный экономический форум.

Отличие от смежных терминов

  • Прозрачность в ИИ: Несмотря на тесную взаимосвязь, прозрачность - более широкое понятие. Она подразумевает понимание данных, алгоритмов и процессов развертывания модели в системе ИИ. XAI является ключевым компонентом прозрачности, предоставляя специальные инструменты и методы, позволяющие сделать отдельные прогнозы модели понятными. Одним словом, прозрачность - это ясность системы в целом, в то время как XAI фокусируется на объяснении ее конкретных результатов.
  • Этика ИИ: Это широкая область, связанная с моральными принципами и ценностями, которые должны определять развитие и использование ИИ. XAI служит практическим механизмом для реализации ключевых этических принципов. Делая модели объяснимыми, разработчики и аудиторы могут лучше оценить их на предмет справедливости, подотчетности и потенциального вреда, что делает XAI важнейшим инструментом для создания этически обоснованного ИИ.

Проблемы и соображения

Достижение значимой объяснимости может быть сложным. Часто существует компромисс между производительностью модели и ее интерпретируемостью; очень сложные модели глубокого обучения могут быть более точными, но их сложнее объяснить, и эта проблема подробно описана в статье"История моделей зрения". Кроме того, раскрытие подробной логики модели может вызвать опасения по поводу интеллектуальной собственности или создать уязвимость для атак противника. Над решением этих этических и практических проблем работают такие организации, как Partnership on AI, и научные конференции, например ACM FAccT.

В Ultralytics мы поддерживаем понимание моделей с помощью различных инструментов и ресурсов. Возможности визуализации в Ultralytics HUB и подробные руководства в Ultralytics Docs, такие как объяснение YOLO Performance Metrics, помогают пользователям оценить и интерпретировать поведение таких моделей, как Ultralytics YOLOv8. Это позволяет разработчикам создавать более надежные и заслуживающие доверия приложения в самых разных областях - от производства до сельского хозяйства.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена