Настраивайтесь на YOLO Vision 2025!
25 сентября 2025 г.
10:00 — 18:00 BST
Гибридное мероприятие
Yolo Vision 2024

Все, что вам нужно знать об объяснимом ИИ (XAI)

Абирами Вина

4 мин чтения

13 декабря 2024 г.

Узнайте, как Explainable AI (XAI) повышает доверие, делая прогнозы ИИ прозрачными и надежными в здравоохранении, безопасности, автономном вождении и других областях.

Вы когда-нибудь видели ответ от инструмента искусственного интеллекта (ИИ), такого как ChatGPT, и задавались вопросом, как он пришел к такому выводу? Тогда вы столкнулись с проблемой «черного ящика» ИИ. Это термин, который относится к отсутствию ясности в отношении того, как модели ИИ обрабатывают и анализируют данные. Даже инженеры и ученые в области ИИ, которые работают с передовыми алгоритмами ИИ, регулярно испытывают трудности с полным пониманием их внутренней работы. Фактически, только 22% ИТ-специалистов действительно понимают возможности инструментов ИИ. 

Неопределенность в отношении того, как модели ИИ принимают решения, может быть рискованной, особенно в таких важных областях, как компьютерное зрение в здравоохранении и ИИ в финансах. Однако достигнут значительный прогресс в решении этих проблем и повышении прозрачности.

В частности, объяснимый ИИ (XAI) фокусируется исключительно на решении этой проблемы. Проще говоря, это набор процессов и методов, которые помогают пользователям понимать и доверять результатам или выходным данным, предоставляемым сложными алгоритмами машинного обучения

XAI может помочь разработчикам убедиться, что системы AI работают должным образом. Это также может помочь компаниям, занимающимся AI, соответствовать нормативным стандартам. В этой статье мы рассмотрим объяснимый AI и его широкий спектр вариантов использования. Давайте начнем!

Важность объяснимого ИИ

Объяснимость является ключевым фактором при работе с ИИ. Это особенно актуально, когда речь идет о подобласти ИИ, компьютерном зрении, которое широко используется в приложениях в таких отраслях, как здравоохранение. При использовании моделей машинного зрения в таких чувствительных отраслях важно, чтобы работа модели была прозрачной и понятной для всех. 

Интерпретируемость в моделях компьютерного зрения помогает пользователям лучше понять, как было сделано предсказание, и логику, лежащую в его основе. Прозрачность дополняет это, делая работу модели понятной для всех, четко определяя ограничения модели и обеспечивая этичное использование данных. Например, компьютерное зрение может помочь радиологам эффективно выявлять осложнения со здоровьем на рентгеновских снимках.

__wf_reserved_inherit
Рис. 1. Рентгеновские снимки грудной клетки, проанализированные с помощью Vision AI, показывают классификации здорового, больного, активного и латентного туберкулеза.

Однако недостаточно, чтобы система машинного зрения была просто точной. Система также должна уметь объяснять свои решения. Предположим, система может показать, какие части изображения привели к ее выводам — тогда любые результаты будут более понятными. Такой уровень прозрачности помог бы медицинским работникам перепроверять свои результаты и убеждаться, что уход за пациентами соответствует медицинским стандартам. 

Еще одна причина, по которой объяснимость имеет важное значение, заключается в том, что она делает AI-компании подотчетными и укрепляет доверие пользователей. Заслуживающий доверия AI приводит к тому, что пользователи уверены в надежной работе AI-инноваций, принятии справедливых решений и ответственной обработке данных

Основные методы объяснимого ИИ в компьютерном зрении

Теперь, когда мы обсудили, почему объяснимость важна в компьютерном зрении, давайте рассмотрим основные методы XAI, используемые в Vision AI.

Карты значимости

Нейронные сети — это модели, вдохновленные человеческим мозгом, предназначенные для распознавания закономерностей и принятия решений путем обработки данных через взаимосвязанные слои узлов (нейронов). Они могут использоваться для решения сложных задач компьютерного зрения с высокой точностью. Даже с этой точностью они по-прежнему являются черными ящиками по своей конструкции. 

Карты значимости - это метод XAI, который можно использовать, чтобы понять, что видят нейронные сети при анализе изображений. Его также можно использовать для устранения неполадок в моделях, если они работают не так, как ожидалось. 

Карты значимости работают, фокусируясь на том, какие части изображения (пиксели) определяют прогнозы модели. Этот процесс очень похож на обратное распространение, когда модель прослеживает путь от прогнозов к входным данным. Но вместо обновления весов модели на основе ошибок мы просто смотрим, насколько важен каждый пиксель для прогноза. Карты значимости очень полезны для задач компьютерного зрения, таких как классификация изображений.

Например, если модель классификации изображений предсказывает, что на изображении изображена собака, мы можем посмотреть на ее карту значимости, чтобы понять, почему модель считает, что это собака. Это помогает нам определить, какие пиксели больше всего влияют на результат. Карта значимости выделит все пиксели, которые внесли свой вклад в окончательное предсказание того, что изображение является собакой.

__wf_reserved_inherit
Рис. 2. Вид входных изображений и их карт значимости рядом друг с другом.

Карта активации класса (Class Activation Mapping, CAM)

Карта активации класса (Class Activation Mapping) - это еще один метод XAI, используемый для понимания того, на какие части изображения нейронная сеть обращает внимание при прогнозировании классификации изображений. Он работает аналогично картам значимости, но фокусируется на выявлении важных признаков в изображении, а не конкретных пикселей. Признаки - это закономерности или детали, такие как формы или текстуры, которые модель обнаруживает в изображении.

Такие методы, как Gradient Weighted Class Activation Mapping (Grad-CAM) и Grad-CAM++, развивают ту же идею, но с некоторыми улучшениями.

Вот как работает CAM:

  • Прежде чем нейронная сеть примет окончательное решение, она использует шаг, называемый глобальным усреднением пулинга (GAP), чтобы упростить информацию. GAP объединяет все пиксели в обнаруженном паттерне в одно среднее значение, создавая сводку для каждой карты признаков (визуальное представление обнаруженных паттернов).
  • Затем каждой карте признаков присваивается вес, который показывает, насколько она важна для прогнозирования определенного класса (например, "птица" или "кошка").
  • Однако одним из ограничений CAM является то, что вам может потребоваться переобучить модель для расчета этих весов, что может занять много времени.

Grad-CAM улучшает этот подход, используя градиенты, которые подобны сигналам, показывающим, насколько сильно каждая карта признаков влияет на окончательное предсказание. Этот метод позволяет избежать необходимости в GAP и упрощает понимание того, на чем фокусируется модель, без переобучения. Grad-CAM++ идет еще дальше, сосредотачиваясь только на положительных влияниях, что делает результаты еще более понятными.

__wf_reserved_inherit
Рис. 3. Сравнение CAM, Grad-CAM и Grad-CAM++.

Контрфактические объяснения

Контрфактические объяснения — важный элемент объяснимого ИИ. Контрфактическое объяснение включает в себя описание ситуации или результата путем рассмотрения альтернативных сценариев или событий, которые не произошли, но могли бы произойти. Оно может продемонстрировать, как изменения в определенных входных переменных приводят к различным результатам, например: «Если бы X не произошло, Y бы не произошло».

Когда речь идет об ИИ и компьютерном зрении, контрафактическое объяснение определяет наименьшее изменение, необходимое во входных данных (таких как изображение или данные), чтобы заставить модель ИИ выдать другой, конкретный результат. Например, изменение цвета объекта на изображении может изменить прогноз модели классификации изображений с «кошки» на «собаку».

Другим хорошим примером может быть изменение угла или освещения в системе распознавания лиц. Это может привести к тому, что модель идентифицирует другого человека, показывая, как небольшие изменения во входных данных могут повлиять на прогнозы модели.

Самый простой способ создать эти объяснения — метод проб и ошибок: вы можете случайным образом изменять части входных данных (например, признаки изображения или данных) до тех пор, пока модель ИИ не даст желаемый результат. Другие методы включают в себя модельно-агностические подходы, которые используют оптимизацию и методы поиска для нахождения изменений, и модельно-специфические подходы, которые полагаются на внутренние настройки или вычисления для определения необходимых изменений.

Применение объяснимого ИИ в компьютерном зрении

Теперь, когда мы изучили, что такое XAI и каковы его основные методы, мы можем рассмотреть, как он используется в реальной жизни. XAI имеет разнообразные применения во многих областях. Давайте рассмотрим несколько вариантов использования, которые подчеркивают его потенциал:

  • Системы безопасности: XAI можно использовать для улучшения систем безопасности путем обнаружения измененных изображений в идентификационных документах, таких как паспорта и водительские права. Это обеспечивает подлинность изображений, укрепляет процессы проверки личности и предотвращает мошеннические действия в конфиденциальных приложениях.
__wf_reserved_inherit
Рис. 4. Как XAI работает для обнаружения измененных изображений.

  • Автономное вождение: Понимание возможностей и ограничений бортовой системы Vision AI беспилотного автомобиля может быть важной частью тестирования автомобиля перед его развертыванием на реальных дорогах. XAI может помочь автомобильным компаниям более четко выявлять и решать проблемы.
  • Правовые системы: Системы анализа документов с использованием машинного зрения все чаще используются при принятии судебных решений. XAI поддерживает справедливые результаты и позволяет проверять автоматизированные решения. Это также помогает юристам понять, как модель ИИ принимает свои решения.
  • Мониторинг дикой природы: Камеры-ловушки часто используются для мониторинга дикой природы и сбора данных о видах животных. XAI можно использовать для объяснения того, как ИИ классифицирует эти виды на изображениях. Это позволяет сделать усилия по сохранению природы более надежными и точными.

Основные выводы об объяснимом ИИ

Объяснимый ИИ облегчает понимание того, как работают системы ИИ и почему они принимают определенные решения. Прозрачность в отношении моделей ИИ укрепляет доверие и подотчетность. Знание — сила и помогает использовать инновации в области ИИ более ответственно. В таких критических областях, как здравоохранение, безопасность, автономное вождение и правовые системы, XAI можно использовать, чтобы помочь разработчикам и пользователям понимать прогнозы ИИ, выявлять ошибки и обеспечивать справедливое и этичное использование. Делая ИИ более прозрачным, XAI устраняет разрыв между технологиями и доверием людей, делая его более безопасным и надежным для реальных приложений.

Чтобы узнать больше, посетите наш репозиторий на GitHub и присоединяйтесь к нашему сообществу. Ознакомьтесь с применением ИИ в беспилотных автомобилях и сельском хозяйстве на страницах с нашими решениями. 🚀

Давайте строить будущее
ИИ вместе!

Начните свой путь в будущее машинного обучения

Начать бесплатно
Ссылка скопирована в буфер обмена