Нажав кнопку "Принять все файлы cookie", вы соглашаетесь с сохранением файлов cookie на вашем устройстве для улучшения навигации по сайту, анализа его использования и помощи в наших маркетинговых усилиях. Дополнительная информация
Настройки файлов cookie
Нажав кнопку "Принять все файлы cookie", вы соглашаетесь с сохранением файлов cookie на вашем устройстве для улучшения навигации по сайту, анализа его использования и помощи в наших маркетинговых усилиях. Дополнительная информация
Узнайте, как Explainable AI (XAI) повышает доверие, делая прогнозы ИИ прозрачными и надежными в сфере здравоохранения, безопасности, автономного вождения и т. д.
Вы когда-нибудь видели ответ от инструмента искусственного интеллекта (ИИ), такого как ChatGPT, и задавались вопросом, как он пришел к такому выводу? Значит, вы сталкивались с проблемой "черного ящика" ИИ. Это термин, обозначающий отсутствие ясности в том, как модели ИИ обрабатывают и анализируют данные. Даже инженерам и ученым, которые регулярно работают с передовыми алгоритмами ИИ, бывает сложно полностью понять их внутреннее устройство. Более того, только 22 % ИТ-специалистов действительно понимают возможности инструментов ИИ.
Неопределенность, связанная с тем, как модели ИИ принимают решения, может быть рискованной, особенно в таких важных областях, как компьютерное зрение в здравоохранении и ИИ в финансах. Однако в настоящее время достигнут значительный прогресс в решении этих проблем и повышении прозрачности.
В частности, объяснимый ИИ (XAI) нацелен исключительно на решение этой проблемы. Проще говоря, это набор процессов и методов, которые помогают пользователям понимать и доверять результатам или выводам, выдаваемым сложными алгоритмами машинного обучения.
XAI может помочь разработчикам убедиться, что системы ИИ работают так, как ожидается. Он также может помочь компаниям, использующим ИИ, соответствовать нормативным стандартам. В этой статье мы рассмотрим объяснимый ИИ и широкий спектр его применения. Давайте начнем!
Важность объяснимого ИИ
Объяснимость - ключевой момент при работе с ИИ. Это особенно актуально, когда речь идет о такой подотрасли ИИ, как компьютерное зрение, которое широко используется в таких отраслях, как здравоохранение. При использовании моделей зрения в таких чувствительных отраслях важно, чтобы работа модели была прозрачной и понятной для всех.
Интерпретируемость моделей компьютерного зрения помогает пользователям лучше понять, как было сделано предсказание и какая логика за ним стоит. Прозрачность добавляет к этому прозрачности, делая работу модели понятной для всех, четко указывая на ограничения модели и обеспечивая этичность использования данных. Например, компьютерное зрение может помочь рентгенологам эффективно выявлять осложнения на рентгеновских снимках.
Рис. 1. Рентгеновские снимки грудной клетки, проанализированные с помощью Vision AI, с классификацией на здоровые, больные, активные и латентные формы туберкулеза.
Однако просто точной системы технического зрения недостаточно. Система также должна уметь объяснять свои решения. Допустим, система может показать, какие части изображения привели к ее выводам - тогда любые выводы будут более понятны. Такой уровень прозрачности поможет медицинским работникам перепроверить свои выводы и убедиться, что уход за пациентом соответствует медицинским стандартам.
Еще одна причина, по которой объясняемость имеет большое значение, заключается в том, что она делает компании, занимающиеся разработкой ИИ, ответственными и укрепляет доверие пользователей. Доверие к ИИ приводит к тому, что пользователи чувствуют уверенность в том, что инновации ИИ работают надежно, принимают справедливые решения и ответственно относятся к данным.
Ключевые объяснимые методы ИИ в компьютерном зрении
Теперь, когда мы обсудили, почему объясняемость имеет значение для компьютерного зрения, давайте рассмотрим ключевые техники XAI, используемые в искусственном интеллекте.
Карты солености
Нейронные сети - это модели, вдохновленные человеческим мозгом, предназначенные для распознавания закономерностей и принятия решений путем обработки данных с помощью взаимосвязанных слоев узлов (нейронов). Они могут использоваться для решения сложных задач компьютерного зрения с высокой точностью. Но даже при такой точности они все равно остаются "черными ящиками" по своей конструкции.
Карты солености - это техника XAI, которая помогает понять, что видят нейронные сети при анализе изображений. Ее также можно использовать для диагностики моделей, если они работают не так, как ожидалось.
Карты солености работают, фокусируясь на том, какие части изображения (пиксели) определяют предсказания модели. Этот процесс очень похож на обратное распространение, когда модель прослеживает путь от предсказаний к входу. Но вместо того, чтобы обновлять веса модели на основе ошибок, мы просто смотрим, насколько каждый пиксель "важен" для прогноза. Карты солености очень полезны для задач компьютерного зрения, таких как классификация изображений.
Например, если модель классификации изображений предсказывает, что на картинке изображена собака, мы можем посмотреть на ее карту солености, чтобы понять, почему модель считает, что это собака. Это поможет нам определить, какие пиксели оказывают наибольшее влияние на результат. На карте солености будут выделены все пиксели, которые внесли вклад в окончательное предсказание того, что изображение является собакой.
Рис. 2. Вид сбоку на входные изображения и их карты солености.
Сопоставление активации классов (CAM)
Class Activation Mapping - еще одна техника XAI, используемая для того, чтобы понять, на какие части изображения обращает внимание нейронная сеть при составлении прогнозов классификации изображений. Она работает так же, как и карты солености, но фокусируется на выявлении важных особенностей изображения, а не конкретных пикселей. Особенности - это паттерны или детали, такие как формы или текстуры, которые модель обнаруживает на изображении.
Такие методы, как Gradient Weighted Class Activation Mapping (Grad-CAM) и Grad-CAM++, основаны на той же идее, но с некоторыми улучшениями.
Вот как работает CAM:
Прежде чем нейронная сеть примет окончательное решение, она использует шаг, называемый глобальным усреднением (GAP), для упрощения информации. GAP объединяет все пиксели в обнаруженном паттерне в одно среднее значение, создавая итоговый показатель для каждой карты признаков (визуальное представление обнаруженных паттернов).
Затем каждой карте признаков присваивается вес, который показывает, насколько она важна для предсказания определенного класса (например, "птица" или "кошка").
Однако одно из ограничений CAM заключается в том, что для расчета этих весов может потребоваться переобучение модели, что может занять много времени.
Grad-CAM улучшает этот метод за счет использования градиентов, которые подобны сигналам, показывающим, насколько сильно каждая карта признаков влияет на итоговый прогноз. Этот метод позволяет избежать необходимости использования GAP и дает возможность увидеть, на что ориентируется модель без переобучения. Grad-CAM++ делает еще один шаг вперед, фокусируясь только на положительном влиянии, что делает результаты еще более наглядными.
Контрфактические объяснения - важный элемент объяснимого ИИ. Контрфактическое объяснение предполагает описание ситуации или результата путем рассмотрения альтернативных сценариев или событий, которые не произошли, но могли бы произойти. Оно может продемонстрировать, как изменения конкретных входных переменных приводят к различным результатам, например: "Если бы X не произошло, то не произошло бы и Y".
Когда речь идет об искусственном интеллекте и компьютерном зрении, контрфактическое объяснение определяет наименьшее изменение, которое необходимо внести в исходные данные (например, изображение или данные), чтобы модель искусственного интеллекта выдала другой, конкретный результат. Например, изменение цвета объекта на изображении может изменить предсказание модели классификации изображений с "кошки" на "собаку".
Другой хороший пример - изменение ракурса или освещения в системе распознавания лиц. Это может привести к тому, что модель опознает другого человека, показывая, как небольшие изменения в исходных данных могут повлиять на предсказания модели.
Самый простой способ создания таких объяснений - метод проб и ошибок: вы можете случайным образом менять части входных данных (например, характеристики изображения или данных) до тех пор, пока модель ИИ не выдаст вам желаемый результат. Другие методы включают в себя подходы, не зависящие от модели, в которых для поиска изменений используются методы оптимизации и поиска, и подходы, ориентированные на конкретную модель, в которых для определения необходимых изменений используются внутренние настройки или расчеты.
Применение объяснимого ИИ в компьютерном зрении
Теперь, когда мы выяснили, что такое XAI и каковы его основные методы, мы можем рассказать о том, как он используется в реальной жизни. XAI находит широкое применение во многих областях. Давайте рассмотрим несколько примеров использования, которые раскрывают его потенциал:
Системы безопасности: XAI можно использовать для улучшения систем безопасности, обнаруживая морфированные изображения в документах, удостоверяющих личность, таких как паспорта и водительские права. Это гарантирует подлинность изображений, усиливает процессы проверки личности и предотвращает мошеннические действия в чувствительных приложениях.
Рис. 4. Принцип работы XAI для обнаружения морфированных изображений.
Автономное вождение: Понимание возможностей и ограничений бортовой системы Vision AI для самоуправляемых автомобилей может стать важной частью тестирования машины перед ее выходом на реальные дороги. XAI может помочь автомобильным компаниям выявить и решить проблемы более четко.
Правовые системы: Системы анализа документов с помощью зрения все чаще используются при принятии судебных решений. XAI поддерживает справедливые решения и позволяет тщательно проверять автоматизированные суждения. Это также помогает специалистам в области права понять, как модель искусственного интеллекта приходит к своим решениям.
Мониторинг дикой природы: Камеры-ловушки часто используются для мониторинга дикой природы и сбора данных о видах животных. XAI можно использовать для объяснения того, как ИИ классифицирует эти виды на изображениях. Таким образом, усилия по сохранению природы могут быть более надежными и точными.
Основные выводы о понятном ИИ
Объяснимый ИИ облегчает понимание того, как работают системы ИИ и почему они принимают те или иные решения. Прозрачность моделей ИИ способствует укреплению доверия и подотчетности. Знания - это сила, и они помогают использовать инновации ИИ более ответственно. В таких критически важных областях, как здравоохранение, безопасность, автономное вождение и правовые системы, XAI может быть использован для того, чтобы помочь разработчикам и пользователям понять прогнозы ИИ, выявить ошибки и обеспечить справедливое и этичное использование. Делая ИИ более прозрачным, XAI преодолевает разрыв между технологиями и человеческим доверием, делая его более безопасным и надежным для применения в реальном мире.