Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Tudo o que você precisa saber sobre IA explicável (XAI)

Abirami Vina

4 min de leitura

13 de dezembro de 2024

Descubra como a IA Explicável (XAI) constrói confiança, tornando as previsões de IA transparentes e confiáveis em saúde, segurança, direção autônoma e muito mais.

Você já viu uma resposta de uma ferramenta de inteligência artificial (IA) como o ChatGPT e se perguntou como ela chegou a essa conclusão? Então, você já se deparou com a preocupação da “caixa preta” da IA. É um termo que se refere à falta de clareza sobre como os modelos de IA processam e analisam os dados. Mesmo os engenheiros e cientistas de IA que trabalham regularmente com algoritmos de IA de ponta podem ter dificuldades para entender completamente seu funcionamento interno. Na verdade, apenas 22% dos profissionais de TI realmente entendem as capacidades das ferramentas de IA. 

A incerteza sobre como os modelos de IA tomam decisões pode ser arriscada, especialmente em áreas críticas como visão computacional na área da saúde e IA em finanças. No entanto, progressos significativos estão sendo feitos para enfrentar esses desafios e melhorar a transparência.

Em particular, a IA explicável (XAI) concentra-se unicamente em resolver essa preocupação. Simplificando, é um conjunto de processos e métodos que ajudam os usuários humanos a entender e confiar nos resultados ou saídas fornecidos por algoritmos complexos de aprendizado de máquina

A XAI pode ajudar os desenvolvedores a garantir que os sistemas de IA estejam funcionando conforme o esperado. Também pode ajudar as empresas de IA a cumprir os padrões regulatórios. Neste artigo, exploraremos a IA explicável e sua ampla gama de casos de uso. Vamos começar!

A importância da IA explicável

A explicabilidade é fundamental ao trabalhar com IA. Isso é especialmente verdadeiro quando se trata do subcampo da IA, visão computacional, que é amplamente utilizada em aplicações em setores como o de saúde. Ao usar modelos de visão em setores tão sensíveis, é importante que o funcionamento do modelo seja transparente e interpretável para todos. 

A interpretabilidade nos modelos de visão computacional ajuda os utilizadores a terem uma melhor compreensão de como uma previsão foi feita e da lógica por detrás dela. A transparência aumenta isto, tornando o funcionamento do modelo claro para todos, delineando claramente as limitações do modelo e garantindo que os dados são usados eticamente. Por exemplo, a visão computacional pode ajudar os radiologistas a identificar eficientemente complicações de saúde em imagens de raios-X.

__wf_reserved_inherit
Fig 1. Raios-X do tórax analisados usando Visão de IA mostrando classificações de tuberculose saudáveis, doentes, ativas e latentes.

No entanto, um sistema de visão que seja apenas preciso não é suficiente. O sistema também precisa ser capaz de explicar suas decisões. Digamos que o sistema pudesse mostrar quais partes da imagem levaram às suas conclusões - então, quaisquer resultados seriam mais claros. Tal nível de transparência ajudaria os profissionais médicos a verificar suas descobertas e garantir que o atendimento ao paciente atenda aos padrões médicos. 

Outra razão pela qual a explicabilidade é essencial é que ela torna as empresas de IA responsáveis e gera confiança nos usuários. Uma IA confiável leva os usuários a se sentirem confiantes de que as inovações de IA funcionam de forma confiável, tomam decisões justas e gerenciam os dados de forma responsável

Principais técnicas de IA explicável em visão computacional

Agora que discutimos por que a explicabilidade é importante na visão computacional, vamos dar uma olhada nas principais técnicas de XAI usadas na Visão de IA.

Mapas de saliência

Redes neurais são modelos inspirados no cérebro humano, projetados para reconhecer padrões e tomar decisões processando dados por meio de camadas interconectadas de nós (neurônios). Elas podem ser usadas para resolver problemas complexos de visão computacional com alta precisão. Mesmo com essa precisão, elas ainda são caixas pretas por design. 

Mapas de saliência são uma técnica XAI que pode ser usada para ajudar a entender o que as redes neurais estão vendo quando analisam imagens. Também pode ser usado para solucionar problemas de modelos caso eles não estejam funcionando como esperado. 

Os mapas de saliência funcionam focando em quais partes de uma imagem (pixels) definem as previsões de um modelo. Este processo é muito semelhante à retropropagação, onde o modelo rastreia de volta das previsões para a entrada. Mas em vez de atualizar os pesos do modelo com base em erros, estamos apenas olhando o quanto cada pixel "importa" para a previsão. Mapas de saliência são muito úteis para tarefas de visão computacional como classificação de imagens.

Por exemplo, se um modelo de classificação de imagem prevê que uma imagem é de um cachorro, podemos analisar seu mapa de saliência para entender por que o modelo pensa que é um cachorro. Isso nos ajuda a identificar quais pixels afetam mais a saída. O mapa de saliência destacaria todos os pixels que contribuíram para a previsão final de que a imagem é de um cachorro.

__wf_reserved_inherit
Fig. 2. Uma visualização lado a lado das imagens de entrada e seus mapas de saliência.

Mapeamento de Ativação de Classe (CAM)

O Mapeamento de Ativação de Classe é outra técnica XAI usada para entender em quais partes de uma imagem uma rede neural se concentra ao fazer previsões de classificação de imagem. Funciona de forma semelhante aos mapas de saliência, mas se concentra na identificação de recursos importantes na imagem em vez de pixels específicos. Recursos são padrões ou detalhes, como formas ou texturas, que o modelo detecta na imagem.

Métodos como Gradient Weighted Class Activation Mapping (Grad-CAM) e Grad-CAM++ se baseiam na mesma ideia, com algumas melhorias.

Veja como o CAM funciona:

  • Antes que a rede neural tome sua decisão final, ela usa uma etapa chamada global average pooling (GAP) para simplificar as informações. O GAP combina todos os pixels em um padrão detectado em um único valor médio, criando um resumo para cada mapa de características (uma representação visual de padrões detectados).
  • Cada mapa de características recebe então um peso que mostra a sua importância para prever uma determinada classe (como "pássaro" ou "gato").
  • No entanto, uma limitação do CAM é que você pode precisar retreinar o modelo para calcular esses pesos, o que pode ser demorado.

O Grad-CAM melhora isso usando gradientes, que são como sinais mostrando o quanto cada mapa de características influencia a previsão final. Este método evita a necessidade de GAP e torna mais fácil ver no que o modelo se concentra sem retreinar. O Grad-CAM++ leva isso um passo adiante, concentrando-se apenas em influências positivas, o que torna os resultados ainda mais claros.

__wf_reserved_inherit
Fig. 3. Comparando CAM, Grad-CAM e Grad-CAM++.

Explicações contrafactuais

As explicações contrafactuais são um elemento importante da IA explicável. Uma explicação contrafactual envolve descrever uma situação ou resultado considerando cenários ou eventos alternativos que não aconteceram, mas poderiam ter acontecido. Ela pode demonstrar como mudanças em variáveis de entrada específicas levam a resultados diferentes, como: “Se X não tivesse acontecido, Y não teria ocorrido.”

Quando se trata de IA e visão computacional, uma explicação contrafactual identifica a menor mudança necessária em uma entrada (como uma imagem ou dado) para fazer com que um modelo de IA produza um resultado diferente e específico. Por exemplo, alterar a cor de um objeto em uma imagem pode mudar a previsão de um modelo de classificação de imagem de "gato" para "cachorro".

Outro bom exemplo seria mudar o ângulo ou a iluminação em um sistema de reconhecimento facial. Isso pode fazer com que o modelo identifique um indivíduo diferente, mostrando como pequenas mudanças na entrada podem influenciar as previsões do modelo.

A maneira mais simples de criar essas explicações é por tentativa e erro: você pode alterar aleatoriamente partes da entrada (como características da imagem ou dados) até que o modelo de IA forneça o resultado desejado. Outros métodos incluem abordagens independentes do modelo, que usam técnicas de otimização e pesquisa para encontrar mudanças, e abordagens específicas do modelo, que dependem de configurações internas ou cálculos para identificar as mudanças necessárias.

Aplicações de IA explicável em visão computacional

Agora que exploramos o que é XAI e suas principais técnicas, podemos analisar como ela é usada na vida real. A XAI tem diversas aplicações em muitos campos. Vamos mergulhar em alguns casos de uso que destacam seu potencial:

  • Sistemas de segurança: A XAI pode ser usada para aprimorar sistemas de segurança, detectando imagens transformadas em documentos de identificação, como passaportes e carteiras de motorista. Isso garante a autenticidade das imagens, fortalece os processos de verificação de identidade e evita atividades fraudulentas em aplicações confidenciais.
__wf_reserved_inherit
Fig. 4. Como o XAI funciona para detectar imagens transformadas.

  • Direção autônoma: Compreender as capacidades e limitações do sistema de IA de Visão a bordo de um carro autônomo pode ser uma grande parte do teste do carro antes de ser implantado em estradas do mundo real. O XAI pode ajudar as empresas de automóveis a identificar e resolver problemas com mais clareza.
  • Sistemas legais: Sistemas de análise de documentos habilitados para visão estão sendo cada vez mais usados na tomada de decisões judiciais. A XAI apoia resultados justos e permite que julgamentos automatizados sejam examinados. Também ajuda os profissionais do direito a entender como um modelo de IA chega às suas decisões.
  • Monitoramento da vida selvagem: Armadilhas fotográficas são frequentemente usadas para monitorar a vida selvagem e coletar dados sobre espécies animais. A XAI pode ser usada para explicar como a IA classifica essas espécies nas imagens. Ao fazer isso, os esforços de conservação podem ser mais confiáveis e precisos.

Principais conclusões sobre IA explicável

A Inteligência Artificial Explicável facilita a compreensão de como os sistemas de IA funcionam e por que tomam certas decisões. A transparência sobre os modelos de IA constrói confiança e responsabilidade. Conhecimento é poder e ajuda as inovações de IA a serem usadas de forma mais responsável. Em áreas críticas como saúde, segurança, direção autônoma e sistemas jurídicos, a XAI pode ser usada para ajudar desenvolvedores e usuários a entender as previsões da IA, identificar erros e garantir o uso justo e ético. Ao tornar a IA mais transparente, a XAI preenche a lacuna entre a tecnologia e a confiança humana, tornando-a mais segura e confiável para aplicações no mundo real.

Para saber mais, visite nosso repositório no GitHub e interaja com a nossa comunidade. Explore as aplicações de IA em carros autônomos e na agricultura em nossas páginas de soluções. 🚀

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência