Tudo o que precisa de saber sobre a IA explicável (XAI)

Abirami Vina

4 min ler

13 de dezembro de 2024

Descubra como a IA explicável (XAI) cria confiança ao tornar as previsões de IA transparentes e fiáveis nos cuidados de saúde, segurança, condução autónoma e muito mais.

Alguma vez viu uma resposta de uma ferramenta de inteligência artificial (IA) como o ChatGPT e se perguntou como é que chegou a essa conclusão? Então, já se deparou com a preocupação da "caixa preta" da IA. É um termo que se refere à falta de clareza sobre como os modelos de IA processam e analisam os dados. Mesmo os engenheiros e cientistas de IA que trabalham regularmente com algoritmos de IA de ponta podem ter dificuldade em compreender totalmente o seu funcionamento interno. De facto, apenas 22% dos profissionais de TI compreendem verdadeiramente as capacidades das ferramentas de IA. 

A incerteza em torno da forma como os modelos de IA tomam decisões pode ser arriscada, especialmente em áreas críticas como a visão por computador nos cuidados de saúde e a IA nas finanças. No entanto, estão a ser feitos progressos significativos para enfrentar estes desafios e melhorar a transparência.

Em particular, a IA explicável (XAI) centra-se exclusivamente na resolução deste problema. Simplificando, é um conjunto de processos e métodos que ajuda os utilizadores humanos a compreenderem e a confiarem nos resultados ou saídas fornecidos por algoritmos complexos de aprendizagem automática

A XAI pode ajudar os programadores a garantir que os sistemas de IA estão a funcionar como esperado. Também pode ajudar as empresas de IA a cumprir as normas regulamentares. Neste artigo, vamos explorar a IA explicável e a sua vasta gama de casos de utilização. Vamos lá começar!

A importância de uma IA explicável

A explicabilidade é fundamental quando se trabalha com IA. Isto é especialmente verdade quando se trata do subcampo da IA, a visão por computador, que é amplamente utilizada em aplicações em sectores como os cuidados de saúde. Ao utilizar modelos de visão em sectores tão sensíveis, é importante que o funcionamento do modelo seja transparente e interpretável por todos. 

A interpretabilidade dos modelos de visão por computador ajuda os utilizadores a compreenderem melhor como foi feita uma previsão e a lógica que lhe está subjacente. A transparência contribui para este objetivo, tornando o funcionamento do modelo claro para todos, definindo claramente as limitações do modelo e garantindo que os dados são utilizados de forma ética. Por exemplo, a visão por computador pode ajudar os radiologistas a identificar eficazmente complicações de saúde em imagens de raios X.

__wf_reserved_inherit
Fig. 1. Radiografias do tórax analisadas com o Vision AI, mostrando as classificações de tuberculose saudável, doente, ativa e latente.

No entanto, um sistema de visão que seja apenas exato não é suficiente. O sistema também precisa de ser capaz de explicar as suas decisões. Imaginemos que o sistema podia mostrar quais as partes da imagem que levaram às suas conclusões - então, quaisquer resultados seriam mais claros. Este nível de transparência ajudaria os profissionais de saúde a verificar as suas conclusões e a garantir que os cuidados prestados aos doentes cumprem as normas médicas. 

Outra razão pela qual a explicabilidade é essencial é que torna as empresas de IA responsáveis e cria confiança nos utilizadores. Uma IA fiável leva a que os utilizadores se sintam confiantes de que as inovações de IA funcionam de forma fiável, tomam decisões justas e tratam os dados de forma responsável

Principais técnicas de IA explicáveis na visão por computador

Agora que já discutimos por que razão a explicabilidade é importante na visão computacional, vamos dar uma vista de olhos às principais técnicas de XAI utilizadas na IA de visão.

Mapas de saliência

As redes neuronais são modelos inspirados no cérebro humano, concebidos para reconhecer padrões e tomar decisões através do processamento de dados por camadas interligadas de nós (neurónios). Podem ser utilizadas para resolver problemas complexos de visão computacional com elevada precisão. Mesmo com esta precisão, continuam a ser caixas negras por definição. 

Os mapas de saliência são uma técnica XAI que pode ser utilizada para ajudar a compreender o que as redes neuronais estão a ver quando analisam imagens. Também podem ser utilizados para solucionar problemas de modelos, caso não estejam a funcionar como esperado. 

Os mapas de saliência funcionam concentrando-se nas partes de uma imagem (pixéis) que definem as previsões de um modelo. Este processo é muito semelhante ao da retropropagação, em que o modelo regressa das previsões à entrada. Mas, em vez de atualizar os pesos do modelo com base nos erros, estamos apenas a ver o quanto cada pixel "importa" para a previsão. Os mapas de saliência são muito úteis para tarefas de visão computacional, como a classificação de imagens.

Por exemplo, se um modelo de classificação de imagens prevê que uma imagem é de um cão, podemos olhar para o seu mapa de saliência para perceber porque é que o modelo pensa que é um cão. Isto ajuda-nos a identificar quais os pixels que mais afectam o resultado. O mapa de saliência destacaria todos os pixéis que contribuíram para a previsão final de que a imagem é um cão.

__wf_reserved_inherit
Fig. 2. Uma vista lado a lado das imagens de entrada e dos respectivos mapas de saliência.

Mapeamento de ativação de classe (CAM)

O mapeamento de ativação de classe é outra técnica XAI utilizada para compreender em que partes de uma imagem uma rede neural se concentra quando faz previsões de classificação de imagens. Funciona de forma semelhante aos mapas de saliência, mas concentra-se na identificação de caraterísticas importantes na imagem em vez de pixéis específicos. As caraterísticas são padrões ou detalhes, como formas ou texturas, que o modelo detecta na imagem.

Métodos como o Gradient Weighted Class Activation Mapping (Grad-CAM) e o Grad-CAM++ baseiam-se na mesma ideia, com algumas melhorias.

Eis como funciona o CAM:

  • Antes de a rede neural tomar a sua decisão final, utiliza um passo chamado agrupamento médio global (GAP) para simplificar a informação. O GAP combina todos os pixéis de um padrão detectado num único valor médio, criando um resumo para cada mapa de caraterísticas (uma representação visual dos padrões detectados).
  • A cada mapa de caraterísticas é então atribuído um peso que mostra a sua importância para a previsão de uma determinada classe (como "pássaro" ou "gato").
  • No entanto, uma limitação do CAM é que pode ser necessário treinar novamente o modelo para calcular esses pesos, o que pode ser demorado.

O Grad-CAM melhora esta situação utilizando gradientes, que são como sinais que mostram o quanto cada mapa de caraterísticas influencia a previsão final. Esse método evita a necessidade de GAP e facilita a visualização do foco do modelo sem retreinamento. O Grad-CAM++ vai mais longe, concentrando-se apenas nas influências positivas, o que torna os resultados ainda mais claros.

__wf_reserved_inherit
Fig. 3. Comparação entre CAM, Grad-CAM e Grad-CAM++.

Explicações contrafactuais

As explicações contrafactuais são um elemento importante da IA explicável. Uma explicação contrafactual consiste em descrever uma situação ou um resultado considerando cenários ou eventos alternativos que não aconteceram mas que poderiam ter acontecido. Pode demonstrar como as alterações em variáveis de entrada específicas conduzem a resultados diferentes, por exemplo: "Se X não tivesse acontecido, Y não teria ocorrido".

No que diz respeito à IA e à visão por computador, uma explicação contrafactual identifica a mais pequena alteração necessária num input (como uma imagem ou dados) para que um modelo de IA produza um resultado diferente e específico. Por exemplo, alterar a cor de um objeto numa imagem pode mudar a previsão de um modelo de classificação de imagens de "gato" para "cão".

Outro bom exemplo seria a alteração do ângulo ou da iluminação num sistema de reconhecimento facial. Isto poderia fazer com que o modelo identificasse um indivíduo diferente, mostrando como pequenas alterações na entrada podem influenciar as previsões do modelo.

A forma mais simples de criar estas explicações é por tentativa e erro: pode alterar aleatoriamente partes da entrada (como caraterísticas da imagem ou dos dados) até que o modelo de IA lhe dê o resultado pretendido. Outros métodos incluem abordagens agnósticas do modelo, que utilizam técnicas de otimização e pesquisa para encontrar alterações, e abordagens específicas do modelo, que se baseiam em definições ou cálculos internos para identificar as alterações necessárias.

Aplicações da IA explicável na visão por computador

Agora que já explorámos o que é a XAI e as suas principais técnicas, podemos ver como é utilizada na vida real. A XAI tem diversas aplicações em muitos domínios. Vamos mergulhar em alguns casos de utilização que realçam o seu potencial:

  • Sistemas de segurança: A XAI pode ser utilizada para melhorar os sistemas de segurança, detectando imagens transformadas em documentos de identificação como passaportes e cartas de condução. Isto garante a autenticidade das imagens, reforça os processos de verificação da identidade e evita actividades fraudulentas em aplicações sensíveis.
__wf_reserved_inherit
Fig. 4. Como funciona o XAI para detetar imagens morfadas.

  • Condução autónoma: Compreender as capacidades e limitações do sistema de IA de visão a bordo de um automóvel de condução autónoma pode ser uma parte importante do teste do automóvel antes de este ser colocado em estradas reais. A XAI pode ajudar as empresas automóveis a identificar e a resolver problemas de forma mais clara.
  • Sistemas jurídicos: Os sistemas de análise de documentos baseados na visão estão a ser cada vez mais utilizados na tomada de decisões judiciais. A XAI apoia resultados justos e permite que os julgamentos automatizados sejam examinados. Também ajuda os profissionais do sector jurídico a compreender como um modelo de IA chega às suas decisões.
  • Monitorização da vida selvagem: As armadilhas fotográficas são frequentemente utilizadas para monitorizar a vida selvagem e recolher dados sobre as espécies animais. A XAI pode ser utilizada para explicar como a IA classifica estas espécies nas imagens. Deste modo, os esforços de conservação podem ser mais fiáveis e precisos.

Principais conclusões sobre a IA explicável

A IA explicável facilita a compreensão do modo como os sistemas de IA funcionam e porque tomam determinadas decisões. A transparência dos modelos de IA gera confiança e responsabilidade. Conhecimento é poder e ajuda as inovações de IA a serem utilizadas de forma mais responsável. Em áreas críticas como os cuidados de saúde, a segurança, a condução autónoma e os sistemas jurídicos, a XAI pode ser utilizada para ajudar os programadores e os utilizadores a compreender as previsões da IA, identificar erros e garantir uma utilização justa e ética. Ao tornar a IA mais transparente, a XAI preenche a lacuna entre a tecnologia e a confiança humana, tornando-a mais segura e fiável para aplicações no mundo real.

Para saber mais, visite o nosso repositório GitHub e participe na nossa comunidade. Explore as aplicações de IA em carros autónomos e na agricultura nas nossas páginas de soluções. 🚀

Vamos construir juntos o futuro
da IA!

Comece a sua viagem com o futuro da aprendizagem automática

Comece gratuitamente
Ligação copiada para a área de transferência