Viés algorítmico
Descubra o enviesamento algorítmico, as suas fontes e exemplos do mundo real. Aprenda estratégias para mitigar o viés e criar sistemas de IA justos e éticos.
O enviesamento algorítmico refere-se a erros sistemáticos e repetíveis num sistema de inteligência artificial (IA) que resultam em resultados injustos, como privilegiar um grupo arbitrário de utilizadores em detrimento de outros. Estes enviesamentos podem surgir de várias fontes, incluindo dados incorrectos ou a conceção do próprio algoritmo de aprendizagem automática (ML). Abordar esta questão é uma componente crítica do desenvolvimento de uma IA responsável e ética, garantindo que a tecnologia beneficia a sociedade de forma equitativa. As consequências do enviesamento algorítmico não controlado podem ir desde a perpetuação das desigualdades sociais até à realização de previsões incorrectas em aplicações críticas como os cuidados de saúde e as finanças.
Fontes de distorção algorítmica
O enviesamento algorítmico não é um problema monolítico; tem origem em múltiplas fontes, muitas vezes interligadas, ao longo do ciclo de vida do desenvolvimento da IA. Compreender estas origens é o primeiro passo para as atenuar.
- Enviesamento dos dados: Esta é a fonte mais comum, em que os dados de treino não são representativos do mundo real. Se um conjunto de dados contiver mais imagens de um grupo demográfico do que de outro, um modelo treinado nesse conjunto terá provavelmente um melhor desempenho para o grupo maioritário. Esta é uma forma de enviesamento do conjunto de dados, que contribui diretamente para resultados algorítmicos enviesados.
- Preconceito humano: Os criadores, os rotuladores de dados e os utilizadores finais dos sistemas de IA podem introduzir inadvertidamente os seus próprios preconceitos cognitivos. Estes podem manifestar-se na forma como os dados são recolhidos e anotados, nas caraterísticas que são consideradas importantes e na forma como os resultados do modelo são interpretados.
- Conceção algorítmica: A escolha do algoritmo e a forma como é optimizado também podem criar enviesamentos. Por exemplo, um algoritmo concebido para maximizar a exatidão global pode fazê-lo sacrificando o desempenho em grupos sub-representados, um exemplo clássico da troca entre parcialidade e variância.
Exemplos do mundo real de preconceitos algorítmicos
O impacto do enviesamento algorítmico é tangível e tem sido observado em inúmeras aplicações do mundo real.
- Sistemas de reconhecimento facial: As primeiras tecnologias de reconhecimento facial demonstraram taxas de precisão significativamente inferiores para mulheres e indivíduos com tons de pele mais escuros. A investigação de instituições como o MIT revelou que estes sistemas foram treinados com base em conjuntos de dados compostos maioritariamente por imagens de homens brancos, o que levou a um fraco desempenho para outros grupos demográficos e levantou sérias preocupações quanto à sua utilização na aplicação da lei.
- Algoritmos de aprovação de empréstimos: No sector financeiro, os modelos de IA são utilizados para prever a capacidade de crédito. No entanto, os dados históricos de empréstimos reflectem frequentemente preconceitos sociais do passado. Um algoritmo treinado com base nestes dados pode aprender a associar determinados códigos postais ou marcadores demográficos a um risco mais elevado, negando injustamente empréstimos a candidatos qualificados de comunidades minoritárias, uma prática conhecida como redlining digital.
Preconceito algorítmico vs. Preconceito do conjunto de dados
Embora estejam intimamente relacionados, é importante distinguir entre enviesamento algorítmico e enviesamento do conjunto de dados.
- O viés do conjunto de dados refere-se especificamente a problemas nos dados utilizados para a formação, como a falta de diversidade ou rótulos incorrectos. É uma causa primária.
- O Viés Algorítmico é o efeito mais amplo. Descreve o comportamento distorcido resultante do modelo de IA. Embora seja frequentemente causado pelo enviesamento do conjunto de dados, também pode ser introduzido ou amplificado pela própria lógica do algoritmo, pela sua função de otimização ou pela forma como está integrado num sistema maior. Um algoritmo pode ser enviesado mesmo com dados perfeitamente equilibrados se o seu funcionamento interno favorecer determinados resultados.
Estratégias de atenuação
O tratamento do enviesamento algorítmico requer uma abordagem proactiva e multifacetada ao longo de todo o ciclo de vida da IA:
- Métricas de equidade: Incorporar métricas de equidade no processo de formação e validação do modelo, juntamente com as métricas de desempenho tradicionais, como a exatidão.
- Auditoria de algoritmos: Auditar regularmente os algoritmos para detetar resultados tendenciosos em diferentes subgrupos. Ferramentas como os kits de ferramentas AI Fairness 360 e Fairlearn podem ajudar a detetar e mitigar o enviesamento.
- Técnicas de atenuação de enviesamentos: Utilizar técnicas concebidas para ajustar os algoritmos, como a reponderação dos pontos de dados, a modificação das restrições de aprendizagem ou o pós-processamento dos resultados do modelo para garantir resultados mais justos.
- IA explicável (XAI): Utilizar métodos XAI para compreender porque é que um algoritmo toma determinadas decisões, ajudando a identificar preconceitos ocultos na sua lógica. É fundamental aumentar a transparência na IA.
- Equipas diversificadas e testes: Envolver equipas diversificadas no processo de desenvolvimento e realizar testes exaustivos com grupos de utilizadores representativos para descobrir potenciais preconceitos.
- Consciência regulamentar: Manter-se informado sobre a evolução da regulamentação, como a Lei da IA da UE, que inclui disposições relacionadas com a parcialidade e a equidade.
- Monitorização contínua de modelos: Monitorizar os modelos implementados para detetar a degradação do desempenho ou as tendências emergentes ao longo do tempo.
Ao compreender as nuances do enviesamento algorítmico e ao trabalhar ativamente para o mitigar através de um design cuidadoso, testes rigorosos e adesão aos princípios de Equidade na IA e Ética da IA, os programadores podem criar aplicações de IA mais fiáveis, equitativas e benéficas. Organizações como a Partnership on AI e a Algorithmic Justice League defendem o desenvolvimento responsável da IA. Plataformas como o Ultralytics HUB e modelos como o Ultralytics YOLO fornecem estruturas que apoiam o desenvolvimento e a avaliação cuidadosos de modelos, considerando factores como a privacidade dos dados e contribuindo para a criação de sistemas mais justos. A Conferência ACM sobre Equidade, Responsabilidade e Transparência (FAccT) é um dos principais locais de investigação nesta área.