Viés em IA
Descubra como identificar, mitigar e prevenir o viés em sistemas de IA com estratégias, ferramentas e exemplos do mundo real para o desenvolvimento ético de IA.
O preconceito na IA refere-se a erros sistemáticos ou preconceitos incorporados num sistema de
sistema de Inteligência Artificial (IA) que
que resultam em resultados injustos, não equitativos ou discriminatórios. Ao contrário dos erros aleatórios, estes enviesamentos são consistentes e
consistentes e repetíveis, privilegiando frequentemente um grupo arbitrário de utilizadores ou de dados em detrimento de outros. À medida que as organizações
integram cada vez mais a Aprendizagem Automática (AM) em
processos críticos de tomada de decisão, o reconhecimento e a abordagem do viés se tornaram um pilar central da
ética da IA. A incapacidade de mitigar estas questões pode levar a
resultados distorcidos em aplicações que vão desde a
IA em diagnósticos de cuidados de saúde a empréstimos
empréstimos financeiros automatizados.
Fontes de preconceitos nos sistemas de IA
Os preconceitos podem infiltrar-se nos sistemas de IA em várias fases do ciclo de vida do desenvolvimento. Compreender estas origens é
é essencial para criar modelos robustos e equitativos.
-
Viés do conjunto de dados: Esta é a fonte mais
mais prevalecente, ocorrendo quando os
dados de treino utilizados para ensinar o modelo não
representam com exatidão a população do mundo real. Por exemplo, se um modelo de
modelo de classificação de imagens for treinado
de classificação de imagens for treinado principalmente em imagens de países ocidentais, pode ter dificuldade em reconhecer objectos ou cenas de outras regiões, um
fenómeno frequentemente associado a enviesamentos de seleção.
-
Viés algorítmico: Por vezes,
a conceção matemática do próprio algoritmo pode amplificar as disparidades existentes. Certos
algoritmos de otimização podem dar prioridade à
precisão global à custa de subgrupos sub-representados, ignorando
sub-representados, ignorando efetivamente os "outliers" que representam populações minoritárias válidas.
-
Viés cognitivo e humano: As escolhas subjectivas feitas pelos engenheiros durante a
a rotulagem dos dados ou a seleção de caraterísticas podem
podem inadvertidamente codificar preconceitos humanos no sistema.
Aplicações e implicações no mundo real
As consequências do enviesamento da IA são observáveis em várias tecnologias utilizadas.
-
Disparidades no reconhecimento facial: Os sistemas comerciais de reconhecimento facial
Os sistemas comerciais de reconhecimento facial têm historicamente
demonstraram taxas de erro mais elevadas na identificação de mulheres e pessoas de cor. Projectos de investigação como
Sombras de Género destacaram como
como os conjuntos de dados não representativos conduzem a um fraco desempenho para dados demográficos específicos, levando a apelos a melhores
privacidade dos dados e normas de inclusão.
-
Policiamento preditivo e reincidência: Os algoritmos utilizados para prever a reincidência criminal têm sido
criticados por apresentarem preconceitos raciais. Investigações como a
análise do COMPAS efectuada pela ProPublica
revelou que alguns modelos eram mais susceptíveis de assinalar falsamente arguidos de minorias como sendo de alto risco, ilustrando os
de confiar em dados históricos de detenção que reflectem as desigualdades sociais.
Estratégias e instrumentos de atenuação
A resolução dos preconceitos exige uma abordagem proactiva conhecida como
Equidade na IA. Os programadores podem utilizar várias
técnicas para detect e reduzir o enviesamento.
-
Aumento dos dados: Um método eficaz para melhorar a generalização do modelo é o
aumento dos dados. Ao gerar artificialmente
variações de pontos de dados existentes - como inverter, girar ou ajustar o equilíbrio de cores das imagens - os desenvolvedores
podem expor modelos como o Ultralytics YOLO11 a uma gama mais ampla
gama mais ampla de entradas.
-
Auditoria algorítmica: É crucial testar regularmente os modelos em relação a diversos parâmetros de referência. Ferramentas como
AI Fairness 360 da IBM e
Fairlearn da Microsoft fornecem métricas para avaliar o desempenho do modelo em
diferentes subgrupos.
-
Transparência: Adotar
práticas de IA explicável (XAI) ajuda
ajuda as partes interessadas a perceber porque é que um modelo faz previsões específicas, facilitando a deteção de
lógica discriminatória.
Exemplo de código: Melhorando a generalização com Augmentation
O seguinte snippet Python demonstra como aplicar o aumento de dados durante o treinamento com o
ultralytics pacote. Isto ajuda o modelo a tornar-se invariante a determinadas alterações, reduzindo potencialmente o
o ajuste excessivo a caraterísticas visuais específicas.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
data="coco8.yaml",
epochs=5,
fliplr=0.5, # Apply horizontal flip with 50% probability
hsv_h=0.015, # Adjust image hue fraction
)
Distinção de termos relacionados
É útil diferenciar "Bias in AI" de termos do glossário estreitamente relacionados:
-
Preconceito na IA vs. Preconceito Algorítmico:
O "enviesamento na IA" é o termo genérico que engloba todas as fontes de injustiça (dados, humanos e sistémicos).
O "enviesamento algorítmico" refere-se especificamente ao enviesamento introduzido pelos procedimentos computacionais do modelo ou
funções objectivas do modelo.
-
Enviesamento na IA vs. Enviesamento do conjunto de dados:
O "enviesamento do conjunto de dados" é uma causa específica do enviesamento da IA que tem origem na recolha e curadoria do material de treino
material de treino. Um algoritmo perfeitamente justo pode ainda assim apresentar "enviesamento na IA" se aprender com um conjunto de dados enviesado.
Ao aderir a estruturas como a
NIST AI Risk Management Framework, os programadores podem
trabalhar no sentido de criar
IA responsável
responsáveis que sirvam todos de forma equitativa.