Descubra o viés algorítmico, suas fontes e exemplos do mundo real. Aprenda estratégias para mitigar o viés e construir sistemas de IA justos e éticos.
O viés algorítmico refere-se a erros sistemáticos e repetíveis num sistema informático que criam resultados injustos, como privilegiar um grupo arbitrário de utilizadores em detrimento de outros. No contexto da Inteligência Artificial (IA), esse fenómeno ocorre quando um modelo de Aprendizagem Automática (ML) produz resultados que são consistentemente distorcidos contra demografias ou cenários específicos. Ao contrário dos erros aleatórios, que constituem ruído imprevisível, o viés algorítmico reflete uma falha estrutural na forma como o modelo foi projetado, treinado ou implementado. Abordar esses viéses é um aspecto fundamental da ética da IA e é essencial para construir confiança em sistemas automatizados de tomada de decisão.
O viés pode se infiltrar nos sistemas de IA por várias vias. A fonte mais comum são os dados de treino não representativos . Se um modelo de visão computacional (CV) for treinado principalmente com imagens de uma região geográfica, ele poderá ter dificuldade para reconhecer objetos ou cenas de outras partes do mundo. Isso é frequentemente chamado de viés do conjunto de dados. No entanto, o próprio algoritmo — a lógica matemática que processa os dados — também pode introduzir viés. Por exemplo, um algoritmo de otimização projetado para maximizar a precisão geral pode sacrificar o desempenho em subgrupos menores e sub-representados para atingir uma pontuação total mais alta.
O impacto do enviesamento algorítmico é significativo em vários sectores, em especial nos casos em que os sistemas automatizados tomam decisões de alto risco.
Para atenuar eficazmente o enviesamento, é útil distinguir o "enviesamento algorítmico" de termos relacionados no domínio da IA responsável.
Os programadores podem reduzir os enviesamentos algorítmicos recorrendo a testes rigorosos e a estratégias de formação diversificadas. Técnicas como como o aumento de dados podem ajudar a equilibrar os conjuntos de dados criando variações de exemplos sub-representados. Além disso, a adesão a estruturas como a Quadro de Gestão de Riscos de IA do NIST garante uma abordagem estruturada para identificar riscos.
O exemplo a seguir demonstra como aplicar o aumento de dados durante o treinamento com o Ultralytics , que é de última geração. Ao aumentar os aumentos geométricos, como inversão ou dimensionamento, o modelo aprende a generalizar melhor, reduzindo potencialmente o viés em relação a orientações ou posições específicas de objetos. .
from ultralytics import YOLO
# Load the YOLO26 model, the new standard for speed and accuracy
model = YOLO("yolo26n.pt")
# Train with increased augmentation to improve generalization
# 'fliplr' (flip left-right) and 'scale' help the model see diverse variations
results = model.train(
data="coco8.yaml",
epochs=50,
fliplr=0.5, # 50% probability of horizontal flip
scale=0.5, # +/- 50% image scaling
)
Ferramentas como o AI Fairness 360 da IBM e a What-If ToolGoogle permitem que os engenheiros auditem os seus modelos em busca de disparidades entre diferentes subgrupos. A utilização de dados sintéticos também pode ajudar a preencher lacunas nos conjuntos de treino onde os dados do mundo real são escassos. Para uma gestão simplificada de conjuntos de dados e formação na nuvem, Ultralytics oferece ferramentas para visualizar distribuições de dados e identificar potenciais desequilíbrios numa fase inicial. Em última análise, alcançar transparência na IA requer uma combinação de soluções técnicas, equipas de desenvolvimento diversificadas e avaliação contínua da precisão e recall em todos os dados demográficos dos utilizadores.