Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Viés em IA

Descubra como identificar, mitigar e prevenir o viés em sistemas de IA com estratégias, ferramentas e exemplos do mundo real para o desenvolvimento ético de IA.

O preconceito na IA refere-se a erros sistemáticos ou preconceitos incorporados num sistema de sistema de Inteligência Artificial (IA) que que resultam em resultados injustos, não equitativos ou discriminatórios. Ao contrário dos erros aleatórios, estes enviesamentos são consistentes e consistentes e repetíveis, privilegiando frequentemente um grupo arbitrário de utilizadores ou de dados em detrimento de outros. À medida que as organizações integram cada vez mais a Aprendizagem Automática (AM) em processos críticos de tomada de decisão, o reconhecimento e a abordagem do viés se tornaram um pilar central da ética da IA. A incapacidade de mitigar estas questões pode levar a resultados distorcidos em aplicações que vão desde a IA em diagnósticos de cuidados de saúde a empréstimos empréstimos financeiros automatizados.

Fontes de preconceitos nos sistemas de IA

Os preconceitos podem infiltrar-se nos sistemas de IA em várias fases do ciclo de vida do desenvolvimento. Compreender estas origens é é essencial para criar modelos robustos e equitativos.

  • Viés do conjunto de dados: Esta é a fonte mais mais prevalecente, ocorrendo quando os dados de treino utilizados para ensinar o modelo não representam com exatidão a população do mundo real. Por exemplo, se um modelo de modelo de classificação de imagens for treinado de classificação de imagens for treinado principalmente em imagens de países ocidentais, pode ter dificuldade em reconhecer objectos ou cenas de outras regiões, um fenómeno frequentemente associado a enviesamentos de seleção.
  • Viés algorítmico: Por vezes, a conceção matemática do próprio algoritmo pode amplificar as disparidades existentes. Certos algoritmos de otimização podem dar prioridade à precisão global à custa de subgrupos sub-representados, ignorando sub-representados, ignorando efetivamente os "outliers" que representam populações minoritárias válidas.
  • Viés cognitivo e humano: As escolhas subjectivas feitas pelos engenheiros durante a a rotulagem dos dados ou a seleção de caraterísticas podem podem inadvertidamente codificar preconceitos humanos no sistema.

Aplicações e implicações no mundo real

As consequências do enviesamento da IA são observáveis em várias tecnologias utilizadas.

  1. Disparidades no reconhecimento facial: Os sistemas comerciais de reconhecimento facial Os sistemas comerciais de reconhecimento facial têm historicamente demonstraram taxas de erro mais elevadas na identificação de mulheres e pessoas de cor. Projectos de investigação como Sombras de Género destacaram como como os conjuntos de dados não representativos conduzem a um fraco desempenho para dados demográficos específicos, levando a apelos a melhores privacidade dos dados e normas de inclusão.
  2. Policiamento preditivo e reincidência: Os algoritmos utilizados para prever a reincidência criminal têm sido criticados por apresentarem preconceitos raciais. Investigações como a análise do COMPAS efectuada pela ProPublica revelou que alguns modelos eram mais susceptíveis de assinalar falsamente arguidos de minorias como sendo de alto risco, ilustrando os de confiar em dados históricos de detenção que reflectem as desigualdades sociais.

Estratégias e instrumentos de atenuação

A resolução dos preconceitos exige uma abordagem proactiva conhecida como Equidade na IA. Os programadores podem utilizar várias técnicas para detect e reduzir o enviesamento.

  • Aumento dos dados: Um método eficaz para melhorar a generalização do modelo é o aumento dos dados. Ao gerar artificialmente variações de pontos de dados existentes - como inverter, girar ou ajustar o equilíbrio de cores das imagens - os desenvolvedores podem expor modelos como o Ultralytics YOLO11 a uma gama mais ampla gama mais ampla de entradas.
  • Auditoria algorítmica: É crucial testar regularmente os modelos em relação a diversos parâmetros de referência. Ferramentas como AI Fairness 360 da IBM e Fairlearn da Microsoft fornecem métricas para avaliar o desempenho do modelo em diferentes subgrupos.
  • Transparência: Adotar práticas de IA explicável (XAI) ajuda ajuda as partes interessadas a perceber porque é que um modelo faz previsões específicas, facilitando a deteção de lógica discriminatória.

Exemplo de código: Melhorando a generalização com Augmentation

O seguinte snippet Python demonstra como aplicar o aumento de dados durante o treinamento com o ultralytics pacote. Isto ajuda o modelo a tornar-se invariante a determinadas alterações, reduzindo potencialmente o o ajuste excessivo a caraterísticas visuais específicas.

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

Distinção de termos relacionados

É útil diferenciar "Bias in AI" de termos do glossário estreitamente relacionados:

  • Preconceito na IA vs. Preconceito Algorítmico: O "enviesamento na IA" é o termo genérico que engloba todas as fontes de injustiça (dados, humanos e sistémicos). O "enviesamento algorítmico" refere-se especificamente ao enviesamento introduzido pelos procedimentos computacionais do modelo ou funções objectivas do modelo.
  • Enviesamento na IA vs. Enviesamento do conjunto de dados: O "enviesamento do conjunto de dados" é uma causa específica do enviesamento da IA que tem origem na recolha e curadoria do material de treino material de treino. Um algoritmo perfeitamente justo pode ainda assim apresentar "enviesamento na IA" se aprender com um conjunto de dados enviesado.

Ao aderir a estruturas como a NIST AI Risk Management Framework, os programadores podem trabalhar no sentido de criar IA responsável responsáveis que sirvam todos de forma equitativa.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora