Glossário

Preconceitos na IA

Descubra como identificar, mitigar e prevenir preconceitos em sistemas de IA com estratégias, ferramentas e exemplos do mundo real para o desenvolvimento ético da IA.

O preconceito na IA refere-se a erros sistemáticos ou preconceitos nos resultados de um sistema de Inteligência Artificial (IA). Estes preconceitos podem conduzir a resultados injustos, desiguais ou discriminatórios, prejudicando frequentemente grupos ou populações específicos. À medida que os sistemas de IA se tornam mais integrados em sectores críticos como os cuidados de saúde e as finanças, compreender e atenuar os preconceitos tornou-se um desafio central no desenvolvimento responsável da IA. O enviesamento não é um erro aleatório ocasional; é um padrão repetitivo de resultados distorcidos que reflecte falhas subjacentes nos dados ou no algoritmo.

Fontes de enviesamento da IA

O enviesamento da IA pode ter origem em várias fontes ao longo do ciclo de vida do desenvolvimento do modelo. As fontes mais comuns incluem:

  • Enviesamento do conjunto de dados: Esta é a fonte mais comum de enviesamento da IA. Ocorre quando os dados de treino não são representativos do mundo real ou da população-alvo. Por exemplo, um conjunto de dados para uma ferramenta de contratação treinada principalmente em dados históricos de uma indústria dominada por homens pode aprender a favorecer os candidatos do sexo masculino. Isto pode manifestar-se como enviesamento de amostragem (dados não recolhidos aleatoriamente), enviesamento de seleção (dados que não representam o ambiente) ou enviesamento de medição ( rotulagem inconsistente dos dados). A criação de conjuntos de dados equilibrados e diversificados é um primeiro passo crucial.
  • Enviesamento algorítmico: este enviesamento resulta do próprio algoritmo de IA. Alguns algoritmos podem amplificar inerentemente pequenos enviesamentos presentes nos dados, ou a sua conceção pode dar prioridade a determinadas caraterísticas em detrimento de outras, de forma a criar resultados injustos. A escolha de uma função de perda, por exemplo, pode afetar a forma como um modelo penaliza os erros de diferentes subgrupos.
  • Preconceito humano: Os criadores, anotadores de dados e utilizadores de sistemas de IA podem introduzir involuntariamente os seus próprios preconceitos cognitivos no modelo de IA. Estes preconceitos pessoais e sociais podem influenciar a forma como os problemas são enquadrados, como os dados são recolhidos e anotados e como os resultados do modelo são interpretados.

Exemplos do mundo real

  1. Tecnologia de reconhecimento facial: Muitos sistemas comerciais de reconhecimento facial têm historicamente apresentado taxas de erro mais elevadas na identificação de indivíduos de grupos demográficos sub-representados, particularmente mulheres e pessoas de cor. A investigação levada a cabo por instituições como o NIST demonstrou estas disparidades, que muitas vezes resultam de conjuntos de dados de treino que apresentam predominantemente rostos brancos e masculinos.
  2. Ferramentas de contratação automatizadas: Um exemplo bem conhecido é uma ferramenta de recrutamento experimental desenvolvida pela Amazon, que penalizava os currículos que continham a palavra "mulheres" e desvalorizava os licenciados de duas faculdades só para mulheres. O modelo aprendeu estas tendências a partir de dados históricos de contratação apresentados ao longo de um período de 10 anos, que reflectiam a predominância masculina na indústria tecnológica. A Amazon acabou por abandonar o projeto.

Preconceito em Ai Vs. Termos relacionados

É importante distinguir o preconceito da IA de conceitos relacionados:

  • Enviesamento algorítmico vs. enviesamento de IA: O enviesamento algorítmico é um tipo específico de enviesamento de IA que tem origem na arquitetura do modelo ou na formulação matemática. O enviesamento da IA é o termo mais abrangente que também inclui os enviesamentos dos dados e da intervenção humana.
  • Enviesamento do conjunto de dados vs. Enviesamento da IA: O enviesamento do conjunto de dados é uma das principais causas do enviesamento da IA. Um algoritmo que seja perfeitamente justo na sua conceção pode ainda assim produzir resultados tendenciosos se for treinado com dados desequilibrados ou preconceituosos.
  • Equidade na IA vs. Preconceito na IA: A equidade na IA é o campo dedicado a abordar o preconceito na IA. Enquanto o preconceito é o problema, a equidade envolve os princípios, métricas e técnicas utilizadas para definir, medir e promover resultados equitativos.

Abordar o viés da IA

Atenuar o enviesamento da IA é um processo contínuo que requer uma abordagem multifacetada ao longo do ciclo de vida do desenvolvimento da IA:

Plataformas como o Ultralytics HUB fornecem ferramentas que apoiam o desenvolvimento de sistemas de IA mais justos, permitindo uma gestão cuidadosa do conjunto de dados, facilitando a formação de modelos personalizados e permitindo a monitorização do desempenho do modelo Ultralytics YOLO. A consciencialização e a incorporação de princípios de justiça, frequentemente discutidos em fóruns como a conferência ACM FAccT, são cruciais para criar tecnologia que beneficie a sociedade de forma equitativa.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência