Compreender o enviesamento da IA e do conjunto de dados nos sistemas de IA de visão

Abdelrahman Elgendy

4 min ler

28 de março de 2025

Saiba como o enviesamento do conjunto de dados afecta os modelos de visão por computador e como o Ultralytics YOLO11 ajuda a reduzir o enviesamento com aumento inteligente e ferramentas de formação flexíveis.

Os modelos de inteligência artificial (IA) estão a mudar a forma como resolvemos os problemas, mas não são perfeitos. Dos carros autónomos às ferramentas de diagnóstico nos cuidados de saúde, confiamos na IA para interpretar dados e tomar decisões. O que acontece quando os próprios dados têm falhas?

O enviesamento na IA refere-se a padrões de inconsistência que se desenvolvem nos modelos, muitas vezes sem que ninguém se aperceba. Estes enviesamentos podem fazer com que os modelos façam previsões inexactas, inconsistentes ou mesmo prejudiciais. Na visão por computador, o enviesamento tem normalmente origem numa fonte fundamental: o conjunto de dados. Se os dados utilizados para treinar o modelo forem desequilibrados ou pouco representativos, o modelo reflectirá essas lacunas.

Vamos analisar mais detalhadamente como se forma o viés do conjunto de dados, como ele afeta os modelos de visão computacional e as etapas que os desenvolvedores podem seguir para detectá-lo e evitá-lo. Também mostraremos como modelos como o Ultralytics YOLO11 podem apoiar os esforços para construir sistemas de IA mais justos que generalizem melhor, o que significa que têm um bom desempenho em dados novos e não vistos e servem a todos de forma mais igual.

O que é o enviesamento da IA e porque é que é importante?

O enviesamento da IA refere-se a erros consistentes num sistema de IA que resultam em resultados enviesados ou imprecisos. Em termos mais simples, o modelo começa a favorecer um tipo de entrada visual em detrimento de outros, o que afecta a equidade do modelo, não porque tenha um melhor desempenho, mas sim devido à forma como foi treinado.

Isto pode ser especialmente comum na visão por computador, onde os modelos aprendem a partir de dados visuais. Se um conjunto de dados inclui maioritariamente um tipo de objeto, cena ou pessoa, o modelo aprende padrões que só funcionam bem nesses casos.

Imagine um modelo treinado maioritariamente em imagens de trânsito de grandes cidades. Se for implantado numa zona rural, pode classificar mal as disposições invulgares das estradas ou não conseguir detetar tipos de veículos que nunca viu antes. É a parcialidade da IA em ação. Isto leva a uma menor precisão e a uma generalização limitada, que se refere à capacidade de um modelo para ter um bom desempenho em entradas novas ou diversas.

Em aplicações onde a precisão é essencial, como nos cuidados de saúde ou na segurança, estes erros não são apenas frustrantes, podem ser perigosos. Resolver os desvios tem a ver com desempenho, fiabilidade e segurança.

Como o enviesamento do conjunto de dados influencia o comportamento do modelo

Quando falamos de enviesamento do conjunto de dados, referimo-nos ao desequilíbrio ou à limitação dos dados utilizados para treinar um modelo. O enviesamento do conjunto de dados ocorre quando os dados de treino não reflectem adequadamente a diversidade do mundo real que se pretende modelar.

Os modelos de visão por computador não compreendem o mundo. Compreendem padrões. Se as únicas imagens de cães que vêem são golden retrievers em quintais, podem não reconhecer um husky num trilho com neve.

Fig. 1. A reponderação dos dados de origem ajuda a obter uma melhor exatidão do modelo.

Este facto realça um dos principais desafios causados pelo enviesamento do conjunto de dados. O modelo constrói a sua compreensão com base no que lhe é mostrado. Se esses dados de treino não reflectirem a variedade do mundo real, o comportamento do modelo torna-se limitado e menos eficaz em condições desconhecidas.

Os classificadores de imagens têm frequentemente um desempenho significativamente pior quando testados num conjunto de dados diferente daquele em que foram treinados, mesmo que ambos os conjuntos de dados tenham sido criados para a mesma tarefa. Pequenas alterações na iluminação, nos fundos ou nos ângulos da câmara podem levar a quedas notáveis na precisão. Isto mostra a facilidade com que o enviesamento do conjunto de dados pode afetar a capacidade de generalização de um modelo.

Estes não são casos extremos. São sinais de que o seu pipeline de dados é tão importante como a arquitetura do seu modelo.

Tipos de enviesamento nos dados de treino da IA

O enviesamento pode ser visto no processo de desenvolvimento de formas subtis, muitas vezes durante a recolha, rotulagem ou curadoria de dados. Seguem-se três tipos principais de enviesamento que podem afetar os seus dados de treino:

Viés de seleção

O enviesamento de seleção pode ocorrer quando o conjunto de dados não representa a variedade observada na utilização no mundo real. Se um modelo de deteção de peões for treinado apenas com imagens claras e diurnas, não terá um bom desempenho à noite ou com nevoeiro. Por conseguinte, o processo de seleção não abrangeu casos cruciais.

Fig. 2. Uma representação visual do enviesamento de seleção, em que apenas é escolhido um subconjunto não diversificado.

Este enviesamento ocorre quando o conjunto de dados não capta toda a gama de cenários do mundo real devido à forma como os dados foram recolhidos. Por exemplo, um modelo de deteção de peões treinado apenas em imagens claras e diurnas pode falhar com nevoeiro, neve ou pouca luz. Isto ocorre frequentemente quando os dados são recolhidos em condições ideais ou convenientes, limitando a capacidade do modelo para atuar em ambientes variados. A expansão dos esforços de recolha para incluir ambientes mais diversificados ajuda a reduzir este tipo de enviesamento.

Também pode surgir em conjuntos de dados construídos a partir de fontes em linha, em que o conteúdo pode estar fortemente enviesado para determinados locais, línguas ou contextos socioeconómicos. Sem um esforço deliberado para diversificar o conjunto de dados, o modelo herdará estas limitações.

Tendência da etiqueta

O enviesamento de etiquetas ocorre quando os anotadores humanos aplicam etiquetas incorrectas ou inconsistentes. Uma etiqueta incorrecta pode parecer inofensiva, mas se acontecer frequentemente, o modelo começa a aprender as associações erradas.

A rotulagem inconsistente pode confundir o modelo durante o treino, especialmente em tarefas complexas como a deteção de objectos. Por exemplo, um anotador pode rotular um veículo como "carro" enquanto outro rotula um veículo semelhante como "camião". Estas inconsistências afectam a capacidade do modelo para aprender padrões fiáveis, levando a uma redução da precisão durante a inferência.

Figura 3. O enviesamento nos pipelines de dados tem origem em desequilíbrios do mundo real.

O enviesamento da rotulagem pode também resultar de diretrizes de anotação pouco claras ou de diferentes interpretações dos mesmos dados. O estabelecimento de normas de rotulagem bem documentadas e a realização de verificações de controlo de qualidade podem reduzir significativamente estes desafios.

A formação contínua dos anotadores e a utilização de rotulagem por consenso, em que vários anotadores analisam cada amostra, são duas estratégias eficazes para minimizar o enviesamento dos rótulos e melhorar a qualidade do conjunto de dados.

Viés de representação

O enviesamento da representação reflecte frequentemente desigualdades sociais mais amplas. Os dados recolhidos em regiões mais ricas ou com mais ligações podem não captar a diversidade de populações ou ambientes menos representados. A resolução deste preconceito exige a inclusão intencional de grupos e contextos negligenciados.

O enviesamento de representação ocorre quando determinados grupos ou classes estão sub-representados no conjunto de dados. Estes podem incluir grupos demográficos, categorias de objectos ou condições ambientais. Se um modelo apenas vê um tom de pele, um tipo de objeto ou um estilo de fundo, as suas previsões reflectirão esse desequilíbrio.

Podemos observar este tipo de enviesamento quando determinados grupos ou categorias são incluídos em quantidades muito menores do que outros. Isto pode distorcer as previsões do modelo em direção aos exemplos dominantes no conjunto de dados. Por exemplo, um modelo de reconhecimento facial treinado principalmente num grupo demográfico pode ter dificuldade em ter um desempenho preciso em todos os utilizadores. Ao contrário do enviesamento de seleção, que está ligado à variedade de dados, o enviesamento de representação diz respeito ao equilíbrio entre grupos.

As auditorias de diversidade e as estratégias de expansão de dados direcionadas podem ajudar a garantir que todos os dados demográficos e categorias relevantes estão devidamente representados no conjunto de dados da formação.

Como detetar e atenuar o enviesamento do conjunto de dados

Em implementações no mundo real, o enviesamento da IA não significa apenas algumas previsões incorrectas. Pode resultar em sistemas que funcionam bem para algumas pessoas, mas não para todas.

Na IA automóvel, os modelos de deteção podem ter um desempenho inconsistente em todos os grupos de peões, conduzindo a resultados de segurança inferiores para indivíduos sub-representados. O problema não é a intenção do modelo. São os dados visuais com que foi treinado. Mesmo na agricultura, a distorção na deteção de objectos pode significar uma má identificação das culturas em diferentes condições de iluminação ou meteorológicas. Estas são consequências comuns da formação de modelos em conjuntos de dados limitados ou desequilibrados. 

A correção do enviesamento da IA começa por saber onde procurar. Se o seu conjunto de treino não tiver exemplos-chave ou estiver a representar excessivamente um intervalo estreito, o seu modelo reflectirá essas lacunas. É por isso que a deteção de enviesamento na IA é um passo crítico em todas as linhas de desenvolvimento.

Figura 4. Principais etapas para reduzir o enviesamento da IA e melhorar a equidade.

Comece por analisar o seu conjunto de dados. Observe a distribuição por classes, ambientes, iluminação, escalas de objectos e dados demográficos. Se uma categoria dominar, o seu modelo terá provavelmente um desempenho inferior nas outras.

Em seguida, analise o desempenho. O modelo tem um desempenho pior em determinadas configurações ou para tipos de objectos específicos? Em caso afirmativo, isso é um sinal de enviesamento aprendido e, normalmente, aponta para os dados.

A avaliação ao nível das fatias é fundamental. Um modelo pode apresentar uma precisão média de 90 %, mas apenas 60 % num grupo ou condição específicos. Sem verificar esses cortes, nunca se saberia.

A utilização de métricas de equidade durante a formação e a avaliação é outra ferramenta poderosa. Estas métricas vão para além das pontuações de precisão padrão e avaliam a forma como o modelo se comporta em diferentes subconjuntos de dados. Ajudam a revelar pontos cegos que, de outra forma, poderiam passar despercebidos.

A transparência na composição do conjunto de dados e no teste de modelos conduz a melhores modelos.

Melhorar a equidade através da diversidade e do aumento dos dados

Uma vez identificado o enviesamento, o passo seguinte é colmatar a lacuna. Uma das formas mais eficazes de o fazer é aumentar a diversidade de dados nos modelos de IA. Isto significa recolher mais amostras de cenários sub-representados, quer se trate de imagens médicas de diferentes populações ou de condições ambientais invulgares.

A adição de mais dados pode ser valiosa, especialmente quando aumenta a diversidade. No entanto, a melhoria da equidade também depende da recolha dos tipos corretos de exemplos. Estes devem refletir a variação do mundo real que o seu modelo é suscetível de encontrar.

O aumento dos dados é outra estratégia valiosa. Inverter, rodar, ajustar a iluminação e dimensionar objectos pode ajudar a simular diferentes condições do mundo real. O aumento de dados não só aumenta a variedade do conjunto de dados, como também ajuda o modelo a tornar-se mais robusto a alterações na aparência, iluminação e contexto.

A maioria dos pipelines de formação modernos inclui o aumento por defeito, mas a utilização estratégica, como a concentração no ajuste com base nas necessidades específicas da tarefa, é o que o torna eficaz para a equidade.

Utilizar dados sintéticos para colmatar as lacunas

Os dados sintéticos referem-se a dados gerados artificialmente que imitam exemplos do mundo real. Podem ser uma ferramenta útil quando determinados cenários são demasiado raros ou sensíveis para serem capturados na natureza.

Por exemplo, se estiver a construir um modelo para detetar defeitos raros em máquinas ou infracções de trânsito extremas, pode simular esses casos utilizando dados sintéticos. Isto dá ao seu modelo a oportunidade de aprender com eventos que pode não encontrar frequentemente no seu conjunto de treino.

Os estudos revelaram que a introdução de dados sintéticos específicos na formação pode reduzir o enviesamento do conjunto de dados e melhorar o desempenho em todos os grupos demográficos e ambientes.

Os dados sintéticos têm um melhor desempenho quando emparelhados com amostras do mundo real. Complementam o seu conjunto de dados; não o substituem.

Como é que o YOLO11 apoia a IA ética

A criação de modelos de IA imparciais também depende das ferramentas utilizadas. O YOLO11 foi concebido para ser flexível, fácil de afinar e altamente adaptável, o que o torna muito adequado para reduzir o enviesamento do conjunto de dados.

O YOLO11 suporta técnicas avançadas de aumento de dados durante o treino do modelo, que introduz contextos de imagem variados e exemplos combinados para melhorar a generalização do modelo e reduzir o sobreajuste.

O YOLO11 também apresenta uma arquitetura melhorada da espinha dorsal e do pescoço para uma extração de caraterísticas mais eficaz. Esta atualização melhora a capacidade do modelo para detetar detalhes minuciosos, o que é fundamental em cenários sub-representados ou de ponta, onde os modelos padrão podem ter dificuldades.

Uma vez que o YOLO11 é simples de retreinar e implementar em ambientes de edge e cloud, as equipas podem identificar lacunas de desempenho e atualizar rapidamente o modelo quando é descoberta uma tendência no terreno.

A IA justa não é um objetivo único. É um ciclo de avaliação, aprendizagem e ajustamento. Ferramentas como o YOLO11 ajudam a tornar esse ciclo mais rápido e mais produtivo.

Principais conclusões

A parcialidade da IA afecta tudo, desde a equidade ao desempenho. O enviesamento da visão computacional resulta frequentemente da forma como os conjuntos de dados são recolhidos, rotulados e equilibrados. Felizmente, existem formas comprovadas de o detetar e mitigar.

Comece por auditar os seus dados e testar o desempenho do modelo em diferentes cenários. Utilize a recolha de dados direcionada, o aumento e os dados sintéticos para criar uma melhor cobertura de formação.

O YOLO11 apoia este fluxo de trabalho, facilitando a formação de modelos personalizados, a aplicação de técnicas de aumento sólidas e a reação rápida quando é detectada uma tendência.

Construir uma IA justa não é apenas a coisa certa a fazer. É também a forma de construir sistemas mais inteligentes e mais fiáveis.

Junte-se à nossa comunidade em crescimento! Explore o nosso repositório GitHub para saber mais sobre IA. Pronto para iniciar os seus próprios projectos de visão computacional? Veja as nossas opções de licenciamento. Descubra a IA no fabrico e a IA de visão na agricultura visitando as nossas páginas de soluções! 

Vamos construir juntos o futuro
da IA!

Comece a sua viagem com o futuro da aprendizagem automática

Comece gratuitamente
Ligação copiada para a área de transferência