Yolo Vision Shenzhen
Shenzhen
Únete ahora

Comprensión del sesgo de la IA y el sesgo del conjunto de datos en los sistemas de IA de visión

Abdelrahman Elgendy

4 minutos de lectura

28 de marzo de 2025

Descubra cómo el sesgo en los conjuntos de datos afecta a los modelos de visión artificial y cómo Ultralytics YOLO11 ayuda a reducir el sesgo con el aumento inteligente y las herramientas de entrenamiento flexibles.

Los modelos de inteligencia artificial (IA) están cambiando la forma en que resolvemos los problemas, pero no son perfectos. Desde coches autónomos hasta herramientas de diagnóstico en la atención sanitaria, confiamos en la IA para interpretar datos y tomar decisiones. ¿Qué sucede cuando los propios datos son defectuosos?

El sesgo en la IA se refiere a patrones de inconsistencia que se desarrollan en los modelos, a menudo sin que nadie se dé cuenta. Estos sesgos pueden hacer que los modelos hagan predicciones inexactas, inconsistentes o incluso perjudiciales. En la visión artificial, el sesgo generalmente se remonta a una fuente clave: el conjunto de datos. Si los datos utilizados para entrenar el modelo están desequilibrados o no son representativos, el modelo reflejará esas carencias.

Analicemos más de cerca cómo se forma el sesgo del conjunto de datos, cómo afecta a los modelos de visión artificial y los pasos que los desarrolladores pueden tomar para detectarlo y prevenirlo. También mostraremos cómo los modelos como Ultralytics YOLO11 pueden respaldar los esfuerzos para construir sistemas de IA más justos que generalicen mejor, lo que significa que funcionan bien con datos nuevos y no vistos y sirven a todos de manera más equitativa.

¿Qué es el sesgo en la IA y por qué es importante?

El sesgo de la IA se refiere a errores consistentes en un sistema de IA que dan como resultado resultados sesgados o inexactos. En términos más sencillos, el modelo empieza a favorecer un tipo de entrada visual sobre otros, lo que afecta a la imparcialidad del modelo, no porque funcione mejor, sino por la forma en que fue entrenado.

Esto puede ser especialmente común en la visión artificial, donde los modelos aprenden de datos visuales. Si un conjunto de datos incluye principalmente un tipo de objeto, escena o persona, el modelo aprende patrones que solo funcionan bien para esos casos.

Imagine un modelo entrenado principalmente con imágenes de tráfico de grandes ciudades. Si se implementa en una zona rural, podría clasificar erróneamente diseños de carreteras inusuales o no detectar tipos de vehículos que nunca ha visto antes. Eso es el sesgo de la IA en acción. Conduce a una menor precisión y a una generalización limitada, lo que se refiere a la capacidad de un modelo para funcionar bien con entradas nuevas o diversas.

En aplicaciones donde la precisión es esencial, como la atención médica o la seguridad, estos errores no son solo frustrantes, sino que pueden ser peligrosos. Abordar el sesgo se trata de rendimiento, confiabilidad y seguridad.

¿Cómo influye el sesgo del conjunto de datos en el comportamiento del modelo?

Cuando hablamos de sesgo en los conjuntos de datos, nos referimos al desequilibrio o la limitación de los datos utilizados para entrenar un modelo. El sesgo del conjunto de datos se produce cuando los datos de entrenamiento no reflejan adecuadamente la diversidad del mundo real que se pretende modelar.

Los modelos de visión artificial no entienden el mundo. Entienden patrones. Si las únicas imágenes de perros que ven son golden retrievers en patios traseros, es posible que no reconozcan a un husky en un sendero nevado.

Fig 1. Reasignar peso a los datos de origen ayuda a lograr una mejor precisión del modelo.

Esto resalta uno de los principales desafíos causados por el sesgo del conjunto de datos. El modelo construye su comprensión basándose en lo que se le muestra. Si esos datos de entrenamiento no reflejan la variedad del mundo real, el comportamiento del modelo se vuelve limitado y menos efectivo en condiciones desconocidas.

Los clasificadores de imágenes a menudo tienen un rendimiento significativamente peor cuando se prueban en un conjunto de datos diferente al que fueron entrenados, incluso si ambos conjuntos de datos están diseñados para la misma tarea. Pequeños cambios en la iluminación, los fondos o los ángulos de la cámara pueden provocar notables caídas en la precisión. Esto demuestra con qué facilidad el sesgo del conjunto de datos puede afectar la capacidad de generalización de un modelo.

Estos no son casos extremos. Son señales de que tu pipeline de datos importa tanto como la arquitectura de tu modelo.

Tipos de sesgos en los datos de entrenamiento de la IA

El sesgo se puede observar en el proceso de desarrollo de maneras sutiles, a menudo durante la recopilación, el etiquetado o la curación de datos. A continuación, se presentan tres tipos principales de sesgo que pueden afectar sus datos de entrenamiento:

Sesgo de selección

El sesgo de selección puede ocurrir cuando el conjunto de datos no representa la variedad observada en el uso del mundo real. Si un modelo de detección de peatones se entrena solo con imágenes claras y diurnas, no funcionará bien de noche o con niebla. Por lo tanto, el proceso de selección ha omitido casos cruciales.

Fig. 2. Una representación visual del sesgo de selección donde solo se elige un subconjunto no diverso.

Este sesgo se produce cuando el conjunto de datos no captura toda la gama de escenarios del mundo real debido a la forma en que se recopilaron los datos. Por ejemplo, un modelo de detección de peatones entrenado solo con imágenes claras y diurnas puede fallar en la niebla, la nieve o con poca luz. Esto ocurre a menudo cuando los datos se recogen en condiciones ideales o convenientes, lo que limita la capacidad del modelo para funcionar en entornos variados. Ampliar los esfuerzos de recolección para incluir entornos más diversos ayuda a reducir este tipo de sesgo.

También puede surgir en conjuntos de datos construidos a partir de fuentes en línea, donde el contenido puede estar muy sesgado hacia ciertas ubicaciones, idiomas o contextos socioeconómicos. Sin un esfuerzo deliberado para diversificar el conjunto de datos, el modelo heredará estas limitaciones.

Sesgo de etiqueta

El sesgo de etiqueta se produce cuando los anotadores humanos aplican etiquetas incorrectas o incoherentes. Una etiqueta errónea puede parecer inofensiva, pero si ocurre a menudo, el modelo empieza a aprender las asociaciones equivocadas.

El etiquetado inconsistente puede confundir al modelo durante el entrenamiento, especialmente en tareas complejas como la detección de objetos. Por ejemplo, un anotador puede etiquetar un vehículo como "coche", mientras que otro etiqueta uno similar como "camión". Estas inconsistencias impactan en la capacidad del modelo para aprender patrones confiables, lo que lleva a una reducción de la precisión durante la inferencia.

Fig. 3. El sesgo en los pipelines de datos se origina en los desequilibrios del mundo real.

El sesgo de etiqueta también puede surgir de directrices de anotación poco claras o de interpretaciones variables de los mismos datos. El establecimiento de estándares de etiquetado bien documentados y la realización de controles de calidad pueden reducir significativamente estos desafíos.

La capacitación continua para los anotadores y el uso del etiquetado por consenso, donde varios anotadores revisan cada muestra, son dos estrategias eficaces para minimizar el sesgo de la etiqueta y mejorar la calidad del conjunto de datos.

Sesgo de representación

El sesgo de representación a menudo refleja desigualdades sociales más amplias. Los datos recogidos en regiones más ricas o más conectadas pueden no captar la diversidad de poblaciones o entornos menos representados. Para abordar este sesgo es necesario incluir intencionadamente a los grupos y contextos que se han pasado por alto.

El sesgo de representación ocurre cuando ciertos grupos o clases están subrepresentados en el conjunto de datos. Estos pueden incluir grupos demográficos, categorías de objetos o condiciones ambientales. Si un modelo solo ve un tono de piel, un tipo de objeto o un estilo de fondo, sus predicciones reflejarán ese desequilibrio.

Podemos observar este tipo de sesgo cuando ciertos grupos o categorías se incluyen en cantidades mucho menores que otros. Esto puede sesgar las predicciones del modelo hacia los ejemplos dominantes en el conjunto de datos. Por ejemplo, un modelo de reconocimiento facial entrenado principalmente en un grupo demográfico puede tener dificultades para funcionar con precisión en todos los usuarios. A diferencia del sesgo de selección, que está ligado a la variedad de datos, el sesgo de representación se refiere al equilibrio entre los grupos.

Las auditorías de diversidad y las estrategias de expansión de datos dirigidas pueden ayudar a garantizar que todos los datos demográficos y categorías relevantes estén representados adecuadamente en todo el conjunto de datos de entrenamiento.

Cómo detectar y mitigar el sesgo en los conjuntos de datos

En las implementaciones del mundo real, el sesgo de la IA no solo significa unas pocas predicciones incorrectas. Puede resultar en sistemas que funcionan bien para algunas personas, pero no para todos.

En la IA automotriz, los modelos de detección pueden tener un rendimiento inconsistente entre los grupos de peatones, lo que lleva a resultados de seguridad más bajos para las personas subrepresentadas. El problema no es la intención del modelo, sino las entradas visuales con las que se ha entrenado. Incluso en la agricultura, el sesgo en la detección de objetos puede significar una identificación deficiente de los cultivos en diferentes condiciones de iluminación o clima. Estas son consecuencias comunes del entrenamiento de modelos en conjuntos de datos limitados o desequilibrados. 

Corregir el sesgo en la IA comienza por saber dónde buscar. Si a tu conjunto de entrenamiento le faltan ejemplos clave o sobrerrepresenta un rango limitado, tu modelo reflejará esas carencias. Por eso, la detección de sesgos en la IA es un paso fundamental en todo pipeline de desarrollo.

Fig. 4. Pasos clave para reducir el sesgo de la IA y mejorar la equidad.

Comience analizando su conjunto de datos. Observe la distribución entre clases, entornos, iluminación, escalas de objetos y datos demográficos. Si una categoría domina, es probable que su modelo tenga un rendimiento inferior en las demás.

A continuación, analiza el rendimiento. ¿El modelo funciona peor en ciertos entornos o para tipos de objetos específicos? Si es así, es una señal de sesgo aprendido y, por lo general, apunta a los datos.

La evaluación a nivel de segmento es clave. Un modelo podría reportar un 90% de precisión en promedio, pero solo un 60% en un grupo o condición específica. Sin verificar esos segmentos, nunca lo sabrías.

El uso de métricas de equidad durante el entrenamiento y la evaluación es otra herramienta poderosa. Estas métricas van más allá de las puntuaciones de precisión estándar y evalúan cómo se comporta el modelo en diferentes subconjuntos de datos. Ayudan a descubrir puntos ciegos que de otro modo podrían pasar desapercibidos.

La transparencia en la composición del conjunto de datos y las pruebas del modelo conduce a mejores modelos.

Mejora de la equidad a través de la diversidad y el aumento de datos

Una vez que hayas identificado el sesgo, el siguiente paso es cerrar la brecha. Una de las formas más efectivas de hacerlo es aumentando la diversidad de datos en los modelos de IA. Eso significa recolectar más muestras de escenarios subrepresentados, ya sean imágenes médicas de diferentes poblaciones o condiciones ambientales inusuales.

Añadir más datos puede ser valioso, especialmente cuando aumenta la diversidad. Sin embargo, mejorar la equidad también depende de la recopilación de los tipos de ejemplos correctos. Estos deben reflejar la variación del mundo real que es probable que encuentre su modelo.

El aumento de datos es otra estrategia valiosa. Voltear, rotar, ajustar la iluminación y escalar objetos puede ayudar a simular diferentes condiciones del mundo real. El aumento no solo incrementa la variedad del conjunto de datos, sino que también ayuda a que el modelo sea más robusto ante los cambios de apariencia, iluminación y contexto.

La mayoría de los pipelines de entrenamiento modernos incluyen aumento de datos por defecto, pero el uso estratégico, como centrarse en el ajuste en función de las necesidades específicas de la tarea, es lo que lo hace eficaz para la equidad.

Uso de datos sintéticos para llenar los vacíos

Los datos sintéticos se refieren a datos generados artificialmente que imitan ejemplos del mundo real. Pueden ser una herramienta útil cuando ciertos escenarios son demasiado raros o demasiado delicados para capturarlos en la naturaleza.

Por ejemplo, si está creando un modelo para detectar defectos raros en maquinaria o infracciones de tráfico en casos límite, puede simular esos casos utilizando datos sintéticos. Esto le da a su modelo la oportunidad de aprender de eventos que quizás no encuentre a menudo en su conjunto de entrenamiento.

Los estudios han descubierto que la introducción de datos sintéticos dirigidos en el entrenamiento puede reducir el sesgo del conjunto de datos y mejorar el rendimiento en todos los grupos demográficos y entornos.

Los datos sintéticos funcionan mejor cuando se combinan con muestras del mundo real. Complementan su conjunto de datos; no lo reemplazan.

¿Cómo apoya YOLO11 la IA ética?

La construcción de modelos de IA imparciales también depende de las herramientas que utilice. YOLO11 está diseñado para ser flexible, fácil de ajustar y altamente adaptable, lo que lo convierte en una opción sólida para reducir el sesgo del conjunto de datos.

YOLO11 admite técnicas avanzadas de aumento de datos durante el entrenamiento del modelo, lo que introduce contextos de imagen variados y ejemplos combinados para mejorar la generalización del modelo y reducir el sobreajuste.

YOLO11 también presenta una arquitectura de backbone y cuello de botella mejorada para una extracción de características más eficaz. Esta mejora optimiza la capacidad del modelo para detectar detalles precisos, lo cual es fundamental en escenarios poco representados o en casos extremos en los que los modelos estándar pueden tener dificultades.

Debido a que YOLO11 es fácil de reentrenar e implementar en entornos edge y en la nube, los equipos pueden identificar las deficiencias de rendimiento y actualizar rápidamente el modelo cuando se descubre sesgo en el campo.

La IA justa no es un objetivo único. Es un ciclo de evaluación, aprendizaje y ajuste. Herramientas como YOLO11 ayudan a que ese ciclo sea más rápido y productivo.

Conclusiones clave

El sesgo de la IA afecta a todo, desde la equidad hasta el rendimiento. El sesgo en la visión artificial a menudo proviene de cómo se recopilan, etiquetan y equilibran los conjuntos de datos. Afortunadamente, existen formas probadas de detectarlo y mitigarlo.

Comience auditando sus datos y probando el rendimiento del modelo en diferentes escenarios. Utilice la recopilación de datos dirigida, el aumento y los datos sintéticos para crear una mejor cobertura de entrenamiento.

YOLO11 es compatible con este flujo de trabajo, ya que facilita el entrenamiento de modelos personalizados, la aplicación de técnicas de aumento sólidas y la respuesta rápida cuando se detecta un sesgo.

Construir una IA justa no es solo lo correcto. También es cómo se construyen sistemas más inteligentes y fiables.

¡Únete a nuestra creciente comunidad! Explora nuestro repositorio de GitHub para obtener más información sobre la IA. ¿Listo para comenzar tus propios proyectos de visión artificial? Consulta nuestras opciones de licencia. ¡Descubre la IA en la fabricación y la Visión Artificial en la Agricultura visitando nuestras páginas de soluciones! 

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles