Comprender el sesgo de la IA y del conjunto de datos en los sistemas de IA de visión

Abdelrahman Elgendy

4 min leer

28 de marzo de 2025

Descubra cómo afecta el sesgo de los conjuntos de datos a los modelos de visión por ordenador y cómo Ultralytics YOLO11 ayuda a reducir el sesgo con un aumento inteligente y herramientas de formación flexibles.

Los modelos de inteligencia artificial (IA) están cambiando nuestra forma de resolver problemas, pero no son perfectos. Desde los coches autónomos hasta las herramientas de diagnóstico en sanidad, confiamos en la IA para interpretar datos y tomar decisiones. ¿Qué ocurre cuando los propios datos son erróneos?

El sesgo en la IA se refiere a los patrones de incoherencia que se desarrollan en los modelos, a menudo sin que nadie se dé cuenta. Estos sesgos pueden hacer que los modelos hagan predicciones inexactas, incoherentes o incluso perjudiciales. En la visión por ordenador, los sesgos suelen tener un origen clave: el conjunto de datos. Si los datos utilizados para entrenar el modelo están desequilibrados o no son representativos, el modelo reflejará esas lagunas.

Veamos más de cerca cómo se forman los sesgos en los conjuntos de datos, cómo afectan a los modelos de visión por ordenador y qué medidas pueden tomar los desarrolladores para detectarlos y evitarlos. También mostraremos cómo los modelos como Ultralytics YOLO11 pueden apoyar los esfuerzos para construir sistemas de IA más justos que generalicen mejor, lo que significa que funcionan bien en datos nuevos y no vistos y sirven a todos por igual.

¿Qué es el sesgo de la IA y por qué es importante?

El sesgo de IA se refiere a errores constantes en un sistema de IA que dan lugar a resultados sesgados o inexactos. En términos más sencillos, el modelo empieza a favorecer un tipo de entrada visual en detrimento de otras, lo que afecta a la imparcialidad del modelo, no porque funcione mejor, sino más bien debido a cómo fue entrenado.

Esto puede ser especialmente común en la visión por ordenador, donde los modelos aprenden de los datos visuales. Si un conjunto de datos incluye principalmente un tipo de objeto, escena o persona, el modelo aprende patrones que sólo funcionan bien en esos casos.

Imaginemos un modelo entrenado principalmente con imágenes de tráfico de grandes ciudades. Si se implanta en una zona rural, podría clasificar erróneamente trazados de carreteras poco habituales o no detectar tipos de vehículos que nunca ha visto antes. Es el sesgo de la IA en acción. Da lugar a una menor precisión y a una generalización limitada, que se refiere a la capacidad de un modelo para funcionar bien con datos nuevos o diversos.

En aplicaciones en las que la precisión es esencial, como la sanidad o la seguridad, estos errores no sólo son frustrantes, sino que pueden ser peligrosos. Abordar el sesgo tiene que ver con el rendimiento, la fiabilidad y la seguridad.

Cómo influye el sesgo de los conjuntos de datos en el comportamiento de los modelos

Cuando hablamos de sesgo del conjunto de datos, nos referimos al desequilibrio o la limitación de los datos utilizados para entrenar un modelo. El sesgo del conjunto de datos se produce cuando los datos de entrenamiento no reflejan adecuadamente la diversidad del mundo real que se pretende modelar.

Los modelos de visión por ordenador no entienden el mundo. Entienden patrones. Si las únicas imágenes de perros que ven son golden retrievers en patios traseros, puede que no reconozcan a un husky en un sendero nevado.

__wf_reserved_inherit
Fig. 1. La reponderación de los datos de origen ayuda a lograr una mayor precisión del modelo.

Esto pone de relieve uno de los principales retos causados por el sesgo de los conjuntos de datos. El modelo construye su comprensión basándose en lo que se le muestra. Si esos datos de entrenamiento no reflejan la variedad del mundo real, el comportamiento del modelo se vuelve estrecho y menos eficaz en condiciones desconocidas.

A menudo, los clasificadores de imágenes obtienen resultados significativamente peores cuando se prueban en un conjunto de datos distinto al que se utilizó para entrenarlos, incluso aunque ambos conjuntos de datos se hayan creado para la misma tarea. Pequeños cambios en la iluminación, los fondos o los ángulos de la cámara pueden provocar notables caídas en la precisión. Esto demuestra la facilidad con la que el sesgo del conjunto de datos puede afectar a la capacidad de generalización de un modelo.

No se trata de casos extremos. Son señales de que la canalización de datos es tan importante como la arquitectura del modelo.

Tipos de sesgo en los datos de entrenamiento de IA

Los sesgos pueden aparecer en el proceso de desarrollo de forma sutil, a menudo durante la recopilación, el etiquetado o la curación de los datos. A continuación se indican tres tipos principales de sesgo que pueden afectar a los datos de entrenamiento:

Sesgo de selección

El sesgo de selección puede producirse cuando el conjunto de datos no representa la variedad observada en el mundo real. Si un modelo de detección de peatones se entrena sólo con imágenes diurnas claras, no funcionará bien de noche o con niebla. Por tanto, el proceso de selección ha pasado por alto casos cruciales.

__wf_reserved_inherit
Fig. 2. Representación visual del sesgo de selección cuando sólo se elige un subconjunto no diverso.

Este sesgo se produce cuando el conjunto de datos no captura toda la gama de escenarios del mundo real debido a la forma en que se recogieron los datos. Por ejemplo, un modelo de detección de peatones entrenado sólo con imágenes claras y diurnas puede fallar con niebla, nieve o poca luz. Esto suele ocurrir cuando los datos se recogen en condiciones ideales o convenientes, lo que limita la capacidad del modelo para actuar en entornos variados. Ampliar los esfuerzos de recopilación para incluir entornos más diversos ayuda a reducir este tipo de sesgo.

También puede surgir en conjuntos de datos creados a partir de fuentes en línea, cuyo contenido puede estar muy sesgado hacia determinados lugares, idiomas o contextos socioeconómicos. Sin un esfuerzo deliberado por diversificar el conjunto de datos, el modelo heredará estas limitaciones.

Sesgo de la etiqueta

El sesgo de etiqueta se produce cuando los anotadores humanos aplican etiquetas incorrectas o incoherentes. Una etiqueta incorrecta puede parecer inofensiva, pero si ocurre a menudo, el modelo empieza a aprender asociaciones erróneas.

Un etiquetado incoherente puede confundir al modelo durante el entrenamiento, especialmente en tareas complejas como la detección de objetos. Por ejemplo, un anotador puede etiquetar un vehículo como "coche" mientras que otro etiqueta uno similar como "camión". Estas incoherencias afectan a la capacidad del modelo para aprender patrones fiables, lo que reduce su precisión durante la inferencia.

__wf_reserved_inherit
Fig. 3. El sesgo en las canalizaciones de datos se origina en los desequilibrios del mundo real.

El sesgo de etiquetado también puede surgir de unas directrices de anotación poco claras o de distintas interpretaciones de los mismos datos. El establecimiento de normas de etiquetado bien documentadas y la realización de comprobaciones de control de calidad pueden reducir considerablemente estos problemas.

La formación continua de los anotadores y el uso del etiquetado de consenso, en el que varios anotadores revisan cada muestra, son dos estrategias eficaces para minimizar el sesgo de las etiquetas y mejorar la calidad del conjunto de datos.

Sesgo de representación

El sesgo de representación suele reflejar desigualdades sociales más amplias. Los datos recogidos en regiones más ricas o mejor conectadas pueden no captar la diversidad de las poblaciones o entornos menos representados. Para hacer frente a este sesgo es necesario incluir intencionadamente grupos y contextos ignorados.

El sesgo de representación se produce cuando determinados grupos o clases están infrarrepresentados en el conjunto de datos. Puede tratarse de grupos demográficos, categorías de objetos o condiciones ambientales. Si un modelo sólo ve un tono de piel, un tipo de objeto o un estilo de fondo, sus predicciones reflejarán ese desequilibrio.

Podemos observar este tipo de sesgo cuando determinados grupos o categorías se incluyen en cantidades mucho menores que otros. Esto puede sesgar las predicciones del modelo hacia los ejemplos dominantes en el conjunto de datos. Por ejemplo, un modelo de reconocimiento facial entrenado principalmente en un grupo demográfico puede tener dificultades para obtener resultados precisos en todos los usuarios. A diferencia del sesgo de selección, que está ligado a la variedad de datos, el sesgo de representación afecta al equilibrio entre grupos.

Las auditorías de diversidad y las estrategias de ampliación de datos específicas pueden ayudar a garantizar que todos los datos demográficos y categorías relevantes estén debidamente representados en el conjunto de datos de formación.

Cómo detectar y mitigar el sesgo de los conjuntos de datos

En el mundo real, el sesgo de la IA no se limita a unas pocas predicciones incorrectas. Puede dar lugar a sistemas que funcionen bien para algunas personas, pero no para todas.

En la IA automovilística, los modelos de detección pueden funcionar de forma incoherente en los distintos grupos de peatones, lo que reduce la seguridad de las personas infrarrepresentadas. El problema no es la intención del modelo. Son los datos visuales con los que se ha entrenado. Incluso en la agricultura, el sesgo en la detección de objetos puede significar una mala identificación de los cultivos en diferentes condiciones de iluminación o meteorológicas. Estas son consecuencias comunes del entrenamiento de modelos en conjuntos de datos limitados o desequilibrados. 

Para corregir el sesgo de la IA hay que saber dónde buscar. Si a su conjunto de entrenamiento le faltan ejemplos clave o sobre-representa un rango estrecho, su modelo reflejará esas lagunas. Por eso, la detección de sesgos en la IA es un paso fundamental en todo proceso de desarrollo.

__wf_reserved_inherit
Fig. 4. Pasos clave para reducir el sesgo de la IA y mejorar la equidad.

Empiece por analizar su conjunto de datos. Observe la distribución entre clases, entornos, iluminación, escalas de objetos y datos demográficos. Si predomina una categoría, es probable que el modelo no funcione en las demás.

A continuación, examine el rendimiento. ¿El modelo funciona peor en determinados entornos o con determinados tipos de objetos? Si es así, es un signo de sesgo aprendido, y normalmente apunta a los datos.

La evaluación por segmentos es fundamental. Un modelo puede tener una precisión media del 90 %, pero sólo del 60 % en un grupo o condición específicos. Si no se comprueban esos segmentos, nunca se sabrá.

El uso de métricas de equidad durante el entrenamiento y la evaluación es otra herramienta poderosa. Estas métricas van más allá de las puntuaciones de precisión estándar y evalúan cómo se comporta el modelo en diferentes subconjuntos de datos. Ayudan a sacar a la luz puntos ciegos que de otro modo podrían pasar desapercibidos.

La transparencia en la composición de los conjuntos de datos y las pruebas de los modelos conduce a mejores modelos.

Mejorar la equidad mediante la diversidad y el aumento de datos

Una vez identificados los sesgos, el siguiente paso es cerrar la brecha. Una de las formas más eficaces de hacerlo es aumentar la diversidad de datos en los modelos de IA. Eso significa recoger más muestras de escenarios infrarrepresentados, ya sean imágenes médicas de diferentes poblaciones o condiciones ambientales inusuales.

Añadir más datos puede ser valioso, sobre todo cuando aumenta la diversidad. Sin embargo, la mejora de la equidad también depende de la recopilación del tipo adecuado de ejemplos. Éstos deben reflejar la variación del mundo real que probablemente encontrará su modelo.

El aumento de datos es otra estrategia valiosa. Voltear, girar, ajustar la iluminación y escalar objetos puede ayudar a simular diferentes condiciones del mundo real. La ampliación no sólo aumenta la variedad del conjunto de datos, sino que también ayuda a que el modelo sea más resistente a los cambios de aspecto, iluminación y contexto.

La mayoría de los canales de formación modernos incluyen el aumento por defecto, pero el uso estratégico, como centrarse en el ajuste en función de las necesidades específicas de la tarea, es lo que lo hace eficaz para la equidad.

Datos sintéticos para colmar lagunas

Los datos sintéticos son datos generados artificialmente que imitan ejemplos del mundo real. Pueden ser una herramienta útil cuando determinadas situaciones son demasiado raras o demasiado delicadas para capturarlas en la naturaleza.

Por ejemplo, si está creando un modelo para detectar defectos raros en la maquinaria o infracciones de tráfico extremas, puede simular esos casos utilizando datos sintéticos. De este modo, el modelo tendrá la oportunidad de aprender de sucesos que quizá no encuentre a menudo en su conjunto de entrenamiento.

Los estudios han descubierto que la introducción de datos sintéticos específicos en el entrenamiento puede reducir el sesgo del conjunto de datos y mejorar el rendimiento en todos los grupos demográficos y entornos.

Los datos sintéticos funcionan mejor cuando se combinan con muestras del mundo real. Complementan el conjunto de datos, no lo sustituyen.

Cómo apoya YOLO11 la IA ética

La creación de modelos de IA no sesgados también depende de las herramientas que se utilicen. YOLO11 está diseñado para ser flexible, fácil de ajustar y muy adaptable, lo que lo convierte en la herramienta idónea para reducir el sesgo de los conjuntos de datos.

YOLO11 admite técnicas avanzadas de aumento de datos durante el entrenamiento del modelo, lo que introduce contextos de imagen variados y ejemplos mezclados para mejorar la generalización del modelo y reducir el sobreajuste.

YOLO11 también presenta una arquitectura de columna vertebral y cuello mejorada para una extracción de características más eficaz. Esta mejora incrementa la capacidad del modelo para detectar detalles precisos, lo que resulta fundamental en situaciones poco representadas o extremas en las que los modelos estándar pueden tener dificultades.

Dado que YOLO11 es fácil de reentrenar y desplegar en entornos periféricos y en la nube, los equipos pueden identificar las deficiencias de rendimiento y actualizar rápidamente el modelo cuando se descubren sesgos sobre el terreno.

Una IA justa no es un objetivo único. Es un ciclo de evaluación, aprendizaje y ajuste. Herramientas como YOLO11 ayudan a que ese ciclo sea más rápido y productivo.

Principales conclusiones

El sesgo de la IA afecta a todo, desde la imparcialidad hasta el rendimiento. El sesgo en la visión por ordenador suele deberse a la forma en que se recopilan, etiquetan y equilibran los conjuntos de datos. Afortunadamente, hay formas probadas de detectarlo y mitigarlo.

Comience por auditar sus datos y probar el rendimiento del modelo en diferentes escenarios. Utilice la recopilación de datos específicos, el aumento y los datos sintéticos para crear una mejor cobertura de formación.

YOLO11 respalda este flujo de trabajo facilitando el entrenamiento de modelos personalizados, la aplicación de técnicas sólidas de aumento y la respuesta rápida cuando se detectan sesgos.

Construir una IA justa no es sólo lo correcto. También es la forma de construir sistemas más inteligentes y fiables.

Únase a nuestra creciente comunidad Explora nuestro repositorio GitHub para aprender más sobre IA. ¿Listo para empezar tus propios proyectos de visión por ordenador? Consulte nuestras opciones de licencia. Descubra la IA en la fabricación y la IA de visión en la agricultura visitando nuestras páginas de soluciones. 

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles