Sesgo en la IA
Descubra cómo identificar, mitigar y prevenir el sesgo en los sistemas de IA con estrategias, herramientas y ejemplos del mundo real para el desarrollo ético de la IA.
El sesgo en la IA se refiere a errores sistemáticos o prejuicios integrados en un sistema de
sistema de Inteligencia Artificial (IA) que
que dan lugar a resultados injustos, desiguales o discriminatorios. A diferencia de los errores aleatorios, estos sesgos son consistentes y
a menudo privilegian a un grupo arbitrario de usuarios o entradas de datos sobre otros. A medida que las organizaciones
integran cada vez más el aprendizaje automático
procesos críticos de toma de decisiones, reconocer y abordar los sesgos se ha convertido en un pilar central de la
ética de la IA. No mitigar estos problemas puede conducir a
resultados sesgados en aplicaciones que van desde
la IA en el diagnóstico sanitario o los préstamos
préstamos financieros automatizados.
Fuentes de sesgo en los sistemas de IA
Los sesgos pueden infiltrarse en los sistemas de IA en múltiples etapas del ciclo de vida del desarrollo. Comprender estos orígenes es
esencial para crear modelos sólidos y equitativos.
-
Sesgo del conjunto de datos
prevalente, que se produce cuando los
datos de entrenamiento utilizados para enseñar el modelo no
no representan con exactitud a la población real. Por ejemplo, si un
modelo de clasificación de imágenes
se entrena principalmente con imágenes de países occidentales, es posible que le cueste reconocer objetos o escenas de otras regiones.
de otras regiones, un fenómeno a menudo relacionado con el sesgo de selección.
-
Sesgo algorítmico: A veces
el propio diseño matemático del algoritmo puede amplificar las disparidades existentes. Algunos algoritmos de optimización de
algoritmos de optimización pueden priorizar
priorizar la precisión general a expensas de los subgrupos
subrepresentados, ignorando de hecho los "valores atípicos" que representan poblaciones minoritarias válidas.
-
Sesgo cognitivo y humano: Las decisiones subjetivas tomadas por los ingenieros al
etiquetado de datos o la selección de características pueden
codificar inadvertidamente prejuicios humanos en el sistema.
Aplicaciones e implicaciones en el mundo real
Las consecuencias del sesgo de la IA son observables en diversas tecnologías desplegadas.
-
Disparidades en el reconocimiento facial: Comercial
sistemas comerciales de reconocimiento facial
de error en la identificación de mujeres y personas de color. Proyectos de investigación como
Gender Shades han puesto de relieve
la falta de representatividad de los conjuntos de datos da lugar a un rendimiento deficiente para determinados grupos demográficos, lo que ha dado lugar a peticiones para mejorar la privacidad de los datos y las normas de inclusión.
privacidad de los datos y normas de inclusión.
-
Policía predictiva y reincidencia: Los algoritmos utilizados para predecir la reincidencia delictiva han sido
han sido criticados por mostrar prejuicios raciales. Investigaciones como la de
análisis de COMPAS realizado por ProPublica
revelaron que algunos modelos eran más propensos a señalar falsamente a los acusados pertenecientes a minorías como de alto riesgo, lo que ilustra los peligros de basarse en el historial de detenciones y en los resultados de las investigaciones.
los peligros de basarse en datos históricos de detenciones que reflejan desigualdades sociales.
Estrategias y herramientas de mitigación
Hacer frente a los prejuicios requiere un enfoque proactivo conocido como
Equidad en la IA. Los desarrolladores pueden emplear varias
técnicas para detect y reducir el sesgo.
-
Aumento de datos: Un método eficaz para mejorar la generalización del modelo es
el aumento de datos. Al generar artificialmente
variaciones artificiales de los puntos de datos existentes -como voltear, rotar o ajustar el equilibrio de color de las imágenes- los desarrolladores
pueden exponer modelos como Ultralytics YOLO11 a una gama
gama de entradas.
-
Auditoría algorítmica: Es fundamental comprobar periódicamente los modelos con diversos parámetros de referencia. Herramientas como
AI Fairness 360 de IBM y
Fairlearn de Microsoft proporcionan métricas para evaluar el rendimiento de los modelos en diferentes subgrupos.
diferentes subgrupos.
-
Transparencia: Adopción de
prácticas de IA explicable (XAI ) ayuda a
a las partes interesadas a entender por qué un modelo hace predicciones específicas, lo que facilita la detección de lógicas discriminatorias.
discriminatoria.
Ejemplo de código: Mejorar la generalización con el aumento
El siguiente fragmento de Python muestra cómo aplicar el aumento de datos durante el entrenamiento con la función
ultralytics paquete. Esto ayuda a que el modelo sea invariable a ciertos cambios, reduciendo potencialmente
sobreajuste a características visuales específicas.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
data="coco8.yaml",
epochs=5,
fliplr=0.5, # Apply horizontal flip with 50% probability
hsv_h=0.015, # Adjust image hue fraction
)
Distinción de términos relacionados
Resulta útil diferenciar "Sesgo en IA" de los términos del glosario estrechamente relacionados:
-
Sesgo en la IA frente a sesgo algorítmico:
"Sesgo en la IA" es el término general que engloba todas las fuentes de injusticia (de datos, humana y sistémica).
"Sesgo algorítmico" se refiere específicamente al sesgo introducido por los procedimientos computacionales del modelo o
funciones objetivo del modelo.
-
Sesgo en la IA frente a sesgo del conjunto de datos:
El "sesgo del conjunto de datos" es una causa específica del sesgo de la IA que tiene su origen en la recopilación y la
entrenamiento. Un algoritmo perfectamente justo puede mostrar "sesgo en IA" si aprende de un conjunto de datos sesgado.
Al adherirse a marcos como el
NIST AI Risk Management Framework, los desarrolladores pueden
trabajar para crear
IA responsable
responsables que sirvan a todos de forma equitativa.