Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

IA explicable (XAI)

Descubre la IA Explicable (XAI): Construye confianza, asegura la rendición de cuentas y cumple con las regulaciones con insights interpretables para decisiones de IA más inteligentes.

La IA explicable (XAI) se refiere a un conjunto de procesos, herramientas y métodos que permiten a los usuarios humanos comprender y confiar en los resultados creados por los algoritmos algoritmos de aprendizaje automático. En sistemas de Inteligencia Artificial (IA) más avanzados, en particular en el ámbito del aprendizaje profundo (AD), a menudo funcionan como "cajas negras". "cajas negras". Esto significa que, si bien el sistema puede producir una predicción precisa, la lógica interna utilizada para llegar a esa decisión es opaca o está oculta para el usuario. La XAI pretende iluminar este proceso, salvando las distancias entre las complejas redes neuronales y el ser humano. entre las complejas redes neuronales y la comprensión humano.

Por qué es importante la explicabilidad

El objetivo principal de la XAI es garantizar que los sistemas de IA sean transparentes, interpretables y responsables. Esto es fundamental para depurar y mejorar el rendimiento de los modelos, pero es igualmente importante para establecer la confianza de las partes interesadas. En ámbitos críticos para la seguridad, los usuarios deben verificar que las decisiones de un modelo se basan en razonamientos sólidos y no en correlaciones espurias. correlaciones espurias. Por ejemplo, el NIST AI Risk Management Framework destaca la explicabilidad como característica clave de los sistemas fiables. Además, normativas emergentes como la de la Unión Europea establecen normas legales que exigen que los sistemas de IA de alto riesgo ofrezcan explicaciones comprensibles de sus decisiones automatizadas. que los sistemas de IA de alto riesgo ofrezcan explicaciones comprensibles de sus decisiones automatizadas.

La implantación de la XAI también desempeña un papel vital en el mantenimiento de la ética de la IA. Al visualizar cómo un modelo sopesa diferentes características, los desarrolladores detect el sesgo algorítmico, garantizando una mayor mayor equidad en los despliegues de IA. Iniciativas como el programa Explainable AI de DARPA de DARPA han impulsado la investigación de técnicas que hagan más accesibles estas potentes herramientas a los no expertos.

Técnicas comunes de XAI

Existen varios enfoques para lograr la explicabilidad, que a menudo se clasifican en función de si son agnósticos del modelo o específicos del modelo. específicos del modelo.

  • SHAP (Shapley Additive exPlanations): Este enfoque teórico asigna un valor de contribución a cada característica para una predicción específica. cada característica para una predicción específica. Los valores SHAP proporcionan una medida unificada de la importancia de las características, ayudan a los usuarios a ver exactamente qué entradas modificaron el resultado del modelo.
  • LIME (Local Interpretable Model-agnostic Explanations): Esta técnica aproxima un modelo complejo con otro más sencillo en torno a una predicción concreta. LIME ayuda a explicar predicciones individuales modificando las entradas y observando cómo cambia el resultado. y observando cómo cambia el resultado, lo que la hace muy eficaz para los modelos de caja negra.
  • Mapas de saliencia: Muy utilizados en visión por ordenador, los mapas de píxeles de una imagen que más influyeron en la decisión del modelo. Técnicas como Grad-CAM (Gradient-weighted Class Activation Mapping) generan sobre la imagen original, mostrando dónde la red neuronal red neuronal convolucional "para identificar un objeto.

Aplicaciones en el mundo real

La IA explicable está transformando sectores en los que la justificación de las decisiones es tan importante como la propia decisión.

  1. Sanidad y Diagnóstico: En análisis de imágenes médicas, los modelos radiólogos detectando anomalías como tumores. Un sistema con XAI no se limita a emitir una probabilidad, sino que destaca la región específica de una radiografía o una resonancia magnética que ha activado la alerta. destaca la región específica de una radiografía o resonancia magnética que ha activado la alerta. Esto permite a los profesionales médicos validar los hallazgos de la IA con su experiencia, fomentando una IA más segura en la atención sanitaria. La IA en la sanidad.
  2. Servicios financieros: Cuando los bancos utilizan IA para la calificación crediticia, rechazar una solicitud de préstamo requiere una razón clara para cumplir normativas como la Ley de Igualdad de Oportunidades de Crédito. Las herramientas XAI pueden desglosar una denegación en factores comprensibles, como "elevado ratio deuda-ingresos" o o "historial crediticio insuficiente", proporcionando la transparencia necesaria a clientes y auditores.

Diferenciar términos relacionados

Resulta útil distinguir la XAI de los conceptos relacionados en el glosario de IA:

  • XAI vs. Transparencia en IA: La transparencia es un concepto más amplio que se refiere a la apertura de todo el sistema, incluidas las fuentes de datos, la arquitectura del modelo y los procesos de desarrollo. y los procesos de desarrollo. La XAI se centra específicamente en métodos para que los resultados y el razonamiento del modelo sean comprensibles. razonamiento del modelo sean comprensibles. La transparencia puede significar compartir la distribución de los datos de entrenamiento, mientras que la XAI explica por qué una entrada concreta ha dado un resultado concreto.
  • XAI vs. Interpretabilidad: Aunque a menudo se utilizan indistintamente, la interpretabilidad suele referirse a lo comprensible es la estructura de un modelo (como un árbol de de decisión), mientras que la explicabilidad métodos post-hoc aplicados a modelos complejos no interpretables, como las redes neuronales profundas. redes neuronales profundas.

Ejemplo de código: Interpretación de los resultados de la inferencia

Cuando se utilizan modelos como YOLO11 para detección de objetoscomprender el resultado es el primer primer paso hacia la explicabilidad. El sitio ultralytics permite acceder fácilmente a los datos de detección, que sirve de base para posteriores análisis o visualizaciones de XAI.

from ultralytics import YOLO

# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")

# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")

# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()

Al visualizar los recuadros delimitadores y las etiquetas de clase, los usuarios pueden realizar una verificación básica "a ojo", un aspecto aspecto fundamental de evaluación y supervisión de modelos. Para necesidades más Para necesidades más avanzadas, los investigadores suelen integrar estos resultados con bibliotecas adaptadas para la atribución detallada de características.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora