Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Seguridad de la IA

Aprenda los pilares fundamentales de la seguridad de la IA, incluyendo la alineación y la robustez. Descubra cómo implementar modelos fiables con Ultralytics y garantizar la fiabilidad de la IA.

La seguridad de la IA es un campo multidisciplinar centrado en garantizar que los sistemas de inteligencia artificial (IA) funcionen de forma fiable, predecible y beneficiosa. A diferencia de la ciberseguridad, que protege los sistemas de ataques externos, la seguridad de la IA aborda los riesgos inherentes al diseño y funcionamiento del propio sistema. Esto incluye prevenir las consecuencias no deseadas derivadas de la desalineación de objetivos, la falta de solidez en entornos novedosos o los fallos en la generalización del aprendizaje profundo (DL). A medida que los modelos se vuelven más autónomos, los investigadores de organizaciones como el Centro para la IA Compatible con los Humanos trabajan para garantizar que estas tecnologías se ajusten a las intenciones humanas y a las normas de seguridad.

Pilares fundamentales de la IA segura

La creación de un sistema seguro requiere abordar varios retos técnicos que van más allá de las simples métricas de precisión. Estos pilares garantizan que los modelos de aprendizaje automático (ML) permanezcan bajo control incluso cuando se implementan en escenarios complejos del mundo real.

  • Robustez: un modelo seguro debe mantener su rendimiento cuando se enfrenta a entradas corruptas o cambios en el entorno. Esto incluye la defensa contra ataques adversarios, en los que sutiles manipulaciones de los datos de entrada pueden engañar a un modelo para que cometa errores de alta confianza.
  • Alineación: este principio garantiza que los objetivos de una IA coincidan con la verdadera intención del diseñador. La desalineación suele producirse en el aprendizaje por refuerzo cuando un sistema aprende a «jugar» con su función de recompensa, como un robot de limpieza que rompe un jarrón para limpiar el desorden más rápidamente. Para mitigar esto se utilizan técnicas como el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF, por sus siglas en inglés) .
  • Interpretabilidad: También conocida como IA explicable (XAI), consiste en crear transparencia en los modelos de «caja negra». La visualización de mapas de características permite a los ingenieros comprender el proceso de toma de decisiones, lo que garantiza que el modelo no se base en correlaciones espurias.
  • detect visión: La supervisión continua del modelo es esencial para detectar desviaciones en los datos. Los protocolos de seguridad deben activar alertas o mecanismos de respaldo si los datos del mundo real comienzan a divergir significativamente de los datos de entrenamiento.

Aplicaciones en el mundo real

La seguridad de la IA es primordial en ámbitos de alto riesgo en los que un fallo algorítmico podría provocar daños físicos o pérdidas económicas significativas .

  1. Vehículos autónomos: En el campo de la IA en automoción, los marcos de seguridad definen cómo reacciona un coche ante la incertidumbre. Si un modelo de detección de objetos no puede identificar un obstáculo con un alto grado de confianza, el sistema debe pasar por defecto a un estado seguro, como frenar, en lugar de adivinar. Las directrices de la NHTSA sobre vehículos automatizados hacen hincapié en estos mecanismos a prueba de fallos.
  2. Diagnóstico médico: al aplicar la IA en la asistencia sanitaria, la seguridad implica minimizar los falsos negativos en diagnósticos críticos. Los sistemas suelen ajustarse para obtener una alta capacidad de recuperación, con el fin de garantizar que no se pase por alto ninguna posible afección, funcionando eficazmente como una «segunda opinión» para los médicos. Organismos reguladores como el Centro de Salud Digital de la FDA establecen normas rigurosas para el software como dispositivo médico (SaMD).

Implementación de umbrales de seguridad

Uno de los mecanismos de seguridad más básicos en la visión por computadora es el uso de umbrales de confianza. Al filtrar las predicciones de baja probabilidad durante la inferencia, los desarrolladores evitan que los sistemas actúen basándose en información débil.

El siguiente ejemplo muestra cómo aplicar un filtro de seguridad utilizando Ultralytics , lo que garantiza que solo se procesen las detecciones fiables .

from ultralytics import YOLO

# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")

# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)

# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")

Seguridad de la IA vs. Ética de la IA

Aunque estos términos se utilizan a menudo de forma intercambiable, abordan diferentes aspectos de la IA responsable.

  • La seguridad de la IA es una disciplina de ingeniería técnica. Se pregunta: «¿Funcionará correctamente este sistema sin provocar accidentes?». Se ocupa de problemas como las alucinaciones de los modelos y la exploración segura en el aprendizaje por refuerzo.
  • La ética de la IA es un marco sociotécnico . Plantea la pregunta: «¿Debemos crear este sistema? ¿Es justo?». Se centra en cuestiones como el sesgo algorítmico, los derechos de privacidad y la distribución equitativa de los beneficios, tal y como se describe en la Ley de IA de la UE.

Perspectivas de futuro

A medida que la industria avanza hacia la inteligencia artificial general (AGI), la investigación en materia de seguridad cobra cada vez más importancia. Las organizaciones pueden aprovechar Ultralytics para gestionar sus conjuntos de datos y supervisar la implementación de modelos, garantizando que sus soluciones de IA sigan siendo sólidas, transparentes y acordes con las normas de seguridad a lo largo de todo su ciclo de vida.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora