Descubra cómo Constitutional AI alinea los modelos con los valores humanos utilizando principios éticos. Aprenda a implementar controles de seguridad en la visión artificial con Ultralytics .
La IA constitucional es un método para entrenar sistemas de inteligencia artificial con el fin de alinearlos con los valores humanos, proporcionándoles un conjunto de principios de alto nivel —una «constitución»— en lugar de basarse únicamente en una amplia retroalimentación humana sobre los resultados individuales. Este enfoque enseña esencialmente al modelo de IA a criticar y revisar su propio comportamiento basándose en un conjunto predefinido de reglas, como «ser útil», «ser inofensivo» y «evitar la discriminación». Al integrar estas directrices éticas directamente en el proceso de entrenamiento, los desarrolladores pueden crear sistemas más seguros, transparentes y fáciles de escalar que los que dependen del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF).
La innovación principal de la IA constitucional radica en su proceso de entrenamiento en dos fases, que automatiza la alineación de modelos. A diferencia del aprendizaje supervisado tradicional, en el que los humanos deben etiquetar cada respuesta correcta, la IA constitucional utiliza el propio modelo para generar datos de entrenamiento.
Si bien la IA constitucional se originó en el contexto de los modelos de lenguaje grandes (LLM) desarrollados por organizaciones como Anthropic, sus principios son cada vez más relevantes para tareas de aprendizaje automático más amplias, incluida la visión artificial (CV).
Si bien el entrenamiento completo de IA constitucional implica bucles de retroalimentación complejos, los desarrolladores pueden aplicar el concepto de «controles constitucionales» durante la inferencia para filtrar los resultados basándose en políticas de seguridad . El siguiente ejemplo muestra el uso de YOLO26 para detect y aplicar una regla de seguridad para filtrar las detecciones de baja confianza, imitando una constitución de fiabilidad.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Es importante distinguir la IA constitucional del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF).
A medida que los modelos evolucionan hacia la Inteligencia General Artificial (AGI), crece la importancia de estrategias de alineación sólidas como la IA Constitucional. Estos métodos son esenciales para cumplir las normas emergentes de organismos como el Instituto de Seguridad de la IA del NIST.
Ultralytics ofrece herramientas para gestionar la gobernanza de datos y la supervisión de modelos, lo que facilita la creación de sistemas de IA responsables. Al integrar estas consideraciones éticas en el ciclo de vida del desarrollo de la IA, desde la recopilación de datos hasta la implementación de modelos, las organizaciones pueden mitigar los riesgos y garantizar que sus tecnologías contribuyan positivamente a la sociedad.