¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Inteligencia Artificial Constitucional

Descubre cómo la IA Constitucional garantiza resultados éticos, seguros e imparciales al alinear los modelos con principios predefinidos y valores humanos.

La IA Constitucional (CAI) es un método desarrollado por Anthropic para entrenar modelos de IA, particularmente Modelos de Lenguaje Grande (LLM), para que se ajusten a un conjunto específico de reglas o principios, conocido como "constitución". El objetivo principal de la CAI es hacer que los sistemas de IA sean útiles, inofensivos y más controlables sin necesidad de una extensa retroalimentación humana. En lugar de que los humanos etiqueten constantemente las salidas dañinas, la IA aprende a criticar y revisar sus propias respuestas basándose en los principios rectores de su constitución. Este enfoque ayuda a abordar los desafíos clave en la ética de la IA, como la prevención de la generación de contenido tóxico y la reducción del sesgo algorítmico.

Cómo funciona la IA Constitucional

El proceso de entrenamiento de la IA conversacional (CAI) suele constar de dos fases principales:

  1. Fase de Aprendizaje Supervisado: Inicialmente, se le pide a un modelo base que genere respuestas. Luego, se le pide al mismo modelo que critique sus propias respuestas basándose en la constitución y las reescriba para que se ajusten mejor a sus principios. Esto crea un nuevo conjunto de datos de ejemplos mejorados y alineados con la constitución. Este mecanismo de autocrítica está guiado por una constitución, que puede ser una simple lista de reglas o extraerse de fuentes complejas como la Declaración de Derechos Humanos de la ONU.
  2. Fase de Aprendizaje por Refuerzo: El modelo se ajusta luego utilizando Aprendizaje por Refuerzo (RL). En esta etapa, la IA genera pares de respuestas, y un modelo de preferencia (entrenado con los datos autocríticos de la primera fase) selecciona la que mejor se adhiere a la constitución. Este proceso enseña a la IA a preferir intrínsecamente las salidas que son consistentes con sus principios básicos.

Un ejemplo clave del mundo real de CAI es su implementación en el asistente de IA de Anthropic, Claude. Su constitución lo guía para evitar generar instrucciones dañinas, negarse a participar en actividades ilegales y comunicarse de manera no tóxica, todo ello sin dejar de ser útil. Otra aplicación es la moderación automatizada de contenido, donde un modelo impulsado por CAI podría utilizarse para identificar y señalar discursos de odio o desinformación en línea de acuerdo con un conjunto predefinido de directrices éticas.

IA constitucional vs. conceptos relacionados

Es importante distinguir la IAC de términos similares:

  • Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF): El RLHF se basa en que los humanos proporcionen retroalimentación y clasifiquen las respuestas generadas por la IA, lo que requiere mucho tiempo y es difícil de escalar. CAI reemplaza el bucle de retroalimentación humana con uno impulsado por la IA, donde la constitución del modelo guía la retroalimentación. Esto hace que el proceso de alineación sea más escalable y consistente.
  • Ética de la IA: Este es un campo amplio que se ocupa de los principios morales y los problemas técnicos de la creación de una IA responsable. La IA Constitucional puede considerarse un marco práctico para implementar la ética de la IA mediante la incorporación de reglas éticas explícitas directamente en el proceso de entrenamiento del modelo.

Aplicaciones y Potencial Futuro

Actualmente, la IA constitucional se aplica principalmente a los LLM para tareas como la generación de diálogos y el resumen de textos. Sin embargo, los principios subyacentes podrían extenderse potencialmente a otros dominios de la IA, incluida la visión artificial (CV). Por ejemplo:

El desarrollo y el perfeccionamiento de constituciones eficaces, junto con la garantía de que la IA se adhiera fielmente a ellas en diversos contextos, siguen siendo áreas activas de investigación en organizaciones como Google AI y el AI Safety Institute. Herramientas como Ultralytics HUB facilitan el entrenamiento y la implementación de diversos modelos de IA, y la incorporación de principios similares a la IA Constitucional será cada vez más importante para garantizar una implementación responsable de los modelos.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles