Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Descubra cómo la IA constitucional ayuda a los modelos a seguir normas éticas, tomar decisiones más seguras y apoyar la equidad en los sistemas lingüísticos y de visión por ordenador.
La inteligencia artificial (IA) se está convirtiendo rápidamente en una parte clave de nuestra vida cotidiana. Se está integrando en herramientas utilizadas en ámbitos como la sanidad, la contratación, las finanzas y la seguridad pública. A medida que estos sistemas se expanden, también surgen dudas sobre su ética y fiabilidad.
Por ejemplo, a veces los sistemas de IA que se construyen sin tener en cuenta la equidad o la seguridad pueden producir resultados sesgados o poco fiables. Esto se debe a que muchos modelos aún no tienen una forma clara de reflejar y alinearse con los valores humanos.
Para hacer frente a estos retos, los investigadores están explorando un enfoque conocido como IA constitucional. En pocas palabras, introduce un conjunto de principios escritos en el proceso de entrenamiento del modelo. Estos principios ayudan al modelo a juzgar su propio comportamiento, a depender menos de la retroalimentación humana y a dar respuestas más seguras y fáciles de entender.
Hasta ahora, este enfoque se ha utilizado sobre todo con respecto a los grandes modelos lingüísticos (LLM). Sin embargo, la misma estructura podría ayudar a guiar los sistemas de visión por ordenador para tomar decisiones éticas al analizar datos visuales.
En este artículo analizaremos cómo funciona la IA constitucional, veremos ejemplos reales y hablaremos de sus posibles aplicaciones en los sistemas de visión por ordenador.
Fig. 1. Características de la IA constitucional. Imagen del autor.
¿Qué es la IA constitucional?
La IA constitucional es un método de entrenamiento de modelos que orienta el comportamiento de los modelos de IA mediante un conjunto claro de normas éticas. Estas normas actúan como un código de conducta. En lugar de confiar en que el modelo deduzca lo que es aceptable, sigue un conjunto escrito de principios que moldean sus respuestas durante el entrenamiento.
Este concepto fue introducido por Anthropic, una empresa de investigación centrada en la seguridad de la IA que desarrolló la familia Claude LLM como método para hacer que los sistemas de IA sean más autosupervisados en su toma de decisiones.
En lugar de depender únicamente de la información humana, el modelo aprende a criticar y perfeccionar sus propias respuestas basándose en un conjunto predefinido de principios. Este enfoque es similar al de un sistema jurídico, en el que un juez se remite a una constitución antes de dictar sentencia.
En este caso, el modelo se convierte a la vez en juez y alumno, utilizando el mismo conjunto de reglas para revisar y perfeccionar su propio comportamiento. Este proceso refuerza la alineación de los modelos de IA y favorece el desarrollo de sistemas de IA seguros y responsables.
¿Cómo funciona la IA constitucional?
El objetivo de la IA constitucional es enseñar a un modelo de IA a tomar decisiones seguras y justas siguiendo un conjunto claro de reglas escritas. He aquí un sencillo desglose de cómo funciona este proceso:
Definición de la constitución: Se crea una lista escrita de los principios éticos que debe seguir el modelo. La constitución esboza lo que la IA debe evitar y los valores que debe reflejar.
Formación con supervisado ejemplos: Se muestran al modelo ejemplos de respuestas que siguen la constitución. Estos ejemplos ayudan a la IA a entender cómo es un comportamiento aceptable.
Reconocer y aplicar patrones: Con el tiempo, el modelo empieza a captar estos patrones. Aprende a aplicar los mismos valores cuando responde a nuevas preguntas o maneja nuevas situaciones.
Criticar y perfeccionar los resultados: El modelo revisa sus propias respuestas y las ajusta en función de la constitución. Esta fase de autorrevisión le ayuda a mejorar sin depender únicamente de los comentarios humanos.
Producir respuestas alineadas y más seguras: El modelo aprende de reglas coherentes, lo que ayuda a reducir el sesgo y mejorar la fiabilidad en el uso en el mundo real. Este enfoque lo hace más acorde con los valores humanos y más fácil de gobernar.
Fig. 2. Visión general del uso de la IA constitucional para entrenar modelos.
Principios básicos del diseño ético de la IA
Para que un modelo de IA siga unas normas éticas, primero hay que definirlas claramente. Cuando se trata de IA constitucional, estas normas se basan en un conjunto de principios fundamentales.
Por ejemplo, he aquí cuatro principios que constituyen los cimientos de una constitución eficaz de la IA:
Transparencia: Debe ser fácil entender cómo un modelo ha llegado a una respuesta. Si una respuesta se basa en hechos, estimaciones o patrones, será transparente para el usuario. Esto genera confianza y ayuda a las personas a juzgar si pueden confiar en los resultados del modelo.
Igualdad: Las respuestas deben ser coherentes para todos los usuarios. El modelo no debe cambiar sus resultados en función del nombre, la procedencia o la ubicación de una persona. La igualdad ayuda a prevenir los prejuicios y promueve la igualdad de trato.
Rendición de cuentas: Debe haber un modo de rastrear cómo se entrenó un modelo y qué influyó en su comportamiento. Cuando algo va mal, los equipos deben ser capaces de identificar la causa y mejorarla. Esto favorece la transparencia y la responsabilidad a largo plazo.
Seguridad: Los modelos deben evitar producir contenidos que puedan causar daños. Si una solicitud conduce a resultados peligrosos o inseguros, el sistema debe reconocerlo y detenerse. Así se protege tanto al usuario como la integridad del sistema.
Ejemplos de IA constitucional en grandes modelos lingüísticos
La IA constitucional ha pasado de la teoría a la práctica y ahora se utiliza poco a poco en grandes modelos que interactúan con millones de usuarios. Dos de los ejemplos más comunes son los LLM de OpenAI y Anthropic.
Aunque ambas organizaciones han adoptado enfoques diferentes para crear sistemas de IA más éticos, comparten una idea común: enseñar al modelo a seguir una serie de principios rectores escritos. Veamos estos ejemplos más de cerca.
La IA constitucional de OpenAI
OpenAI introdujo un documento llamado Model Spec como parte del proceso de formación de sus modelos ChatGPT. Este documento actúa como una constitución. Esboza lo que el modelo debe buscar en sus respuestas, incluidos valores como la utilidad, la honestidad y la seguridad. También define lo que se considera una respuesta perjudicial o engañosa.
Este marco se ha utilizado para ajustar los modelos de OpenAI clasificando las respuestas en función de su adecuación a las reglas. Con el tiempo, esto ha ayudado a dar forma a ChatGPT para que produzca menos resultados perjudiciales y se ajuste mejor a lo que realmente quieren los usuarios.
Fig. 3. Un ejemplo de ChatGPT utilizando el Modelo Spec de OpenAI para responder.
Modelos éticos de IA de Anthropic
La constitución que sigue Claude, el modelo de Anthropic, se basa en principios éticos de fuentes como la Declaración Universal de los Derechos Humanos, directrices de plataformas como las condiciones de servicio de Apple e investigaciones de otros laboratorios de IA. Estos principios ayudan a garantizar que las respuestas de Claude sean seguras, justas y acordes con importantes valores humanos.
Claude también utiliza el Aprendizaje por Refuerzo a partir de la Retroalimentación de la IA (RLAIF), que revisa y ajusta sus propias respuestas basándose en estas directrices éticas, en lugar de depender de la retroalimentación humana. Este proceso permite a Claude mejorar con el tiempo, lo que la hace más escalable y mejor a la hora de ofrecer respuestas útiles, éticas y no perjudiciales, incluso en situaciones complicadas.
Fig. 4. Entendiendo el enfoque de Anthropic sobre la IA constitucional.
Aplicación de la IA constitucional a la visión por ordenador
Dado que la IA constitucional está influyendo positivamente en el comportamiento de los modelos lingüísticos, esto nos lleva naturalmente a la siguiente pregunta: ¿Podría un enfoque similar ayudar a los sistemas basados en la visión a responder de forma más justa y segura?
Aunque los modelos de visión artificial trabajan con imágenes en lugar de texto, la necesidad de una orientación ética es igual de importante. Por ejemplo, la imparcialidad y la parcialidad son factores clave a tener en cuenta, ya que estos sistemas deben entrenarse para tratar a todos por igual y evitar resultados perjudiciales o injustos al analizar datos visuales.
Fig. 5. Retos éticos relacionados con la visión por ordenador. Imagen del autor.
Por el momento, el uso de métodos constitucionales de IA en la visión por ordenador aún se está explorando y se encuentra en sus primeras fases, con investigaciones en curso en este campo.
Por ejemplo, Meta acaba de presentar CLUE, un marco que aplica el razonamiento constitucional a las tareas de seguridad de las imágenes. Convierte amplias normas de seguridad en pasos precisos que la IA multimodal (sistemas de IA que procesan y comprenden múltiples tipos de datos) puede seguir. Esto ayuda al sistema a razonar con mayor claridad y reducir los resultados perjudiciales.
Además, CLUE hace que los juicios sobre seguridad de las imágenes sean más eficaces al simplificar reglas complejas, lo que permite a los modelos de IA actuar con rapidez y precisión sin necesidad de una gran intervención humana. Al utilizar un conjunto de principios rectores, CLUE hace que los sistemas de moderación de imágenes sean más escalables al tiempo que garantiza resultados de alta calidad.
Principales conclusiones
A medida que los sistemas de IA asumen más responsabilidades, la atención se desplaza de lo que pueden hacer a lo que deberían hacer. Este cambio es clave, ya que estos sistemas se utilizan en ámbitos que afectan directamente a la vida de las personas, como la sanidad, la aplicación de la ley y la educación.
Para garantizar que los sistemas de IA actúan de forma adecuada y ética, necesitan una base sólida y coherente. Esta base debe dar prioridad a la equidad, la seguridad y la confianza.
Una constitución escrita puede proporcionar esa base durante la formación, guiando el proceso de toma de decisiones del sistema. También puede proporcionar a los desarrolladores un marco para revisar y ajustar el comportamiento del sistema después de su despliegue, garantizando que sigue alineado con los valores para los que fue diseñado y facilitando su adaptación a medida que surgen nuevos retos.