A IA constitucional tem por objetivo alinhar os modelos de IA com os valores humanos

Abirami Vina

4 min ler

8 de abril de 2025

Saiba como a IA constitucional ajuda os modelos a seguir regras éticas, a tomar decisões mais seguras e a apoiar a justiça nos sistemas de linguagem e de visão por computador.

A inteligência artificial (IA) está a tornar-se rapidamente uma parte essencial da nossa vida quotidiana. Está a ser integrada em ferramentas utilizadas em áreas como os cuidados de saúde, o recrutamento, as finanças e a segurança pública. À medida que estes sistemas se expandem, surgem também preocupações sobre a sua ética e fiabilidade.

Por exemplo, por vezes, os sistemas de IA que são construídos sem ter em conta a equidade ou a segurança podem produzir resultados tendenciosos ou pouco fiáveis. Isto acontece porque muitos modelos ainda não têm uma forma clara de refletir e alinhar-se com os valores humanos.

Para responder a estes desafios, os investigadores estão agora a explorar uma abordagem conhecida como IA constitucional. Em termos simples, introduz um conjunto de princípios escritos no processo de formação do modelo. Estes princípios ajudam o modelo a avaliar o seu próprio comportamento, dependem menos do feedback humano e tornam as respostas mais seguras e fáceis de compreender.

Até à data, esta abordagem tem sido utilizada sobretudo no que respeita a modelos de linguagem de grande dimensão (LLM). No entanto, a mesma estrutura poderia ajudar a orientar os sistemas de visão computacional para a tomada de decisões éticas durante a análise de dados visuais. 

Neste artigo, vamos explorar o funcionamento da IA constitucional, analisar exemplos da vida real e discutir as suas potenciais aplicações em sistemas de visão por computador.

__wf_reserved_inherit
Fig. 1. Caraterísticas da IA constitucional. Imagem do autor.

O que é a IA constitucional?

A IA constitucional é um método de formação de modelos que orienta o comportamento dos modelos de IA, fornecendo um conjunto claro de regras éticas. Estas regras funcionam como um código de conduta. Em vez de confiar no modelo para inferir o que é aceitável, este segue um conjunto de princípios escritos que moldam as suas respostas durante o treino.

Este conceito foi introduzido pela Anthropic, uma empresa de investigação centrada na segurança da IA que desenvolveu a família Claude LLM como um método para tornar os sistemas de IA mais auto-supervisionados na sua tomada de decisões. 

Em vez de depender apenas do feedback humano, o modelo aprende a criticar e a aperfeiçoar as suas próprias respostas com base num conjunto predefinido de princípios. Esta abordagem é semelhante a um sistema jurídico, em que um juiz consulta uma constituição antes de tomar uma decisão.

Neste caso, o modelo torna-se simultaneamente o juiz e o aluno, utilizando o mesmo conjunto de regras para rever e aperfeiçoar o seu próprio comportamento. Este processo reforça o alinhamento dos modelos de IA e apoia o desenvolvimento de sistemas de IA seguros e responsáveis.

Como funciona a IA constitucional?

O objetivo da IA constitucional é ensinar um modelo de IA a tomar decisões seguras e justas, seguindo um conjunto claro de regras escritas. Eis uma descrição simples de como funciona este processo:

  • Definição da constituição: É criada uma lista escrita de princípios éticos que o modelo deve seguir. A constituição define o que a IA deve evitar e quais os valores que deve refletir.

  • Formação com supervisionado supervisionados: São apresentados ao modelo exemplos de respostas que seguem a constituição. Estes exemplos ajudam a IA a compreender o que é um comportamento aceitável.

  • Reconhecer e aplicar padrões: Com o passar do tempo, o modelo começa a reconhecer estes padrões. Aprende a aplicar os mesmos valores quando responde a novas perguntas ou lida com novas situações.

  • Criticar e aperfeiçoar os resultados: O modelo revê as suas próprias respostas e ajusta-as com base na constituição. Esta fase de auto-revisão ajuda-o a melhorar sem depender apenas do feedback humano.

  • Produzindo respostas alinhadas e mais seguras: O modelo aprende a partir de regras consistentes, o que ajuda a reduzir a parcialidade e a melhorar a fiabilidade na utilização no mundo real. Esta abordagem torna-o mais alinhado com os valores humanos e mais fácil de governar.
__wf_reserved_inherit
Figura 2. Uma visão geral da utilização da IA constitucional para treinar modelos.

Princípios fundamentais da conceção ética da IA

Para que um modelo de IA siga regras éticas, essas regras têm de ser claramente definidas em primeiro lugar. No que respeita à IA constitucional, estas regras baseiam-se num conjunto de princípios fundamentais. 

Por exemplo, eis quatro princípios que constituem a base de uma constituição de IA eficaz:

  • Transparência: Deve ser fácil compreender como é que um modelo chegou a uma resposta. Se uma resposta se basear em factos, estimativas ou padrões, será transparente para o utilizador. Este facto gera confiança e ajuda as pessoas a avaliar se podem confiar nos resultados do modelo.

  • Igualdade: As respostas devem ser consistentes entre diferentes utilizadores. O modelo não deve alterar o seu resultado com base no nome, origem ou localização de uma pessoa. A igualdade ajuda a evitar preconceitos e promove a igualdade de tratamento.

  • Responsabilização: Deverá existir uma forma de identificar a forma como um modelo foi treinado e o que influenciou o seu comportamento. Quando algo corre mal, as equipas devem ser capazes de identificar a causa e melhorá-la. Isto favorece a transparência e a responsabilidade a longo prazo.

  • Segurança: Os modelos devem evitar a produção de conteúdos que possam causar danos. Se um pedido conduzir a resultados arriscados ou inseguros, o sistema deve reconhecer esse facto e parar. Isto protege tanto o utilizador como a integridade do sistema.

Exemplos de IA constitucional em grandes modelos linguísticos

A IA constitucional passou da teoria à prática e está agora a ser lentamente utilizada em grandes modelos que interagem com milhões de utilizadores. Dois dos exemplos mais comuns são os LLM da OpenAI e da Anthropic. 

Embora ambas as organizações tenham adotado abordagens diferentes para criar sistemas de IA mais éticos, partilham uma ideia comum: ensinar o modelo a seguir um conjunto de princípios orientadores escritos. Vejamos estes exemplos em pormenor.

Abordagem constitucional da IA da OpenAI

A OpenAI introduziu um documento chamado Model Spec como parte do processo de formação dos seus modelos ChatGPT. Este documento actua como uma constituição. Descreve os objectivos que o modelo deve ter nas suas respostas, incluindo valores como a utilidade, a honestidade e a segurança. Também define o que é considerado um resultado prejudicial ou enganador. 

Este quadro foi utilizado para afinar os modelos da OpenAI, classificando as respostas de acordo com a sua correspondência com as regras. Ao longo do tempo, isto ajudou a moldar o ChatGPT de modo a que produzisse menos resultados prejudiciais e se alinhasse melhor com o que os utilizadores realmente querem. 

__wf_reserved_inherit
Fig. 3. Um exemplo de ChatGPT que utiliza o Model Spec da OpenAI para responder.

Modelos éticos de IA da Anthropic

A constituição que o modelo do Anthropic, Claude, segue baseia-se em princípios éticos de fontes como a Declaração Universal dos Direitos Humanos, diretrizes de plataformas como os termos de serviço da Apple e investigação de outros laboratórios de IA. Estes princípios ajudam a garantir que as respostas do Claude são seguras, justas e estão alinhadas com valores humanos importantes.

O Claude também utiliza a Aprendizagem por Reforço a partir do Feedback da IA (RLAIF), em que analisa e ajusta as suas próprias respostas com base nestas diretrizes éticas, em vez de depender do feedback humano. Este processo permite que o Claude melhore ao longo do tempo, tornando-o mais escalável e melhor a dar respostas úteis, éticas e não prejudiciais, mesmo em situações complicadas.

__wf_reserved_inherit
Figura 4. Compreender a abordagem da Anthropic à IA constitucional.

Aplicar a IA constitucional à visão por computador

Uma vez que a IA constitucional está a influenciar positivamente a forma como os modelos de linguagem se comportam, isso leva naturalmente à questão: Poderá uma abordagem semelhante ajudar os sistemas baseados na visão a responder de forma mais justa e segura? 

Embora os modelos de visão por computador trabalhem com imagens em vez de texto, a necessidade de orientação ética é igualmente importante. Por exemplo, a justiça e a parcialidade são factores-chave a considerar, uma vez que estes sistemas têm de ser treinados para tratar todos de forma igual e evitar resultados prejudiciais ou injustos ao analisar dados visuais.

__wf_reserved_inherit
Fig. 5. Desafios éticos relacionados com a visão computacional. Imagem do autor.

Atualmente, a utilização de métodos constitucionais de IA na visão computacional ainda está a ser explorada e encontra-se numa fase inicial, com investigação em curso nesta área.

Por exemplo, a Meta introduziu recentemente o CLUE, um quadro que aplica o raciocínio de tipo constitucional a tarefas de segurança de imagens. Transforma regras de segurança gerais em passos precisos que a IA multimodal (sistemas de IA que processam e compreendem vários tipos de dados) pode seguir. Isto ajuda o sistema a raciocinar de forma mais clara e a reduzir os resultados prejudiciais. 

Além disso, o CLUE torna os julgamentos de segurança de imagem mais eficientes, simplificando regras complexas, permitindo que os modelos de IA actuem de forma rápida e precisa sem necessitarem de uma intervenção humana extensiva. Ao utilizar um conjunto de princípios orientadores, o CLUE torna os sistemas de moderação de imagens mais escaláveis, garantindo simultaneamente resultados de elevada qualidade.

Principais conclusões

À medida que os sistemas de IA assumem mais responsabilidades, a atenção está a mudar do que podem fazer para o que devem fazer. Esta mudança é fundamental, uma vez que estes sistemas são utilizados em áreas que afectam diretamente a vida das pessoas, como os cuidados de saúde, a aplicação da lei e a educação. 

Para garantir que os sistemas de IA actuam de forma adequada e ética, precisam de uma base sólida e consistente. Esta base deve dar prioridade à justiça, à segurança e à confiança. 

Uma constituição escrita pode fornecer essa base durante a formação, orientando o processo de tomada de decisões do sistema. Também pode dar aos programadores uma estrutura para rever e ajustar o comportamento do sistema após a implementação, garantindo que continua a estar alinhado com os valores que foi concebido para defender e facilitando a adaptação à medida que surgem novos desafios.

Junte-se hoje à nossa comunidade em crescimento! Aprofunde-se na IA explorando o nosso repositório GitHub. Pretende criar os seus próprios projectos de visão computacional? Explore as nossas opções de licenciamento. Saiba como a visão computacional nos cuidados de saúde está a melhorar a eficiência e explore o impacto da IA no fabrico visitando as nossas páginas de soluções!

Vamos construir juntos o futuro
da IA!

Comece a sua viagem com o futuro da aprendizagem automática

Comece gratuitamente
Ligação copiada para a área de transferência