Glossário

IA constitucional

Descubra como a IA constitucional garante resultados de IA éticos, seguros e imparciais, alinhando os modelos com princípios predefinidos e valores humanos.

A IA Constitucional (CAI) é um método desenvolvido pela Anthropic para treinar modelos de IA, em particular Modelos de Linguagem de Grande Porte (LLMs), para se alinharem com um conjunto específico de regras ou princípios, conhecido como "constituição". O principal objetivo do CAI é tornar os sistemas de IA úteis, inofensivos e mais controláveis, sem necessitar de um extenso feedback humano. Em vez de os humanos rotularem constantemente os resultados nocivos, a IA aprende a criticar e a rever as suas próprias respostas com base nos princípios orientadores da sua constituição. Esta abordagem ajuda a enfrentar os principais desafios da ética da IA, como a prevenção da produção de conteúdos tóxicos e a redução dos preconceitos algorítmicos.

Como funciona a IA constitucional

O processo de formação CAI envolve normalmente duas fases principais:

  1. Fase de aprendizagem supervisionada: Inicialmente, é pedido a um modelo de fundação que gere respostas. De seguida, é pedido ao mesmo modelo que critique as suas próprias respostas com base na constituição e que as reescreva de forma a estarem mais alinhadas com os seus princípios. Isto cria um novo conjunto de dados de exemplos melhorados e alinhados com a constituição. Este mecanismo de auto-crítica é orientado por uma constituição, que pode ser uma simples lista de regras ou ser extraída de fontes complexas como a Declaração dos Direitos Humanos da ONU.
  2. Fase de aprendizagem por reforço: O modelo é então afinado utilizando a Aprendizagem por Reforço (RL). Nesta fase, a IA gera pares de respostas e um modelo de preferências (treinado com base nos dados autocriticados da primeira fase) seleciona a que melhor se adequa à constituição. Este processo ensina a IA a preferir intrinsecamente os resultados que são consistentes com os seus princípios fundamentais.

Um exemplo real importante da CAI é a sua implementação no assistente de IA da Anthropic, Claude. A sua constituição orienta-o para evitar gerar instruções prejudiciais, recusar-se a participar em actividades ilegais e comunicar de forma não tóxica, mantendo-se sempre útil. Outra aplicação é a moderação automatizada de conteúdos, em que um modelo baseado na IAC poderia ser utilizado para identificar e assinalar discursos de ódio ou desinformação em linha, de acordo com um conjunto predefinido de diretrizes éticas.

IA constitucional vs. conceitos relacionados

É importante distinguir o ICC de termos semelhantes:

  • Aprendizagem por reforço com base no feedback humano (RLHF): A RLHF depende de humanos para dar feedback e classificar as respostas geradas pela IA, o que consome muito tempo e é difícil de escalar. A CAI substitui o ciclo de feedback humano por um ciclo orientado por IA, em que a constituição do modelo guia o feedback. Isto torna o processo de alinhamento mais escalável e consistente.
  • Ética da IA: Trata-se de um domínio vasto que se ocupa dos princípios morais e dos problemas técnicos da criação de uma IA responsável. A IA constitucional pode ser vista como um quadro prático para a implementação da ética da IA, integrando regras éticas explícitas diretamente no processo de formação do modelo.

Aplicações e potencialidades futuras

Atualmente, a IA constitucional é aplicada principalmente a LLMs para tarefas como a geração de diálogos e a sumarização de textos. No entanto, os princípios subjacentes podem potencialmente estender-se a outros domínios da IA, incluindo a Visão por Computador (CV). Por exemplo:

O desenvolvimento e o aperfeiçoamento de constituições eficazes, juntamente com a garantia de que a IA adere fielmente a elas em diversos contextos, continuam a ser áreas activas de investigação em organizações como a Google AI e o AI Safety Institute. Ferramentas como o Ultralytics HUB facilitam a formação e a implementação de vários modelos de IA, e a incorporação de princípios semelhantes aos da IA Constitucional tornar-se-á cada vez mais importante para garantir uma implementação responsável do modelo.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência