Descubra como a IA constitucional garante resultados de IA éticos, seguros e imparciais, alinhando os modelos com princípios predefinidos e valores humanos.
A IA Constitucional (CAI) é um método desenvolvido pela Anthropic para treinar modelos de IA, em particular Modelos de Linguagem de Grande Porte (LLMs), para se alinharem com um conjunto específico de regras ou princípios, conhecido como "constituição". O principal objetivo do CAI é tornar os sistemas de IA úteis, inofensivos e mais controláveis, sem necessitar de um extenso feedback humano. Em vez de os humanos rotularem constantemente os resultados nocivos, a IA aprende a criticar e a rever as suas próprias respostas com base nos princípios orientadores da sua constituição. Esta abordagem ajuda a enfrentar os principais desafios da ética da IA, como a prevenção da produção de conteúdos tóxicos e a redução dos preconceitos algorítmicos.
O processo de formação CAI envolve normalmente duas fases principais:
Um exemplo real importante da CAI é a sua implementação no assistente de IA da Anthropic, Claude. A sua constituição orienta-o para evitar gerar instruções prejudiciais, recusar-se a participar em actividades ilegais e comunicar de forma não tóxica, mantendo-se sempre útil. Outra aplicação é a moderação automatizada de conteúdos, em que um modelo baseado na IAC poderia ser utilizado para identificar e assinalar discursos de ódio ou desinformação em linha, de acordo com um conjunto predefinido de diretrizes éticas.
É importante distinguir o ICC de termos semelhantes:
Atualmente, a IA constitucional é aplicada principalmente a LLMs para tarefas como a geração de diálogos e a sumarização de textos. No entanto, os princípios subjacentes podem potencialmente estender-se a outros domínios da IA, incluindo a Visão por Computador (CV). Por exemplo:
O desenvolvimento e o aperfeiçoamento de constituições eficazes, juntamente com a garantia de que a IA adere fielmente a elas em diversos contextos, continuam a ser áreas activas de investigação em organizações como a Google AI e o AI Safety Institute. Ferramentas como o Ultralytics HUB facilitam a formação e a implementação de vários modelos de IA, e a incorporação de princípios semelhantes aos da IA Constitucional tornar-se-á cada vez mais importante para garantir uma implementação responsável do modelo.