Descubra como a IA Constitucional garante saídas de IA éticas, seguras e imparciais, alinhando modelos com princípios predefinidos e valores humanos.
A IA Constitucional (CAI) é um método desenvolvido pela Anthropic para treinar modelos de IA, particularmente Modelos de Linguagem Grandes (LLMs), para se alinharem com um conjunto específico de regras ou princípios, conhecido como "constituição". O principal objetivo da CAI é tornar os sistemas de IA úteis, inofensivos e mais controláveis sem exigir um feedback humano extensivo. Em vez de humanos rotularem constantemente resultados prejudiciais, a IA aprende a criticar e a rever as suas próprias respostas com base nos princípios orientadores da sua constituição. Esta abordagem ajuda a resolver desafios-chave na ética da IA, como a prevenção da geração de conteúdo tóxico e a redução do viés algorítmico.
O processo de treinamento de CAI normalmente envolve duas fases principais:
Um exemplo chave do mundo real de CAI é a sua implementação no assistente de IA da Anthropic, Claude. A sua constituição o orienta a evitar gerar instruções prejudiciais, recusar-se a envolver-se em atividades ilegais e comunicar de forma não tóxica, tudo isso permanecendo útil. Outra aplicação é na moderação automatizada de conteúdo, onde um modelo orientado por CAI poderia ser usado para identificar e sinalizar discurso de ódio ou desinformação online de acordo com um conjunto predefinido de diretrizes éticas.
É importante distinguir a CAI de termos semelhantes:
Atualmente, a IA Constitucional é aplicada principalmente a LLMs para tarefas como geração de diálogo e resumo de texto. No entanto, os princípios subjacentes podem potencialmente se estender a outros domínios de IA, incluindo a Visão Computacional (CV). Por exemplo:
O desenvolvimento e o aprimoramento de constituições eficazes, juntamente com a garantia de que a IA adere fielmente a elas em diversos contextos, permanecem áreas ativas de pesquisa em organizações como o Google AI e o AI Safety Institute. Ferramentas como o Ultralytics HUB facilitam o treinamento e a implementação de vários modelos de IA, e a incorporação de princípios semelhantes à IA Constitucional se tornará cada vez mais importante para garantir a implementação responsável de modelos.