Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Aprenda como a IA constitucional ajuda os modelos a seguir regras éticas, tomar decisões mais seguras e apoiar a justiça em sistemas de linguagem e visão computacional.
A inteligência artificial (IA) está rapidamente se tornando uma parte fundamental de nossas vidas diárias. Ela está sendo integrada em ferramentas usadas em áreas como saúde, recrutamento, finanças e segurança pública. À medida que esses sistemas se expandem, as preocupações com sua ética e confiabilidade também estão sendo expressas.
Por exemplo, às vezes, sistemas de IA construídos sem considerar a justiça ou a segurança podem produzir resultados tendenciosos ou não confiáveis. Isso ocorre porque muitos modelos ainda não têm uma maneira clara de refletir e se alinhar com os valores humanos.
Para enfrentar esses desafios, os pesquisadores estão agora explorando uma abordagem conhecida como IA constitucional. Simplificando, ela introduz um conjunto escrito de princípios no processo de treinamento do modelo. Esses princípios ajudam o modelo a julgar seu próprio comportamento, a depender menos do feedback humano e a tornar as respostas mais seguras e fáceis de entender.
Até agora, esta abordagem tem sido usada principalmente em relação a modelos de linguagem grandes (LLMs). No entanto, a mesma estrutura pode ajudar a orientar os sistemas de visão computacional a tomar decisões éticas ao analisar dados visuais.
Neste artigo, exploraremos como funciona a IA constitucional, veremos exemplos da vida real e discutiremos suas aplicações potenciais em sistemas de visão computacional.
Fig 1. Características da IA constitucional. Imagem do autor.
O que é IA constitucional?
A IA Constitucional é um método de treinamento de modelos que orienta o comportamento dos modelos de IA, fornecendo um conjunto claro de regras éticas. Essas regras atuam como um código de conduta. Em vez de confiar no modelo para inferir o que é aceitável, ele segue um conjunto escrito de princípios que moldam suas respostas durante o treinamento.
Este conceito foi introduzido pela Anthropic, uma empresa de pesquisa focada em segurança de IA que desenvolveu a família Claude LLM como um método para tornar os sistemas de IA mais autossupervisionados em sua tomada de decisões.
Em vez de depender unicamente do feedback humano, o modelo aprende a criticar e refinar suas próprias respostas com base em um conjunto de princípios predefinidos. Essa abordagem é semelhante a um sistema jurídico, onde um juiz consulta uma constituição antes de emitir um julgamento.
Neste caso, o modelo torna-se tanto o juiz quanto o aluno, usando o mesmo conjunto de regras para rever e refinar o seu próprio comportamento. Este processo fortalece o alinhamento do modelo de IA e apoia o desenvolvimento de sistemas de IA seguros e responsáveis.
Como funciona a IA constitucional?
O objetivo da IA constitucional é ensinar um modelo de IA a tomar decisões seguras e justas, seguindo um conjunto claro de regras escritas. Aqui está uma análise simples de como esse processo funciona:
Definir a constituição: Cria-se uma lista escrita de princípios éticos que o modelo deve seguir. A constituição descreve o que a IA deve evitar e quais valores deve refletir.
Treinamento com exemplos supervisionados: O modelo recebe exemplos de respostas que seguem a constituição. Esses exemplos ajudam a IA a entender como é um comportamento aceitável.
Reconhecimento e aplicação de padrões: Com o tempo, o modelo começa a identificar esses padrões. Aprende a aplicar os mesmos valores ao responder a novas perguntas ou ao lidar com novas situações.
Criticar e refinar as saídas: O modelo revisa suas próprias respostas e as ajusta com base na constituição. Esta fase de auto-revisão ajuda-o a melhorar sem depender apenas do feedback humano.
Produzindo respostas alinhadas e mais seguras: O modelo aprende com regras consistentes, o que ajuda a reduzir o viés e melhorar a confiabilidade no uso no mundo real. Essa abordagem o torna mais alinhado com os valores humanos e mais fácil de governar.
Fig. 2. Uma visão geral do uso de IA constitucional para treinar modelos.
Princípios fundamentais do design ético de IA
Para que um modelo de IA siga regras éticas, essas regras precisam ser claramente definidas primeiro. Quando se trata de IA constitucional, essas regras são baseadas num conjunto de princípios fundamentais.
Por exemplo, aqui estão quatro princípios que formam a base de uma constituição de IA eficaz:
Transparência: Deve ser fácil entender como um modelo chegou a uma resposta. Se uma resposta for baseada em fatos, estimativas ou padrões, será transparente para o usuário. Isso constrói confiança e ajuda as pessoas a julgar se podem confiar na saída do modelo.
Igualdade: As respostas devem permanecer consistentes entre diferentes usuários. O modelo não deve alterar sua saída com base no nome, histórico ou localização de uma pessoa. A igualdade ajuda a evitar o viés e promove o tratamento igualitário.
Responsabilidade: Deve haver uma forma de rastrear como um modelo foi treinado e o que influenciou seu comportamento. Quando algo dá errado, as equipes devem ser capazes de identificar a causa e corrigi-la. Isso promove a transparência e a responsabilidade a longo prazo.
Segurança: Os modelos precisam evitar produzir conteúdo que possa causar danos. Se uma solicitação levar a resultados arriscados ou inseguros, o sistema deve reconhecer isso e parar. Isso protege tanto o usuário quanto a integridade do sistema.
Exemplos de IA constitucional em grandes modelos de linguagem
A IA Constitucional passou da teoria à prática e agora está sendo lentamente usada em grandes modelos que interagem com milhões de usuários. Dois dos exemplos mais comuns são os LLMs da OpenAI e da Anthropic.
Embora ambas as organizações tenham adotado abordagens diferentes para criar sistemas de IA mais éticos, elas compartilham uma ideia comum: ensinar o modelo a seguir um conjunto de princípios orientadores escritos. Vejamos estes exemplos mais de perto.
A abordagem de IA constitucional da OpenAI
A OpenAI introduziu um documento chamado Model Spec como parte do processo de treinamento para seus modelos ChatGPT. Este documento age como uma constituição. Ele descreve o que o modelo deve buscar em suas respostas, incluindo valores como prestatividade, honestidade e segurança. Ele também define o que conta como saída prejudicial ou enganosa.
Esta estrutura tem sido usada para ajustar os modelos da OpenAI, classificando as respostas de acordo com o quão bem correspondem às regras. Ao longo do tempo, isso ajudou a moldar o ChatGPT para que produza menos resultados prejudiciais e se alinhe melhor com o que os usuários realmente desejam.
Fig 3. Um exemplo de ChatGPT usando o Model Spec da OpenAI para responder.
Modelos de IA ética da Anthropic
A constituição que o modelo da Anthropic, Claude, segue é baseada em princípios éticos de fontes como a Declaração Universal dos Direitos Humanos, diretrizes de plataforma como os termos de serviço da Apple e pesquisas de outros laboratórios de IA. Esses princípios ajudam a garantir que as respostas de Claude sejam seguras, justas e alinhadas com importantes valores humanos.
Claude também usa o Aprendizado por Reforço a partir do Feedback de IA (RLAIF), onde ele revisa e ajusta suas próprias respostas com base nessas diretrizes éticas, em vez de depender do feedback humano. Este processo permite que Claude melhore ao longo do tempo, tornando-o mais escalável e melhor em fornecer respostas úteis, éticas e não prejudiciais, mesmo em situações complicadas.
Fig. 4. Compreendendo a abordagem da Anthropic para a IA constitucional.
Aplicando IA constitucional à visão computacional
Como a IA constitucional está influenciando positivamente o comportamento dos modelos de linguagem, isso naturalmente leva à pergunta: uma abordagem semelhante poderia ajudar os sistemas baseados em visão a responder de forma mais justa e segura?
Embora os modelos de visão computacional trabalhem com imagens em vez de texto, a necessidade de orientação ética é igualmente importante. Por exemplo, justiça e viés são fatores-chave a serem considerados, pois esses sistemas precisam ser treinados para tratar todos igualmente e evitar resultados prejudiciais ou injustos ao analisar dados visuais.
Fig 5. Desafios éticos relacionados à visão computacional. Imagem do autor.
No momento, o uso de métodos de IA constitucional em visão computacional ainda está sendo explorado e está em seus estágios iniciais, com pesquisas em andamento nesta área.
Por exemplo, a Meta introduziu recentemente o CLUE, um framework que aplica raciocínio semelhante ao constitucional a tarefas de segurança de imagem. Ele transforma regras de segurança amplas em etapas precisas que a IA multimodal (sistemas de IA que processam e compreendem vários tipos de dados) pode seguir. Isso ajuda o sistema a raciocinar com mais clareza e a reduzir resultados prejudiciais.
Além disso, o CLUE torna as avaliações de segurança de imagem mais eficientes ao simplificar regras complexas, permitindo que os modelos de IA atuem de forma rápida e precisa sem a necessidade de grande intervenção humana. Ao usar um conjunto de princípios orientadores, o CLUE torna os sistemas de moderação de imagem mais escaláveis, garantindo resultados de alta qualidade.
Principais conclusões
À medida que os sistemas de IA assumem mais responsabilidade, o foco está a mudar do que eles podem fazer para o que eles devem fazer. Esta mudança é fundamental, uma vez que estes sistemas são utilizados em áreas que afetam diretamente a vida das pessoas, como os cuidados de saúde, a aplicação da lei e a educação.
Para garantir que os sistemas de IA atuem de forma apropriada e ética, eles precisam de uma base sólida e consistente. Esta base deve priorizar a justiça, a segurança e a confiança.
Uma constituição escrita pode fornecer essa base durante o treinamento, orientando o processo de tomada de decisão do sistema. Também pode fornecer aos desenvolvedores uma estrutura para revisar e ajustar o comportamento do sistema após a implantação, garantindo que ele continue alinhado com os valores que foi projetado para defender e facilitando a adaptação à medida que surgem novos desafios.