Explore como a IA constitucional alinha modelos com valores humanos usando princípios éticos. Aprenda a implementar verificações de segurança em visão computacional com Ultralytics .
A IA constitucional é um método para treinar sistemas de inteligência artificial para se alinharem com os valores humanos, fornecendo-lhes um conjunto de princípios de alto nível — uma «constituição» — em vez de depender exclusivamente de um feedback humano extenso sobre resultados individuais. Esta abordagem ensina essencialmente o modelo de IA a criticar e rever o seu próprio comportamento com base num conjunto predefinido de regras, tais como «ser útil», «ser inofensivo» e «evitar a discriminação". Ao incorporar essas diretrizes éticas diretamente no processo de treinamento, os desenvolvedores podem criar sistemas mais seguros, mais transparentes e mais fáceis de escalar do que aqueles que dependem do aprendizado por reforço a partir do feedback humano (RLHF).
A principal inovação da IA Constitucional reside no seu processo de treino em duas fases, que automatiza o alinhamento dos modelos. Ao contrário da aprendizagem supervisionada tradicional, em que os humanos têm de rotular todas as respostas corretas, a IA Constitucional utiliza o próprio modelo para gerar dados de treino.
Embora a IA constitucional tenha surgido no contexto dos Grandes Modelos de Linguagem (LLM) desenvolvidos por organizações como Anthropic, os seus princípios são cada vez mais relevantes para tarefas mais amplas de aprendizagem automática, incluindo Visão Computacional (CV).
Embora o treinamento completo da IA constitucional envolva ciclos de feedback complexos, os desenvolvedores podem aplicar o conceito de "verificações constitucionais" durante a inferência para filtrar os resultados com base em políticas de segurança . O exemplo a seguir demonstra o uso do YOLO26 para detect e aplicar uma regra de segurança para filtrar detecções de baixa confiança, imitando uma constituição de confiabilidade.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
É importante distinguir a IA constitucional da aprendizagem por reforço a partir do feedback humano (RLHF) padrão.
medida que os modelos evoluem para a Inteligência Artificial Geral (AGI), cresce a importância de estratégias de alinhamento robustas como a IA Constitucional. Estes métodos são essenciais para para cumprir as normas emergentes de organismos como o Instituto de Segurança de IA do NIST.
A Ultralytics oferece ferramentas para gerir a governança de dados e monitorizar modelos, facilitando a criação de sistemas de IA responsáveis. Ao integrar essas considerações éticas no ciclo de vida do desenvolvimento da IA — desde a recolha de dados até a implantação de modelos— as organizações podem mitigar riscos e garantir que suas tecnologias contribuam positivamente para a sociedade.