Scopri come Constitutional AI allinea i modelli ai valori umani utilizzando principi etici. Impara a implementare controlli di sicurezza nella visione artificiale con Ultralytics .
L'IA costituzionale è un metodo per addestrare i sistemi di intelligenza artificiale ad allinearsi ai valori umani fornendo loro una serie di principi di alto livello, una "costituzione", piuttosto che affidarsi esclusivamente a un ampio feedback umano sui singoli risultati. Questo approccio insegna essenzialmente al modello di IA a criticare e rivedere il proprio comportamento sulla base di una serie predefinita di regole, come "essere utile", "essere innocuo" ed "evitare discriminazioni". Incorporando queste linee guida etiche direttamente nel processo di addestramento, gli sviluppatori possono creare sistemi più sicuri, più trasparenti e più facili da scalare rispetto a quelli che dipendono dall'apprendimento manuale rinforzato dal feedback umano (RLHF).
L'innovazione principale dell'IA costituzionale risiede nel suo processo di formazione in due fasi, che automatizza l'allineamento dei modelli. A differenza dell'apprendimento supervisionato tradizionale, in cui gli esseri umani devono etichettare ogni risposta corretta, l'IA costituzionale utilizza il modello stesso per generare dati di formazione.
Sebbene l'IA costituzionale abbia avuto origine nel contesto dei modelli linguistici di grandi dimensioni (LLM) sviluppati da organizzazioni come Anthropic, i suoi principi sono sempre più rilevanti per compiti di apprendimento automatico più ampi, tra cui la visione artificiale (CV).
Sebbene la formazione completa dell'IA costituzionale comporti complessi cicli di feedback, gli sviluppatori possono applicare il concetto di "controlli costituzionali" durante l' inferenza per filtrare i risultati in base alle politiche di sicurezza . L'esempio seguente mostra come utilizzare YOLO26 per detect e applicare una regola di sicurezza per filtrare i rilevamenti a bassa affidabilità, imitando una costituzione di affidabilità.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
È importante distinguere l'IA costituzionale dal Reinforcement Learning from Human Feedback (RLHF) standard.
Con l'evoluzione dei modelli verso Intelligenza Generale Artificiale (AGI), cresce l'importanza di strategie di allineamento robuste come la Constitutional AI. Questi metodi sono essenziali per conformità con gli standard emergenti di organismi come il NIST AI Safety Institute.
La Ultralytics offre strumenti per gestire la governance dei dati e il monitoraggio dei modelli, facilitando la creazione di sistemi di IA responsabili. Integrando queste considerazioni etiche nel ciclo di vita dello sviluppo dell'IA, dalla raccolta dei dati alla distribuzione dei modelli, le organizzazioni possono mitigare i rischi e garantire che le loro tecnologie contribuiscano positivamente alla società.