Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Constitutional AI

Scopri come la Constitutional AI garantisce risultati etici, sicuri e imparziali allineando i modelli con principi predefiniti e valori umani.

L'Intelligenza Artificiale Costituzionale (CAI) è una metodologia di formazione specializzata progettata per allineare i sistemi di Intelligenza Artificiale (AI) ai valori umani incorporando una serie predefinita di principi - una "costituzione" - direttamente nel processo di apprendimento . A differenza dei metodi tradizionali che si basano fortemente sul feedback umano per ogni output specifico, la CAI consente a un modello di criticare e rivedere il proprio comportamento sulla base di regole esplicite quali utilità, onestà e innocuità. Questo approccio affronta le sfide di scalabilità della sicurezza dell'IA automatizzando il processo di allineamento, consentendo agli sviluppatori di addestrare assistenti capaci che rispettano le linee guida etiche senza esporre gli annotatori umani a contenuti tossici o disturbanti durante l'etichettatura dei dati.

Il meccanismo: apprendimento supervisionato e RLAIF

Il flusso di lavoro dell'IA costituzionale va tipicamente oltre l'apprendimento supervisionato standard incorporando un ciclo di auto-miglioramento. Questo processo è generalmente suddiviso in due fasi distinte che perfezionano le capacità decisionali del modello:

  1. Apprendimento supervisionato con autocritica: il modello genera risposte ai prompt e poi critica il proprio output sulla base dei principi delineati nella sua costituzione. Se una risposta viola una regola, ad esempio mostrando un pregiudizio algoritmico, il modello la rivede. Questo genera un dataset di alta qualità di esempi conformi per un ulteriore addestramento del modello.
  2. Apprendimento rinforzato dal feedback dell'IA (RLAIF): in questa fase, il modello valuta coppie di risposte e seleziona quella che meglio aderisce alla costituzione. Questi dati di preferenza vengono utilizzati per addestrare un modello di preferenza, che poi guida il modello principale utilizzando l' apprendimento rinforzato. Ciò sostituisce efficacemente le etichette di preferenza umana con quelle generate dall'IA, semplificando il processo di messa a punto.

AI costituzionale vs. RLHF

È importante distinguere il CAI dal Reinforcement Learning from Human Feedback (RLHF), poiché rappresentano strategie di allineamento diverse.

  • RLHF: si affida ad annotatori umani per valutare manualmente i risultati del modello. Sebbene efficace, questo processo richiede molte risorse ed è difficile da scalare. Può anche essere psicologicamente stressante per i lavoratori che devono esaminare contenuti dannosi per etichettarli come non sicuri.
  • AI costituzionale: utilizza RLAIF per automatizzare il ciclo di feedback. Definendo in modo esplicito la "costituzione", gli sviluppatori ottengono una maggiore trasparenza nel comportamento dell'AI. Le regole che guidano le decisioni sono scritte in un linguaggio naturale chiaro, anziché essere apprese implicitamente da migliaia di valutazioni umane poco chiare . Ciò migliora la scalabilità e la coerenza.

Applicazioni nel mondo reale

Sebbene l'IA costituzionale abbia avuto origine nel contesto dei modelli linguistici di grandi dimensioni (LLM) sviluppati da organizzazioni come Anthropic, i suoi principi sono sempre più rilevanti per compiti di apprendimento automatico più ampi, tra cui la visione artificiale (CV).

  • Chatbot etici: la CAI è ampiamente utilizzata per addestrare agenti conversazionali che rifiutano di generare discorsi di incitamento all'odio, istruzioni per atti illegali o contenuti politicamente di parte. Ciò garantisce che gli strumenti di IA generativa rimangano sicuri per l'implementazione pubblica e rispettino normative come l'EU AI Act.
  • Sistemi di visione critici per la sicurezza: Nei veicoli autonomi, un approccio "costituzionale" può definire regole gerarchiche per il processo decisionale. Ad esempio, una regola che afferma "la sicurezza umana prevale sull'efficienza del traffico" può guidare il modello nell'analisi di scene stradali complesse, che i risultati del rilevamento degli oggetti siano interpretati di rilevamento degli oggetti siano interpretati con la priorità della sicurezza.

Implementazione dei controlli delle politiche nella visione artificiale

Sebbene la formazione completa dell'IA costituzionale comporti complessi cicli di feedback, gli sviluppatori possono applicare il concetto di "controlli costituzionali" durante l' inferenza per filtrare i risultati in base alle politiche di sicurezza . L'esempio seguente mostra come utilizzare YOLO26 per detect e applicare una regola di sicurezza per filtrare i rilevamenti a bassa affidabilità, imitando una costituzione di affidabilità.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://docs.ultralytics.com/usage/python/")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

Il futuro dell'allineamento

Con l'evoluzione dei modelli verso Intelligenza Generale Artificiale (AGI), cresce l'importanza di strategie di allineamento robuste come la Constitutional AI. Questi metodi sono essenziali per conformità con gli standard emergenti di organismi come il NIST AI Safety Institute.

La Ultralytics offre strumenti per gestire la governance dei dati e il monitoraggio dei modelli, facilitando la creazione di sistemi di IA responsabili. Integrando queste considerazioni etiche nel ciclo di vita dello sviluppo dell'IA, dalla raccolta dei dati alla distribuzione dei modelli, le organizzazioni possono mitigare i rischi e garantire che le loro tecnologie contribuiscano positivamente alla società.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora