Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Konstitutionelle KI

Entdecken Sie, wie Constitutional AI ethische, sichere und unvoreingenommene KI-Ergebnisse gewährleistet, indem sie Modelle an vordefinierten Prinzipien und menschlichen Werten ausrichtet.

Constitutional AI (CAI) ist eine von Anthropic entwickelte Methode zum Trainieren von KI-Modellen, insbesondere Large Language Models (LLMs), um sie an eine bestimmte Reihe von Regeln oder Prinzipien anzupassen, die als "Verfassung" bezeichnet werden. Das Hauptziel von CAI ist es, KI-Systeme hilfreich, harmlos und besser kontrollierbar zu machen, ohne dass umfangreiches menschliches Feedback erforderlich ist. Anstatt dass Menschen ständig schädliche Ausgaben kennzeichnen, lernt die KI, ihre eigenen Antworten auf der Grundlage der Leitprinzipien in ihrer Verfassung zu kritisieren und zu überarbeiten. Dieser Ansatz hilft, wichtige Herausforderungen in der KI-Ethik anzugehen, wie z. B. die Verhinderung der Erzeugung von toxischen Inhalten und die Reduzierung von algorithmischer Verzerrung.

Wie Constitutional AI funktioniert

Der CAI-Trainingsprozess umfasst typischerweise zwei Hauptphasen:

  1. Supervised Learning Phase (Phase des überwachten Lernens): Zunächst wird ein Foundation Model aufgefordert, Antworten zu generieren. Dann wird dasselbe Modell gebeten, seine eigenen Antworten auf der Grundlage der Verfassung zu kritisieren und sie umzuschreiben, um sie besser an seinen Prinzipien auszurichten. Dadurch entsteht ein neuer Datensatz mit verbesserten, an der Verfassung ausgerichteten Beispielen. Dieser Selbstkritik-Mechanismus wird von einer Verfassung geleitet, die eine einfache Liste von Regeln sein kann oder aus komplexen Quellen wie der UN-Menschenrechtscharta schöpfen kann.
  2. Reinforcement-Learning-Phase: Das Modell wird dann mithilfe von Reinforcement Learning (RL) feinabgestimmt. In dieser Phase generiert die KI Paare von Antworten, und ein Präferenzmodell (das mit den selbstkritisierten Daten aus der ersten Phase trainiert wurde) wählt diejenige aus, die am besten mit der Verfassung übereinstimmt. Dieser Prozess lehrt die KI, Ausgaben, die mit ihren Kernprinzipien übereinstimmen, intrinsisch zu bevorzugen.

Ein wichtiges reales Beispiel für CAI ist die Implementierung im KI-Assistenten Claude von Anthropic. Seine Verfassung leitet ihn an, die Generierung schädlicher Anweisungen zu vermeiden, sich zu weigern, sich an illegalen Aktivitäten zu beteiligen, und auf nicht-toxische Weise zu kommunizieren, während er gleichzeitig hilfreich bleibt. Eine weitere Anwendung ist die automatisierte Inhaltsmoderation, bei der ein CAI-gesteuertes Modell verwendet werden könnte, um Hassreden oder Fehlinformationen online anhand eines vordefinierten Satzes ethischer Richtlinien zu identifizieren und zu kennzeichnen.

Constitutional AI vs. verwandte Konzepte

Es ist wichtig, CAI von ähnlichen Begriffen zu unterscheiden:

  • Reinforcement Learning from Human Feedback (RLHF): RLHF ist darauf angewiesen, dass Menschen Feedback geben und KI-generierte Antworten bewerten, was zeitaufwändig und schwer zu skalieren ist. CAI ersetzt die menschliche Feedbackschleife durch eine KI-gesteuerte, bei der die Konstitution des Modells das Feedback leitet. Dies macht den Alignment-Prozess skalierbarer und konsistenter.
  • KI-Ethik: Dies ist ein breites Feld, das sich mit den moralischen Prinzipien und technischen Problemen der Schaffung verantwortungsvoller KI befasst. Konstitutionelle KI kann als praktischer Rahmen für die Implementierung von KI-Ethik angesehen werden, indem explizite ethische Regeln direkt in den Trainingsprozess des Modells eingebettet werden.

Anwendungen und zukünftiges Potenzial

Derzeit wird Constitutional AI hauptsächlich auf LLMs für Aufgaben wie Dialoggenerierung und Textzusammenfassung angewendet. Die zugrunde liegenden Prinzipien könnten sich jedoch potenziell auf andere KI-Bereiche erstrecken, einschließlich Computer Vision (CV). Zum Beispiel:

Die Entwicklung und Verfeinerung effektiver Konstitutionen sowie die Sicherstellung, dass die KI diese in verschiedenen Kontexten zuverlässig einhält, sind weiterhin aktive Forschungsbereiche innerhalb von Organisationen wie Google AI und dem AI Safety Institute. Tools wie Ultralytics HUB erleichtern das Training und den Einsatz verschiedener KI-Modelle, und die Einbeziehung von Prinzipien, die der Constitutional AI ähneln, wird für die Sicherstellung eines verantwortungsvollen Modelleinsatzes zunehmend wichtiger.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert