Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Konstitutionelle KI

Entdecken Sie, wie Constitutional AI ethische, sichere und unvoreingenommene KI-Ergebnisse gewährleistet, indem sie Modelle an vordefinierten Prinzipien und menschlichen Werten ausrichtet.

Constitutional AI (CAI) ist eine spezielle Trainingsmethodik, die darauf abzielt, Künstliche Intelligenz (KI) -Systeme mit menschlichen Werten in Einklang zu bringen, indem ein vordefinierter Satz von Prinzipien – eine „Verfassung“ – direkt in den Lernprozess eingebettet wird . Im Gegensatz zu herkömmlichen Methoden, die sich bei jeder spezifischen Ausgabe stark auf menschliches Feedback stützen, ermöglicht CAI einem Modell, sein eigenes Verhalten auf der Grundlage expliziter Regeln wie Hilfsbereitschaft, Ehrlichkeit und Harmlosigkeit zu kritisieren und zu überarbeiten. Dieser Ansatz begegnet den Herausforderungen der Skalierbarkeit von KI-Sicherheit durch die Automatisierung des Abgleichprozesses, wodurch Entwickler in der Lage sind, fähige Assistenten zu trainieren, die ethische Richtlinien einhalten, ohne dass menschliche Annotatoren während der Datenbeschriftung toxischen oder beunruhigenden Inhalten ausgesetzt werden.

Der Mechanismus: Überwachtes Lernen und RLAIF

Der Arbeitsablauf für konstitutionelle KI geht in der Regel über das standardmäßige überwachte Lernen hinaus, indem er eine Selbstverbesserungsschleife beinhaltet. Dieser Prozess ist im Allgemeinen in zwei verschiedene Phasen unterteilt, die die Entscheidungsfähigkeiten des Modells verfeinern:

  1. Überwachtes Lernen mit Selbstkritik: Das Modell generiert Antworten auf Eingaben und kritisiert dann seine eigene Ausgabe auf der Grundlage der in seiner Konstitution festgelegten Prinzipien. Verstößt eine Antwort gegen eine Regel – beispielsweise durch algorithmische Verzerrung–, überarbeitet das Modell sie. Dadurch entsteht ein hochwertiger Datensatz mit konformen Beispielen für das weitere Modelltraining.
  2. Reinforcement Learning from AI Feedback (RLAIF): In dieser Phase bewertet das Modell Antwortpaare und wählt diejenige aus, die besser mit der Verfassung übereinstimmt. Diese Präferenzdaten werden verwendet, um ein Präferenzmodell zu trainieren, das dann das Hauptmodell mithilfe von Reinforcement Learning steuert. Dadurch werden menschliche Präferenzkennzeichnungen effektiv durch KI-generierte ersetzt, was den Feinabstimmungsprozess rationalisiert.

Verfassungsrechtliche AI vs. RLHF

Es ist wichtig, CAI von Reinforcement Learning from Human Feedback (RLHF) zu unterscheiden, da es sich um unterschiedliche Strategien zur Angleichung handelt.

  • RLHF: Verwendet menschliche Annotatoren, um die Modelausgaben manuell zu bewerten. Dieser Prozess ist zwar effektiv, aber ressourcenintensiv und schwer zu skalieren. Er kann auch psychologisch belastend für die Mitarbeiter sein, die schädliche Inhalte überprüfen müssen , um sie als unsicher zu kennzeichnen.
  • Konstitutionelle KI: Nutzt RLAIF zur Automatisierung der Feedbackschleife. Durch die explizite Definition der „Konstitution” erhalten Entwickler mehr Transparenz hinsichtlich des KI- Verhaltens. Die Regeln, die Entscheidungen steuern, sind in klarer natürlicher Sprache verfasst und werden nicht implizit aus Tausenden undurchsichtiger menschlicher Bewertungen gelernt. Dies verbessert die Skalierbarkeit und Konsistenz.

Anwendungsfälle in der Praxis

Während die konstitutionelle KI ihren Ursprung im Kontext von großen Sprachmodellen (LLM) hat, die von Organisationen wie Anthropicentwickelt wurden, sind ihre Prinzipien zunehmend relevant für breitere Aufgaben des maschinellen Lernens, einschließlich Computer Vision (CV).

  • Ethische Chatbots: CAI wird in großem Umfang eingesetzt, um Gesprächsagenten zu trainieren, die sich weigern, Hassreden, Anweisungen für illegale Handlungen oder politisch voreingenommene Inhalte zu generieren. Dadurch wird sichergestellt, dass generative KI-Tools für den öffentlichen Einsatz sicher bleiben und Vorschriften wie dem EU-KI-Gesetz entsprechen.
  • Sicherheitskritische Bildverarbeitungssysteme: In autonomen Fahrzeugen kann ein "konstitutioneller" Ansatz hierarchische Regeln für die Entscheidungsfindung festlegen. Zum Beispiel kann eine Regel, die besagt "Die menschliche Sicherheit hat Vorrang vor der Verkehrseffizienz" kann das Modell bei der Analyse komplexer Straßenszenen leiten, sicherstellen, dass die Ergebnisse der Objekterkennung Sicherheit als Priorität interpretiert werden.

Implementierung von Richtlinienprüfungen in Vision AI

Während das vollständige Training einer konstitutionellen KI komplexe Feedbackschleifen umfasst, können Entwickler das Konzept der „konstitutionellen Prüfungen” während der Inferenz anwenden, um die Ergebnisse auf der Grundlage von Sicherheitsrichtlinien zu filtern . Das folgende Beispiel veranschaulicht die Verwendung von YOLO26 zur detect und die Anwendung einer Sicherheitsregel zum Filtern von Erkennungen mit geringer Zuverlässigkeit, wodurch eine Zuverlässigkeitskonstitution nachgeahmt wird.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://docs.ultralytics.com/usage/python/")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

Die Zukunft der Ausrichtung

Da sich die Modelle in Richtung Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) entwickeln, wächst die Bedeutung von robusten Ausrichtungsstrategien wie Constitutional AI. Diese Methoden sind unerlässlich für aufkommenden Standards von Einrichtungen wie dem NIST AI Safety Institute.

Die Ultralytics bietet Tools für das Datenmanagement und die Modellüberwachung und erleichtert so die Entwicklung verantwortungsbewusster KI-Systeme. Durch die Integration dieser ethischen Überlegungen in den Lebenszyklus der KI-Entwicklung – von der Datenerfassung bis zur Modellbereitstellung– können Unternehmen Risiken mindern und sicherstellen, dass ihre Technologien einen positiven Beitrag zur Gesellschaft leisten.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten