Entdecken Sie, wie Constitutional AI ethische, sichere und unvoreingenommene KI-Ergebnisse gewährleistet, indem sie Modelle an vordefinierten Prinzipien und menschlichen Werten ausrichtet.
Constitutional AI (CAI) ist eine spezielle Trainingsmethodik, die darauf abzielt, Künstliche Intelligenz (KI) -Systeme mit menschlichen Werten in Einklang zu bringen, indem ein vordefinierter Satz von Prinzipien – eine „Verfassung“ – direkt in den Lernprozess eingebettet wird . Im Gegensatz zu herkömmlichen Methoden, die sich bei jeder spezifischen Ausgabe stark auf menschliches Feedback stützen, ermöglicht CAI einem Modell, sein eigenes Verhalten auf der Grundlage expliziter Regeln wie Hilfsbereitschaft, Ehrlichkeit und Harmlosigkeit zu kritisieren und zu überarbeiten. Dieser Ansatz begegnet den Herausforderungen der Skalierbarkeit von KI-Sicherheit durch die Automatisierung des Abgleichprozesses, wodurch Entwickler in der Lage sind, fähige Assistenten zu trainieren, die ethische Richtlinien einhalten, ohne dass menschliche Annotatoren während der Datenbeschriftung toxischen oder beunruhigenden Inhalten ausgesetzt werden.
Der Arbeitsablauf für konstitutionelle KI geht in der Regel über das standardmäßige überwachte Lernen hinaus, indem er eine Selbstverbesserungsschleife beinhaltet. Dieser Prozess ist im Allgemeinen in zwei verschiedene Phasen unterteilt, die die Entscheidungsfähigkeiten des Modells verfeinern:
Es ist wichtig, CAI von Reinforcement Learning from Human Feedback (RLHF) zu unterscheiden, da es sich um unterschiedliche Strategien zur Angleichung handelt.
Während die konstitutionelle KI ihren Ursprung im Kontext von großen Sprachmodellen (LLM) hat, die von Organisationen wie Anthropicentwickelt wurden, sind ihre Prinzipien zunehmend relevant für breitere Aufgaben des maschinellen Lernens, einschließlich Computer Vision (CV).
Während das vollständige Training einer konstitutionellen KI komplexe Feedbackschleifen umfasst, können Entwickler das Konzept der „konstitutionellen Prüfungen” während der Inferenz anwenden, um die Ergebnisse auf der Grundlage von Sicherheitsrichtlinien zu filtern . Das folgende Beispiel veranschaulicht die Verwendung von YOLO26 zur detect und die Anwendung einer Sicherheitsregel zum Filtern von Erkennungen mit geringer Zuverlässigkeit, wodurch eine Zuverlässigkeitskonstitution nachgeahmt wird.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://docs.ultralytics.com/usage/python/")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Da sich die Modelle in Richtung Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) entwickeln, wächst die Bedeutung von robusten Ausrichtungsstrategien wie Constitutional AI. Diese Methoden sind unerlässlich für aufkommenden Standards von Einrichtungen wie dem NIST AI Safety Institute.
Die Ultralytics bietet Tools für das Datenmanagement und die Modellüberwachung und erleichtert so die Entwicklung verantwortungsbewusster KI-Systeme. Durch die Integration dieser ethischen Überlegungen in den Lebenszyklus der KI-Entwicklung – von der Datenerfassung bis zur Modellbereitstellung– können Unternehmen Risiken mindern und sicherstellen, dass ihre Technologien einen positiven Beitrag zur Gesellschaft leisten.