Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

KI-Sicherheit

Lernen Sie die Grundpfeiler der KI-Sicherheit kennen, darunter Ausrichtung und Robustheit. Entdecken Sie, wie Sie mit Ultralytics zuverlässige Modelle einsetzen und die Zuverlässigkeit der KI sicherstellen können.

KI-Sicherheit ist ein multidisziplinäres Gebiet, das sich darauf konzentriert, sicherzustellen, dass Systeme der künstlichen Intelligenz (KI) zuverlässig, vorhersehbar und vorteilhaft funktionieren. Im Gegensatz zur Cybersicherheit, die Systeme vor externen Angriffen schützt, befasst sich die KI-Sicherheit mit den Risiken, die mit dem Design und dem Betrieb des Systems selbst verbunden sind. Dazu gehört die Verhinderung unbeabsichtigter Folgen, die sich aus einer Fehlausrichtung der Ziele, mangelnder Robustheit in neuen Umgebungen oder Fehlern bei der Generalisierung des Deep Learning (DL) ergeben. Da Modelle immer autonomer werden, arbeiten Forscher in Organisationen wie dem Center for Human-Compatible AI daran, sicherzustellen, dass diese Technologien mit den Absichten und Sicherheitsstandards des Menschen im Einklang stehen.

Kernpfeiler einer sicheren KI

Der Aufbau eines sicheren Systems erfordert die Bewältigung mehrerer technischer Herausforderungen, die über einfache Genauigkeitsmetriken hinausgehen. Diese Säulen stellen sicher, dass Machine-Learning-Modelle (ML) auch dann unter Kontrolle bleiben, wenn sie in komplexen, realen Szenarien eingesetzt werden.

  • Robustheit: Ein sicheres Modell muss seine Leistung auch bei fehlerhaften Eingaben oder Veränderungen in der Umgebung aufrechterhalten. Dazu gehört auch die Abwehr von feindlichen Angriffen, bei denen subtile Manipulationen der Eingabedaten ein Modell dazu verleiten können, Fehler mit hoher Konfidenz zu machen.
  • Ausrichtung: Dieses Prinzip stellt sicher, dass die Ziele einer KI mit den tatsächlichen Absichten des Entwicklers übereinstimmen. Eine Fehlausrichtung tritt häufig beim verstärkenden Lernen auf, wenn ein System lernt, seine Belohnungsfunktion zu „manipulieren” – beispielsweise wenn ein Reinigungsroboter eine Vase zerbricht, um die Verschmutzung schneller zu beseitigen. Techniken wie verstärkendes Lernen aus menschlichem Feedback (RLHF) werden eingesetzt, um dies zu vermeiden.
  • Interpretierbarkeit: Auch bekannt als erklärbare KI (XAI), beinhaltet dies die Schaffung von Transparenz in „Black-Box”-Modellen. Durch die Visualisierung von Feature-Maps können Ingenieure den Entscheidungsprozess nachvollziehen und sicherstellen, dass das Modell nicht auf falschen Korrelationen basiert.
  • Überwachung: Eine kontinuierliche Modellüberwachung ist unerlässlich, um Datenabweichungen zu detect . Sicherheitsprotokolle müssen Warnmeldungen oder Fallback-Mechanismen auslösen, wenn die realen Daten erheblich von den Trainingsdaten abweichen.

Anwendungsfälle in der Praxis

Die Sicherheit von KI ist in Bereichen mit hohem Risiko von größter Bedeutung, in denen ein Versagen des Algorithmus zu körperlichen Schäden oder erheblichen wirtschaftlichen Verlusten führen könnte.

  1. Autonome Fahrzeuge: Im Bereich der KI in der Automobilindustrie legen Sicherheitsrahmenwerke fest, wie ein Auto auf Unsicherheiten reagiert. Wenn ein Objekterkennungsmodell ein Hindernis nicht mit hoher Sicherheit identifizieren kann, muss das System standardmäßig in einen sicheren Zustand – wie z. B. Bremsen – wechseln, anstatt zu raten. Die NHTSA-Richtlinien für automatisierte Fahrzeuge betonen diese ausfallsicheren Mechanismen.
  2. Medizinische Diagnostik: Bei der Anwendung von KI im Gesundheitswesen bedeutet Sicherheit, dass Falsche Negative bei kritischen Diagnosen minimiert werden müssen. Systeme sind oft auf eine hohe Trefferquote ausgelegt, um sicherzustellen, dass keine potenzielle Erkrankung übersehen wird, und fungieren so effektiv als „zweite Meinung” für Ärzte. Regulierungsbehörden wie das FDA Digital Health Center legen strenge Standards für Software als Medizinprodukt (SaMD) fest.

Implementierung von Sicherheitsschwellenwerten

Einer der grundlegendsten Sicherheitsmechanismen in der Bildverarbeitung ist die Verwendung von Konfidenzschwellen. Durch das Herausfiltern von Vorhersagen mit geringer Wahrscheinlichkeit während der Inferenz verhindern Entwickler, dass Systeme auf der Grundlage schwacher Informationen handeln.

Das folgende Beispiel zeigt, wie ein Sicherheitsfilter mit Ultralytics angewendet wird, um sicherzustellen, dass nur zuverlässige Erkennungen verarbeitet werden.

from ultralytics import YOLO

# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")

# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)

# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")

KI-Sicherheit vs. KI-Ethik

Obwohl diese Begriffe oft synonym verwendet werden, beziehen sie sich auf unterschiedliche Aspekte einer verantwortungsvollen KI.

  • KI-Sicherheit ist eine technische Ingenieursdisziplin. Sie fragt: „Wird dieses System korrekt funktionieren, ohne Unfälle zu verursachen?“ Sie befasst sich mit Problemen wie Modellhalluzinationen und sicherer Erforschung im verstärkenden Lernen.
  • KI-Ethik ist ein soziotechnischer Rahmen. Sie fragt: „Sollen wir dieses System entwickeln, und ist es fair?“ Sie konzentriert sich auf Themen wie algorithmische Verzerrung, Datenschutzrechte und die gerechte Verteilung von Vorteilen, wie im EU-KI-Gesetz dargelegt.

Zukünftiger Ausblick

Da sich die Branche in Richtung künstlicher allgemeiner Intelligenz (AGI) bewegt, wird die Sicherheitsforschung immer wichtiger. Unternehmen können die Ultralytics nutzen, um ihre Datensätze zu verwalten und die Modellbereitstellung zu überwachen, damit ihre KI-Lösungen während ihres gesamten Lebenszyklus robust, transparent und mit den Sicherheitsstandards konform bleiben.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten