KI-Sicherheit
Erfahren Sie mehr über KI-Sicherheit, ein wichtiges Feld zur Verhinderung unbeabsichtigter Schäden durch KI-Systeme. Entdecken Sie die wichtigsten Säulen, realen Anwendungen und die Rolle in der verantwortungsvollen KI.
AI Safety ist ein spezieller Bereich innerhalb der
Künstlichen Intelligenz (KI), der sich darauf konzentriert
sicherzustellen, dass KI-Systeme zuverlässig und vorhersehbar arbeiten und keine unbeabsichtigten Schäden verursachen. Da
Deep Learning (DL) -Modelle immer autonomer werden
und in kritische Infrastrukturen integriert werden, nehmen die potenziellen Folgen von Systemausfällen erheblich zu. Das
Hauptziel der KI-Sicherheit ist es, Risiken zu erkennen, zu analysieren und zu mindern, die sich aus technischen Störungen, unerwartetem
unerwarteten Verhaltensweisen oder der Diskrepanz zwischen den Zielen der KI und den menschlichen Werten entstehen. Diese Disziplin umfasst ein breites Spektrum an
Praktiken, von strengen Modelltests bis hin zur
Entwicklung von mathematischen Garantien für das Systemverhalten.
Grundpfeiler der AI-Sicherheit
Um vertrauenswürdige Systeme zu entwickeln, konzentrieren sich Forscher und Ingenieure auf mehrere Grundpfeiler, die sicherstellen, dass
Modelle des maschinellen Lernens (ML) unter verschiedenen
unter verschiedenen Bedingungen korrekt funktionieren.
-
Robustheit: Ein robustes System muss seine Leistung auch dann beibehalten, wenn es auf unerwartete Daten oder
nachteiligen Bedingungen. Dies beinhaltet die Verteidigung gegen
Angriffe, bei denen böswillige Eingaben
um ein Modell zu täuschen. Zum Beispiel sollte ein
Computer Vision (CV) -System sollte nicht
ein Stoppschild nur wegen eines Aufklebers oder schlechter Beleuchtung falsch klassifizieren.
-
Angleichung: Dies bezieht sich auf die Herausforderung, KI-Systeme zu entwerfen, deren Ziele genau die
menschlichen Absichten widerspiegeln. Eine Fehlanpassung kann auftreten, wenn ein Modell eine "Abkürzung" findet, um eine hohe Punktzahl bei seiner
Verlustfunktion zu erreichen und dabei Sicherheitsvorgaben zu verletzen, ein
Konzept, das vom Center for Human-Compatible AI eingehend untersucht wurde.
-
Interpretierbarkeit: Auch bekannt als
Erklärbare KI (XAI), dieses Prinzip
betont die Schaffung von Modellen, die Menschen verstehen können. Wenn ein Entscheidungssystem versagt, müssen Ingenieure in der Lage sein
die internen Modellgewichte oder Aktivierungskarten
um den Fehler zu diagnostizieren und ein erneutes Auftreten zu verhindern.
-
Überwachung: Kontinuierliche
Modellüberwachung ist unerlässlich, um detect
Datenabweichung, bei der die Daten, auf die ein Modell in der
der realen Welt von den Trainingsdaten abweicht,
was zu unsicheren Vorhersagen führen kann.
Anwendungsfälle in der Praxis
KI-Sicherheit ist nicht nur theoretisch, sondern eine entscheidende Voraussetzung für den Einsatz von
KI im Automobil- und Gesundheitssektor.
-
Autonomes Fahren: Selbstfahrende Fahrzeuge verlassen sich auf
Objekterkennungsmodellen zur Identifizierung von Fußgängern,
andere Fahrzeuge und Hindernisse. Zu den Sicherheitsprotokollen gehören Redundanz - Verwendung von LiDAR und Radar neben Kameras - und
"Unsicherheitsabschätzung", bei der das Auto langsamer wird oder einen Menschen zum Eingreifen auffordert, wenn die KI unsicher ist
über ein Objekt ist. Organisationen wie Waymo veröffentlichen detaillierte Sicherheits
Methoden, um diese Wahrnehmungssysteme zu validieren.
-
Medizinische Diagnostik: Unter
medizinischen Bildanalyse muss eine KI, die den
Radiologen die Genauigkeit maximieren und gleichzeitig die
Falsch-Negative minimieren. Zu den Sicherheitsmechanismen gehört häufig ein "Human-in-the-Loop"-Arbeitsablauf, bei dem die KI nur
die KI nur potenzielle Probleme zur Überprüfung durch den Arzt kennzeichnet, anstatt selbständig eine endgültige Diagnose zu stellen, so dass die
Priorität hat, wie in
KI-Lösungen im Gesundheitswesen.
Implementierung von Sicherheitsschwellenwerten im Code
Eine grundlegende Methode zur Verbesserung der Sicherheit beim Einsatz ist die Einführung strenger Vertrauensschwellen. Durch das Ignorieren
können Entwickler verhindern, dass ein KI-Agent aufgrund schwacher oder verrauschter Daten handelt.
Das folgende Beispiel zeigt, wie man Vorhersagen mit Hilfe der
Ultralytics YOLO11 Modell gefiltert werden, um sicherzustellen, dass nur
Erkennungen verarbeitet werden.
from ultralytics import YOLO
# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")
# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)
# Process only the safe, high-confidence detections
for result in results:
print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")
KI-Sicherheit vs. KI-Ethik
Obwohl diese Begriffe oft synonym verwendet werden, betreffen sie unterschiedliche Aspekte der
verantwortungsvollen KI-Entwicklung.
-
KI-Sicherheit ist in erster Linie eine technische Frage. Es geht um die Frage: "Wird dieses System wie geplant funktionieren, ohne
abstürzt oder physische Unfälle verursacht?" Sie befasst sich mit Zuverlässigkeit, Kontrolle und Fehlervermeidung, ähnlich wie die
Sicherheitstechnik in der Zivilluftfahrt.
-
KI-Ethik ist gesellschaftlich und moralisch. Sie fragt: "Ist dieses System fair, und sollten wir es bauen?"
Sie konzentriert sich auf Themen wie algorithmische Verzerrungen,
Datenschutz und die sozioökonomischen Auswirkungen der
Automatisierung. Tiefere Einblicke erhalten Sie in unserem Glossareintrag zu
KI-Ethik.
Rahmenwerke wie das
NIST AI Risk Management Framework bieten
Richtlinien für Organisationen, um sowohl Sicherheits- als auch ethische Risiken anzugehen. Da sich die Modelle in Richtung
Artificial General Intelligence (AGI) entwickeln, wird die Zusammenarbeit zwischen Sicherheitsforschern an Instituten wie dem
Future of Life Institute und Entwicklern aus der Industrie immer wichtiger, um
um sicherzustellen, dass die Technologie für die Menschheit nützlich bleibt.