Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

KI-Sicherheit

Erfahren Sie mehr über KI-Sicherheit, ein wichtiges Feld zur Verhinderung unbeabsichtigter Schäden durch KI-Systeme. Entdecken Sie die wichtigsten Säulen, realen Anwendungen und die Rolle in der verantwortungsvollen KI.

AI Safety ist ein spezieller Bereich innerhalb der Künstlichen Intelligenz (KI), der sich darauf konzentriert sicherzustellen, dass KI-Systeme zuverlässig und vorhersehbar arbeiten und keine unbeabsichtigten Schäden verursachen. Da Deep Learning (DL) -Modelle immer autonomer werden und in kritische Infrastrukturen integriert werden, nehmen die potenziellen Folgen von Systemausfällen erheblich zu. Das Hauptziel der KI-Sicherheit ist es, Risiken zu erkennen, zu analysieren und zu mindern, die sich aus technischen Störungen, unerwartetem unerwarteten Verhaltensweisen oder der Diskrepanz zwischen den Zielen der KI und den menschlichen Werten entstehen. Diese Disziplin umfasst ein breites Spektrum an Praktiken, von strengen Modelltests bis hin zur Entwicklung von mathematischen Garantien für das Systemverhalten.

Grundpfeiler der AI-Sicherheit

Um vertrauenswürdige Systeme zu entwickeln, konzentrieren sich Forscher und Ingenieure auf mehrere Grundpfeiler, die sicherstellen, dass Modelle des maschinellen Lernens (ML) unter verschiedenen unter verschiedenen Bedingungen korrekt funktionieren.

  • Robustheit: Ein robustes System muss seine Leistung auch dann beibehalten, wenn es auf unerwartete Daten oder nachteiligen Bedingungen. Dies beinhaltet die Verteidigung gegen Angriffe, bei denen böswillige Eingaben um ein Modell zu täuschen. Zum Beispiel sollte ein Computer Vision (CV) -System sollte nicht ein Stoppschild nur wegen eines Aufklebers oder schlechter Beleuchtung falsch klassifizieren.
  • Angleichung: Dies bezieht sich auf die Herausforderung, KI-Systeme zu entwerfen, deren Ziele genau die menschlichen Absichten widerspiegeln. Eine Fehlanpassung kann auftreten, wenn ein Modell eine "Abkürzung" findet, um eine hohe Punktzahl bei seiner Verlustfunktion zu erreichen und dabei Sicherheitsvorgaben zu verletzen, ein Konzept, das vom Center for Human-Compatible AI eingehend untersucht wurde.
  • Interpretierbarkeit: Auch bekannt als Erklärbare KI (XAI), dieses Prinzip betont die Schaffung von Modellen, die Menschen verstehen können. Wenn ein Entscheidungssystem versagt, müssen Ingenieure in der Lage sein die internen Modellgewichte oder Aktivierungskarten um den Fehler zu diagnostizieren und ein erneutes Auftreten zu verhindern.
  • Überwachung: Kontinuierliche Modellüberwachung ist unerlässlich, um detect Datenabweichung, bei der die Daten, auf die ein Modell in der der realen Welt von den Trainingsdaten abweicht, was zu unsicheren Vorhersagen führen kann.

Anwendungsfälle in der Praxis

KI-Sicherheit ist nicht nur theoretisch, sondern eine entscheidende Voraussetzung für den Einsatz von KI im Automobil- und Gesundheitssektor.

  1. Autonomes Fahren: Selbstfahrende Fahrzeuge verlassen sich auf Objekterkennungsmodellen zur Identifizierung von Fußgängern, andere Fahrzeuge und Hindernisse. Zu den Sicherheitsprotokollen gehören Redundanz - Verwendung von LiDAR und Radar neben Kameras - und "Unsicherheitsabschätzung", bei der das Auto langsamer wird oder einen Menschen zum Eingreifen auffordert, wenn die KI unsicher ist über ein Objekt ist. Organisationen wie Waymo veröffentlichen detaillierte Sicherheits Methoden, um diese Wahrnehmungssysteme zu validieren.
  2. Medizinische Diagnostik: Unter medizinischen Bildanalyse muss eine KI, die den Radiologen die Genauigkeit maximieren und gleichzeitig die Falsch-Negative minimieren. Zu den Sicherheitsmechanismen gehört häufig ein "Human-in-the-Loop"-Arbeitsablauf, bei dem die KI nur die KI nur potenzielle Probleme zur Überprüfung durch den Arzt kennzeichnet, anstatt selbständig eine endgültige Diagnose zu stellen, so dass die Priorität hat, wie in KI-Lösungen im Gesundheitswesen.

Implementierung von Sicherheitsschwellenwerten im Code

Eine grundlegende Methode zur Verbesserung der Sicherheit beim Einsatz ist die Einführung strenger Vertrauensschwellen. Durch das Ignorieren können Entwickler verhindern, dass ein KI-Agent aufgrund schwacher oder verrauschter Daten handelt.

Das folgende Beispiel zeigt, wie man Vorhersagen mit Hilfe der Ultralytics YOLO11 Modell gefiltert werden, um sicherzustellen, dass nur Erkennungen verarbeitet werden.

from ultralytics import YOLO

# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")

# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)

# Process only the safe, high-confidence detections
for result in results:
    print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")

KI-Sicherheit vs. KI-Ethik

Obwohl diese Begriffe oft synonym verwendet werden, betreffen sie unterschiedliche Aspekte der verantwortungsvollen KI-Entwicklung.

  • KI-Sicherheit ist in erster Linie eine technische Frage. Es geht um die Frage: "Wird dieses System wie geplant funktionieren, ohne abstürzt oder physische Unfälle verursacht?" Sie befasst sich mit Zuverlässigkeit, Kontrolle und Fehlervermeidung, ähnlich wie die Sicherheitstechnik in der Zivilluftfahrt.
  • KI-Ethik ist gesellschaftlich und moralisch. Sie fragt: "Ist dieses System fair, und sollten wir es bauen?" Sie konzentriert sich auf Themen wie algorithmische Verzerrungen, Datenschutz und die sozioökonomischen Auswirkungen der Automatisierung. Tiefere Einblicke erhalten Sie in unserem Glossareintrag zu KI-Ethik.

Rahmenwerke wie das NIST AI Risk Management Framework bieten Richtlinien für Organisationen, um sowohl Sicherheits- als auch ethische Risiken anzugehen. Da sich die Modelle in Richtung Artificial General Intelligence (AGI) entwickeln, wird die Zusammenarbeit zwischen Sicherheitsforschern an Instituten wie dem Future of Life Institute und Entwicklern aus der Industrie immer wichtiger, um um sicherzustellen, dass die Technologie für die Menschheit nützlich bleibt.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten