S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
KI

KI-Angriff (Adversarial AI)

Angriff der KI-Systeme durch manipulierte Eingabedaten täuscht oder deren Ausgabe gezielt beeinflusst.

🧒
Einfach erklärt
Für jeden verständlich — ohne Vorkenntnisse

Stell dir vor, du trainierst einen Hund, Äpfel von Birnen zu unterscheiden. Dann zeigst du ihm einen Apfel mit einem winzigen Aufkleber drauf — und er sagt "Birne!" Der Aufkleber ist für uns unsichtbar, aber der Hund (die KI) lässt sich komplett täuschen. So tricksen Hacker KI-Systeme aus.

Ausführliche Erklärung

Adversarial Examples sind speziell präparierte Eingaben, die für Menschen normal wirken, KI-Modelle aber täuschen. Model Poisoning vergiftet Trainingsdaten, Prompt Injection manipuliert LLM-Ausgaben.

>Wie funktioniert das?

1

Adversarial Examples: Minimale Pixel-Änderungen in Bildern, die Menschen nicht sehen, aber KI komplett falsch klassifizieren lassen

2

Model Poisoning: Trainingsdaten des KI-Modells werden manipuliert

3

Model Inversion: Angreifer extrahiert Trainingsdaten aus dem Modell

4

Prompt Injection: Bei LLMs werden Sicherheitsregeln durch versteckte Anweisungen umgangen.

?Häufig gestellte Fragen
Antwort

Staatliche Akteure, Sicherheitsforscher für defensive Zwecke und zunehmend auch kriminelle Gruppen, die KI-basierte Sicherheitssysteme umgehen wollen.

Antwort

Angriffe die KI-Systeme durch manipulierte Eingaben täuschen oder deren Trainingsdaten vergiften, um falsche Entscheidungen zu provozieren.

Antwort

Zum Umgehen von KI-basierten Sicherheitssystemen wie Gesichtserkennung, Spam-Filter, autonomen Fahrzeugen oder Betrugserkennung.

Antwort

Weil sie Muster aus Trainingsdaten lernen und durch gezielte Veränderungen von Eingaben oder Trainingsdaten täuschbar sind.

Antwort

Durch Adversarial Training, Input-Validierung, kontinuierliches Modell-Monitoring und regelmäßige Red-Team-Tests gegen KI-Systeme.

Quick Facts
KategorieKI
Verwandte Begriffe2
← Zurück zum Glossar
Alle Begriffe im Glossar
APTBrute-Force-AngriffBotnetCVECredential StuffingDDoSEDRFirewallHoneypotIDSKI-Angriff (Adversarial AI)Lateral MovementLLM-SicherheitMalwareMFANetzwerksegmentierungOSINTPasskeysPatch ManagementPhishingPrompt InjectionRansomwareSIEMSocial EngineeringSQL-InjectionThreat IntelligenceTTPWAFXDRZero-DayZero Trust