S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
KI

LLM-Sicherheit

Schutz von Large Language Models vor Manipulation, Datenlecks und missbräuchlicher Nutzung.

🧒
Einfach erklärt
Für jeden verständlich — ohne Vorkenntnisse

LLMs sind super-kluge KI-Chatbots wie ChatGPT. LLM-Sicherheit ist wie Regeln für diesen Roboter: Er soll helfen — aber er darf nicht dazu gebracht werden, gefährliche Dinge zu sagen, Geheimnisse zu verraten oder Menschen zu schaden. Hacker versuchen diese Regeln zu umgehen.

Ausführliche Erklärung

Hauptrisiken: Prompt Injection, Training Data Extraction, Model Inversion und Jailbreaking. OWASP Top 10 für LLMs definiert die kritischsten Schwachstellen.

>Wie funktioniert das?

1

Risiko 1 — Prompt Injection: Nutzer gibt versteckte Befehle ein, die Sicherheitsregeln umgehen

2

Risiko 2 — Jailbreaking: Kreative Formulierungen überreden das Modell zu verbotenen Ausgaben

3

Risiko 3 — Data Extraction: Das Modell verrät versehentlich Trainingsdaten (z.B

4

echte E-Mails)

5

Risiko 4 — Indirect Injection: Böse Anweisungen versteckt in Dokumenten, die der Bot verarbeitet.

?Häufig gestellte Fragen
Antwort

KI-Anbieter wie OpenAI, Anthropic und Google, aber auch Unternehmen die LLMs in ihre Produkte einbauen und letztlich die Nutzer selbst.

Antwort

Der Schutz von Large Language Models vor Prompt Injection, Datenlecks, Jailbreaking und missbräuchlicher Nutzung für schädliche Zwecke.

Antwort

Um sicherzustellen, dass KI-Chatbots keine schädlichen Inhalte erzeugen, keine vertraulichen Daten verraten und nicht für Angriffe missbraucht werden.

Antwort

Weil sie auf natürlicher Sprache basieren und kreative oder verschachtelte Formulierungen bestehende Sicherheitsmechanismen umgehen können.

Antwort

Durch Input-Sanitierung, Output-Filterung, das Least-Privilege-Prinzip für System-Prompts und regelmäßige Red-Team-Tests.

Quick Facts
KategorieKI
Verwandte Begriffe2
← Zurück zum Glossar
Alle Begriffe im Glossar
APTBrute-Force-AngriffBotnetCVECredential StuffingDDoSEDRFirewallHoneypotIDSKI-Angriff (Adversarial AI)Lateral MovementLLM-SicherheitMalwareMFANetzwerksegmentierungOSINTPasskeysPatch ManagementPhishingPrompt InjectionRansomwareSIEMSocial EngineeringSQL-InjectionThreat IntelligenceTTPWAFXDRZero-DayZero Trust