S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
← Blog/EU AI Act
EU AI ActAktuell

EU AI Act: Diese KI-Systeme sind in der EU vollständig verboten

s
sicherheit.ai Redaktion
Basierend auf: EU AI Act (Verordnung 2024/1689), Europäisches Parlament, European AI Office
08. Mai 2026·11 min Lesezeit
#EU AI Act#Regulierung#Verbotene KI#Biometrie#Social Scoring#Compliance

Der EU AI Act definiert klare Verbote für KI-Systeme, die Grundrechte gefährden. Social Scoring, Echtzeit-Biometrieüberwachung und unterschwellige Manipulation sind ab Februar 2025 verboten. Bußgelder erreichen bis zu 35 Millionen Euro.

Was ist der EU AI Act?

Der EU Artificial Intelligence Act (EU AI Act) ist die weltweit erste umfassende gesetzliche Regulierung für künstliche Intelligenz. Er wurde am 13. März 2024 vom Europäischen Parlament verabschiedet und trat am 1. August 2024 in Kraft. Das Gesetz verfolgt einen risikobasierten Ansatz: KI-Systeme werden in vier Risikokategorien eingeteilt, von unakzeptablem Risiko (verboten) über Hochrisiko (streng reguliert) bis zu minimalem Risiko (kaum Anforderungen).

Der EU AI Act gilt für alle Anbieter, die KI-Systeme in der EU in Verkehr bringen, unabhängig davon, ob das Unternehmen seinen Sitz in der EU hat. Die Umsetzung erfolgt gestaffelt: Erste Verbote gelten ab Februar 2025.

Vollständig verbotene KI-Systeme (Artikel 5)

Artikel 5 des EU AI Act listet KI-Anwendungen auf, die als Bedrohung für Grundrechte eingestuft werden und in der EU vollständig verboten sind. Diese Verbote gelten ab 2. Februar 2025.

1. KI-basiertes Social Scoring

Verboten sind KI-Systeme, die das Verhalten natürlicher Personen oder sozialer Gruppen bewerten und auf Basis dieser Bewertung zu Benachteiligungen führen. Dies betrifft insbesondere staatliche Social-Credit-Systeme, aber auch privatwirtschaftliche Scoring-Systeme, die über legitime Kreditwürdigkeitsprüfungen hinausgehen.

2. Unterschwellige Manipulation

KI-Systeme, die Techniken einsetzen, die außerhalb des Bewusstseins einer Person wirken (subliminale Techniken), um das Verhalten von Personen auf eine Weise zu beeinflussen, die ihnen schaden kann, sind verboten.

3. Biometrische Kategorisierung für sensible Merkmale

Verboten ist die Nutzung biometrischer Kategorisierungssysteme, die natürliche Personen anhand sensibler Merkmale wie politischer oder religiöser Überzeugung, sexueller Orientierung oder Rasse einteilen.

4. Echtzeit-Biometrie im öffentlichen Raum (mit Ausnahmen)

Der Einsatz von KI-Systemen zur biometrischen Echtzeit-Fernidentifikation in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden ist grundsätzlich verboten. Ausnahmen gelten nur für sehr schwere Straftaten und müssen gerichtlich genehmigt werden.

5. Emotion Recognition in sensiblen Kontexten

KI-Systeme zur Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen sind verboten. Ausnahmen gelten für medizinische oder sicherheitsrelevante Anwendungen.

6. Predictive Policing auf Basis persönlicher Merkmale

Verboten sind KI-Systeme, die ausschließlich auf Basis von Persönlichkeitsmerkmalen oder früheren Straftaten das Risiko einer Person für zukünftige Straftaten vorhersagen.

Hochrisiko-KI-Systeme und ihre Pflichten

Neben den verbotenen KI-Systemen definiert der EU AI Act eine Kategorie von Hochrisiko-KI, die streng reguliert, aber erlaubt ist:

  • KI in kritischer Infrastruktur (Energie, Wasser, Verkehr)
  • KI-gestützte Einstellungssysteme und HR-Tools
  • KI in der Bildung (Bewertung von Schülern und Studierenden)
  • KI in Strafverfolgung und Justiz
  • KI in der Kreditwürdigkeitsprüfung und Versicherungen

Für Hochrisiko-KI gelten umfangreiche Pflichten: Risikomanagement-System, Datenqualitätssicherung, technische Dokumentation, Transparenzpflichten, menschliche Aufsicht und CE-Kennzeichnung.

Zeitplan der Verbote und Bußgelder

  • 1. August 2024: Inkrafttreten des Gesetzes
  • 2. Februar 2025: Verbote für unakzeptable Risiken (Artikel 5)
  • 2. August 2025: Regeln für General-Purpose AI (GPAI)
  • 2. August 2026: Vollständige Anwendung aller Pflichten für Hochrisiko-KI

Die Bußgelder: Bis 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen die Verbote nach Artikel 5. Bis 15 Millionen Euro oder 3% für andere Verstöße.

"Der EU AI Act setzt globale Standards. Unternehmen, die heute in Compliance investieren, vermeiden nicht nur Bußgelder, sondern sichern sich einen Wettbewerbsvorteil auf dem europäischen Markt." – Europäisches Parlament, März 2024

#EU AI Act#Regulierung#Verbotene KI#Biometrie#Social Scoring#Compliance
// FAQ

Häufige Fragen

Q01

Gilt der EU AI Act auch für Unternehmen außerhalb der EU?

Ja. Der EU AI Act gilt für alle Anbieter, die KI-Systeme auf dem EU-Markt in Verkehr bringen oder in Betrieb nehmen, unabhängig vom Unternehmenssitz. Dies betrifft explizit US-amerikanische, chinesische und andere internationale Technologieunternehmen.

Q02

Was passiert, wenn ein Unternehmen ein verbotenes KI-System bereits einsetzt?

Unternehmen müssen verbotene Systeme bis zum 2. Februar 2025 einstellen. Es gibt keine Übergangsfrist. Die zuständigen nationalen Marktaufsichtsbehörden können Bußgelder verhängen und den sofortigen Betriebsstopp anordnen.

Q03

Wie unterscheiden sich "verbotene KI" und "Hochrisiko-KI"?

Verbotene KI nach Artikel 5 ist vollständig untersagt. Hochrisiko-KI ist erlaubt, unterliegt aber strengen Anforderungen: technische Dokumentation, Konformitätsbewertung, Registrierung und menschliche Aufsicht.

Q04

Sind KI-Chatbots wie ChatGPT vom EU AI Act betroffen?

Ja. Große Sprachmodelle fallen unter die Kategorie "General-Purpose AI" (GPAI). Ab August 2025 gelten für GPAI-Anbieter spezifische Transparenz-, Dokumentations- und Sicherheitspflichten.

Q05

Was ist die European AI Office und welche Rolle spielt sie?

Das European AI Office wurde als zentrale EU-Behörde für die Durchsetzung des EU AI Acts eingerichtet. Es ist primär für die Aufsicht über GPAI-Anbieter zuständig und koordiniert die Entwicklung von Verhaltenskodizes und technischen Standards.

s
sicherheit.ai Redaktion
Basierend auf: EU AI Act (Verordnung 2024/1689), Europäisches Parlament, European AI Office
Experte für KI-Sicherheit und Cybersecurity bei sicherheit.ai