Der „AI-Act“ ist längst beschlossene Sache und wird bis August 2027 schrittweise zur Anwendung kommen. Die ersten gravierenden Änderungen bahnen sich bereits am Februar 2025 ihren Weg. Hierauf sollten alle betroffenen Akteure gut vorbereitet sein. Welche Regeln und Verbote werden nun gelten? Und vor allem wann?
Vertrauenswürdige und verantwortungsvolle KI-Innovationen in Europa sind das Ziel des frischen Gesetzes über künstliche Intelligenz (Verordnung (EU) 2024/1689) – des sog. „AI-Acts“. Am 01. August 2024 ist die Verordnung in Kraft getreten, inhaltlich gilt sie erst zu verschiedenen Zeitpunkten (Art. 113 AI-Act). In den kommenden Jahren kommen damit mehrere zentrale Bereiche des Gesetzes nach und nach zur Anwendung, unter anderem die Verbote bestimmter KI-Systeme, die Regulierung von Allzweck-KI (GPAI) und die Einsetzung von behördlichen Stellen. Flankiert wird das von den Regeln über Geldbußen. In den Folgejahren werden
Februar 2025: Verbotene KI-Systeme
An erster Stelle sind ab dem 2. Februar 2025 bestimmte KI-Systeme gänzlich verboten (Art. 5). Diese Systeme verstoßen laut dem EU-Gesetzgeber gegen ethische Regeln und dürfen daher weder vertrieben noch verwendet werden. Das umfasst Systeme, die menschliches Verhalten manipulieren, soziale Schwachstellen ausnutzen oder Gesichtserkennungsdatenbanken anlegen. Auch Systeme, die Menschen anhand bestimmter Merkmale klassifizieren (Social-Scoring) oder auf ein gewisses „Risiko“ untersuchen, sind verboten. Unzulässig sind außerdem Systeme zur Erkennung von Emotionen an Arbeitsplätzen und Bildungseinrichtungen oder von bestimmten persönlichen Merkmalen wie Ethnie, politische Meinung, Gewerkschaftszugehörigkeit oder Sexualleben. Ein Grenzfall ist die biometrische Fernidentifizierung mit Gesichtserkennung in öffentlichen Räumen. Diese war zuvor extrem umstritten, und ist jetzt nur noch grundsätzlich verboten, aber in einigen strengen Ausnahmefällen erlaubt. Als Ausnahme gilt die Suche nach vermissten Opfern von Menschenhandel und sexueller Ausbeutung, Verhinderung von Tötungsdelikten oder Terrorangriffen und die Identifizierung von konkreten Verdächtigten schwerer Straftaten.
Soforthilfe vom Anwalt
Sie brauchen rechtliche Beratung? Rufen Sie uns an für eine kostenlose Ersteinschätzung oder nutzen Sie unser Kontaktformular.
In der Gefahrenkategorie darunter liegen die „Hochrisiko-Systeme“, deren Vorschriften allerdings erst ab dem 2. August 2027 zu beachten sind. Das sind vor allem solche, bei denen Personenprofile erstellt und automatisiert ausgewertet werden, ohne dass eine menschliche Instanz dazwischensteht. Somit sind KI-Systeme, die Arbeitsleistung, Bewerbereignung, wirtschaftliche Lage oder andere persönliche Details auswerten und entsprechende „Entscheidungen“ treffen.
August 2025: Große KI-Entwickler müssen aktiv werden
Der 2. August 2025 ist eine wichtige Frist für Anbieter von „General Purpose“-Modellen (GPAI, dt.: „Allzweck-KI“). Dabei handelt es sich um KI-Modelle, die mit besonders großen Datenmengen trainiert wurden und daher „allgemein“ genug sind, um in eine Vielzahl von anderen Anwendungen integriert zu werden. Das wohl bekannteste Beispiel hierfür ist das Large-Language-Modell „GPT-4“ von OpenAI, das in ChatGPT und tausenden anderen Anwendungen eingesetzt wird.
GPAI, die vor dem 2. August 2025 auf den Markt gebracht wurden, müssen nun Maßnahmen ergreifen, um bis zum 2. August 2027 AI-Act-konform zu sein.
Sie müssen sie eine ausreichende technische Dokumentation aufstellen und Informationen bzw. Anleitungen zur Verfügung stellen, die Drittanbieter bei der Integration ihrer Modelle unterstützen. Zudem müssen sie eine interne Politik zur Einhaltung der EU-Urheberrechts-Richtlinie festlegen und die Trainingsdaten ihrer Modelle veröffentlichen. GPAI mit ab einer bestimmten Rechenstärke müssen ihr System außerdem tiefergehend auf Systemrisiken überprüfen und eine deutlich höhere Cybersicherheit gewährleisten.
August 2025: Sanktionen sind anwendbar, Behörden werden benannt
Am 2. August 2025 werden außerdem die Sanktionsvorschriften (Art. 99 u. 100) des AI-Act anwendbar. Wer ein verbotenes KI-System einsetzt oder vertreibt, muss ab August mit empfindlichen Bußgeldern von bis zu 35 Millionen Euro oder 7% des Vorjahresumsatzes rechnen. Andere Verstöße gegen den AI-Act, etwa gegen Transparenzpflichten, sind mit bis zu 15.000.000 Euro oder 3% des Umsatzes bewährt.
Ebenfalls ab August haben die Mitgliedsstaaten nationale Behörden zu benennen, die für die Überwachung und AI-Act-Compliance-Bewertungen zuständig sind (sog. „notifizierende Behörden“, Art. 28 AI-Act.
August 2026: Restliche Bestimmungen inkl. Transparenzpflichten (Art. 50)
Ab dem 2. August 2026 finden die restlichen Bestimmungen des AI-Acts Anwendung, mit Ausnahme der Regeln für Hochrisiko-Systeme. Für Nutzer populärer KI-Apps werden dabei vor allem die Transparenz- und Kennzeichnungspflichten des Art. 50 interessant sein. Entgegen einigen Befürchtungen muss nicht der Endnutzer diese Pflichten erfüllen, sondern der Anbieter bzw. Entwickler des KI-Systems. Im Ergebnis werden diese Änderungen für den Endnutzer aber immerhin am ehesten spürbar.
Laut Art. 50 müssen KI-Systeme, die für die „direkte Interaktion“ mit Personen bestimmt sind (zB Chatbots) offen legen, dass der Nutzer mit einem KI-System interagiert. Generierte Audio-, Bild, Video, oder Text-Inhalte müssen außerdem digital als KI-generiert gekennzeichnet werden. Dabei ist es Sache der Anbieter, die konkrete Methode auszuwählen. Fest steht nur, dass die Kennzeichnung „maschinenlesbar“ ist, also etwa in Form eines digitalen Wasserzeichens.
Ähnliche Vorgaben gelten für DeepFakes. Auch hier hat der Anbieter des KI-Systems „offen zu legen“, dass es sich bei den generierten Inhalten um künstlich erzeugten bzw. manipulierten Content handelt.
August 2027: Regeln für Hochrisiko-Systeme
Eine vergleichsweise lange Bedenkzeit haben neben den GPAI-Anbietern auch Anbieter von sog. „Hochrisiko-Systemen“. Das sind KI-Systemen, die zwar nicht verboten, aber doch ein gewisses Risiko für die Gesellschaft bergen. Das sind vor allem solche, bei denen Personenprofile erstellt und automatisiert ausgewertet werden, ohne dass eine menschliche Instanz dazwischensteht. Somit sind KI-Systeme, die Arbeitsleistung, Bewerbereignung, wirtschaftliche Lage oder andere persönliche Details auswerten und entsprechende „Entscheidungen“ treffen, stets Hochrisiko-Systeme im Sinne des AI-Acts. Ziel dieser Verbote ist unter anderem, dem „Bias“, also der „Voreingenommenheit“ von KI-Systemen zu begegnen, deren Trainingsdaten vor allem die Mehrheitsgesellschaft abbilden. Damit sollen bestimmte diskriminierende Ergebnisse verhindert werden. Unter Hochrisikosysteme lassen sich etwa KI-Systeme für Bewerbungsauswertungen, interne Arbeit für Gerichte und Behörden, Wahlanalysen oder „kritische Infrastruktur“, also die Versorgung mit Wasser, Gas und Energie fassen. Für all diese Systeme gelten die denkbar strengsten Vorschriften und sie müssen ihre Konformität von Behörden bewerten lassen.
Konkret müssen Anbieter hier eine Fülle an Maßnahmen ergreifen: Sie benötigen etwa ein eigenes System zur konstanten Risikoanalyse und müssen Sicherheit für die Fehlerfreiheit ihrer Trainingsdatensätze bieten. Ähnlich den GPAI müssen auch Hochrisiko-Systeme weitreichende technische Unterlagen zur Verfügung stellen und für eine automatische Aufzeichnung von Sicherheitsvorfällen sorgen. Auch hier müssen Gebrauchsanweisungen für nachgeschaltete Drittanbieter zur Verfügung gestellt werden. Außerdem muss die Möglichkeit geschaffen werden, jederzeit eine menschliche Aufsicht einzurichten. Auch in Sachen Cybersicherheit und Qualitätsmanagement bestehen besondere detaillierte Anforderungen.
the