Einleitung:
Die gesetzliche Rahmung Künstlicher Intelligenz in Europa ist keine ferne Zukunftsvision mehr, sondern greifbare Realität. Mit dem Voranschreiten des EU AI Act und den aktuellen nationalen Durchführungsgesetzen stehen Unternehmen vor der Aufgabe, ihre Innovationskraft mit regulatorischer Compliance in Einklang zu bringen. Ziel ist es, einen einheitlichen Rechtsrahmen zu schaffen, der Sicherheit und Vertrauen garantiert, ohne den technologischen Fortschritt zu ersticken. Doch was bedeutet der aktuelle Regierungsentwurf konkret für die Praxis? In diesem Beitrag beleuchten wir die zentralen Aufsichtsstrukturen, die kritische „30-Tage-Regel“ und die Herausforderungen, die sich durch die föderale Struktur sowie die Überschneidung mit bestehenden Gesetzen ergeben.
Die neue Aufsichtsarchitektur:
Zentrale Anlaufstellen und sektorale Zuständigkeiten
Der Regierungsentwurf zum deutschen AI-Act-Durchführungsgesetz ist da. Das Kabinett hat ihn am 10. Februar 2026 beschlossen, also vor ein paar Tagen. Das Herzstück bildet die Bundesnetzagentur, die als zentrale Aufsichtsbehörde fungiert. Um Unternehmen den Einstieg in die komplexe Regulierungswelt zu erleichtern, wurde das Koordinierungs- und Kompetenzzentrum für die KI-Verordnung (KoKIVO) ins Leben gerufen.
Die Struktur folgt dabei einer klaren Logik:
- Zentrale Bündelung
Das KoKIVO dient als fester Ansprechpartner für allgemeine Fragen und bietet spezielle Beratungsangebote für Startups sowie kleine und mittlere Unternehmen (KMU). - Sektorale Spezialisierung
Wo bereits etablierte Aufsichtsregime existieren, bleiben diese federführend. Ein Beispiel hierfür ist die BaFin, die weiterhin für KI-Anwendungen im Finanzsektor zuständig bleibt. - Beschwerdemanagement
Eine zentrale Stelle soll für die schnelle Klärung von Unstimmigkeiten sorgen und den bürokratischen Aufwand für Anwender minimieren. - Reallabore
Unternehmen erhalten Zugang zu nationalen KI-Reallaboren, um Systeme unter echten Bedingungen testen zu können.
Innovation durch Geschwindigkeit:
Die 30-Tage-Genehmigungsfiktion
Ein besonders wirtschaftsfreundliches Element des Entwurfs ist die Regelung für Tests unter Realbedingungen, die insbesondere für Entwickler von Hochrisiko-KI-Systemen relevant ist. Um langwierige Genehmigungsverfahren zu verhindern, setzt die Bundesregierung auf das Prinzip des Schweigens als Zustimmung.
Dies bedeutet im Detail:
- Automatische Erteilung
Wenn ein Unternehmen einen Testplan für ein Hochrisiko-System einreicht und die Behörde nicht innerhalb von 30 Tagen reagiert, gilt die Genehmigung rechtlich als erteilt. - Planungssicherheit
Diese „Genehmigungsfiktion“ (§14 Abs. 2) ermöglicht es Firmen, Entwicklungszyklen präziser zu planen und Innovationsstaus zu vermeiden. - Fokus auf Hochrisiko
Diese Regelung greift gezielt dort, wo die Anforderungen am höchsten sind, etwa bei Systemen im Bereich kritischer Infrastruktur oder im Bildungswesen.
Herausforderungen in der Umsetzung:
Föderalismus und Datenschutz-Synergien
Trotz der Bemühungen um Zentralisierung bleiben signifikante Hürden bestehen, die vor allem die Skalierbarkeit von KI-Produkten betreffen. Das sogenannte „16-Länder-Problem“ stellt insbesondere Anbieter vor Herausforderungen, deren Lösungen im öffentlichen Sektor der Bundesländer eingesetzt werden.
Kritische Punkte sind hierbei:
- Zersplitterte Zuständigkeit
Bei Anwendungen in den Bereichen Bildung oder Soziales bleiben die 16 Landesbehörden zuständig. Wer etwa eine KI-Lösung für Schulen bundesweit ausrollen möchte, muss potenziell mit 16 verschiedenen Aufsichten verhandeln. - Interpretationsspielräume
Es besteht das Risiko einer uneinheitlichen Auslegung der Vorschriften je nach Bundesland, was den Verwaltungsaufwand massiv erhöht. - DSGVO-Interaktion
Der AI Act steht nicht isoliert. Der Regierungsentwurf sieht vor, dass Datenschutzaufsichtsbehörden wie der BfDI aktiv in die Marktüberwachung einbezogen werden. Unternehmen müssen daher Transparenzpflichten und Risikofolgenabschätzungen beider Regelwerke synchronisieren.
Der Fahrplan zur Compliance:
Wichtige Fristen bis zum Vollinkrafttreten
Unternehmen sollten den Zeitplan für die Umsetzung fest im Blick behalten, um rechtzeitig auf die neuen Anforderungen reagieren zu können. Der parlamentarische Prozess ist bereits in vollem Gange.
Die nächsten Meilensteine sind:
- Frühjahr 2026
Abschluss des parlamentarischen Verfahrens zum deutschen Durchführungsgesetz. - 2. August 2026
Dies ist der entscheidende Stichtag.
Ab diesem Datum gilt der EU AI Act vollständig und uneingeschränkt.
Bis dahin gilt es, KI-Systeme zu inventarisieren, sie in Risikoklassen einzustufen und die notwendige „AI Literacy“ (KI-Kompetenz) im Team aufzubauen.
Fazit – Key Takeaways:
Der EU AI Act bietet durch das neue Durchführungsgesetz mit der 30-Tage-Regel und dem KoKIVO wichtige Ansätze für Innovationen. Dennoch fordern Verbände einen echten „One-Stop-Shop“, um den Verwaltungsmarathon durch 16 Landesbehörden zu verhindern. Bis zum 2. August 2026 müssen Unternehmen ihre Systeme klassifiziert und Prozesse an die Schnittstellen von EUR AI Act und DSGVO angepasst haben.
Möchten Sie sicherstellen, dass Ihre KI-Strategie den Anforderungen des EU AI Act standhält und gleichzeitig Ihre Wettbewerbsfähigkeit stärkt?
Erfahren Sie hier mehr über unsere KI-Strategieberatung auf golden-pocket.de.
