EU AI Act Compliance-Infrastruktur: Systeme entwickeln, die Europas KI-Vorschriften erfüllen
Aktualisiert am 8. Dezember 2025
Update Dezember 2025: GPAI-Pflichten seit 2. August 2025 in Kraft. AI Office operativ und gibt Leitlinien heraus. Verhaltenskodex im Juli 2025 veröffentlicht mit Compliance-Pfaden. Anforderungen für Hochrisiko-KI-Systeme treten August 2026 in Kraft. Bußgelder bis zu 35 Mio. € oder 7% des weltweiten Umsatzes bei Verstößen. Technische Dokumentation, Protokollierung und Audit-Trail-Infrastruktur werden für den EU-Marktzugang verpflichtend. Geschätzte 18% der Unternehmens-KI-Systeme als hochriskant eingestuft, die Konformitätsbewertungen erfordern.
Der EU AI Act wurde zur weltweit ersten umfassenden KI-Regulierung, als die Durchsetzung am 2. August 2025 begann, und Organisationen stellten fest, dass Compliance weit mehr erfordert als aktualisierte Datenschutzrichtlinien.¹ Unternehmen, die europäische Märkte bedienen, stehen nun vor Infrastrukturanforderungen, die technische Dokumentation, automatische Protokollierung, Datenherkunftsverfolgung und Audit-Trails umfassen, die ihre bestehenden KI-Systeme nicht erfüllen können. Die Frist August 2026 für die Compliance von Hochrisiko-KI-Systemen nähert sich, während den meisten Organisationen die technische Architektur fehlt, um Konformität nachzuweisen. Der Aufbau einer konformen KI-Infrastruktur erfordert das Verständnis sowohl der regulatorischen Anforderungen als auch der technischen Systeme, die zu ihrer Erfüllung benötigt werden.
Das regulatorische Rahmenwerk, das Organisationen navigieren müssen
Der EU AI Act etabliert ein risikobasiertes Klassifizierungssystem, das die Compliance-Pflichten bestimmt. Verbotene Praktiken – einschließlich Social Scoring, biometrischer Echtzeit-Identifikation an öffentlichen Orten und Emotionserkennung am Arbeitsplatz – wurden am 2. Februar 2025 illegal.² Pflichten für General-Purpose AI (GPAI)-Modelle traten am 2. August 2025 in Kraft. Anforderungen für Hochrisiko-KI-Systeme gelten ab 2. August 2026, mit vollständiger Durchsetzung über alle Risikokategorien bis August 2027.
Verbotene KI-Praktiken unterliegen sofortiger Durchsetzung mit Bußgeldern bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist.³ Organisationen müssen bestehende KI-Einsätze prüfen, um Systeme zu identifizieren, die menschliches Verhalten manipulieren, Schwachstellen ausnutzen oder biometrische Echtzeit-Überwachung ermöglichen, die nach dem Gesetz verboten ist.
General-Purpose AI-Modelle (solche, die mit mehr als 10²³ FLOPS trainiert wurden und Text, Bilder oder Video generieren können) müssen technische Dokumentation führen, Zusammenfassungen der Trainingsdaten veröffentlichen und das EU-Urheberrecht einhalten.⁴ Modelle, die 10²⁵ FLOPS überschreiten, unterliegen zusätzlichen Anforderungen für systemische Risiken, einschließlich Modellevaluierungen, Vorfallmeldungen und Cybersicherheitsmaßnahmen.
Hochrisiko-KI-Systeme umfassen KI, die als Sicherheitskomponenten in regulierten Produkten verwendet wird, sowie Systeme, die in sensiblen Bereichen eingesetzt werden, darunter kritische Infrastruktur, Beschäftigung, Bildung, Strafverfolgung und Grenzkontrolle.⁵ Diese Systeme erfordern Risikomanagementprozesse, Data-Governance-Rahmenwerke, technische Dokumentation, Aufzeichnungsfähigkeiten, Mechanismen für menschliche Aufsicht und Konformitätsbewertungen durch Dritte.
Die Europäische Kommission schätzte, dass 5-15% der KI-Anwendungen als hochriskant qualifiziert würden, aber Forschung von appliedAI, die 106 Unternehmens-KI-Systeme analysierte, ergab 18% klar hochriskant, 42% niedrigriskant und 40%, die eine Einzelfallklassifizierung erfordern.⁶ Organisationen können nicht davon ausgehen, dass ihre Systeme den Hochrisiko-Pflichten entgehen, ohne eine formelle Bewertung durchzuführen.
GPAI-Compliance wurde im August 2025 verpflichtend
Anbieter von General-Purpose AI-Modellen standen am 2. August 2025 vor ihrer ersten verbindlichen Frist, wobei die Durchsetzungsinfrastruktur nun operativ ist. Das AI Office – die EU-Behörde, die die GPAI-Compliance überwacht – begann, Dokumentation von Modellanbietern anzufordern und kann ab August 2026 Bußgelder verhängen.⁷
Anforderungen an die technische Dokumentation schreiben vor, dass GPAI-Anbieter detaillierte Aufzeichnungen über Modellarchitektur, Trainingsmethodik, verwendete Rechenressourcen und Evaluierungsergebnisse führen.⁸ Die Dokumentation muss nachweisen, dass Modelle wie beabsichtigt funktionieren und vorhersehbare Risiken identifizieren. Der Dokumentationsstandard gilt für alle GPAI-Modelle, unabhängig davon, ob Anbieter sie als Open-Source klassifizieren.
Pflichten zur Transparenz der Trainingsdaten erfordern die Veröffentlichung einer „ausreichend detaillierten Zusammenfassung" der für das Training verwendeten Inhalte.⁹ Die Anforderung zielt darauf ab, Urheberrechtsinhabern zu ermöglichen, festzustellen, ob ihre Werke ohne Genehmigung verwendet wurden. Anbieter müssen Mechanismen implementieren, damit Urheberrechtsinhaber gegebenenfalls Opt-out-Rechte ausüben können.
Urheberrechts-Compliance verlangt, dass Anbieter das EU-Urheberrecht einhalten, einschließlich der Ausnahmen für Text- und Data-Mining. Organisationen, die urheberrechtlich geschützte Inhalte für das Training ohne ordnungsgemäße Genehmigung gescraped haben, sind sowohl nach dem AI Act als auch nach bestehenden Urheberrechtsrahmenwerken haftbar.
Modelle mit systemischem Risiko (solche, die 10²⁵ FLOPS überschreiten) unterliegen zusätzlichen Pflichten, einschließlich adversarialer Tests, Risikobewertung und -minderung, Vorfallverfolgung und -meldung sowie angemessener Cybersicherheitsschutzmaßnahmen.¹⁰ Anbieter müssen die Kommission innerhalb von zwei Wochen nach Erreichen oder Voraussehen des Rechenschwellenwerts benachrichtigen.
Der GPAI Code of Practice, veröffentlicht im Juli 2025, bietet einen freiwilligen Compliance-Pfad. Die Einhaltung „erhöht das Vertrauen der Kommission", während Nichteinhaltung „eine größere Anzahl von Informationsanfragen und Zugangsanfragen" auslöst.¹¹ Der Kodex deckt die Bereiche Transparenz, Urheberrecht und Sicherheit ab. Unterzeichner profitieren von vermuteter Compliance; Nicht-Unterzeichner müssen die Konformität unabhängig durch detaillierte Dokumentation oder Gap-Analysen nachweisen.
Anforderungen an die Infrastruktur für technische Dokumentation
Artikel 11 des AI Act schreibt vor, dass Hochrisiko-KI-Systeme technische Dokumentation führen, die vor dem Inverkehrbringen erstellt und kontinuierlich aktualisiert wird.¹² Die Dokumentation muss die regulatorische Compliance in „klarer und umfassender Form" für nationale Behörden und notifizierte Stellen nachweisen, die Bewertungen durchführen.
Erforderliche Dokumentationselemente umfassen:
- Allgemeine Beschreibung des KI-Systems einschließlich Zweckbestimmung und Anbieteridentifikation
- Detaillierte Beschreibung der Systemelemente und Entwicklungsprozesse
- Informationen über Überwachungs-, Funktions- und Kontrollmechanismen
- Beschreibung der Angemessenheit der Leistungsmetriken
- Umfassende Dokumentation des Risikomanagementsystems
- Relevante Lebenszyklusänderungen und Modifikationshistorie
- Bei der Entwicklung angewandte technische Standards
- EU-Konformitätserklärung
- Systeme zur Post-Market-Leistungsbewertung
KMU und Start-ups können vereinfachte Dokumentation bereitstellen, obwohl die reduzierten Anforderungen immer noch über das hinausgehen, was die meisten Organisationen derzeit führen.¹³ Die praktische Herausforderung besteht darin, diese Dokumentation kontinuierlich zu generieren und zu pflegen, während sich die Systeme weiterentwickeln – nicht statische Dokumente zu erstellen, die schnell veralten.
Infrastrukturimplikationen erfordern Systeme, die automatisch Entwicklungsartefakte erfassen, Modellversionen verfolgen, Trainingskonfigurationen aufzeichnen und Evaluierungsergebnisse bewahren. Manuelle Dokumentationsprozesse können nicht auf die kontinuierliche Compliance-Überwachung skaliert werden, die das Gesetz erfordert. Organisationen benötigen MLOps-Plattformen mit integrierter Dokumentationsgenerierung, Versionskontrollsysteme, die Entscheidungsbegründungen bewahren, und Integration zwischen Entwicklungsumgebungen und Compliance-Aufzeichnungen.
Moderne ML-Plattformen wie MLflow, Weights & Biases und Neptune.ai bieten Teillösungen für Experiment-Tracking und Modellversionierung. Die meisten Plattformen verfügen jedoch nicht über Funktionen, die speziell für regulatorische Dokumentation entwickelt wurden – um die strukturierten Aufzeichnungen zu generieren, die Behörden benötigen, anstatt entwicklerfokussierter Experimentprotokolle. Zweckgebundene Compliance-Tools entstehen, um diese Lücke zu schließen.
Infrastruktur für Protokollierung und Audit-Trails
Artikel 12 schreibt vor, dass Hochrisiko-KI-Systeme „technisch die automatische Aufzeichnung von Ereignissen (Logs) über die Lebensdauer des Systems ermöglichen" müssen.¹⁴ Die Protokollierungsfähigkeiten müssen eine Rückverfolgbarkeit ermöglichen, die der Zweckbestimmung des Systems angemessen ist – vage Formulierungen, die die Durchsetzung im Laufe der Zeit klären wird.
Anforderungen an Log-Inhalte umfassen:
- Log-Metadaten: Systemidentifikation, Zeitstempel, Dokumentation der Aufbewahrungsfrist (mindestens 6 Monate erforderlich)
- Betriebsdetails: Pseudonymisierte Benutzer- und Client-Kennungen, Anfrageparameter, Aufrufkontext
- Modelldetails: Technische Informationen über das verwendete KI-Modell, Leistungsmetriken, Feature-Importance-Scores
- Entscheidungsdetails: Ausgabeaufzeichnungen, Konfidenzniveaus, Maßnahmen menschlicher Aufsicht, Override-Dokumentation¹⁵
Infrastrukturherausforderungen potenzieren sich im Produktionsmaßstab. KI-Systeme generieren massive Log-Volumina, die effiziente Komprimierungs- und Speicherlösungen erfordern. Logs müssen spezifische Metadaten enthalten, die Compliance-Anforderungen erfüllen, und gleichzeitig für die Verifizierung abfragbar bleiben. Aufbewahrungsfristen erstrecken sich über Jahre für Systeme mit langen operativen Lebenszyklen.¹⁶
Traditionelle Anwendungs-Logging-Infrastruktur erweist sich als unzureichend. Standard-Log-Aggregationstools wie Elasticsearch, Splunk oder Datadog erfassen operationale Telemetrie, verfügen aber nicht über die KI-spezifischen strukturierten Felder, die das Gesetz erfordert. Organisationen benötigen zweckgebundenes KI-Logging, das Modelleingaben, -ausgaben, Entscheidungsfaktoren und Maßnahmen menschlicher Aufsicht in Formaten erfasst, die für regulatorische Audits geeignet sind.
Anforderungen an die Datenherkunft verlangen klare, prüfbare Historien, die zeigen, woher Daten stammen, wie sie transformiert wurden, welche Systeme sie verarbeitet haben und welche Daten spezifische Modelle trainiert, getestet und betrieben haben.¹⁷ Für die EU AI Act-Compliance liefert die Datenherkunft den technischen Nachweis, dass Trainingsdaten die Anforderungen an Qualität, Relevanz und Repräsentativität erfüllt haben. Ohne Herkunftsinfrastruktur wird der Nachweis der Data-Governance-Compliance nahezu unmöglich.
Die Implementierung konformer Protokollierung erfordert architektonische Änderungen, die die meisten Organisationen nicht geplant haben. Systeme müssen Inferenzanfragen und -antworten erfassen, ohne die Latenz zu beeinträchtigen. Sensible Daten müssen pseudonymisiert werden, während die Prüfbarkeit erhalten bleibt. Speichersysteme müssen die Zugänglichkeit über Jahre aufrechterhalten und gleichzeitig die Kosten verwalten. Suchfunktionen müssen es Prüfern ermöglichen, spezifische Entscheidungen zu verifizieren, ohne gesamte Log-Historien zu durchsuchen.
Anforderungen an die Infrastruktur für menschliche Aufsicht
Der AI Act verankert „Human in the Loop" als Kernprinzip für Hochrisiko-Systeme. Artikel 14 verlangt Mechanismen für menschliche Aufsicht, die es Personen ermöglichen, Systemfähigkeiten zu verstehen, Ausgaben korrekt zu interpretieren, zu entscheiden, wann Ausgaben überschrieben oder ignoriert werden sollen, und bei Bedarf in den Systembetrieb einzugreifen oder ihn zu stoppen.¹⁸
Technische Implementierung erfordert Schnittstellen, die KI-Entscheidungen mit ausreichendem Kontext für menschliches Urteil präsentieren. Benutzer müssen nicht nur verstehen, was das System entschieden hat, sondern warum, welches Konfidenzniveau gilt und welche Faktoren die Ausgabe beeinflusst haben. Black-Box-Systeme, die unerklärbare Entscheidungen produzieren, können die Aufsichtsanforderungen unabhängig von ihrer Genauigkeit nicht erfüllen.
Erklärbarkeitsinfrastruktur wird für Hochrisikoanwendungen verpflichtend. Organisationen, die Modelle in den Bereichen Beschäftigung, Kredit, Gesundheitswesen oder Strafverfolgung einsetzen, benötigen interpretierbare Ausgaben, die Menschen sinnvoll überprüfen können. SHAP-Werte, Attention-Visualisierungen, kontrafaktische Erklärungen oder ähnliche Techniken müssen in Benutzeroberflächen integriert werden, anstatt Entwicklertools zu bleiben.
Override- und Interventionsfähigkeiten erfordern, dass menschliche Bediener KI-Systeme stoppen, Entscheidungen korrigieren und die Interventionsbegründung dokumentieren können. Systeme müssen Maßnahmen menschlicher Aufsicht als Teil der Audit-Trails protokollieren. Organisationen können nicht einfach „Override-Buttons" hinzufügen, ohne die Begründung und Ergebnisse von Override-Entscheidungen zu erfassen.
Kompetenzanforderungen gehen über technische Systeme hinaus. Organisationen müssen sicherstellen, dass Menschen, die Aufsicht ausüben, über ausreichende KI-Kompetenz verfügen, um ihre Rollen effektiv auszuführen.¹⁹ KI-Kompetenzpflichten traten im Februar 2025 in Kraft und verlangen von Anbietern und Betreibern, sicherzustellen, dass Mitarbeiter über ausreichendes Verständnis der KI-Systeme verfügen, die sie betreiben.
Anforderungen an das Risikomanagementsystem
Hochrisiko-KI-Systeme erfordern dokume
[Inhalt für die Übersetzung gekürzt]