Die EU-KI-Verordnung greift ab August 2026: Was SaaS-Entwickler wissen müssen
Lass mich direkt sein. Wenn du ein SaaS-Produkt baust, das KI nutzt und europäische Kunden hat, hast du eine Deadline. 2. August 2026. Weniger als fünf Monate von heute. Dann werden die Hauptpflichten der EU-KI-Verordnung durchsetzbar. Hochrisiko-KI-Anforderungen. Transparenzregeln. Das vollständige Marktüberwachungsrahmenwerk. Und die Strafen sind nicht subtil: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für die schwersten Verstöße. Das ist potenziell größer als DSGVO-Strafen. Jetzt kommt die Komplikation. Im November 2025 hat die Europäische Kommission den Digital Omnibus vorgeschlagen, der die Hochrisiko-Fristen um bis zu 16 Monate verschieben würde (auf spätestens Dezember 2027). Aber dieser Vorschlag arbeitet sich noch durch Parlament und Rat. Er wurde nicht verabschiedet. Wenn die Verhandlungen stocken oder der Vorschlag nicht vor August 2026 durchkommt, gelten die ursprünglichen Fristen. Ich nehme die sichere Option. Ich baue [GrowCentric.ai](https://growcentric.ai), eine KI-gestützte Marketing-Optimierungs-SaaS die im Juni 2026 launcht, und ich muss das richtig machen. Ich baue auch KI-gestützte Features für eCommerce-Kunden auf Ruby on Rails und [Solidus](https://solidus.io/), von denen viele an europäische Verbraucher verkaufen. Also habe ich die Arbeit gemacht: die Verordnung durchgelesen, die Leitlinien, die Annex-III-Kategorien, die Digital-Omnibus-Vorschläge, die neuesten Durchsetzungskommentare. Lass mich das alles in das übersetzen, was für SaaS-Entwickler tatsächlich wichtig ist.
Was die EU-KI-Verordnung tatsächlich ist (ohne Juristendeutsch)
Die EU-KI-Verordnung (Verordnung EU 2024/1689) ist das weltweit erste umfassende Rechtsrahmenwerk zur Regulierung künstlicher Intelligenz. Sie trat am 1. August 2024 in Kraft und wird über drei Jahre stufenweise eingeführt.
Denk an sie als DSGVO für KI. Gleiche extraterritoriale Reichweite (wenn die Ausgabe deiner KI in der EU genutzt wird, bist du betroffen, egal wo du sitzt). Gleicher risikobasierter Ansatz. Gleiche Augen zusammenkneifen machende Strafen.
Die wichtigen Daten:
2. Februar 2025 (bereits vorbei): Verbotene KI-Praktiken gebannt. KI-Kompetenz-Pflichten angewendet.
2. August 2025 (bereits vorbei): Pflichten für allgemeine KI-Modelle (GPAI). Mitgliedstaaten haben nationale Behörden benannt.
2. August 2026 (kommt schnell): Der große Tag. Hochrisiko-KI-Anforderungen für Annex-III-Systeme. Transparenzpflichten unter Artikel 50. Vollständiges Durchsetzungsrahmenwerk aktiviert. EU-weite Strafen für GPAI-Anbieter. Jeder Mitgliedstaat muss mindestens eine KI-Regulierungssandbox haben.
2. August 2027: Hochrisiko-KI in regulierten Produkten (Medizinprodukte, Maschinen, Spielzeug). Frist für bestehende GPAI-Modelle.
Der Digital Omnibus vom November 2025 würde die August-2026-Hochrisiko-Frist verschieben. Annex-III-Systeme bekämen bis Dezember 2027. Aber der Omnibus ist noch ein Vorschlag. Er wurde nicht verabschiedet. 127 Zivilgesellschaftsorganisationen haben die Kommission aufgefordert, die Vorschläge ganz zu stoppen.
Die vier Risikostufen: Wo steht dein Produkt?
Stufe 1: Unannehmbares Risiko (Verboten)
Diese KI-Systeme sind komplett verboten. Du kannst sie nicht bauen, verkaufen oder in der EU einsetzen.
Was verboten ist: Unterschwellige Manipulation, Ausnutzung von Schwachstellen (Alter, Behinderung, sozioökonomische Situation), Social Scoring, prädiktive Kriminalisierung Einzelner, ungezieltes Gesichtsbilder-Scraping, Emotionserkennung am Arbeitsplatz und in der Bildung, biometrische Kategorisierung nach sensiblen Merkmalen, Echtzeit-Fernbiometrie im öffentlichen Raum.
Strafen: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.
Stufe 2: Hohes Risiko (Streng reguliert)
Hier sind die meisten Zähne der Verordnung. Zwei Wege zur Hochrisiko-Klassifizierung:
Weg 1 (Annex I): Sicherheitskomponenten in regulierten Produkten (Medizinprodukte, Fahrzeuge, Spielzeug). Ab August 2027.
Weg 2 (Annex III): Spezifische Anwendungsfälle. Ab August 2026 (oder Dezember 2027 bei Digital-Omnibus-Verabschiedung):
- Biometrie: Fernbiometrische Identifizierung, Kategorisierung, Emotionserkennung
- Kritische Infrastruktur: KI in digitaler Infrastruktur, Straßenverkehr, Wasser, Gas, Strom
- Bildung: Zugang zu Bildung bestimmen, Lernergebnisse bewerten, Prüfungsüberwachung
- Beschäftigung: Rekrutierung, CV-Screening, Kandidatenbewertung, Leistungsüberwachung, Aufgabenzuweisung
- Zugang zu wesentlichen Diensten: Kreditwürdigkeit bewerten (außer Betrugserkennung), Risikobewertung für Lebens- und Krankenversicherung, Notrufe bewerten
- Strafverfolgung: Rückfallrisiko bewerten, Profiling, Beweisanalyse
- Migration und Grenzschutz: Visa- und Asylanträge prüfen
- Justizverwaltung: KI für Rechtsrecherche, Streitbeilegung
Kritisches Detail: Wenn dein KI-System natürliche Personen innerhalb dieser Annex-III-Kategorien profiliert, ist es IMMER Hochrisiko. Keine Ausnahmen.
Konkret für SaaS-Produkte:
- Fintech/Kredit-SaaS mit KI-Kreditbewertung: Hochrisiko
- HR/Recruiting-SaaS mit KI-CV-Screening: Hochrisiko
- EdTech-SaaS mit KI-Bewertung: Hochrisiko
- Versicherungs-SaaS mit KI-Risikopricing: Hochrisiko
- Marketing-SaaS wie GrowCentric.ai: Sehr wahrscheinlich KEIN Hochrisiko
- eCommerce-Plattformen wie Auto-Prammer.at mit Empfehlungen und dynamischer Preisgestaltung: Sehr wahrscheinlich KEIN Hochrisiko
Was Hochrisiko-Anbieter tun müssen (Artikel 9-15): Kontinuierliches Risikomanagementsystem, Daten-Governance, detaillierte technische Dokumentation (Annex IV), automatische Ereignisprotokollierung, Transparenz und Anleitungen für Deployer, menschliche Aufsicht, Genauigkeit/Robustheit/Cybersicherheit, Konformitätsbewertung vor Markteintritt, EU-Datenbankregistrierung, CE-Kennzeichnung, Post-Market-Monitoring, Meldung schwerwiegender Vorfälle.
Strafen: bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes.
Stufe 3: Begrenztes Risiko (Transparenzpflichten)
Hier landen die meisten SaaS-Produkte mit KI-Features. Eine Hauptpflicht: Transparenz.
Wenn dein KI-System mit Menschen interagiert (Chatbots): Nutzer informieren. Synthetische Inhalte generiert: maschinenlesbares Marking. Emotionserkennung nutzt: Betroffene informieren. Deepfakes erzeugt: klar kennzeichnen.
Diese Transparenzpflichten gelten ab 2. August 2026. Kein Digital-Omnibus-Aufschub.
Stufe 4: Minimales Risiko (Unreguliert)
Spam-Filter, KI-Spiele, einfache Empfehlungssysteme, Bestandsmanagement. Keine Pflichten unter der KI-Verordnung. Aber DSGVO, Cyber Resilience Act und NIS2-Richtlinie können trotzdem gelten.
Wo GrowCentric.ai eingeordnet wird
GrowCentric.ai ist eine Multi-Agent Marketing-Optimierungs-SaaS. Ich habe die Klassifizierung systematisch durchgeführt:
Schritt 1: Verbotenes? Nein. Keine unterschwellige Manipulation, kein Social Scoring, keine Biometrie.
Schritt 2: Annex III? Systematisch geprüft. Am nächsten kommt "Zugang zu wesentlichen Diensten". Aber GrowCentric segmentiert Zielgruppen für Werbung, nicht für Kreditentscheidungen. Es bestimmt, wer welche Anzeigen sieht, nicht wer einen Kredit bekommt.
Aber: Wenn ein GrowCentric-Kunde (z.B. ein Finanzdienstleister) unsere Zielgruppen-Segmentierung nutzt, um zu entscheiden, wer Kreditangebote erhält, könnte diese spezifische Nutzung Hochrisiko-Pflichten für den Deployer auslösen, selbst wenn GrowCentric als Anbieter begrenztes Risiko bleibt.
Die Provider/Deployer-Unterscheidung ist entscheidend für SaaS-Entwickler. Du baust vielleicht ein Allzweck-Tool, aber deine Kunden könnten es auf Hochrisiko-Weise einsetzen.
Schritt 3: Transparenzpflichten? Ja. KI-generierte Reports und Dashboard-Interaktionen müssen als KI gekennzeichnet werden.
Schritt 4: Profiling? GrowCentric profiliert Nutzerverhalten für Werbe-Segmentierung. Unter der DSGVO bereits reguliert. Unter der KI-Verordnung macht Profiling innerhalb von Annex-III-Kategorien ein System automatisch hochriskant. Aber Marketing-Profiling für Werbezwecke fällt nicht unter Annex-III-Kategorien.
Meine Klassifizierung: GrowCentric.ai ist ein System mit begrenztem Risiko und Transparenzpflichten. Nicht Hochrisiko. Aber ich dokumentiere diese Bewertung formal, weil Artikel 6(4) das für Annex-III-nahe Systeme verlangt.
Wo Auto-Prammer.at eingeordnet wird
Auto-Prammer.at, gebaut auf Rails und Solidus, nutzt KI für Produktempfehlungen, dynamische Preisgestaltung, Churn-Vorhersage, Warenkorbrettung und Datenqualitätsaudits.
Nichts davon fällt unter Annex III. Produktempfehlungen sind Standard-eCommerce. Dynamische Preisgestaltung passt Produktpreise an Marktbedingungen an, nicht an individuelle Kreditwürdigkeit. Churn-Vorhersage markiert gefährdete Kunden für Retention, bestimmt keinen Zugang zu wesentlichen Diensten.
Klassifizierung: Minimales bis begrenztes Risiko. Transparenzpflichten wo KI mit Nutzern interagiert. Alles dokumentiert.
Compliance-Architektur für Rails/Solidus
Was KI-Verordnung-Compliance architektonisch bedeutet:
Audit-Logging für jede KI-Entscheidung: Pflicht für Hochrisiko (Artikel 12), dringend empfohlen für alle. Ich nutze ein AIAuditLoggable-Modul, das jede Agentenentscheidung protokolliert: welcher Agent, welcher Input, welcher Output, welche Konfidenz, welche Modellversion, eine menschenlesbare Erklärung. Jeder Human Override wird ebenfalls protokolliert.
Das gibt Rückverfolgbarkeit (Artikel 12), Transparenz (Artikel 13), Nachweis menschlicher Aufsicht (Artikel 14) und DSGVO-Compliance für automatisierte Entscheidungen (Artikel 22) in einem Muster.
Human-Override-Mechanismus: Gestuftes Autonomie-Muster mit vier Ebenen: Nur-Beobachten, Niedriges Risiko (auto-ausführbar in engen Grenzen), Mittleres Risiko (KI schlägt vor, Mensch genehmigt), Hohes Risiko (KI schlägt vor, leitender Mitarbeiter genehmigt). Plus ein Notfall-Stopp den jeder jederzeit auslösen kann.
Technische Dokumentation: Generator für Annex-IV-konforme Dokumentation: allgemeine Beschreibung, Risikoklassifizierung, Entwicklungsprozess, Überwachung und Aufsicht, Genauigkeit und Robustheit.
Transparenz-Offenlegung: Middleware die KI-Offenlegungsheader zu Responses hinzufügt, View-Helper für KI-Disclosure-Banner und Chatbot-Offenlegungen.
Die Provider-Deployer-Unterscheidung
Als SaaS-Entwickler bist du typischerweise der Provider. Deine Kunden sind Deployer.
Das bedeutet praktisch:
- Deine AGB sollten den Verwendungszweck deines KI-Systems spezifizieren
- Deine Dokumentation sollte klar sagen, welche Nutzungen abgedeckt sind und welche nicht
- Wenn du weißt, dass Kunden dein Produkt auf Hochrisiko-Weise nutzen, hast du möglicherweise Provider-Pflichten
- Deine Nutzungsanleitung muss Deployern ermöglichen, ihre eigenen Pflichten zu erfüllen
Zusammenspiel mit anderen Regulierungen
Die KI-Verordnung steht nicht allein. Sie arbeitet zusammen mit:
DSGVO: Automatisierte Entscheidungsfindung unter Artikel 22 erfordert ähnliche Schutzmaßnahmen. Der Digital Omnibus schlägt "berechtigtes Interesse" als Rechtsgrundlage für KI-Trainingsdaten vor.
Cyber Resilience Act (mein CRA-Post): Security-by-Design, Schwachstellenbehandlung, Vorfallmeldung überschneiden sich mit der KI-Verordnung.
NIS2-Richtlinie (mein NIS2-Post): Lieferketten-Sicherheitspflichten bedeuten, dass Enterprise-Kunden nach deiner KI-Governance fragen werden.
Der gemeinsame Faden: Audit-Logging, Vorfallmeldung, Risikomanagement, Dokumentation und menschliche Aufsicht. Einmal bauen, überall compliant.
Das ist genau der Ansatz, den ich mit GrowCentric.ai und meinen Kundenimplementierungen verfolge. Derselbe ActiveSupport::Notifications Event-Bus der die agentic-KI-Architektur antreibt, speist auch das Audit-Logging-System. Architektur einmal bauen. Überall Compliance bekommen.
Was du jetzt tun solltest (fünf Monate verbleibend)
Schritt 1: KI-Systeme kartieren. Liste jedes KI-Feature in deinem Produkt auf. Nicht nur die offensichtlichen ML-Modelle, auch Empfehlungsalgorithmen, automatisierte Entscheidungen, Content-Generierung, Chatbots.
Schritt 2: Jedes System klassifizieren. Risikostufen durchgehen. Verboten? Annex III? Profiling innerhalb dieser Kategorien? Transparenzpflichten? Begründung dokumentieren.
Schritt 3: Deine Rolle bestimmen. Provider? Deployer? Beides? Für jedes integrierte Drittanbieter-KI-Tool (OpenAI, Anthropic, Google) verstehen, ob du ein KI-System auf deren GPAI-Modell aufbaust.
Schritt 4: Technische Grundlagen implementieren. Audit-Logging. Human-Override. Transparenz-Offenlegungen. Erklärbarkeits-Traces. Daten-Governance. Technische Dokumentation. Jetzt billiger als später nachzurüsten.
Schritt 5: Verträge prüfen. AGB sollten Verwendungszweck spezifizieren. Datenschutzrichtlinien KI-spezifische Verarbeitung adressieren.
Schritt 6: Digital Omnibus beobachten. Gesetzgebungsprozess verfolgen. Wenn er durchkommt, mehr Zeit für Hochrisiko. Wenn nicht, August 2026 steht. Transparenzpflichten sind davon unberührt.
Das Fazit
Die EU-KI-Verordnung kommt nicht irgendwann. Für SaaS-Entwickler die europäische Märkte bedienen ist August 2026 fünf Monate entfernt und die Transparenzpflichten kommen definitiv an diesem Datum.
Die meisten SaaS-Produkte werden begrenztes oder minimales Risiko sein. Aber begrenztes Risiko bedeutet immer noch Transparenzpflichten, und die Klassifizierungsübung muss ordentlich gemacht und dokumentiert werden.
Die noch bessere Nachricht: Compliance mit der KI-Verordnung überschneidet sich weitgehend mit guter Ingenieurskunst. Wenn du bereits mit ordentlichem Audit-Logging, menschlicher Aufsicht, Daten-Governance und Dokumentation baust, bist du den größten Teil des Weges schon dort.
Und wenn du KI-gestützte Features auf Rails und Solidus baust, oder ein KI-SaaS-Produkt für den europäischen Markt launcht, und Hilfe bei der Klassifizierung, dem Aufbau der Compliance-Architektur oder der Implementierung der technischen Grundlagen brauchst, genau das mache ich. Von GrowCentric.ai bis zu Kundenimplementierungen hat jedes System das ich baue europäische Compliance von der ersten Zeile Code an eingebaut.
Denn Compliance nachzurüsten ist teuer. Sie einzubauen ist einfach gute Architektur.