Der EU AI Act greift. Was das für dein Unternehmen bedeutet

Seit Februar 2025 sind verbotene KI-Praktiken in der EU offiziell unzulässig. Seit August 2025 gelten Pflichten für allgemeine KI-Modelle. Und ab August 2026 wird es für die meisten Unternehmen konkret: Dann greifen die vollständigen Anforderungen für Hochrisiko-KI-Systeme.

Wir sind mittendrin. Nicht mehr in der Vorbereitung, sondern in der Umsetzung.

Was ich in fast jedem Gespräch höre: Der AI Act ist bekannt, aber keiner weiß genau, was er für das eigene Unternehmen bedeutet.

Also: Was gilt wann, für wen, und was musst du jetzt tun?


Vier Klassen, ein Prinzip

Der AI Act folgt einem risikobasierten Ansatz. Je größer das Schadenspotenzial einer KI-Anwendung, desto strenger die Anforderungen. Das klingt logisch, weil es logisch ist.

Die vier Klassen:

Verboten. Manche KI-Anwendungen sind schlicht nicht erlaubt. Soziales Scoring durch Behörden oder Unternehmen. Manipulation von Verhalten, besonders bei vulnerablen Gruppen. Echtzeit-Biometrie im öffentlichen Raum zur Überwachung. Emotionserkennung am Arbeitsplatz oder in der Schule. Diese Verbote gelten seit Februar 2025. Wer solche Systeme noch betreibt, hat ein Problem.

Hochrisiko. Erlaubt, aber stark reguliert. Hochrisiko-Systeme sind solche, die Entscheidungen mit echten Konsequenzen für Menschen treffen oder vorbereiten: Bewerbungsprozesse, Kreditvergabe, medizinische Diagnostik, Zugang zu öffentlichen Leistungen, kritische Infrastrukturen. Für diese Systeme gelten ab August 2026 verbindliche Anforderungen: Risikomanagement, Dokumentation, Nachvollziehbarkeit, menschliche Überwachung.

Begrenztes Risiko. Chatbots, Produktempfehlungen, generative KI für Texte oder Bilder. Hier gilt eine überschaubare Pflicht: Transparenz. Nutzer müssen wissen, dass sie mit einer KI interagieren. Ein Hinweis in der Oberfläche reicht.

Minimales Risiko. Spamfilter, Rechtschreibkorrektur, Suchvorschläge, interne Assistenzsysteme. Keine spezifischen Anforderungen durch den AI Act. Datenschutz und IT-Sicherheit gelten natürlich weiterhin.


Wo Hochrisiko-KI im Unternehmensalltag steckt

Das ist der Punkt, an dem viele überrascht sind. Hochrisiko klingt nach Science-Fiction oder Militär. Ist es aber nicht.

Ein automatisiertes System zur Bewerbervorselektion: Hochrisiko. Ein Scoring-Modell für die Kreditvergabe: Hochrisiko. Eine KI, die Empfehlungen für Vertragsverlängerungen gibt und dabei Kundendaten auswertet: je nach Gestaltung ebenfalls.

Die Frage ist nicht, ob du KI einsetzt. Die Frage ist, was deine KI entscheidet oder vorbereitet, und wen das betrifft.

Fünf Fragen helfen bei der Einordnung:

Wofür wird die KI eingesetzt? Hat sie Einfluss auf Entscheidungen mit rechtlichen, finanziellen oder sozialen Folgen?

In welchem Umfeld läuft sie? Gesundheit, Arbeit und öffentliche Dienste sind besonders reguliert.

Wie autonom ist das System? Gibt es menschliche Kontrollinstanzen, oder agiert die KI allein?

Welche Daten werden verarbeitet? Biometrische, personenbezogene oder sensible Daten erhöhen das Risikolevel.

Wer nutzt das System? Besonders schutzbedürftige Gruppen wie Kinder, Patienten oder Arbeitssuchende spielen eine Rolle.


Was jetzt zu tun ist

Ab August 2026 müssen Hochrisiko-KI-Systeme nach Anhang III des AI Act vollständig compliant sein. Das sind noch wenige Monate. Wer jetzt noch keine Bestandsaufnahme gemacht hat, sollte damit anfangen.

Konkret heißt das:

Alle eingesetzten KI-Systeme inventarisieren, intern und extern bezogene.

Jedes System nach Risikoklasse einordnen.

Für Hochrisiko-Systeme: Risikomanagement aufsetzen, Entscheidungen dokumentieren, menschliche Überwachung sicherstellen, in der EU-Datenbank registrieren.

Für Systeme mit begrenztem Risiko: Transparenzpflichten umsetzen, Nutzer kennzeichnen.

Zuständigkeiten klären: Wer ist intern verantwortlich für KI-Governance?

Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes, je nachdem was höher ist. Für schwere Verstöße, also verbotene Praktiken. Für andere Verstöße sind es bis zu 15 Millionen Euro oder 3 Prozent. Das sind keine symbolischen Zahlen.

Bei Xempus machen wir das für jeden KI-Use-Case, den wir dokumentieren und umsetzen: Wir kennzeichnen direkt, in welche Risikoklasse er fällt. Nicht als bürokratische Pflichtübung, sondern weil es die Entscheidung, wie wir einen Use Case bauen und begleiten, von Anfang an beeinflusst. Wer das erst am Ende prüft, baut manchmal zweimal.


Der aktuelle Zeitplan auf einen Blick

August 2024: AI Act tritt in Kraft.

Februar 2025: Verbotene KI-Praktiken müssen eingestellt sein. (Gilt bereits.)

August 2025: Pflichten für allgemeine KI-Modelle (GPAI) greifen. (Gilt bereits.)

August 2026: Vollständige Anforderungen für Hochrisiko-KI-Systeme nach Anhang III. (In wenigen Monaten.)

August 2027: Anforderungen für Hochrisiko-Systeme in regulierten Produkten nach Anhang I sowie für bereits vor August 2025 in Verkehr gebrachte GPAI-Modelle.


Was das mit Enablement zu tun hat

Compliance ist das eine. Aber ich erlebe, dass die eigentliche Herausforderung woanders liegt: Die meisten Teams wissen nicht, welche KI-Systeme sie überhaupt einsetzen. Nicht weil niemand aufpasst. Sondern weil KI-Nutzung in Unternehmen oft dezentral gewachsen ist. Ein Team hat ein Werkzeug eingeführt, ein anderes ein anderes. Niemand hat eine Gesamtübersicht.

Der AI Act zwingt Unternehmen, diese Übersicht zu schaffen. Das ist unangenehm, wenn man sie nicht hat. Aber es ist auch eine Chance: Wer jetzt systematisch inventarisiert, weiß erstmals genau, was er hat und was er damit macht.

Das ist keine Compliance-Übung. Das ist Grundlage für gute KI-Governance.

Nach oben scrollen