Warum die EU Künstliche Intelligenz reguliert
Mit dem AI Act hat die Europäische Union einen weltweit einzigartigen Rechtsrahmen für Künstliche Intelligenz geschaffen. Ziel ist es, den Einsatz von KI-Systemen zu fördern, dabei aber gleichzeitig Grundrechte, Sicherheit und demokratische Prinzipien zu schützen. Der AI Act folgt einem risikobasierten Ansatz: Je größer das Risiko für die Gesellschaft, desto strenger die Regulierung. Diese Kategorisierung betrifft nicht nur Technologieanbieter, sondern auch Unternehmen, die KI-Systeme einsetzen – etwa im Marketing, Vertrieb, HR oder in der Kundeninteraktion.
Vier Risikoklassen im Überblick
Die Systematik des AI Act gliedert KI-Anwendungen in vier Klassen:
1. Verbotene KI
Diese Kategorie umfasst KI-Praktiken, die grundsätzlich als unvereinbar mit EU-Werten gelten und deshalb nicht zulässig sind. Dazu gehören:
- Soziales Scoring durch Behörden oder Unternehmen, das das Verhalten von Personen systematisch bewertet
- Subtile oder manipulative Beeinflussung von Verhalten, insbesondere bei vulnerablen Gruppen
- Echtzeit-Biometrie im öffentlichen Raum zur Überwachung (mit Ausnahmen für die Strafverfolgung)
- Emotionserkennung in sensiblen Kontexten wie Schule oder Arbeitsplatz
Für Unternehmen bedeutet das: Bestimmte Geschäftsmodelle oder Funktionalitäten sind regulatorisch ausgeschlossen – unabhängig von technischer Machbarkeit.
2. Hochrisiko-KI
Hochrisiko-Systeme sind erlaubt, aber stark reguliert. Sie betreffen kritische Anwendungsfelder, darunter:
- Personal- und Bewerbungsprozesse
- Kreditvergabe, Scoring-Modelle im Finanzwesen
- Medizinische Diagnostik und Behandlungsempfehlungen
- Zugang zu Bildung, sozialen Leistungen oder öffentlichen Diensten
- Kritische Infrastrukturen (z. B. Energieversorgung, Verkehr, Wasserversorgung)
Unternehmen, die solche Systeme entwickeln oder nutzen, müssen umfangreiche Anforderungen erfüllen:
- Risikomanagement und interne Kontrollmechanismen
- Dokumentation und Protokollierung von Entscheidungen
- Nachvollziehbarkeit („Erklärbarkeit“) der Entscheidungsprozesse
- Menschliche Überwachung und Eingreifmöglichkeiten
- Qualitätsmanagement und kontinuierliche Überprüfung
Wer heute beispielsweise eine KI-gestützte Bewerbervorselektion einsetzt, sollte sicherstellen, dass Auswahlkriterien dokumentiert, Diskriminierungsrisiken minimiert und menschliche Entscheidungsspielräume gewährleistet sind.
3. Begrenztes Risiko
Diese Kategorie betrifft KI-Systeme mit geringerem Schadenspotenzial für Nutzerinnen und Nutzer. Beispiele:
- Chatbots im Kundenservice
- Personalisierte Produktempfehlungen
- Generative KI für Texte oder Bilder
Hier gilt eine überschaubare Verpflichtung: Transparenz. Nutzer:innen müssen darüber informiert werden, dass sie mit einer KI interagieren. Eine entsprechende Kennzeichnung – etwa ein Hinweis in der Benutzeroberfläche – reicht in der Regel aus.
4. Minimales Risiko
Hierunter fallen die meisten KI-Anwendungen im Unternehmensalltag: Spamfilter, Rechtschreibkorrekturen, Suchvorschläge oder interne Assistenzsysteme. Sie unterliegen keiner spezifischen Regulierung durch den AI Act. Dennoch gelten natürlich weiterhin Datenschutzgesetze und IT-Sicherheitsstandards.
So schätzen Unternehmen das Risiko korrekt ein
Eine praxisnahe Risikoeinschätzung lässt sich mit diesen fünf Fragen strukturieren:
- Wofür wird die KI eingesetzt? Hat sie Einfluss auf Entscheidungen mit rechtlichen, finanziellen oder sozialen Folgen?
- In welchem Umfeld wird sie genutzt? Sensible Bereiche wie Gesundheit, Arbeit oder öffentliche Dienste sind besonders reguliert.
- Wie autonom ist das System? Gibt es menschliche Kontrollinstanzen oder agiert die KI allein?
- Welche Daten werden verarbeitet? Geht es um biometrische, personenbezogene oder sensible Daten?
- Wer nutzt das System? Sind besonders schutzbedürftige Gruppen betroffen (z. B. Kinder, Patienten, Arbeitssuchende)?
Was Unternehmen jetzt tun sollten
Je früher Unternehmen ihre KI-Systeme systematisch einordnen, desto geringer ist der Anpassungsdruck, wenn die Regeln greifen. Konkret heißt das:
- Bestandsaufnahme aller eingesetzten KI-Systeme
- Kategorisierung nach Risikoklassen
- Dokumentation, Auditierung, Kennzeichnung wo nötig
- Klare Zuständigkeiten und Prozesse für Überwachung und Weiterentwicklung
Gerade im Marketing lohnt sich der frühe Blick. Automatisierte Scoring-Modelle zur Leadbewertung, KI-generierte Personalisierungen oder Entscheidungsunterstützung bei Vertragsverlängerungen können je nach Gestaltung als hochriskant gelten – oder nicht.
Fristen im Überblick
- 1. August 2024: Der AI Act tritt offiziell in Kraft
- 2. Februar 2025: Verbotene Praktiken müssen eingestellt werden
- 2. August 2025: Hochrisiko-Systeme nach Anhang III unterliegen verbindlichen Anforderungen
- 2. August 2026: Zusätzliche Pflichten für sicherheitskritische Systeme
Haftung und Absicherung nicht vergessen
Ergänzend zur technischen Klassifizierung sollte jedes Unternehmen auch rechtliche Risiken prüfen. Eine interne Checkliste hilft:
- Wer haftet bei Fehlern oder Fehlentscheidungen?
- Gibt es eine vertraglich geregelte Modellpflege?
- Ist dokumentiert, wie Entscheidungen zustande kommen?
- Besteht Versicherungsschutz für KI-Schäden?
Eine klare Governance-Struktur für KI lohnt sich – nicht nur für Compliance, sondern auch für Vertrauen und Zukunftssicherheit.
Dieser Artikel richtet sich an Marketingverantwortliche im Mittelstand, die fundiertes Wissen zum AI Act suchen – mit klaren Schritten, Praxisbezug und konkreten Umsetzungsempfehlungen.
Dieser Artikel wurde mit KI entwickelt.
