AI Angst: Was es ist und warum es für mich als AI Enablement Managerin relevant ist

Du willst nicht lesen, sondern nur zum Test? Hier lang

AI Angst. Ich kannte den Begriff nicht, bis ich diese Woche eine Studie gelesen habe. Fractional Insights und Ferrazzi Greenlight haben über 3.000 Mitarbeitende in den USA und Europa befragt, und was sie gemessen haben, hat mich sofort innehalten lassen: nicht ob Menschen KI nutzen, sondern wie sie sich dabei fühlen.

Das klingt nach einem kleinen Unterschied. Für meine Arbeit ist es ein großer.

Was AI Angst bedeutet und warum mich die Zahl nicht mehr loslässt

Die Studie, erschienen im Harvard Business Review im Februar 2026, definiert AI Angst als ein Maß für wahrgenommene Bedrohungen: Jobsicherheit, berufliche Relevanz, persönliches Wachstum. Zehn Items auf einer fünfstufigen Skala. Etwa acht von zehn Befragten hatten bei mindestens einem dieser Items starke Bedenken.

65 Prozent sorgen sich, von jemandem ersetzt zu werden, der KI besser beherrscht als sie. 61 Prozent befürchten, dass andere durch KI glauben könnten, sie brächten keinen einzigartigen Wert mehr. 60 Prozent haben Angst, dass KI-Nutzung ihre persönliche Kompetenz in Frage stellt. Und 44 Prozent haben das Gefühl, KI mache sie dümmer.

Ich hatte erwartet, dass Zweifel die Nutzung bremsen. Dass es umgekehrt funktioniert, hat mich überrascht.

Denn gleichzeitig glauben laut derselben Studie etwa 86 Prozent der Befragten, dass KI die Arbeit zumindest ein bisschen besser machen wird. Die meisten sehen den Nutzen, fürchten aber, was er für sie persönlich bedeutet. Ich finde dafür einen Begriff ziemlich treffend: das Belief-Anxiety-Paradox. Hoher Glaube an KI, hohe Angst um die eigene Zukunft. Beides gleichzeitig, bei etwa vier von zehn Befragten.

Und irgendwie ergibt das Sinn, wenn man kurz darüber nachdenkt.

Nutzung ist nicht gleich Adoption

Hier kommt der Befund, der mich am meisten beschäftigt hat. Mitarbeitende mit hohem AI Angst-Score gaben an, im Schnitt 65 Prozent ihrer Arbeit mit KI-Unterstützung zu erledigen. Bei Mitarbeitenden mit niedrigem Angst-Score waren es 42 Prozent. Wer mehr Angst hat, nutzt KI also häufiger, nicht seltener.

Der Grund ist nachvollziehbar, wenn man kurz darüber nachdenkt: Wer Angst hat, irrelevant zu werden, nutzt KI aus Selbstschutz. Nicht aus Überzeugung, nicht weil er oder sie wirklich verstanden hat, wie das Werkzeug die eigene Arbeit besser macht. Sondern weil es sich falsch anfühlt, es nicht zu tun. Die Studie nennt das performative statt partizipative Nutzung.

Und genau das erklärt, warum so viele KI-Rollouts auf dem Papier gut aussehen, aber keinen echten Impact liefern. Lizenzen aktiviert, Werkzeuge genutzt, ROI trotzdem enttäuschend. Das Muster ist nicht zufällig.

Vier Typen, die KI ganz unterschiedlich erleben

Die Studie identifiziert vier Gruppen.

Visionaries, etwa 40 Prozent der Befragten, glauben stark an KI und sehen ihr persönliches Risiko als gering. Sie experimentieren, ziehen andere mit, sind begeistert. Ihre Blindstelle: Sie blenden Risiken manchmal aus, weil die Begeisterung größer ist als die Skepsis.

Disruptors, rund 30 Prozent, verstehen das Potenzial von KI, fürchten aber gleichzeitig, was es für ihre eigene Rolle bedeutet. Ihre Nutzung ist oft angstgetrieben. Was sie brauchen, ist keine weitere Schulung, sondern Transparenz, echte Entwicklungsperspektiven und psychologische Sicherheit.

Endangered, etwa 20 Prozent, sehen keinen Nutzen in KI und fühlen gleichzeitig, dass sie ihre berufliche Identität bedroht. Rationale Argumente helfen hier nicht als erstes. Empathie kommt zuerst, dann kleine Erfolgserlebnisse, die Vertrauen aufbauen.

Complacent, rund 10 Prozent, haben weder Angst noch Motivation. KI fühlt sich für sie abstrakt und weit weg an. Der Hebel hier ist nicht Überzeugung, sondern Relevanz: zeigen, was konkret auf dem Spiel steht, für diese Person, in dieser Rolle.

Den eigenen AI Angst Score herausfinden

Ich habe das Konzept so interessant gefunden, dass ich direkt ausprobieren wollte, wie sich AI Angst konkret messen lässt. Also habe ich mit Claude einen kleinen Test gebaut, der auf den zehn Items der Studie basiert.

Es dauert keine drei Minuten. Am Ende siehst du, wo du auf der Skala landest und zu welchem der vier Typen du am ehesten passt. Kein Opt-in, kein Newsletter, kein Verkaufsgespräch. Nur ein ehrlicher Ausgangspunkt.

Was ich daraus für meine Arbeit mitnehme

Die Studie formuliert drei Empfehlungen für Führungskräfte. Ich übersetze sie in das, was ich konkret anders machen werde.

Erstens: Branchenkontext verstehen, bevor man deployt. AI Angst ist nicht gleichmäßig verteilt. Finanz- und Technologiebranchen haben die höchsten Angst-Scores, obwohl sie gleichzeitig am stärksten an den Geschäftswert von KI glauben. Im Gesundheitswesen ist KI eher als missionsunterstützend wahrgenommen, die Angst-Scores sind entsprechend niedriger. Jede Branche braucht einen anderen Einstieg, und wer das ignoriert, liest sowohl Begeisterung als auch Widerstand falsch.

Zweitens: Nutzung nicht mit Adoption verwechseln. Hohe Nutzungszahlen können Selbstschutz sein, keine echte Integration. Wer nur auf Aktivitätsmetriken schaut, optimiert für die falsche Zielgröße.

Drittens: Erst Sicherheit schaffen, dann skalieren. Wer skaliert, bevor Menschen sich sicher fühlen, verstärkt oberflächliche Adoption. Das Gegenteil von dem, was man will.

AI Angst werde ich künftig in jedes AI Assessment direkt zu Beginn integrieren. Nicht als Diagnose, die Menschen in Schubladen steckt. Als Ausgangspunkt. Er zeigt mir, wo jemand steht, welche Bedenken real sind und was Enablement für diese Person konkret leisten muss. Denn KI-Adoption hat viel mit Psychologie zu tun, und AI Enablement ist eben nicht nur dafür da, Werkzeuge einzuführen und darauf zu trainieren. Es geht darum, Bedenken zu verstehen, Menschen mitzunehmen, zu erkennen wer schon weit vorne ist und wer etwas mehr Unterstützung braucht. Und jedem seinen Raum zu geben.


Quellen

Erin Eatough, Keith Ferrazzi, Wendy Smith, Shonna Waters: „Why AI Adoption Stalls, According to Industry Data“, Harvard Business Review, Februar 2026. https://hbr.org/2026/02/why-ai-adoption-stalls-according-to-industry-data

Nach oben scrollen