Kontext ist King: Warum deine KI nur so gut ist wie die Informationen, die du ihr gibst

Warum Kontext beim Thema KI wichtig ist.

95 Prozent der KI-Projekte scheitern. Diese Zahl kursiert gerade überall. In Studien, in Artikeln, in Gesprächen mit Führungskräften, die skeptisch auf ihr frisch gekauftes System schauen.

Ich lese diese Zahl und denke: Was bedeutet hier eigentlich „scheitern“?

Weil ich in meiner Arbeit etwas anderes sehe. Ich sehe Teams, die die Software ausprobiert haben, eine mittelmäßige Antwort bekommen haben, und dann gesagt haben: „Siehst du? Funktioniert nicht.“ Ich sehe Unternehmen, die in Lizenzen investiert haben und sechs Monate später kaum jemanden, der die Lösung wirklich nutzt. Und ich sehe Menschen, die ehrlich überrascht sind, wenn ich ihnen zeige, was dieselbe KI liefert, wenn man ihr etwas mehr erzählt.

KI kann nicht zaubern. Sie ist ein Werkzeug. Und wie jedes Werkzeug ist sie so gut wie die Person, die es benutzt.

Das klingt simpel. Ist es aber nicht. Denn der entscheidende Faktor ist einer, den die meisten unterschätzen: Kontext.


Was die KI nicht weiß

Ein Sprachmodell hat unglaublich viel gelernt. Sprache, Struktur, Zusammenhänge, Wissen aus Millionen von Texten. Was es nicht hat: irgendetwas über dein Unternehmen. Deine Kunden. Deine Prozesse. Den Ton, den du pflegst. Die Entscheidung, die ihr letzte Woche getroffen habt.

Wenn du der KI sagst „Schreib mir eine Antwort auf diese Kundenanfrage“, weiß sie das alles nicht. Sie rät. Und das Ergebnis klingt dann auch so.

Laut McKinseys State of AI Report 2025 nutzen 88 Prozent der Unternehmen KI in mindestens einer Funktion. Aber die meisten kämpfen noch damit, echten Nutzen rauszuholen. Nicht weil die Modelle schlecht sind. Sondern weil das Wissen, das im Unternehmen steckt, nicht in der KI ankommt.

Das ist das eigentliche Problem. Und es hat eine Lösung.


Kontext ist kein Trick. Es ist Handwerk.

Es gibt mehrere Wege, einer KI den Kontext zu geben, den sie braucht. Vom einfachsten bis zum komplexesten.

Der Prompt

Der schnellste Hebel. Statt „Schreib eine Antwort auf die Kundenanfrage“ sagst du: Wer du bist, für wen du schreibst, welchen Ton du willst, was nicht reingehört, und was das Ziel der Antwort ist.

Rolle, Ziel, Ton, Format, Negativkontext. Das sind fünf Dinge. Zusammen machen sie aus einer generischen Ausgabe etwas Brauchbares.

Die meisten hören hier auf. Das reicht für den Anfang. Aber es skaliert nicht, wenn ein ganzes Team dieselbe Lösung benutzt und jeder anders promptet.

System Prompts und Agenten

Wenn du willst, dass eine KI immer in deinem Kontext arbeitet, ohne dass jeder neu anfangen muss, brauchst du einen System Prompt. Eine Basisinstruktion, die im Hintergrund läuft.

In Langdock kannst du Agenten bauen, die genau das tun. Du definierst einmal, wer diese KI ist, für wen sie arbeitet, was sie darf und was nicht. Dann ist der Kontext eingebaut. Jeder im Team startet vom gleichen Punkt.

Das ist der Unterschied zwischen einer Lösung, die jeder anders benutzt, und einer, die konsistent funktioniert.

Projekte und Wissensordner

Manchmal reicht das noch nicht. Die KI braucht Zugriff auf dein spezifisches Wissen: Produktbeschreibungen, Prozesse, Richtlinien, FAQs.

In Langdock gibt es dafür Projekte und Wissensordner. Du lädst Dokumente hoch, die KI durchsucht sie bei jeder Anfrage und baut ihre Antworten darauf auf. Das nennt sich RAG, Retrieval Augmented Generation. Klingt technisch. Ist im Kern einfach: Die KI holt sich die relevanten Informationen aus deinen Dokumenten, bevor sie antwortet.

Retrieval-basierte Ansätze reduzieren Halluzinationen deutlich im Vergleich zu Modellen ohne externen Kontext. Die KI muss nicht mehr raten. Sie hat eine Quelle.

Hier kommt aber ein Haken, den ich immer wieder anspreche: Die KI ist nur so gut wie deine Dokumente. Veraltete Prozessdokumentation ergibt veraltete Antworten. Schwammige Produktbeschreibungen ergeben schwammige Ausgaben. KI-Einführung ist oft auch der Moment, in dem Unternehmen merken, wie unaufgeräumt ihre eigene Wissensbasis ist. Unangenehm. Aber eine echte Chance.

Memory und Gesprächsverlauf

Manche Systeme erinnern sich an frühere Gespräche. Claude Projects, ChatGPT Memory, Langdock-Projekte mit persistentem Kontext. Das bedeutet: Du musst nicht jedes Mal von vorne erklären, wer du bist und wo ihr steht.

Bei längeren Projekten oder wiederkehrenden Aufgaben ist das ein echter Unterschied. Die KI kennt den Stand. Du machst weiter, wo du aufgehört hast.

Integrationen

Die stärkste Ebene, und die aufwendigste. Wenn deine KI direkt auf CRM-Daten, Ticketsysteme oder andere Quellen zugreifen kann, wird sie wirklich kontextsensitiv. Sie weiß, wer der Kunde ist, was er zuletzt gekauft hat, welche offenen Tickets es gibt.

Das ist keine Magie. Das ist Datenpflege plus Integration. Und der Punkt, an dem du wahrscheinlich deine IT brauchst.


Was kein System löst

Alle diese Ebenen hängen von einer Sache ab: dem Menschen, der die KI benutzt.

Wer nicht weiß, was er braucht, kann es nicht formulieren. Wer den Output nicht kritisch liest, merkt nicht, wenn etwas fehlt. Wer nie gelernt hat, wie ein Prompt funktioniert, gibt keinen guten Kontext.

Das ist der Grund, warum ich in meiner Arbeit immer wieder auf dasselbe zurückkomme: Enablement ist nicht optional. Nicht das Modell entscheidet, ob KI in einem Unternehmen funktioniert. Die Menschen entscheiden das.

Also zurück zur Zahl vom Anfang. 95 Prozent der KI-Projekte scheitern. Laut MIT State of AI in Business Report 2025 schaffen es nur 5 Prozent der GenAI-Pilotprojekte, messbaren Umsatzeffekt zu erzeugen.

Vielleicht. Aber ich würde gerne wissen, wie viele davon an schlechten Prompts gescheitert sind. An fehlenden Dokumenten. An Teams, die nie gelernt haben, wie man die KI wirklich benutzt.

Das wäre die interessantere Studie.

Quellen:

Nach oben scrollen