Inhalt

KI in sensibler Wissensarbeit

Die stille KI

Ein Bild ist bekannt: Ein CFO sitzt spät abends in seinem Büro vor Zahlen. 2,3 Millionen Euro für den konzernweiten KI-Rollout. Lizenzen, Change-Management, Schulungen, Governance-Projekt. Die Investition steht in der Bilanz. Gefragt nach dem Gegenwert, nicht in Anekdoten, sondern in Euro, sagen die Zahlen (noch) nichts.

Das ist keine Seltenheit mehr. Der MIT NANDA Report „The GenAI Divide“ hat 2025 untersucht, was bei 30 bis 40 Milliarden US-Dollar Unternehmensinvestition in generative KI hinten herauskommt. Das Ergebnis: Bei rund 95 Prozent der Organisationen lässt sich kein messbarer Effekt in der Gewinn- und Verlustrechnung nachweisen. Die Technologie funktioniert. Die Lizenzen sind gekauft. Und trotzdem bleibt die Produktivitätskurve flach.

Die Frage, die sich jeder Unternehmenslenker stellen sollte, lautet nicht: „Ist unsere KI gut?“ Sondern: „Wirkt sie dort, wo es für uns zählt?“

Die Ironie der Guardrails

Man stelle sich ein Pharmaunternehmen vor, mittlerer Größe, gute Positionierung im europäischen Markt. Die IT hat vor vielen Monaten Microsoft 365 Copilot ausgerollt. In der Marketingabteilung und im Vertrieb läuft das Tool scheinbar solide. Slides werden schneller erstellt, Meeting-Protokolle schreiben sich selbst, Outlook-Antworten entstehen auf Knopfdruck. Kleine Zeitgewinne, kumuliert definitiv spürbar. Von Cognitive Debt ist bislang nichts zu sehen.

Dann betritt man die Compliance-Abteilung. Dort sieht es anders aus.

Die Rechtsabteilung hat Copilot für ihre Kernprozesse so stark eingeschränkt, dass er dort faktisch stillgelegt ist. Warum? Weil generative KI plausibel klingende, aber falsche Antworten erzeugen kann. Und in diesem Bereich ist das keine Ungenauigkeit, sondern ein Haftungsrisiko. In den USA dokumentiert die AI Hallucination Cases Database des HEC-Paris-Forschers Damien Charlotin mittlerweile über 1.300 Gerichtsfälle, in denen KI-generierte, erfundene Zitate und Fakten in juristische Dokumente gelangt sind. In einem prominenten Fall aus Arizona waren 12 von 19 zitierten Gerichtsentscheidungen frei erfunden. Der zuständige Richter sprach von Inhalten „mit Merkmalen KI-generierter Halluzinationen“.

Übertragen auf den Unternehmenskontext bedeutet das: Eine halluzinierte Klausel in einem Vertragsentwurf, eine falsch zusammengefasste Kontrolle in einem SOC-Bericht, eine erfundene Frist in einer Compliance-Weisung sind keine theoretischen Risiken, sondern dokumentierte Schadensszenarien. Also zieht die Rechtsabteilung die Guardrails an. Copilot darf in sensiblen Bereichen nur noch eingeschränkt antworten, oder gar nicht.

Genau dort verstummt das Tool also, wo der Wissensbedarf in der Organisation am höchsten ist: bei Weisungen, Compliance-Fragen, Onboarding regulierter Rollen, Interpretationen neuer Gesetzeslagen. Dort, wo ein Mitarbeitender heute schnelle, belastbare Orientierung am dringendsten bräuchte, bekommt er entweder keine Antwort oder eine so vage, dass sie nicht handlungsleitend ist.

Das ist die Ironie der Guardrails: Je wichtiger der Kontext, desto leiser wird die KI.

Lautstärke allein zählt nicht

Man könnte einwenden: Gut, dann wirkt Copilot eben in den weniger sensiblen Bereichen, dafür dort umso mehr. Das Argument hält einer genaueren Betrachtung leider auch nicht stand.

Die tägliche Arbeit in großen Organisationen ist miteinander verflochten. Ein Mitarbeitender in der Beschaffung trifft eine Lieferantenentscheidung, die compliance-relevante Konsequenzen hat. Eine Projektmanagerin setzt eine Deadline, die an eine Weisungslage anschließt, die sie nicht vollständig im Kopf hat. Ein neuer Kollege im Außendienst interpretiert eine Kundenfrage, deren rechtliche Rahmung er nur halb versteht. In all diesen Fällen wirkt das Schweigen der KI in den sensiblen Bereichen indirekt, als strukturelles Informationsdefizit, das sich durch die gesamte Organisation zieht.

Der McKinsey Global Institute Report hat bereits 2012 einen Wert ermittelt, der bis heute Gültigkeit beansprucht: Wissensarbeitende verbringen im Schnitt 1,8 Stunden pro Tag mit der Suche nach Informationen. Ein Fünftel der Arbeitszeit, in der nicht produziert wird. Eines von fünf Gehältern, das in die Informationssuche nach Wissen fließt, das eigentlich längst da ist. Die Hoffnung, KI würde diesen Wert senken, ist nachvollziehbar. In der Praxis reduziert sie ihn genau in den Bereichen nicht, in denen die Suchlast am höchsten wäre: in komplexen, regulierten, entscheidungsrelevanten Kontexten.

Bain & Company haben über ein Jahrzehnt die Entscheidungseffektivität von mehr als 1.000 Unternehmen vermessen. Top-Performer treffen in 77 Prozent der Fälle die richtige Entscheidung, schwächere Organisationen nur in 45 Prozent. Das sind zweiunddreißig Prozentpunkte Differenz. Bain identifiziert als Hauptursachen für schlechte Entscheidungen: unklare Rahmen & Rollen und mangelnde Kommunikation. Keine dieser drei Ursachen wird durch eine KI behoben, die in sensiblen Bereichen auf leise gestellt wird.

Der Mitarbeitende zwischen zwei Stühlen

Für den einzelnen Mitarbeitenden hat diese Konstellation eine unerwartete Folge: Er wird nicht entlastet, sondern zusätzlich belastet.

Wo Copilot antwortet, muss er prüfen, ob die Antwort stimmt und vollständig ist. Wo Copilot schweigt, muss er den alten Weg gehen: Dokumente öffnen, Kollegen fragen, Informationsbausteine zusammen fügen. Das Resultat ist eine Organisation, in der KI ein zweites Betriebssystem neben dem ursprünglichen bildet, ohne es zu ersetzen. Beide Systeme kosten Zeit. Die Produktivität bleibt insgesamt flach.

Eine Meta-Analyse von 133 Studien, 2021 im Management Review Quarterly veröffentlicht, kommt zu einem klaren Befund: Visualisierung verbessert nachweislich die Qualität und Geschwindigkeit von Entscheidungen. Besonders in komplexen, mehrschichtigen Kontexten. Text allein reicht nicht. Eine KI-Antwort in Textform liefert eine Aussage, aber keine Struktur. Der Mitarbeitende erfährt, was das Tool sagt. Er erfährt nicht, was daneben, darunter, dahinter liegt. Und nur weil etwas nach Infografik aussieht, ist es noch längst keine.

Was fehlt, ist kein weiteres Tool

Der Reflex, mit weiteren Tools zu antworten, ist nachvollziehbar. Aber irreführend. Eine noch bessere KI, eine noch feinere Permission-Architektur, noch schärfere Purview-Labels: Das alles adressiert die Symptome, nicht die Ursache.

Die Ursache liegt tiefer. KI-Antworten ohne strukturellen Kontext lassen sich nicht sinnvoll einordnen. Ein Mitarbeitender, der eine Weisung als Textantwort bekommt, weiß nicht, wo sie in der Gesamtarchitektur der Organisation steht. Er sieht den einzelnen Knoten, nicht das Netz. Er sieht das Haus, nicht die Straße und schon gar nicht die ganze Stadt.

Visual Knowledge Management, visuelle, navigierbare Wissenslandkarten, schließt genau diese Lücke. Nicht als Ersatz für KI, sondern als das, worauf KI überhaupt erst sinnvoll aufsetzen kann. Wenn eine Organisation ihre Compliance-Struktur, ihre Weisungsarchitektur, ihre Onboarding-Pfade als visuelle Karte hinterlegt, dann bekommt die KI-Antwort plötzlich einen Ort. Sie ist nicht mehr ein isoliertes Textfragment, sondern ein Knoten in einem sichtbaren Zusammenhang.

Für den Mitarbeitenden verändert sich damit die Grundsituation: Er sieht, was die KI gerade gesagt hat und was nicht. Wir Menschen sind überwiegend visuell geprägte Wesen. Er wird vom passiven Konsumenten zum informierten Prüfer. Das ist der Unterschied zwischen einer KI, die Antworten liefert, und einer Organisation, die aus diesen Antworten produktiv wird.

Ein strategischer Dialog

KI wird bleiben. Alle müssen die Techniken lernen mit ihr umzugehen. Die richtige Reaktion ist, zu fragen, welche strukturelle Ergänzung diesen Investitionen zu ihrer eigentlichen Wirkung verhilft und wo in der eigenen Organisation die ersten Ansatzpunkte liegen.

Kontextlab hat diesen Dialog in den vergangenen Jahren mit großen wie kleinen Unternehmen und Organisationen geführt. Die Beobachtung ist konsistent: Die Organisationen, die heute den höchsten Nutzen aus ihrer KI-Infrastruktur ziehen, haben parallel begonnen, ihr Wissen visuell zu strukturieren. Nicht als nachgelagertes Projekt, sondern als eigenständige Managementdisziplin.

Für Unternehmenslenker, die vor der Frage stehen, warum ihre KI im Tagesgeschäft leiser wirkt als im Business Case angenommen, bietet Kontextlab einen strategischen Dialog an. Neunzig Minuten, vertraulich. Gegenstand: Wo in der eigenen Organisation die KI heute schon wirkt, wo sie schweigt und welche strukturelle Grundlage bereits getätigte Investitionen in messbare Wirkung überführt.

Termin anfragen: kontextmaps.com/strategischer-dialog


Kontextlab entwickelt KontextMaps — visuelle Wissenslandkarten für Organisationen, die komplexe Themen strukturiert kommunizieren müssen.