Inhalt

Mensch und Maschine scheitern

Bei KI und Menschen heißt das Bottleneck: Kontext

Warum Mitarbeitende stundenlang nach Informationen suchen und KIs halluzinieren. Und warum das selbe Problem dahinter steckt

Zwei Zahlen, ein Engpass

Zwei Zahlen, die selten zusammen genannt werden:

1,8 Stunden. So viel Zeit verbringt ein durchschnittlicher Wissensarbeiter laut McKinsey Global Institute jeden Tag damit, Informationen zu suchen. Hochgerechnet sind das 9,3 Stunden pro Woche. Mehr als ein voller Arbeitstag.

40 bis 60 Prozent. So viele Enterprise-RAG-Projekte (Retrieval-Augmented Generation, also KI-Systeme, die unternehmenseigenes Wissen abrufen sollen) schaffen es laut einer Branchenanalyse von Ende 2025 nicht zum Livegang. Sie scheitern an Retrieval-Qualität, an Governance-Lücken, an mangelnder Erklärbarkeit gegenüber den Verantwortlichen Vorgesetzten.

Auf den ersten Blick haben beide Zahlen nichts miteinander zu tun. Die eine beschreibt menschliche Arbeitszeit, die andere KI-Implementierungsraten. Die eine ist von 2012, die andere von Ende 2025.

Wer genauer schaut, findet jedoch ein gemeinsames Problem, das dahinter steckt.

Beide entstehen, weil Wissen in den meisten Organisationen unstrukturiert vorliegt, verteilt auf mehrere Wikis, tausende PDFs, Confluence-Seiten, SharePoint-Ordner, E-Mail-Anhänge, Slack-Threads, E-Mails. Also nicht weil Information fehlt, sondern weil der Information eine Hierarchie, eine Beziehungsstruktur, ein navigierbares Modell fehlt.

Mensch und Maschine stehen vor demselben Engpass. Und 2026 wird das für Unternehmen zum doppelten Problem: Mitarbeiter verlieren weiter Zeit und KI-Investitionen in Copilot, Claude, ChatGPT, Eigenentwicklungen und RAG-Projekte produzieren weiter Halluzinationen oder bleiben doch im Pilotstatus stecken.

In diesem Beitrag schauen wir uns an, was aus wisschenschaftlicher Sicht helfen könnte, um eine Lösung zu finden.

Menschen scheitern an unstrukturiertem Wissen

Wenn ein neuer Mitarbeitender am ersten Tag das Onboarding-Wiki öffnet, beginnt ein Prozess, den die Kognitionspsychologie sehr genau beschrieben hat. Er liest Sätze. Aus diesen Sätzen baut er, Wort für Wort, ein mentales Modell der Organisation, des Themas, der Prozesse. Was wie passives Lesen und Aufnehmen aussieht, ist im Gehirn die aktive Konstruktion eine neuen Wissensgebietes.

Mentale Modelle sind fragil

Die Mental-Model-Theorie nach Kintsch und van Dijk, seit den 2025er Aufarbeitungen wieder häufiger diskutiert, beschreibt es so: Lesen heißt, ein Situationsmodell im Gehirn zu bauen aus dem Text, dem Vorwissen und eigenen bereits vorhandenem Vorwissen. Dieses Modell ist fragil. Ein einzelnes verwirrendes Wort, ein fehlender Begriff, eine implizite Voraussetzung, die nicht erklärt ist und schon funktioniert das Modell nicht mehr. Der Leser kommt am Ende der Seite an, hat aber kein integriertes Verständnis des gesamten Onboarding-Wikis sondern nur Fragmente.

Das Kurzzeitgedächtnis ist stark begrenzt

Die Cognitive Load Theory liefert den Hintergrund, um zu verstehen, warum: Das Arbeits- oder auch Kurzzeitgedächtnis kann nur eine sehr begrenzte Menge an Information gleichzeitig verarbeiten. Drei Typen kongnitiver (Be)Last(ung) wirken parallel:

  • Inhaltliche kognitiver Belastung (intrinsic load): Bedingt durch die Schwierigkeit des Stoffes selbst. Shakespear ist schwieriger zu verstehen als Micky Maus.
  • Extrinsische kognitive Belastung (extraneous load): „Schlechte“ Belastung durch verwirrende Darstellung/Vermittlung oder Ablenkung.
  • Lernbezogene kognitive Belastung (germane load): „Gute“ Belastung durch das aktive Verarbeiten und Verknüpfen von Wissen. die auch Kapazit braucht.

Oft ist ein zentrals Problem von Wissensfeldern eine hohe extrinsische Belastung. Mitarbeitende müssen erst herausfinden, in welchem System ein Dokument liegt, dann welche der zwölf Versionen aktuell ist, dann was der Kontext zu anderen Prozessen ist. All das verschwendet kognitive Kapazität. Also Energie, die für das eigentliche Verstehen nicht mehr verfügbar ist. Übersicht und Klarheit wäre eine Lösung. 

Sensemaking findet ohnehin statt. Die Frage ist, zu welchem Preis?

Dazu kommt ein dritter Effekt: Sensemaking nach Karl Weick, in der hier verlinkten systematischen Aufarbeitung ausführlich beschrieben. In Organisationen kommt Wissen nie strukturiert und klar sortiert beim Rezipienten an. Es entsteht in Meetings, E-Mails, Kundenkontakten, Entscheidungssitzungen. Fragmentiert, mehrdeutig, manchmal auch widersprüchlich. Menschen müssen retrospektiv selbst eine Ordnung finden. Sie müssen sich fragen: Worum geht es hier eigentlich? Wer hat was entschieden? Wie hängt das mit dem zusammen, was wir letzten Monat besprochen haben? Diese Sensemaking-Arbeit ist unsichtbar, kostet aber Stunden und ohne Strukturhilfen muss jeder Mitarbeitende sie für sich allein leisten.

Was das für Kosten verursacht

Bain & Company hat genau das in einer Langzeitstudie über mehr als 1.000 Unternehmen gemessen. Top-performende Organisationen treffen 77 Prozent ihrer Entscheidungen richtig. Die schlechten Performer 45 Prozent. Der 32-Prozentpunkte-Unterschied korreliert statistisch signifikant mit der unternehmerischen Performance.

Drei Ursachen identifiziert Bain für schlechte Entscheidungseffektivität:

  1. Unklare Rahmung: niemand ist sich einig, worum es eigentlich geht.
  2. Rollenverwirrung: niemand weiß, wer entscheidet.
  3. Gescheiterte Kommunikation: Entscheidungen kommen nicht an.

Alle drei Ursachen sind Strukturprobleme. Sie sind keine inhaltlichen Probleme. Es mangelt nicht an Information!

Visualisierung als belegte Lösung

Genau hier setzt die zweite Richtung aus der Wissenschaft an: visuelle Vermittlung. Eine Springer-Metaanalyse aus 2021 hat 133 peer-reviewte Studien zur Wirkung von Visualisierung auf Urteilsbildung und Entscheidungsfindung ausgewertet. Das Ergebnis ist deutlich: Visualisierung verbessert Entscheidungsqualität und Entscheidungsgeschwindigkeit messbar. Natürlich unter einer Prämisse: die Gestaltung muss gut ist.

Eine ergänzende Untersuchung aus dem Annual Review of Vision Science 2025 zeigt, dass Diagramme und Infografiken im Vergleich zu allen anderen Informationsformaten die höchste Memorabilität aufweisen. Wir erinnern uns nunmal am besten an Bilder. Die Kombination aus Text und visueller Struktur ist dem folgend der beste Weg für die Vermittlung und Wissensaufnahme.

Die APQC, eine der weltweit größten Organisationen für Knowledge Management, formuliert es noch direkter: Knowledge Mapping ist die effektivste Methode, um kritisches Wissen in Organisationen sichtbar zu machen. Maps zeigen Lücken, Inseln, Engpässe und Abhängigkeiten, die in rein textbasierten Vermittlungsformen unsichtbar bleiben.

Zusammengefasst: Menschen brauchen nicht mehr Information. Sie brauchen weniger extrinsische Belastung, sichtbare Beziehungen und ein Modell, das ihnen das Sensemaking erleichtert.

Was KI mit unstrukturiertem Wissen macht

Der zweite Teil dieses Artikels setzt an einem einam ganz anderen Punkt an und ist in vielen L&D-Abteilungen noch nicht angekommen. Das wird abe kommen, sobald die die KI-Initiative des CDO (Chief Digital Officer) auf Lerninhalte und Wissensmanagement hinüber schwappt.

Die Annahme, KI würde das Suchproblem nach Information lösen, ist weit verbreitet. Sie greift leider zu kurz, zumindest in der Form, in der sie aktuell angenommen wird.

Halluzinationen sind kein Bug, sondern Architektur

Reviews aus 2025 (Kalai et al., Huang et al.) zeigen, dass Halluzinationen keine zufällige Schwäche von Large Language Models sind. Sie sind eine strukturelle Eigenschaft der Architektur. Alle Modelle sind darauf trainiert plausibel klingende Texte zu produzieren. Sie sind nicht darauf trainiert, faktentreu zu sein. Wenn sie keine ausreichende Grundlage haben, erfinden sie einfach, was passen könnte und sich gut anhört. Diese Eigenschaft von LLMs ist nicht durch mehr Training oder mehr Daten reparierbar.

RAG: die scheinbare Lösung hat ihr eigenes strukturelles Problem

Die Standardantwort der Industrie auf dieses Problem heißt RAG: Retrieval-Augmented Generation. Statt das Modell raten zu lassen, durchsucht das System vor jeder Antwort relevante Dokumente und ruft Abschnitte aus vordefinierten Wissensdatenbanken ab und gibt sie dem Modell als Kontext mit. Klingt elegant. Funktioniert in der Praxis leider aus mehreren Gründen unzuverlässig.

Die Forschung nennt es das Chunking-Dilemma. RAG zerschneidet Dokumente in kleine Häppchen und sucht nach denen, die der Anfrage semantisch am ähnlichsten sind. Kleine Chunks verlieren jedoch Kontext. Der Satz „Die Frist beträgt 14 Tage“ sagt ohne den umgebenden Absatz beispielsweise sehr wenig aus. Größere Chunks verwässern den Fokus und das Modell erhält wieder zu viel Information und verliert die zentralen Aussagen. Das System muss dann wieder auf scheinbar plausible Lösungen kommen, halluziniert also.

Selbst mit den größten verfügbaren Kontextfenstern bleibt das Problem bestehen. Lange Kontexte erodieren die Informationsqualität im Fokusbereich. LLMs ignorieren Information, die in der Mitte Informationseinheiten steht. Sie widersprechen explizit gegebenen Fakten, wenn die Struktur unklar ist. Das ist mittlerweile in dutzenden Papers dokumentiert.

Ergebnis: KI hat Cognitive Load Probleme, genau wie Menschen

Das Ergebnis stammt aus einem Paper, das 2025 auf der NeurIPS-Konferenz vorgestellt wurde „Cognitive Load Traces“. Die Autoren zeigen, dass die internen Dynamiken von LLMs sich mit denselben Konzepten beschreiben lassen, mit denen die Kognitionspsychologie menschliche Working-Memory-Belastung misst. LLMs zeigen Aufmerksamkeitsentropie, Repräsentationsdispersion, Decoding-Instabilität und es gibt einen Punkt ab dem sie ähnlich versagen wie Menschen, die zu viele Informationen gleichzeitig verarbeiten sollen.

Mit anderen Worten: KI hat Cognitive Load Probleme. Genau wie Menschen.

Das ist kein Zufall. Es ist ein Hinweis darauf, dass jede informationsverarbeitende Einheit, biologisch oder synthetisch, auf strukturierten Kontext angewiesen ist, sobald die Komplexität steigt. Mehr Daten ohne Struktur überlasten beide.

Die Antwort der Industrie: From RAG to Context

RAGFlow, ein Anbieter im RAG-Bereich, hat seinen 2025er Year-End-Review „From RAG to Context“ genannt. Die Neuausrichtung, die sich gerade vollzieht, geht von einer reinen Retrieval-Logik (finde die richtigen Textfetzen) hin zu einer Kontext-Logik (baue eine Struktur, in der die KI navigieren kann).

Konkret nennt sich das GraphRAG. Knowledge Graphs werden zur Grundlage. Microsoft Research hat 2024 sein GraphRAG-Framework veröffentlicht, Neo4j ein GraphRAG Manifesto. 2025 sind dutzende Folgeframeworks erschienen: LeanRAG, HugRAG, HyperTree Planning und noch mehr. Alle folgen der gleichen Grundidee, statt der KI flache Vektor-Embeddings zu geben, gibt man ihr eine hierarchische, beziehungsreiche Struktur, in der Wissen so organisiert ist, dass es verstanden werden kann.

Das Ergebnis sind messbar genauere Antworten, weniger Halluzinationen, bessere Erklärbarkeit. Vor allem aber wird Multi-Hop-Reasoning möglich. Das bedeutet, dass die KI über mehrere Knotenpunkte hinweg argumentieren. Das funktioniert mit naivem RAG nicht.

Jedoch sind Knowledge Graphs schwer zu bauen. Sie sind extrem technisch, sie müssen von Datenteams gepflegt werden und kein Mitarbeiter außerhalb der IT kann damit etwas anfangen. Durch die Einführung von GraphRAGs entsteht ein neues Silo. Sie können gut für die KI sein, bleiben aber unsichtbar für die allermeisten Menschen in der jeweiligen Organisation.

Wie wird da nun ein Schuh draus?

Was ein Mensch braucht, um in einem komplexen Themenfeld effizient zu arbeiten, lässt sich in vier Punkten zusammenfassen:

  • Hierarchie statt flacher Liste: damit die intrinsische Komplexität nicht das Arbeitsgedächtnis überlastet.
  • Sichtbare Beziehungen: damit Mental Models gebaut werden können.
  • Validierter Kontext: damit Sensemaking nicht bei Null beginnt.
  • Navigation statt Suche: damit extrinsische Belastung reduziert wird.

Was eine KI braucht, um zuverlässig auf Unternehmenswissen zu antworten, lässt sich in vier Punkten zusammenfassen:

  • Hierarchie statt flacher Liste: damit Multi-Hop-Reasoning funktioniert.
  • Sichtbare Beziehungen: damit Edges für GraphRAG vorhanden sind.
  • Validierter Kontext: damit Halluzinationen reduziert werden.
  • Navigation statt Suche: damit Token-Effizienz erreicht wird.

Dieselben vier Punkte!

Das ist kein Zufall. Beide Systeme, das biologische und das synthetische, haben begrenzte Verarbeitungskapazitäten. Beide müssen aus einer Vielzahl von Inputs ein Modell bauen, in dem sie Antworten finden. Beide profitieren von expliziter Struktur, weil sie nicht beliebig viel implizite Struktur selbst rekonstruieren können.

Die Pointe: Wer in seiner Organisation Wissen so strukturiert, dass Menschen es lesen können, hat damit automatisch die halbe Arbeit für die KI-Strategie erledigt. Und umgekehrt.

Was das für die Praxis heißt und was visuelle Wissenskarten damit zu tun haben

An dieser Stelle wird dieser Beitrag konkret, weil das Konzept einer „visuellen, hierarchischen, navigierbaren Wissenskarte“ so abstrakt klingt, dass es ohne ein Bild im Kopf nicht greifbar wird.

Eine KontextMap ist genau das, was dieser Blogpost herleitet: eine vernetzte visuelle Wissenskarte, in der Knotenpunkte Themen, Prozesse, Begriffe, Verantwortlichkeiten und Dokumente zeigen. Knotenpunkte sind über mehrere Ebenen ein- und ausblendbar, der Mensch entscheidet, wie tief er ins Detail geht. Jeder Knotenpunkt kann mit Inhalt gefüllt sein, multimedial. Externe Inhalte aus Confluence, SharePoint oder anderen Systemen können integriert werden.

Für Menschen bedeutet das: Sie sehen die Struktur des Themas, bevor sie sich in Details begeben. Sie können navigieren. Das mentale Modell wird ihnen geliefert, statt dass sie es aus Fragmenten selbst rekonstruieren müssen. Die Cognitive Load sinkt, Sensemaking wird kollektiv geleistet statt einzeln, mentale Modelle bauen sich schneller auf und sind stabiler.

Für KI bedeutet das: Die Karte ist hierarchisch und beziehungsreich strukturiert. Sie ist im Kern eine human-readable Repräsentation derselben Information, die ein Knowledge Graph maschinell speichern würde. Eine veröffentlichte KontextMap ist gleichzeitig eine Quelle für ein GraphRAG, ohne dass das Daten-Team einen separaten Knowledge Graph aufbauen muss.

Diese Doppelfunktion ist neu. Ein Kontext-Layer, der von Menschen gepflegt und von KIs gelesen wird.

KontextMaps helfen nicht nur Menschen Wissen besser zu verstehen, sondern sie sind auch die Grundlage für vertrauenswürdige KI-Anwendungen. Win-Win. Das öffnet die produktive Nutzbarkeit von KI auch in sensiblen Bereichen und hilft den Menschen zu verstehen.

Was das für das Wissensmanagement bedeutet

Wenn Wissensmanagement in einer mittleren bis großen Organisation weiter und vor allem besser als bisher funktionieren soll, folgen diese drei Schritte: 

1. Wissen-in-Dokumenten ist als Strategie tot

Egal wie gut das Confluence-Wiki gepflegt wird, egal wie viele PDFs in der Lernplattform liegen, das Format selbst limitiert, wie schnell Menschen verstehen und wie zuverlässig KIs antworten können. Strukturierte, hierarchische, beziehungsreiche Wissenaufbereitung ist keine Stilfrage. Sie ist eine Effektivitätsfrage. Die Springer-Metaanalyse, die Cognitive Load Theory und das APQC-Framework sind sich darin einig und seit 2025 belegt die KI-Forschung dasselbe für maschinelles Verstehen.

2. Die Trennung zwischen „Inhalten für Menschen“ und „Daten für KI“ wird unhaltbar

Jede Investition in Wissensaufbereitung sollte heute mit beiden Zielgruppen im Blick angegangen werden. Wer Lerninhalte produziert, die nur für Menschen lesbar sind, baut Inhalte, die in 24 Monaten neu gemacht werden müssen oder von KI-gestützten Lernplattformen schlicht ignoriert werden. L&D-Teams, die heute strukturieren was ihre Organisation weiß, schaffen damit gleichzeitig die Grundlage für die KI-Strategie, die im nächsten Quartal vom CDO angekündigt wird.

3. Der Hebel ist Struktur, nicht noch mehr Inhalt

Die meisten Organisationen haben mehr Wissen, als sie jemals nutzen können. Was fehlt, ist die Landkarte, der Überblick, die Orientierung. Eine gut strukturierte Map für ein zentrales Thema, z.B. Compliance, Onboarding, Projektprozesse, bringt mehr Wirkung als hundert neue Schulungsmodule. Die McKinsey-Studie schätzt das Einsparpotenzial bei strukturiertem Wissenszugang auf 35 Prozent der täglichen Suchzeit. Bei einer Organisation mit 500 Wissensarbeitern entspricht das einer Größenordnung, in der sich die Investition in eine einzige strukturierte Map innerhalb von Tagen amortisiert.

Zwei Zahlen, eine Lösung

Zurück zu den Zahlen vom Anfang: 1,8 Stunden täglich, die jeder Mitarbeiter mit Suche verbringt. Und 40 bis 60 Prozent der RAG-Projekte, die in der Pilotphase scheitern.

In den meisten Organisationen werden diese beiden Probleme separat behandelt. Das eine landet bei L&D und HR, das andere bei der IT. Die Wissenschaft sagt etwas anderes: Es ist dasselbe Problem, und es braucht dieselbe Lösung.

Strukturierter, hierarchischer, validierter Kontext, der gleichzeitig von Menschen genutzt und von KIs verarbeitet werden kann.

Wer das in den nächsten zwölf Monaten aufbaut, gewinnt doppelt. Wer wartet, verliert auf beiden Seiten.

Wie es weitergeht

KontextMaps wird in den kommenden Monaten in genau diese Doppelnutzung investieren: Maps, die als sichtbares Wissensmanagement für Menschen dienen und gleichzeitig als strukturierte Quelle für KI-Anwendungen funktionieren.

Wenn das für Ihre Organisation relevant klingt, gibt es zwei einfache nächste Schritte:

[Newsletter abonnieren]: wir veröffentlichen immer wieder vertiefende Beiträge zu visuellem Wissensmanagement und zur Schnittstelle zwischen menschlichem Lernen und KI-gestützter Wissensarbeit. Keine Werbung, kein Sales. Substanz.

[Dialog anfragen]: wir zeigen in 30 Minuten, wie eine KontextMap zu einem Ihrer aktuellen Wissensthemen aussehen könnte und wie sie sich als Grundlage für KI-Anwendungen nutzen lässt. Einfach eine Mail schicken.

Quellen