Shift/HR im Wandel Blog

Fachbeiträge, Interviews & Aktuelles zum zum Wandel in HR & Personalmanagement

Lernen durch Abrufen — was die Kognitionsforschung für L&D heute bedeutet

image-65056

Mit dem Einzug von Conversational AI in den Arbeitsalltag verändert sich, wie Mitarbeitende auf Informationen zugreifen und Wissensfragen klären. Was passiert dabei eigentlich kognitiv — und unter welchen Bedingungen entsteht aus Information Retrieval echtes Lernen? Dieser Beitrag legt die kognitionswissenschaftliche Grundlage.

Die Antwort der Forschung ist präziser, als die Debatte um KI im Lernen oft suggeriert.

Lookup und Exploratory Search — zwei Formen des Abrufens

Nicht jeder Abruf ist gleich. Gary Marchionini hat 2006 im Communications of the ACM eine Unterscheidung eingeführt, die für das Verständnis von Lernen im KI-Kontext grundlegend ist: Lookup Search versus Exploratory Search.

Lookup Search beantwortet eine bekannte Frage präzise und abgeschlossen. Das Ziel ist die Antwort; der Weg dorthin ist Nebenprodukt. Conversational AI ist im Kern ein Lookup-System: effizient, präzise, und so gestaltet, dass die kognitive Eigenleistung des Suchenden minimiert wird.

Exploratory Search ist der offene Prozess des Verstehens. Man weiß nicht genau, wonach man sucht, und lernt durch die Suche selbst. Quellen bewerten, Perspektiven abwägen, Zusammenhänge erkennen: Die kognitive Arbeit liegt beim Menschen, nicht beim System.

 Lookup SearchExploratory Search
ZielSpezifische AntwortVerstehen eines Zusammenhangs
Kognitive EigenleistungGeringHoch
Typische KI-Nutzung„Erkläre mir X“ / „Wie lautet Y?“„Was spricht für und gegen X?“ / „Vergleiche A und B“
LerneffektGering (Konsum)Hoch (Konstruktion)

Der Unterschied ist nicht technischer, sondern kognitiver Art. Im Lookup-Modus konsumiert der Geist. Im Explorations-Modus konstruiert er. AI Answer-First ist, per Design, Lookup. Kein Fehler des Systems, aber eine Herausforderung für L&D.

Was ist Cognitive Offloading?

Cognitive Offloading beschreibt die Tendenz des menschlichen Geistes, kognitive Aufgaben an externe Systeme auszulagern: Notizbücher, Kalender, Suchmaschinen, und heute KI. Evan Risko und Sam Gilbert haben das Phänomen 2016 in Trends in Cognitive Sciences systematisch aufgearbeitet: Offloading ist rational und effizient. Es reduziert kognitive Last und macht Kapazitäten für komplexere Aufgaben frei. Der Preis: Was ausgelagert wird, wird nicht internalisiert.

Der Befund ist nicht neu. Betsy Sparrow, Jenny Liu und Daniel Wegner haben diesen Effekt bereits 2011 für Suchmaschinen in einer viel zitierten Science-Studie belegt. Ihr zentraler Befund: Menschen merken sich nicht, was sie gegoogelt haben, sondern wo die Information zu finden ist. Das Gedächtnis adaptiert sich an die Verfügbarkeit externer Systeme. Wenn Wissen jederzeit abrufbar ist, spart der Geist die kognitive Investition des Behaltens.

Mit Conversational AI ist dieser Effekt verstärkt. Die Qualität der gelieferten Antwort ist höher als bei jeder Suchmaschine — die Notwendigkeit eigener kognitiver Arbeit entsprechend geringer.

Depth of Processing — warum Verarbeitungstiefe entscheidet

Fergus Craik und Robert Lockhart haben 1972 in einem bis heute einflussreichen Aufsatz gezeigt, dass Retention durch Verarbeitungstiefe entsteht, nicht durch Wiederholung. Ihr Framework unterscheidet drei Ebenen: oberflächliche Verarbeitung (Wortform, Schriftbild) hinterlässt schwache Gedächtnisspúren, phonologische Verarbeitung mittlere, semantische Verarbeitung — Bedeutung, Kontext, Einordnung in eigenes Wissen — starke und langlebige.

Die Qualität der verarbeiteten Information ist dabei zweitrangig. Eine präzise Antwort, flüchtig gelesen und bestätigend akzeptiert, hinterlässt wenig. Eine unvollständige Information, die man selbst einordnen, kritisch hinterfragen und auf den eigenen Kontext übertragen musste, hinterlässt mehr. AI Answer-First tendiert strukturell zur oberflächlichen Verarbeitung, weil das Format keine kognitive Eigenleistung verlangt — nicht weil die Antworten schlecht wären.

Exkurs: Retrieval Practice und Testing Effect

In der Lernforschung gibt es einen verwandten, häufig genannten Begriff: Retrieval Practice, auch Testing Effect genannt (Roediger & Karpicke, 2006). Er beschreibt, dass das aktive Abrufen von Wissen aus dem eigenen Gedächtnis (etwa durch Selbsttests oder Quizfragen) die Retention stärker verbessert als erneutes Lesen. Ein robuster Befund — aber er beschreibt ein anderes Phänomen: den Abruf aus dem eigenen Gedächtnis als Lernmethode.

Information Retrieval aus externen Systemen wie KI ist das Gegenteil: Hier wird die eigene Gedächtnisleistung gerade ersetzt, nicht trainiert. Beide Begriffe klingen ähnlich und sind inhaltlich verwandt, bezeichnen aber entgegengesetzte Mechanismen. Dieser Beitrag behandelt Information Retrieval aus externen Systemen und die Bedingungen, unter denen dabei trotzdem Lernen entsteht.

Was die Forschung 2025 zeigt

Die Zusammenhänge zwischen Cognitive Offloading, KI-Nutzung und Lernergebnissen sind inzwischen empirisch solide belegt.

André Barcaui hat 2025 in einer randomisierten kontrollierten Studie mit 120 Teilnehmenden untersucht, was passiert, wenn Lernende ChatGPT für ihre Informationsaufnahme nutzen. Die ChatGPT-Gruppe erzielte im Wissensretentionstest 57,5 Prozent richtige Antworten, die Kontrollgruppe ohne KI-Unterstützung 68,5 Prozent (p = .002). Der Unterschied ist statistisch signifikant. Er ist kein Argument gegen KI, aber ein klares Signal: Was passiert, wenn KI-Nutzung ohne kognitive Anforderungen stattfindet.

Michael Gerlich hat in einer Mixed-Methods-Studie mit 666 Teilnehmenden eine negative Korrelation zwischen AI-Tool-Nutzung und Critical-Thinking-Fähigkeiten gemessen, vermittelt durch Cognitive Offloading. Besonders ausgeprägt bei Gruppen, die stärker auf KI-Antworten als Ausgangspunkt eigener Urteile zurückgreifen. Das Muster ist konsistent: Wer KI als Antwortgeber nutzt, ohne eigene kognitive Einordnung, entwickelt schwächere analytische Fähigkeiten. Nicht wegen falscher Antworten — weil der Denkprozess ausbleibt.

Entscheidend ist dabei der Kontext der Nutzung. Gerlichs Studie zeigt auch: Wer KI explorativ einsetzt — als Recherchepartner, als Gegenüber für kritische Rückfragen — zeigt weniger Offloading-Effekte. Die Frage ist nicht ob KI genutzt wird. Die Frage ist, welche kognitive Eigenleistung dabei verlangt wird.

Was das für L&D-Design bedeutet

Die kognitionswissenschaftliche Grundlage lässt sich direkt in Gestaltungsprinzipien übersetzen. Als konzeptioneller Rahmen: Was muss in L&D-Programmen anders gestaltet werden, damit Information Retrieval zu Lernen wird?

Jetzt Gratis-Ticket zum Shift/HR Innovation SUMMIT 2026 sichern! Mehr Infos & Gratis-Lite-Registrierung mit "gratislite"!

Exploratory vor Lookup

Aufgaben so gestalten, dass KI der Ausgangspunkt ist, nicht der Endpunkt. Der Unterschied liegt im Auftrag danach, nicht im Tool: „Lass dir erklären, wie X funktioniert“ ist Lookup. „Recherchiere mit KI, welche Argumente es für und gegen X gibt, und formuliere dann deine eigene Position“ ist Exploration.

Marchioninis Unterscheidung lässt sich direkt in Aufgabendesign übersetzen: offene Fragen statt Faktenfragen, Vergleichsaufgaben statt Abrufaufgaben, Transfersituationen statt Verständnistests. Die kognitive Tiefe entsteht durch das, was nach dem Abruf verlangt wird.

Generieren statt nur Konsumieren

Was man selbst formuliert, behält man besser. Lernszenarien, die nach dem KI-Abruf eigene Produktion fordern (Zusammenfassung in eigenen Worten, Transferaufgabe auf einen konkreten Fall, Peer-Erklärung), aktivieren semantische Verarbeitungstiefe. Der Generation Effect ist einer der robustesten Befunde der Gedächtnisforschung: selbst generierte Antworten werden deutlich besser behalten als gegebene (Slamecka & Graf, 1978).

Der Zugang zur Antwort entscheidet nicht über Lernerfolg. Was nach dem Zugang verlangt wird, entscheidet.

Unterbrechung auf der Meta-Ebene der geistigen Verarbeitung

Lernende neigen dazu, KI-Antworten als vollständig und korrekt zu akzeptieren und dabei zu überschätzen, wie viel sie tatsächlich verstanden haben. Kurze Reflexionsmomente unterbrechen den Offloading-Reflex und aktivieren Tiefenverarbeitung:

  • „Was davon würde ich jetzt einem Kollegen erklären können?“
  • „Welche Annahme steckt hinter dieser Antwort, und gilt sie für meinen Kontext?“
  • „Was bleibt unklar, obwohl die Antwort vollständig wirkt?“

Metacognition ist eine Lernbedingung, keine Persönlichkeitseigenschaft. Sie entsteht nicht von selbst. Sie muss gestaltet werden: als Checkpoint, als Follow-up-Prompt, als Peer-Diskussion.

Wissensarchitektur als neue L&D-Kompetenz

Eine Konsequenz, die über Lernformate hinausgeht: Wenn Mitarbeitende Arbeitsfragen an interne KI-Systeme stellen, entscheidet der Wissenskontext dieser Systeme, was zurückkommt und mit welchem Rahmen. Learning & Talent Development, das die Wissensarchitektur einer Organisation kuratiert, gestaltet damit indirekt, was Mitarbeitende „abrufen“ und wie sie es einordnen. Eine Kompetenzanforderung — Knowledge Engineering, Quellenqualität, inhaltliche Rahmung — die in den meisten L&D-Teams bisher nicht besetzt ist.

Fazit: Tiefe der Verarbeitung entscheidet

Die Frage, die Learning in the Flow of Work gestellt hat, war: Wie bringen wir Lernen in den Arbeitsmoment? AI Answer-First hat eine neue gestellt: Wie gestalten wir den Arbeitsmoment so, dass aus Information Retrieval Lernen wird?

Die Kognitionsforschung gibt darauf eine eindeutige Antwort: Tiefe der Verarbeitung entscheidet. Weder die Qualität der Antwort noch die Effizienz des Abrufs. Entscheidend ist, ob der Geist beim Verarbeiten aktiv war — ob eingeordnet, hinterfragt, transferiert wurde — oder ob konsumiert wurde. Das ist gestaltbar. Es ist die zentrale Aufgabe von L&D in einer Organisation, in der Informationen jederzeit verfügbar sind, Kompetenz aber nicht.

Jetzt kostenlos für Freemium-Zugang zur Shift/HR-Plattform registrieren!

  • Zugang zu Freemium-Inhalten der Mediathek
  • Drei Credits für Freischaltung von Premium-Inhalten
  • Monatlicher Content-Newsletter mit Premium-Inhalten
  • Zugang zu geschlossener Linkedin-Gruppe
  • Besondere Plattform-Angebote über Shift/HR Updates
  • Kostenlos für immer!
Transparenzhinweis:
Wir legen großen Wert auf sachliche und unabhängige Beiträge. Um nachvollziehbar zu machen, unter welchen Rahmenbedingungen unsere Inhalte entstehen, geben wir folgende Hinweise:
  • Partnerschaften: Vorgestellte Lösungsanbieter können Partner oder Sponsoren unserer Veranstaltungen sein. Dies beeinflusst jedoch nicht die redaktionelle Auswahl oder Bewertung im Beitrag.
  • Einsatz von KI-Tools: Bei der Texterstellung und grafischen Aufbereitung unterstützen uns KI-gestützte Werkzeuge. Die inhaltlichen Aussagen beruhen auf eigener Recherche, werden redaktionell geprüft und spiegeln die fachliche Einschätzung des Autors wider.
  • Quellenangaben: Externe Studien, Daten und Zitate werden transparent kenntlich gemacht und mit entsprechenden Quellen belegt.
  • Aktualität: Alle Inhalte beziehen sich auf den Stand zum Zeitpunkt der Veröffentlichung. Spätere Entwicklungen können einzelne Aussagen überholen.
  • Gastbeiträge und Interviews: Beiträge von externen Autorinnen und Autoren – etwa in Form von Interviews oder Gastbeiträgen – sind klar gekennzeichnet und geben die jeweilige persönliche Meinung wieder.