Generative KI, wie Chat-GPT oder Gemini, verändert das Lehren und Lernen drastischer als jede frühere Bildungstechnologie. Die Debatte fokussiert sich oft auf die Notwendigkeit neuer Fähigkeiten im Umgang mit diesen Systemen – doch dies greift zu kurz. Aktuelle Umfragen zeigen, dass bereits 85 bis 90 Prozent der Studierenden generative KI regelmäßig für ihre akademischen Arbeiten nutzen.
Lehrkräfte experimentieren ebenfalls mit Chatbots als Tutoren oder Korrekturhilfen. Die Diskussion konzentriert sich meist auf Fragen wie: Wie funktioniert die Technologie? Welche Systeme sind verfügbar und wie kann man sie korrekt verwenden, um Fehler zu minimieren?
Diese Themen sind wichtig, doch unzureichend. Generative KI ist kein neutrales Werkzeug; sie beeinflusst Denk-, Urteils- und Entscheidungsprozesse. Wer diese Technologie nutzt, delegiert potenziell auch Urteilskraft. Die aktuelle bildungspolitische Debatte konzentriert sich vornehmlich auf ‘AI literacy’, also Grundkenntnisse im Umgang mit KI und ethisches Bewusstsein.
Diese Kompetenzlogik bleibt funktional: Sie fragt, was Lernende mit KI machen können, nicht wer die Autorität im Urteilsprozess behält. Hier gewinnt der klassische Begriff ‘Mündigkeit’ neue Relevanz. In der Aufklärungstradition, wie bei Immanuel Kant beschrieben, meint Mündigkeit die Fähigkeit, eigenständig zu denken und seinen Verstand zu nutzen.
Unmündigkeit ist nicht durch mangelndes Wissen bedingt, sondern wenn das Denken an fremde Autoritäten delegiert wird. Unmündigkeit ist selbstverschuldet – wir neigen dazu, die Erleichterung der Delegation als Stärke zu interpretieren.
Generative KI kann zur solchen Autorität werden: Sie liefert in Sekundenbruchteilen plausible Antworten und verführt uns zum ‘schnellen Denken’ (System 1), wie Daniel Kahneman es beschreibt. Dadurch entsteht eine Synchronisation mit unserer kognitiven Faulheit, die uns davon abhält, das eigene Urteil vollständig zu vollziehen.
Empirische Studien zeigen, dass intensiver KI-Gebrauch mit kognitivem Offloading einhergeht – der Auslagerung von Denkprozessen. Das Problem liegt nicht im Gebrauch von KI, sondern in ihrer Struktur: KI als Abkürzung ersetzt Urteilskraft durch Effizienz.
KI-Mündigkeit bedeutet daher nicht, auf KI zu verzichten. Entscheidend ist die Integration von KI so, dass sie menschliches Denken unterstützt und erweitert statt es zu ersetzen. Eine klare normative Asymmetrie ist dabei wichtig: Die Maschine darf Vorschläge machen – das Urteil muss menschlich bleiben.
Besonders beim Prompting zeigt sich diese Herausforderung. Gute Prompts sind keine Befehle, sondern Fragen, die den Denkprozess anregen.
Bildung muss auf KI-Mündigkeit abzielen: Lernende müssen lernen, zwischen legitimer Unterstützung und unzulässiger Substitution zu unterscheiden. Die zentrale Bildungsfrage lautet somit nicht: Was kann KI tun? Sondern: Was dürfen wir uns von ihr nicht abnehmen lassen, ohne unsere Autonomie zu verlieren? Diese Frage wird entscheiden, ob KI ein Medium der Aufklärung oder ein bequemer Vormund bleibt.
Jörg Noller ist Philosoph an der Ludwig-Maximilians-Universität München. 2024 erschien sein Buch “Was ist digitale Aufklärung? Mit Kant zur medialen Mündigkeit” im Herder-Verlag und sein neuestes Werk “AI Maturity” bei Cambridge University Press.