Startseite Zurück New search Date Min Max Luftfahrt Automobilindustrie Unternehmen Cyber-Sicherheit Verteidigung und Sicherheit Finanzen Gesundheitswesen Industrie Intelligente Verkehrssysteme Digitale öffentliche Dienste Dienstleistungen Raumfahrt Blog Alle Cybersicherheit Jeder kann Bildhauer seines eigenen Gehirns sein, wenn er oder sie sich dafür entscheidet 06/03/2026 Drucken Teilen Das Vordringen großer Sprachmodelle (LLM) in den Arbeitsalltag verändert leise, aber tiefgreifend die Art und Weise, wie wir denken, lernen und Entscheidungen treffen. Im Software-Engineering ist die Auswirkung besonders deutlich zu erkennen: Zum ersten Mal haben wir Werkzeuge, die nicht nur Variablen- und Methodennamen automatisch vervollständigen, sondern auch Architekturen vorschlagen, Tests schreiben, zwischen Programmiersprachen übersetzen und Lösungen mit einer Gewandtheit vorschlagen, die es mit menschlicher Expertise aufnehmen kann.Empirische Erkenntnisse über die Produktivität sind zwar noch am Anfang, deuten aber bereits auf messbare Verbesserungen bei konkreten Aufgaben hin. In einem kontrollierten Experiment mit GitHub Copilot schloss eine Gruppe von Entwicklern eine Implementierungsaufgaben deutlich schneller ab als die Kontrollgruppe [1]. Parallel dazu waren beim professionellen Schreiben Produktivitätssteigerungen und eine gewisse Qualitätskonvergenz zu beobachten, wenn ein ChatGPT-ähnlicher Assistent eingeführt wurde [2]. Zu diesen Ergebnissen kommen Aussagen von Branchenführern hinzu, die besonders aufhorchen lassen: Gustav Söderström (Co-CEO von Spotify) erklärte kürzlich bei der Präsentation der Ergebnisse für das vierte Quartal 2025, dass die Entwickler von Spotify „seit Dezember keine einzige Zeile Code mehr geschrieben haben“, sondern lediglich die Generierungswerkzeuge anleiten [auf Spanisch 3]. Boris Cherny, Leiter von Claude Code, erklärte außerdem, dass „100 % des Codes in den letzten zwei Monaten vollständig mit Opus 4.5 geschrieben wurden“ [4]. Selbst Sam Altman deutete an, dass der GPT-5 Codex ein aktiver Teil seiner eigenen Entwicklung war und sich selbst programmiert hat [5].Dieser Paradigmenwechsel geht jedoch mit einerunangenehmen Frage einher, die den Anlass für den dritten Beitrag der Reihe zu LLM-Serie bildet: Was passiert mit den Fähigkeiten, die von denen wir keinen Gebrauch mehr machen, sobald wir einen Teil der kognitiven Anstrengungen „delegieren“?Im Bildungsbereich hat sich die Debatte zwischen Betrug und Chancen polarisiert. Es gibt Studien, die beschrieben haben, wie der weit verbreitete Zugang zu generativen Werkzeugen das Verhalten (und manchmal auch die Wahrnehmung) in Bezug auf akademische Integrität verändern kann; insbesondere wurden Analysen mit Daten aus der Zeit vor und nach nach Beginn der breiten Einführung von ChatGPT veröffentlicht, die die Stabilität oder Veränderung der Muster des Kopierens und der Wiederverwendung von Arbeiten anderer in Sekundarschulen untersuchen [6]. Auch außerhalb der Klassenzimmer besteht Besorgnis darüber, wie diese Werkzeuge Gewohnheiten umgestalten: Wenn ein Text ausreichend korrekt „produziert“ wird, ist die Versuchung groß, den Inhalt weder zu prüfen, noch in den eigenen mentalen Rahmen zu integrieren.Hier ist eine Unterscheidung zu treffen: Die Verwendung eines LLM als Taschenrechner (Externalisierung einer mechanischen Berechnung) ist nicht dasselbe wieseine Verwendung als Ersatz für das Denken (Externalisierung der Konstruktion des mentalen Modells). In der neueren Literatur wird allmählich auf Risiken hingewiesen, die mit dieser Intuition vereinbar sind: Es wurden Zusammenhänge zwischen einer stärkeren Abhängigkeit von künstlicher Intelligenz und einem niedrigeren Niveau des kritischen Denkens beobachtet, wobei plausible Mechanismen (wie kognitive Ermüdung) und die abmildernde , wenn auch unvollkommene Rolle grundlegender Informationskompetenz zu berücksichtigen sind [7]. Darüber hinaus wurde bei Lernaufgaben, bei denen die Verwendung eines LLM mit einer herkömmlichen Suchmaschine verglichen wurde, eine Verringerung des mentalen Aufwands zusammen mit einer geringeren Argumentationstiefe festgestellt, was darauf hindeutet, dass die „Leichtigkeit“ beim Lernen teuer zu stehen kommen kann, wenn sie nicht durch aktive Strategien kompensiert wird [8].Im Software-Engineering kann diese „kognitive Atrophie“ [9] als schlecht kalibriertes Offloading interpretiert werden: Wir übertragen dem Assistenten Schritte, die früher für das bewusste Training kreativer und analytischer Fähigkeiten in der Softwareentwicklung entscheidend waren (Lesen eines Fehlers, Debuggen von Hypothesen, Entwerfen einer Abstraktion, Auswahl einer Datenstruktur) und wir uns vor allem nur noch auf Überwachungs- und Korrekturaufgaben beschränken. Paradoxerweise ist eine solche Überwachung auch nicht trivial.Die klassische Automatisierungsforschung hat bereits davor gewarnt, dass die Nutzung, der Missbrauch und die Zweckentfremdung automatischer Systeme von Faktoren wie Vertrauen, mentaler Belastung oder Risikowahrnehmung abhängen und dass diese Faktoren sowohl zu einer Über- als auch zu einer Unterbeanspruchung unserer mentalen Fähigkeiten führen können [10]. In aktuellen Experimenten wurde auch beobachtet, dass das bloße Bewusstsein, dass ein Ratschlag von einer KI stammt, die Tendenz verstärken kann, ihm selbst dann zu folgen, wenn er den verfügbaren Kontextinformationen und der eigenen Einschätzung des Nutzers widerspricht [11]. Übertragen auf den Code bedeutet dies, dass plausible, aber fehlerhafte Vorschläge zu einem späteren Zeitpunkt akzeptiert werden: subtile Fehler, technische Schulden und vor allem Lernen, das sich nicht herauskristallisiert, weil die Überlegungen unterbrochen werden, bevor sie sich konsolidieren konnten.Für Juniorprofile besteht ein doppeltes Risiko. Junge Ingenieure sind mit der Dichotomie von Dr. JekyLLLM und Mr. JekyLLM konfrontiert. Hyde: KI kann zu einem Lernhebel oder aber einer gefährlichen Versuchung werden, die sie der Möglichkeit beraubt, aus anfänglichen Fehlern zu lernen, solange diese noch beherrschbar sind. Einerseits können LLMs die Auslieferung beschleunigen und ein falsches Gefühl von Kompetenz vermitteln (da sie Code schreiben, mit dem das System „funktioniert“), wodurch die Zeit, die zuvor für das Verständnis der Funktionsweise aufgewendet wurde, reduziert wird. Wenn Unternehmen hingegen nur den Durchsatzin den Vordergrund stellen, ist es einfach, die Ausbildung von der geführten Erkundung zur rein überwachten Ausführung zu verlagern.Usability-Studien sind sehr aufschlussreich: Bei Tests mit neu qualifizierten Ingenieuren kommt es zu Reibungen (z. B. Zweifeln daran, was zu akzeptieren ist), Missverständnissen (darüber, was das KI-Modell tatsächlich garantiert) und Kompensationsstrategien (Ex-post-Überprüfung, schnelles Patchen). Daher reicht es nicht aus, Prompts zu schreiben: Wir müssen lernen, LLMs einzubauen, ohne das Denken zu ersetzen [12]. Gleichzeitig warnen Qualitätsbenchmarks davor, dass die Korrektheit, Wartbarkeit oder Sicherheit des generierten Codes nicht einheitlich ist: Die Ausgabe kann zwar gültig, aber dennoch suboptimal oder anfällig sein [13].In diesem Artikel möchte ich darlegen, dass dieses Szenario nicht unausweichlich ist: Es birgt eine außergewöhnliche Chance. Mit bescheidenen Anstrengungen kann ein und dasselbe LLM eher zu einem kognitiven Gerüst als zu einer Ersatztechnologie werden; zu einem Werkzeug, das uns, in den Worten von Ramón y Cajal, erlaubt, „Bildhauer unseres eigenen Gehirns zu werden“ und das Lernen in einem Ausmaß zu verbessern, das vor Jahrzehnten noch schwer vorstellbar war.Der erste Tipp (oder Trick) besteht darin, zwei sich ergänzende Arbeitsmodi explizit zu trennen: den schnellen Liefermodus und den Lernmodus. Im Liefermodus geht es darum, Fortschritte zu erzielen, aber mit strengen Qualitätskontrollen (Tests, statische Analyse, Peer Review). Im Lernmodus besteht das Ziel ebenfalls darin, mit diesen Kontrollen voranzukommen, ohne jedoch auf die Stärkung des mentalen Modells zu verzichten: Nach Alternativen und deren Kompromissen fragen; Erklärungen mit Invarianten und Komplexität verlangen; den Assistenten auffordern, Grenzfälle abzuleiten und zu begründen, warum „naive“ Lösungen versagen; oder eine „zweite Runde“ erzwingen, in der der Ingenieur selbst die Lösung umschreibt, ohne dabei das vorherige Ergebnis zu betrachten.Diese Verdrehung steht im Einklang mit Forschungsergebnissen, die vor „metakognitiver Faulheit“ warnen: Wenn das Tool zwar das Endprodukt verbessert, steigert es eventuell nicht den Wissenszuwachs, wenn es nicht zu Selbstregulierung, Reflexion und einem gewissen Maß an persönlicher Anstrengung führt [14]. Im Einklang mit den jüngsten kritischen Überlegungen zu KI und Lernen scheint es, dass der Schlüssel genau in dem Prozess liegt, in dem wir uns selbst durch Übung formen: Der Schwerpunkt liegt dabei weniger auf dem Werkzeug selbst als vielmehr darauf, wie die Aufgabe und der Lernprozess gestaltet sind: welche kognitiven Prozesse sie aktiviert, welche Art von Aufmerksamkeit sie fördert und welche Gewohnheiten sie festigt [15].Diese Strategien können die Form einfacher Rituale annehmen, die mit einem Unternehmensumfeld und jungen Teams vereinbar sind. Dazu gehören:Aktiver Vergleich: Verlangen Sie vom LLM eine Lösung und schreiben Sie, bevor Sie diese übernehmen, eine eigene (eventuell auch nur eine Teillösung) und vergleichen Sie dann.Kurze Post-Mortem-Analyse : Machen Sie sich in Ihren eigenen Worten Notizen darüber, was Sie gelernt haben (ein Muster, eine API, einen konzeptionellen Fehler) und welches Signal Sie auf einen Fehler aufmerksam gemacht hat.Bewusste Einschränkungen: Reservieren Sie kleine „von Copiloten freie Zonen“ (Katas, Schulungsmodule, Prüfungen), in denen das Junior-Profil von Grund auf übt.Auf Einzelunterricht ausgerichtete Prompts: „Gib mir keinen fertigen Code, sondern stelle mir Fragen, schlage Schritte vor und prüfe meine Hypothesen“.Verifizierung als Lernen: Die Überprüfung in eine intensivere geistige Aktivität verwandeln (Eigenschaften, Invarianten, Stresstests) und nicht nur als einfachen „Gut-Schlecht-Test“ durchführen.Wenn man diese Disziplin beibehält, ist das LLM keine Abkürzung mehr, die „unser Gehirn ausschaltet“, sonder wird zu einem Multiplikator unserer Neugier und unserer Möglichkeiten für berufliches Wachstum: ein intellektueller Sparringspartner mit gewissen Einschränkungen, aber rund um die Uhr verfügbar, der vom Ingenieur verlangt, die Verantwortung für das Denken zu übernehmen.Letztendlich liegt der Schlüssel im bewussten Üben und kontinuierlichen Lernen , um die Fähigkeiten „scharf“ zu halten, ganz im Sinne der Benjamin Franklin zugeschriebenen Maxime: Ein Teil meiner Arbeit besteht darin, KI dort weiterzuentwickeln, nutzbar zu machen und verantwortungsbewusst einzusetzen, wo die qualitative Messlatte sehr hoch legt. In diesem Artikel erzähle ich, was ich gelernt habe, so dass jede/r (von Anfängern bis zu denen mit jahrzehntelanger Erfahrung) eigene Erfahrungen reflektieren und weitergeben kann. Wenn diese Reihe von Beiträgen dazu beigetragen hat, dass Sie KI in einem Umfeld, das von Hype überladen ist, etwas gelassener betrachten, hat sie ihren Zweck erfüllt.Autor: David MirautVerweise:[1] S. Peng, E. Kalliamvakou, P. Cihon und M. Demirer, 'The Impact of AI on Developer Productivity: Evidence from GitHub Copilot', Feb. 13, 2023, arXiv: arXiv:2302.06590. doi: 10.48550/arXiv.2302.06590.[2] S. Noy and W. Zhang, ‘Experimental evidence on the productivity effects of generative artificial intelligence’, Science, vol. 381, no. 6654, pp. 187–192, Jul. 2023, doi: 10.1126/science.adh2586.[3] 'Spotify behauptet, seine Programmierer hätten im Jahr 2026 "keine einzige Zeile Code" geschrieben, und das sagt viel über die Zukunft aus‘. Aufgerufen: Feb. 24, 2026. [Online]. Verfügbar: https://www.elconfidencial.com/tecnologia/2026-02-14/programadores-spotify-no-escriben-codigo-1qrt_4302850/?utm_source=chatgpt.com[4] M. Zeff, 'How Claude Code is transforming software, starting with Anthropic', WIRED. Aufgerufen: Feb. 24, 2026. [Online]. Verfügbar: https://es.wired.com/articulos/como-claude-code-esta-transformando-el-software-empezando-por-anthropic[5] B. Edwards, 'How OpenAI is using GPT-5 Codex to improve the AI tool itself', Ars Technica. Aufgerufen: Feb. 24. - 2026. [Online]. Verfügbar: https://arstechnica.com/ai/2025/12/how-openai-is-using-gpt-5-codex-to-improve-the-ai-tool-itself/[6] V. R. Lee, D. Pope, S. Miles, und R. C. Zárate, 'Cheating in the age of generative AI: A high school survey study of cheating behaviors before and after the release of ChatGPT’, Comput. Educ. Artif. Intell., vol. 7, p. 100253, Dec. 2024, doi: 10.1016/j.caeai.2024.100253.[7] J. Tian and R. Zhang, ‘Learners’ AI dependence and critical thinking: The psychological mechanism of fatigue and the social buffering role of AI literacy’, Acta Psychol. (Amst.), vol. 260, p. 105725, Oct. 2025, doi: 10.1016/j.actpsy.2025.105725.[8] M. Stadler, M. Bannert, and M. Sailer, ‘Cognitive ease at a cost: LLMs reduce mental effort but compromise depth in student scientific inquiry’, Comput. Hum. Behav., vol. 160, p. 108386, Nov. 2024, doi: 10.1016/j.chb.2024.108386.[9] N. Kosmyna et al., ‘Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task’, Dec. 31, 2025, arXiv: arXiv:2506.08872. doi: 10.48550/arXiv.2506.08872.[10] R. Parasuraman and V. Riley, ‘Humans and Automation: Use, Misuse, Disuse, Abuse’, Hum. Factors, vol. 39, no. 2, pp. 230–253, Jun. 1997, doi: 10.1518/001872097778543886.[11] A. Klingbeil, C. Grützner, and P. Schreck, ‘Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI’, Comput. Hum. Behav., vol. 160, p. 108352, Nov. 2024, doi: 10.1016/j.chb.2024.108352.[12] P. Vaithilingam, T. Zhang, and E. L. Glassman, ‘Expectation vs. Experience: Evaluating the Usability of Code Generation Tools Powered by Large Language Models’, in Extended Abstracts of the 2022 CHI Conference on Human Factors in Computing Systems, in CHI EA ’22. New York, NY, USA: Association for Computing Machinery, Apr. 2022, pp. 1–7. doi: 10.1145/3491101.3519665.[13] B. Yetiştiren, I. Özsoy, M. Ayerdem, and E. Tüzün, ‘Evaluating the Code Quality of AI-Assisted Code Generation Tools: An Empirical Study on GitHub Copilot, Amazon CodeWhisperer, and ChatGPT’, Oct. 22, 2023, arXiv: arXiv:2304.10778. doi: 10.48550/arXiv.2304.10778.[14] Y. Fan et al., ‘Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance’, Br. J. Educ. Technol., vol. 56, no. 2, pp. 489–530, 2025, doi: 10.1111/bjet.13544.[15] E. Bauer, S. Greiff, A. C. Graesser, K. Scheiter, and M. Sailer, ‘Looking Beyond the Hype: Understanding the Effects of AI on Learning’, Educ. Psychol. Rev., vol. 37, no. 2, p. 45, Apr. 2025, doi: 10.1007/s10648-025-10020-8. Drucken Teilen Comments Ihr Name Betreff Kommentar Hilfe zum Textformat Klartext Keine HTML-Tags erlaubt. Zeilenumbrüche und Absätze werden automatisch erzeugt. Website- und E-Mail-Adressen werden automatisch in Links umgewandelt. CAPTCHA Diese Sicherheitsfrage überprüft, ob Sie ein menschlicher Besucher sind und verhindert automatisches Spamming. Bitte dieses Feld leer lassen