Essay: Lernen, Verantwortung und die Arbeit mit KI
Ich lerne Programmieren in einer Zeit, in der sich eine neue Selbstverständlichkeit etabliert hat: Man kann fragen – und bekommt Antworten. Man kann beschreiben – und erhält Code. Man kann sich helfen lassen, geduldig, umfassend und jederzeit verfügbar.
Ich nutze diese Möglichkeit. Und ich habe gelernt, dass genau darin eine Verantwortung liegt.
Als ich begann, intensiver mit KI zu arbeiten, war das kein Ersatz für Lernen, sondern zunächst eine Vertiefung. Ich konnte nachfragen, Dinge umkreisen, Zusammenhänge aus verschiedenen Blickwinkeln betrachten. Besonders dann, wenn mich ein Thema wirklich interessierte, wurde der Dialog zu einem Denkraum, nicht zu einer Abkürzung.
Gleichzeitig wurde mir bewusst, dass diese Form des Lernens Fragen aufwirft – nicht nur für andere, sondern auch für mich selbst.
Die Abgabephase als Spiegel
Rückblickend waren die Tage rund um die Abgaben und Revisionen im Dezember besonders aufschlussreich. Nicht wegen spektakulärer Ergebnisse, sondern wegen der Reibung.
Ich habe offen kommuniziert, dass ich mir Unterstützung hole: für Erklärungen, für Perspektiven, für das Durchdenken von Konzepten. Ich habe auch eingeräumt, dass ich mir visuelle Elemente, Symbole oder sprachliche Formulierungen generieren lasse – dort, wo es nicht um das technische Kernverständnis, sondern um Darstellung geht.
Die Rückmeldungen darauf waren sachlich und unterstützend. Es wurde klar unterschieden zwischen Hilfe beim Denken und bloßem Kopieren, zwischen Inspiration und Ersatzleistung. Was mich besonders beruhigt hat: Es bestand kein Misstrauen. Aber es gab Leitplanken.
Klassisches Lernen und neue Werkzeuge
Mir wurde nahegelegt, technische Inhalte weiterhin klassisch zu vertiefen: Dokumentationen lesen, Referenzen nutzen, Dinge selbst ausprobieren. MDN, w3schools, echte Fehlermeldungen, echtes Ringen.
Ich verstehe diese Empfehlung – und ich weiß, dass sie richtig ist.
Gleichzeitig habe ich gemerkt, dass mein Lernweg nicht immer linear verläuft. Multiple-Choice-Tests oder reines Wiedergeben von Wissen fühlen sich für mich oft wie eine Simulation von Verständnis an, nicht wie Verständnis selbst.
Das heißt nicht, dass diese Formen wertlos sind. Aber sie greifen zu kurz, wenn es um Zusammenhänge, Verantwortung und Transfer geht.
Hier liegt für mich eine zentrale Spannung: Nicht zwischen alt und neu, sondern zwischen Wissen testen und Verstehen entwickeln.
Die eigentliche Gefahr
Die größte Gefahr in der Arbeit mit KI ist für mich nicht das Copy-Paste. Diese Form der Täuschung ist grob und leicht zu erkennen – auch für mich selbst.
Die subtilere Gefahr liegt woanders: im Überspringen des eigenen Ringens.
Wenn eine Erklärung zu glatt ist. Wenn eine Lösung sofort passt. Wenn kein Widerstand bleibt, an dem sich Verständnis aufbauen kann.
Nicht jede Antwort ist hilfreich, nur weil sie korrekt ist. Nicht jede Abkürzung spart Zeit – manche verlagern die Kosten nur nach hinten.
Diese Sensibilität habe ich mir nicht theoretisch erarbeitet, sondern praktisch: im Projekt, im Debugging, im Wiederlesen von eigenem Code, den ich zwar „verstanden“, aber noch nicht wirklich durchdrungen hatte.
KI als Verstärker
Was mir der Dialog mit KI dennoch ermöglicht hat, ist etwas anderes: einen Spiegel.
Fragen werden präziser, wenn man sie formulieren muss. Unklarheiten werden sichtbar, wenn man sie erklärt haben möchte. Und manchmal merkt man erst beim Lesen einer Antwort, was man eigentlich noch nicht verstanden hat.
In diesem Sinn ist KI für mich zwar sowohl Lehrer als auch Autor. Ich benutze sie jedoch eher als einen Verstärker dessen, was bereits da ist: Neugier, Unsicherheit, Strukturbedürfnis und Verantwortung.
Aber genau deshalb darf sie nicht allein stehen.
Ausprobieren als Grenze
Je länger ich mich mit Programmierung beschäftige, desto klarer wird mir: Verstehen beginnt dort, wo etwas nicht sofort funktioniert.
Erst im eigenen Ausprobieren entsteht Reibung – und damit Erkenntnis. Code ist kein Gedankengebäude, sondern ein System, das sich der Realität stellen muss: dem Browser, dem DOM, dem Timing, den Eigenheiten von Geräten und Nutzern.
Hier reicht es nicht, etwas verstanden zu haben. Es muss sich bewähren.
Diese Grenze ist wichtig. Und sie ist genau der Punkt, an dem KI bewusst zurücktreten muss.
Lernen findet nicht im Vakuum statt
Ich lerne nicht in einem geschützten Raum. Es gibt Tage mit körperlich fordernder Arbeit, Verpflichtungen, Erschöpfung. Diese Realität beeinflusst Konzentration, Geduld und die Art, wie man mit Widerstand umgeht.
In der Abgabephase wurde mir deutlich, wie wichtig es ist, dies zu bedenken – nicht als Ausrede, sondern als Teil von Verantwortung. Nachhaltiges Lernen braucht einen Rhythmus, der Belastung integriert, statt sie zu ignorieren.
Verantwortung statt Verbote
In Diskussionen über KI begegnen mir oft zwei Extreme: Euphorie oder Ablehnung. Beides greift zu kurz.
Was es braucht, ist keine Verbotskultur, sondern eine Haltung. Eine, die zwischen Unterstützung und Ersatz unterscheiden kann.
- KI darf Denkprozesse begleiten, aber nicht ersetzen.
- Sie darf erklären, aber nicht das eigene Ausprobieren überspringen.
- Sie darf strukturieren, aber nicht die Auseinandersetzung abnehmen.
Diese Grenzen sind nicht immer scharf. Aber sie lassen sich spüren, wenn man aufmerksam bleibt.
Schluss
Dieser Text ist kein Standpunkt, sondern eine Momentaufnahme. Ein Versuch, eine Haltung zu beschreiben, während sie entsteht.
Ich lerne zu programmieren – und gleichzeitig lerne ich, wie ich lerne. Mit Unterstützung, ja. Aber nicht ohne Widerstand.
Wenn KI in diesem Prozess einen Platz hat, dann nicht als Abkürzung, sondern als Begleiter auf einem Weg, der eigenständig gegangen werden muss.
Nicht schneller. Aber bewusster.