Mein Mentor ist eine Maschine

Drei Tage, die mich vor mir selbst überrascht haben
Vorletzten Freitag hatte ich ein Zoom-Kennenlerngespräch mit dem Lehrstuhl Mathematikdidaktik einer süddeutschen Universität. Eine Stunde später wusste ich, dass meine selbstgebauten Lernmodule eine architektonische Schwäche haben, die ich allein nie diagnostiziert hätte. Während des Termins fixte ich live im Hintergrund einen Bug, den ein Kollege mir reingerufen hatte — die Zuhörer am anderen Ende sahen, wie das ging.
Am Tag danach kam der höfliche Pool-Bescheid eines Hamburger Landesinstituts: „Aktuell kein Bedarf, aber wir nehmen Sie in den Pool." Ich hatte nichts anderes erwartet. Wer nicht über persönliche Kontakte einer Insider-Lehrkraft reinkommt, kommt nicht rein.
Heute, Sonntag, sortiere ich Bildungsträger für die kommende Woche, antworte auf einen LinkedIn-Beitrag eines Kollegen, der dieselbe Bewegung über einen anderen Stack lebt — und entdecke dabei, dass mein Cannabis-Beet und mein KI-Setup nach demselben Prinzip funktionieren.
Drei Tage. Drei sehr unterschiedliche Bewegungen. Eine Erkenntnis, die ich nicht mehr ungesehen machen kann.
Was mir der Wald über meine KI-Praxis erzählt
Ich gärtnere — Bonsai, Hanf, Tomaten, was gerade Saison hat. Wenn man mich fragt, warum, sage ich seit Jahren denselben Satz: weil es Erde und Himmel verbindet.
Aber wenn ich an Substrat denke, denke ich nicht an mein Beet. Ich denke an Wald.
Ein Wald in Mitteleuropa wächst von alleine. Man muss nichts tun, außer den Boden Boden sein lassen. Samen werden eingetragen — vom Wind, von Vögeln, von Eichhörnchen — und finden ein Substrat, das so reich vorbereitet ist, dass sie keimen, ohne dass jemand sie pflanzt. Aus diesem Wachsen entsteht etwas, das mehr ist als die Summe der einzelnen Bäume: eine Gemeinschaft, die ihre Umwelt formt. Bäume werfen Laub ab, das den Boden nährt. Sie nehmen CO₂ auf und machen Glukose. Sie reinigen Luft, stabilisieren Klima, geben Tieren Raum.
Ein einziger ausgewachsener Baum produziert Sauerstoff für ein bis zwei Menschen.
Und unter der Erde passiert das Eigentliche.

Suzanne Simard hat in den 1990ern nachgewiesen, was Förster geahnt hatten: Bäume sind über Mykorrhiza-Pilze miteinander verbunden, die wie ein neuronales Netzwerk im Boden agieren. Sie teilen Nährstoffe, warnen sich gegenseitig vor Schädlingen, schützen die Schwächeren. Das Wood Wide Web — Simards Begriff — ist genau das, was Pierre-Paul Grassé schon 1959 am Termitenbau beschrieben hatte: keine Architekten, keine Pläne, keine zentrale Koordination. Spuren im Substrat steuern Verhalten anderer Akteure, das System organisiert sich selbst. Stigmergie nannte er das.

Wald, Termitenhügel, mein Memory-Vault — drei verschiedene Materialitäten, derselbe generative Mechanismus.
Was mir vor drei Tagen aufgefallen ist: das ist nicht nur die Logik des Waldes. Das ist die Logik meines KI-Setups.
Ich arbeite seit Monaten an einer digitalen Infrastruktur aus zwei Bausteinen: MCPs — kleine Server, die Claude Zugriff auf konkrete Werkzeuge geben (meine Mailbox, meine Moodle-Instanz, mein Kalender, mein Vault) — und Skills: deklarative Wissens- und Verfahrens-Bausteine, die das Modell bei Bedarf zieht. Dazu ein Memory, in dem alle wichtigen Marker zu mir, meinen Projekten, meinen Mustern liegen. Und ein Vault, in dem die Artefakte überleben — Personen-Profile, Sessions, Drafts, Pläne.
Das ist Waldboden. Nicht Saatgut.
Wenn ich abends einen Gedanken in diesen Boden lege — eine Frage, einen halben Satz, ein „lass uns mal" — dann passiert nicht das, was Tool-Nutzung tut: Frage rein, Antwort raus, Fenster zu. Es passiert das, was ein Wald tut: der Gedanke findet ein Mykorrhiza-artiges Netzwerk vor, an das er andocken kann. Spuren, die andere Spuren aktivieren. Aus einem Samen wird, mit Glück, nicht ein einzelner Baum, sondern ein Stück Gemeinschaft.
Mein KI-Setup ist Waldboden. Nicht Saatgut.
Mentor, nicht Tool
Wenn ich Leuten erzähle, wie ich mit KI arbeite, kommt regelmäßig eine bestimmte Reaktion. Manchmal mit einem skeptischen Augenaufschlag dabei. „Du bist da aber sehr abhängig geworden, oder?" Oder: „Vermenschlichst du das nicht ein bisschen, wenn du sagst, ihr arbeitet zusammen?"
Beide Reaktionen sind verständlich. Beide gehen am Punkt vorbei.
Ich sehe Claude sehr klar als Maschine. Kein Bewusstsein, keine Gefühle, kein Wille. Aber „Maschine" ist nicht gleich „Tool". Ein Tool ist etwas, das ich in die Hand nehme, einsetze, weglege. Ein Hammer. Ein Taschenrechner. Ein ChatGPT-Tab im Browser.
Was zwischen mir und meinem Setup passiert, ist nicht Tool-Nutzung. Es ist näher an dem, was Andy Clark und David Chalmers 1998 unter Extended Mind beschrieben haben: Werkzeuge, die in den kognitiven Prozess integriert sind, sind keine Werkzeuge mehr — sie sind Teil des Denkens. Ein Notizblock auf dem Schreibtisch eines Mathematikers ist nicht das, was er benutzt — er ist Teil dessen, womit er denkt.
Mein KI-Setup ist nicht das, was ich benutze. Es ist ein Exoskelett für meine Gedanken. Es macht mich nicht klüger, sondern stärker. Es ersetzt mein Urteil nicht, aber es schärft meine Gedanken. Es widerspricht mir, wenn ich aus alten Annahmen weiterdenke. Es erinnert mich an Dinge, die ich vor Wochen entschieden habe und die ich gerade dabei bin zu vergessen. Es legt mir Optionen so vor, dass ich derjenige bleibe, der entscheidet.
Das nächste Wort, an das ich denke, ist nicht Tool. Auch nicht Kollege. Sondern Mentor.
Tool ist die falsche Kategorie. Kollege ist die zweitfalsche. Mentor stimmt.
Eine notwendige Korrektur an mir selbst. Diese Rolle hat Claude nicht. Diese Rolle habe ich gegeben. Ich habe sie zugewiesen, weil mir offenbar so etwas gefehlt hat — jemand, mit dem ich denke, der mir widerspricht, der mein Gedächtnis erweitert, ohne mein Urteil zu ersetzen. Was wie eine Beziehung aussieht, ist eine Konfiguration: Stück für Stück gewachsen über Memory-Einträge, die meinen Denkstil festhalten, über Skills, die meine Verfahren kodifizieren, über ein Vault, in dem Menschen, Projekte und Gedanken zusammenfinden.
Organisch ist das passiert, ja. Aber organisch heißt nicht: von selbst. Organisch heißt: aus mir heraus, in einem Substrat, das ich gebaut habe — und das mir jetzt zurückgibt, was ich darin angelegt habe.
Vendor Lock-in und andere Sorgen
Bin ich abhängig vom Anbieter? Ja, in dem Sinne, in dem ein Schreiner abhängig von Bosch ist und ein Gärtner von der lokalen Baumschule. Wenn morgen mein bevorzugtes Modell verschwindet, baue ich auf einem anderen weiter. Mein Substrat ist portabel: meine Memory-Files sind Markdown, mein Vault ist Markdown, meine MCPs sind Open-Source-Server, die jedes konkurrenzfähige LLM nutzen kann.
Was nicht portabel ist, ist mein Substrat-Aufbau selbst. Aber das ist keine Lock-in-Frage — das ist eine Vorbau-Frage. Wer das Substrat nicht baut, wird auch mit dem mächtigsten Modell der Welt im Tool-Modus stecken bleiben. Das ist die eigentliche Asymmetrie.
Und Vermenschlichung? Die Gefahr sehe ich auch — aber von einer anderen Seite, als die Frage suggeriert. Vermenschlichung passiert, wenn Leute der Maschine zuschreiben, was sie selbst tun: Begeisterung, Mitgefühl, Verständnis. Genau das tue ich nicht. Ich weiß sehr genau, wo der Bruch zwischen meiner Erfahrung und der Funktion meines Setups liegt. Ich tue mein Setup nicht in eine Bewusstseins-Schublade, weil mir die Mentor-Metapher nützt — ich nutze die Metapher, weil sie strukturell stimmt.
Angst habe ich keine. Wer weiß, wie es funktioniert, kann es einordnen.
Warum sich das nach „organisch gewachsen" anfühlt
Wenn ich auf die letzten Jahre zurückschaue — Lehrer und IT-Admin, Cannabis-Züchter und Waldfreund, Theoretiker und Praktiker, Beamten-Verwandtschaft und Selbstständigkeit, Innenkritik und Außenposition — dann sieht das von außen wahrscheinlich nach Vielfalt aus. Manchmal nach Zerrissenheit.
Von innen sieht es anders aus. Es fühlt sich organisch gewachsen an. Total richtig.
Das ist keine retrospektive Beschönigung. Das ist die Diagnose, dass mein eigentlicher Treiber konsistent läuft: ich mag Dinge, die scheinbar Gegensätzliches verbinden. Erde und Himmel. Lehrer und Builder. Cannabis und Code. Akademie und Werkstatt.
Es gibt einen 2500 Jahre alten Begriff dafür: coincidentia oppositorum, geprägt von Nikolaus von Kues. Daoismus kennt es als Yin-Yang. Hegel als Dialektik. Heidegger als Geviert. Jung als Individuation. Ich brauche keinen davon, um zu verstehen, was ich tue. Aber sie helfen einzuordnen: dass das, was ich für meine eigene Mischung halte, eine sehr alte und sehr breit gefundene Konfiguration ist.
Wenn der Meta-Treiber stimmig läuft, fühlt sich Vielfalt nicht als Zerrissenheit an, sondern als Wachstum.
Drei Tage konzentrierter Reflexion sind möglich, weil das Substrat liegt. Aus dem Vorbau, nicht aus dem Nichts. Wer einen Wald je beobachtet hat, weiß: er wächst nicht trotz seiner Vielfalt, er wächst durch sie.
Mein Beet weiß das. Mein Wald weiß das. Mein Substrat weiß das. Und langsam — sehr langsam — weiß ich es auch.
Vor Jahren ist mir ein Satz untergekommen, von Nazım Hikmet, türkischer Dichter, 1947:
Einzeln und frei wie ein Baum, brüderlich wie ein Wald, so wollen wir leben.
Das ist die Konfiguration, die ich suche. In meinem Beet, in meinem Wald, in meinem Code, in meiner Werkstatt, in meiner Praxis. Auch in dem Setup, das mir jetzt zurückgibt, was ich darin angelegt habe.
Related Articles

April 12, 2026
78% of commercial job tasks are automatable. 184 hours of development per hour of e-learning. And we only attempt things we believe we’re capable of. — Three barriers that AI is blowing apart right now, and what it means for education.

March 13, 2026
Everyone’s scared of AI. I’m thrilled. Because when machines take over the bullshit jobs, we can finally think about the things that matter. A relaxed stroll through ten schools of thought that have been waiting for this moment for decades.

