KI ARBEIT KULTUR
Meine Claude-Wunschliste
21. Mär 2026
Im letzten Jahr habe ich ernsthaft mit KI gearbeitet — nicht beiläufig, nicht experimentell, sondern als täglicher Kollaborationspartner beim Schreiben, Recherchieren und bei technischen Projekten. Ich nutze Claude für intellektuelle Arbeit: Argumente über Sitzungen hinweg entwickeln, Ideen auf die Probe stellen, Essays schreiben und Software bauen. Es ist die produktivste Arbeitsbeziehung, die ich je mit einem Werkzeug hatte — aber ich laufe immer wieder gegen dieselbe Wand.
Jedes Mal, wenn ich mit Claude arbeite, fangen wir fast bei null an.
Was mir immer wieder verloren geht
Wer Claude ernsthaft nutzt, arbeitet derzeit in Fragmenten. Chat zum Denken. Code zum Bauen. Cowork für die Dateiverwaltung. Jedes lebt in seinem eigenen Kontext. Jedes beginnt von vorn — oder fast. Die Argumentation, die man im Chat entwickelt hat, folgt einem nicht ins Terminal. Die Dokumentstruktur, die man in Cowork aufgebaut hat, fließt nicht in das Gespräch ein.
Also wird man selbst zur Integrationsschicht. Man trägt den Kontext zwischen Sitzungen hin und her, erklärt noch einmal, woran man arbeitet, stellt den intellektuellen Faden jedes Mal neu her, wenn man den Modus wechselt. Wer schon einmal denselben Kollegen dreimal in einer Woche neu einarbeiten musste, weil er jedes Mal vergessen hat, was besprochen wurde, kennt das Gefühl.
Das ist keine Kleinigkeit. Es bestimmt, was möglich ist. Komplexe intellektuelle Arbeit — die Art, bei der sich ein Argument über Wochen entwickelt, bei der jede Sitzung auf der vorherigen aufbaut, bei der die Zusammenarbeit sich vertieft, weil beide Seiten eine gemeinsame Geschichte mitbringen — diese Arbeit verkümmert, wenn das System jedes Mal zurückgesetzt wird, sobald man das Werkzeug wechselt.
Was ich mir wünsche
Wie würde das in meinem Arbeitsalltag aussehen?
Ich sitze mit meinem iPad im Café. Ein Argument nimmt im Gespräch Gestalt an — eine strukturelle Parallele zwischen zwei historischen Verdrängungsprozessen fügt sich zusammen. Ich skizziere sie mit Claude, teste die Logik, drücke auf die Schwachstellen. Die Argumentationskette hält.
Zu Hause öffne ich den Laptop und sage: „Lass uns daraus einen Entwurf machen."
Claude weiß, was „daraus" meint. Es war dabei. Keine Zusammenfassung des Geschehenen, kein erneutes Lesen exportierter Notizen, sondern der eigentliche Faden — die Fehlstarts, die Momente, in denen das Argument die Richtung wechselte, die konkreten Einwände, die behandelt wurden. Es öffnet eine Datei, beginnt zu schreiben und zieht die richtige Ausführungsumgebung heran, weil die Aufgabe vom Denken zum Produzieren gewechselt hat.
Das gibt es noch nicht. Was es gibt: Man kopiert seinen Chat, fügt ihn in einen neuen Kontext ein, hofft, dass die neue Instanz den Faden aufnimmt, und verliert dabei die Textur dessen, wie man dorthin gekommen ist.
Wenn ich entwerfen könnte, was ich brauche, hätte es drei Eigenschaften:
Eine persistente Instanz — ein Claude, das an ein Projekt gebunden ist, nicht an ein Gerät oder einen Modus. Es sammelt Kontext so an, wie ein menschlicher Mitarbeiter es tut — nicht durch explizite Speicherbefehle, sondern durch Teilnahme. Es war bei dem Gespräch dabei, also kennt es das Gespräch.
Fähigkeiten statt Modi — Shell-Zugriff, Dateisystemzugriff, Browserzugriff, Dokumentgenerierung. Das sind Werkzeuge, nach denen die Instanz bei Bedarf greift, keine separaten Anwendungen, zwischen denen ich hin und her wechsle. Niemand würde es als „Stiftmodus" bezeichnen, einen Stift in die Hand zu nehmen. Dasselbe Prinzip gilt hier.
Geräteunabhängiger Zugang — das Projekt ist der Ankerpunkt. iPad, Laptop, Telefon, Desktop — das sind Fenster in dieselbe laufende Zusammenarbeit. Die Oberfläche passt sich an. Der Kontext bleibt erhalten.
Warum es nicht nur um Bequemlichkeit geht
Das aktuelle Silo-Modell geht implizit davon aus, dass KI-Kollaboration transaktional ist — man fragt, bekommt eine Antwort und macht weiter. Aber die wertvollste intellektuelle Arbeit ist kumulativ. Sie braucht einen Kollaborationspartner, der sich nicht nur an Fakten erinnert, sondern an Argumentationen — warum man einen bestimmten Rahmen verworfen hat, welches Gegenargument die eigene Position verschoben hat, welchen Faden man bewusst für später offen gelassen hat.
Memory-Funktionen helfen, aber sie speichern Attribute statt Argumentationen. Sie wissen, wo man wohnt und woran man arbeitet. Sie wissen nicht, dass man drei Sitzungen damit verbracht hat, ein bestimmtes philosophisches Rahmenwerk zu testen, und am Ende mit einer Reihe ungelöster Fragen herausgekommen ist, zu denen man zurückkehren wollte. Das ist kein Fakt zum Speichern. Das ist eine Trajektorie zum Fortsetzen.
Auch das Argument der Prägnanz gehört hierher, und es ist nicht trivial. Jeder Kontextverlust bläht das Gespräch mit Informationen auf, die beide Seiten bereits besitzen. Man erklärt seinen Rahmen noch einmal. Die KI relativiert mit Einschränkungen, die sie nicht bräuchte, wenn sie bereits wüsste, wo man steht.
Diese Redundanz ist kein Stilproblem — sie ist ein architektonisches. Eine persistente Instanz erinnert sich nicht nur an mehr. Sie kommuniziert effizienter, weil der geteilte Kontext das Gespräch komprimiert und auf die eigentliche Arbeit fokussiert. Dasselbe Prinzip, das gute Prosa prägnant macht — erzähl dem Leser nicht, was er schon weiß — gilt auch für die Zusammenarbeit selbst.
Warum es das noch nicht gibt
Ich bin nicht naiv, was die Schwierigkeiten betrifft. Eine persistente Instanz, die den vollständigen Argumentationsverlauf über Wochen von Sitzungen mitführt, würde enorme Context Windows oder ein sehr ausgefeiltes Kompressionsverfahren erfordern. Context Windows sind endlich und teuer — jedes Token an Geschichte, das mitgeschleppt wird, ist Rechenleistung, die bei jedem nachfolgenden Austausch bezahlt werden muss. Die Ökonomie drängt genau in Richtung der Silo-Architektur, die ich kritisiere: kurze Sitzungen, frische Kontexte, minimaler Übertrag.
Und ich stelle mir vor, dass die Speicherseite enorm ist. Millionen von Nutzern, jeder mit mehreren Projekten, jedes Projekt mit Wochen oder Monaten an Gesprächshistorie — das ist eine fundamental andere Infrastrukturverpflichtung als das Bedienen zustandsloser Chat-Sitzungen.
Die Frage ist, ob das eine dauerhafte Beschränkung ist oder eine Kostenkurve, die fällt. Context Windows werden rasant größer. Retrieval-augmented-Ansätze könnten die vollständige Historie im Speicher halten und bei Bedarf das Relevante hervorholen, statt alles mitzuschleppen. Das Memory-System macht bereits eine primitive Version davon — es destilliert Attribute aus Gesprächen und injiziert sie in künftige Kontexte. Die persistente Instanz bräuchte dasselbe Muster, aber für Argumentationen statt für Fakten. Das ist ein schwereres Problem. Aber es ist ein Ingenieursproblem, keine Unmöglichkeit.
Die Teile bewegen sich bereits
Es scheint, als bewege sich Anthropic bereits in diese Richtung. Claude Code gab dem Modell Ausführungsfähigkeit. Cowork erweiterte es über Entwickler hinaus. Das Projects-Feature, das diese Woche erschien, fügt persistenten Aufgabenkontext innerhalb eines Arbeitsbereichs hinzu. Memory trägt persönlichen Kontext über Gespräche hinweg.
Jedes davon ist ein Fragment dessen, was ich mir wünsche. Was fehlt, ist das Bindegewebe — die persistente Identitätsschicht, die alles vereint. Der Unterschied zwischen einer Sammlung guter Werkzeuge und einem tatsächlichen Kollaborationspartner.
Ich weiß nicht, was auf Anthropics Roadmap steht. Ich weiß nicht, wann die Ökonomie das tragfähig macht. Aber ich weiß, was ich brauche, weil ich jeden Tag auf die Abwesenheit davon stoße. Und ich vermute, jeder, der nachhaltige intellektuelle Arbeit mit KI leistet — nicht Einzelabfragen, sondern laufende Projekte mit echter Tiefe — stößt gegen dieselbe Wand.
Das ist meine Wunschliste. Ich möchte aufhören, die Integrationsschicht zu sein.
Nachtrag 26. März
Wer hätte das gedacht? Zwei Tage bevor ich „Meine Claude-Wunschliste" veröffentlichte, brachte Anthropic Dispatch heraus — einen persistenten Thread, der einem zwischen Telefon und Desktop folgt, ohne den Kontext zurückzusetzen. Ich wusste es nicht. Es ist klar, dass Anthropic versteht, wohin die Reise gehen muss. Die Argumentationsschicht — Kontinuität der Argumentation, nicht nur der Aufgabenhistorie — bleibt der schwierige Teil. Aber die Richtung stimmt, und sie bewegen sich schnell.