Von der Chat-Oberfläche zur Agenten-Plattform
Die architektonische Evolution von einer einfachen AI-Chat-App zu einer autonomen Agentenplattform — erzählt durch die Entscheidungen, die sie geprägt haben.
Jede Plattform beginnt als Funktion
Google begann als Suchfeld. Slack begann als Chatraum. AWS begann als Serververmietung.
LikeClaw begann als Chat-Oberfläche. Du hast eine Nachricht eingegeben. Eine KI hat geantwortet. Das war’s.
Vierundachtzig Tage später ist es eine autonome Agentenplattform mit sandboxed Ausführung, Multi-Model-Unterstützung, einem Skills-Marktplatz, Hintergrundaufgabenplanung und einer selbstheilenden CI-Pipeline.
Das ist die Geschichte dieser Evolution — nicht als geplanter Fahrplan, sondern als eine Reihe von architektonischen Entscheidungen, von denen jede Türen öffnete, von denen wir nicht wussten, dass sie existieren.
Phase 1: Chat (21.-22. November)
Die ersten beiden Tage produzierten eine Chat-Oberfläche. Kein Spielzeug. Ein echtes Chatsystem mit:
- Sitzungsmanagement (mehrere Gespräche, jedes erhalten)
- Streaming-Antworten (Tokens erscheinen in Echtzeit)
- Agentenwechsel (verschiedene KI-Persönlichkeiten für verschiedene Aufgaben)
- Dateisystemintegration (die KI kann Dateien lesen und schreiben)
In dieser Phase war LikeClaw ein besseres ChatGPT. Dasselbe Interaktionsmodell — Mensch fragt, KI antwortet — aber mit persistenten Dateien und spezialisierten Agenten.
Was dieses Fundament für alles, was später kam, funktional machte: die Trennung zwischen der Chat-Schicht und der Agenten-Schicht. Die Chat-UI wusste nicht und interessierte sich nicht dafür, was der Agent im Hintergrund tat. Sie zeigte einfach Nachrichten an. Das bedeutete, dass wir die Agenten dramatisch leistungsfähiger machen konnten, ohne den Chat-Code zu berühren.
Phase 2: Arbeitsbereich (22.-28. November)
Bis zum Ende der ersten Woche hatten wir Arbeitsbereiche. Ein Arbeitsbereich ist eine persistente Umgebung: Gespräche, Dateien, Agenten, Einstellungen, alles zusammengefasst.
Das klingt einfach. Es war tatsächlich die wichtigste architektonische Entscheidung des Projekts.
Ohne Arbeitsbereiche ist jedes Gespräch vergänglich. Die KI erinnert sich nicht an den Kontext zwischen den Sitzungen. Dateien sind nicht organisiert. Es gibt kein Konzept von “dem Projekt, an dem ich arbeite.”
Mit Arbeitsbereichen schaffen Benutzer dauerhafte Kontexte. Ein “Marketing”-Arbeitsbereich hat Marketing-Dateien, Marketing-Agenten und die Gesprächshistorie zum Thema Marketing. Ein “Entwicklungs”-Arbeitsbereich hat Code-Dateien, Programmier-Agenten und technische Gespräche. Jeder Arbeitsbereich ist eine Welt.
Die zentrale Erkenntnis: Arbeitsbereiche sind die Einheit des Kontexts. Alles andere — Agenten, Dateien, Zeitpläne, Einstellungen — lebt innerhalb eines Arbeitsbereichs. Das machte spätere Funktionen trivial einfach zu definieren. “Planung hinzufügen” wurde zu “Planung pro Arbeitsbereich hinzufügen.” “Einstellungen hinzufügen” wurde zu “Einstellungen pro Arbeitsbereich hinzufügen.” Die Grenze des Arbeitsbereichs enthielt die Komplexität.
Phase 3: Multi-Agent (12.-27. Dezember)
Der zweite Monat brachte die Agentenexplosion. Anstatt einer KI-Persönlichkeit bauten wir spezialisierte Agenten:
- Chat-Agent: Allgemeine Gespräche mit Dateibewusstsein
- UX-Agent: Designfokussiert mit Perplexity-Integration für Forschung
- PM-Agent: Projektmanagement mit Aufgabenverteilungsfähigkeiten
- Studio-Agent: Kreative Arbeit mit Bildgenerierungstools
- Image Master: Spezialisiert auf visuelle Inhaltserstellung
Jeder Agent hat seinen eigenen Systemprompt, seine eigenen Tools und seine eigene Persönlichkeit. Die Chat-UI-Komponente änderte sich nicht — sie zeigte immer noch nur Nachrichten an. Aber die Agenten dahinter wurden dramatisch leistungsfähiger.
Der architektonische Gewinn: Agenten sind Konfiguration, nicht Code. Einen neuen Agenten hinzuzufügen erfordert keine Änderungen an der Plattform. Es erfordert die Definition eines Systemprompts, die Auswahl von Tools und die Konfiguration des Verhaltens. Wir speichern Agenten in der Datenbank. Benutzer können schließlich ihre eigenen erstellen. Der Plattform ist es egal, wie viele Agenten existieren oder was sie tun.
Phase 4: Autonom (2. Dezember - 31. Januar)
Hier wurde es interessant. Jede Phase davor ging davon aus, dass ein Mensch an einer Tastatur sitzt und die KI bei der Arbeit zusieht. Phase 4 entfernte diese Annahme.
Planung kam zuerst. Benutzer definieren Aufgaben, die nach einem Zeitplan ausgeführt werden. Die KI wacht auf, lädt den Arbeitsbereich, führt die Aufgabe aus, speichert die Ergebnisse und benachrichtigt den Benutzer. Kein Mensch anwesend.
Hintergrundaufgaben kamen als Nächstes. Während eines Gesprächs kann die KI langwierige Arbeiten an einen Hintergrundagenten delegieren. “Analysiere diesen Code” könnte 20 Minuten dauern. Der Benutzer muss nicht warten. Der Hintergrundagent läuft in seiner eigenen E2B-Sandbox, und die Ergebnisse erscheinen, wenn sie bereit sind.
Ereignisgesteuerte Architektur verband alles. Jede Aktion — Aufgabe abgeschlossen, Datei erstellt, Agent fertig — erzeugt ein Ereignis. Ereignisse erscheinen im Posteingang des Benutzers. Ereignisse lösen Benachrichtigungen aus. Ereignisse sind das verbindende Gewebe zwischen autonomen Agenten und den Menschen, die sie verwalten.
Der schwierige Teil war nicht, die Funktionen zu erstellen. Es war, Annahmen neu zu überdenken. Wenn ein Benutzer anwesend ist, können Fehler in einem Dialogfeld angezeigt werden. Wenn kein Benutzer anwesend ist, müssen Fehler erfasst, protokolliert und später angezeigt werden. Wenn ein Benutzer zusieht, ist der teilweise Fortschritt informativ. Wenn niemand zusieht, zählt nur das Endergebnis.
Phase 5: Plattform (1.-13. Februar)
Die letzte Evolution: von einem Produkt, das wir kontrollieren, zu einer Plattform, die sich selbst erweitert.
E2B-Sandboxes machten die Ausführung sicher und skalierbar. Jede Aufgabe läuft isoliert. Wir können hundert Aufgaben gleichzeitig ausführen, ohne dass sie sich gegenseitig stören.
Der Skills-Marktplatz ermöglicht es Benutzern (und schließlich Dritten), wiederverwendbare Automatisierungspakete zu erstellen. Skills werden vor der Veröffentlichung auf Sicherheit überprüft — im Gegensatz zu offenen Marktplätzen mit dokumentierten Sicherheitsproblemen.
Selbstheilende CI bedeutet, dass die Plattform buchstäblich ihre eigenen Fehler behebt. Claude liest GitHub-Issues, schreibt Fixes, erstellt PRs und überprüft Code. Der Entwicklungsprozess ist teilweise automatisiert.
Das Eval-Framework misst die Agentenqualität systematisch. Wir hoffen nicht einfach, dass Agenten gut funktionieren — wir messen es in Dutzenden von Szenarien und verfolgen die Qualität über die Zeit.
Das Muster hinter der Evolution
Rückblickend ist das Muster klar: Jede Phase erweiterte die Grenzen dessen, was “KI-Agent” bedeutet.
Phase 1: KI reagiert auf menschliche Eingaben.
Phase 2: KI arbeitet innerhalb dauerhafter Kontexte.
Phase 3: KI spezialisiert sich auf verschiedene Aufgaben.
Phase 4: KI arbeitet ohne menschliche Aufsicht.
Phase 5: KI erweitert die Plattform selbst.
Keine dieser Phasen erforderte eine Neuschreibung der vorherigen. Die Chat-UI aus der ersten Woche funktioniert immer noch. Das Arbeitsbereichsmodell aus der zweiten Woche organisiert immer noch alles. Das Agentensystem aus dem zweiten Monat steuert immer noch alle Interaktionen.
Gute Architektur geht nicht darum, die Zukunft vorherzusagen. Es geht darum, Grundlagen zu schaffen, die eine Zukunft unterstützen können, die du dir noch nicht vorgestellt hast.
Wir begannen mit einer Chat-Oberfläche. Wir endeten mit einer Plattform. Und das Fundament, das wir am ersten Tag gebaut haben, hält immer noch alles zusammen.
Die fünf Phasen, um eine Plattform zu werden
- 1
Stufe 1: Chat
Woche 1. Nutzer sprechen mit einer KI. Sie antwortet. Der zentrale Interaktionsloop. Einfach, aber essenziell.
- 2
Stufe 2: Arbeitsbereich
Woche 2. Nutzer organisieren Gespräche in Arbeitsbereichen mit dauerhaften Dateien. Der Kontext wird beständig.
- 3
Stufe 3: Multi-Agent
Woche 4. Verschiedene Agenten für verschiedene Aufgaben. Ein Coding-Agent. Ein kreativer Agent. Ein PM-Agent. Spezialisierung.
- 4
Stufe 4: Autonom
Woche 6. Geplante Aufgaben. Hintergrundausführung. Die KI arbeitet, ohne dass der Benutzer anwesend ist.
- 5
Stufe 5: Plattform
Woche 10. Sandboxed-Ausführung. Marktplatz für Fähigkeiten. Selbstheilende CI. Das Produkt erweitert sich selbst.
Fragen zur Plattformentwicklung
Hast du alle fünf Phasen von Anfang an geplant?
Wir haben die ersten drei geplant. Die Stufen 4 und 5 sind aus den Bedürfnissen der Nutzer und technischen Möglichkeiten entstanden. Der Schlüssel war, eine Architektur in den Stufen 1-3 zu schaffen, die die Stufen 4-5 ohne Neuschreibung aufnehmen kann.
Was war der schwierigste Übergang?
Stufe 3 zu 4 — vom interaktiven zum autonomen System. Interaktive Systeme gehen davon aus, dass ein Benutzer anwesend ist, um Fehler zu beheben und Entscheidungen zu treffen. Autonome Systeme müssen alles selbstständig erledigen. Das erforderte ein Umdenken in Bezug auf Fehlerbehandlung, Zustandsverwaltung und Ergebnisauslieferung.
Ist die Architektur jetzt vollständig entwickelt?
Nicht einmal nah dran. Wir arbeiten an der Zusammenarbeit mehrerer Agenten, bei der mehrere Agenten an komplexen Aufgaben koordiniert arbeiten. Die Architektur der Plattform ist darauf ausgelegt, sich ständig weiterzuentwickeln.