Saltar al contenido principal

De Interfaz de Chat a Plataforma de Agentes

La evolución arquitectónica de una simple aplicación de chat de IA a una plataforma de agentes autónomos — contada a través de las decisiones que la moldearon.

Cada plataforma comienza como una característica

Google comenzó como un cuadro de búsqueda. Slack comenzó como una sala de chat. AWS comenzó como un alquiler de servidores.

LikeClaw comenzó como una interfaz de chat. Escribías un mensaje. Una IA respondía. Eso era todo.

Ochenta y cuatro días después, es una plataforma de agentes autónomos con ejecución en sandbox, soporte multi-modelo, un mercado de habilidades, programación de tareas en segundo plano y una pipeline CI auto-reparable.

Esta es la historia de esa evolución — no como un mapa de ruta planificado, sino como una serie de decisiones arquitectónicas, cada una abriendo puertas que no sabíamos que existían.

Etapa 1: Chat (21-22 de noviembre)

Los primeros dos días produjeron una interfaz de chat. No un juguete. Un sistema de chat real con:

  • Gestión de sesiones (múltiples conversaciones, cada una preservada)
  • Respuestas en streaming (los tokens aparecen en tiempo real)
  • Cambio de agentes (diferentes personalidades de IA para diferentes tareas)
  • Integración con el sistema de archivos (la IA puede leer y escribir archivos)

En esta etapa, LikeClaw era un mejor ChatGPT. Mismo modelo de interacción — humano pregunta, IA responde — pero con archivos persistentes y agentes especializados.

Lo que hizo que esta base funcionara para todo lo que vino después: la separación entre la capa de chat y la capa de agentes. La interfaz de chat no sabía ni le importaba lo que el agente estaba haciendo en segundo plano. Solo mostraba mensajes. Esto significaba que podíamos hacer que los agentes fueran dramáticamente más capaces sin tocar el código del chat.

Etapa 2: Espacio de trabajo (22-28 de noviembre)

Para el final de la primera semana, teníamos espacios de trabajo. Un espacio de trabajo es un entorno persistente: conversaciones, archivos, agentes, configuraciones, todo agrupado.

Esto suena simple. En realidad, fue la decisión arquitectónica más importante del proyecto.

Sin espacios de trabajo, cada conversación es efímera. La IA no recuerda el contexto entre sesiones. Los archivos no están organizados. No hay un concepto de “el proyecto en el que estoy trabajando.”

Con espacios de trabajo, los usuarios crean contextos duraderos. Un espacio de trabajo “Marketing” tiene archivos de marketing, agentes de marketing y el historial de conversaciones de marketing. Un espacio de trabajo “Desarrollo” tiene archivos de código, agentes de codificación y conversaciones técnicas. Cada espacio de trabajo es un mundo.

La clave: los espacios de trabajo son la unidad de contexto. Todo lo demás — agentes, archivos, horarios, configuraciones — vive dentro de un espacio de trabajo. Esto hizo que las características posteriores fueran trivialmente fáciles de definir. “Agregar programación” se convirtió en “agregar programación por espacio de trabajo.” “Agregar configuraciones” se convirtió en “agregar configuraciones por espacio de trabajo.” El límite del espacio de trabajo contenía la complejidad.

Etapa 3: Multi-agente (12-27 de diciembre)

El segundo mes trajo la explosión de agentes. En lugar de una personalidad de IA, construimos agentes especializados:

  • Agente de chat: Conversaciones de propósito general con conciencia de archivos
  • Agente de UX: Enfocado en el diseño con integración de Perplexity para investigación
  • Agente de PM: Gestión de proyectos con capacidades de delegación de tareas
  • Agente de estudio: Trabajo creativo con herramientas de generación de imágenes
  • Maestro de imágenes: Especializado en creación de contenido visual

Cada agente tiene su propio aviso del sistema, sus propias herramientas y su propia personalidad. El componente de la interfaz de chat no cambió — todavía solo mostraba mensajes. Pero los agentes detrás de él se volvieron dramáticamente más capaces.

La victoria arquitectónica: los agentes son configuración, no código. Agregar un nuevo agente no requiere cambiar la plataforma. Requiere definir un aviso del sistema, seleccionar herramientas y configurar el comportamiento. Almacenamos agentes en la base de datos. Los usuarios eventualmente pueden crear los suyos. A la plataforma no le importa cuántos agentes existen o qué hacen.

Etapa 4: Autónomo (2 de diciembre - 31 de enero)

Aquí es donde las cosas se pusieron interesantes. Cada etapa anterior asumía que un humano estaba sentado en un teclado, observando trabajar a la IA. La etapa 4 eliminó esa suposición.

La programación fue lo primero. Los usuarios definen tareas que se ejecutan en un horario. La IA se despierta, carga el espacio de trabajo, ejecuta la tarea, guarda los resultados y notifica al usuario. Sin humano presente.

Las tareas en segundo plano vinieron después. Durante una conversación, la IA puede delegar trabajo de larga duración a un agente en segundo plano. “Analiza esta base de código” podría tardar 20 minutos. El usuario no necesita esperar. El agente en segundo plano se ejecuta en su propio sandbox E2B, y los resultados aparecen cuando están listos.

La arquitectura impulsada por eventos lo unió todo. Cada acción — tarea completada, archivo creado, agente terminado — genera un evento. Los eventos aparecen en la bandeja de entrada del usuario. Los eventos desencadenan notificaciones. Los eventos son el tejido conectivo entre los agentes autónomos y los humanos que los gestionan.

La parte difícil no fue construir las características. Fue repensar suposiciones. Cuando un usuario está presente, los errores pueden mostrarse en un cuadro de diálogo. Cuando no hay usuario presente, los errores deben ser capturados, registrados y presentados más tarde. Cuando un usuario está mirando, el progreso parcial es informativo. Cuando nadie está mirando, solo importa el resultado final.

Etapa 5: Plataforma (1-13 de febrero)

La evolución final: de un producto que controlamos a una plataforma que se extiende a sí misma.

Los sandboxes E2B hicieron que la ejecución fuera segura y escalable. Cada tarea se ejecuta en aislamiento. Podemos ejecutar cien tareas simultáneamente sin que interfieran entre sí.

El mercado de habilidades permite a los usuarios (y eventualmente a terceros) crear paquetes de automatización reutilizables. Las habilidades se revisan por seguridad antes de publicarse — a diferencia de los mercados abiertos con problemas de seguridad documentados.

CI auto-reparable significa que la plataforma literalmente repara sus propios errores. Claude lee problemas de GitHub, escribe soluciones, crea PRs y revisa código. El proceso de desarrollo está parcialmente automatizado.

El marco de evaluación mide la calidad de los agentes de manera sistemática. No solo esperamos que los agentes funcionen bien — lo medimos en docenas de escenarios y rastreamos la calidad a lo largo del tiempo.

El patrón detrás de la evolución

Mirando hacia atrás, el patrón es claro: cada etapa expandió los límites de lo que significa “agente de IA.”

Etapa 1: La IA responde a la entrada humana.
Etapa 2: La IA trabaja dentro de contextos duraderos.
Etapa 3: La IA se especializa para diferentes tareas.
Etapa 4: La IA trabaja sin supervisión humana.
Etapa 5: La IA extiende la plataforma misma.

Ninguna de estas etapas requirió reescribir las anteriores. La interfaz de chat de la primera semana todavía funciona. El modelo de espacio de trabajo de la segunda semana todavía organiza todo. El sistema de agentes del segundo mes todavía impulsa todas las interacciones.

Una buena arquitectura no se trata de predecir el futuro. Se trata de construir fundamentos que puedan soportar un futuro que aún no has imaginado.

Comenzamos con una interfaz de chat. Terminamos con una plataforma. Y la base que construimos en el día uno todavía lo sostiene todo.

Las cinco etapas para convertirse en una plataforma

  1. 1

    Etapa 1: Chat

    Semana 1. Los usuarios hablan con una IA. Esta responde. El bucle de interacción central. Simple pero esencial.

  2. 2

    Etapa 2: Espacio de trabajo

    Semana 2. Los usuarios organizan conversaciones en espacios de trabajo con archivos persistentes. El contexto se vuelve duradero.

  3. 3

    Etapa 3: Multi-agente

    Semana 4. Diferentes agentes para diferentes tareas. Un agente de codificación. Un agente creativo. Un agente de PM. Especialización.

  4. 4

    Etapa 4: Autónoma

    Semana 6. Tareas programadas. Ejecución en segundo plano. La IA trabaja sin la presencia del usuario.

  5. 5

    Etapa 5: Plataforma

    Semana 10. Ejecución en sandbox. Mercado de habilidades. CI auto-reparable. El producto se expande por sí mismo.

Preguntas sobre la evolución de la plataforma

¿Planificaste las cinco etapas desde el principio?

Planeamos los primeros tres. Las etapas 4 y 5 surgieron de las necesidades de los usuarios y las oportunidades técnicas. La clave fue construir una arquitectura en las etapas 1-3 que pudiera absorber las etapas 4-5 sin necesidad de reescribir.

¿Cuál fue la transición más difícil?

Etapa 3 a 4 — pasando de interactivo a autónomo. Los sistemas interactivos asumen que hay un usuario presente para manejar errores y tomar decisiones. Los sistemas autónomos necesitan manejar todo por su cuenta. Eso requirió repensar el manejo de errores, la gestión del estado y la entrega de resultados.

¿La arquitectura ha dejado de evolucionar?

Ni siquiera cerca. Estamos trabajando en la colaboración entre múltiples agentes, donde varios agentes coordinan tareas complejas. La arquitectura de la plataforma está diseñada para seguir evolucionando.