Cómo Atlas Pasó de Inútil a Indispensable
Tres semanas construyendo mi asistente de IA y era más lento que antes de empezar.
No era una sensación. Era medible. Tareas que antes me llevaban 20 minutos ahora me costaban 40 porque tenía que explicarle contexto a un agente, revisar lo que generaba y arreglar configuraciones que se desincronizaban entre herramientas. Tenía una base de conocimiento vacía, un CLAUDE.md reescrito cuatro veces y la sospecha creciente de que lo único que había conseguido era añadir una capa cara de complejidad a mi forma de trabajar.
Estuve a punto de volver a hacerlo todo a mano.
No lo hice. Y lo que vino después es lo que nadie te cuenta cuando empiezas a construir con IA: el efecto compuesto. No es lineal. No es inmediato. Pero cuando arranca, te cambia la idea de lo que es posible.
Este post es la historia completa: qué es el sistema, qué salió mal, qué hizo clic, y la investigación que explica por qué la mayoría abandona justo antes de que la curva despegue.
Qué Es Realmente el Sistema
Para que la historia del efecto compuesto tenga sentido, primero hay que entender qué construí. Y sobre todo, qué no es.
Atlas se apoya en Claude Code (la CLI de Anthropic). No es un chatbot. No es una herramienta suelta. Es un motor de conocimiento.
Una base de conocimiento estructurada que llamo el "cerebro". Archivos markdown organizados por proyecto con definiciones de voz de marca, estrategia de contenido, análisis de competidores, decisiones previas y aprendizajes acumulados. Cuatro skills concretos que codifican mi forma de trabajar. El de content marketing conoce mis patrones de investigación, mi voz y mis criterios de revisión. El de estrategia de negocio sabe analizar competidores y construir posicionamiento. Punto. Cuatro skills, no cuarenta. Y una configuración mínima: un solo archivo .env que apunta al cerebro y fija el proyecto activo. Nada de archivos de instrucciones monolíticos. Nada de registros de comandos. El sistema es conversacional. Describo lo que necesito y Atlas decide qué skill cargar, qué contexto sacar y cómo ejecutar.
Lo que hace hoy: investiga temas, planifica esquemas de contenido, escribe borradores, ejecuta análisis estratégicos, gestiona proyectos. Todo con memoria persistente de mi voz de marca, cada matiz de cada proyecto, contenido anterior y decisiones tomadas. Cuando le pido un post de LinkedIn, ya conoce mi voz, mis posts anteriores, mi audiencia y mi estrategia. No tengo que re-explicar nada.
Pero hay algo que tardé semanas en interiorizar: el valor no está en el modelo. Está en lo que lo rodea, en la infraestructura que montas alrededor.
El mismo Claude en una terminal pelada vs. Claude dentro de mi sistema da resultados muy distintos. El modelo no se volvió más listo; el sistema a su alrededor sí. Esta distinción importa porque la mayoría evalúa la IA probando un modelo a pelo, sacando resultados mediocres y concluyendo que la tecnología no está lista. El modelo ya no es el cuello de botella.
La Curva J de la que Nadie Habla
Hay investigación sólida sobre por qué los primeros días con IA se sienten tan mal.
Investigadores de MIT Sloan estudiaron la adopción de IA en empresas manufactureras y descubrieron que al principio destruye la productividad antes de que empiece a acumularse. Caídas a corto plazo de 1,33 puntos porcentuales, con algunos estudios que llegan hasta 60 puntos al corregir el sesgo de selección.
Pero a los cuatro años, los que adoptaron pronto superaban de forma consistente a los que no, tanto en productividad como en cuota de mercado.
Su conclusión: "La IA no es plug-and-play. Requiere cambio sistémico, y ese proceso introduce fricción."
Eso es la curva J. La productividad baja antes de subir. Y el fondo de la J es justo donde la mayoría tira la toalla.
Los datos internos de Anthropic cuentan la misma historia desde el otro lado. Al encuestar a sus ingenieros e investigadores durante 12 meses:
- El uso de Claude pasó del 28% del trabajo diario al 59%
- La mejora de productividad saltó del +20% al +50%
- Los ingenieros fueron desarrollando "estrategias de delegación cada vez más sofisticadas, pasando de tareas simples y verificables a trabajo complejo"
- En seis meses, la capacidad autónoma de Claude Code se duplicó: de completar 10 acciones seguidas a 20 sin intervención humana
- El 27% del trabajo asistido por Claude fueron "tareas que antes nadie hacía" — el sistema amplió la ambición, no solo la velocidad
Misma herramienta. Mismas personas. La única variable fue el tiempo de iteración. Una ganancia de productividad de 2,5x solo por aprender a usar lo que ya tenían. La curva compuesta es real. Pero el bajón previo también. Y la mayoría abandona justo ahí.
Mi Línea Temporal
Así viví la curva compuesta en primera persona, dividida en cuatro etapas.
Etapa 1: Configuración (Semanas 1-2)
Alto esfuerzo, bajo retorno.
Monté la estructura de directorios del cerebro — una jerarquía de carpetas inspirada en PARA para proyectos, áreas, recursos y archivos. Escribí el primer CLAUDE.md con instrucciones básicas. Creé el primer plugin con un puñado de skills para investigación de contenido.
Cada sesión tocaba explicar todo desde cero porque el sistema no tenía memoria, ni skills, ni contexto. El cerebro estaba vacío. Los skills, en pañales. La orquestación, frágil. Era como formar a un becario que olvida todo cada noche.
La tentación era pasar de la estructura y chatear directamente con el modelo. Habría parecido más rápido en el momento. Habría matado el efecto compuesto antes de arrancar.
La sensación real: "Esto es mucho curro para tan poco."
Etapa 2: La Caída (Semanas 2-4)
Aquí la cosa empezó a doler de verdad. Tres problemas cayeron a la vez.
El sistema de comandos era frágil. Había montado decenas de comandos rígidos: instrucciones específicas para cada tarea, formatos de parámetros estrictos, secuencias de pasos exactas. Un parámetro mal y se rompía toda la cadena. El agente cargaba el comando equivocado, se saltaba pasos o ejecutaba en desorden. Le pedía investigar un tema y se lanzaba directamente a escribir un borrador. Le pedía revisar contenido e ignoraba la mitad del checklist. Las instrucciones estaban ahí, pero la rigidez hacía el sistema frágil en vez de fiable.
La configuración se fue hinchando. Cada vez que arreglaba algo, añadía más instrucciones. Duplicaba reglas entre comandos. Repetía el mismo contexto en tres sitios. El CLAUDE.md monolítico se infló y la ventana de contexto se llenó volando. Más tarde descubrí por qué esto mataba el rendimiento. Pasado el 60% de capacidad de contexto, el agente se degrada rápido. Lo llamo el problema del "agente borracho": cada 5% por encima del 40% es otra cerveza. En ese momento solo veía que el agente se volvía más tonto y no entendía por qué.
Y lo más insidioso: el slop de IA se estaba acumulando dentro del propio sistema. El agente escribía un skill con lenguaje vago, frases de relleno, estructuras sobredimensionadas. El siguiente skill referenciaba al anterior y heredaba sus malos patrones. Los archivos del cerebro que producía el agente eran genéricos e inflados. Mi asistente se estaba convirtiendo en una versión peor de sí mismo con cada iteración, porque lo que generaba pasaba a ser el contexto que consumía. Basura entra, basura sale. Acumulación en la dirección equivocada.
La sensación real: "¿Era más productivo antes?"
Etapa 3: Inflexión (Semanas 4-8)
Entonces algo cambió. Y no fue lo que esperaba.
El salto no vino de añadir más. Vino de quitar. Eliminé el sistema de comandos entero. Decenas de instrucciones rígidas se quedaron en cuatro skills. La configuración monolítica pasó a ser un único archivo .env. El sistema dejó de decir "sigue estos pasos exactos en este orden exacto" para convertirse en "aquí tienes el contexto, resuélvelo." Conversacional en vez de procedural.
Eso lo cambió todo. El agente dejó de ser un ejecutor frágil y se convirtió en un colaborador flexible. Los skills se fueron acumulando de forma natural. Cada uno nuevo salía más rápido porque podía apoyarse en los anteriores. El cerebro se enriquecía con cada tarea — la investigación de un proyecto alimentaba al siguiente. La ingeniería de contexto hizo clic cuando dejé de intentar especificar cada paso al milímetro.
Dejé de explicar tanto. Delegué más. El agente investigaba, volvía con hallazgos bien documentados y yo solo refinaba. Tareas que antes pedían un prompt entero ahora necesitaban una línea, porque el sistema ya conocía mis proyectos, mi voz, mis preferencias.
Un momento que se me quedó grabado: le pedí investigar un tema para un post. Lanzó tres sub-agentes en paralelo — uno buscó en mi base de conocimiento contenido relacionado, otro rastreó fuentes externas, y el tercero verificó mi calendario de contenido por solapamientos. Volvió con un brief de investigación que referenciaba mis posts anteriores, citaba datos externos y señalaba un posible conflicto con algo publicado dos semanas antes.
No le había pedido nada de eso. Los skills y las reglas de orquestación lo hicieron automático.
La sensación real: "Espera, ¿acaba de... hacer eso bien?"
Etapa 4: Acumulación (8+ Semanas)
Aquí estoy ahora. El sistema se alimenta solo.
Lo que investigué la semana pasada aparece en lo que escribo esta semana. Las decisiones de contenido anteriores moldean la estrategia futura. El agente orquesta entre herramientas: investiga un tema, planifica un esquema, escribe un borrador, lo revisa contra la voz de marca. Todo con conocimiento persistente.
¿Este post? El sistema investigó las fuentes (Anthropic, MIT Sloan, BCG, METR, Simon Willison, Tiago Forte), planificó el esquema a partir de mi estrategia de contenido y posts anteriores, y lo redactó. No desde un prompt genérico. Desde conocimiento acumulado de mi marca, mi audiencia y lo que ya tengo publicado.
El feedback loop es lo que más me sorprende. Tras cada tarea, los aprendizajes vuelven al cerebro. Una revisión de contenido que detecta un patrón que tiendo a repetir se convierte en regla dentro de mi skill de escritura. Un enfoque de investigación que funciona bien queda codificado para la próxima vez. El sistema mejora porque recuerda qué funcionó.
La sensación real: "No me imagino trabajando sin esto."
Por Qué el 60% Obtiene Cero Valor de la IA
Si el efecto compuesto es real, ¿por qué la mayoría nunca lo experimenta?
BCG descubrió que el 60% de las empresas a nivel global no sacan valor real de la IA a pesar de invertir cantidades importantes. La mayoría se quedan atascadas en las etapas 2-3 de adopción, y menos del 10% llega a la etapa donde empieza la creación de valor de verdad.
La raíz del problema: tratar la IA como un deploy en vez de una integración iterativa. Montarla una vez, esperar resultados, y concluir que no funciona cuando no entrega de inmediato.
Esto cuadra con lo que METR descubrió en un ensayo controlado aleatorio: los desarrolladores experimentados eran un 19% más lentos con IA en tareas aisladas. El efecto compuesto no viene de ir más rápido tarea a tarea. Viene de integrar el flujo de trabajo completo. Los prompts sueltos no se acumulan. Un sistema sí.
Piénsalo así: si usas IA para escribir un email más rápido, te ahorras tres minutos. Si montas un sistema donde la IA conoce tu estilo de comunicación, tu historial con cada destinatario y el contexto de tu proyecto, cada email sale mejor y más rápido con el tiempo. Lo primero te da un empujón puntual. Lo segundo se acumula.
Esto encaja con lo que viví. ¿Usar Claude para una tarea suelta? Mejora marginal, con suerte. ¿Usar un sistema integrado con memoria, skills y contexto para un flujo de trabajo entero? Ahí es donde la curva despega.
El blog de ingeniería de SADA lo describe como un flywheel de productividad en tres etapas: Acceso Universal (estructura tu conocimiento), Orquestación Inteligente (coordina sistemas), Conocimiento Compuesto (captura aprendizajes). Cada etapa alimenta la siguiente. "Los descubrimientos de ayer se convierten en los aceleradores de hoy."
Las Cuatro Decisiones Clave
Mirando atrás, cuatro decisiones fueron las que hicieron posible el efecto compuesto.
1. Una Base de Conocimiento Estructurada
La IA necesita contexto organizado para que el efecto compuesto funcione. Sin él, cada sesión arranca desde cero.
Tiago Forte lleva años predicando esto con su concepto de "Second Brain". Su reflexión: "Todo lo que está pasando con la IA parece la continuación perfecta de lo que intentaba lograr con mi libro, solo que ahora es mucho más potente y accesible."
Tiene razón. Una base de conocimiento estructurada era un nice-to-have para la productividad personal. Para acumular con IA, es el cimiento. Mi cerebro (archivos markdown estructurados) le da al asistente memoria persistente. La investigación previa alimenta la nueva, las decisiones de marca persisten y el sistema recuerda lo que yo olvidaría.
La decisión concreta que marcó la diferencia: organizar por proyecto, no por fecha ni herramienta. Cada pieza de conocimiento vive en el proyecto al que pertenece. Cuando el sistema trabaja en un proyecto, carga todo lo relevante (voz de marca, estrategia, contenido anterior, análisis de competidores) de una sola vez.
2. Menos Skills, No Más Comandos
El instinto natural es añadir. Más instrucciones. Más comandos. Más especificidad. Ese instinto está mal.
Simon Willison define los skills como "conceptualmente extremadamente simples: un archivo Markdown que le dice al modelo cómo hacer algo." Predice una "explosión Cámbrica de Skills" que dejará pequeña la adopción de MCP. Y tiene razón en el porqué: los skills son triviales de crear, portables y esencialmente iterativos. MCP es demasiado complejo e infla el contexto de los agentes.
Esto lo aprendí a golpes. Mi primera versión tenía decenas de comandos con parámetros rígidos. La actual tiene cuatro skills. Cuatro. Content marketing, estrategia de negocio, gestión de conocimiento y un humanizer para pillar patrones de escritura de IA. Cada uno es un archivo markdown concreto que el agente carga cuando toca.
La dinámica compuesta: cada skill facilita escribir el siguiente porque ya tienes los patrones resueltos. Pero lo más importante es que menos skills implica menos competencia por el contexto. El agente no se ahoga en instrucciones. Tiene espacio para pensar. El sistema se volvió más inteligente cuando le di menos reglas que seguir y más material con el que trabajar.
3. Captura de Feedback
Después de cada tarea, los aprendizajes vuelven al cerebro. El sistema aprende del uso. Qué funcionó, qué no, qué hacer distinto. Este es el mecanismo que hace que todo lo demás se acumule. Sin captura de feedback, tienes un sistema estático que ejecuta siempre igual. Con ella, los errores de ayer se convierten en las protecciones de mañana.
Lo más potente es que el feedback loop aplica al propio plugin. Cuando el agente mete la pata, capturo qué pasó y qué debería haber hecho. Ese feedback se convierte en una mejora del skill o la regla de orquestación que causó el fallo. El agente literalmente reescribe sus propias instrucciones a partir de sus errores. ¿El problema del slop de IA de la caída? Así lo resolví. Ahora el sistema detecta y corrige los mismos patrones que antes lo envenenaban.
Un ejemplo concreto: al principio, el revisor de contenido se dejaba un patrón típico de escritura IA: listas que arrancan con encabezados en negrita seguidos de dos puntos. Lo añadí al skill de revisión. Ahora lo pilla automáticamente. Ese arreglo de tres minutos ahorra tiempo en cada pieza de contenido de ahí en adelante.
4. Integración en el Flujo, No un Añadido
El sistema no es una herramienta aparte a la que salto. Está metido en cómo trabajo. Investigación, planificación, escritura, revisión. El mismo sistema en todo momento.
Y como se apoya en Claude Code, no se limita al contenido. El mismo cerebro y skills están ahí cuando escribo copy para la web (los plugins de código cubren el desarrollo, pero el conocimiento de marketing está accesible), cuando tomo decisiones de arquitectura, lanzo análisis de competidores o planifico estrategia de negocio. Un solo contexto, disponible desde lo que sea que esté haciendo. No construí una herramienta aislada. Construí una capa por encima de todo.
Los datos de BCG confirman que la etapa 4 (donde el valor se acumula) exige este nivel de integración. Las organizaciones atascadas en las etapas 2-3 usan IA como complemento: una ventana de chat aparte, una herramienta independiente, un paso más. La etapa compuesta llega cuando la IA está tejida dentro del propio flujo de trabajo.
En la práctica, esto quiere decir que un flujo de contenido no es "investigar en herramienta A, planificar en B, escribir en C." Es un solo sistema que arrastra contexto en cada paso. La investigación alimenta directamente el plan, el plan da forma al borrador, y la revisión lo contrasta todo con la investigación original. No se pierde nada entre pasos porque no hay pasos separados. Es un flujo continuo.
La Verdad Incómoda
El efecto compuesto solo funciona si sobrevives al bajón. La mayoría no lo consigue.
Prueban IA una semana. Chocan con la fricción. Concluyen "no está lista" o "no entiende mi dominio." Y tienen razón. No entiende su dominio. Todavía no. No sin las semanas de construcción de contexto estructurado y personalización iterativa que necesita el efecto compuesto para arrancar.
Los retornos son reales pero llegan tarde. El esfuerzo va por delante. Ese desfase explica por qué el 60% no saca nada y menos del 10% se lo lleva todo.
No es una crítica. El bajón duele de verdad. Las semanas 2-4 fueron las peores. Pero saber que la curva existe, que la fricción es señal de aprendizaje y no de fracaso, te permite aguantar.
La investigación de MIT Sloan demostró que los early adopters de IA necesitaron cuatro años para superar a los que no adoptaron en manufactura. Mi experiencia lo comprimió a semanas. Ser una persona en vez de una organización ayuda. Pero el patrón se repitió: todo empeoró antes de mejorar mucho.
¿Dónde Estás en la Curva?
Si estás en el bajón ahora mismo — depurando prompts, dudando de si merece la pena, preguntándote si antes ibas más rápido — estás justo donde yo estaba.
Los datos dicen que sigas. La experiencia, lo mismo.
No porque la IA mejore por arte de magia. Porque tu sistema alrededor de ella sí lo hace. Cada skill que escribes, cada trozo de contexto que organizas, cada feedback loop que cierras hace que la próxima sesión sea un poco mejor que la anterior.
Así funciona el efecto compuesto. Y una vez que lo sientes, no hay vuelta atrás.