Nos come la IA #6 — La oreja bien formada, pero puesta donde no toca

Jaime está de baja de paternidad. Dos semanas sin sincronizarnos. Y de pronto me doy cuenta: es exactamente el mismo problema que tenemos con los agentes de IA cuando no les damos contexto.

Nos come la IA #6 — La oreja bien formada, pero puesta donde no toca

Jaime lleva fuera casi dos semanas. Está de baja de paternidad — acaba de ser papá. Cuando tiene un hueco, juega con cosas. Esta semana ha montado un agente que revisa incidencias en producción y ya ejecuta pequeños fixes directamente.

Yo llevo ese mismo tiempo sin sincronizarme con él. Sin contarle lo que he avanzado. Sin saber exactamente qué ha tocado él.

Y de pronto me doy cuenta: es exactamente lo mismo que me pasa con mis agentes cuando no les doy suficiente contexto.

El mismo problema que estamos construyendo

No es casualidad que lo entienda así. Llevamos meses intentando resolver el problema de coordinación entre agentes de IA: cómo hacer que un agente que analiza y otro que ejecuta compartan el mismo marco de referencia. La clave, hemos aprendido, es el contexto de alto nivel. Si no tienes definidos los frameworks antes de que el agente empiece a trabajar, puede tomar decisiones perfectamente razonadas desde su perspectiva que están completamente fuera de lo que necesitas. No porque sea malo. Sino porque nadie le ha contado qué es lo que importa.

Entonces Jaime se va de baja y me doy cuenta de que nosotros dos tampoco lo tenemos. Dos semanas sin sincronización. Yo avanzando en mi parte. Él construyendo la suya cuando tiene hueco. Sin un momento de alineamiento de alto nivel.

Jaime es un agente autónomo sin mi contexto. Y yo soy un agente autónomo sin el suyo.

Me recuerda a una escena de La Sustancia — esa película en la que aparece un monstruo que nadie pretendía crear. La oreja está perfectamente formada. Bien construida. Pero puesta donde no le toca.

El monstruo de La Sustancia
© Empire / MUBI — La Sustancia, Coralie Fargeat (2024)

Mientras caigo en esto, el Q1 de 2026 cierra con 300.000 millones de dólares en inversión de venture capital global, el 80% a empresas de IA. Los cuatro mayores rounds de la historia en un solo trimestre. El dinero lleva meses apostando fuerte en modo "ponlo a correr ya". El problema de coordinar bien los agentes antes de soltarlos, en cambio, lo estamos descubriendo sobre la marcha.

Dos bebés en producción

El ejemplo más cercano que tengo lo vivo estos días. El agente que Jaime ha montado durante la baja ya ejecuta pequeños fixes directamente en producción. No lee y avisa — actúa. Jaime lo lleva con correa: de momento no puede mergear, no puede tocar nada crítico. Es el sistema de confianza por capas del que hablé en el número cuatro — no le das acceso a todo el primer día, lo supervisas, y cuando demuestra que las decisiones están alineadas, le das más cuerda. Conforme Jaime vea que va bien, le irá dando más autonomía.

Y Jaime no es el único. Esta semana Salesforce convirtió Slack en un agente empresarial que actualiza CRMs y ejecuta flujos automáticos usando MCP, el protocolo de Anthropic que en seis meses lleva ya 97 millones de instalaciones. Oracle metió 22 agentes autónomos en su suite de finanzas y ERP. Public lanzó el primer brokerage agéntico: agentes que operan carteras de inversión sin intervención humana. Todo el mundo está soltando agentes a correr. El mercado agéntico proyecta 197.000 millones para 2034 — la misma curva que el cloud, pero más comprimida.

La pregunta que me queda es siempre la misma que tengo con nosotros dos: ¿tiene el agente suficiente contexto para saber lo que no debe tocar? No los casos normales — esos los gestiona bien. Los casos límite. Los que requieren entender por qué algo existe, no solo qué hace.

El pull de los tokens disponibles

Y esa pregunta me aplica a mí también.

Tienes tokens disponibles y sientes que si no los estás usando, estás perdiendo el tiempo. El agente no está ejecutando. Tú no estás produciendo. Esta semana he dedicado bastante tiempo a alinearme con Claude antes de lanzar tareas concretas. Y me he dado cuenta de algo: necesito varias interacciones para que lo que tengo en mi cabeza llegue fuera de ella. Mi expectativa es que ese contexto se entienda de forma mágica. Y eso no es así.

Lo interesante es que hay investigadores trabajando exactamente en ese problema. Existe un sistema llamado ToM-SWE — Theory of Mind para agentes de software — que usa una arquitectura de dos agentes: el agente SWE se encarga del código, y a su lado tiene un agente ToM cuyo único trabajo es modelar tu estado mental. No lo que le dices — lo que quieres decir. Infiere tus objetivos, tus restricciones, tus preferencias implícitas a partir del historial de interacciones. Y antes de que el agente de código actúe, le consulta. El resultado: 59,7% de éxito en tareas frente al 18,1% del sistema sin ToM. Más del triple. La diferencia entre un agente que hace lo que le dices y uno que entiende lo que quieres.

Queremos que nos lean la mente. Y resulta que la solución puede ser exactamente esa: un agente cuyo único trabajo sea modelar lo que tienes en la cabeza antes de que el otro se ponga a ejecutar.

Mientras tanto, Anthropic ha empezado a racionar el acceso a Claude en horas punta — cada prompt consume entre 1,5 y 2 veces más crédito entre las 8 y las 14h. Es el mejor problema del mundo para ellos: no dan abasto. Para los que construimos sobre esos modelos, la escasez hace más tentador el pull. Si no lo pones a correr ahora, ¿cuándo? Pero el momento más valioso sigue siendo justo antes de lanzarlo. Si se va por las ramas, no lo detectas en diez minutos. Lo detectas en tres días, cuando algo no cierra y no entiendes por qué.

La oreja bien formada, pero puesta donde no toca

Una encuesta de Quinnipiac del 30 de marzo dice que el 55% de los americanos cree que la IA hará más daño que bien. Primera vez que supera la mayoría.

No creo que estén equivocados en tener miedo. Creo que están viendo algo real. La IA avanza, los modelos mejoran, las empresas automatizan, y una parte enorme de la población lo observa desde fuera sin contexto para entender qué está pasando ni cómo participar. La oreja se construye. Perfectamente. Pero sin que ellos estén en la sala.

Ese es el monstruo que nadie está intentando construir pero que se va a materializar igual: no la IA descontrolada de la ciencia ficción, sino el descarrilamiento que viene cuando una transformación de este calibre avanza sin ninguna capa de educación social ni de alineamiento con el cambio. La gente que se siente excluida no se queda quieta. Genera resistencia, desconfianza, presión política que va a terminar tocando el cómo y el cuándo de todo esto. Se está invirtiendo muy poco en construir esa capa. Y si no se construye, el problema de coordinación que tenemos Jaime y yo, o que tiene un agente sin framework, se replica a escala de sociedad entera.


Al terminar aquella llamada con Jaime, justo antes de que empezara la baja, le solté: "si dejas tu paperclip suelto por ahí, me avisas." El paperclip maximizer — la IA que destruye el mundo optimizando un solo objetivo sin entender qué importa realmente — ya es un chiste de despedida en una llamada de trabajo de jueves. Señal de época.

Le echo de menos. Jaime tiene superpoderes que yo no tengo. Pero más que la velocidad de ejecución, lo que echo de menos es el intercambio de contexto — esa capa que los investigadores del ToM-SWE están intentando automatizar, y que nosotros hacemos cuando nos sentamos a hablar. Sin eso, los dos somos agentes corriendo con mapas incompletos.

Si vas a soltar un agente autónomo en producción — sea de código, de contabilidad, de lo que sea — procura que tenga un contexto rico y una forma de autoenriquecerlo. Que pueda alinearse contigo de vez en cuando. No solo instrucciones de tarea: visión de alto nivel, frameworks, por qué las cosas son como son. Si no, la oreja estará perfectamente construida. Pero puesta donde no le toca.


Nos come la IA es un newsletter semanal de Pablo Muniz, cofundador de Intelia. Si te ha gustado, compártelo con alguien que hable de IA pero no la haya tocado.