5 abr 2026 — Karpathy mata el RAG: los agentes se construyen su propio wiki

Karpathy presenta la arquitectura del LLM Wiki que reemplaza el RAG tradicional; OpenAI da carpetazo definitivo al GPT-4o y lo sustituye por GPT-5.4 Thinking; Google lanza Gemma 4 open-source con 256K de contexto; y DeepSeek V4 anuncia lanzamiento inminente con 1 billón de parámetros y Apache 2.0.

🤖 Intelia AI Report — 5 abril 2026

Karpathy mata el RAG: los agentes se construyen su propio wiki

Hoy en 4 minutos: Karpathy presenta la arquitectura del LLM Wiki que reemplaza el RAG tradicional; OpenAI da carpetazo definitivo al GPT-4o y lo sustituye por GPT-5.4 Thinking; Google lanza Gemma 4 open-source con contexto de 256K tokens; el EU AI Act complica el deadline de compliance para sistemas de contratación con IA; y DeepSeek V4 anuncia lanzamiento inminente con un billón de parámetros y Apache 2.0.


🧠 Karpathy se carga el RAG: los agentes mantienen su propio wiki

Andrej Karpathy publicó el 4 de abril un gist de GitHub que se volvió viral en horas: una arquitectura para wikis de conocimiento personal mantenidos íntegramente por agentes LLM. En vez de RAG clásico (indexar documentos y hacer búsquedas vectoriales), el agente lee artículos, papers y repos, y los sintetiza en un sistema vivo de ficheros Markdown con backlinks, resúmenes y referencias cruzadas actualizadas automáticamente. Karpathy lo llamó el "compendio que se autorepara". En X acumuló decenas de miles de retweets, y múltiples developers reportaron tener versiones propias funcionando en menos de 24h.

Por qué importa: Para una startup de automatización contable, esto es oro: en vez de mantener bases de conocimiento estáticas sobre normativas, clientes y procesos, los agentes pueden compilarlas, actualizarlas y enriquecerlas solos. El coste de mantenimiento del "cerebro" de la empresa cae drásticamente.

Fuente: VentureBeat · GitHub Gist de Karpathy


⚰️ Adiós GPT-4o: OpenAI cierra la era de los modelos de primera generación

El 3 de abril, OpenAI retiró definitivamente GPT-4o de todos sus planes: Pro, Plus, Team, Business, Enterprise y Edu. El modelo que hace dos años democratizó la IA multimodal queda en la historia. Su sustituto, GPT-5.4 Thinking, ya está disponible para todos los planes de pago, con integración de test-time compute y benchmarks que superan el rendimiento humano en tareas de escritorio (OSWorld-Verified: 75%). GPT-5.4 Thinking puede enlazar acciones, razonar en pasos y completar tareas complejas multi-step de forma autónoma. La versión estándar sigue disponible sin coste extra para usuarios existentes.

Por qué importa: El stack de producción cambia: si tu empresa todavía llama a GPT-4o via API, tienes que migrar ya. GPT-5.4 tiene capacidades agénticas nativas que GPT-4o no tenía — y los workflows de automatización que antes requerían prompts artesanales ahora funcionan out-of-the-box.

Fuente: AI and News


🟢 Google lanza Gemma 4: open-source con 256K de contexto y visión nativa

Google liberó Gemma 4 el 2 de abril bajo licencia Apache 2.0: cuatro tamaños (2B, 4B, 26B y 31B parámetros), soporte nativo de visión, audio y texto, contexto hasta 256.000 tokens y más de 140 idiomas. Es la primera versión de Gemma construida directamente sobre la arquitectura de Gemini 3, lo que supone un salto cualitativo respecto a versiones anteriores. Los modelos Gemma acumulan ya más de 400 millones de descargas desde su lanzamiento. Disponible en Hugging Face, Kaggle y Google AI Studio desde el primer día.

Por qué importa: 256K de contexto en un modelo de 4B parámetros que puedes desplegar localmente cambia el cálculo de build-vs-buy. Para procesamiento masivo de facturas, contratos o documentación contable, tener un modelo local sin coste de API es un diferencial enorme frente a startups que dependen de proveedores cloud.

Fuente: Google Blog · The Register


⚖️ EU AI Act: el deadline de compliance para contratación con IA se complica

Las empresas que usan IA para seleccionar personal (cribado de CVs, scoring de candidatos) operan un "sistema de IA de alto riesgo" bajo el EU AI Act, con fecha de cumplimiento el 2 de agosto de 2026. Sin embargo, la propuesta Digital Omnibus de la Comisión Europea plantea retrasar ese plazo hasta diciembre de 2027 — pero la propuesta aún no está aprobada. El resultado: las empresas están en un limbo legal. Las que se preparan ahora y el plazo se retrasa, pierden inversión; las que esperan y no se retrasa, se enfrentan a multas de hasta 15 millones de euros o el 3% de su facturación global anual.

Por qué importa: Si tu empresa vende automatización de procesos con IA a clientes europeos, este limbo te afecta directamente. Los clientes que usen tu producto para onboarding, screening o análisis de empleados necesitan claridad sobre qué clasificación aplica. Es el momento de tener una postura clara en los contratos.

Fuente: Asanify AI News Digest


🇨🇳 DeepSeek V4: 1 billón de parámetros, Apache 2.0 y lanzamiento inminente

Según The Information (3 de abril), DeepSeek V4 está a semanas de lanzarse, tras meses de retrasos por reescritura de código para chips Huawei Ascend y Cambricon. Las specs filtradas son impresionantes: 1 billón de parámetros Mixture-of-Experts, pesos abiertos bajo Apache 2.0, contexto de 1 millón de tokens, soporte multimodal (texto, imagen, vídeo) y precio de inferencia de solo $0.30 por millón de tokens. El coste de entrenamiento estimado es de 5.2 millones de dólares — una fracción de lo que cuesta entrenar modelos equivalentes en EEUU. Si los benchmarks aguantan (81% en SWE-bench según filtraciones), volvería a sacudir el mercado.

Por qué importa: Otro modelo open-source con capacidades frontier a precio de saldo presiona a la baja los márgenes de cualquier producto construido sobre APIs propietarias. El moat de las startups de IA ya no es el acceso al modelo — es la integración y el workflow.

Fuente: Dataconomy · NxCode


🐦 Lo que se comenta en X

"Wow, this tweet went very viral! Instead of sharing the code or app, I'm sharing an idea file. In this era of LLM agents, there's less need to share specific code — you just share the idea, then the other person's agent customizes it." — @karpathy

La frase que más se repitió ayer en X: el código ya no es el producto, la idea sí. Cambia radicalmente cómo entendemos la propiedad intelectual en software.

"Karpathy's 'LLM Wiki' pattern: stop using LLMs as search engines over your docs. Use them as tireless knowledge engineers who compile, cross-reference, and maintain a living wiki." — @Yuchenj_UW (Yuchen Jin)

La mejor síntesis del patrón en una sola frase. "Knowledge engineers" vs "search engines" es el framing que se queda.

"The all-you-can-eat buffet just closed. A single OpenClaw agent running for one day could burn $1,000 to $5,000 in API costs. Anthropic was eating that difference on every user." — Aakash Gupta, en respuesta al bloqueo de Anthropic a OpenClaw

La metáfora del buffet explica perfectamente la tensión estructural entre modelos de suscripción plana y el uso real de agentes IA. Spoiler: no cuadran.


🔴 La otra cara

Anthropic bloquea OpenClaw: el modelo de suscripción plana y los agentes son incompatibles

El 4 de abril, Anthropic cortó el acceso de todos los suscriptores de Claude Pro y Max a herramientas de terceros como OpenClaw, con efecto inmediato a las 12:00 PT. OpenClaw es una extensión open-source que amplía las capacidades de Claude Code fuera del IDE oficial de Anthropic. La respuesta en Hacker News y X fue inmediata: cientos de developers amenazando con migrar a otros modelos. El creador de OpenClaw acusó a Anthropic de "primero copiar las features populares en su harness cerrado y luego bloquear el open-source". Anthropic argumenta que un solo agente de OpenClaw puede quemar entre 1.000 y 5.000 dólares en costes de API en un solo día.

Por qué importa: El movimiento de Anthropic revela una tensión económica real: los modelos de suscripción flat no son viables cuando los usuarios corren agentes con uso intensivo. Las plataformas de IA van a ir acotando gradualmente lo que entra en "todo incluido". Afecta directamente a cómo estructuramos los costes de producto.

Fuente: TechCrunch · Hacker News

"AI washing" de despidos: el 25% de los 52.000 despidos tech de Q1 se atribuyen a la IA

El SF Standard investiga si las empresas usan la IA como coartada para despidos que responden a otras causas. Q1 2026 ya acumula 52.000 despidos en tech, un 40% más que el mismo periodo del año anterior. Una cuarta parte se atribuyen oficialmente a "eficiencias de IA" en las notas de prensa corporativas — pero muchos analistas son escépticos. Según Bloomberg, las empresas han encontrado en "la IA lo hará mejor" la excusa perfecta para recortes que en otra época habrían explicado como "ajustes de estructura". El problema: no hay datos que demuestren que esos puestos están siendo reemplazados por sistemas IA funcionales.

Por qué importa: El "AI washing" de los despidos tiene consecuencias regulatorias directas. Si la narrativa empresarial sobreestima el rol de la IA en la destrucción de empleo, la respuesta política será desproporcionada. Y si la subestima, los trabajadores afectados no reciben las protecciones adecuadas.

Fuente: SF Standard · Bloomberg

Error de 4.500x en un documental pro-IA que llegó al mainstream

Techdirt destapó que el documental "Empire of AI" de Karen Hao tuvo que publicar una corrección importante: una cifra sobre el consumo de agua de los data centers estaba equivocada por un factor de 4.500 veces. No es un typo — es un error de magnitud que pasó por todos los filtros editoriales y llegó al gran público. El problema sistémico que señala Techdirt es que el ecosistema de divulgación de IA está tan entusiasmado con el tema que no hay incentivos para hacer el fact-checking riguroso que se aplica a otros temas. "False balance" más error factual en el mismo paquete.

Por qué importa: Si los defensores de la IA no pueden mantener los hechos básicos sobre sus propias afirmaciones, le dan argumentos gratuitos a los críticos. La falta de rigor en la divulgación pro-IA es un problema para todos los que trabajamos en este sector y necesitamos que el regulador y los clientes confíen en lo que decimos.

Fuente: Techdirt


🤔 La voz escéptica

"Strategy requires a broad and deep understanding of the world, something generative AI has never robustly had. In the Iran conflict, AI helped with operations — targeting, logistics, real-time analysis — but failed completely on strategy. That distinction matters enormously." — Gary Marcus, Substack (1 abril 2026)

Marcus analiza el uso de IA en el conflicto EEUU-Irán y señala una distinción que se pierde en el hype: los LLMs son buenos ejecutando instrucciones tácticas bien definidas, pero fallan cuando el contexto es ambiguo y los objetivos cambian. La misma limitación aplica a cualquier proceso de negocio complejo.

"AI is everywhere except in the macroeconomic data. 90% of firms say AI has had no measurable impact on productivity. CEOs project +1.4% productivity gains 'in the future' — but we've been hearing that for three years." — Torsten Sløk, Chief Economist de Apollo Global (estudio NBER, citado en Fortune)

La paradoja de la productividad de la IA no es nueva, pero cada trimestre que pasa sin que aparezca en los datos macro la hace más incómoda de ignorar. No es que la IA no funcione — es que todavía no sabemos si las ganancias de productividad micro se agregan a nivel macro, o si simplemente desplazamos trabajo en vez de eliminarlo.

"The capex in AI exceeds $400-500 billion in the US alone. The revenues generated by AI services are around $12 billion. That's a 30x gap. Whatever the explanation, calling that a sustainable business model requires extraordinary faith." — Gary Marcus, citado en WebProNews

La aritmética de Marcus es incómoda pero real. El argumento de los bulls es que el payoff viene en 5-10 años. El argumento de los bears es que eso es exactamente lo que dijeron de otras burbujas. Ninguno tiene la respuesta hoy — pero ignorar el gap es hacer vista gorda.


💡 Fuentes nuevas a seguir: DataWorldBank — cobertura técnica detallada de arquitecturas de IA con buena relación señal/ruido. Marcus on AI (Substack) — el mejor escéptico técnico del momento, bien argumentado aunque a veces excesivo.

Intelia AI Report · Enviado a pablo@inteliatech.ai y jaime@inteliatech.ai
Para desuscribirse o dar feedback, responder a este email.