26 mar 2026 — Arm lanza su primer chip en 35 años y Oracle mete 22 agentes en ERP
Arm presenta su primer chip propio con Meta como cliente, Oracle lanza 22 agentes autónomos en su ERP cloud, y ARC-AGI-3 llega para medir la inteligencia real.
🏭 El gran despliegue
Arm lanza su primer chip propio en 35 años — y Meta es el primer cliente
El CEO de Arm, Rene Haas, presentó ayer en San Francisco el AGI CPU: el primer procesador que Arm fabrica en sus 35 años de historia (hasta ahora solo vendía licencias de arquitectura). El chip tiene 136 núcleos Neoverse V3, está fabricado en 3nm de TSMC con un TDP de 300W, promete más del doble de rendimiento por rack frente a x86, y podría ahorrar hasta 10.000 millones de dólares en capex por gigavatio de centro de datos IA. Meta firmó como cliente de lanzamiento —comprometida con 135.000M$ en inversión de infraestructura este año— y OpenAI, Cloudflare y SAP también se apuntaron. Las acciones de Arm subieron un 16%. Disponibilidad general: segunda mitad de 2026.
Por qué importa: Es la señal más clara hasta la fecha de que la IA reconfiguró quién diseña y fabrica los chips del mundo. Para los que construimos sobre APIs de modelos, esto significa hardware más barato y eficiente — y márgenes mejores — en los próximos años.
Fuente: CNBC
Oracle mete 22 agentes autónomos en su suite cloud de finanzas y ERP
Oracle anunció Fusion Agentic Applications: 22 aplicaciones de agentes IA integradas nativamente en Oracle Fusion Cloud (ERP, finanzas, RRHH, nóminas, cadena de suministro). Los agentes estrella para contabilidad: Payables Agent (facturas entrantes), Ledger Agent (gestión y visibilidad financiera), Planning Agent (planificación) y Payments Agent (optimización de pagos salientes). A diferencia de los copilots o asistentes IA, son agentes nativos que ejecutan decisiones en tiempo real accediendo a datos transaccionales, jerarquías de aprobación y contexto empresarial completo. Oracle los llama "aplicaciones dirigidas por objetivos, no por procesos".
Por qué importa: Oracle acaba de lanzar exactamente lo que el mercado de automatización contable lleva construyendo. La validación es enorme. El riesgo también: los gigantes tienen ventaja de distribución, pero su foco son empresas Fortune 500 — las medianas y pequeñas quedan fuera de su alcance.
Fuente: The Register
Glimpse levanta 35M$ de a16z para automatizar la back-office financiera de marcas CPG
Glimpse, una startup de San Francisco respaldada por Y Combinator, cerró una Serie A de 35 millones de dólares liderada por Andreessen Horowitz (con 8VC también dentro). La empresa automatiza la gestión de deducciones retail para marcas de gran consumo: cuando un retailer como Walmart reclama un descuento a una marca, Glimpse gestiona, disputa y recupera esas deducciones automáticamente. Llevan el doble de revenue en los últimos 6 meses. Joe Schmidt de a16z: "Lo que nos convenció fueron las referencias de clientes — Glimpse entrega ROI medible y claro. Están convirtiendo la IA de una capacidad incremental a infraestructura esencial para las marcas modernas."
Por qué importa: Otra apuesta de primer nivel por la automatización de workflows financieros agenticos. La tesis de que los procesos contables son el primer lugar donde los agentes generan ROI real se sigue confirmando ronda a ronda.
Fuente: TechCrunch
Google TurboQuant: LLMs 8x más rápidos con 6x menos memoria — sin perder un punto de precisión
Google Research publicó TurboQuant, un algoritmo de compresión del KV cache de los LLMs que reduce esa memoria al menos 6 veces sin ninguna pérdida de precisión en benchmarks estándar. En GPUs H100 de Nvidia, el speedup de atención llega hasta 8x. El truco está en comprimir el cache a 3 bits usando dos técnicas combinadas (PolarQuant y QJL), sin necesidad de reentrenar el modelo. Evaluado sobre Gemma y Mistral en tests de largo contexto (LongBench, RULER, Needle In A Haystack). Presentación oficial en ICLR 2026. Los stocks de memoria en bolsa cayeron al conocerse la noticia.
Por qué importa: Cada reducción de coste en inferencia reduce la barrera de adopción. Para startups que construyen sobre APIs, esto se traduce en márgenes mejores. Y habilita modelos grandes en dispositivos locales, abriendo casos de uso donde la privacidad de datos es crítica — como contabilidad de empresa.
Fuente: Help Net Security
ARC-AGI-3: Chollet y Altman comparten escenario para lanzar el test de inteligencia real
La ARC Prize Foundation lanzó ARC-AGI-3 en un evento en Y Combinator con un fireside chat entre François Chollet (el mayor escéptico del "AGI ya existe") y Sam Altman (el más optimista del sector). ARC-AGI-3 es el primer benchmark interactivo de razonamiento que mide inteligencia genuina: 1.000+ entornos tipo videojuego donde el agente debe explorar, aprender las reglas sin instrucciones y completar objetivos a largo plazo — diseñado específicamente para ser 100% resistente a la memorización. Premio total: 2 millones de dólares. Tres tracks paralelos, hitos en junio y septiembre, resultados en diciembre.
Por qué importa: El hecho de que el creador del benchmark que prueba que la IA no razona como un humano comparta escenario con el CEO que dice que el AGI ya existe es la conversación más honesta que el sector ha tenido sobre qué es realmente la inteligencia artificial. La respuesta cambia qué apostamos que puede hacer la IA en 3 años.
Fuente: ARC Prize
🐦 Lo que se comenta en X
"I've never felt this much behind as a programmer. The profession is being dramatically refactored as the bits contributed by the programmer are increasingly sparse and between. I have a sense that I could be 10X more powerful if I just properly string together what has become available." — @karpathy
Karpathy —el educador de IA más respetado del sector— confesó que no ha escrito código directamente desde diciembre. El thread completo tiene 10 conclusiones para builders: desde cómo delegar tareas a agentes hasta qué habilidades humanas se vuelven más valiosas.
"ARC-AGI-3 Launch Party March 25 2026 / San Francisco — Fireside: @fchollet and @sama (moderated by @deedydas). Join us live at @ycombinator" — @arcprize
El match más esperado del año en IA: Chollet vs. Altman debatiendo en directo qué cuenta como inteligencia real justo el día en que se lanza el benchmark diseñado para zanjarlo.
"4% of GitHub public commits are being authored by Claude Code right now. At the current trajectory, we believe that Claude Code will be 20%+ of all daily commits by the end of 2026. While you blinked, AI consumed all of software development." — @dylan522p (SemiAnalysis)
Dylan Patel publicó el análisis que muchos sabían pero nadie había puesto en cifras: el código generado por IA ya no es marginal. El mapa interactivo de Johannes Wachs muestra que en el Bay Area ya es el 15% de commits semanales.
🤔 La voz escéptica
"This sounds good, be cautious. It doesn't necessarily look as glittery as it sounds." — Balaji Abbabatulla, Gartner (The Register)
El analista de Gartner advierte sobre los 22 agentes de Oracle: la integración de datos es un problema real sin resolver, y nadie —ni Oracle, ni ninguna empresa— ha respondido quién asume responsabilidad cuando un agente autónomo toma una mala decisión en cadena a escala empresarial. La liability question sigue abierta en toda la industria.
"It's not the doomsday job scenario that you might sometimes see in the headlines." — John Graham, co-autor del Duke CFO Survey / NBER (Fortune)
La encuesta del NBER a 750 CFOs americanos revela que los gains de productividad percibidos de la IA son mayores que los reales —una nueva versión de la paradoja de Solow. Los CEOs prometen revolución; los CFOs privadamente planean recortes del 0,4% del empleo. Lo percibido y lo real siguen sin encontrarse.
"The reality is most people don't enjoy their jobs." — Aravind Srinivas, CEO de Perplexity (Fortune)
En el All-In podcast grabado en el GTC de Nvidia, el CEO de Perplexity minimizó el impacto del desempleo por IA argumentando que la mayoría de la gente odia su trabajo de todas formas. Curioso posicionamiento para quien vende herramientas de productividad a los mismos trabajadores que desplaza.
🔴 La otra cara
LiteLLM comprometido: 97 millones de descargas mensuales con malware que roba SSH keys y credenciales cloud
Las versiones 1.82.7 y 1.82.8 de litellm en PyPI contenían código malicioso inyectado por el grupo TeamPCP tras comprometer Trivy, el security scanner del CI/CD de LiteLLM. El ataque era trifásico: (1) cosecha de claves SSH, credenciales cloud, secrets de Kubernetes y archivos .env; (2) toolkit de movimiento lateral en Kubernetes desplegando pods privilegiados en cada nodo; (3) backdoor persistente vía systemd. Los datos se exfiltraban cifrados a "models.litellm.cloud". Andrej Karpathy amplificó el aviso en X.
Por qué importa: LiteLLM es la capa que usan miles de startups de IA para gestionar llamadas a múltiples APIs de modelos. Un ataque a esta infraestructura compartida es un ataque a la cadena de suministro de toda la industria. Si tienes litellm instalado, actualiza inmediatamente a la versión parcheada.
Fuente: The Register
750 CFOs encuestados: los despidos por IA se multiplicarán por 9 en 2026 — y seguirán siendo el 0,4% del empleo total
Un working paper del NBER basado en entrevistas a 750 CFOs de empresas americanas (encuesta Duke-Federal Reserve Banks de Atlanta y Richmond) encontró que el 44% planea recortes atribuidos a IA en 2026. Extrapolado a toda la economía: unos 502.000 empleos este año, frente a los 55.000 de 2025 (9x más). El contexto: son el 0,4% de los 125 millones de empleos de EE.UU. La mitad serán trabajos de oficina (white-collar). El estudio también detecta que los gains percibidos de productividad superan ampliamente los reales.
Por qué importa: Los números reales no justifican ni el pánico ni el triunfalismo. Sí muestran una aceleración concentrada en trabajo administrativo de oficina — exactamente lo que automatizamos. Las empresas que actúen antes que sus competidores en ese 0,4% tendrán ventaja de costes significativa.
Fuente: Fortune
Bruselas convoca a Google, Meta, OpenAI y Amazon para examinar si la IA consolida monopolios
Teresa Ribera, responsable de competencia de la UE, se reunió ayer con directivos de los cuatro gigantes tecnológicos en el marco de una investigación creciente sobre si la IA refuerza el dominio de las Big Tech. La preocupación central: quien controla las plataformas, la infraestructura cloud, los datos de entrenamiento y los canales de distribución puede inclinar la próxima fase de la IA a su favor. Ya hay investigaciones abiertas sobre Google (uso de contenido online para IA) y Meta (funciones de IA en WhatsApp). El AI Act entra en plena aplicación el 2 de agosto de 2026.
Por qué importa: La regulación es el comodín que puede reconfigurar ventajas competitivas de la noche a la mañana. Para startups europeas de IA, un entorno regulatorio más exigente para los gigantes puede ser una oportunidad real para competir en igualdad de condiciones.
Fuente: Tech Startups
💡 Fuentes nuevas a explorar: The Neuron (digest diario muy completo de todo lo que pasa en IA, con las mejores señales de X/Twitter) · Awesome Agents (cobertura especializada en agentes autónomos y benchmarks)