18 mar — Suleyman libre, Dorsey recorta y el gigante del futuro cabe en una sala

Microsoft libera a Suleyman para construir modelos. Block recorta casi el 50% de su plantilla por la IA. Fortune: los gigantes tech del futuro operarán con menos de 100 personas. Y el 77% de los CEOs dice que el hype superó a la realidad.

Intelia AI Report — 18 de marzo de 2026

Microsoft libera a Suleyman: ya no gestiona Copilot, ahora construye los modelos

Microsoft ha reorganizado el liderazgo de su división de IA. Jacob Andreou, ex-Snap, asume como EVP al frente de toda la experiencia Copilot (consumer + commercial). Mustafa Suleyman, co-fundador de DeepMind y hasta ahora CEO de Microsoft AI, queda liberado de la gestión de producto para centrarse en construir los próximos modelos de base — especialmente en generación de código, imágenes, audio y razonamiento. La jugada reconoce implícitamente que Copilot necesitaba un liderazgo de producto distinto al de alguien cuyo ADN es construir modelos.

Por qué importa: Suleyman construyó AlphaFold y co-fundó DeepMind. Con las manos libres y el músculo financiero de Microsoft, la guerra de modelos tiene un nuevo jugador serio. Para Intelia, más competición en la capa de modelos significa precios a la baja y más capacidad disponible.

Fuente: CNBC

Block (Dorsey) recorta cerca del 50% de su plantilla — y lo llama "la era de la IA"

Howard Marks, fundador de Oaktree Capital, usó Block como caso de estudio en su intervención en la Capital Markets Industry Conference de Nueva York el 17 de marzo: Jack Dorsey ha ejecutado uno de los recortes más agresivos del sector tech en 2026, reduciendo la plantilla de Block —la fintech de pagos que construyó Square y Cash App— hasta casi la mitad, citando directamente la automatización por IA. Marks lo presentó como evidencia de que el mercado sigue subestimando el impacto real de la IA en el empleo corporativo.

Por qué importa: Cuando una fintech madura con procesos complejos recorta la mitad de su equipo por IA, el argumento de "la IA crea más empleos de los que destruye" necesita más datos urgentemente. Para fundadores de automatización contable como Intelia, es el ejemplo más poderoso posible frente a clientes que dicen "esto ya lo hacemos con personas".

Fuente: Bloomberg

El fundador de un startup de $12.000M lo dice claro: los gigantes del futuro tendrán menos de 100 personas

Fortune publicó el lunes una pieza con la tesis más provocadora de la semana: el fundador de una startup de IA valorada en $12.000M argumenta que las próximas grandes empresas tecnológicas no serán gigantes de miles de empleados, sino estructuras lean de menos de 100 personas donde la IA amplifica cada función. No habla de "eficiencia" ni de "ahorro en headcount" — habla del fin del headcount como proxy de ambición empresarial.

Por qué importa: Intelia compite contra consultoras con miles de empleados y ERPs con décadas de desarrollo. El modelo de "empresa de 10 personas con palanca de 1.000" es exactamente la apuesta que estamos haciendo. Fortune dándole portada valida esta narrativa ante inversores y ante clientes que preguntan "¿pero cuántos sois?".

Fuente: Fortune

Los agentes IA ya cierran siniestros de seguros sin pedir permiso a nadie

Fintech Global publica un análisis sobre el estado real de los agentes IA en seguros: la transición ya no es teórica. Los sistemas que "una vez respondían preguntas ahora están siendo instruidos para mover el trabajo hacia adelante." En reclamaciones, los agentes detectan el siniestro, analizan la documentación, actualizan el expediente y lo enrutan hacia la resolución sin que un humano toque cada paso. La diferencia entre un copiloto que sugiere y un agente que actúa.

Por qué importa: Seguros y contabilidad comparten el mismo patrón: flujos estructurados, documentos complejos, decisiones repetibles. Lo que está pasando en los seguros llegará a los departamentos financieros en 6-18 meses. Intelia está en la curva de adopción correcta, y este es el argumento para acelerar conversaciones con clientes que todavía "están evaluando".

Fuente: Fintech Global

Mistral Small 4: tres modelos fusionados en uno — con razonamiento configurable

Mistral ha lanzado Small 4, su nuevo modelo compacto que integra las capacidades de tres proyectos anteriores: Magistral (razonamiento), Pixtral (visión) y Devstral (código). Arquitectura MoE con 119B parámetros, multimodal (texto + imagen) y esfuerzo de razonamiento configurable: puedes ajustar cuánto "piensa" el modelo según el coste que quieras pagar. Es la apuesta de Mistral por el modelo de propósito general compacto frente a los gigantes de OpenAI y Anthropic que siguen escalando en tamaño.

Por qué importa: Un modelo multimodal con razonamiento configurable abre la puerta a automatizaciones que antes requerían combinar varios modelos: leer una factura escaneada, razonar sobre ella y generar la entrada contable en un solo paso. Para workflows de automatización contable, esto simplifica el stack técnico y reduce el coste por transacción.

Fuente: Innovation in the News

🐦 Lo que se comenta en X

"All LLM frontier labs will do this. It's the final boss battle." — @karpathy

Karpathy empaquetó ayer su herramienta autoresearch —que ejecutó 700 experimentos de ML en 2 días con una sola GPU— en un repo público autocontenido. Fortune le dedicó portada con el nombre "The Karpathy Loop". La frase es sobre la automatización de la investigación de IA: si los labs usan agentes que hacen sus propios experimentos 24/7, la velocidad de mejora de los modelos se desacopla del tamaño del equipo humano.

"Equity holders are better positioned than debt holders for AI-disrupted companies. Block is the signal everyone is ignoring." — Howard Marks (Bloomberg)

Marks lleva décadas diciendo que el mercado siempre tiene razón... hasta que no la tiene. Si el fundador de Oaktree está usando las palabras "underestimated AI" en 2026, vale la pena escuchar.

"OpenClaw is definitely the next ChatGPT." — Jensen Huang, CEO de Nvidia (CNBC)

Huang calificó la plataforma open-source de agentes autónomos de Nvidia como "el proyecto de código abierto más grande, popular y exitoso de la historia de la humanidad". No exactamente una declaración modesta, pero Huang nunca lo ha sido. Ayer en el GTC confirmó que el mercado de modelos fundacionales ya supera los $26.000M en inversión solo en 2026.

🤔 La voz escéptica

"Sam Altman acaba de conceder que necesitamos grandes avances más allá del scaling para llegar a la AGI. Llevo diciendo esto desde 2022. Bienvenidos a la realidad." — Gary Marcus (Substack, 16 mar)

Marcus es el escéptico más riguroso del ecosistema — no niega la IA, la ha estudiado toda su vida. Lo que cuestiona es el camino: si el propio Altman reconoce que el scaling no basta, ¿cuántas startups están construyendo sobre un paradigma que sus creadores ya saben que tiene techo? Pregunta incómoda para cualquiera que haya levantado capital prometiendo AGI en 3 años.

"El 77% de los CEOs dice que el GenAI ha sido sobrevaluado el último año. El 25% cree que hay una burbuja activa. Mientras tanto los VCs baten récords de inversión en IA." — Motley Fool (17 mar)

No son escépticos de la tecnología — son ejecutivos que llevan 18 meses prometiendo ROI de IA a sus boards y se han dado cuenta de que el PowerPoint y la producción son cosas distintas. La brecha entre hype y resultados reales sigue siendo el principal problema de adopción enterprise. Un número que conviene tener a mano en conversaciones de ventas.

"¿Estás obteniendo valor real de la velocidad de coding con IA? Velocidad de prototipado no es productividad neta." — John Sviokla, ex-socio PwC (Substack, 17 mar)

El argumento: el 10x en velocidad de generación de código no se traduce en 10x en software entregado si el bottleneck está en revisión, testing y despliegue. Una pregunta incómoda para equipos que presumen de "vibe coding" sin medir el ciclo completo.


Fuentes nuevas de hoy: Fintech Global (análisis de agentes IA en finanzas verticales) · Innovation in the News (newsletter diaria de modelos y lanzamientos) · John Sviokla Substack (perspectiva enterprise/PwC sobre adopción de IA)