17 mar — La ERP agéntica ya existe: Deloitte y UiPath se la venden al enterprise

UiPath y Deloitte formalizan la primera ERP agéntica con R2R y P2P. Google lanza workflows IA sin código en Opal. Nvidia presenta NemoClaw para seguridad de agentes. IBM lidera transcripción open source. AWS promete inferencia 5x más rápida con Cerebras.

Intelia AI Report — 17 de marzo de 2026

UiPath y Deloitte lanzan la primera ERP agéntica: R2R, P2P y L2C automatizados de punta a punta

UiPath y Deloitte han presentado Agentic ERP, una solución de orquestación end-to-end que combina el Agent Builder y Maestro de UiPath con la consultoría de implementación de Deloitte. El sistema coordina agentes IA, robots RPA, sistemas empresariales y humanos en flujos como Record to Report, Source to Pay, Lead to Cash y gestión de datos maestros. Es model-agnostic (BYOLLM) e incluye una capa de gobernanza y confianza. Además, Deloitte abre un SAP AI & Innovation Center en EMEA para acelerar implementaciones.

Por qué importa: "Agentic ERP" ya es vocabulario de CPOs y CFOs. UiPath y Deloitte van al enterprise con contratos de siete cifras; el mid-market y el SME siguen sin solución accesible. Ahí es exactamente donde juega Intelia.

Fuente: ChannelPost MEA

Google Labs lanza "pasos agente" en Opal: workflows IA sin código que se corrigen solos

Google Labs incorporó un nuevo tipo de paso a Opal, su constructor de mini-apps IA sin código. El agent step selecciona automáticamente qué herramientas y modelos usar (búsqueda web, Veo para vídeo u otros), se autocorrige si la ejecución falla, enruta dinámicamente entre ramas del workflow según el resultado y mantiene memoria entre sesiones. Sin escribir una sola línea de código.

Por qué importa: Si un contable sin experiencia técnica puede construir un workflow que procesa facturas y envía alertas, las herramientas especializadas tienen que ser muy buenas o muy verticales para justificarse. Esto baja el suelo del mercado — y sube el listón para todos los demás.

Fuente: Google Labs Blog

Nvidia presenta NemoClaw en el GTC: agentes IA enterprise con seguridad y gobernanza integradas

El anuncio más relevante para empresas del GTC 2026 no fueron los chips Vera Rubin ni el $1 billón en pedidos — fue NemoClaw: la versión enterprise del framework agéntico open source OpenClaw, con controles de seguridad, privacidad y gobernanza del comportamiento de agentes incluidos de serie. Las empresas pueden ejecutar agentes IA en su propio hardware con control total sobre qué datos tocan y qué acciones ejecutan. Model-agnostic.

Por qué importa: El mayor freno para la adopción de agentes IA en empresas medianas no es el precio ni la tecnología — es el miedo a que el agente toque datos sensibles o actúe sin autorización. NemoClaw convierte ese miedo en un checklist técnico resoluble, y eso acelera el cierre de contratos.

Fuente: TechCrunch

IBM Granite 4.0 Speech: el mejor modelo de voz open source funciona en 1,5 GB de RAM

IBM lanzó Granite 4.0 1B Speech, un modelo ASR multilingüe de 1.000 millones de parámetros que lidera el OpenASR Leaderboard con un Word Error Rate de 5,52. Soporta inglés, francés, alemán, español, portugués y japonés, requiere menos de 1,5 GB de VRAM y es Apache 2.0 — uso comercial completamente libre.

Por qué importa: Un modelo de transcripción mejor que los actuales, open source y ejecutable en edge o en servidor propio. Para cualquier workflow que empiece con una llamada, nota de voz o reunión, esto es infraestructura gratuita de calidad enterprise. Aplica directamente a captura de albaranes por voz o procesamiento de reuniones de aprobación de facturas.

Fuente: WinBuzzer

AWS integra Cerebras en Bedrock: inferencia LLM cinco veces más rápida, disponible ahora

Amazon Web Services integró los sistemas Cerebras CS-3 en Amazon Bedrock desacoplando la fase de prefill (Trainium) de la fase de decode (Cerebras WSE-3). Resultado: throughput 5x superior a las soluciones cloud actuales. Disponible ya para modelos open source y la familia Amazon Nova. La arquitectura surge del acuerdo entre AWS y Cerebras para escalar inferencia sin los cuellos de botella tradicionales de las GPU.

Por qué importa: Más velocidad es directamente convertible en retención. Para productos de automatización que necesitan respuesta inmediata — aprobación de facturas, clasificación automática, agentes que interactúan con usuarios en tiempo real — reducir latencia mejora el NPS. Y si baja el coste por token, los márgenes mejoran con él.

Fuente: WinBuzzer

🐦 Lo que se comenta en X

"I've never felt this much behind as a programmer. The profession is being dramatically refactored as the bits contributed by the programmer are increasingly sparse and between." — @karpathy

Karpathy lleva meses documentando cómo pasó del 20% al 80% de código generado por agentes. Que el propio creador del término "vibe coding" sienta vértigo es la señal de calibración más honesta del sector — y una pista de qué viene para el resto de profesiones.

"The military is now considering using AI chatbots to recommend strike targets. Humans retain final veto, they say. For now." — reacciones en X a los informes del Pentágono

Los reportes sobre el uso de IA generativa para recomendar objetivos militares dispararon el debate sobre dónde están los límites reales del "human in the loop". Útil para conversaciones con clientes conservadores sobre gobernanza de agentes IA en contextos sensibles.

"$1 trillion in Blackwell + Vera Rubin orders. Either this is the real deal or it's the biggest bubble since Dutch tulips. There's no middle ground." — sentimiento generalizado en X tras el keynote del GTC

El keynote de Jensen dividió X entre los que ven una transformación histórica y los que empiezan a hacer las cuentas de si los ingresos justifican la inversión. El debate lleva meses calentándose y ayer alcanzó un nuevo punto de ebullición.

🤔 La voz escéptica

"OpenAI has committed $600B–$1.4T in capex on ~$13B in revenue. Hyperscalers are at a 10:1 capex-to-revenue ratio. These numbers don't need a crash to be a problem — they need time to make sense, and time is exactly what the market isn't giving anyone." — Jon Krohn, ML researcher & autor

Krohn no predice crash (apunta que las advertencias de "burbuja" en el caso dot-com empezaron en 1995, cinco años antes de que pinchara). Pero los ratios que presenta son incómodos. Su consejo para fundadores: diversifica habilidades, construye reservas financieras, invierte en reputación. Si el ciclo se normaliza, la infraestructura quedará más barata para todos — lo que es buena noticia para los que construimos sobre ella.

"23% of credit investors now cite AI bubble as their top risk for 2026." — Bank of America Survey, vía Yahoo Finance

Los mercados de crédito suelen anticipar correcciones antes que los de equity. No es una alarma de colapso, pero sí una señal de que el "smart money" empieza a pedir ROI demostrable, no solo narrativa. Para un fundador, significa que las conversaciones de captación de este semestre van a exigir más métricas reales que el año pasado.


💡 Fuentes a explorar: Labla.org (modelos IA lanzados cada 24h) y AI Futures Forum (roundups diarios de noticias IA con perspectiva europea).