01 mar — Trump veta a Anthropic del Pentágono: la IA tiene líneas rojas
Trump prohíbe Anthropic en el gobierno federal por negarse a eliminar salvaguardas sobre armas autónomas y vigilancia masiva. Jack Dorsey despide al 40% de Block y avisa que todas las empresas harán lo mismo. DeepSeek V4 llega esta semana.
🔥 Trump expulsa a Anthropic del gobierno y OpenAI firma el contrato del Pentágono horas después
La mayor confrontación entre el gobierno de EE.UU. y un laboratorio de IA culminó el viernes con el ban total de Anthropic en la administración federal. Anthropic se negó a eliminar dos restricciones clave de Claude: el uso para vigilancia masiva de ciudadanos americanos y para armas autónomas sin control humano. El Pentágono (contrato de hasta $200M) exigió que Claude estuviera disponible para «todos los usos legales». Anthropic dijo que no. Hegseth declaró a Anthropic «riesgo de seguridad nacional» y Trump ordenó a todas las agencias federales cesar el uso de inmediato. El desenlace irónico: OpenAI cerró un acuerdo con el Pentágono horas después — pero con las mismas líneas rojas que Anthropic había defendido.
Por qué importa: El primer test real de si los laboratorios de IA cederán a presiones gubernamentales sobre salvaguardas. Anthropic no cedió y pagó el precio político. OpenAI negoció el mismo resultado sin perder el contrato. La brecha de posicionamiento entre ambos se amplía enormemente.
Fuente: Georgia Public Broadcasting · NBC News
🇨🇳 Financial Times: DeepSeek V4 llega esta semana — 1M tokens y multimodal nativo
El Financial Times reportó el sábado que DeepSeek publicará V4 en los próximos días, tras el retraso desde mediados de febrero. La nueva versión incorpora 1 millón de tokens de contexto, soporte nativo para audio, video e imagen, y está profundamente optimizada para chips chinos (Huawei, Cambricon). El dato más llamativo: DeepSeek bloqueó el acceso anticipado de Nvidia y AMD al modelo, dándoles ventaja a los fabricantes domésticos de chips.
Por qué importa: Si V4 mantiene el perfil coste/rendimiento que hizo famoso a V3, vuelve a cambiar las reglas del mercado. Las startups tendrán una tercera opción significativamente más barata, entrenada con chips domésticos — lo que complica aún más las sanciones de chips americanas y abre la puerta a que modelos de IA escapen del duopolio OpenAI/Anthropic.
Fuente: Atlas Cloud · CNBC
💼 Jack Dorsey despide al 40% de Block y avisa: «tu empresa será la siguiente»
Block —Square, Cash App, Afterpay— anunció el miércoles el despido de más de 4.000 empleados (el 40% de la plantilla). Dorsey fue explícito: la causa son las «herramientas de inteligencia». «Nuestro negocio es fuerte, el beneficio bruto sigue creciendo. Simplemente ya no los necesitamos.» Su predicción: «En el próximo año, creo que la mayoría de empresas llegarán a la misma conclusión.» La cotización subió un 24% en after-hours.
Por qué importa: Por primera vez, un CEO de una fintech grande admite abiertamente que la IA es la razón directa de recortes masivos. No es reestructuración, no es crisis. Es sustitución deliberada. Para una startup de automatización contable, esto es el mercado diciendo en voz alta lo que Intelia ya hace en silencio para sus clientes.
Fuente: TechCrunch · CNBC
🔐 Dos CVEs críticos en Claude Code: abrir un repo bastaba para hackear tu máquina
Check Point Research reveló que CVE-2025-59536 y CVE-2026-21852 en Claude Code permitían ejecutar código arbitrario y robar claves de API con solo clonar y abrir un repositorio malicioso. El vector: ficheros de configuración (Hooks, servidores MCP) que ejecutan comandos de shell sin confirmación. Ya parcheado — pero primer gran escándalo de seguridad en AI coding tools.
Por qué importa: A medida que los equipos adoptan coding agents con acceso total al entorno local, la superficie de ataque se multiplica. «Enterprise MCP adoption outpacing security controls» es el próximo frente de ciberseguridad — y afecta a cualquier empresa que use Claude Code, Cursor o similar con MCP.
Fuente: Check Point Research · SecurityWeek
🐦 Lo que se comenta en X
"Tonight, we reached an agreement with the Department of War to deploy our models in their classified network. In all of our interactions, the DoW displayed a deep respect for safety..." — @sama
Altman firmó el deal de Pentágono horas después del ban a Anthropic, con las mismas líneas rojas. Hay quien ve pragmatismo; hay quien ve oportunismo.
"OpenAI has released the language in their contract with the DoW, and it's exactly as Anthropic was claiming: 'legalese that would allow those safeguards to be disregarded at will'." — @justanotherlaw
El contrato de OpenAI no prohíbe armas autónomas explícitamente — dice que el uso debe «cumplir con la ley vigente». Exactamente lo que Anthropic rechazó firmar. El debate sobre si OpenAI cedió de verdad o solo cambió el empaque está servido.