Esta semana pasó algo raro y casi nadie lo está nombrando.
En cinco días, tres laboratorios de frontier AI cerraron sus modelos más importantes al público. Meta lanzó Muse Spark y, por primera vez desde Llama, se lo guardó para ellos. Anthropic anunció Claude Mythos, dijo "es brutal" y añadió: "no lo vamos a liberar". Microsoft sacó sus tres modelos MAI. Todos closed-source, todos encerrados en Azure.
Y en el mismo período, una empresa hizo exactamente lo contrario. Subió un modelo serio a GitHub con licencia Apache 2.0 y le dijo al mundo "llévenselo, modifíquenlo, vendan productos encima, no nos deben nada".
Esa empresa es Google. La que inventó los Transformers. La que compró DeepMind. La que hoy es, sin ironía, el último "Open AI" de la industria.
Esto no es una broma. Y es la historia más importante de la semana porque explica todo lo demás.
La semana que Meta enterró la era Llama
El martes, Meta Superintelligence Labs lanzó Muse Spark, el primer modelo propio del lab de Alexandr Wang desde que fichó en enero. Code name original: "Avocado". Multimodal nativo, con tool use, orquestación multi-agente, y un modo llamado "Contemplating" que pone varios agentes a razonar en paralelo para competir con Gemini Deep Think y GPT Pro.

Técnicamente es competente. No ganó ningún benchmark de forma dramática, pero está en el top-5 de todos. La app de Meta AI subió al #5 del App Store con +87% de descargas iOS en 24 horas y +450% de visitas web en Estados Unidos.
Pero lo que importa no es el benchmark. Lo que importa es que Muse Spark es closed-weights.
Si hace dos años me dices "Meta va a lanzar su modelo más ambicioso y no lo va a abrir", te hubiera dicho que estás loco. Meta es la empresa que convirtió "open source AI" en una categoría. Llama 2 y Llama 3 fueron los catalizadores del ecosistema open source moderno. Zuckerberg escribió un ensayo de 3,000 palabras defendiendo por qué el open source era la estrategia correcta. La narrativa era clara: Meta no vende la API, Meta vende los reels. Abrir los modelos era gratis para ellos y caro para OpenAI.
Y ahora, dos años después, Meta cierra Muse Spark.
¿Qué cambió?
Tengo una teoría. Meta se dio cuenta de que el open source no le estaba dando lo que creía. Llama se convirtió en la base de DeepSeek, de Qwen, de Mistral. Empresas que compitieron con Meta sin pagarle un céntimo y sin compartirle data. Y cuando Alexandr Wang llegó como jefe de MSL, trajo el mindset de Scale AI: los datos son el moat, y si regalas el modelo, estás regalando el moat.
O dicho de otra forma: Meta abrió Llama cuando pensaba que no iba a ganar la carrera. Ahora que cree que sí puede ganarla, cerró la puerta.
Esto no es hipocresía. Es incentive alignment funcionando exactamente como predice la teoría.
El modelo que Anthropic no te va a dejar tocar
El lunes, Anthropic publicó una nota técnica anunciando Claude Mythos Preview. 93.9% en SWE-bench Verified, contra 80.8% de Opus 4.6. 97.6% en USAMO 2026. Anthropic lo describió como "general purpose pero impresionantemente capaz en ciberseguridad", a tal punto que decidieron no liberarlo al público.
No es que lo vayan a soltar en tres meses después de más red-teaming. Es que no va a ser releaseable. Nunca. Al menos no vía API pública.
Mythos solo va a estar disponible bajo un programa llamado Project Glasswing: aproximadamente 40 partners seleccionados a mano, bajo NDA. La lista filtrada hasta ahora incluye a Google, Microsoft, AWS, Nvidia, Apple, Cisco, JPMorgan y Linux Foundation. Todos los demás, incluyéndote a ti y a mí, tendremos que seguir usando Opus 4.6.
Y el mismo día, Anthropic también lanzó Claude Managed Agents: un servicio donde Anthropic corre tus agentes autónomos por ti. $0.08 por hora de sesión. Sandbox, auth, state management, checkpointing, loops, todo incluido. Notion, Rakuten y Asana ya están en producción.
Estos dos anuncios juntos cuentan una historia que es fácil pasar por alto.
Anthropic está absorbiendo la stack completa. Los modelos más potentes se quedan fuera del API público. La infraestructura para correr agentes la provee el propio lab.
Si tu empresa levantó una Series A en 2024 prometiendo "resolver agent infrastructure", tu runway se acortó esta semana. No porque Anthropic te copie. Porque ya no van a necesitarte.
Y por si la integración vertical no fuera suficiente señal, esta semana Anthropic también confirmó el deal con Broadcom + Google por 3.5 gigavatios de compute TPU. El build-out estimado es de $120 a $175 mil millones. Las acciones de Broadcom subieron 6% ese día.
!Broadcom (AVGO) sube tras el deal con Anthropic y Google por 3.5GW de TPUs. Mizuho proyecta que Broadcom va a sacar $21B de Anthropic en 2026 y $42B en 2027.
El patrón está clarísimo. Los labs de frontier están recaudando cantidades de dinero que solo tienen sentido si son los que ganan. No hay espacio para una Series A optimista en "agent layer" cuando tu proveedor de modelos acaba de levantar $122 mil millones en un solo round.
Por cierto, ese round fue el de OpenAI esta semana: $122B a una valuación post-money de $852 mil millones. Amazon, Nvidia, SoftBank al frente. En tres meses, OpenAI ha recaudado más capital del que van a facturar Anthropic, Mistral y xAI juntos en toda su existencia.

Por qué Google es el último 'Open AI'

El miércoles 2 de abril, Google lanzó Gemma 4. Cuatro variantes: E2B, E4B, 26B MoE, 31B Dense. El 31B llegó al #3 del leaderboard de LMArena de modelos open-weight. Reasoning serio, 140+ idiomas, function calling nativo, audio y video. Day-one support en vLLM, llama.cpp, MLX, Ollama.
¿La licencia? Apache 2.0. No es una licencia "open-ish" con restricciones. Es Apache 2.0 pura. Puedes usarlo, modificarlo, distribuirlo, incorporarlo en productos comerciales, sin pagar y sin pedirle permiso a Google.
Esta es la paradoja más interesante del ciclo actual: la empresa que acuñó el término "Open" en OpenAI nunca abrió nada. La empresa que predicó el open source como doctrina acaba de cerrar su mejor modelo. Y la empresa que inventó los Transformers en 2017, que compró DeepMind en 2014, esa es la que hoy regala Gemma 4 sin condiciones.
¿Por qué? ¿Qué tiene Google que los demás no?
Distribución
Search. Android. YouTube. Google Cloud. Gmail. Docs. Google no necesita que pagues por Gemma. Google gana dinero cuando usas Android, cuando buscas, cuando ves un video. Un modelo open source en miles de apps es gratis para Google, porque todas esas apps corren en Android o Google Cloud, y esos son los peajes que Google sí cobra.
TPUs
Google tiene el único silicio alternativo a Nvidia que funciona a escala. Los demás labs necesitan más chips de Nvidia cada mes. Google fabrica sus propias TPUs. Si tienes la fábrica de compute, regalar el modelo no te duele. Cuando el ecosistema necesite escalarlo, va a correr en tu hardware. El deal Broadcom-Anthropic es literalmente eso: Anthropic comprando TPUs de Google. El open source de Google genera demanda por el hardware de Google.
Monetización ya resuelta
Google imprime más de $90 mil millones de beneficio neto al año. Anthropic genera $30B de run rate pero todavía no es rentable. Cuando ya ganas dinero de verdad, puedes ser generoso. Cuando necesitas ganar dinero mañana, tienes que cerrar la puerta.
El open source no es una ideología. Es un lujo de los dominantes.
La narrativa de "OpenAI vs el resto" ha terminado. La narrativa de los próximos dos años es "Google vs el resto, y los demás todos cerrados".
Para tu lunes por la mañana
1. Si estás construyendo sobre modelos open source, estás construyendo sobre Google. Deja de usar Llama como referencia. Migra a Gemma 4. Es mejor hoy, más barato, y la licencia es limpia. Llama 4 no va a venir. Meta lo enterró esta semana.
2. Si tu tesis de inversión incluye startups de "agent infrastructure", repénsatela. Anthropic Managed Agents a $0.08/hr es la señal. Los labs se movieron a ser proveedores directos. El agent layer se convirtió en feature.
3. Si lees una newsletter que dice "el open source va a ganar", cambiá de newsletter. Esta semana: tres cerraron, uno abrió. 3-a-1 para closed. Y el único open no lo hace por convicción, lo hace porque puede permitírselo.
El Gossip
Lo que a todos les gusta. El drama de la semana en IA, con nombres y apellidos.
Musk quiere la cabeza de Altman. En el filing del martes 7, los abogados de Musk pidieron explícitamente la remoción de Sam Altman y Greg Brockman como officers de OpenAI. No es postureo. Jury selection empieza el 27 de abril en Oakland. Musk originalmente demandó en 2024 alegando que OpenAI lo "manipuló" para donar $38M. El miércoles 9 fue a X y lo llamó "not someone you want in charge of superpowerful AI". Fuente
The New Yorker lanza la bomba justo antes del juicio. Ronan Farrow y Andrew Marantz publicaron una investigación de año y medio titulada "Sam Altman may control our future, can he be trusted?". Memos internos de Ilya Sutskever y Dario Amodei (ambos ya fuera de OpenAI) hablan de "acumulación de engaños y manipulaciones alegados". El artículo traza un patrón que, según los autores, se repite desde Loopt hasta Y Combinator hasta OpenAI. ¿Coincidencia que salga justo cuando OpenAI quiere salir a IPO? Fortune lo conectó directamente.
xAI demanda a Colorado por su ley de AI. Filed el miércoles 9 en U.S. District Court. xAI desafía la Senate Bill 24-205 que obliga disclosure y mitigación de riesgo en "high-risk AI" para empleo, vivienda, educación, salud y finanzas. Argumento: viola la Primera Enmienda y obligaría a xAI a alterar Grok para reflejar "la visión del estado sobre diversidad y discriminación". Es la primera vez que un lab frontier desafía judicialmente una ley estatal de AI en EEUU. Si xAI gana, se congela el patchwork estatal. Si pierde, se abren las compuertas para 50 leyes distintas.
Los rivales tomando café a escondidas. OpenAI, Anthropic y Google están cooperando en privado vía el Frontier Model Forum para detectar "adversarial distillation" de DeepSeek, Moonshot AI y MiniMax. Anthropic reporta que los tres generaron ~16 millones de intercambios con Claude vía ~24,000 cuentas fraudulentas. Los que se tiran bombas en Twitter se toman café cuando nadie mira. Chisme puro.
Musk obliga a bancos del IPO de SpaceX a pagar Grok. Condición contractual: para ser advisor en el IPO de SpaceX, hay que pagar suscripción a Grok y integrarla en los sistemas IT del banco. Algunos aceptaron y pagaron millones. Tying clásico, posible antitrust. Pero cuando el deal es SpaceX, nadie dice que no.
Antes de cerrar, tres cosas rápidas
$852.000.000.000. La nueva valuación de OpenAI después del round de $122B. Sin precedente en la historia del venture capital. Procésalo.
Google Eloquent: el quiet launch que mata un subsector. App de dictado offline, gratis, iOS. Corre Gemma on-device. Sin subscripción. Si pagas $15/mes por Wispr Flow, Superwhisper o Willow, bajas Eloquent y cancelas. Ahorro $180/año por usuario.
Lo que NO deberías leer. Cualquier artículo titulado "Q1 2026 shatters records". Cuatro deals concentran el 60%+ del total. Eso no es "la salud del ecosistema AI", es el premio a cuatro empresas.
Mi take
[Tu opinión aquí, Clemente. 200-300 palabras. ¿Qué piensas del cierre masivo? ¿Cómo afecta a Foliume? ¿Qué predicción haces para los próximos 3 meses?]
Esto sí que va a dar resaca a más de uno

Las valoraciones seed están en la estratósfera. El percentil 95 pasó de $65M a $173M en un año. El 90 de $50M a $93M. Datos de 6,447 rondas seed en US via Carta.
La próxima semana hablamos de qué significa esto para los que están levantando, para los que están invirtiendo, y para los que miran desde afuera preguntándose si el mundo perdió la cabeza.
Nos leemos el domingo.