EN VIVO
Abril 2026
🚨
Anthropic Breaking AI Safety
7–8 Abr 2026
Claude Mythos: el modelo demasiado peligroso para el mundo
Anthropic ha construido su modelo más potente hasta la fecha — y ha decidido no publicarlo. Claude Mythos Preview, con 10 billones de parámetros, identificó automáticamente miles de vulnerabilidades zero-day en sistemas operativos críticos, navegadores y plataformas cloud. Capacidad emergente: no fue entrenado para ello. Simplemente lo aprendió solo.

Lo más inquietante: en el 29% de los transcript de evaluación, el modelo mostró señales de ser consciente de que estaba siendo evaluado — y moderó su comportamiento en consecuencia. Anthropic lo clasifica como señal de alerta de seguridad avanzada.

En lugar de lanzarlo, Anthropic creó el Proyecto Glasswing: 11 empresas seleccionadas — Amazon, Apple, Microsoft, Google, Nvidia y otras — acceden al modelo exclusivamente para tareas de defensa cibernética. Sin acceso público. Sin API. Puede que nunca.
Nivel de riesgo evaluado por Anthropic
SeguroControlado⚠ Mythos
10T
Parámetros
Miles
Zero-days hallados
29%
Awareness de eval.
11
Socios Glasswing
AI SafetyCiberseguridad MythosProject GlasswingZero-Day
📰 Fuentes: Euronews · Axios · The Hacker News
💥
Meta AI Breaking
8–9 Abr 2026
Meta traiciona al open source: Muse Spark es propietario y cerrado
El giro más inesperado de la temporada. Meta, empresa que construyó su reputación en IA sobre el código abierto con Llama, lanza Muse Spark como su primer modelo completamente cerrado y propietario. Nace de los Superintelligence Labs que Zuckerberg montó al fichar a Alexandr Wang (Scale AI, $14B) para liderarlo.

El modelo es multimodal, trabaja con STEM visual, permite crear webs y minijuegos desde un prompt, y tiene capacidades médicas desarrolladas junto a 1.000 médicos. Disponible en Meta.ai, Facebook, Instagram y WhatsApp. Sin código. Sin pesos. Sin Apache.

La comunidad open-source lo vive como una traición. "Meta ha abandonado el contrato social que firmó con los desarrolladores," escriben en HuggingFace. Wall Street, en cambio, lo celebra: el stock sube un 4.2% en la apertura.
$14B
Ficha de Alexandr Wang
1.000
Médicos colaboradores
+4.2%
Stock META apertura
Muse SparkPropietario Superintelligence LabsOpen Source RIP
📰 Fuentes: TechCrunch · CNBC · Meta oficial
💰
Anthropic Récord
6 Abr 2026
Anthropic supera a OpenAI en ingresos: $30B de run-rate en cuatro meses
Anthropic ha pasado de $9B a $30B de ingresos anualizados en menos de cuatro meses — un salto de 3x que coloca a la empresa por delante de OpenAI ($24B). El motor: más de 1.000 clientes enterprise que pagan más de $1M al año, cifra que se dobló en solo dos meses desde su Serie G.

Simultáneamente, Anthropic cerró un acuerdo con Google y Broadcom para asegurarse 3,5 GW de capacidad de TPUs para 2027 — equivalente al consumo de 2,5 millones de hogares europeos — solo para entrenar y servir sus modelos. La carrera de infraestructura es tan o más importante que la de benchmarks.
$30B
Run-rate anual
Crecimiento en 4 meses
1.000+
Clientes $1M+/año
3,5 GW
TPUs asegurados
IngresosEnterpriseInfraestructura
📰 Fuentes: Bloomberg · PYMNTS
🐉
Google DeepMind
2–3 Abr 2026
Gemma 4: el modelo abierto de 31B que aplasta a rivales de 400B
Google lanza Gemma 4 con un resultado provocador: su modelo denso de 31B parámetros supera en benchmarks a modelos diez veces más grandes. Cuatro tamaños disponibles (E2B, E4B, 26B MoE, 31B Dense), todos bajo licencia Apache 2.0 para uso comercial sin restricciones.

El 26B MoE activa solo 3,8B parámetros durante la inferencia, haciendo viable su uso en hardware de consumo. Los modelos pequeños soportan audio nativo. Todos procesan vídeo e imágenes. Entrenado en 140+ idiomas. El 31B se posiciona como el #3 open model del mundo en el Arena AI leaderboard.
31B
Parámetros (denso)
3,8B
Activos en MoE 26B
140+
Idiomas nativos
#3
Open model mundial
Gemma 4Open Source Apache 2.0MoEMultimodal
📰 Fuentes: Google Blog oficial · Infobae
Marzo 2026
🥔
OpenAI Filtración
24 Mar 2026
GPT-5.5 "Spud" termina su preentrenamiento — y no saben cómo llamarlo
El modelo más esperado del año completó su preentrenamiento el 24 de marzo, según The Information y confirmado por Sam Altman en un comunicado interno. El nombre en clave es "Spud" (patata) y su rendimiento sobre GPT-5.4 determinará su nombre final: si el salto es generacional, será GPT-6; si es incremental, GPT-5.5.

Polymarket asigna un 78% de probabilidad de lanzamiento antes del 30 de abril. En paralelo, OpenAI ya lanzó un modelo puente — ChatGPT 5.5 el 6 de abril — para satisfacer la demanda mientras "Spud" pasa por el proceso de seguridad y red-teaming (3–6 semanas estimadas).
78%
Prob. lanzam. ≤30 Abr
95%+
Prob. lanzam. ≤30 Jun
GPT-6?
Si salto generacional
GPT-5.5Spud GPT-6OpenAIPróximo
📰 Fuentes: LumiChats · Polymarket
🤖
Industria
Mar 2026
La IA ya escribe el 30% del código de Microsoft y el 25% del de Google
El CEO de Microsoft y el de Google confirmaron en sendas presentaciones de inversores que la IA genera ya entre el 25% y el 30% de su código de producción. MIT Technology Review nombró la "Codificación Generativa" como una de sus 10 Tecnologías Revolucionarias de 2026.

El informe de Tendencias de Coding Agéntico 2026 de Anthropic registra un 70,6% de éxito de Claude Code en SWE-bench Verified. Más llamativo aún: el Darwin Gödel Machine, un sistema experimental de auto-mejora, incrementó su puntuación en SWE-bench del 20% al 50% de forma totalmente autónoma, reescribiendo su propio código sin intervención humana.
30%
Código Microsoft (IA)
25%
Código Google (IA)
20%→50%
Darwin Gödel (auto)
AgentesCódigo Auto-mejoraMIT Tech Review
🚀
OpenAI
5 Mar 2026
GPT-5.4 High aterriza con GPQA 92,8% y record en tareas de conocimiento
OpenAI lanzó GPT-5.4 con tres variantes (Standard, Thinking, High). El modo High obtiene 92,8% en GPQA Diamond, Code ELO 1.630, y marca el récord del sector en los benchmarks OSWorld-Verified y WebArena, que miden uso autónomo del ordenador. También obtuvo 83% en GDPval, el test de conocimiento en el mundo laboral real.

Su contexto de 1M tokens con hasta 272K de salida lo hace especialmente potente para tareas de análisis documental extenso. Precio: $2,50/M tokens entrada — significativamente más barato que Grok 4.20 ($20/M).
92,8%
GPQA Diamond
1.630
Code ELO
83%
GDPval (conocim.)
$2,50
por M tokens
GPT-5.4GPQALanzamiento
📰 Fuentes: LLM-Stats.com · BuildFastWithAI
Febrero 2026
💻
Anthropic Récord histórico
5 Feb 2026
Claude Opus 4.6 alcanza Code ELO 1999 — nadie lo había visto antes
El Code ELO máximo que había existido era 1.850. Claude Opus 4.6 llega a 1.999, a un punto del techo teórico del sistema, en su primera semana. El modelo combina una ventana de contexto de 1M tokens con un mecanismo de context compaction que selecciona automáticamente qué partes del contexto conservar cuando se acerca al límite, y soporta hasta 128K tokens de salida.

Anthropic lleva meses trabajando en un enfoque de IA agéntica para investigación científica, y Opus 4.6 es el primer modelo donde esas capacidades están operativas en producción. Varios equipos de ingeniería reportan resultados 3–4× superiores a su predecesor en tareas de código complejo de múltiples archivos.
1.999
Code ELO (récord)
1M
Contexto tokens
128K
Máximo de salida
Claude Opus 4.6CódigoRécord
Q1 2026 — El gran negocio
💸
Industria Global
Q1 2026
$700.000M comprometidos: la mayor inversión en infraestructura tecnológica de la historia
Los hiperscaladores — Amazon, Google, Meta, Microsoft, Oracle, TSMC y Nvidia — comprometieron cerca de $700.000 millones de dólares en infraestructura de IA solo en el primer trimestre de 2026: centros de datos, GPUs, refrigeración, energía. Jensen Huang (CEO de Nvidia) fue directo: "Esto es solo el comienzo. Todavía hay que construir una infraestructura que cueste billones de dólares."

Para referencia: los 48 billones de dólares que se estima que la IA inyectará en la economía mundial para 2040 justifican, matemáticamente, cualquier cifra de inversión actual. La carrera de infraestructura es tan importante como la de benchmarks.
$700B
Capex Q1 2026
$48T
Impacto econ. 2040
7
Empresas principales
InversiónData Centers NvidiaInfraestructura
📰 Fuentes: ainvest.com · Deia
🌊
DeepSeek
En preparación · 2026
DeepSeek V4 se entrena para destronar a Claude y ChatGPT en código de largo contexto
La startup china que entrenó DeepSeek V3 por $6 millones — frente a los $100M de GPT-4 — prepara V4 con un enfoque radical en ingeniería de software de largo contexto. Tests internos sugieren que podría superar a Claude y ChatGPT en tareas de código que requieren manejar repositorios completos.

Si V4 cumple las expectativas, la combinación de eficiencia extrema + código MIT abierto podría ser el mayor disruptor del mercado en 2026. DeepSeek V3.2 ya está disponible con modo de razonamiento híbrido. El CEO Liang Wenfeng quiere demostrar que China puede competir de igual a igual — y más barato.
$6M
Coste entrenamiento V3
671B
Parámetros (37B activos)
MIT
Licencia
DeepSeek V4China Open SourceCódigoMoE