Durante la última semana, la comunidad de IA ha estado obsesionada con un misterio. Un modelo sigiloso llamado "Pony Alpha" apareció en OpenRouter el 6 de febrero de 2026 — sin marca, sin nombre de empresa, solo un rendimiento bruto que dejó a los desarrolladores boquiabiertos en Reddit.
Ahora el secreto ha salido a la luz: Pony Alpha es GLM-5, el modelo insignia de nueva generación de Zhipu AI (Z.ai), y es uno de los modelos de IA de código abierto más impresionantes jamás lanzados.
El Gran Misterio de la IA: ¿Qué Era Pony Alpha?#
Cuando Pony Alpha apareció por primera vez en OpenRouter, nadie sabía de dónde venía. Pero las pistas estaban ahí:
- El momento del lanzamiento coincidió con el anuncio de Zhipu AI de que GLM-5 se lanzaría alrededor del Año Nuevo Chino
- El estilo de salida coincidía con la serie GLM
- Cuando se le preguntaba sobre sus orígenes, el modelo se identificaba como un modelo GLM desarrollado por Zhipu
- "Pony" hace referencia al Año del Caballo en el zodiaco chino — un guiño divertido del equipo
Los hilos de Reddit explotaron con especulaciones. ¿Era DeepSeek V4? ¿Un experimento secreto de OpenAI? La revelación hizo que las acciones de Zhipu AI se dispararan un 60% en dos días, llevando su capitalización de mercado a superar los 150 mil millones de HKD (~19 mil millones de USD).
GLM-5 en Números#
GLM-5 representa un salto enorme respecto a su predecesor GLM-4.7. Esto es lo que hay bajo el capó:
| Especificación | GLM-5 | GLM-4.7 (Anterior) |
|---|---|---|
| Parámetros Totales | 745B | 355B |
| Parámetros Activos | 44B (MoE) | 32B |
| Configuración de Expertos | 256 total / 8 activos | — |
| Ventana de Contexto | 200K tokens | 128K |
| Datos de Pre-entrenamiento | 28.5T tokens | 23T |
| Hardware de Entrenamiento | Huawei Ascend | Huawei Ascend |
| Licencia | MIT (Código Abierto) | MIT |
La arquitectura Mixture of Experts (MoE) significa que, aunque GLM-5 tiene 745 mil millones de parámetros totales, solo 44 mil millones están activos por inferencia — manteniéndolo rápido y eficiente en costos a pesar de su escala masiva.
Rendimiento en Benchmarks: Compitiendo con los Mejores#
GLM-5 no solo compite con modelos de código abierto — va cara a cara con los modelos propietarios más costosos del planeta.
Benchmarks de Programación#
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 |
|---|---|---|---|
| SWE-bench Verified | 77.8 | 80.9 | 80.0 |
| SWE-bench Multilingual | 73.3 | 77.5 | — |
| Terminal-Bench 2.0 | 56.2 | 59.3 | 54.0 |
Benchmarks de Razonamiento#
| Benchmark | GLM-5 |
|---|---|
| AIME 2026 | 92.7 |
| GPQA-Diamond | 86.0 |
| Humanity's Last Exam | 30.5 (con herramientas: 50.4) |
Rendimiento Agéntico#
| Benchmark | GLM-5 | GPT-5.2 |
|---|---|---|
| BrowseComp | 75.9 | 65.8 |
| Vending Bench 2 | $4,432 (#1 código abierto) | — |
| MCP-Atlas Public Set | 67.8 | — |
En BrowseComp (tareas de navegación web), GLM-5 realmente supera a GPT-5.2 por un margen significativo. También logró una tasa de alucinación récord según las pruebas de Z.ai.
¿Qué Hace Especial a GLM-5?#
1. El Framework de Reinforcement Learning "Slime"#
GLM-5 introduce una novedosa infraestructura de RL de código abierto llamada Slime. El entrenamiento RL tradicional para modelos grandes es lento y tiene cuellos de botella. Slime desacopla la generación de datos de las actualizaciones de política, logrando hasta 3 veces más rendimiento en comparación con los métodos convencionales.
Esto no es solo un truco de entrenamiento — es la razón por la que GLM-5 sobresale en tareas agénticas de largo horizonte. El framework optimiza específicamente la consistencia en la finalización de tareas por encima de la optimización superficial de métricas.
2. DeepSeek Sparse Attention (DSA)#
Por primera vez en la serie GLM, GLM-5 integra el mecanismo Sparse Attention de DeepSeek. Los transformers tradicionales sufren de complejidad cuadrática — duplicar la longitud del contexto cuadruplica el costo computacional. DSA rompe este techo, permitiendo que GLM-5 maneje su ventana de contexto completa de 200K sin la degradación de rendimiento habitual.
3. Diseñado para Ingeniería Agéntica#
A diferencia de los modelos optimizados para chat, GLM-5 está diseñado específicamente para flujos de trabajo de ingeniería de múltiples pasos. En la evaluación Vending Bench 2 (que simula un año de operación empresarial), GLM-5 demostró asignación consistente de recursos, ajuste dinámico de estrategia y gestión de riesgos a lo largo de 365 días simulados — clasificándose como #1 entre todos los modelos de código abierto.
4. Entrenado Completamente en Hardware Chino#
GLM-5 fue entrenado exclusivamente en chips Huawei Ascend usando el framework MindSpore — logrando independencia total de semiconductores fabricados en EE.UU. Este es un hito significativo para la infraestructura de IA doméstica de China y demuestra que los modelos de frontera pueden construirse sin hardware de NVIDIA.
Precios: 7 Veces Más Barato que Claude#
Aquí es donde GLM-5 se vuelve realmente interesante para los desarrolladores:
| Modelo | Entrada (por 1M tokens) | Salida (por 1M tokens) |
|---|---|---|
| GLM-5 | $0.80 – $1.00 | $2.56 – $3.20 |
| Claude Opus 4.5 | $5.00 | $25.00 |
| GPT-5.2 | $1.25 | $10.00 |
GLM-5 ofrece ~90% del rendimiento de programación de Claude Opus 4.5 a ~14% del costo. Para equipos que ejecutan cargas de trabajo de IA de alto volumen, el ahorro es enorme.
Aún mejor: GLM-5 está disponible actualmente de forma gratuita en Kilo Code por tiempo limitado — sin claves API, sin suscripciones.
Cómo Usar GLM-5#
Opción 1: API de OpenRouter#
GLM-5 está disponible en OpenRouter desde el 11 de febrero de 2026. Puedes usarlo con cualquier herramienta o framework compatible con OpenRouter.
Opción 2: Plataforma Z.ai#
Accede a GLM-5 directamente a través de Z.ai, la plataforma oficial de Zhipu AI.
Opción 3: Kilo Code (Gratis)#
Kilo Code ofrece GLM-5 gratis durante el período de lanzamiento. Solo instala la extensión de VS Code, selecciona GLM-5 en el menú desplegable de modelos y empieza a programar.
Opción 4: API de WaveSpeed#
WaveSpeed proporciona acceso API optimizado con precios competitivos.
Opción 5: Auto-Hospedaje (Próximamente)#
Con licencia MIT y pesos disponibles en HuggingFace y ModelScope, podrás desplegar GLM-5 en tu propia infraestructura. Dado el conteo de 745B parámetros, necesitarás hardware serio — pero el diseño de 44B parámetros activos lo hace más manejable de lo que esperarías.
GLM-5 vs GPT-5.2 vs Claude Opus 4.5: El Panorama Completo#
| Característica | GLM-5 | GPT-5.2 | Claude Opus 4.5 |
|---|---|---|---|
| Parámetros | 745B (44B activos) | No revelado | No revelado |
| Ventana de Contexto | 200K | 400K entrada / 128K salida | 200K |
| Código Abierto | ✅ Licencia MIT | ❌ Cerrado | ❌ Cerrado |
| SWE-bench | 77.8 | 80.0 | 80.9 |
| BrowseComp | 75.9 | 65.8 | — |
| Terminal-Bench | 56.2 | 54.0 | 59.3 |
| Precio Entrada/1M | $0.80–1.00 | $1.25 | $5.00 |
| Precio Salida/1M | $2.56–3.20 | $10.00 | $25.00 |
| Hardware de Entrenamiento | Huawei Ascend | NVIDIA | NVIDIA |
| Nivel Gratuito | ✅ (Kilo Code) | ❌ | ❌ |
El veredicto: GLM-5 es la mejor propuesta de valor en IA en este momento. No está del todo al nivel de Claude Opus 4.5 en todos los aspectos, pero está notablemente cerca — y es de código abierto, 7 veces más barato y disponible gratis. Para la mayoría de las tareas reales de programación y razonamiento, la diferencia de rendimiento es insignificante.
¿Quién Debería Usar GLM-5?#
- Desarrolladores conscientes del presupuesto que quieren rendimiento cercano a la frontera sin precios de frontera
- Defensores del código abierto que prefieren modelos que pueden inspeccionar, ajustar y auto-hospedar
- Constructores de IA agéntica — el rendimiento de GLM-5 en tareas de largo horizonte es genuinamente el mejor de su clase entre modelos abiertos
- Equipos globales que trabajan en múltiples idiomas (GLM-5 tiene excelente soporte multilingüe, especialmente para chino + inglés)
- Cualquier persona curiosa sobre el modelo que rompió internet como "Pony Alpha"
Conclusión#
Zhipu AI ejecutó una de las jugadas de marketing más brillantes en la historia de la IA. Al lanzar GLM-5 de forma anónima como "Pony Alpha", dejaron que el rendimiento del modelo hablara por sí mismo — sin bombo publicitario, sin relaciones públicas corporativas, solo capacidad pura que tuvo a toda la comunidad de IA hablando.
¿El resultado? Un modelo que demuestra que la IA de código abierto puede competir con las mejores ofertas propietarias a una fracción del costo. GLM-5 no es perfecto — queda unos puntos por detrás de Claude Opus 4.5 en benchmarks de programación y tiene algunos problemas de latencia reportados — pero a 7 veces más barato con licencia MIT, es una opción increíblemente atractiva.
El caballo ha salido del establo. Y corre rápido.
¿Quieres explorar más herramientas de IA? Consulta nuestro directorio completo para lo último en herramientas de desarrollo de IA, asistentes de programación y más.
