Serie Xiaomi MiMo-V2.5 de código abierto: 1T de parámetros bajo licencia MIT, eficiencia de tokens superando a GPT-5.4 en ClawEval

robot
Generación de resúmenes en curso

Según la monitorización de Dongcha Beating, el equipo de Xiaomi MiMo ha abierto el código de la serie de grandes modelos MiMo-V2.5, que incluye dos modelos, ambos bajo la licencia MIT, soportando despliegue comercial, entrenamiento continuado y ajuste fino, con una ventana de contexto de hasta 1 millón de tokens. El MiMo-V2.5-Pro es un modelo MoE de texto puro (arquitectura de Mezcla de Expertos) con un total de 1.02 billones de parámetros y 42 mil millones de parámetros activos; MiMo-V2.5 es un modelo multimodal nativo con un total de 310 mil millones de parámetros y 15 mil millones de parámetros activos, soportando comprensión de texto, imagen, video y audio. MiMo-V2.5-Pro está dirigido principalmente a tareas complejas de agentes y programación. En la evaluación ClawEval, V2.5-Pro logró un 64% de aprobación^3, alcanzando niveles comparables mientras consumía solo unos 70,000 tokens por trayectoria de tarea, lo que es aproximadamente un 40% a 60% menos que Claude Opus 4.6, Gemini 3.1 Pro y GPT-5.4. La puntuación verificada en SWE-bench es de 78.9. En un caso presentado en el blog oficial, V2.5-Pro implementó de forma autónoma un compilador completo de SysY a RISC-V para un proyecto de principios de compiladores en la Universidad de Pekín, en 4.3 horas y 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en un conjunto de pruebas oculto. MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador visual dedicado (ViT de 729 millones de parámetros) y un codificador de audio (de 261 millones de parámetros), con una puntuación de 62.3 en la submuestra general de Claw-Eval. Ambos modelos utilizan una arquitectura mixta de atención de ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token (MTP) de 3 capas (que predice múltiples tokens a la vez para acelerar la inferencia). Los pesos han sido publicados en Hugging Face. Junto con el lanzamiento de código abierto, el equipo de MiMo ha lanzado el ‘Programa de Incentivos para Creadores de Trillón de Tokens Orbit’, ofreciendo un total de 100 billones de tokens en cuota gratuita para usuarios globales durante 30 días. Los desarrolladores individuales, equipos y empresas pueden solicitar en la página del evento, con un período de evaluación de aproximadamente 3 días hábiles. Tras la aprobación, los beneficios se acreditarán en forma de Plan de Tokens o subvenciones, que pueden ser utilizados directamente con herramientas de programación como Claude Code y Cursor.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado