La serie MiMo-V2.5 de Xiaomi se hace de código abierto: 1T de parámetros con una eficiencia de tokens superior frente a GPT-5.4

Mensaje de Gate News, 27 de abril — El equipo MiMo de Xiaomi ha publicado como código abierto la serie de modelos de lenguaje de gran tamaño MiMo-V2.5 bajo licencia MIT, respaldando el despliegue comercial, el entrenamiento continuo y el ajuste fino. Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens. MiMo-V2.5-Pro es una mezcla de expertos de solo texto (MoE) con 1,02 billones de parámetros totales y 42 mil millones de parámetros activos, mientras que MiMo-V2.5 es un modelo multimodal nativo con 310 mil millones de parámetros totales y 15 mil millones de parámetros activos, respaldando la comprensión de texto, imagen, video y audio.

MiMo-V2.5-Pro se enfoca en tareas complejas de agentes y programación. En los benchmarks ClawEval, logró un 64% Pass@3 consumiendo aproximadamente 70.000 tokens por trayectoria de tarea—40% a 60% menos tokens que Claude Opus, Gemini 3.1 Pro y GPT-5.4. El modelo obtuvo 78,9 en SWE-bench Verified. En una demostración, V2.5-Pro implementó de forma independiente un compilador completo de SysY a RISC-V para un proyecto de curso de compiladores de la Universidad de Pekín en 4,3 horas con 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en conjuntos de pruebas ocultos.

MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador de visión dedicado (729 millones de parámetros) y un codificador de audio (261 millones de parámetros), con una puntuación de 62,3 en el subconjunto general Claw-Eval. Ambos modelos emplean una arquitectura híbrida que combina atención con ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token de 3 capas (MTP) para una inferencia acelerada. Los pesos del modelo están disponibles en Hugging Face.

Junto con el lanzamiento de código abierto, el equipo MiMo lanzó el “Programa de Incentivos para el Creador de Cuatrillón de Órbitas de Tokens,” ofreciendo 100 cuatrillones de tokens gratis durante 30 días para usuarios globales. Los desarrolladores individuales, equipos y empresas pueden postularse a través de la página del programa con un ciclo de evaluación de aproximadamente 3 días hábiles; las ventajas aprobadas se distribuyen como Token Plans o créditos directos, compatibles con herramientas como Claude Code y Cursor.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Microsoft implementa Copilot para 743.000 empleados de Accenture

Microsoft está implementando Microsoft 365 Copilot para los 743,000 empleados de Accenture, lo que marca su mayor implementación empresarial hasta la fecha, según Reuters. La medida amplía el plan de Accenture para 2024 de ofrecer Copilot a tantos como 300,000 empleados. Encuesta de Accenture

CryptoFrontierHace9m

DeepSeek Aumenta el Capital Registrado en un 50%, La Participación del Fundador Liang Wenfeng Llega al 34%

Mensaje de Gate News, 28 de abril — Según datos de Qichacha, DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) aumentó su capital registrado de 10 millones de yuanes a 15 millones de yuanes. La contribución de capital registrada del fundador Liang Wenfeng subió de 1 millón de yuanes a 5,1 millones de yuanes

GateNewsHace15m

Reservas de Meta de 1GW+ de energía solar y almacenamiento de energía para centros de datos de IA

Meta ha firmado acuerdos de energía con Overview Energy y Noon Energy para asegurar capacidad de energía para sus centros de datos de inteligencia artificial, según The Economic Times. La compañía reservó hasta 1 gigavatio

CryptoFrontierHace19m

Zhipu Z.ai amplía la promoción triple cuota del GLM Coding Plan hasta el 30 de junio

Mensaje de Gate News, 28 de abril — Zhipu Z.ai anunció una extensión de su promoción triple cuota del GLM Coding Plan, del plazo original del 30 de abril al 30 de junio, abarcando tanto los modelos GLM-5.1 como GLM-5-Turbo. La promoción está disponible en horario de la Hora del Este, de 6:00 AM a 2:00 AM del día siguiente. GLM Coding

GateNewsHace35m

TSMC acelera la expansión al doble de ritmo; cinco fábricas de 2 nm para aumentar la producción en 2026

Mensaje de Gate News, 28 de abril — Taiwan Semiconductor Manufacturing Company (TSMC) está acelerando su expansión de capacidad al doble del ritmo histórico para satisfacer una demanda en aumento desde la inteligencia artificial y la computación de alto rendimiento, según Hou Yongqing, vicepresidente sénior de TSMC. La

GateNewsHace40m

GitHub Copilot cambia a facturación basada en tokens a partir del 1 de junio; las tarifas mensuales permanecen sin cambios

Mensaje de Gate News, 28 de abril — GitHub anunció que todos los planes de Copilot pasarán a la facturación basada en tokens a partir del 1 de junio de 2026. El modelo de precios existente de "solicitud premium" se reemplazará por GitHub AI Credits, y el uso se calculará en función del consumo real de tokens (incluyendo entrada, salida y tokens en caché a tarifas que coincidan con los precios públicos de la API de cada modelo.

GateNewsHace46m
Comentar
0/400
Sin comentarios