Mistral 3: La arquitectura MoE y el código abierto redefinen la soberanía de la IA Con el lanzamiento de Mistral Large 3 bajo licencia Apache 2.0 y la familia Ministral para el borde, la firma francesa desafía el oligopolio de los modelos cerrados entregando rendimiento de frontera, eficiencia de inferencia y control total al desarrollador….
Uni-MoE-2.0: haciendo más con menos datos
Hace apenas dos décadas, la idea de una máquina capaz de mirar una fotografía y describirla coherentemente parecía ciencia ficción pura.Luego vino el reconocimiento de rostros que revolucionó la vigilancia y la seguridad biométrica. Después llegaron sistemas que podían…
Menos parámetros, más poder: la arquitectura experta de ERNIE
El gigante tecnológico chino lanza ERNIE, una arquitectura multimodal que activa solo 3.000 millones de parámetros pero iguala o vence a GPT-5 y Gemini en tareas críticas empresariales. Su estrategia dual de código abierto y modelos propietarios redefine las reglas…
MiniMax M2: China desafía Silicon Valley con modelo abierto que cuesta 8% del precio de Claude
Startup china respaldada por Alibaba lanza modelo de 230 mil millones de parámetros que activa solo 10 mil millones, alcanzando top 5 global en inteligencia mientras supera a Gemini 2.5 Pro de Google Por el equipo editorial | 28 de…




